Brytyjski rząd inwestuje w sztuczną inteligencję dla bezpieczeństwa. Nowy projekt ma wspomóc analityków wywiadu

W ramach strategicznej współpracy między rządowym laboratorium obronnym a główną agencją grantową, Wielka Brytania finansuje pionierskie badania nad sztuczną inteligencją (AI) mające na celu wsparcie procesów decyzyjnych w sektorze bezpieczeństwa narodowego. Flaga projektu o wartości 1,25 miliona funtów zakłada stworzenie systemu AI, który nie zastąpi ludzi, ale usprawni i przyspieszy pracę analityków wywiadu.

* Rządowe laboratorium obronne Dstl i Rada ds. Badań Inżynieryjnych i Fizycznych (EPSRC) wspólnie finansują kluczowe projekty badawczo-rozwojowe, w tym w dziedzinie sztucznej inteligencji i komputerów kwantowych.
* Powstał projekt AiTASHA, który ma za zadanie pomóc analitykom w sortowaniu ogromnych ilości danych i wskazywaniu, które informacje są priorytetowe do analizy, a jakie nowe dane warto pozyskać.
* Innowacyjny format warsztatów “Sandpit”, porównywany do kreatywnego “lock-inu”, pozwolił w ciągu tygodnia wyłonić najlepsze pomysły badawcze dzięki bezpośredniej współpracy naukowców z praktykami z sektora obronnego.

Partnerstwo na rzecz innowacji w obronności

Brytyjskie Laboratorium Nauki i Technologii Obronnej (Defence Science and Technology Laboratory, Dstl) od lat ściśle współpracuje z Radą ds. Badań Inżynieryjnych i Fizycznych (Engineering and Physical Sciences Research Council, EPSRC). Celem tego partnerstwa jest nie tylko finansowanie przełomowych badań, ale także budowanie przyszłej kadry wysoko wykwalifikowanych specjalistów dla priorytetowych obszarów obronności. Wspólne inwestycje obejmują m.in. centra szkolenia doktoranckiego w resorcie obrony, granty doktorskie oraz specjalistyczne ośrodki badawcze skupione na sztucznej inteligencji i technologiach kwantowych.

AiTASHA: Sztuczna inteligencja jako asystent analityka

Jednym z efektów tej kooperacji jest projekt o nazwie AI Intelligence Triage and Acquisition Support for Human-centred Analysis (AiTASHA). Kierowany przez badaczy z Instytutu Alana Turinga, projekt ma budżet 1,25 miliona funtów i potrwa dwa lata. Jego filozofią jest stworzenie “wyjaśnialnej” i weryfikowalnej sztucznej inteligencji, która będzie uzupełniać pracę ludzkich analityków, a nie ich zastępować.

Głównym zadaniem systemu ma być pomoc w zarządzaniu tzw. “szumem informacyjnym”. Analitycy wywiadu muszą podejmować decyzje o wysokiej stawce, często pod presją czasu, opierając się na ogromnych, złożonych i niepewnych zbiorach danych. AiTASHA ma automatycznie rekomendować, które z posiadanych już danych powinny zostać poddane ludzkiej analizie w pierwszej kolejności, a także sugerować, jakie nowe informacje mogłyby być najbardziej wartościowe do pozyskania. Ma to zwiększyć zarówno szybkość, jak i trafność ocen sytuacyjnych.

W pracach nad projektem bierze udział konsorcjum czołowych brytyjskich instytucji naukowych, w tym Uniwersytety w Warwick, Southampton, Heriot-Watt i Cardiff.

Warsztaty “Sandpit”: Kreatywny maraton dla bezpieczeństwa

Projekt AiTASHA narodził się w wyniku nietypowych, intensywnych warsztatów zwanych “Sandpit”, zorganizowanych przez EPSRC. Format ten bywa porównywany do twórczego “lock-inu” – tygodniowego spotkania, podczas którego 60 uczestników z świata akademickiego, rządowych naukowców z Dstl oraz przedstawicieli sektora bezpieczeństwa narodowego pracuje non-stop nad konkretnym wyzwaniem.

Ostatnia edycja poświęcona była zastosowaniu AI w wspomaganiu decyzji w obronności. Taki intensywny format pozwolił w bardzo krótkim czasie przepracować ponad 1500 godzin i wyselekcjonować najwyższej jakości pomysły badawcze, które od razu mogły liczyć na finansowanie.

Dlaczego ten model współpracy się sprawdza?

Uczestnicy i organizatorzy wskazują na kilka kluczowych zalet formatu “Sandpit”. Po pierwsze, bezpośredni, długotrwały kontakt między naukowcami a “właścicielami problemów” z instytucji rządowych pozwala od pierwszego dnia projektować badania mające realny, praktyczny wpływ. Po drugie, taki proces podnosi jakość i ambicję projektów – AiTASHA oprócz zaawansowanych badań nad algorytmami uwzględnia także aspekty czynnika ludzkiego i etyki AI, co jest kluczowe dla wdrożenia systemu w wrażliwym sektorze bezpieczeństwa.

Szczegółowe informacje na temat podejścia do współpracy człowieka z AI w analizie wywiadowczej są dostępne w oficjalnych publikacjach rządowych.

Źródło: Defence Science and Technology Laboratory / gov.uk

Podsumuj treść artykułu z AI:
Artykuł ma charakter informacyjny, jest prywatną opinią autora i nie jest poradą/rekomendacją w rozumieniu prawa. Ponadto zawiera linki reklamowe/partnerskie/sponsorowane, a my możemy otrzymać wynagrodzenie, jeśli skorzystasz z usług firm trzecich, do których zostaniesz przekierowany. Nasz serwis nie jest regulowany przez FCA i nie sprzedajemy jakichkolwiek produktów i usług, w tym produktów finansowych, inwestycyjnych, ani ubezpieczeniowych. Nie gwarantujemy aktualności i kompletności informacji znajdujących się na łamach naszego portalu, ani nie bierzemy odpowiedzilaności za ich wykorzystanie oraz decyzje podejmowane przez czytelników.