W ramach wspólnego projektu brytyjsko-amerykańskiego przeprowadzono pionierskie testy, które mają odpowiedzieć na pytanie, czy żołnierze-medycy będą skłonni powierzać sztucznej inteligencji kluczowe decyzje na polu walki. Eksperymenty koncentrowały się na zaufaniu i tzw. “wyrównaniu” algorytmów z ludzkimi priorytetami.
* W symulowanych scenariuszach masowych wypadków badano, czy medycy zaufają AI w podejmowaniu decyzji o triażu, gdy nie ma jednej słusznej odpowiedzi.
* Wyniki mają pomóc w tworzeniu systemów AI, które w przyszłości mogłyby wspierać personel medyczny na polu walki, potencjalnie ratując więcej istnień ludzkich dzięki szybszej i spójnej ocenie sytuacji.
Testowanie zaufania w wirtualnej rzeczywistości
Badania, przeprowadzone w październiku 2025 roku w koszarach w Colchester i bazie Brize Norton, wykorzystywały zaawansowaną wirtualną rzeczywistość (VR). Uczestnicy, nie wiedząc, że współpracują z algorytmem, najpierw przeszli testy określające ich indywidualne atrybuty decyzyjne. Następnie w symulacji masowego zdarzenia medycznego oceniali rekomendacje “głównego medyka” – który w rzeczywistości był systemem AI zaprogramowanym tak, aby myślał podobnie do nich lub zupełnie inaczej. Kluczowym elementem było sprawdzenie, czy zaufają tej “osobie” na tyle, by jej delegować decyzje.
Na czym polega “wyrównanie” AI z człowiekiem?
Głównym wyzwaniem, które stawia przed sobą program badawczy “In the Moment” (ITM) agencji DARPA, jest tzw. “wyrównanie” (alignment) sztucznej inteligencji z ludzkimi preferencjami. AI nie myśli naturalnie jak człowiek, a obecnie nie ma dobrych metod pomiaru ludzkiego procesu decyzyjnego. Chodzi o zakodowanie w algorytmie ludzkich priorytetów i wartości, które pojawiają się w sytuacjach wysokiego ryzyka, takich jak triaż medyczny na polu bitwy, gdzie często nie ma jednoznacznie słusznej decyzji.
Testy badały konkretne czynniki wpływające na takie decyzje, jak na przykład: czy lepiej najpierw leczyć ofiarę czy napastnika (skupienie na zasługach), ocena potencjalnej jakości i długości życia pacjenta, czy też preferencja leczenia osób z podobnego środowiska (np. innych żołnierzy).
Potencjał dla przyszłości
Jak wskazuje specjalistka ds. czynników ludzkich z Dstl, w przyszłości personel na polu walki będzie otrzymywał ogromne ilości informacji. Kluczowe jest zrozumienie, jak na ich podstawie podejmuje decyzje i w jaki sposób systemy AI mogłyby w tym pomóc. Zwiększone zaufanie i umiejętność delegowania zadań do “wyrównanej” sztucznej inteligencji mogłoby pozwolić na szybszą i bardziej efektywną pomoc większej liczbie poszkodowanych, kierując się zasadami doświadczonego medyka.
Wyniki obecnych testów posłużą do dalszych badań w ramach brytyjskich programów dotyczących współpracy człowiek-AI i implikacji sztucznej inteligencji dla ludzi. Szczegółowe informacje na temat projektu można znaleźć na oficjalnych stronach instytucji zaangażowanych w badania.
Źródło: Ministry of Defence / gov.uk