Brytyjscy i amerykańscy naukowcy testują sztuczną inteligencję jako wsparcie dla medyków w sytuacjach bojowych

W ramach wspólnego projektu brytyjsko-amerykańskiego przeprowadzono pionierskie testy, które mają odpowiedzieć na pytanie, czy żołnierze-medycy będą skłonni powierzać sztucznej inteligencji kluczowe decyzje na polu walki. Eksperymenty koncentrowały się na zaufaniu i tzw. “wyrównaniu” algorytmów z ludzkimi priorytetami.

* Brytyjskie laboratorium obronne Dstl i amerykańska agencja DARPA testowały, jak “wyrównać” sztuczną inteligencję z indywidualnymi preferencjami decyzyjnymi człowieka.
* W symulowanych scenariuszach masowych wypadków badano, czy medycy zaufają AI w podejmowaniu decyzji o triażu, gdy nie ma jednej słusznej odpowiedzi.
* Wyniki mają pomóc w tworzeniu systemów AI, które w przyszłości mogłyby wspierać personel medyczny na polu walki, potencjalnie ratując więcej istnień ludzkich dzięki szybszej i spójnej ocenie sytuacji.

Testowanie zaufania w wirtualnej rzeczywistości

Badania, przeprowadzone w październiku 2025 roku w koszarach w Colchester i bazie Brize Norton, wykorzystywały zaawansowaną wirtualną rzeczywistość (VR). Uczestnicy, nie wiedząc, że współpracują z algorytmem, najpierw przeszli testy określające ich indywidualne atrybuty decyzyjne. Następnie w symulacji masowego zdarzenia medycznego oceniali rekomendacje “głównego medyka” – który w rzeczywistości był systemem AI zaprogramowanym tak, aby myślał podobnie do nich lub zupełnie inaczej. Kluczowym elementem było sprawdzenie, czy zaufają tej “osobie” na tyle, by jej delegować decyzje.

Na czym polega “wyrównanie” AI z człowiekiem?

Głównym wyzwaniem, które stawia przed sobą program badawczy “In the Moment” (ITM) agencji DARPA, jest tzw. “wyrównanie” (alignment) sztucznej inteligencji z ludzkimi preferencjami. AI nie myśli naturalnie jak człowiek, a obecnie nie ma dobrych metod pomiaru ludzkiego procesu decyzyjnego. Chodzi o zakodowanie w algorytmie ludzkich priorytetów i wartości, które pojawiają się w sytuacjach wysokiego ryzyka, takich jak triaż medyczny na polu bitwy, gdzie często nie ma jednoznacznie słusznej decyzji.

Testy badały konkretne czynniki wpływające na takie decyzje, jak na przykład: czy lepiej najpierw leczyć ofiarę czy napastnika (skupienie na zasługach), ocena potencjalnej jakości i długości życia pacjenta, czy też preferencja leczenia osób z podobnego środowiska (np. innych żołnierzy).

Potencjał dla przyszłości

Jak wskazuje specjalistka ds. czynników ludzkich z Dstl, w przyszłości personel na polu walki będzie otrzymywał ogromne ilości informacji. Kluczowe jest zrozumienie, jak na ich podstawie podejmuje decyzje i w jaki sposób systemy AI mogłyby w tym pomóc. Zwiększone zaufanie i umiejętność delegowania zadań do “wyrównanej” sztucznej inteligencji mogłoby pozwolić na szybszą i bardziej efektywną pomoc większej liczbie poszkodowanych, kierując się zasadami doświadczonego medyka.

Wyniki obecnych testów posłużą do dalszych badań w ramach brytyjskich programów dotyczących współpracy człowiek-AI i implikacji sztucznej inteligencji dla ludzi. Szczegółowe informacje na temat projektu można znaleźć na oficjalnych stronach instytucji zaangażowanych w badania.

Źródło: Ministry of Defence / gov.uk

Podsumuj treść artykułu z AI:
Artykuł ma charakter informacyjny, jest prywatną opinią autora i nie jest poradą/rekomendacją w rozumieniu prawa. Ponadto zawiera linki reklamowe/partnerskie/sponsorowane, a my możemy otrzymać wynagrodzenie, jeśli skorzystasz z usług firm trzecich, do których zostaniesz przekierowany. Nasz serwis nie jest regulowany przez FCA i nie sprzedajemy jakichkolwiek produktów i usług, w tym produktów finansowych, inwestycyjnych, ani ubezpieczeniowych. Nie gwarantujemy aktualności i kompletności informacji znajdujących się na łamach naszego portalu, ani nie bierzemy odpowiedzilaności za ich wykorzystanie oraz decyzje podejmowane przez czytelników.