Sztuczna inteligencja jak psychopata. Wojsko USA obawia się AI

Jak podał magazyn "Foreign Affairs", armia USA nie może ufać sztucznej inteligencji. Ta bowiem także popełnia błędy. Jest to ważne zwłaszcza w kontekście stosowania tej technologii w działaniach związanych z atakami nuklearnymi.
  • Amerykańskie wojskie obawia się AI,
  • Chodzi o wykorzystywanie nowej technologii na polu potencjalnej wojny jądrowej.

Sztuczna inteligencja wysadzi nas w powietrze?

Wojsko USA testuje LLM-y (large language model, ang. duże modele językowe). Chodzi o programy podobne pod kątem działania do ChatGPT. AI może pomagać w procesach decyzyjnych. Tyle że, jak na łamach "Foreign Affair" wykazali Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda, nie można oddać jej pełnej kontroli. Powód?
Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. (...) LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne
- czytamy w artykule. Wszystko powyższe generuje taki oto problem, że nie wiadomo, co modele LLM zrobią przy podejmowaniu decyzji wysokiego ryzyka. Chodzi konkretnie o decyzje, jakie AI może podjąć przy tzw. drabinie eskalacyjnej, czyli w przypadku, gdy napięcie pomiędzy dwoma krajami rośnie.
LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy (...). Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej
- ostrzegają badacze W praktyce oznaczałoby to, że AI nie zawaha się, gdy będzie mogła odpalić głowice nuklearne. Powodem jest oczywiście brak empatii. Program ma tylko określony cel: wygrać konflikt. Stąd zachowa się jak skrajny psychopata!

To ważne zwłaszcza teraz!

To ważne informacje zwłaszcza teraz. Widzimy rozwój AI, a do tego wzrost napięć pomiędzy poszczególnymi krajami na całym świecie. Jeżeli wojskowi będą ślepo ufać sztucznej inteligencji, może to doprowadzić do strasznych skutków.
Wojskowy użytkownik powinien być tak samo zaznajomiony z LLM, jak inny wojskowy obsługujący radar, czołg lub pocisk rakietowy
- zaznaczają autorzy badania.

Komentarze

Ranking giełd