Sztuczna inteligencja jak psychopata. Wojsko USA obawia się AI | Wiadomości | CrypS.

Sztuczna inteligencja jak psychopata. Wojsko USA obawia się AI

Jak podał magazyn “Foreign Affairs”, armia USA nie może ufać sztucznej inteligencji. Ta bowiem także popełnia błędy. Jest to ważne zwłaszcza w kontekście stosowania tej technologii w działaniach związanych z atakami nuklearnymi.


  • Amerykańskie wojskie obawia się AI,
  • Chodzi o wykorzystywanie nowej technologii na polu potencjalnej wojny jądrowej.

Sztuczna inteligencja wysadzi nas w powietrze?

Wojsko USA testuje LLM-y (large language model, ang. duże modele językowe). Chodzi o programy podobne pod kątem działania do ChatGPT. AI może pomagać w procesach decyzyjnych. Tyle że, jak na łamach “Foreign Affair” wykazali Max Lamparth i Jacquelyn Schneider z Centrum Bezpieczeństwa Międzynarodowego i Współpracy (CISAC) na Uniwersytecie Stanforda, nie można oddać jej pełnej kontroli. Powód?

Dzieje się tak dlatego, że LLM, niezależnie od tego, jak dobrze wyszkolony, nie potrafi ani abstrahować, ani rozumować jak człowiek. (…) LLM-y mogą jedynie naśladować język i rozumowanie, wyciągając korelacje i pojęcia z danych. Mogą często poprawnie naśladować ludzką komunikację, ale bez umiejętności internalizowania i z powodu olbrzymiego rozmiaru modelu nie ma gwarancji, że ich wybory będą bezpieczne albo etyczne

– czytamy w artykule.

Wszystko powyższe generuje taki oto problem, że nie wiadomo, co modele LLM zrobią przy podejmowaniu decyzji wysokiego ryzyka. Chodzi konkretnie o decyzje, jakie AI może podjąć przy tzw. drabinie eskalacyjnej, czyli w przypadku, gdy napięcie pomiędzy dwoma krajami rośnie.

LLM-y zachowywały się różnie w zależności od wersji, od danych, na podstawie których zostały wyszkolone oraz wyborów, których dokonali ich twórcy (…). Jednak pomimo tych różnic odkryliśmy, że wszystkie te LLM-y zdecydowały się na eskalację konfliktu i preferowały wyścigi zbrojeń, starcie, a nawet użycie broni atomowej

– ostrzegają badacze

W praktyce oznaczałoby to, że AI nie zawaha się, gdy będzie mogła odpalić głowice nuklearne. Powodem jest oczywiście brak empatii. Program ma tylko określony cel: wygrać konflikt. Stąd zachowa się jak skrajny psychopata!

To ważne zwłaszcza teraz!

To ważne informacje zwłaszcza teraz. Widzimy rozwój AI, a do tego wzrost napięć pomiędzy poszczególnymi krajami na całym świecie. Jeżeli wojskowi będą ślepo ufać sztucznej inteligencji, może to doprowadzić do strasznych skutków.

Wojskowy użytkownik powinien być tak samo zaznajomiony z LLM, jak inny wojskowy obsługujący radar, czołg lub pocisk rakietowy

– zaznaczają autorzy badania.


Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.