AI wywoła III wojnę światową? W ostatnich dniach byliśmy o krok od tego!
Okazuje się, że sztuczna inteligencja (AI) jest już obecna na polach bitew. Kilka dni temu niemal przyczyniła się do wybuchu III wojny światowej.
- Izrael wykorzystał AI do zabicia lidera Hezbollahu Hassana Nasrallaha.
- Wykorzystanie nowej technologii może sprawić, że będzie dochodziło do szybszej eskalacji konfliktów.
AI pomogła zabić Hassana Nasrallaha
27 września Izraelowi udało się zabić lidera Hezbollahu Hassana Nasrallaha. Stało się to realne dzięki jednostce Unit 8200, która zajmuje się m.in. przetwarzaniem ogromnej ilości danych, które pomagają potem zmapować odpowiednie cele na polu bitwy.
Dzięki niej udało się namierzyć Nasrallaha, który ukrywał się w bunkrze pod kompleksem apartamentów w południowym Bejrucie. Zrzucono tam aż 80 bomb. Cel osiągnięty: lider terrorystów zginął.
Jak dziś wiemy, wywołało to reakcję Iranu, który wysłał na terytorium Izraela 200 rakiet. Obie strony wykonały kolejny krok w eskalacji konfliktu. I choć – tak samo jak w kwietniu br. – nie doprowadziło to do wybuchu wojny na pełną skalę, było blisko. A wszystko przez AI.
Dlaczego uważam, że to sztuczna inteligencja pozwoliła zabić Nasrallaha? Stał on bowiem na czele Hezbollahu ponad 3 dekady i stąd był łakomym kąskiem dla służb. Przez lata nie udawało się go jednak zabić. Dopiero, kiedy zastosowano AI, misja zakończyła się sukcesem.
Unit 8200
Zatrzymajmy się przy Unit 8200. Po ataku Hamasu 7 października 2023 r. ta izraelska jednostka cyberwywiadowcza zaczęła wykorzystywać AI do analizy różnych danych.
Za pomocą nowej technologii, którą stworzyła firma Corsight, Izrael potrafi np. rozpoznawać twarze ludzi na nagraniach z zamachów.
Do powyższego dochodzi szersze wykorzystanie monitoringu i analiza danych przez AI.
Kolejną bronią Tel-Awiwu jest system sztucznej inteligencji “Lawenda”, który pozwala identyfikować bojowników Hamasu. Jak potwierdzają służby, to “narzędzie wspierające analityków w procesie identyfikacji celów”.
Tu jednak pojawiają się kontrowersje, bowiem margines błędu narzędzia to aż 10%. Innymi słowy, istnieje jedna szansa na dziesięć, że model zamiast terrorystę wskaże niewinną osobę!
Pomijając już to ostatnie, AI na polu walki zwiększa skuteczność przeprowadzania zamachów na ważnych polityków czy wojskowych. Tym samym będzie przyspieszała wspomnianą już eskalację konfliktów.
To zaś oznacza, że pewne sytuacje mogą wyrwać się spod kontroli i wywołać szybciej “gorące” wojny. W okresie, w którym jesteśmy obecnie, to ogromne niebezpieczeństwo.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.