AI może okazać się śmiertelnym zagrożeniem. Czy nowa technologia będzie obalać rządy? | Wiadomości | CrypS.

AI może okazać się śmiertelnym zagrożeniem. Czy nowa technologia będzie obalać rządy?

Joe Biden AI AI

Sztuczna inteligencja może stać się bronią w wojnie informacyjnej, stwierdzono podczas pierwszego globalnego szczytu dotyczącego bezpieczeństwa w kontekście AI.


Sztuczna inteligencja może stać się groźną bronią

Choć dziś AI kojarzy się z pomocnymi chatbotami i całkiem ładnymi grafikami, może okazać się dla nas zagrożeniem. Zwłaszcza, gdy trafi w niepowołane ręce.

Przestępcy mogą nadużywać sztucznej inteligencji do cyberataków, do dezinformacji, do oszustw finansowych, a nawet do wykorzystywania seksualnego dzieci

– ostrzegł kilka dni przed wspomnianym szczytem premier Wielkiej Brytanii Rishi Sunak.

Wydarzenie odbyło się w angielskim Bletchley. AI Safety Summit, bo pod tym szyldem spotkali się politycy i eksperci z różnych krajów, okazało się wydarzeniem, w czasie którego opisano nową technologię raczej w ciemnych barwach.

Wskazano np. na to, że zagrożeniem mogą okazać się tzw. duże modele językowe (z ang. Large Language Models). Mogą posłużyć w dezinformacji, np. generowania tysięcy lub milionów dezinformujących postów i to w krótszym czasie niż robią to ludzie. Nie wspominając o kosztach. W dobie napięć geopolitycznych i wojen informacyjnych, które poprzedzają konflikty zbrojne, to śmiertelne zagrożenie.

Deepfake’i

Do tego dochodzą deepfake’, które dzięki AI wyglądają już bardzo realistycznie. Uczestnicy jednego z okrągłych stołów szczytu uznali, że stanowi to ogromne zagrożenie dla demokratycznych wyborów.

Nie trudno sobie wyobrazić np. deepfake’a przedstawiającego znanego polityka, który kandyduje na ważny urząd i jest przedstawiony na “zdjęciu” wykonanym przez AI, jak robi coś bardzo kompromitującego. Np. zdradza żonę z kochanką.

Nim najbardziej zainteresowany wszystko zdementuje, “fotografia” może stać się popularna w social mediach i jeżeli zostanie opublikowana np. na dzień przed wyborami, przekreśli to szanse danego kandydata na wyborczy sukces. Pozwoliło by np. Rosji w kreowaniu sytuacji politycznej w krajach, gdzie panuje liberalna demokracja.

Możliwe, że pierwsze tego typu ataki AI zobaczymy już w 2024 r. Wtedy odbędą się wybory do Parlamentu Europejskiego i prezydenckie w USA.

Jak jednak uregulować rynek AI? Na to pytanie politycy nie znają chyba jeszcze pełnej odpowiedzi.

Joe Biden AI

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.