Obrazek stworzony przez AI spowodował załamanie S&P 500
Fałszywy obrazek został udostępniony przez zweryfikowane konto na Twitterze podszywające się pod serwis Bloomberg. Niestety grafika stała się w krótkim czasie viralem po tym, jak została przechwycona przez prawdziwe media, które nie zweryfikowały jej pochodzenia.
Potęga AI w manipulacji
W dniu 23 maja doszło do zawieszenia zweryfikowanego konta na Twitterze ,,Bloomberg Feed”, które podszywało się pod znaną platformę medialną. Na powyższym koncie udostępniono bowiem obrazek sugerujący ,,dużą eksplozję” w pobliżu Pentagonu, czyli głównej siedziby Departamentu Obrony Stanów Zjednoczonych. Fałszywa informacja szybko zdobyła rozgłos i została udostępniona przez wiele serwisów, w tym kontrolowane przez państwo rosyjskie medium Russia Today posiadające ponad 3 miliony obserwujących użytkowników na Twitterze oraz indyjskie media Republic, które śledzi 2,8 miliona użytkowników Twittera. Obie te organizacje od tamtej pory zdążyły usunąć już swoje tweety dotyczące fałszywej historii.
Obrazek AI ujawnia błędy
Lokalne władze, w tym Pentagon Force Protection Agency odpowiedzialna za zabezpieczenie budynku, przekazały, że są świadome krążącego raportu i potwierdziły, że ”nie było żadnej eksplozji ani incydentu o którym wszyscy piszą w social mediach”.
Wiele osób na Twitterze zwróciło uwagę na niespójności w obrazku, które wskazywały, że został on wygenerowany przez AI. Zwrócono między innymi uwagę na to, że fasada budynku nie była jednolita, a dwa różne ogrodzenia widoczne na obrazku zdawały się w jednym miejscu zlewać.
Wpływ AI na giełdę i informacje
W wyniku tej wiadomości indeks S&P 500 na krótko spadł o 0,26%, ale szybko się odbił, kiedy okazało się, że zdjęcie jest fałszywką. Narzędzia AI były wcześniej wykorzystywane do tworzenia fałszywych wiadomości i wprowadzających w błąd treści. Jeszcze niedawno, bo na początku maja, irlandzka gazeta ,,The Irish Times” przeprosiła, po tym jak została wprowadzona w błąd i opublikowała przesłany jej artykuł, który został wygenerowany przez AI. W kwietniu kalifornijski regulator finansowy zdecydowanie wystąpił przeciwko rzekomym usługom handlu kryptowalutami i zarzucił, że niektóre z firm wykorzystały jego wizerunek poprzez awatary AI w celach promocyjnych.
Sztuczna inteligencja w oszustwach kryptowalutowych
Sztucznie tworzone ,,deepfake’i” znanych postaci z branży kryptowalut często były wykorzystywane w próbach przeprowadzenia oszustw. Jednym z najbardziej znanych przykładów był sfabrykowany filmik z udziałem współzałożyciela giełdy FTX, Sama Bankmana-Frieda. Zaczął on krążyć w sieci zaraz po załamaniu giełdy i próbował przekierować użytkowników FTX do szkodliwej strony pod pretekstem air dropa.
Takie zdarzenia pokazują jak łatwo można manipulować informacjami za pomocą sztucznej inteligencji i jak duże mogą być tego konsekwencje. W związku z tym konieczne jest zwracanie uwagi na źródło informacji, szczególnie w świecie szybko zmieniających się technologii i krypto. Fałszywe informacje mogą nie tylko wprowadzić w błąd jednostki, ale także wpłynąć na globalne rynki, tak jak pokazał przykład chwilowego załamania na giełdzie spowodowanego fałszywym obrazem eksplozji Pentagonu. W dobie postępującej cyfryzacji i rosnącej roli sztucznej inteligencji, walka z dezinformacją staje się coraz większym wyzwaniem.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.