Jak nie dać się oszukać sztucznej inteligencji? CEO Cardano zaleca prosty zabieg

Amerykański przedsiębiorca Charles Hoskinson zauważył, że sztuczna inteligencja (AI) jest coraz częściej wykorzystywana przez oszustów, aby kraść kryptowaluty. Z uwagi na to, iż zwykle podszywają się oni pod znane osobowości z branży, przedstawił on jedną skuteczną metodę pozwalającą na zweryfikowanie tożsamości.
Współzałożyciel Cardano zalecił użytkownikom, którzy nie mają pewności co do prawdziwości źródła, od którego otrzymali wiadomość, aby zażądali od nadawcy jej podpisu za pomocą klucza Pretty Good Privacy (PGP) z oficjalnego adresu e-mailowego. Jeżeli nie będzie on w stanie tego zrobić, wówczas mogą być pewni, iż ktoś chciał ich oszukać. PGP to program szyfrujący, który zapewnia prywatność kryptograficzną i uwierzytelnianie do transmisji danych. Obok należy podkreślić, że firma Charlesa Hoskinsona opracowała platformę Atala PRISM oferującą infrastrukturę do wydawania zdecentralizowanych identyfikatorów i weryfikowalnych poświadczeń, w odpowiedzi na rosnące zagrożenia. 

Fałszywe wiadomości e-mail wciąż są rozsyłane

Mimo licznych ostrzeżeń na temat różnego rodzaju oszustw prowadzonych drogą e-mailową, nieświadomi członkowie społeczności kryptowalutowej wciąż padają ich ofiarą. Charles Hoskinson zabrał głos w tej sprawie, aby ostrzec opinię publiczną przed niebezpieczeństwem związanym z możliwością użycia AI do kradzieży wirtualnych walut.  Przy wykorzystaniu sztucznej inteligencji oszuści mogą podszywać się pod znane osobowości i przedsiębiorców z sektora kryptoaktywów. Współzałożyciel Cardano udostępnił treść e-maila, w którym nadawca, podając się za niego, próbował oszukać odbiorcę, opowiadając mu o “pierwszym multichainie medycznym uruchomionym na blockchainie Cardano”, który miał rzekomo “ratować życie”.  [embed]//twitter.com/IOHK_Charles/status/1665549671421603840[/embed] Według Charlesa Hoskinsona taką wiadomość mogło napisać narzędzie pokroju ChatGPT, zważywszy na jej stylistykę oraz gramatykę. Obok dodał on, że technologia będzie dalej się rozwijać, a odbiorcy treści będą mieli kłopot w rozpoznaniu, co jest prawdą. Przedsiębiorca ten zaznaczył, iż oszuści codziennie wykorzystują wizerunek znanych postaci tj. Vitalik Buterin czy Elon Musk, aby wyłudzić od nieświadomych inwestorów kryptowaluty. 

Deepfake jeszcze większym zagrożeniem

Zdaniem współzałożyciela IOHK szczególnie niebezpieczna jest technika obróbki obrazu wideo, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu sztucznej inteligencji. Do tego dochodzi możliwość tworzenia dźwięku naśladującego głosy prawdziwych osób. W takiej sytuacji ofiara oszustów może być przekonana o tym, że naprawdę rozmawia ze swoim idolem, a tym samym łatwo przekazać im swoje środki.  Charles Hoskinson prognozuje pojawienie się tego typu praktyk wraz z rozwojem sztucznej inteligencji w ciągu nadchodzących miesięcy. W jego opinii z uwagi na “zaufanie”, jakim członkowie społeczności wirtualnych walut mogą darzyć twórców projektów kryptowalutowych, ogromna ilość cyfrowych aktywów zostanie skradziona. Według współzałożyciela Cardano bez względu na to, jak zaawansowana jest obecnie sztuczna inteligencja, nie będzie ona w stanie złamać podpisu PGP, a przynajmniej nie zapowiada się na to, aby w najbliższym czasie mogła to zrobić. Zdaniem Charlesa Hoskinsona obecnie jest to jedyny pewny sposób weryfikacji tożsamości.  

Komentarze

Ranking giełd