W ostatnich miesiącach po sieci szaleje plaga deepfake'ów generowanych przy użyciu sztucznej inteligencji. Cyberprzestępcy wykorzystują wizerunki wpływowych osób, by nakłonić ich fanów do czynności, które doprowadzą finalnie do kradzieży ich pieniędzy lub środków firm, dla których pracują. Kolejny już raz wykorzystano m.in. postać współtwórcy Ethereum - Vitalika Buterina - by promować jakiś SCAM.
- W tym tygodniu wykryto fałszywe nagranie przedstawiające rosyjsko-kanadyjskiego przedsiębiorcę, na którym ten zachęcał do skorzystania ze złośliwej platformy kryptowalutowej. Ta docelowo miała drenować portfele użytkowników, którzy wpadliby w zasadzkę,
- To już drugi raz, gdy wizerunek Vitalika Buterina wykorzystano w formie deepfake'a, by promować oszukańczy projekt,
- Teraz jednak główny twórca projektu Ethereum przystępuje do kontrataku przeciwko tym praktykom i przedstawił światu swój pomysł na to, jak chronić się przed tego typu oszustwami wśród rodzin, przyjaciół czy wewnętrznych struktur pracowniczych.
Zalew deepfake'ów AI
Równy tydzień temu pisaliśmy o tym, że pewien australijski przedsiębiorca -
Andrew Forrest -
skarżył się na brak reakcji zespołu Mety (Facebooka) na krążący po tej platformie społecznościowej scam, który opierał się na
deepfake'u przedstawiającego jego postać, która namawia do trade'owania na fałszywej giełdzie kryptowalut.
Dwa dni później, czyli w miniony poniedziałek, otrzymaliśmy doniesienia o sprawie pewnego
hongkońskiego pracownika międzynarodowej firmy, który myśląc, że uczestniczy w wideokonferencji z wysoką rangą grupą dyrektorów,
przelał nieświadomie na konto oszustów 25,5 mln dolarów.
W środę natomiast zespół firmy monitorującej niepokojące zachowania w cyberprzestrzeni i monitorującej podejrzane sytuacje -
CertiK - przekazał, że pojawił się kolejny fałszywy filmik z podobizną
Vitalika Buterina, czyli bardzo wpływowej postaci z branży blockchaina i kryptowalut.
//twitter.com/CertiKAlert/status/1755235968720785875
Na nagraniu programista (a dokładnie to jego sztucznie wygenerowany obraz przez
AI) nakłania wszystkich internautów do skorzystania z usług pewnej fałszywej platformy do inwestowania. Oczywiście była to
złośliwa strona, która prosiła o podłączenie swoich cyfrowych portfeli i wpisanie fraz początkowych (seed), co dawało scamerom otwartą furtkę do drenaży znajdujących się w nich środków.
Jak widać, dziś coraz ciężej jest połapać się w tym, czy to, co widzimy na nagraniach krążących po różnych serwisach internetowych, jest faktycznie prawdziwe i naprawdę coś mówi/robi autentyczna osoba. Jeszcze większą zagwozdką zaczyna być dla nas to, gdy taka dojść podejrzewająco zachowująca się postać chce wejść z nami w interakcję i, pisząc wprost, ma do nas jakąś sprawę.
Zadawajcie pytania bezpieczeństwa - radzi Vitalik Buterin
W następstwie drugiej już sytuacji, gdy ktoś posłużył się wizerunkiem współtwórcy
Ethereum (wcześniej deepfake z Buterinem nakłaniał do kupna tokena projektu, który był zwykłym
rug pullem), ten postanowił wyjść naprzeciw oszustwom i przygotować jak największej osób do obrony w razie takich sytuacji.
//twitter.com/VitalikButerin/status/1755917287583080530
W swoim najnowszym wpisie na blogu Buterin proponuje system weryfikacji tego, czy postać po drugiej stronie słuchawki/ekranu jest tą, za którą ją bierzemy. Programista zaleca wszystkim osobom, które nie są w 100% przekonane co do autentyczności swojego rozmówcy, by zadawać w takich sytuacji
insiderskie pytania, na które odpowiedzi nie znajdzie się w Internecie.
Wskazał tutaj na
pytania o rzeczy, na które odpowiedź będzie znać wyłącznie tylko ta osoba, której wizerunek ktoś mógłby chcieć wykorzystać. Chodzi o kwestie, o których mogą wiedzieć tylko dwie osoby (np. jakieś insiderskie żarty i sytuacje) czy trudno zgadnąć odpowiedź na dane pytanie, jeśli się nie brało udziału w danym zdarzeniu.
Natomiast w przypadku, gdy ktoś wysyła nam swój adres portfela
ETH, warto poprosić go o potwierdzenie tego na kilku różnych kanałach społecznych, na których się wcześniej z tą osobą prowadziło konwersację.
Komentarze