Vitalik Buterin pisze, jak bronić się przed deepfake'ami | Wiadomości | CrypS.

Vitalik Buterin pisze, jak bronić się przed deepfake’ami

Filip Dzięciołowski
Deepfake AI

W ostatnich miesiącach po sieci szaleje plaga deepfake’ów generowanych przy użyciu sztucznej inteligencji. Cyberprzestępcy wykorzystują wizerunki wpływowych osób, by nakłonić ich fanów do czynności, które doprowadzą finalnie do kradzieży ich pieniędzy lub środków firm, dla których pracują. Kolejny już raz wykorzystano m.in. postać współtwórcy Ethereum – Vitalika Buterina – by promować jakiś SCAM. 


  • W tym tygodniu wykryto fałszywe nagranie przedstawiające rosyjsko-kanadyjskiego przedsiębiorcę, na którym ten zachęcał do skorzystania ze złośliwej platformy kryptowalutowej. Ta docelowo miała drenować portfele użytkowników, którzy wpadliby w zasadzkę,
  • To już drugi raz, gdy wizerunek Vitalika Buterina wykorzystano w formie deepfake’a, by promować oszukańczy projekt,
  • Teraz jednak główny twórca projektu Ethereum przystępuje do kontrataku przeciwko tym praktykom i przedstawił światu swój pomysł na to, jak chronić się przed tego typu oszustwami wśród rodzin, przyjaciół czy wewnętrznych struktur pracowniczych.

Zalew deepfake’ów AI

Równy tydzień temu pisaliśmy o tym, że pewien australijski przedsiębiorca – Andrew Forrestskarżył się na brak reakcji zespołu Mety (Facebooka) na krążący po tej platformie społecznościowej scam, który opierał się na deepfake’u przedstawiającego jego postać, która namawia do trade’owania na fałszywej giełdzie kryptowalut.

Dwa dni później, czyli w miniony poniedziałek, otrzymaliśmy doniesienia o sprawie pewnego hongkońskiego pracownika międzynarodowej firmy, który myśląc, że uczestniczy w wideokonferencji z wysoką rangą grupą dyrektorów, przelał nieświadomie na konto oszustów 25,5 mln dolarów.

W środę natomiast zespół firmy monitorującej niepokojące zachowania w cyberprzestrzeni i monitorującej podejrzane sytuacje – CertiK – przekazał, że pojawił się kolejny fałszywy filmik z podobizną Vitalika Buterina, czyli bardzo wpływowej postaci z branży blockchaina i kryptowalut.

Na nagraniu programista (a dokładnie to jego sztucznie wygenerowany obraz przez AI) nakłania wszystkich internautów do skorzystania z usług pewnej fałszywej platformy do inwestowania. Oczywiście była to złośliwa strona, która prosiła o podłączenie swoich cyfrowych portfeli i wpisanie fraz początkowych (seed), co dawało scamerom otwartą furtkę do drenaży znajdujących się w nich środków.

Jak widać, dziś coraz ciężej jest połapać się w tym, czy to, co widzimy na nagraniach krążących po różnych serwisach internetowych, jest faktycznie prawdziwe i naprawdę coś mówi/robi autentyczna osoba. Jeszcze większą zagwozdką zaczyna być dla nas to, gdy taka dojść podejrzewająco zachowująca się postać chce wejść z nami w interakcję i, pisząc wprost, ma do nas jakąś sprawę.

Zadawajcie pytania bezpieczeństwa – radzi Vitalik Buterin

W następstwie drugiej już sytuacji, gdy ktoś posłużył się wizerunkiem współtwórcy Ethereum (wcześniej deepfake z Buterinem nakłaniał do kupna tokena projektu, który był zwykłym rug pullem), ten postanowił wyjść naprzeciw oszustwom i przygotować jak największej osób do obrony w razie takich sytuacji.

W swoim najnowszym wpisie na blogu Buterin proponuje system weryfikacji tego, czy postać po drugiej stronie słuchawki/ekranu jest tą, za którą ją bierzemy. Programista zaleca wszystkim osobom, które nie są w 100% przekonane co do autentyczności swojego rozmówcy, by zadawać w takich sytuacji insiderskie pytania, na które odpowiedzi nie znajdzie się w Internecie.

Wskazał tutaj na pytania o rzeczy, na które odpowiedź będzie znać wyłącznie tylko ta osoba, której wizerunek ktoś mógłby chcieć wykorzystać. Chodzi o kwestie, o których mogą wiedzieć tylko dwie osoby (np. jakieś insiderskie żarty i sytuacje) czy trudno zgadnąć odpowiedź na dane pytanie, jeśli się nie brało udziału w danym zdarzeniu.

Natomiast w przypadku, gdy ktoś wysyła nam swój adres portfela ETH, warto poprosić go o potwierdzenie tego na kilku różnych kanałach społecznych, na których się wcześniej z tą osobą prowadziło konwersację.

Deepfake AI



reklama
reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.