Sztuczna inteligencja podsłuchuje nas, gdy wpisujemy hasła. Jak się przed tym chronić? | Wiadomości | CrypS.

Sztuczna inteligencja podsłuchuje nas, gdy wpisujemy hasła. Jak się przed tym chronić?

AI

Okazuje się, że sztuczna inteligencja (AI) może pomóc w odgadywaniu haseł. Analiza akustyczna pozwala zdekodować aż 95% naciśnięć klawiszy. Umożliwia to więc wykradzenie nam dostępu do pewnych kont.


Sztuczna inteligencja może nas okraść

Niedawny artykuł Durham University w Wielkiej Brytanii rzuca nowe światło na rozwój AI. Okazuje się, że nowa technologia pozwala odszyfrować dane wprowadzane z klawiatury wyłącznie na podstawie subtelnych sygnałów akustycznych naciśnięć klawiszy.

Naukowcy opracowali model głębokiej sieci neuronowej wykorzystujący architekturę konwolucyjnych sieci neuronowych (CNN) i pamięci długookresowej (LSTM). Podczas testów w kontrolowanych środowiskach na laptopie MacBook Pro model ten osiągnął aż 95-procentową dokładność w identyfikowaniu naciśnięć danych klawiszy. I to nawet przy szumach i kompresji wprowadzanych przez aplikacje VoIP, takie jak Zoom! Inne podobne metody nie gwarantują tak wysokich wyników.

Innymi słowy, AI może ułatwić hakerom skradzenie naszego hasła!

Jak chronić się przed atakami akustycznymi opartymi na sztucznej inteligencji?

Oczywiście na każdą broń jest tarcza. Jak więc zabezpieczyć się przed takim zagrożeniem? Przede wszystkim warto stosować uwierzytelnianie dwuskładnikowe lub nawet wieloskładnikowe. Wtedy nie wystarczy znać hasło. Konieczne jest wpisanie kodu, który jest wysyłany np. na telefon.

Naukowcy sugerują też, by w haśle używać różnych liczb i symboli. Zwiększa to złożoność i utrudnia dekodowanie go za pomocą samego dźwięku. Dodatkowo hakera i AI można zmylić dodając fałszywe dźwięki klawiszy podczas korzystania z aplikacji VoIP. Można do tego przełączyć ustawienia mikrofonu podczas szczególnie ważnych sesji. Wyciszenie lub włączenie funkcji tłumienia szumów na urządzeniach może utrudniać przechwytywanie wyraźnego dźwięku.

Jeżeli mowa o służbowym sprzęcie, z którego korzystamy w biurze, można poprosić działy IT o wdrożenie środków ochrony przed naciśnięciem klawisza. Organizacje powinny zbadać zabezpieczenia oprogramowania, takie jak techniki maskowania dźwięku.

Oczywiście AI jest zagrożeniem też z innych powodów. Może też podrobić nasz głos i tak oszukać pracownika infolinii, z którym przestępca będzie rozmawiał, podając się za nas. Najpierw oczywiście musiał jeszcze ukraść nasze dane osobowe.

AI

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.