Sztuczna inteligencja podsłuchuje nas, gdy wpisujemy hasła. Jak się przed tym chronić?
Okazuje się, że sztuczna inteligencja (AI) może pomóc w odgadywaniu haseł. Analiza akustyczna pozwala zdekodować aż 95% naciśnięć klawiszy. Umożliwia to więc wykradzenie nam dostępu do pewnych kont.
Sztuczna inteligencja może nas okraść
Niedawny artykuł Durham University w Wielkiej Brytanii rzuca nowe światło na rozwój AI. Okazuje się, że nowa technologia pozwala odszyfrować dane wprowadzane z klawiatury wyłącznie na podstawie subtelnych sygnałów akustycznych naciśnięć klawiszy.
Naukowcy opracowali model głębokiej sieci neuronowej wykorzystujący architekturę konwolucyjnych sieci neuronowych (CNN) i pamięci długookresowej (LSTM). Podczas testów w kontrolowanych środowiskach na laptopie MacBook Pro model ten osiągnął aż 95-procentową dokładność w identyfikowaniu naciśnięć danych klawiszy. I to nawet przy szumach i kompresji wprowadzanych przez aplikacje VoIP, takie jak Zoom! Inne podobne metody nie gwarantują tak wysokich wyników.
Innymi słowy, AI może ułatwić hakerom skradzenie naszego hasła!
Jak chronić się przed atakami akustycznymi opartymi na sztucznej inteligencji?
Oczywiście na każdą broń jest tarcza. Jak więc zabezpieczyć się przed takim zagrożeniem? Przede wszystkim warto stosować uwierzytelnianie dwuskładnikowe lub nawet wieloskładnikowe. Wtedy nie wystarczy znać hasło. Konieczne jest wpisanie kodu, który jest wysyłany np. na telefon.
Naukowcy sugerują też, by w haśle używać różnych liczb i symboli. Zwiększa to złożoność i utrudnia dekodowanie go za pomocą samego dźwięku. Dodatkowo hakera i AI można zmylić dodając fałszywe dźwięki klawiszy podczas korzystania z aplikacji VoIP. Można do tego przełączyć ustawienia mikrofonu podczas szczególnie ważnych sesji. Wyciszenie lub włączenie funkcji tłumienia szumów na urządzeniach może utrudniać przechwytywanie wyraźnego dźwięku.
Jeżeli mowa o służbowym sprzęcie, z którego korzystamy w biurze, można poprosić działy IT o wdrożenie środków ochrony przed naciśnięciem klawisza. Organizacje powinny zbadać zabezpieczenia oprogramowania, takie jak techniki maskowania dźwięku.
Oczywiście AI jest zagrożeniem też z innych powodów. Może też podrobić nasz głos i tak oszukać pracownika infolinii, z którym przestępca będzie rozmawiał, podając się za nas. Najpierw oczywiście musiał jeszcze ukraść nasze dane osobowe.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.