Sztuczna inteligencja (AI) to technologia, która w złych rękach możne przyczynić się do znacznej zmiany porządku na świecie. Państwa totalitarne wykorzystują swoje supergrupy hackerów, które kradną dla nich środki na poczet finansowania wojen, a także przechwytują wrażliwe dane. AI może im to znacznie ułatwić. Teraz na jaw wyszła informacja, że twórcy ChatGPT zdołali odeprzeć atak ze strony chińskiej grupy cyberprzestępczej.
- Ekipa "SweetSpecter" próbowała przejąć wrażliwe dane należące do OpenAI,
- Hackerzy próbowali dostać się do systemów firmy poprzez phishing.
OpenAI na celowniku chińskich hackerów
Przeważnie na łamach naszego serwisu
CrypS.pl piszemy o działaniach północnokoreańskiego kolektywu hackerów, znanego jako
Lazarus Group.
Wynika to z tego, że są oni najbardziej aktywnie działającą grupą, jeśli chodzi o ataki na
giełdy kryptowalut oraz zdecentralizowane protokoły.
Oczywiście hackerzy ci działają
na zlecenie tamtejszego reżimu Kimów, aby finansować budowę broni nuklearnej.
Inną tego typu ekipą z Azji jest
SweetSpecter, która współpracuje z
władzami Chin.
Ci ludzie także mają wiele za uszami w kwestii cyberprzestępczości i zdołali już napsuć krwi niejednej instytucji.
Teraz dowiadujemy się z
najnowszego raportu Bloomberga, że grupa ta próbowała dostać się do systemów topowej firmy z sektora
sztucznej inteligencji, czyli
OpenAI.
//twitter.com/Techmeme/status/1843966125283184762
Hackerzy podszyli się pod zwykłego użytkownika
ChatGPT (czyli flagowego produktu tego startupu), który wysyłał wiadomości mailowe do działu supportu.
Był to oczywiście zabieg opierający się na nakłonieniu ofiary do kliknięcia w fałszywy link, który drenuje dane lub środki z czyjegoś konta zatruwając jego urządzenie.
Jak napisano, SweetSpecter działało właśnie w ten sposób, a linki wysyłane do działu pomocy OpenAI zawierały złośliwe załączniki, które po otwarciu mogły pozwolić hakerom na wykonanie zrzutów ekranu i wyodrębnienie kluczowych danych.
Jednakże tamtym razem hackerzy odeszli z niczym, bowiem zespół ds. cyberbezpieczeństwa zdołał wykryć podejrzane linki.
Cała ta sytuacja miała mieć miejsce na początkuj tego roku.
Zespół ds. bezpieczeństwa OpenAI skontaktował się z pracownikami, których uznano za ofiary tej kampanii phishingowej, i odkrył, że istniejące zabezpieczenia uniemożliwiają dotarcie wiadomości e-mail do firmowych adresów e-mail
- informuje firma.
Dyktatorzy chcą dobrać się do AI
Kilka miesięcy temu OpenAI przekazało, że
zablokowano dostęp do ChatGPT hakerom działającym na zlecenie rządów totalitarnych.
We współpracy z
Microsoft Threat Intelligence okryto aktywność ze strony takich profili i usunięto pięć kont należących do napastników.
Wśród nich znaleźli się powiązani z chińskim rządem hakerzy
Charcoal Typhoon i Salmon Typhoon, Crimson Sandstorm (Iran),
Emerald Sleet (Korea Północna) oraz
Forest Blizzard (Rosja).
//twitter.com/OpenAI/status/1757827921530794361
Komentarze