Bloomberg ujawnia kolejny atak na OpenAI
Sztuczna inteligencja (AI) to technologia, która w złych rękach możne przyczynić się do znacznej zmiany porządku na świecie. Państwa totalitarne wykorzystują swoje supergrupy hackerów, które kradną dla nich środki na poczet finansowania wojen, a także przechwytują wrażliwe dane. AI może im to znacznie ułatwić. Teraz na jaw wyszła informacja, że twórcy ChatGPT zdołali odeprzeć atak ze strony chińskiej grupy cyberprzestępczej.
- Ekipa “SweetSpecter” próbowała przejąć wrażliwe dane należące do OpenAI,
- Hackerzy próbowali dostać się do systemów firmy poprzez phishing.
OpenAI na celowniku chińskich hackerów
Przeważnie na łamach naszego serwisu CrypS.pl piszemy o działaniach północnokoreańskiego kolektywu hackerów, znanego jako Lazarus Group.
Wynika to z tego, że są oni najbardziej aktywnie działającą grupą, jeśli chodzi o ataki na giełdy kryptowalut oraz zdecentralizowane protokoły.
Oczywiście hackerzy ci działają na zlecenie tamtejszego reżimu Kimów, aby finansować budowę broni nuklearnej.
Inną tego typu ekipą z Azji jest SweetSpecter, która współpracuje z władzami Chin.
Ci ludzie także mają wiele za uszami w kwestii cyberprzestępczości i zdołali już napsuć krwi niejednej instytucji.
Teraz dowiadujemy się z najnowszego raportu Bloomberga, że grupa ta próbowała dostać się do systemów topowej firmy z sektora sztucznej inteligencji, czyli OpenAI.
OpenAI says it suspects that China-linked SweetSpecter tried to phish its employees earlier in 2024, posing as a ChatGPT user to send customer support emails (@sfiegerman / Bloomberg)https://t.co/6wEOXDwV3b
📫 Subscribe: https://t.co/OyWeKSRpIMhttps://t.co/7IgDopo3x3
— Techmeme (@Techmeme) October 9, 2024
Hackerzy podszyli się pod zwykłego użytkownika ChatGPT (czyli flagowego produktu tego startupu), który wysyłał wiadomości mailowe do działu supportu.
Był to oczywiście zabieg opierający się na nakłonieniu ofiary do kliknięcia w fałszywy link, który drenuje dane lub środki z czyjegoś konta zatruwając jego urządzenie.
Jak napisano, SweetSpecter działało właśnie w ten sposób, a linki wysyłane do działu pomocy OpenAI zawierały złośliwe załączniki, które po otwarciu mogły pozwolić hakerom na wykonanie zrzutów ekranu i wyodrębnienie kluczowych danych.
Jednakże tamtym razem hackerzy odeszli z niczym, bowiem zespół ds. cyberbezpieczeństwa zdołał wykryć podejrzane linki. Cała ta sytuacja miała mieć miejsce na początkuj tego roku.
Zespół ds. bezpieczeństwa OpenAI skontaktował się z pracownikami, których uznano za ofiary tej kampanii phishingowej, i odkrył, że istniejące zabezpieczenia uniemożliwiają dotarcie wiadomości e-mail do firmowych adresów e-mail
– informuje firma.
Dyktatorzy chcą dobrać się do AI
Kilka miesięcy temu OpenAI przekazało, że zablokowano dostęp do ChatGPT hakerom działającym na zlecenie rządów totalitarnych.
We współpracy z Microsoft Threat Intelligence okryto aktywność ze strony takich profili i usunięto pięć kont należących do napastników.
Wśród nich znaleźli się powiązani z chińskim rządem hakerzy Charcoal Typhoon i Salmon Typhoon, Crimson Sandstorm (Iran), Emerald Sleet (Korea Północna) oraz Forest Blizzard (Rosja).
We disrupted five state-affiliated malicious cyber actors’ use of our platform.
Work done in collaboration with Microsoft Threat Intelligence Center. https://t.co/xpEeQDYjrQ
— OpenAI (@OpenAI) February 14, 2024
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.