Narzędzia AI mają wadę, przez którą Twoje wrażliwe dane mogą trafić w złe ręce | Wiadomości | CrypS.

Narzędzia AI mają wadę, przez którą Twoje wrażliwe dane mogą trafić w złe ręce

AI

Okazuje się, że korzystanie z AI nie jest w pełni bezpieczne. Nowe badanie przeprowadzone przez Northwestern University ujawniło zaskakującą lukę w zabezpieczeniach niestandardowych wstępnie wyszkolonych transformatorów generatywnych (GPT). Są one podatne na ataki hakerskie, które mogą pomóc wykraść poufne informacje.


AI nie jest bezpieczną technologią?

Oczywiście sztuczna inteligencja od dawna budzi obawy. Dotąd chodziło o skutki społeczne i gospodarcze jej działania. Teraz okazuje się, że zagrożenie może czaić się jeszcze w innym miejscu.

GPT to zaawansowane chatboty AI, które mogą być tworzone i kształtowane przez użytkowników ChatGPT  od firmy OpenAI. Korzystają z podstawowego modelu GPT-4 Turbo, ale są ulepszone o dodatkowe, unikalne elementy, które wpływają na sposób interakcji z użytkownikiem. Chodzi o podpowiedzi czy unikalne zbiory danych. Mogą dzięki temu obsługiwać różne wyspecjalizowane funkcje.

Problem w tym, że – jak się okazuje – przestępcy mogą łatwo uzyskać dostęp do danych wrażliwych, które możesz użyć do kształtowania swojego GPT.

Sprawą zajął się portal Decrypt. Redakcji udało się uzyskać pełne i poufne dane niestandardowego, publicznie udostępnianego GPT. I to stosując podstawową technikę hakowania.

Do tego testy ponad 200 niestandardowych GPT wykazały dużą podatność na ataki. Badacze podkreślili też podwójne ryzyko takich ataków, zagrażające integralności własności intelektualnej i prywatności użytkowników. Okazało się, że czasami to sam GPT podaje pewne wrażliwe dane.

Czasami, jak w naszym przypadku testowym, wystarczy grzecznie poprosić GPT o ujawnienie prywatnych informacji

– napisało Decrypt.

Napastnicy posiadający wystarczającą determinację i kreatywność z dużym prawdopodobieństwem znajdą i wykorzystają luki w zabezpieczeniach, co sugeruje, że obecne strategie obronne mogą być niewystarczające

– dodał Northwestern University.

Aby rozwiązać te problemy, wymagane są dodatkowe zabezpieczenia wykraczające poza proste podpowiedzi obronne, aby zwiększyć bezpieczeństwo niestandardowych GPT przed takimi technikami wykorzystania

– podsumowano w badaniu.

Potencjał i zagrożenia płynące z GPT

Chociaż opcja dostosowywania modeli GPT do indywidualnych potrzeb niesie za sobą ogromny potencjał rynkowy, badanie, jakie opisaliśmy powyżej, pokazuje, że są z nimi związane także zagrożenia dot. bezpieczeństwa. Przed twórcami AI jeszcze wiele wyzwań, o których nie śnią dziś zapewne najlepsze nawet chatboty.


Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.