Narzędzia AI mają wadę, przez którą Twoje wrażliwe dane mogą trafić w złe ręce

Okazuje się, że korzystanie z AI nie jest w pełni bezpieczne. Nowe badanie przeprowadzone przez Northwestern University ujawniło zaskakującą lukę w zabezpieczeniach niestandardowych wstępnie wyszkolonych transformatorów generatywnych (GPT). Są one podatne na ataki hakerskie, które mogą pomóc wykraść poufne informacje.

AI nie jest bezpieczną technologią?

Oczywiście sztuczna inteligencja od dawna budzi obawy. Dotąd chodziło o skutki społeczne i gospodarcze jej działania. Teraz okazuje się, że zagrożenie może czaić się jeszcze w innym miejscu. GPT to zaawansowane chatboty AI, które mogą być tworzone i kształtowane przez użytkowników ChatGPT  od firmy OpenAI. Korzystają z podstawowego modelu GPT-4 Turbo, ale są ulepszone o dodatkowe, unikalne elementy, które wpływają na sposób interakcji z użytkownikiem. Chodzi o podpowiedzi czy unikalne zbiory danych. Mogą dzięki temu obsługiwać różne wyspecjalizowane funkcje. Problem w tym, że - jak się okazuje - przestępcy mogą łatwo uzyskać dostęp do danych wrażliwych, które możesz użyć do kształtowania swojego GPT. Sprawą zajął się portal Decrypt. Redakcji udało się uzyskać pełne i poufne dane niestandardowego, publicznie udostępnianego GPT. I to stosując podstawową technikę hakowania. Do tego testy ponad 200 niestandardowych GPT wykazały dużą podatność na ataki. Badacze podkreślili też podwójne ryzyko takich ataków, zagrażające integralności własności intelektualnej i prywatności użytkowników. Okazało się, że czasami to sam GPT podaje pewne wrażliwe dane.
Czasami, jak w naszym przypadku testowym, wystarczy grzecznie poprosić GPT o ujawnienie prywatnych informacji
- napisało Decrypt.
Napastnicy posiadający wystarczającą determinację i kreatywność z dużym prawdopodobieństwem znajdą i wykorzystają luki w zabezpieczeniach, co sugeruje, że obecne strategie obronne mogą być niewystarczające
– dodał Northwestern University.
Aby rozwiązać te problemy, wymagane są dodatkowe zabezpieczenia wykraczające poza proste podpowiedzi obronne, aby zwiększyć bezpieczeństwo niestandardowych GPT przed takimi technikami wykorzystania
– podsumowano w badaniu.

Potencjał i zagrożenia płynące z GPT

Chociaż opcja dostosowywania modeli GPT do indywidualnych potrzeb niesie za sobą ogromny potencjał rynkowy, badanie, jakie opisaliśmy powyżej, pokazuje, że są z nimi związane także zagrożenia dot. bezpieczeństwa. Przed twórcami AI jeszcze wiele wyzwań, o których nie śnią dziś zapewne najlepsze nawet chatboty.

Komentarze

Ranking giełd