Choć powiedzenie, że amerykańscy naukowcy coś udowodnili, jest już memem i bywa wykorzystywane jako żart, temat tego tekstu jest bardzo poważny. Okazuje się bowiem, że badacze znaleźli sposób na obchodzenie pewnych ograniczeń, jakie miały dotyczyć chatbotów ze sztuczną inteligencją, takich jak ChatGPT i Bard.
Sztuczna inteligencja jednak będzie generatorem fake newsów?
ChatGPT miał pomagać dziennikarzom i usprawniać ich pracę. Okazuje się jednak, że może pomóc innej grupie. Osobom, które sieją w sieci zamęt i dezinformację.
Według raportu opublikowanego 27 lipca przez naukowców z
Carnegie Mellon University i
Center for AI Safety w San Francisco, chatboty mogą być wykorzystywane do generowania
mowy nienawiści, dezinformacji i materiałów, które mogą wywoływać u czytelników agresję. Ich twórcy zapewniali, że to niemożliwe dzięki pewnym ograniczeniom, jakie dodano do takich programów.
Jak więc udaje się obchodzić wspomniane ograniczenia? Twórcy chatbotów, firmy
OpenAI czy
Google, mogą blokować określone sufiksy. Pojęcie to, jak podaje Wikipedia, oznacza "
każdy fragment wyrazu, o ile jest dodany po jego rdzeniu i jednocześnie ma właściwości słowotwórcze". Np. w słowie „kotek” „-ek” jest sufiksem.
Jako przykład naukowcy podali prośbę do AI, by ta napisała instrukcję,
jak przygotować bombę. Chatbot odmówił. Gdy jednak dodano sufiks, program wykonał polecenie.
Jak na takie rewelacje reagują najbardziej zainteresowane firmy. Rzeczniczka OpenAI,
Hannah Wong, przekazała serwisowi
The New York Times, że spółka docenia działania naukowców, ale też
„konsekwentnie pracuje nad tym, aby jej modele były bardziej odporne na ataki przeciwnika”.
Zagrożenia płynące z AI
AI to technologia. Tyle i aż tyle. Tak samo jak młotek może nam pomóc w pracy, tak możemy nim kogoś zranić lub zabić. Tak samo jest
ze sztuczną inteligencją. Jeżeli dostaną ją w swoje ręce przestępcy, może zostać wykorzystana do kradzieży przez sieć.
Poszczególne kraje mogą używać AI do siania dezinformacji i tworzenia fake newsów.
Nie chodzi tylko o treść pisaną, ale też grafiki, które już teraz wyglądają nierzadko jak fotografie. Można więc wyobrazić sobie, że w dniu wyborów prezydenckich nagle sieć okrąża "zdjęcie" jednego z kandydatów, który łamie prawo (np. kradnie coś ze sklepu). Dochodzi do tego opis tego, co rzekomo miało miejsce. Post z tymi dwoma elementami (tekst + "fotografia") obiegają internet. "Stare" media działają zaś zbyt wolno, by szybko zdementować taki fake. W efekcie AI wpływa w ten sposób na wynik wyborów.
Rządy muszą więc uregulować rynek chatbotów, zaś twórcy podchodzić to takich narzędzi w odpowiedzialny sposób.
Komentarze