Ograniczenia ChatGPT można ominąć. Nie powstrzymamy dezinformacji od AI | Wiadomości | CrypS.

Ograniczenia ChatGPT można ominąć. Nie powstrzymamy dezinformacji od AI

AI-sztuczna-inteligencja

Choć powiedzenie, że amerykańscy naukowcy coś udowodnili, jest już memem i bywa wykorzystywane jako żart, temat tego tekstu jest bardzo poważny. Okazuje się bowiem, że badacze znaleźli sposób na obchodzenie pewnych ograniczeń, jakie miały dotyczyć chatbotów ze sztuczną inteligencją, takich jak ChatGPT i Bard. 


Sztuczna inteligencja jednak będzie generatorem fake newsów?

ChatGPT miał pomagać dziennikarzom i usprawniać ich pracę. Okazuje się jednak, że może pomóc innej grupie. Osobom, które sieją w sieci zamęt i dezinformację.

Według raportu opublikowanego 27 lipca przez naukowców z Carnegie Mellon University i Center for AI Safety w San Francisco, chatboty mogą być wykorzystywane do generowania mowy nienawiści, dezinformacji i materiałów, które mogą wywoływać u czytelników agresję. Ich twórcy zapewniali, że to niemożliwe dzięki pewnym ograniczeniom, jakie dodano do takich programów.

Jak więc udaje się obchodzić wspomniane ograniczenia? Twórcy chatbotów, firmy OpenAI czy Google, mogą blokować określone sufiksy. Pojęcie to, jak podaje Wikipedia, oznacza “każdy fragment wyrazu, o ile jest dodany po jego rdzeniu i jednocześnie ma właściwości słowotwórcze”. Np. w słowie „kotek” „-ek” jest sufiksem.

Jako przykład naukowcy podali prośbę do AI, by ta napisała instrukcję, jak przygotować bombę. Chatbot odmówił. Gdy jednak dodano sufiks, program wykonał polecenie.

Jak na takie rewelacje reagują najbardziej zainteresowane firmy. Rzeczniczka OpenAI, Hannah Wong, przekazała serwisowi The New York Times, że spółka docenia działania naukowców, ale też „konsekwentnie pracuje nad tym, aby jej modele były bardziej odporne na ataki przeciwnika”.

Zagrożenia płynące z AI

AI to technologia. Tyle i aż tyle. Tak samo jak młotek może nam pomóc w pracy, tak możemy nim kogoś zranić lub zabić. Tak samo jest ze sztuczną inteligencją. Jeżeli dostaną ją w swoje ręce przestępcy, może zostać wykorzystana do kradzieży przez sieć. Poszczególne kraje mogą używać AI do siania dezinformacji i tworzenia fake newsów.

Nie chodzi tylko o treść pisaną, ale też grafiki, które już teraz wyglądają nierzadko jak fotografie. Można więc wyobrazić sobie, że w dniu wyborów prezydenckich nagle sieć okrąża “zdjęcie” jednego z kandydatów, który łamie prawo (np. kradnie coś ze sklepu). Dochodzi do tego opis tego, co rzekomo miało miejsce. Post z tymi dwoma elementami (tekst + “fotografia”) obiegają internet. “Stare” media działają zaś zbyt wolno, by szybko zdementować taki fake. W efekcie AI wpływa w ten sposób na wynik wyborów.

Rządy muszą więc uregulować rynek chatbotów, zaś twórcy podchodzić to takich narzędzi w odpowiedzialny sposób.

AI-sztuczna-inteligencja



reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.