Sztuczna inteligencja może cię... otruć | Wiadomości | CrypS.

Sztuczna inteligencja może cię… otruć

AI

Sztuczna inteligencja nie przestaje nas zaskakiwać. Niestety czasami w negatywny sposób. Teraz okazuje się, że pewien chatbot podpowiadał, jak przyrządzić… truciznę.


Sztuczna inteligencja może chcieć cię otruć!

Sieć supermarketów Pak’nSave z Nowej Zelandii wpadła na z pozoru świetny pomysł. Opracowała chatbota AI Savey-Meat , który tworzy przepisy, które pomagają upichcić nam w domu smaczne dania. Robi to na podstawie listy produktów, które poda mu użytkownik. Założenia były słuszne. Chodziło o to, by pomóc w oszczędzaniu żywności, którą mamy zachomikowaną w lodówce. Po co ją wyrzucać, jeżeli można wykorzystać do przyrządzenia nieznanego nam jeszcze posiłku!

Pojawił się jednak pewien problem. Chatbotem da się manipulować w taki sposób, by wymyślił przepis na truciznę i do tego “reklamował” ją jako pyszne danie. Strach mieć takiego pomocnika kuchennego u boku!

Sprawą zainteresował się nowozelandzki publicysta Liam Hehir. Dostał od AI przepis na “aromatyczny miks wody”. W praktyce był to gaz musztardowy. W oczach AI to “idealny bezalkoholowy napój, który ukoi twoje pragnienie i odświeży zmysły”. “Podawaj schłodzony i ciesz się świeżym zapachem”, kusił dalej chatbot. Inne “smakołyki”, jakie AI proponowała dziennikarzowi, to m.in. “ryż infuzowany wybielaczem”, “metanolowa rozkosz” czy “kanapka z klejem”.

To zresztą nie wszystko. Chatbot – podobnie jak ChatGPT – ma tzw. halucynacje. Niektórzy internauci zaczęli chwalić się przepisami, jakie im podpowiadał. Sugerował np. przygotowanie frytek z ciastek oreo. W sumie i to brzmi jak przepis na truciznę.

Sama sieć Pak’nSave broni jednak swojego pomysłu i przekazała, że jest “rozczarowana, że mała grupa osób próbowała używać narzędzia niezgodnie z jego przeznaczeniem”. Teraz pracuje już jednak nad zabezpieczeniami, które zamknął AI usta i uniemożliwią jej kreowanie przepisów trucizn.

AI nie jest wcale inteligentna?

Sztuczna inteligencja to dziś może nawet najbardziej przełomowa technologia, nad którą pracuje świat. Problem w tym, że jest niedopracowana. Wspomniany już ChatGPT udzielając odpowiedzi nierzadko kłamie. I to w kwestiach niepodważalnych, np. w sprawie faktów historycznych. Póki ten problem nie zostanie zniwelowany, trudno będzie mówić o masowej adopcji AI.




reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.