Sztuczna inteligencja może cię… otruć
Sztuczna inteligencja nie przestaje nas zaskakiwać. Niestety czasami w negatywny sposób. Teraz okazuje się, że pewien chatbot podpowiadał, jak przyrządzić… truciznę.
Sztuczna inteligencja może chcieć cię otruć!
Sieć supermarketów Pak’nSave z Nowej Zelandii wpadła na z pozoru świetny pomysł. Opracowała chatbota AI Savey-Meat , który tworzy przepisy, które pomagają upichcić nam w domu smaczne dania. Robi to na podstawie listy produktów, które poda mu użytkownik. Założenia były słuszne. Chodziło o to, by pomóc w oszczędzaniu żywności, którą mamy zachomikowaną w lodówce. Po co ją wyrzucać, jeżeli można wykorzystać do przyrządzenia nieznanego nam jeszcze posiłku!
Pojawił się jednak pewien problem. Chatbotem da się manipulować w taki sposób, by wymyślił przepis na truciznę i do tego “reklamował” ją jako pyszne danie. Strach mieć takiego pomocnika kuchennego u boku!
Sprawą zainteresował się nowozelandzki publicysta Liam Hehir. Dostał od AI przepis na “aromatyczny miks wody”. W praktyce był to gaz musztardowy. W oczach AI to “idealny bezalkoholowy napój, który ukoi twoje pragnienie i odświeży zmysły”. “Podawaj schłodzony i ciesz się świeżym zapachem”, kusił dalej chatbot. Inne “smakołyki”, jakie AI proponowała dziennikarzowi, to m.in. “ryż infuzowany wybielaczem”, “metanolowa rozkosz” czy “kanapka z klejem”.
To zresztą nie wszystko. Chatbot – podobnie jak ChatGPT – ma tzw. halucynacje. Niektórzy internauci zaczęli chwalić się przepisami, jakie im podpowiadał. Sugerował np. przygotowanie frytek z ciastek oreo. W sumie i to brzmi jak przepis na truciznę.
Sama sieć Pak’nSave broni jednak swojego pomysłu i przekazała, że jest “rozczarowana, że mała grupa osób próbowała używać narzędzia niezgodnie z jego przeznaczeniem”. Teraz pracuje już jednak nad zabezpieczeniami, które zamknął AI usta i uniemożliwią jej kreowanie przepisów trucizn.
AI nie jest wcale inteligentna?
Sztuczna inteligencja to dziś może nawet najbardziej przełomowa technologia, nad którą pracuje świat. Problem w tym, że jest niedopracowana. Wspomniany już ChatGPT udzielając odpowiedzi nierzadko kłamie. I to w kwestiach niepodważalnych, np. w sprawie faktów historycznych. Póki ten problem nie zostanie zniwelowany, trudno będzie mówić o masowej adopcji AI.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.