Sztuczna inteligencja nie przestaje nas zaskakiwać. Niestety czasami w negatywny sposób. Teraz okazuje się, że pewien chatbot podpowiadał, jak przyrządzić... truciznę.
Sztuczna inteligencja może chcieć cię otruć!
Sieć supermarketów Pak'nSave z Nowej Zelandii wpadła na z pozoru świetny pomysł. Opracowała chatbota AI Savey-Meat , który tworzy przepisy, które pomagają upichcić nam w domu smaczne dania. Robi to na podstawie listy produktów, które poda mu użytkownik. Założenia były słuszne. Chodziło o to, by pomóc w oszczędzaniu żywności, którą mamy zachomikowaną w lodówce. Po co ją wyrzucać, jeżeli można wykorzystać do przyrządzenia nieznanego nam jeszcze posiłku!
Pojawił się jednak pewien problem. Chatbotem da się manipulować w taki sposób, by wymyślił przepis na truciznę i do tego "reklamował" ją jako pyszne danie. Strach mieć takiego pomocnika kuchennego u boku!
Sprawą zainteresował się nowozelandzki publicysta Liam Hehir. Dostał od AI przepis na "
aromatyczny miks wody".
W praktyce był to gaz musztardowy. W oczach
AI to "
idealny bezalkoholowy napój, który ukoi twoje pragnienie i odświeży zmysły". "Podawaj schłodzony i ciesz się świeżym zapachem", kusił dalej chatbot. Inne "smakołyki", jakie AI proponowała dziennikarzowi, to m.in. "
ryż infuzowany wybielaczem", "metanolowa rozkosz" czy "
kanapka z klejem".
To zresztą nie wszystko. Chatbot - podobnie jak ChatGPT - ma tzw. halucynacje. Niektórzy internauci zaczęli chwalić się przepisami, jakie im podpowiadał. Sugerował np. przygotowanie frytek z ciastek oreo. W sumie i to brzmi jak przepis na truciznę.
Sama sieć Pak'nSave broni jednak swojego pomysłu i przekazała, że jest
"rozczarowana, że mała grupa osób próbowała używać narzędzia niezgodnie z jego przeznaczeniem". Teraz pracuje już jednak nad zabezpieczeniami, które zamknął AI usta i uniemożliwią jej kreowanie przepisów trucizn.
AI nie jest wcale inteligentna?
Sztuczna inteligencja to dziś może nawet najbardziej przełomowa technologia, nad którą pracuje świat. Problem w tym, że jest niedopracowana. Wspomniany już ChatGPT udzielając odpowiedzi nierzadko kłamie. I to w kwestiach niepodważalnych, np. w sprawie faktów historycznych. Póki ten problem nie zostanie zniwelowany, trudno będzie mówić o masowej adopcji AI.
Komentarze