Sztuczna inteligencja może cię… otruć

Sztuczna inteligencja nie przestaje nas zaskakiwać. Niestety czasami w negatywny sposób. Teraz okazuje się, że pewien chatbot podpowiadał, jak przyrządzić... truciznę.

Sztuczna inteligencja może chcieć cię otruć!

Sieć supermarketów Pak'nSave z Nowej Zelandii wpadła na z pozoru świetny pomysł. Opracowała chatbota AI Savey-Meat , który tworzy przepisy, które pomagają upichcić nam w domu smaczne dania. Robi to na podstawie listy produktów, które poda mu użytkownik. Założenia były słuszne. Chodziło o to, by pomóc w oszczędzaniu żywności, którą mamy zachomikowaną w lodówce. Po co ją wyrzucać, jeżeli można wykorzystać do przyrządzenia nieznanego nam jeszcze posiłku! Pojawił się jednak pewien problem. Chatbotem da się manipulować w taki sposób, by wymyślił przepis na truciznę i do tego "reklamował" ją jako pyszne danie. Strach mieć takiego pomocnika kuchennego u boku! Sprawą zainteresował się nowozelandzki publicysta Liam Hehir. Dostał od AI przepis na "aromatyczny miks wody". W praktyce był to gaz musztardowy. W oczach AI to "idealny bezalkoholowy napój, który ukoi twoje pragnienie i odświeży zmysły". "Podawaj schłodzony i ciesz się świeżym zapachem", kusił dalej chatbot. Inne "smakołyki", jakie AI proponowała dziennikarzowi, to m.in. "ryż infuzowany wybielaczem", "metanolowa rozkosz" czy "kanapka z klejem". To zresztą nie wszystko. Chatbot - podobnie jak ChatGPT - ma tzw. halucynacje. Niektórzy internauci zaczęli chwalić się przepisami, jakie im podpowiadał. Sugerował np. przygotowanie frytek z ciastek oreo. W sumie i to brzmi jak przepis na truciznę. Sama sieć Pak'nSave broni jednak swojego pomysłu i przekazała, że jest "rozczarowana, że mała grupa osób próbowała używać narzędzia niezgodnie z jego przeznaczeniem". Teraz pracuje już jednak nad zabezpieczeniami, które zamknął AI usta i uniemożliwią jej kreowanie przepisów trucizn.

AI nie jest wcale inteligentna?

Sztuczna inteligencja to dziś może nawet najbardziej przełomowa technologia, nad którą pracuje świat. Problem w tym, że jest niedopracowana. Wspomniany już ChatGPT udzielając odpowiedzi nierzadko kłamie. I to w kwestiach niepodważalnych, np. w sprawie faktów historycznych. Póki ten problem nie zostanie zniwelowany, trudno będzie mówić o masowej adopcji AI.

Komentarze

Ranking giełd