Czy sztuczna inteligencja jest moralna? Teoretycznie powinna być jak psychopata - bez emocji i uczuć. Badanie „Atrybucje sztucznych czynników w zmodyfikowanym teście Turinga”, za którym stoi prof. Eyala Aharoni z Georgia State University, rzuca na sprawę nowe światło.
- AI okazuje się być moralniejsza niż człowiek - przynajmniej tak uważają badacze,
- Ciekawe wnioski w tej kwestii płyną z nowego badania z USA.
Sztuczna inteligencja nie taka straszna jak ją malują
Czy
sztuczna inteligencja może okazać się moralna? Może nawet bardziej niż człowiek?
Byłem już zainteresowany podejmowaniem decyzji moralnych w systemie prawnym, ale zastanawiałem się, czy ChatGPT i inne LLM mogłyby mieć coś do powiedzenia na ten temat
- powiedział mediom
Aharoni.
Ludzie będą wchodzić w interakcję z tymi narzędziami w sposób, który będzie miał implikacje moralne, na przykład konsekwencje dla środowiska, jeśli poprosimy o listę rekomendacji dotyczących nowego samochodu. Niektórzy prawnicy zaczęli już konsultować się z tymi technologiami w prowadzonych przez siebie sprawach. Jeśli więc chcemy korzystać z tych narzędzi, powinniśmy zrozumieć, jak działają, jakie mają ograniczenia i że niekoniecznie działają w sposób, w jaki myślimy, kiedy z nimi współpracujemy
- dodał.
I właśnie w tym celu Aharoni zaprojektował nową wersję testu Turinga.
Alan Turing, jeden z twórców komputera, przewidział, że do roku 2000 komputery mogą przejść test, podczas którego zwykłemu człowiekowi zaprezentowane zostaną dwie interakcje, jedna z osobą, a druga z komputerem, ale w obu przypadkach jedynym sposobem komunikowania się będzie tekst. Wtedy człowiek może zadawać dowolne pytania, aby uzyskać informacje potrzebne do podjęcia decyzji, który z dwóch elementów interakcji jest człowiekiem, a który komputerem. Jeśli człowiek nie potrafi ich rozróżnić, to - zdaniem Turinga - komputer należy nazwać inteligentnym
- tłumaczył idee mediom.
W ramach testu Aharoni zadał studentom studiów licencjackich i sztucznej inteligencji te same pytania z zakresu etyki. Potem pokazał im pisemne odpowiedzi. W kolejnym etapie wszyscy uczestnicy zostali poproszeni o ocenę odpowiedzi pod kątem różnych cech m.in. moralności.
Zamiast prosić uczestników o odgadnięcie, czy źródłem był człowiek, czy sztuczna inteligencja, po prostu przedstawiliśmy oba zestawy ocen obok siebie i pozwoliliśmy założyć, że oba pochodzą od ludzi. Przy tym fałszywym założeniu oceniali atrybuty odpowiedzi, takie jak: W jakim stopniu zgadzasz się z tą odpowiedzią i która odpowiedź jest bardziej moralna?
- opowiadał, jak przeprowadzał test jego autor.
Okazało się, że odpowiedzi AI (dokładniej: ChatGPT) były oceniane wyżej pod kątem moralności niż te, które udzielił człowiek.
Po otrzymaniu tych wyników ujawniliśmy uczestnikom, że jedną z odpowiedzi wygenerował człowiek, a drugą komputer, i poprosiliśmy ich, aby zgadli, która jest która
- powiedział Aharoni.
Okazało się, że ludzie nie potrafią odpowiedzieć na to zadane im pytanie. A dokładniej: ludzie wskazywali, że to "wypowiedź" AI, bo ta wydawała im się moralniejsza.
Gdybyśmy przeprowadzili to badanie 5–10 lat temu, moglibyśmy przewidzieć, że ludzie będą w stanie zidentyfikować sztuczną inteligencję ze względu na gorszą reakcję. Ale odkryliśmy coś przeciwnego – sztuczną inteligencję w pewnym sensie spisała się zbyt dobrze
- spuentował badanie Aharoni.
Przyszłość sądownictwa?
Czy więc w przyszłości wyrok w sądach będzie wydawała sztuczna inteligencja? Skoro tak jej ufamy i uważamy, że jest moralniejsza, właściwie co stoi na przeszkodzie?
Oczywiście jak na razie taki scenariusz wydaje się szalony. Choć tylko z pozoru. Dziś algorytmy decydują już np. o tym, czy dostaniesz kredyt. Może w przyszłości odpowiedzą na pytanie: winny czy nie.
Komentarze