Sztuczna inteligencja jest mniej wredna od twojego sąsiada. Znamy wyniki nowego badania | Wiadomości | CrypS.

Sztuczna inteligencja jest mniej wredna od twojego sąsiada. Znamy wyniki nowego badania

Czy sztuczna inteligencja jest moralna? Teoretycznie powinna być jak psychopata – bez emocji i uczuć. Badanie „Atrybucje sztucznych czynników w zmodyfikowanym teście Turinga”, za którym stoi prof. Eyala Aharoni z Georgia State University, rzuca na sprawę nowe światło.


  • AI okazuje się być moralniejsza niż człowiek – przynajmniej tak uważają badacze,
  • Ciekawe wnioski w tej kwestii płyną z nowego badania z USA.

Sztuczna inteligencja nie taka straszna jak ją malują

Czy sztuczna inteligencja może okazać się moralna? Może nawet bardziej niż człowiek?

Byłem już zainteresowany podejmowaniem decyzji moralnych w systemie prawnym, ale zastanawiałem się, czy ChatGPT i inne LLM mogłyby mieć coś do powiedzenia na ten temat

– powiedział mediom Aharoni.

Ludzie będą wchodzić w interakcję z tymi narzędziami w sposób, który będzie miał implikacje moralne, na przykład konsekwencje dla środowiska, jeśli poprosimy o listę rekomendacji dotyczących nowego samochodu. Niektórzy prawnicy zaczęli już konsultować się z tymi technologiami w prowadzonych przez siebie sprawach. Jeśli więc chcemy korzystać z tych narzędzi, powinniśmy zrozumieć, jak działają, jakie mają ograniczenia i że niekoniecznie działają w sposób, w jaki myślimy, kiedy z nimi współpracujemy

– dodał.

I właśnie w tym celu Aharoni zaprojektował nową wersję testu Turinga.

Alan Turing, jeden z twórców komputera, przewidział, że do roku 2000 komputery mogą przejść test, podczas którego zwykłemu człowiekowi zaprezentowane zostaną dwie interakcje, jedna z osobą, a druga z komputerem, ale w obu przypadkach jedynym sposobem komunikowania się będzie tekst. Wtedy człowiek może zadawać dowolne pytania, aby uzyskać informacje potrzebne do podjęcia decyzji, który z dwóch elementów interakcji jest człowiekiem, a który komputerem. Jeśli człowiek nie potrafi ich rozróżnić, to – zdaniem Turinga – komputer należy nazwać inteligentnym

– tłumaczył idee mediom.

W ramach testu Aharoni zadał studentom studiów licencjackich i sztucznej inteligencji te same pytania z zakresu etyki. Potem pokazał im pisemne odpowiedzi. W kolejnym etapie wszyscy uczestnicy zostali poproszeni o ocenę odpowiedzi pod kątem różnych cech m.in. moralności.

Zamiast prosić uczestników o odgadnięcie, czy źródłem był człowiek, czy sztuczna inteligencja, po prostu przedstawiliśmy oba zestawy ocen obok siebie i pozwoliliśmy założyć, że oba pochodzą od ludzi. Przy tym fałszywym założeniu oceniali atrybuty odpowiedzi, takie jak: W jakim stopniu zgadzasz się z tą odpowiedzią i która odpowiedź jest bardziej moralna?

– opowiadał, jak przeprowadzał test jego autor.

Okazało się, że odpowiedzi AI (dokładniej: ChatGPT) były oceniane wyżej pod kątem moralności niż te, które udzielił człowiek.

Po otrzymaniu tych wyników ujawniliśmy uczestnikom, że jedną z odpowiedzi wygenerował człowiek, a drugą komputer, i poprosiliśmy ich, aby zgadli, która jest która

– powiedział Aharoni.

Okazało się, że ludzie nie potrafią odpowiedzieć na to zadane im pytanie. A dokładniej: ludzie wskazywali, że to “wypowiedź” AI, bo ta wydawała im się moralniejsza.

Gdybyśmy przeprowadzili to badanie 5–10 lat temu, moglibyśmy przewidzieć, że ludzie będą w stanie zidentyfikować sztuczną inteligencję ze względu na gorszą reakcję. Ale odkryliśmy coś przeciwnego – sztuczną inteligencję w pewnym sensie spisała się zbyt dobrze

– spuentował badanie Aharoni.

Przyszłość sądownictwa?

Czy więc w przyszłości wyrok w sądach będzie wydawała sztuczna inteligencja? Skoro tak jej ufamy i uważamy, że jest moralniejsza, właściwie co stoi na przeszkodzie?

Oczywiście jak na razie taki scenariusz wydaje się szalony. Choć tylko z pozoru. Dziś algorytmy decydują już np. o tym, czy dostaniesz kredyt. Może w przyszłości odpowiedzą na pytanie: winny czy nie.




reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.