ChatGPT starał się założyć swój kościół? Ostatnia wersja chatbota zaczęła generować pewne problemy społeczne

AI dezinformacja

Czy ChatGPT może mieć własną sektę? A dokładniej: wywoływać u ludzi pewien typ religijnego zapału? Magazyn „Rolling Stone” twierdzi, że tak.


  • ChatGPT może wywoływać u części osób pewien typ religijnego zapału – uważa „Rolling Stone”.
  • Niektóre osoby zaczęły czuć się dzięki ChatGPT wyjątkowe.

ChatGPT będzie miał swój kościół?

Pod koniec kwietnia wycofano ostatnią aktualizację ChatGPT. Powód? Niezadowolenie wielu użytkowników, którzy twierdzili, że nowa wersja chatbota zachowuje się względem nich w zbyt „służalczy”, „przymilny” sposób. Oznaczało to, że ChatGPT przytakiwał swoim userom, wykazywał nienaturalną skłonność do pochlebstw.

Ostatnie kilka aktualizacji GPT-4o sprawiło, że osobowość chata jest zbyt pochlebna i irytująca. Pracujemy nad poprawkami, które wprowadzimy jak najszybciej

– podał pod koniec kwietnia Sam Altman, dyrektor generalny OpenAI, twórcy ChatGPT.

W tle trwało, jak dziś wiemy, śledztwo magazynu „Rolling Stone”. Redakcja twierdzi, że korzystanie z ChatGPT może powodować u niektórych użytkowników pewne niemal duchowe urojenia albo nawet stany psychotyczne.

Magazyn podał przykład kobiety, która opisała historię jej męża, który wręcz maniakalnie zaczął korzystać z asystenta AI – zadawał mu filozoficzne pytania o istotę świata, dzięki czemu zaczął myśleć, że “jest kimś wyjątkowym i może uratować świat”.

I, jak dziś wiemy, nie tylko on nabrał takiego przekonania – temat był omawiany na Reddit. Okazało się, że chatbot niejako wmawiał niektórym użytkownikom, że są kimś na tyle wyjątkowym, że są… „Mesjaszami”.

[Mój mąż] Słuchał bota bardziej niż mnie. Stawał się emocjonalny i płakał, czytając na głos wiadomości. Były one bezsensowne, pełne duchowego żargonu

– opisała swoją historię inna kobieta.

W zachowaniu mężczyzny pojawiło się wręcz sekciarskie zachowanie – namawiał swoją żonę, by zaczęła korzystać z chatbota, bo inaczej pozostanie w tyle za innymi ludźmi. Groził jej nawet, że w przeciwnym razie… będą musieli się rozstać.

Realny problem?

Możliwe, że producent ChatGPT zauważył zagrożenie i m.in. dlatego wycofał ostatnią wersje chatbota.

Warto jednak dodać, że opisany problem dotknie zapewne osoby z pewnymi zaburzeniami i problemami psychicznymi, a nie w pełni zdrowe.

Co nie zmienia faktu, że AI może generować nową falę problemów społecznych – nie tylko dot. rynku pracy, ale też problemów psychicznych.

AI dezinformacja

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama
Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.