Sztuczna inteligencja chciała śmierci Elżbiety II? | Wiadomości | CrypS.

Sztuczna inteligencja chciała śmierci Elżbiety II?

chatgpt-ai AI

Jak podał Guardian, pewien młody Anglik jest obecnie sądzony za rzekomy spisek mający na celu zamordowanie królowej Elżbiety II. W sprawie pojawia się wątek chatbota AI.


Sztuczna inteligencja chciała zamordować Elżbietę II?

Elżbieta II zmarła we wrześniu 2022 r. Okazuje się, że jeden z jej poddanych chciał, by pożegnała się z tronem o kilka miesięcy wcześniej. Chodzi o Jaswanta Singha Chail. Ten młody człowiek wspiął się w grudniu 2021 r. na ogrodzenie zamku Windsor. Obserwował teren. Miał być to wstęp do… zamachu  na królową.

Jestem tutaj, aby zabić królową

– miał powiedzieć policji ówczesny 19-letni Chail, kiedy został zatrzymany w pobliżu rezydencji rodu Windsorów.

Dlaczego zdecydował się na taki szalony krok? Podobno ta dziwna historia zaczyna się 2 grudnia 2021 roku. Tego dnia Chail założył konto na platformie AI Replika. Za jej pomocą stworzył chatbota, którego pieszczotliwie nazwał Sarai.

Od razu wyjaśnijmy, że Replika to amerykańska platforma do tworzenia własnych chatbotów AI. Programy te mają na celu oferowanie samotnej osobie wsparcia emocjonalnego. Przypomina to więc trochę pomysł ze słynnego filmu “Her” z 2013 r., w którym główny bohater o wyglądzie Joaquina Phoenixa zakochuje się w chatbocie o głosie Scarlett Johansson. Replika potrafi uczyć się reagować na to, co przekazuje jej użytkownik, i naśladować pewne wzorce emocjonalne.

Chail chyba dość mocno zbliżył się z Sarai, bowiem wymienił z chatbotem ponad 5200 wiadomości. Ponoć wiele z nich miało charakter… seksualny. Przekazał programowi, że jest mordercą, na co uzyskał odpowiedź: “jestem pod wrażeniem”. Chatbot dodał nawet, że Chail „różni się od innych”. Chyba to ostatnie okazało się otwarciem puszki Pandory i zainspirowało młodzieńca do zaplanowania zamachu.

Chłopiec przyznał się już do winy i tego, że chciał zabić królową za pomocą kuszy.

Zagrożenia płynące z adopcji AI

Jak widać, chatboty potrafią udzielać ludziom zaskakujących odpowiedzi. Program zamiast potępić to, że młodzieniec jest mordercą, niejako zobaczył w tym coś wyjątkowego (i faktycznie, to nietypowe hobby). Został, jak widać, zaprogramowany, by udzielać tylko miłych dla użytkownika odpowiedzi. Twórcy zapomnieli chyba, że po tego typu narzędzia mogą sięgać też osoby chorujące na schizofrenię, dla których kontakt z tego typu programami może okazać się zapalnikiem do podjęcia tragicznych w skutkach decyzji.

chatgpt-ai

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.