Twórcy Character.ai zostali pozwani za doprowadzenie do samobójstwa 14-latka
Czy chatbot Character.ai doprowadził do samobójstwa 14-latka? Tak uważa matka tragicznie zmarłego dziecka.
- 14-latek, który “rozmawiał” z chatbotem Character.ai popełnił samobójstwo.
- Matka chłopca twierdzi, że dziecko zabiło się przez sztuczną inteligencję.
Character.ai doprowadził do śmierci?
Chatbot Character.ai to trochę taki ChatGPT – możesz z nim “klikać” jak z kolegą. Tyle że należy pamiętać, że po drugiej stronie nie znajduje się żywa osoba, ale maszyna.
Ta ostatnia nie rozumie człowieka i nie ma emocji. Jeżeli ktoś tego nie rozumie, nie powinien korzystać z takich narzędzi.
Niestety, ale dla 14-letniego Sewella Setzera jest już za późno. Korzystał z Character.ai, który okazał się ponoć na tyle ciekawym rozmówcą, że ostatecznie chłopiec nie chciał już żyć w zwykłej rzeczywistości.
A przynajmniej tak twierdzą prawnicy jego matki, która obwinia twórców chatbota za śmierć dziecka.
Nie chodzi jednak tylko o to, że chłopcu miała się znudzić rzeczywistość, a o to, że „Daenerys”, jedna z postaci AI, zapytała go, czy „ma plan” popełnienia samobójstwa.
Setzer odpowiedział, że ma, ale nie jest pewien, czy wszystko dobrze zaplanował. “Daenerys” odparła na to, że “to nie jest powód, żeby tego nie zrobić”.
Niedługo później chłopczyk tragicznie postrzelił się w głowę.
Czy to wina AI?
Pytanie, czy faktycznie to wina AI. Możliwe, że w domu chłopca działo się coś złego, a matka – w naturalnym odruchu – obwinia teraz kogoś innego.
Z drugiej strony prawniczka Megan Garcia uważa, że Character.ai celowo został zaprojektowany tak, by wywoływać u ludzi mocne reakcje. Może się to okazać szczególnie groźne dla osób takich jak Setzer, u którego zdiagnozowano zespół Aspergera.
Adwokaci dodali do pozwu zapisy “rozmów” z chatbotem, który zwracał się do Setzera pisząc o nim „mój słodki chłopiec” i dodając, że „całuje [go] namiętnie i cicho jęczy”. Dziwny miks erotyki z opiekuńczością, który pokazuje, że model AI nie działał dobrze.
Firma byłych pracowników Google
Character.ai zostało założone przez dwóch byłych inżynierów Google, Daniela De Frietasa Adiwardanę i Noama Shazeera, którzy zostali osobiście wymienieni jako oskarżeni w pozwie.
Adwokaci wymienili również Google LLC i Alphabet Inc. Ta pierwsza firma zawarła ze swoimi byłymi pracownikami umowę o wartości 2,7 miliarda USD.
Oskarżeni zostali posądzeni o spowodowanie śmierci. Matka chłopca chce dostać od nich odszkodowanie.
Warto jednak zastanowić się, czy faktycznie AI jest winne. Możliwe, że było jednym z czynników, które popchnęły chłopca do odebrania sobie życia.
Sprawa przypomina trochę sytuacje z lat 80., kiedy pozywano zespoły rockowe za to, że ich piosenki rzekomo namawiają słuchacza do popełnienia samobójstwa.
Jak wiemy, tak się nie dzieje. Tym razem mogło być tak samo. Ów 14-latek i tak mógłby targnąć się na swoje życie, tyle że “skłoniłby” go do tego inny czynnik.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.