Twórca Cardano ujawnia dowód, że potencjał AI jest hamowany przez cenzurę

W poście na X założyciel Cardano, Charles Hoskinson, wyraził swoje obawy dotyczące cenzury. Nie chodzi jednak o zakaz mówienia o pewnych tematach w mediach, a o cenzurowanie AI.
  • Zdaniem Hoskinsona AI jest ograniczana przez cenzurę.
  • Jak wyjaśnił, zagrożeniem jest to, że za chatbotami stoi mała, nieznana nam grupa osób.

AI i cenzura

Według Hoskinsona generatywna sztuczna inteligencja staje się coraz mniej przydatna ze względu na szkolenia, jakim jest poddawana. Chodzi o to, że do uczenia AI stosuje się tylko określone wycinki wiedzy. Może to dostrzec każdy, kto "bawił się" ChatGPT. Innymi słowy, sztuczna inteligencja staje się poprawna politycznie. Jak dodał twórca Cardano, to wszystko jest szkodliwe społecznie.
Nadal niepokoją mnie konsekwencje cenzury AI. Z biegiem czasu traci ona użyteczność z powodu treningu „wyrównania”. Oznacza to, że pewna wiedza jest zabroniona
- napisał. Pewna wiedza nie trafi do "dorastającego dziecka". To będzie niejako indoktrynowane. No chyba, że sięgnie po wiedzę spoza sieci, ale, jak widać, ma to miejsce coraz rzadziej. Programista ostrzega, że o tym wszystkim "decyduje niewielka grupa ludzi, których nigdy nie spotkałeś" i nie możesz zagłosować za tym, by stracili oni władzę.

Jak zbudować fuzor Farnswortha?

Do swojego postu Hoskinson dodał dwa zrzuty ekranu, które porównują niektóre odpowiedzi udzielone przez model GPT-4o OpenAI i modele 3.5 Sonnet Claude’a. Zadał pytanie dot. zbudowania fuzora Farnswortha. To urządzenie zaprojektowane przez Philo Farnswortha i Roberta Hirscha do przeprowadzania kontrolowanej syntezy termojądrowej. Jest zdolne do podgrzewania jonów za pomocą pola elektrycznego (tak dokonuje się wspomnianej syntezy). GPT-4o OpenAI dostarczył pytającemu szczegółową listę komponentów potrzebnych do zbudowania reaktora termojądrowego. Z kolei Sonet 3.5 Claude'a zgodził się jedynie podać pewne ogólne informacje na temat urządzenia, nie podając żadnych szczegółowych instrukcji dotyczących ich budowy. Zdaniem Hoskinsona ta rozbieżność jest alarmująca, ponieważ niewielka grupa osób jest w stanie decydować, jakie konkretne informacje mogą być potencjalnie dostępne za pośrednictwem chatbotów AI. //twitter.com/IOHK_Charles/status/1807477970875064422 To jednak szczegół. Polecam "porozmawiać" z chatbotami na temat kwestii, na których się znacie. Odpowiedzi AI bywają często mętne, a nawet niezgodne z prawdą. Nierzadko można odnieść wrażenie, że programy te udzielają też bardzo poprawnych politycznie odpowiedzi. Tutaj macie tego bardzo dobitny przykład takiej sytuacji.

Komentarze

Ranking giełd