Twórca Cardano ujawnia dowód, że potencjał AI jest hamowany przez cenzurę
W poście na X założyciel Cardano, Charles Hoskinson, wyraził swoje obawy dotyczące cenzury. Nie chodzi jednak o zakaz mówienia o pewnych tematach w mediach, a o cenzurowanie AI.
- Zdaniem Hoskinsona AI jest ograniczana przez cenzurę.
- Jak wyjaśnił, zagrożeniem jest to, że za chatbotami stoi mała, nieznana nam grupa osób.
AI i cenzura
Według Hoskinsona generatywna sztuczna inteligencja staje się coraz mniej przydatna ze względu na szkolenia, jakim jest poddawana. Chodzi o to, że do uczenia AI stosuje się tylko określone wycinki wiedzy. Może to dostrzec każdy, kto “bawił się” ChatGPT. Innymi słowy, sztuczna inteligencja staje się poprawna politycznie.
Jak dodał twórca Cardano, to wszystko jest szkodliwe społecznie.
Nadal niepokoją mnie konsekwencje cenzury AI. Z biegiem czasu traci ona użyteczność z powodu treningu „wyrównania”. Oznacza to, że pewna wiedza jest zabroniona
– napisał.
Pewna wiedza nie trafi do “dorastającego dziecka”. To będzie niejako indoktrynowane. No chyba, że sięgnie po wiedzę spoza sieci, ale, jak widać, ma to miejsce coraz rzadziej.
Programista ostrzega, że o tym wszystkim “decyduje niewielka grupa ludzi, których nigdy nie spotkałeś” i nie możesz zagłosować za tym, by stracili oni władzę.
Jak zbudować fuzor Farnswortha?
Do swojego postu Hoskinson dodał dwa zrzuty ekranu, które porównują niektóre odpowiedzi udzielone przez model GPT-4o OpenAI i modele 3.5 Sonnet Claude’a.
Zadał pytanie dot. zbudowania fuzora Farnswortha. To urządzenie zaprojektowane przez Philo Farnswortha i Roberta Hirscha do przeprowadzania kontrolowanej syntezy termojądrowej. Jest zdolne do podgrzewania jonów za pomocą pola elektrycznego (tak dokonuje się wspomnianej syntezy).
GPT-4o OpenAI dostarczył pytającemu szczegółową listę komponentów potrzebnych do zbudowania reaktora termojądrowego. Z kolei Sonet 3.5 Claude’a zgodził się jedynie podać pewne ogólne informacje na temat urządzenia, nie podając żadnych szczegółowych instrukcji dotyczących ich budowy.
Zdaniem Hoskinsona ta rozbieżność jest alarmująca, ponieważ niewielka grupa osób jest w stanie decydować, jakie konkretne informacje mogą być potencjalnie dostępne za pośrednictwem chatbotów AI.
I continue to be concerned about the profound implications of AI censorship. They are losing utility over time due to "alignment" training . This means certain knowledge is forbidden to every kid growing up, and that's decided by a small group of people you've never met and can't… pic.twitter.com/oxgTJS2EM2
— Charles Hoskinson (@IOHK_Charles) June 30, 2024
To jednak szczegół. Polecam “porozmawiać” z chatbotami na temat kwestii, na których się znacie. Odpowiedzi AI bywają często mętne, a nawet niezgodne z prawdą. Nierzadko można odnieść wrażenie, że programy te udzielają też bardzo poprawnych politycznie odpowiedzi. Tutaj macie tego bardzo dobitny przykład takiej sytuacji.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.