Vitalik Buterin wymienia wady ChatGPT oraz innych produktów AI
Sztuczna inteligencja rozwija się w zawrotnym tempie, ale nie wszyscy patrzą na ten proces z optymizmem. Vitalik Buterin (współzałożyciel Ethereum) publicznie podzielił się swoimi obawami na temat AI, zwłaszcza ChatGPT. Według niego, obecne modele nie tylko wprowadzają zbędny szum informacyjny, ale mogą też stać się zagrożeniem dla ludzkości.
- Buterin uważa, że ChatGPT i inne narzędzia AI często pogarszają jakość treści, dodając niepotrzebny szum informacyjny,
- Rosyjsko-kanadyjski programista postuluje drastyczne ograniczenie mocy obliczeniowej AI na świecie, aby zyskać czas na przygotowanie się do super-inteligentnej sztucznej inteligencji.
Krytyka ChatGPT jako narzędzia do pisania
Vitalik Buterin skrytykował popularną metodę wykorzystywania ChatGPT do pisania artykułów. Chodzi o schemat, w którym autor dostarcza listę punktów kluczowych, a AI generuje na ich podstawie pełny tekst.
If you find yourself writing a bullet point list and passing it to GPT to make a „proper” article, it’s often better to just give people the bullet points.
The GPT adds „wordcel noise” that the reader has to struggle to extract useful info from more than it adds useful context.…
— vitalik.eth (@VitalikButerin) February 10, 2025
Według Buterina taki proces nie tylko nie poprawia jakości treści, ale wręcz ją obniża. Uważa on, że lepszym rozwiązaniem jest pozostawienie czytelnikowi surowych punktów kluczowych, zamiast zalewania go „sztucznym szumem”.
W jego opinii ChatGPT dodaje zbyt wiele zbędnych słów, przez co znalezienie istotnych informacji staje się trudniejsze. Jego sceptycyzm wobec AI jako doradcy objawia się również w stwierdzeniu, iż porady udzielane przez AI mają „średnią trwałość sześciu miesięcy”. Oznacza to, że szybko tracą na aktualności, co może podważać ich wartość.
Propozycje związane z ograniczeniami rozwoju AI
Buterin nie ogranicza swojej krytyki wyłącznie do obecnych modeli AI. W styczniu tego roku zaproponował on drastyczne ograniczenie globalnej mocy obliczeniowej o 99%. Jego zdaniem pozwoliłoby to na zyskanie kilku dodatkowych lat na odpowiednie przygotowanie się na rozwój super-inteligentnej sztucznej inteligencji.
Aby osiągnąć ten cel, proponuje m.in.: weryfikację użytkowników komputerów, rejestrację sprzętu komputerowego, a także ograniczenie produkcji układów scalonych do tych, które mają oficjalne pozwolenie na działanie.
Według Buterina wprowadzenie takich regulacji nie wpłynęłoby negatywnie na programistów, ale mogłoby znacząco opóźnić rozwój potencjalnie niebezpiecznej AI. Jego zdaniem, jeśli pojawią się pierwsze sygnały zwiastujące powstanie superinteligencji, takie restrykcje mogłyby skutecznie spowolnić jej ekspansję.
Chociaż argumenty Buterina są mocne, jego propozycje mogą wydawać się trudne do wdrożenia. Ograniczenie globalnej mocy obliczeniowej mogłoby spowodować poważne skutki ekonomiczne i technologiczne, szczególnie dla branży AI oraz kryptowalut.
Jednak problem bezrefleksyjnego wykorzystywania AI do generowania treści rzeczywiście istnieje. Sztuczna inteligencja może być skutecznym narzędziem, ale nie zastąpi kreatywnego i analitycznego myślenia człowieka.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->