Vitalik Buterin wymienia wady ChatGPT oraz innych produktów AI

Sztuczna inteligencja rozwija się w zawrotnym tempie, ale nie wszyscy patrzą na ten proces z optymizmem. Vitalik Buterin (współzałożyciel Ethereum) publicznie podzielił się swoimi obawami na temat AI, zwłaszcza ChatGPT. Według niego, obecne modele nie tylko wprowadzają zbędny szum informacyjny, ale mogą też stać się zagrożeniem dla ludzkości.
  • Buterin uważa, że ChatGPT i inne narzędzia AI często pogarszają jakość treści, dodając niepotrzebny szum informacyjny,
  • Rosyjsko-kanadyjski programista postuluje drastyczne ograniczenie mocy obliczeniowej AI na świecie, aby zyskać czas na przygotowanie się do super-inteligentnej sztucznej inteligencji.

Krytyka ChatGPT jako narzędzia do pisania

Vitalik Buterin skrytykował popularną metodę wykorzystywania ChatGPT do pisania artykułów. Chodzi o schemat, w którym autor dostarcza listę punktów kluczowych, a AI generuje na ich podstawie pełny tekst.  Według Buterina taki proces nie tylko nie poprawia jakości treści, ale wręcz ją obniża. Uważa on, że lepszym rozwiązaniem jest pozostawienie czytelnikowi surowych punktów kluczowych, zamiast zalewania go "sztucznym szumem". W jego opinii ChatGPT dodaje zbyt wiele zbędnych słów, przez co znalezienie istotnych informacji staje się trudniejsze. Jego sceptycyzm wobec AI jako doradcy objawia się również w stwierdzeniu, iż porady udzielane przez AI mają "średnią trwałość sześciu miesięcy". Oznacza to, że szybko tracą na aktualności, co może podważać ich wartość.

Propozycje związane z ograniczeniami rozwoju AI

Buterin nie ogranicza swojej krytyki wyłącznie do obecnych modeli AI. W styczniu tego roku zaproponował on drastyczne ograniczenie globalnej mocy obliczeniowej o 99%. Jego zdaniem pozwoliłoby to na zyskanie kilku dodatkowych lat na odpowiednie przygotowanie się na rozwój super-inteligentnej sztucznej inteligencji. Aby osiągnąć ten cel, proponuje m.in.: weryfikację użytkowników komputerów, rejestrację sprzętu komputerowego, a także ograniczenie produkcji układów scalonych do tych, które mają oficjalne pozwolenie na działanie. Według Buterina wprowadzenie takich regulacji nie wpłynęłoby negatywnie na programistów, ale mogłoby znacząco opóźnić rozwój potencjalnie niebezpiecznej AI. Jego zdaniem, jeśli pojawią się pierwsze sygnały zwiastujące powstanie superinteligencji, takie restrykcje mogłyby skutecznie spowolnić jej ekspansję. Chociaż argumenty Buterina są mocne, jego propozycje mogą wydawać się trudne do wdrożenia. Ograniczenie globalnej mocy obliczeniowej mogłoby spowodować poważne skutki ekonomiczne i technologiczne, szczególnie dla branży AI oraz kryptowalut.  Jednak problem bezrefleksyjnego wykorzystywania AI do generowania treści rzeczywiście istnieje. Sztuczna inteligencja może być skutecznym narzędziem, ale nie zastąpi kreatywnego i analitycznego myślenia człowieka.

Komentarze

Ranking giełd