Znany wszystkim w społeczności kryptowalut programista podzielił się w swoim najnowszym wpisie na X pewną refleksją dot. Ethereum. Wskazał na ogromne zagrożenie, jakie wynika z technicznych aspektów tego blockchaina, na które rozwiązanie może przynieść być może jedynie sztuczna inteligencja.
- Ethereum za niecały miesiąc przejdzie swoją kolejną aktualizację o nazwie Dencun. Jej wdrożenie datuje się na dzień 13 marca,
- Współzałożyciel tego blockchaina - Vitalik Buterin - stwierdził jednak, że posiada on w swoim kodzie wiele ukrytych błędów, które mogą wywołać katastrofalne skutki dla działania tego ekosystemu. Pomóc w rozwiązaniu tego problemu ma jednak AI.
Cała nadzieja Ethereum w sztucznej inteligencji?
Słynny rosyjsko-kanadyjski programista, będący jednym z głównych twórców ekosystemu Ethereum -
Vitalik Buterin - podzielił się ze światem swoją kolejną refleksją.
Otóż, jego zdaniem sieć
ETH wciąż musi mierzyć się z licznymi zagrożeniami technicznymi, które nie są jednak łatwo wykrywalne przez deweloperów. Problem tkwi w tym, że wiele kluczowych błędów może być zawartych głęboko w pierwotnym kodzie tego blockchaina, co jest praktycznie nie do wyłapania przez narzędzia, jakimi się obecnie dysponuje.
Jednakże Buterin upatruje spore szanse w tym, że
sztuczna inteligencja jest jednak w stanie znaleźć i naprawić błędy w kodzie Ethereum, czym przyczyni się do tego, że rozwój sieci będzie mógł postępować dalej.
//twitter.com/VitalikButerin/status/1759369749887332577
Dlaczego programista poruszył tę kwestię właśnie teraz? Prawdopodobnie z tego względu, że
w dniu 13 marca Ethereum ma przejść długo zapowiadaną aktualizację Dencun. Jak poinformowano, została ona już wdrożona
w sieci testowej Goerli w dniu 17 stycznia. Wtedy to m.in. deweloperzy napotkali na niezidentyfikowany wcześniej błąd, który opóźnił cały proces o cztery godziny.
W tej chwili największym ryzykiem technicznym Ethereum są prawdopodobnie błędy w kodzie i wszystko, co mogłoby znacząco odmienić sytuację, byłoby niesamowite
- wyjaśnia Buterin.
AI jest przereklamowane?
Mimo dużego entuzjazmu Vitalika nie wszyscy popierają jego opinię, że
AI przyniesie nam rozwiązanie na wiele problemów leżących po stronie technicznej u podstaw danych systemów. I nie chodzi tu tylko o gdybanie, tylko fakty potwierdzone przeprowadzonymi testami z wykorzystaniem ChatGPT4.
W lipcu 2023 roku firma
OpenZeppelin przeprowadziła serię eksperymentów z użyciem chatbota od
OpenAI celem identyfikacji problemów związanych z bezpieczeństwem
w smart kontraktach Solidity, czyli rodzinnego języka kodu Ethereum. Efekty były zadawalające, jednakże dalekie od perfekcji.
ChatGPT4 zdołał wykryć tylko 20 z 28 luk, które wskazano mu w danym wyzwaniu, a dodatkowo
zauważono inną bardzo dziwną sytuację. Otóż sztuczna inteligencja w trakcie wykonywania swojego zadania
wymyśliła lukę w kodzie, która wcześniej tak naprawdę nie istniała.
Innym razem w tym temacie głos zabrał dyrektor ds. bezpieczeństwa w CertiK -
Kang Li - który stwierdził, że wiara w narzędzia działające w oparciu o sztuczną inteligencję, takie właśnie jak ChatGPT, w procesie kodowania może doprowadzić finalnie do większej ilości nowych problemów niż rozwiązań.
Mężczyzna mówił wtedy, że
najzdrowszą praktyką jest uciekanie się do pomocy asystentów AI tylko i wyłącznie w sytuacji, gdy nad danym tematem czuwa żywy i doświadczony programista. Jak wyjaśnia Li, chatboty AI mogą okazać się pomocne i zoptymalizować czas operacyjny, ale nie warto im ufać w 100-procentach"
Myślę, że ChatGPT to świetne, pomocne narzędzie dla osób zajmujących się analizą kodu i inżynierią wsteczną. To z pewnością dobry asystent, który ogromnie poprawi naszą efektywność
Komentarze