Współzałożyciel Ethereum, Vitalik Buterin, ostrzega, że „warto postępować ostrożnie”. Nie chodzi o ogólną poradę, jak żyć, ale łączenie sztucznej inteligencji z technologią blockchain.
- Vitalik Buterin sugeruje ostrożność. Chodzi o fuzję AI i blockchaina,
- Jego zdaniem łączenie tych dwóch technologii może być ryzykowne.
Vitalik Buterin mówi o łączeniu AI z blockchainem
Współzałożyciel
Ethereum,
Vitalik Buterin, ostrzegł programistów, aby
„zachowali ostrożność” podczas łączenia
sztucznej inteligencji (AI) z technologią blockchain.
W poście na blogu z 30 stycznia Buterin wskazał na swoje obawy związane z tym tematem.
Trzeba zachować ostrożność: jeśli ktoś buduje np. rynek prognostyczny lub stablecoinów korzystających z wyroczni AI i okazuje się, że taką wyrocznię można [łatwiej] zaatakować, ogromna ilość pieniędzy może zniknąć w jednej chwili
- napisał w artykule.
Dodał, że jednym z obszarów, w którym sztuczna inteligencja ma największą „
żywotność”, jest
umożliwianie jej udziału w mechanizmach takich jak rynki prognostyczne w mikroskali, które byłyby niewykonalne dla ludzi. Do tego AI, jak uważa twórca ETH, można wykorzystać w interfejsach portfeli kryptowalutowych dla użytkowników, pomagając tym ostatnim lepiej zrozumieć to, jak działają kryptowaluty, i bezpieczniej z nich korzystać.
Tyle że i na tych polach widzi zagrożenie.
Moim zdaniem interfejsy wykorzystujące wyłącznie sztuczną inteligencję są obecnie prawdopodobnie zbyt ryzykowne, ponieważ zwiększają ryzyko wystąpienia innych rodzajów błędów, ale sztuczna inteligencja uzupełniająca bardziej konwencjonalny interfejs staje się bardzo opłacalna
– stwierdził.
//twitter.com/VitalikButerin/status/1752291413503729751?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1752291413503729751%7Ctwgr%5Ea7772ae6334de5c551b9dfa621ba346cb89d642c%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fcointelegraph.com%2Fnews%2Fbe-careful-ai-crypto-blockchain-vitalik-buterin-developers
Zdaniem Buterina najbardziej ryzykownym przedsięwzięciem byłoby wykorzystanie sztucznej inteligencji do egzekwowania zasad lub zarządzania systemami kryptowalutowymi. Modele AI o otwartym kodzie źródłowym mogłyby być podatne na ataki hakerskie.
Sztuczna inteligencja typu open source jest bardziej podatna na ataki kontradyktoryjne, ponieważ hakerzy mogą sprawdzać jej kod i optymalizować ataki na niego. Sztuczna inteligencja o zamkniętym źródle zapewnia „bezpieczeństwo poprzez zaciemnienie”, jednak modele te nie zapewniają przejrzystości działania ani pewności, że są bezstronne
– stwierdził.
Jak łączyć?
Dalej z artykułu dowiadujemy się, że "
najtrudniej jest stworzyć aplikacje, które próbują wykorzystać łańcuchy bloków i techniki kryptograficzne do stworzenia „singletonu”: pojedynczej zdecentralizowanej, zaufanej sztucznej inteligencji, na której niektóre aplikacje będą w jakimś celu polegać".
Aplikacje te obiecują
„zarówno funkcjonalność, jak i poprawę bezpieczeństwa sztucznej inteligencji".
Komentarze