Sztuczna inteligencja może zaszkodzić kryptowalutom - ostrzega Vitalik Buterin | Wiadomości | CrypS.

Sztuczna inteligencja może zaszkodzić kryptowalutom – ostrzega Vitalik Buterin

Jacek Walewski
kryptowaluty i AI Vitalik Buterin

Współzałożyciel Ethereum, Vitalik Buterin, ostrzega, że „warto postępować ostrożnie”. Nie chodzi o ogólną poradę, jak żyć, ale łączenie sztucznej inteligencji z technologią blockchain.


  • Vitalik Buterin sugeruje ostrożność. Chodzi o fuzję AI i blockchaina,
  • Jego zdaniem łączenie tych dwóch technologii może być ryzykowne.

Vitalik Buterin mówi o łączeniu AI z blockchainem

Współzałożyciel Ethereum, Vitalik Buterin, ostrzegł programistów, aby „zachowali ostrożność” podczas łączenia sztucznej inteligencji (AI) z technologią blockchain.

W poście na blogu z 30 stycznia Buterin wskazał na swoje obawy związane z tym tematem.

Trzeba zachować ostrożność: jeśli ktoś buduje np. rynek prognostyczny lub stablecoinów korzystających z wyroczni AI i okazuje się, że taką wyrocznię można [łatwiej] zaatakować, ogromna ilość pieniędzy może zniknąć w jednej chwili

– napisał w artykule.

Dodał, że jednym z obszarów, w którym sztuczna inteligencja ma największą „żywotność”, jest umożliwianie jej udziału w mechanizmach takich jak rynki prognostyczne w mikroskali, które byłyby niewykonalne dla ludzi. Do tego AI, jak uważa twórca ETH, można wykorzystać w interfejsach portfeli kryptowalutowych dla użytkowników, pomagając tym ostatnim lepiej zrozumieć to, jak działają kryptowaluty, i bezpieczniej z nich korzystać.

Tyle że i na tych polach widzi zagrożenie.

Moim zdaniem interfejsy wykorzystujące wyłącznie sztuczną inteligencję są obecnie prawdopodobnie zbyt ryzykowne, ponieważ zwiększają ryzyko wystąpienia innych rodzajów błędów, ale sztuczna inteligencja uzupełniająca bardziej konwencjonalny interfejs staje się bardzo opłacalna

– stwierdził.

Zdaniem Buterina najbardziej ryzykownym przedsięwzięciem byłoby wykorzystanie sztucznej inteligencji do egzekwowania zasad lub zarządzania systemami kryptowalutowymi. Modele AI o otwartym kodzie źródłowym mogłyby być podatne na ataki hakerskie.

Sztuczna inteligencja typu open source jest bardziej podatna na ataki kontradyktoryjne, ponieważ hakerzy mogą sprawdzać jej kod i optymalizować ataki na niego. Sztuczna inteligencja o zamkniętym źródle zapewnia „bezpieczeństwo poprzez zaciemnienie”, jednak modele te nie zapewniają przejrzystości działania ani pewności, że są bezstronne

– stwierdził.

Jak łączyć?

Dalej z artykułu dowiadujemy się, że “najtrudniej jest stworzyć aplikacje, które próbują wykorzystać łańcuchy bloków i techniki kryptograficzne do stworzenia „singletonu”: pojedynczej zdecentralizowanej, zaufanej sztucznej inteligencji, na której niektóre aplikacje będą w jakimś celu polegać”.

Aplikacje te obiecują „zarówno funkcjonalność, jak i poprawę bezpieczeństwa sztucznej inteligencji”.

kryptowaluty i AI



reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.