AI coraz bliżej podboju ludzkości? Naukowcy ostrzegają! | Wiadomości | CrypS.

AI coraz bliżej podboju ludzkości? Naukowcy ostrzegają!

Badacze AI z Fudan University w Szanghaju ostrzegają, że sztuczna inteligencja może już się samodzielnie replikować, czyli tworzyć własne, nowe algorytmy. Ich zdaniem to czerwona lampka – poważne ostrzeżenie dla ludzi.


  • AI może już się „rozmnażać” – ostrzegają naukowcy.
  • Ma być to poważne ostrzeżenie dla ludzi.

AI tworzy samą siebie

Wiele mówi się o potencjalnej samoświadomości AI. Okazuje się jednak, że większym zagrożeniem może stać się coś innego – nowa technologia może tworzyć swoje algorytmy.

Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji

— zaczęli swój wywód na łamach arXiv Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Sugerują więc, że AI OpenAI i Google jest bezpieczna. Tyle że jest jedno „ale”.

Korzystając z ich metodologii [OpenAI i Google’a — red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji

— dodano dalej.

Potem naukowcy wskazali, że w aż połowie eksperymentów z użyciem Llama31-70B-Instruct i 90% testów z udziałem Qwen25-72B-Instruct dochodziło do powstawania kopii obu modeli. Tak, AI niejako – mówiąc „po ludzku” się rozmnażała.

Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI

— ostrzegają badacze.

Ktoś to sprawdził?

Co może trochę uspokajać to to, że artykuł pojawił się w serwisie arXiv, gdzie nikt nie recenzuje tekstów. Trafiają tam badania naukowców, nie poddawane krytycznej recenzji.

Oznacza to, że tezy wskazane powyżej można jeszcze obalić. Tyle że ktoś powinien to zrobić szybko, by upewnić nas, że AI faktycznie nie wymyka się nam już spod kontroli!


Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama
Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.