Dziś już wszyscy mówią o AI. Teraz o sztucznej inteligencji wypowiedział się nawet... papież | Wiadomości | CrypS.

Dziś już wszyscy mówią o AI. Teraz o sztucznej inteligencji wypowiedział się nawet… papież

Papież zaapelował o regulacje AI. Jego zdaniem algorytmy nie mogą zastępować ludzi. Przestrzegł też przed “dyktaturą technologiczną”. Ma, jak widać, podobne fobie co my – też boi się Matrixa!


Papież Franciszek chce regulacji AI

Papież 14 grudnia br. w swoim orędziu na Światowy Dzień Pokoju Kościoła Rzymskokatolickiego wszedł na temat AI.

Globalna skala sztucznej inteligencji jasno pokazuje, że oprócz odpowiedzialności suwerennych państw za wewnętrzne regulowanie jej wykorzystania, organizacje międzynarodowe mogą odegrać decydującą rolę w osiąganiu wielostronnych porozumień oraz koordynowaniu ich stosowania i egzekwowania

– przekazał papież Franciszek. To doprowadziło go do następującego apelu:

Wzywam globalną społeczność narodów do współpracy w celu przyjęcia wiążącego traktatu międzynarodowego, który regulowałby rozwój i wykorzystanie sztucznej inteligencji w jej wielu formach.

Jak na razie pewne próby regulacji trwają. Podjęła je Unia Europejska. Pytanie, na ile będą skuteczne.

Franciszek apeluje m.in. o etyczną kontrolę “celów i interesów właścicieli oraz deweloperów sztucznej inteligencji”. Słusznie wskazał, że zastosowania AI “mogą stanowić ryzyko dla naszego przetrwania i zagrażać naszemu wspólnemu domowi”, odnosząc się zapewne do Ziemi.

W obsesyjnym pragnieniu kontrolowania wszystkiego, ryzykujemy utratę kontroli nad sobą; w dążeniu do absolutnej wolności, ryzykujemy wpadnięcie w spiralę technologicznej dyktatury

– ostrzegł i chyba nawiązał tym subtelnie np. do totalitarnego modelu, jaki obowiązuje w Chinach.

AI nie powinna być wykorzystywana w wojnie

Wskazał też na to, że nowa technologia nie powinna być wykorzystywana w produkcji broni.

Badania nad nowymi technologiami w dziedzinie tak zwanych śmiercionośnych autonomicznych systemów uzbrojenia, w tym uzbrojenia sztucznej inteligencji, są powodem do poważnych obaw etycznych. Autonomiczne systemy uzbrojenia nigdy nie będą moralnie odpowiedzialnymi podmiotami. Konieczne jest zapewnienie odpowiedniego, znaczącego i spójnego ludzkiego nadzoru nad systemami uzbrojenia

– stwierdził.

I rzeczywiście, nie trudno sobie wyobrazić, że za kilka lat na polu bitwy nie będą ścierać się już ludzie, ale roboty przypominające filmowego Terminatora (może nawet w wersji bez “skórki” z samym metalowym szkieletem!).

Dziś brzmi to jak scenariusz kiepskiego science fiction, ale jutro mogą być to realia konfliktów zbrojnych. Choć wizja walk robotów w miejsce ludzi nie brzmi może źle, pamiętajmy, że maszyny te mogą być też zaprogramowane do dokonywania rzezi podbitej ludności.

Trudno liczyć u nich na empatię…


Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.