Zagrożenia związane z AI są zamiatane pod dywan. List otwarty pracowników OpenAI i Google | Wiadomości | CrypS.

Zagrożenia związane z AI są zamiatane pod dywan. List otwarty pracowników OpenAI i Google

List otwarty pracowników OpenAI dot. bezpieczeństwa

O zagrożeniach związanych z rozwojem sztucznej inteligencji mówi się coraz więcej. Jednakże korporacje pracujące nad oprogramowaniem zasilanym przez tę technologię zapewniają, że mają wszystko pod kontrolą, jeśli chodzi o kwestie bezpieczeństwa. Czy jednak faktycznie tak jest?


  • Grupa składająca się z obecnych oraz byłych pracowników takich firm, jak OpenAI, Microsoft, Google Deep Mind oraz Anthopic, wystosowała oficjalne pismo dot. zagrożeń związanych z pracami nad sztuczną inteligencją,
  • Napisano w nim, że wielkie korporacje nie dopełniają wszelkich starań, by zapewnić odpowiednie środki ostrożności i bezpieczeństwa w kwestii AI. Co więcej, zarzucono im regularne uciszanie sygnalistów, którzy zgłaszali jakieś uwagi.

Pieniądze ponad bezpieczeństwo AI

Sztuczna inteligencja to bardzo potężna technologia. Najprawdopodobniej jest to jeden z największych wynalazków ludzkości. Jednakże zawsze kij ma dwa końce, a AI może okazać się mieczem obosiecznym skierowanym przeciwko społeczeństwu.

Dynamit przecież pierwotnie także miał służyć do ułatwiania pracy geologów, a największe wykorzystanie znalazł w celach militarnych, bo bardzo smuciło jego wynalazcę, czyli Alfreda Nobla.

Na świecie rośnie odsetek osób, które są zaniepokojone tym, w którą stronę właśnie zmierza wykorzystanie AI. Najwięksi twórcy systemów wykorzystujących uczenie maszynowe zapewniają, że ich działy bezpieczeństwa jednak mają wszystko pod kontrolą. Czy to jednak dobra mina do złej gry?

Otóż 11 osób, które pracowały lub robią to w dalszym ciągu w tego typu korporacjach, jak OpenAI (twórcy ChatGPT) oraz Google DeepMind (system Gemini), uważają wręcz odwrotnie. Dlatego właśnie we wtorek, 4 czerwca, wystosowali list otwarty, w którym przedstawili swoje obawy.

Zarzucili BigTechom przede wszystkim przekładanie kwestii zarobkowych ponad działania prewencyjne. Ich zdaniem twórcy sztucznej inteligencji nie mogą być w 100% pewni, że ta nie wyrwie im się spod kontroli.

Nie wierzymy, że specjalnie zaprojektowane struktury ładu korporacyjnego wystarczą, aby to utrzymać

– napisali.

Wskazano na takie przypadki złych działań z wykorzystaniem AI, jak rozprzestrzenianie się dezinformacji w mediach, utrata niezależnych systemów sztucznej inteligencji oraz pogłębienie istniejących nierówności.

Dodano przy tym, że generatory obrazów od OpenAI czy Microsoft, mimo zasad zakazujących tworzenia treści wprowadzających opinię publiczną w błąd, zawierają luki, które spokojnie możne obejść.

Co więcej, zarzuca się tego typu podmiotom brak chęci współpracy z organami rządowymi z zakresu udostępniania informacji na temat możliwości i ograniczeń swoich systemów.

Ludzie mający jakieś “ale” są uciszani

Autorzy listu otwartego twierdzą także, że dochodzi do przypadków, w których pracownicy wyżej wspomnianych firm są z nich usuwani w przypadku wyrażania otwartej krytyki wobec ich działań.

Niektóre osoby są ponoć uciszane za pośrednictwem porozumień, które opierają się na wlepieniu im po prostu dużej łapówki w formie jakieś premii czy awansu finansowego.

Jeden z manifestów głosi, by firmy tworzące systemy AI opracowały coś, co określono jako “kulturę otwartej krytyki”. Powinno się także umożliwić każdemu członkowi zespołu takich firm anonimowe zgłaszanie swoich obiekcji.

Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, które nas niepokoją, nie zostało jeszcze uregulowanych

– stwierdzono.

Coś jest na rzeczy

To nie pierwsza tego typu sytuacja, gdy giganci z sektora AI stają się adresatami zarzutów o brak dbałości o bezpieczeństwo tej technologii.

W zeszłym miesiącu z OpenAI odszedł jeden z dyrektorów, który popadł w konflikt z członkami firmy zarzucając im brak odpowiednich struktur bezpieczeństwa.

Samo przedsiębiorstwo w zeszłym tygodniu ogłosiło, że rozbito wielką operację, której źródło miało miejsce w Izraelu, a opierała się ona na szerzeniu dezinformacji przy wykorzystaniu ich chatbota.

Inne firmy także mają swoje za uszami. Google było mocno krytykowane za niedopilnowanie tego, jakie treści przekazuje ich AI, co mogło doprowadzić do silnych uszkodzeń zdrowia.

Wisienką na torcie niech będzie tutaj otwarty konflikt Elona Muska z OpenAI. Ekscentryczny miliarder zarzuca swoim byłym kolegom kłamstwo w wielu kwestiach dot. ich technologii.

List otwarty pracowników OpenAI dot. bezpieczeństwa

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.