Zagrożenia związane z AI są zamiatane pod dywan. List otwarty pracowników OpenAI i Google

O zagrożeniach związanych z rozwojem sztucznej inteligencji mówi się coraz więcej. Jednakże korporacje pracujące nad oprogramowaniem zasilanym przez tę technologię zapewniają, że mają wszystko pod kontrolą, jeśli chodzi o kwestie bezpieczeństwa. Czy jednak faktycznie tak jest?
  • Grupa składająca się z obecnych oraz byłych pracowników takich firm, jak OpenAI, Microsoft, Google Deep Mind oraz Anthopic, wystosowała oficjalne pismo dot. zagrożeń związanych z pracami nad sztuczną inteligencją,
  • Napisano w nim, że wielkie korporacje nie dopełniają wszelkich starań, by zapewnić odpowiednie środki ostrożności i bezpieczeństwa w kwestii AI. Co więcej, zarzucono im regularne uciszanie sygnalistów, którzy zgłaszali jakieś uwagi.

Pieniądze ponad bezpieczeństwo AI

Sztuczna inteligencja to bardzo potężna technologia. Najprawdopodobniej jest to jeden z największych wynalazków ludzkości. Jednakże zawsze kij ma dwa końce, a AI może okazać się mieczem obosiecznym skierowanym przeciwko społeczeństwu. Dynamit przecież pierwotnie także miał służyć do ułatwiania pracy geologów, a największe wykorzystanie znalazł w celach militarnych, bo bardzo smuciło jego wynalazcę, czyli Alfreda Nobla. Na świecie rośnie odsetek osób, które są zaniepokojone tym, w którą stronę właśnie zmierza wykorzystanie AI. Najwięksi twórcy systemów wykorzystujących uczenie maszynowe zapewniają, że ich działy bezpieczeństwa jednak mają wszystko pod kontrolą. Czy to jednak dobra mina do złej gry? Otóż 11 osób, które pracowały lub robią to w dalszym ciągu w tego typu korporacjach, jak OpenAI (twórcy ChatGPT) oraz Google DeepMind (system Gemini), uważają wręcz odwrotnie. Dlatego właśnie we wtorek, 4 czerwca, wystosowali list otwarty, w którym przedstawili swoje obawy. Zarzucili BigTechom przede wszystkim przekładanie kwestii zarobkowych ponad działania prewencyjne. Ich zdaniem twórcy sztucznej inteligencji nie mogą być w 100% pewni, że ta nie wyrwie im się spod kontroli.
Nie wierzymy, że specjalnie zaprojektowane struktury ładu korporacyjnego wystarczą, aby to utrzymać
- napisali. //twitter.com/TIME/status/1798067904027697582 Wskazano na takie przypadki złych działań z wykorzystaniem AI, jak rozprzestrzenianie się dezinformacji w mediach, utrata niezależnych systemów sztucznej inteligencji oraz pogłębienie istniejących nierówności. Dodano przy tym, że generatory obrazów od OpenAI czy Microsoft, mimo zasad zakazujących tworzenia treści wprowadzających opinię publiczną w błąd, zawierają luki, które spokojnie możne obejść. Co więcej, zarzuca się tego typu podmiotom brak chęci współpracy z organami rządowymi z zakresu udostępniania informacji na temat możliwości i ograniczeń swoich systemów.

Ludzie mający jakieś "ale" są uciszani

Autorzy listu otwartego twierdzą także, że dochodzi do przypadków, w których pracownicy wyżej wspomnianych firm są z nich usuwani w przypadku wyrażania otwartej krytyki wobec ich działań. Niektóre osoby są ponoć uciszane za pośrednictwem porozumień, które opierają się na wlepieniu im po prostu dużej łapówki w formie jakieś premii czy awansu finansowego. Jeden z manifestów głosi, by firmy tworzące systemy AI opracowały coś, co określono jako "kulturę otwartej krytyki". Powinno się także umożliwić każdemu członkowi zespołu takich firm anonimowe zgłaszanie swoich obiekcji.
Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, które nas niepokoją, nie zostało jeszcze uregulowanych
- stwierdzono.

Coś jest na rzeczy

To nie pierwsza tego typu sytuacja, gdy giganci z sektora AI stają się adresatami zarzutów o brak dbałości o bezpieczeństwo tej technologii. W zeszłym miesiącu z OpenAI odszedł jeden z dyrektorów, który popadł w konflikt z członkami firmy zarzucając im brak odpowiednich struktur bezpieczeństwa. Samo przedsiębiorstwo w zeszłym tygodniu ogłosiło, że rozbito wielką operację, której źródło miało miejsce w Izraelu, a opierała się ona na szerzeniu dezinformacji przy wykorzystaniu ich chatbota. Inne firmy także mają swoje za uszami. Google było mocno krytykowane za niedopilnowanie tego, jakie treści przekazuje ich AI, co mogło doprowadzić do silnych uszkodzeń zdrowia. Wisienką na torcie niech będzie tutaj otwarty konflikt Elona Muska z OpenAI. Ekscentryczny miliarder zarzuca swoim byłym kolegom kłamstwo w wielu kwestiach dot. ich technologii.

Komentarze

Ranking giełd