O zagrożeniach związanych z rozwojem sztucznej inteligencji mówi się coraz więcej. Jednakże korporacje pracujące nad oprogramowaniem zasilanym przez tę technologię zapewniają, że mają wszystko pod kontrolą, jeśli chodzi o kwestie bezpieczeństwa. Czy jednak faktycznie tak jest?
- Grupa składająca się z obecnych oraz byłych pracowników takich firm, jak OpenAI, Microsoft, Google Deep Mind oraz Anthopic, wystosowała oficjalne pismo dot. zagrożeń związanych z pracami nad sztuczną inteligencją,
- Napisano w nim, że wielkie korporacje nie dopełniają wszelkich starań, by zapewnić odpowiednie środki ostrożności i bezpieczeństwa w kwestii AI. Co więcej, zarzucono im regularne uciszanie sygnalistów, którzy zgłaszali jakieś uwagi.
Pieniądze ponad bezpieczeństwo AI
Sztuczna inteligencja to bardzo potężna technologia. Najprawdopodobniej jest to
jeden z największych wynalazków ludzkości. Jednakże zawsze kij ma dwa końce, a
AI może okazać się mieczem obosiecznym skierowanym przeciwko społeczeństwu.
Dynamit przecież pierwotnie także miał służyć do ułatwiania pracy geologów, a
największe wykorzystanie znalazł w celach militarnych, bo bardzo smuciło jego wynalazcę, czyli
Alfreda Nobla.
Na świecie rośnie odsetek osób, które są zaniepokojone tym, w którą stronę właśnie zmierza wykorzystanie
AI. Najwięksi twórcy systemów wykorzystujących uczenie maszynowe
zapewniają, że ich działy bezpieczeństwa jednak mają wszystko pod kontrolą. Czy to jednak dobra mina do złej gry?
Otóż 11 osób, które pracowały lub robią to w dalszym ciągu w tego typu korporacjach, jak
OpenAI (twórcy ChatGPT) oraz
Google DeepMind (system Gemini), uważają wręcz odwrotnie. Dlatego właśnie we wtorek, 4 czerwca,
wystosowali list otwarty, w którym przedstawili swoje obawy.
Zarzucili BigTechom przede wszystkim
przekładanie kwestii zarobkowych ponad działania prewencyjne. Ich zdaniem twórcy sztucznej inteligencji nie mogą być w 100% pewni, że ta nie wyrwie im się spod kontroli.
Nie wierzymy, że specjalnie zaprojektowane struktury ładu korporacyjnego wystarczą, aby to utrzymać
- napisali.
//twitter.com/TIME/status/1798067904027697582
Wskazano na takie przypadki złych działań z wykorzystaniem AI, jak
rozprzestrzenianie się dezinformacji w mediach, utrata niezależnych systemów sztucznej inteligencji oraz pogłębienie istniejących nierówności.
Dodano przy tym, że generatory obrazów od OpenAI czy Microsoft, mimo zasad zakazujących tworzenia treści wprowadzających opinię publiczną w błąd, zawierają luki, które spokojnie możne obejść.
Co więcej, zarzuca się tego typu podmiotom
brak chęci współpracy z organami rządowymi z zakresu udostępniania informacji na temat możliwości i ograniczeń swoich systemów.
Ludzie mający jakieś "ale" są uciszani
Autorzy listu otwartego twierdzą także, że
dochodzi do przypadków, w których pracownicy wyżej wspomnianych firm są z nich usuwani w przypadku wyrażania otwartej krytyki wobec ich działań.
Niektóre osoby są ponoć uciszane za pośrednictwem porozumień, które opierają się na wlepieniu im po prostu dużej łapówki w formie jakieś premii czy awansu finansowego.
Jeden z manifestów głosi, by firmy tworzące systemy AI opracowały coś, co określono jako
"kulturę otwartej krytyki". Powinno się także umożliwić każdemu członkowi zespołu takich firm anonimowe zgłaszanie swoich obiekcji.
Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, które nas niepokoją, nie zostało jeszcze uregulowanych
- stwierdzono.
Coś jest na rzeczy
To nie pierwsza tego typu sytuacja, gdy giganci z sektora AI stają się adresatami zarzutów o brak dbałości o bezpieczeństwo tej technologii.
W zeszłym miesiącu
z OpenAI odszedł jeden z dyrektorów, który
popadł w konflikt z członkami firmy zarzucając im brak odpowiednich struktur bezpieczeństwa.
Samo przedsiębiorstwo w zeszłym tygodniu ogłosiło, że
rozbito wielką operację, której
źródło miało miejsce w Izraelu, a opierała się ona na szerzeniu dezinformacji przy wykorzystaniu ich chatbota.
Inne firmy także mają swoje za uszami.
Google było
mocno krytykowane za niedopilnowanie tego, jakie treści przekazuje ich AI, co mogło doprowadzić do silnych uszkodzeń zdrowia.
Wisienką na torcie niech będzie tutaj otwarty
konflikt Elona Muska z OpenAI. Ekscentryczny miliarder
zarzuca swoim byłym kolegom kłamstwo w wielu kwestiach dot. ich technologii.
Komentarze