Kolejny konflikt wewnątrz OpenAI. Jeden z dyrektorów zarzuca firmie “brak bezpieczeństwa”

OpenAI to chyba najbardziej kontrowersyjna firma na rynku. Niedawno śledziliśmy niemal na żywo walkę jej CEO z zarządem. Teraz na jaw wychodzi kolejny konflikt.
  • W OpenAI trwa ponoć kolejny konflikt wewnętrzny. Chodzi o kwestie bezpieczeństwa,
  • Z pracy odszedł Jan Leike. Jego post na X skomentował m.in. Sam Altman.

OpenAI z problemami

Jan Leike, były menadżer OpenAI, napisał na X, dlaczego odszedł z firmy. Nim dokładnie wyjaśnimy powody jego odejścia z pracy, dodajmy, że zarządzał on zespół ds. "dopasowywania" AI. Zajmował się kwestiami bezpieczeństwa i tworzeniem modeli sztucznej inteligencji bardziej zorientowanych na człowieka.
Odejście z pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem. Musimy pilnie dowiedzieć się, jak sterować i kontrolować systemy sztucznej inteligencji znacznie mądrzejszej od nas
- napisał na X.
Wczoraj był mój ostatni dzień [w pracy w roli]  szefa ds. dopasowywania i dyrektora wykonawczego OpenAI.
- dodał. //twitter.com/janleike/status/1791498174659715494 Leike zauważył, że chociaż uważał, iż OpenAI będzie najlepszym miejscem do prowadzenia badań nad sztuczną inteligencją, nie zawsze zgadzał się z kierownictwem firmy.
Budowanie maszyn mądrzejszych od ludzi jest przedsięwzięciem z natury niebezpiecznym. Jednak w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan w stosunku do błyszczących produktów
- wyjaśnił powód swojego odejścia.

Firma odpowiada

Sam Altman i Greg Brockman, którzy stoją na czele OpenAI, zostali więc zmuszeni do odpowiedzi na te zarzuty. Brockman zaczął od wyrażenia wdzięczności za pracę Leike’a, ale szybko zaprzeczył temu, że OpenAI nie skupia się na bezpieczeństwie.
Po pierwsze, podnieśliśmy świadomość zagrożeń i możliwości związanych z AGI [ogólną sztuczną inteligencją]
– napisał i dodał, że firma apelowała już o międzynarodową kontrolę dot. takich badań.
Po drugie, stworzyliśmy podstawy niezbędne do bezpiecznego wdrażania systemów o coraz większych możliwościach. Ustalenie, jak po raz pierwszy zapewnić bezpieczeństwo nowej technologii, nie jest łatwe
- napisał. //twitter.com/gdb/status/1791869138132218351 Z kolei Sam Altman, współzałożyciel i dyrektor generalny spółki, przyznał Leike'owi rację.
Mamy dużo więcej do zrobienia; jesteśmy zobowiązani to zrobić
- dodał.

Zagrożenia, ale jakie?

Jakie zagrożenia może generować AI? Nie chodzi tylko o scenariusz rodem z "Terminatora". Warto dodać, że coraz to bardziej przełomowe modele sztucznej inteligencji mogą zacząć pozbawiać ludzi zajęcia zarobkowego. Zagrożeni mogą czuć się niemal wszyscy. Na razie AI wspomaga ludzi w pracy. I tak zapewne pozostanie jeszcze przez wiele lat. Co będzie jednak np. za dekadę? Możliwe, że rządy wprowadzą gwarantowany dochód, a praca stanie się przywilejem tylko dla tych najbardziej twórczych i kreatywnych jednostek lub tych, które będą potrafiły pracować z AI.

Komentarze

Ranking giełd