Kolejny konflikt wewnątrz OpenAI. Jeden z dyrektorów zarzuca firmie “brak bezpieczeństwa”
OpenAI to chyba najbardziej kontrowersyjna firma na rynku. Niedawno śledziliśmy niemal na żywo walkę jej CEO z zarządem. Teraz na jaw wychodzi kolejny konflikt.
- W OpenAI trwa ponoć kolejny konflikt wewnętrzny. Chodzi o kwestie bezpieczeństwa,
- Z pracy odszedł Jan Leike. Jego post na X skomentował m.in. Sam Altman.
OpenAI z problemami
Jan Leike, były menadżer OpenAI, napisał na X, dlaczego odszedł z firmy.
Nim dokładnie wyjaśnimy powody jego odejścia z pracy, dodajmy, że zarządzał on zespół ds. “dopasowywania” AI. Zajmował się kwestiami bezpieczeństwa i tworzeniem modeli sztucznej inteligencji bardziej zorientowanych na człowieka.
Odejście z pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem. Musimy pilnie dowiedzieć się, jak sterować i kontrolować systemy sztucznej inteligencji znacznie mądrzejszej od nas
– napisał na X.
Wczoraj był mój ostatni dzień [w pracy w roli] szefa ds. dopasowywania i dyrektora wykonawczego OpenAI.
– dodał.
Yesterday was my last day as head of alignment, superalignment lead, and executive @OpenAI.
— Jan Leike (@janleike) May 17, 2024
Leike zauważył, że chociaż uważał, iż OpenAI będzie najlepszym miejscem do prowadzenia badań nad sztuczną inteligencją, nie zawsze zgadzał się z kierownictwem firmy.
Budowanie maszyn mądrzejszych od ludzi jest przedsięwzięciem z natury niebezpiecznym. Jednak w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan w stosunku do błyszczących produktów
– wyjaśnił powód swojego odejścia.
Firma odpowiada
Sam Altman i Greg Brockman, którzy stoją na czele OpenAI, zostali więc zmuszeni do odpowiedzi na te zarzuty.
Brockman zaczął od wyrażenia wdzięczności za pracę Leike’a, ale szybko zaprzeczył temu, że OpenAI nie skupia się na bezpieczeństwie.
Po pierwsze, podnieśliśmy świadomość zagrożeń i możliwości związanych z AGI [ogólną sztuczną inteligencją]
– napisał i dodał, że firma apelowała już o międzynarodową kontrolę dot. takich badań.
Po drugie, stworzyliśmy podstawy niezbędne do bezpiecznego wdrażania systemów o coraz większych możliwościach. Ustalenie, jak po raz pierwszy zapewnić bezpieczeństwo nowej technologii, nie jest łatwe
– napisał.
We’re really grateful to Jan for everything he's done for OpenAI, and we know he'll continue to contribute to the mission from outside. In light of the questions his departure has raised, we wanted to explain a bit about how we think about our overall strategy.
First, we have… https://t.co/djlcqEiLLN
— Greg Brockman (@gdb) May 18, 2024
Z kolei Sam Altman, współzałożyciel i dyrektor generalny spółki, przyznał Leike’owi rację.
Mamy dużo więcej do zrobienia; jesteśmy zobowiązani to zrobić
– dodał.
Zagrożenia, ale jakie?
Jakie zagrożenia może generować AI? Nie chodzi tylko o scenariusz rodem z “Terminatora”. Warto dodać, że coraz to bardziej przełomowe modele sztucznej inteligencji mogą zacząć pozbawiać ludzi zajęcia zarobkowego. Zagrożeni mogą czuć się niemal wszyscy.
Na razie AI wspomaga ludzi w pracy. I tak zapewne pozostanie jeszcze przez wiele lat.
Co będzie jednak np. za dekadę? Możliwe, że rządy wprowadzą gwarantowany dochód, a praca stanie się przywilejem tylko dla tych najbardziej twórczych i kreatywnych jednostek lub tych, które będą potrafiły pracować z AI.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.