Przełomowe odkrycie w OpenAI miało wywołać konflikt Sama Altmana z resztą zarządu

Kilka dni temu świat żył aferą w OpenAI. Z dość dziwnych, oficjalnych powodów zwolniono z pracy Sama Altmana. Teraz poznajemy nowe fakty. Ponoć tuż przed tym, jak firma powiedziała mu "żegnaj", kilku jej pracowników naukowych napisało list do zarządu. Podobno ostrzegali o dokonaniu przełomowego odkrycia: stworzeniu potężnej sztucznej inteligencji, która może zagrozić ludzkości.

Wiemy, dlaczego Sam Altman stracił i odzyskał pracę?

Przypomnijmy, że pod koniec zeszłego tygodnia Altman stracił pracę w OpenAI. Oficjalny powód? Problemy komunikacyjne na linii CEO-zarząd. Parę dni później firma przywróciła najbardziej zainteresowanego na dotychczasowe stanowisko. Brzmi mało poważnie. Teraz dowiadujemy się, co działo się w tle. Reuters dowiedział się od dwóch osób z firmy, że powodem nagłego zwolnienia CEO było pewne odkrycie. We wtorek, jeszcze przed powrotem Altmana na stołek, ponad 700 pracowników zagroziło OpenAI odejściem i dołączeniem do Microsoftu. Mieli w ten sposób wykazać solidarność względem byłego szefa. Jak wiemy, Microsoft oficjalnie zaoferował Altmanowi pracę, zapewne licząc, że ten pociągnie za sobą ekspertów OpenAI. Solidarność personelu to jedno. Ważniejszy jest jednak pewien list pracowników, jaki ci wysłali do zarządu. Wyrazili w nim obawy dotyczące komercjalizacji ich prac. Miało chodzić m.in. o projekt Q* (wymawiane Q-Star). Wspomniana inicjatywa ma dot. przełomowych odkryć w sferze tzw. silnej sztucznej inteligencji ogólnej (AGI). Badacze ostrzegli zarząd, że rozwój AGI może być groźny dla ludzi. Do tego warto dodać, że zbyt szybkie komercjalizowanie takich technologii może zakończyć się wymknięciem się pewnych procesów spod kontroli. Badacze wskazali w liście też na prace zespołu naukowców, którzy zajmowali się sztuczną inteligencją. Grupa ta została utworzona z zespołów „Code Gen” i „Math Gen”. Analizowała to, w jaki sposób zoptymalizować istniejące modele sztucznej inteligencji. Altman starał się zaś, by ChatGPT było nadal najszybciej rozwijającą się tego typu aplikacją w historii i pozyskał kolejnych inwestorów.

Terminator AI nadchodzi?

Czy obawy naukowców z OpenAI są zasadne? Nie wiemy, bowiem nie do końca wiadomo, co odkryła spółka. Nie można jednak wykluczyć, że niekontrolowany rozwój AI i robotyki doprowadzi do stworzenia inteligentnych maszyn. Nie wiadomo, jakimi motywami będą się one kierowały i czy nie wymkną się spod ludzkiej kontroli. Dodajmy do tego obecne halucynacje modeli AI. Możliwe, że owe "niedogadania" na linii sztuczna inteligencja-człowiek mogą w przyszłości prowadzić do tragedii. Zwłaszcza gdy zbyt zaufamy maszynom...

Komentarze

Ranking giełd