Przełomowe odkrycie w OpenAI miało wywołać konflikt Sama Altmana z resztą zarządu | Wiadomości | CrypS.

Przełomowe odkrycie w OpenAI miało wywołać konflikt Sama Altmana z resztą zarządu

OpenAI AI

Kilka dni temu świat żył aferą w OpenAI. Z dość dziwnych, oficjalnych powodów zwolniono z pracy Sama Altmana. Teraz poznajemy nowe fakty. Ponoć tuż przed tym, jak firma powiedziała mu “żegnaj”, kilku jej pracowników naukowych napisało list do zarządu. Podobno ostrzegali o dokonaniu przełomowego odkrycia: stworzeniu potężnej sztucznej inteligencji, która może zagrozić ludzkości.


Wiemy, dlaczego Sam Altman stracił i odzyskał pracę?

Przypomnijmy, że pod koniec zeszłego tygodnia Altman stracił pracę w OpenAI. Oficjalny powód? Problemy komunikacyjne na linii CEO-zarząd. Parę dni później firma przywróciła najbardziej zainteresowanego na dotychczasowe stanowisko. Brzmi mało poważnie. Teraz dowiadujemy się, co działo się w tle.

Reuters dowiedział się od dwóch osób z firmy, że powodem nagłego zwolnienia CEO było pewne odkrycie. We wtorek, jeszcze przed powrotem Altmana na stołek, ponad 700 pracowników zagroziło OpenAI odejściem i dołączeniem do Microsoftu. Mieli w ten sposób wykazać solidarność względem byłego szefa. Jak wiemy, Microsoft oficjalnie zaoferował Altmanowi pracę, zapewne licząc, że ten pociągnie za sobą ekspertów OpenAI.

Solidarność personelu to jedno. Ważniejszy jest jednak pewien list pracowników, jaki ci wysłali do zarządu. Wyrazili w nim obawy dotyczące komercjalizacji ich prac. Miało chodzić m.in. o projekt Q* (wymawiane Q-Star).

Wspomniana inicjatywa ma dot. przełomowych odkryć w sferze tzw. silnej sztucznej inteligencji ogólnej (AGI). Badacze ostrzegli zarząd, że rozwój AGI może być groźny dla ludzi. Do tego warto dodać, że zbyt szybkie komercjalizowanie takich technologii może zakończyć się wymknięciem się pewnych procesów spod kontroli.

Badacze wskazali w liście też na prace zespołu naukowców, którzy zajmowali się sztuczną inteligencją. Grupa ta została utworzona z zespołów „Code Gen” i „Math Gen”. Analizowała to, w jaki sposób zoptymalizować istniejące modele sztucznej inteligencji. Altman starał się zaś, by ChatGPT było nadal najszybciej rozwijającą się tego typu aplikacją w historii i pozyskał kolejnych inwestorów.

Terminator AI nadchodzi?

Czy obawy naukowców z OpenAI są zasadne? Nie wiemy, bowiem nie do końca wiadomo, co odkryła spółka. Nie można jednak wykluczyć, że niekontrolowany rozwój AI i robotyki doprowadzi do stworzenia inteligentnych maszyn.

Nie wiadomo, jakimi motywami będą się one kierowały i czy nie wymkną się spod ludzkiej kontroli. Dodajmy do tego obecne halucynacje modeli AI. Możliwe, że owe “niedogadania” na linii sztuczna inteligencja-człowiek mogą w przyszłości prowadzić do tragedii. Zwłaszcza gdy zbyt zaufamy maszynom…

OpenAI

Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->

Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->

reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.