Wykrycie udziału sztucznej inteligencji jest większym problemem niż zakładano

OpenAI -  firma technologiczna specjalizująca się w sztucznej inteligencji, podjęła decyzję o dezaktywacji narzędzia do wykrywania treści generowanych przez AI.
Mowa o narzędziu AI Classifier. Decyzja nie budzi zadowolenia wśród użytkowników, którzy oczekiwali lepszych efektów tego rodzaju rozwiązania. 

Zrozumienie misji OpenAI

OpenAI powstało w grudniu 2015 roku. Jego pierwotnym założeniem było tworzenie i promowanie przyjaznej sztucznej inteligencji, która jest bezpieczna i korzystna dla społeczeństwa. Obecnie spółka przeprowadza zaawansowane badania w różnych dziedzinach sztucznej inteligencji i uczenia maszynowego. Dzięki temu tworzy zaawansowane modele językowe, takie jak GPT-3, a następnie 3.5 oraz wersję 4.0. Przez całą swoją działalność, OpenAI było zaangażowane w rozwiązywanie wielu wyzwań w zakresie bezpieczeństwa, sprawiając, że sztuczna inteligencja ogólnego zastosowania (AGI) jest rozwijana i wdrażana w sposób odpowiedzialny, przynosząc korzyści całemu społeczeństwu.

Dezaktywacja AI Classifier

Po sześciu miesiącach działania AI Classifier, projekt został po cichu zamknięty z powodu słabych wyników. OpenAI ujawniło, że narzędzie było wyjątkowo mało precyzyjne, a w związku z tym - jego wiarygodność zmalała niemal do zera w zakresie identyfikowania treści generowanych przez sztuczną inteligencję.  Platforma prawdopodobnie wstydzi się porażki, gdyż informację o zakończeniu programu podano po cichu w taki sposób, by jak najmniej osób się o tym dowiedziało. Wiadomość o zamknięciu AI Classifier została dodana jako aktualizacja do oryginalnego wpisu na blogu, który wprowadził narzędzie. Co więcej, link do AI Classifiera nie jest już dostępny.

Trudności z krótkimi tekstami

W swoim oświadczeniu OpenAI wykazało ograniczenia, które dotyczą działania AI Classifiera. Narzędzie miało problem z interpretacją krótkich form wypowiedzi. Co gorsza, program często wadliwie klasyfikował treści napisane przez ludzi jako generowane przez AI.

Sektor edukacji na czele zainteresowanych

Sektor edukacji szczególnie intensywnie interesował się precyzyjnym narzędziem do wykrywania AI, zwłaszcza od momentu uruchomienia ChatGPT w listopadzie 2022 roku. Nauczyciele wyrazili obawy, że studenci mogą potencjalnie korzystać z chatbota AI do tworzenia esejów i prac naukowych. OpenAI, mimo rozczarowania wynikami swojego AI Classifiera, zobowiązało się jednak do ulepszania swoich narzędzi i uwzględniania informacji zwrotnych, które pomogą wychwycić działanie sztucznej inteligencji. Obecnie badane są skuteczniejsze techniki analizujące pochodzenia tekstu. Niemniej jednak musimy pamiętać, że tak jak sztuczna inteligencja, tak sektor, który ma ją wychwytywać, rośnie w zastraszającym tempie. Jest to zatem kwestia czasu, kiedy powstanie narzędzie, które skutecznie wskaże w jakim momencie pracy sztuczna inteligencja przejęła kontrolę nad jej wykonaniem. Niektóre kraje już podejmują działania w zakresie zapewnienia bezpiecznego używania AI. Czy branża sztucznej inteligencji może być w jakikolwiek sposób kontrolowana? O tym dowiemy się niebawem. 

Komentarze

Ranking giełd