Regulacje dotyczące praw autorskich w OpenAI
Głównym problemem, jak mówi Altman, jest zasada zawarta w ,,EU AI Act”, która wymagałaby od firm ujawniania materiałów chronionych prawami autorskimi i używanych przy tworzeniu generatywnych narzędzi. Takie regulacje już zaczynają wpływać na działalność firm technologicznych. W zeszłym tygodniu, Apple wraz z innymi korporacjami zdecydowało o zakazie korzystania przez ich pracowników z ChatGPT oraz innych narzędzi AI od stron trzecich. Tłumaczono to obawami o wyciek poufnych danych firmy, które mogłyby zostać przechowane na serwerach zewnętrznych.Spotkanie w Białym Domu z Liderami AI
Jednocześnie w Stanach Zjednoczonych administracja Prezydenta Joe Bidena podkreśla swoje zaangażowanie w promowanie odpowiedzialnego rozwoju sztucznej inteligencji (AI). W czwartek, wiceprezydent Kamala Harris spotkała się z CEO najważniejszych firm tworzących i badających produkty oraz narzędzia AI.Najnowszy projekt EU AI Act mógłby wprowadzić zbyt wiele regulacji, ale słyszeliśmy, że prawdopodobnie zostanie on zmieniony - wyjaśniał Altman w trakcie wywiadu.
Wpływ regulacji na definicję i rozwój AI
Future of Life Institute, które analizowało EU AI Act, definiuje ogólnie przyjęte standardy AI jako systemy o szerokim zakresie możliwych zastosowań - zarówno tych zamierzonych, jak i nieprzewidzianych przez deweloperów. W grudniu państwa członkowskie UE zatwierdziły wersję Artificial Intelligence Regulation Act. W zeszłym miesiącu grupa legislatorów w Parlamencie Europejskim wezwała Joe Bidena i prezydenta Komisji Europejskiej - Ursulę von der Leyen - do zorganizowania globalnego szczytu mającego na celu stworzenie zestawu zasad regulujących rozwój, kontrolę i wdrożenie sztucznej inteligencji.Skutki dla ChatGPT i OpenAI
Od publicznego wprowadzenia w listopadzie, szybki wzrost popularności ChatGPT od OpenAI zaskoczył niemal każdego polityka i człowieka, który z niego skorzystał. W związku z tym wiele krajów analizując perspektywy i rozwój tej technologii postanowiło jej zakazać. Przykładowo, Włochy zrobiły to powołując się na obawy dotyczące prywatności. W następstwie tego OpenAI wprowadził kilka aktualizacji np. umożliwiając użytkownikom usuwanie swojej historii. Podczas dyskusji na University College London w środę, Altman powiedział, że OpenAI spróbuje dostosować się do przepisów zanim zdecyduje o zamknięciu projektu w Europie.Albo będziemy w stanie sprostać tym wymogom, albo nie. Jeśli możemy je przestrzegać, zrobimy to, a jeśli nie - zaprzestaniemy działalności - oznajmił Altman.Analizując powyższe można stwierdzić, że AI niesie za sobą wiele zalet, lecz również zagrożeń. Fake newsy, treść bez źródeł i badań naukowych, która trafia do szerokiej gamy odbiorców. To pokazuje, że w krótkim czasie można dosłownie zalać serwisy informacyjne dużą dawką niesprawdzonych wiadomości, a to znowu może mieć negatywny wpływ na całe społeczeństwo. Bez wątpienia AI powinno być uregulowane, jednak ważne jest aby zrobić to roztropnie i zmaksymalizować korzyści z jego używania, przy zachowaniu zdrowego rozsądku.
Komentarze