Sztuczna inteligencja napisze scenariusz do odcinka Black Mirror?
Charlie Brooker – twórca popularnego serialu ”Black Mirror” próbował stworzyć nowy odcinek z pomocą ChatGPT. Jednakże rezultaty tego zabiegu okazały się mocno odbiegające od oczekiwań scenarzysty.
Twórca “Black Mirror”, czyli Charlie Brooker, próbował napisać scenariusz do nowego odcinak z wykorzystaniem ChatGPT. Mimo, że epizod wygenerowany przez sztuczną inteligencję na pierwszy rzut oka wyglądał obiecująco, to po głębszej analizie okazał się porażką.
Debata na temat AI i tworzenia treści
Od momentu premiery ChatGPT w listopadzie zeszłego roku można spotkać się z dyskusjami na temat tego, czy sztuczna inteligencja jest w stanie zastąpić pisarzy. Brooker, twórca brytyjskiego serialu ,,Black Mirror”, wyraził nadzieję, że chatbot stworzony przez OpenAI nie jest w stanie napisać prawdziwego odcinka.
Wydawało się, że na pierwszy rzut oka jest to sensowne, ale przy bliższym przyjrzeniu się, okazało się, że jest to bubel. Wszystko, co robił ChatGPT, to przeszukiwanie streszczeń odcinków serialu i mieszanie ich ze sobą. Brak tutaj jakiejkolwiek oryginalnej myśli – powiedział Brooker.
Wnioski z używania ChatGPT
Mimo wszystko, Brooker wyniósł cenną lekcję z sesji z ChatGPT. Zachowanie AI pokazało mu czego unikać w przyszłości. Sam twórca podkreślił, że musiał sprawdzić jak to jest przelewać myśli do sztucznej inteligencji i próbować zastąpić ludzi nowymi technologiami. Obecnie nie ma mowy, że tego rodzaju rozwiązania całkowicie wyeliminują czynnik ludzki z pracy i wykonywania zadań.
ChatGPT jako prawnik
Już wcześniej pisaliśmy o bezrefleksyjnym wykorzystaniu programu ChatGPT w branży prawniczej. Kazus adwokata z firmy Levidow & Oberman dobitnie pokazał, że nie można ufać AI. Stan faktyczny przedstawiał się następująco: Steven Schwartz, został zatrudniony przez Roberta Matę, który chciał dochodzić odszkodowania od Avianca Airlines. Schwartz użył ChatGPT do przygotowania dokumentów prawnych, ale chatbot okazał się mało rzetelny. Sędzia odkrył fałszywe wyroki sądowe, które nigdy nie zapadły i inne błędy w dokumentach. Schwartz przeprosił klienta i sędziego, zobowiązując się do weryfikacji autentyczności faktów w przyszłości.
Sztuczna inteligencja a oszustwa
Jeżeli mówimy o oszustwach i problemach związanych ze sztuczną inteligencją nie sposób pominąć ostrzeżenia Charles’a Hoskinson’a – dewelopera i współzałożyciela Cardano, który informował o korzystaniu z sztucznej inteligencji przez oszustów do kradzieży kryptowalut.
Zalecił przy tym używanie podpisu PGP do weryfikacji tożsamości nadawcy wiadomości e-mail. Hoskinson wskazał również na zagrożenie typu deepfake, które może prowadzić do oszustw. Przewidywał on, że rozwój sztucznej inteligencji spowoduje wzrost liczby kradzieży cyfrowych aktywów. Podpis PGP jest obecnie jedynym pewnym sposobem weryfikacji tożsamości.
Jak widać powyżej, AI może pomagać ludziom w codziennej pracy, jednak nie można bezgranicznie ufać nowej technologii. Ponadto nowe programy generują nieznane dotąd problemy z którymi musimy się zmierzyć.
Śledź CrypS. w Google News. Czytaj najważniejsze wiadomości bezpośrednio w Google! Obserwuj ->
Zajrzyj na nasz telegram i dołącz do Crypto. Society. Dołącz ->
Aktualnie brak komentarzy.