ChatGPT staje się częścią naszej codzienności. Problem w tym, że nie wszyscy chyba rozumieją, że nie jest to narzędzie w pełni dopracowane i któremu można całkowicie ufać. Boleśnie dowiedział się o tym pewien adwokat z Nowego Jorku.
Adwokat, ChatGPT i próba pójścia na skróty
Steven Schwartz, prawnik z nowojorskiej firmy prawniczej
Levidow & Oberman, został zatrudniony przez Roberta Matę. Miał prowadzić mu sprawę przeciwko Avianca Airlines. Mata doznał podczas lotu w 2019 roku kontuzji. Chciał wywalczyć dla siebie odszkodowanie.
Na potrzeby tego tekstu pomińmy to, czy linia lotnicza powinna zapłacić poturbowanemu klientowi pieniądze, czy też nie. Interesuje nas coś innego. W czasie analizy dokumentów dot. sprawy
sędzia zauważył niespójności i błędy rzeczowe. Chodziło o pisma, które przygotował Schwartz. Okazało się, że
do opracowania ich wykorzystał ChatGPT. Program pełnił rolę jego asystenta i pomagał mu w analizie zagadnień prawnych, które były związane ze sprawą. Chatbot okazał się jednak mało rzetelny.
Trudno też posądzić o profesjonalizm samego prawnika, który - jak
sam przyznał - użył ChatGPT do badań prawnych po raz pierwszy w życiu i „nie zdawał sobie sprawy z możliwości, że [generowane] treści mogą być fałszywe”.
Na czym polegały kłamstwa chatbota? W piśmie sądowym z 5 kwietnia sędzia prowadzący sprawę napisał, że
„sześć z przedłożonych spraw wydaje się być fałszywymi decyzjami sądowymi z fałszywymi cytatami i fałszywymi cytatami wewnętrznymi”. Naiwny ChatGPT zakładał chyba, że naginając pod wolę swojego użytkownika "fakty" sprawi, że sędzia przychyli się do jego argumentacji.
Sędzia dodał, że niektóre przytoczone w dokumentacji sprawy w ogóle nie miały miejsca. Do jednej dodano numer sygnatury, który dotyczył jednak zupełnie innej rozprawy, związanej z kompletnie innymi paragrafami.
Samemu leniwemu prawnikowi pozostało przeproszenie klienta i sędziego. Wyjaśnił, że żałuje, że "wykorzystał generatywną sztuczną inteligencję do uzupełnienia przeprowadzonych analiz prawnych i nigdy nie zrobi tego w przyszłości bez absolutnej weryfikacji autentyczności [faktów]”.
Czy chatbot może zastąpić człowieka?
Choć sprawę można uznać tylko za ciekawą anegdotę, pokazuje ona poważny problem związany z rozwojem
sztucznej inteligencji. Może ona zastąpić człowieka w prostych, powtarzalnych sytuacjach. Gdy konieczna jest jednak kreatywność i wgłębienie się daną sprawę, nie można jej ufać. O tym, że ChatGPT zmyśla, mówi się zresztą od dawna.
Czy więc chatboty będą wkrótce zastępowały ludzi? I tak, i nie. Tak jak wspomnieliśmy, w prostych czynnościach (np. częściowe zastąpienie telemarketerów czy generowanie prostych treści) jest to możliwe. W bardziej skomplikowanych kwestiach nie wydarzy się to wcale lub dopiero za wiele lat.
Komentarze