ChatGPT został wykorzystany w procesie sądowym z... zaskakującym skutkiem | Wiadomości | CrypS.

ChatGPT został wykorzystany w procesie sądowym z… zaskakującym skutkiem

Sztuczna inteligencja AI

ChatGPT staje się częścią naszej codzienności. Problem w tym, że nie wszyscy chyba rozumieją, że nie jest to narzędzie w pełni dopracowane i któremu można całkowicie ufać. Boleśnie dowiedział się o tym pewien adwokat z Nowego Jorku.


Adwokat, ChatGPT i próba pójścia na skróty

Steven Schwartz, prawnik z nowojorskiej firmy prawniczej Levidow & Oberman, został zatrudniony przez Roberta Matę. Miał prowadzić mu sprawę przeciwko Avianca Airlines. Mata doznał podczas lotu w 2019 roku kontuzji. Chciał wywalczyć dla siebie odszkodowanie.

Na potrzeby tego tekstu pomińmy to, czy linia lotnicza powinna zapłacić poturbowanemu klientowi pieniądze, czy też nie. Interesuje nas coś innego. W czasie analizy dokumentów dot. sprawy sędzia zauważył niespójności i błędy rzeczowe. Chodziło o pisma, które przygotował Schwartz. Okazało się, że do opracowania ich wykorzystał ChatGPT. Program pełnił rolę jego asystenta i pomagał mu w analizie zagadnień prawnych, które były związane ze sprawą. Chatbot okazał się jednak mało rzetelny.

Trudno też posądzić o profesjonalizm samego prawnika, który – jak sam przyznał – użył ChatGPT do badań prawnych po raz pierwszy w życiu i „nie zdawał sobie sprawy z możliwości, że [generowane] treści mogą być fałszywe”.

Na czym polegały kłamstwa chatbota? W piśmie sądowym z 5 kwietnia sędzia prowadzący sprawę napisał, że „sześć z przedłożonych spraw wydaje się być fałszywymi decyzjami sądowymi z fałszywymi cytatami i fałszywymi cytatami wewnętrznymi”. Naiwny ChatGPT zakładał chyba, że naginając pod wolę swojego użytkownika “fakty” sprawi, że sędzia przychyli się do jego argumentacji.

Sędzia dodał, że niektóre przytoczone w dokumentacji sprawy w ogóle nie miały miejsca. Do jednej dodano numer sygnatury, który dotyczył jednak zupełnie innej rozprawy, związanej z kompletnie innymi paragrafami.

Samemu leniwemu prawnikowi pozostało przeproszenie klienta i sędziego. Wyjaśnił, że żałuje, że “wykorzystał generatywną sztuczną inteligencję do uzupełnienia przeprowadzonych analiz prawnych i nigdy nie zrobi tego w przyszłości bez absolutnej weryfikacji  autentyczności [faktów]”.

Czy chatbot może zastąpić człowieka?

Choć sprawę można uznać tylko za ciekawą anegdotę, pokazuje ona poważny problem związany z rozwojem sztucznej inteligencji. Może ona zastąpić człowieka w prostych, powtarzalnych sytuacjach. Gdy konieczna jest jednak kreatywność i wgłębienie się daną sprawę, nie można jej ufać. O tym, że ChatGPT zmyśla, mówi się zresztą od dawna.

Czy więc chatboty będą wkrótce zastępowały ludzi? I tak, i nie. Tak jak wspomnieliśmy, w prostych czynnościach (np. częściowe zastąpienie telemarketerów czy generowanie prostych treści) jest to możliwe. W bardziej skomplikowanych kwestiach nie wydarzy się to wcale lub dopiero za wiele lat.

Sztuczna inteligencja



reklama

Dodaj komentarz

Ostrzeżenie o ryzyku Kryptowaluty oraz produkty lewarowe to bardzo ryzykowne istrumenty finansowe, mogące spowodować szybką utratę kapitału.

Materiały opublikowane na tej stronie mają jedynie cel informacyjny i nie należy ich traktować jako porady inwestycyjnej (rekomendacji) w rozumieniu przepisów ustawy z dnia 29 lipca 2005r. o obrocie instrumentami finansowymi. Nie są również doradztwem prawnym ani finansowym. Opracowania zamieszczone w serwisie Cryps.pl stanowią wyłącznie wyraz poglądów redakcji i użytkowników serwisu i nie powinny być interpretowane w inny sposób.

Niektóre artykuły opatrzone są odnośnikami do innych stron. Służy to uzupełnieniu przedstawionych informacji.
Niektóre jednak linki mają charakter afiliacyjny: prowadzą do oficjalnych stron producentów, na których można kupić opisywany produkt. Jeśli użytkownik dokona transakcji po kliknięciu w link, nasz serwis pobiera z tego tytułu prowizję. Nie wpływa to na finalną cenę produktu, a w niektórych przypadkach ją obniża. Portal CrypS.pl nie ponosi odpowiedzialności za treści, które znajdują się na podlinkowanych stronach.