ChatGPT oszukał prawnika

ChatGPT oszukał prawnika

ChatGPT jest narzędziem coraz częściej wykorzystywanym w wielu dziedzinach życia. Pomaga nie tylko w wyszukiwaniu informacji, ale i tworzeniu tekstów czy odkrywaniu przykładów. W tym ostatnim celu użył go pewien prawnik i szybko tego pożałował. 

Prawnik z Nowego Jorku wykorzystał przykłady podane przez ChatGPT w analizie do sprawy sądowej.

Niestety, prawdziwość tych przykładów została zakwestionowana, ponieważ cytowała fałszywe przytoczenia i nieistniejące firmy.

Prawnik tłumaczył się użyciem ChatuGPT i niesprawdzeniem źródeł, które bot mu podał. Nie wiedział też, że przykłady mogą okazać się fałszywe.

Bohaterowi tej nieszczęsnej pomyłki grozi dalsze dochodzenie.

Reklama
Źródło grafiki: myshingle.com.

Sprawa rozpoczęła się sytuacją z 2019 roku, kiedy to Roberto Mata pozwał linie lotnicze Avianca za obrażenia, jakie odniósł na pokładzie ich samolotu. Jak twierdził Mata, ze względu na zaniedbanie pracownika został uderzony przez wózek do serwowania przekąsek i napojów. Jego reprezentacją w sądzie zajął się Steven Schwartz – nowojorski prawnik z 30-letnim doświadczeniem

Jak się okazało, doświadczenie życiowe czasem nie jest wystarczające w zderzeniu z nowymi technologiami. Co najmniej sześć z przedstawionych przez Schwartza przykładów spraw podobnych do sytuacji Maty zostało odrzuconych przez sędziego. Dlaczego? Zaprezentowane kazusy okazały się fałszywymi werdyktami sądowymi, z równie sztucznymi przytoczeniami i cytatami wewnętrznymi. Wśród podanych spraw pojawiły się także nieistniejące linie lotnicze.

W jaki sposób prawnik z trzydziestoletnim doświadczeniem mógł przedstawić w swojej analizie fałszywe przykłady? Odpowiedź jest prosta: ChatGPT

Źródło grafiki: clp.law.harvard.edu.

Prawda zaczęła wychodzić na jaw pod koniec kwietnia tego roku, kiedy to prawnicy reprezentujący linie lotnicze Avianca napisali list do sędziego, poddając w wątpliwość analizę prawną przedstawioną przez Schwartza. Prawnik otrzymał polecenie uzasadnienia, dlaczego nie powinien być objęty sankcjami za sfałszowanie uwierzytelnienia notarialnego. Na to nasz tytułowy bohater odpowiedział zrzutami ekranu komputera, na których to autentyczność jego przykładów potwierdzał ChatGPT.

Schwartz tłumaczył się później, iż nigdy wcześniej nie korzystał z ChatuGPT w sprawach natury prawnej, więc nie miał pojęcia, że treści mogą być fałszywe. AI potwierdzało bowiem wielokrotnie, iż wymienione kazusy są prawdziwe. Prawnik wziął jednak odpowiedzialność za swoje czyny, a zwłaszcza za niesprawdzenie źródeł, które podała mu sztuczna inteligencja. Niestety, nadal czeka go przesłuchanie i dalsze postępowanie wyjaśniające. 

Jak się więc okazuje, nie w każdym przypadku ChatGPT może być dobrym pomocnikiem. W tej sytuacji prawnik więcej stracił na tym narzędziu niż zyskał. Sztuczna inteligencja może i jest inteligentna, ale jednak trzeba z niej korzystać z głową. 

Źródło: https://edition.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers/index.html

Dzwoneczek

Bądź na bieżąco! 

Włączenie powiadomień wiąże się z przekazaniem anonimowych danych zewnętrznemu usługodawcy. Więcej informacji

Komentarze

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Wpisane wyżej dane oraz Twój adres IP zostaną przesłane do serwisu Akismet w celu ochrony przed spamem. Więcej informacji

Nie ma jeszcze komentarzy.
Bądź pierwszą osobą, która wyrazi swoją opinię!