ChatGPT oszukał prawnika

ChatGPT jest narzędziem coraz częściej wykorzystywanym w wielu dziedzinach życia. Pomaga nie tylko w wyszukiwaniu informacji, ale i tworzeniu tekstów czy odkrywaniu przykładów. W tym ostatnim celu użył go pewien prawnik i szybko tego pożałował. 

Awatar Karolina Burnagiel

Prawnik z Nowego Jorku wykorzystał przykłady podane przez ChatGPT w analizie do sprawy sądowej.

Niestety, prawdziwość tych przykładów została zakwestionowana, ponieważ cytowała fałszywe przytoczenia i nieistniejące firmy.

Prawnik tłumaczył się użyciem ChatuGPT i niesprawdzeniem źródeł, które bot mu podał. Nie wiedział też, że przykłady mogą okazać się fałszywe.

Bohaterowi tej nieszczęsnej pomyłki grozi dalsze dochodzenie.

Źródło grafiki: myshingle.com.

Sprawa rozpoczęła się sytuacją z 2019 roku, kiedy to Roberto Mata pozwał linie lotnicze Avianca za obrażenia, jakie odniósł na pokładzie ich samolotu. Jak twierdził Mata, ze względu na zaniedbanie pracownika został uderzony przez wózek do serwowania przekąsek i napojów. Jego reprezentacją w sądzie zajął się Steven Schwartz – nowojorski prawnik z 30-letnim doświadczeniem

Jak się okazało, doświadczenie życiowe czasem nie jest wystarczające w zderzeniu z nowymi technologiami. Co najmniej sześć z przedstawionych przez Schwartza przykładów spraw podobnych do sytuacji Maty zostało odrzuconych przez sędziego. Dlaczego? Zaprezentowane kazusy okazały się fałszywymi werdyktami sądowymi, z równie sztucznymi przytoczeniami i cytatami wewnętrznymi. Wśród podanych spraw pojawiły się także nieistniejące linie lotnicze.

W jaki sposób prawnik z trzydziestoletnim doświadczeniem mógł przedstawić w swojej analizie fałszywe przykłady? Odpowiedź jest prosta: ChatGPT

Źródło grafiki: clp.law.harvard.edu.

Prawda zaczęła wychodzić na jaw pod koniec kwietnia tego roku, kiedy to prawnicy reprezentujący linie lotnicze Avianca napisali list do sędziego, poddając w wątpliwość analizę prawną przedstawioną przez Schwartza. Prawnik otrzymał polecenie uzasadnienia, dlaczego nie powinien być objęty sankcjami za sfałszowanie uwierzytelnienia notarialnego. Na to nasz tytułowy bohater odpowiedział zrzutami ekranu komputera, na których to autentyczność jego przykładów potwierdzał ChatGPT.

Schwartz tłumaczył się później, iż nigdy wcześniej nie korzystał z ChatuGPT w sprawach natury prawnej, więc nie miał pojęcia, że treści mogą być fałszywe. AI potwierdzało bowiem wielokrotnie, iż wymienione kazusy są prawdziwe. Prawnik wziął jednak odpowiedzialność za swoje czyny, a zwłaszcza za niesprawdzenie źródeł, które podała mu sztuczna inteligencja. Niestety, nadal czeka go przesłuchanie i dalsze postępowanie wyjaśniające. 

Jak się więc okazuje, nie w każdym przypadku ChatGPT może być dobrym pomocnikiem. W tej sytuacji prawnik więcej stracił na tym narzędziu niż zyskał. Sztuczna inteligencja może i jest inteligentna, ale jednak trzeba z niej korzystać z głową. 

Źródło: https://edition.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers/index.html

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Na razie brak komentarzy.
Bądź pierwszą osobą, która wyrazi swoją opinię!
Starsze komentarze Nowsze komentarze


Przeszukaj portal TechnoStrefa.com

Dalsze wyniki

Brak wyników.

Wyszukiwanie obsługiwane przez