Prawnik z Nowego Jorku wykorzystał przykłady podane przez ChatGPT w analizie do sprawy sądowej.
Niestety, prawdziwość tych przykładów została zakwestionowana, ponieważ cytowała fałszywe przytoczenia i nieistniejące firmy.
Prawnik tłumaczył się użyciem ChatuGPT i niesprawdzeniem źródeł, które bot mu podał. Nie wiedział też, że przykłady mogą okazać się fałszywe.
Bohaterowi tej nieszczęsnej pomyłki grozi dalsze dochodzenie.
Sprawa rozpoczęła się sytuacją z 2019 roku, kiedy to Roberto Mata pozwał linie lotnicze Avianca za obrażenia, jakie odniósł na pokładzie ich samolotu. Jak twierdził Mata, ze względu na zaniedbanie pracownika został uderzony przez wózek do serwowania przekąsek i napojów. Jego reprezentacją w sądzie zajął się Steven Schwartz – nowojorski prawnik z 30-letnim doświadczeniem.
Jak się okazało, doświadczenie życiowe czasem nie jest wystarczające w zderzeniu z nowymi technologiami. Co najmniej sześć z przedstawionych przez Schwartza przykładów spraw podobnych do sytuacji Maty zostało odrzuconych przez sędziego. Dlaczego? Zaprezentowane kazusy okazały się fałszywymi werdyktami sądowymi, z równie sztucznymi przytoczeniami i cytatami wewnętrznymi. Wśród podanych spraw pojawiły się także nieistniejące linie lotnicze.
W jaki sposób prawnik z trzydziestoletnim doświadczeniem mógł przedstawić w swojej analizie fałszywe przykłady? Odpowiedź jest prosta: ChatGPT.
Prawda zaczęła wychodzić na jaw pod koniec kwietnia tego roku, kiedy to prawnicy reprezentujący linie lotnicze Avianca napisali list do sędziego, poddając w wątpliwość analizę prawną przedstawioną przez Schwartza. Prawnik otrzymał polecenie uzasadnienia, dlaczego nie powinien być objęty sankcjami za sfałszowanie uwierzytelnienia notarialnego. Na to nasz tytułowy bohater odpowiedział zrzutami ekranu komputera, na których to autentyczność jego przykładów potwierdzał ChatGPT.
Schwartz tłumaczył się później, iż nigdy wcześniej nie korzystał z ChatuGPT w sprawach natury prawnej, więc nie miał pojęcia, że treści mogą być fałszywe. AI potwierdzało bowiem wielokrotnie, iż wymienione kazusy są prawdziwe. Prawnik wziął jednak odpowiedzialność za swoje czyny, a zwłaszcza za niesprawdzenie źródeł, które podała mu sztuczna inteligencja. Niestety, nadal czeka go przesłuchanie i dalsze postępowanie wyjaśniające.
Jak się więc okazuje, nie w każdym przypadku ChatGPT może być dobrym pomocnikiem. W tej sytuacji prawnik więcej stracił na tym narzędziu niż zyskał. Sztuczna inteligencja może i jest inteligentna, ale jednak trzeba z niej korzystać z głową.
Źródło: https://edition.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers/index.html
Dodaj komentarz