Chcieli przechytrzyć sąd. ChatGPT wpędził ich w kłopoty
Korzystanie ze sztucznej inteligencji w codziennym życiu staje się normalnością. Ludzie za pomocą chatbota piszą wypracowania, listy motywacyjne czy CV. O tym, aby jednak uważać przy korzystaniu z AI, przekonał się prawnik z USA.
Nowojorski prawnik za bardzo polubił możliwość korzystania z chatbota. Stanął przed sądem i musi tłumaczyć się z podjętych decyzji.
Podobne
- Możemy spać spokojnie, AI nie zabierze nam pracy. Gigawpadka Rocket Jobs
- ChatGPT stworzył ustawę w 15 sekund. Szok i niedowierzanie
- Nauczycielka przechytrzyła ChatGPT? Sieje postrach wśród uczniów
- Okulary z ChatGPT hakują szkoły. Czy uczniowie faktycznie z nich korzystają?
- Kilkanaście osób zwolnionych. Dziennikarzy w OFF Radio Kraków zastąpi AI
Bezprecedensowe okoliczności
Pierwotna sprawa dotyczyła mężczyzny pozywającego linię lotniczą w związku z domniemanym uszkodzeniem ciała. Jego zespół prawny przedłożył notatkę, w której przytoczył kilka poprzednich spraw sądowych. Próbowali w ten sposób udowodnić, (wykorzystując precedens), dlaczego sprawa powinna iść naprzód.
Pracownicy linii lotniczych zwrócili się do sędziego, informując, że nie mogą znaleźć przypadków wskazanych przez zespół prawny. Okazało się, że te nigdy nie miały miejsca.
W trakcie kilku zgłoszeń okazało się, że sprawy sądowe nie zostały przygotowane przez Petera LoDuca, prawnika powoda, ale przez jego kolegę z tej samej kancelarii. Steven Schwartz, który jest adwokatem od ponad 30 lat, użył ChatGPT do szukania podobnych poprzednich spraw.
Sędzia powiedział, że sąd stanął w obliczu "bezprecedensowych okoliczności" po tym, jak stwierdzono, że zgłoszenie odnosi się do przykładowych spraw prawnych, które nie istniały.
"Bardzo żałuję polegania na chatbocie"
Obaj prawnicy zostali wezwani do wyjaśnienia. Mają wyjaśnić sędziemu, dlaczego nie powinni zostać ukarani dyscyplinarnie. Schwartz dodał w oświadczeniu dla mediów, że bardzo żałuje polegania na chatbocie, którego nigdy wcześniej nie używał do badań prawnych i nie był świadomy, że wytworzone przez niego treść może być fałszywa.
Prawnik przysiągł również, że nigdy nie będzie używał sztucznej inteligencji do uzupełniania swoich badań prawnych w przyszłości bez absolutnej weryfikacji ich autentyczności.
W temacie społeczeństwo
- Polska musi uznawać małżeństwa par jednopłciowych? TSUE stoi po stronie LGBTQ+
- Jarmark all inclusive? Płacisz raz - jesz i pijesz, ile chcesz
- Piosenkarka kupiła lampę imitującą grzyba atomowego. Przez to Aespa nie wystąpi na sylwestrze w Japonii?
- Olivia Dean vs Ticketmaster. Artystka żąda TAŃSZYCH biletów na własne koncerty
Popularne
- SmileLandia istnieje? Wyjaśniamy, o co chodzi w nowym trendzie
- Popek poleciał do Turcji zrobić zęby. Efekt jego metamorfozy jest niesamowity
- Ikea wypuściła własne blind boxy. W środku m.in. ikoniczne rekiny-blåhaje
- Wersow testuje Burgera Drwala. Jak oceniła króla zimy z McDonald's?
- Influencer podzieli się empatią. Pod warunkiem, że zapłacisz
- Mata wydał mocny kawałek. W "sorry, taki jestem ;)" zdradza, dlaczego podpisał Fagatę [OPINIA]
- Zamknęli influencerów w więzieniu? Premiera "Eksperyment: Odsiadka" już za kilka dni
- Olivia Dean vs Ticketmaster. Artystka żąda TAŃSZYCH biletów na własne koncerty
- Bagi pożegna się z Kryształową Kulą? Tak odpowiedział na krytykę





