Egy ügyvéd a ChatGPT-t használta egy per kapcsán, ám az nemlétező eseteket írt le neki

Ha tetszett, oszd meg ismerőseiddel!

Az Avianca kolumbiai légitársaság ellen indított perben egy beadvány hat olyan esetre hivatkozott, amelyek nem léteznek, de a felperesnek dolgozó ügyvéd azt mondta a bíróságnak, hogy a ChatGPT szerint ezek valódiak.

A kolumbiai Avianca légitársaságot perlő ügyvédek egy olyan korábbi ügyekkel teli beadványt nyújtottak be, amelyeket a ChatGPT csak kitalált – írta meg a The New York Times. Miután az ellenérdekű ügyvédek rámutattak a nem létező ügyekre, Kevin Castel amerikai kerületi bíró megerősítette: „A benyújtott ügyek közül hat hamis bírói döntésnek tűnik, hamis idézetekkel és hamis belső hivatkozásokkal”, és meghallgatást rendelt el, mivel szankciókat fontolgat a felperes ügyvédjei számára.

Steven A. Schwartz ügyvéd eskü alatt tett nyilatkozatában elismerte, hogy kutatásaihoz az OpenAI chatbotját használta.

AZ ESETEK ELLENŐRZÉSÉRE AZT A NEM TÚL ÉSSZERŰ MÓDSZERT TALÁLTA KI, HOGY MEGKÉRDEZTE A CHATBOTOT, HOGY HAZUDIK-E.
Amikor pedig a forrás után érdeklődött az ügyvéd, a ChatGPT ragaszkodott ahhoz, hogy az ügy valós, mondván, hogy megtalálható a Westlaw és a LexisNexis oldalakon. Ekkor az ügyvéd elégedetten megkérdezte, hogy a többi ügy hamis-e, mire a ChatGPT fenntartotta, hogy mindegyik valódi.

Az ellenérdekű fél fájdalmas részletességgel hívta fel a bíróság figyelmét a kérdésre, amikor elmesélte, hogy a Levidow, Levidow & Oberman ügyvédek beadványa egy hazugságokkal teli beadvány volt. Az egyik példában, a Varghese v. China Southern Airlines Co., Ltd. nevű, nem létező ügyben a chatbot látszólag egy másik valós ügyre, a Zicherman v. Korean Air Lines Co., Ltd.-re hivatkozott, de a dátumot (és más részleteket) tévesen adta meg, azt állítva, hogy az eredeti, 1996-os döntés után 12 évvel később született.

Schwartz azt mondja:

nem volt tudatában annak a lehetőségnek, hogy a tartalma hamis lehet és most már nagyon sajnálja, hogy generatív mesterséges intelligenciát használt az itt elvégzett jogi kutatás kiegészítésére, és a jövőben soha nem fog ilyet tenni a hitelesség abszolút ellenőrzése nélkül.

Ez ismét rávilágít arra az abszurditásra, hogy a chatbotokat kutatásra használják anélkül, hogy máshol kétszer (vagy háromszor) ellenőriznék a forrásaikat, hiszen ezek a rendszerek még nagyon gyerekcipőben totyognak. Jó példa erre a Microsoft Bing debütálása mára hírhedté vált a pofátlan hazugságokkal és érzelmi manipulációval. Vagy a Bard, a Google AI chatbotja, ami az első bemutatójában kitalált egy minen alapot nélkülöző tényt a James Webb űrteleszkópról. A Bing még azt is hazudta, hogy a Bardot leállították tavaly márciusban. Szóval csak óvatosan ezekkel a rendszerekkel!

Forrás [1] [2]


Ha tetszett, oszd meg ismerőseiddel!