Az Avianca kolumbiai légitársaság ellen indított perben egy beadvány hat olyan esetre hivatkozott, amelyek nem léteznek, de a felperesnek dolgozó ügyvéd azt mondta a bíróságnak, hogy a ChatGPT szerint ezek valódiak.
A kolumbiai Avianca légitársaságot perlő ügyvédek egy olyan korábbi ügyekkel teli beadványt nyújtottak be, amelyeket a ChatGPT csak kitalált – írta meg a The New York Times. Miután az ellenérdekű ügyvédek rámutattak a nem létező ügyekre, Kevin Castel amerikai kerületi bíró megerősítette: “A benyújtott ügyek közül hat hamis bírói döntésnek tűnik, hamis idézetekkel és hamis belső hivatkozásokkal”, és meghallgatást rendelt el, mivel szankciókat fontolgat a felperes ügyvédjei számára.

Steven A. Schwartz ügyvéd eskü alatt tett nyilatkozatában elismerte, hogy kutatásaihoz az OpenAI chatbotját használta.
AZ ESETEK ELLENŐRZÉSÉRE AZT A NEM TÚL ÉSSZERŰ MÓDSZERT TALÁLTA KI, HOGY MEGKÉRDEZTE A CHATBOTOT, HOGY HAZUDIK-E.
Amikor pedig a forrás után érdeklődött az ügyvéd, a ChatGPT ragaszkodott ahhoz, hogy az ügy valós, mondván, hogy megtalálható a Westlaw és a LexisNexis oldalakon. Ekkor az ügyvéd elégedetten megkérdezte, hogy a többi ügy hamis-e, mire a ChatGPT fenntartotta, hogy mindegyik valódi.
Az ellenérdekű fél fájdalmas részletességgel hívta fel a bíróság figyelmét a kérdésre, amikor elmesélte, hogy a Levidow, Levidow & Oberman ügyvédek beadványa egy hazugságokkal teli beadvány volt. Az egyik példában, a Varghese v. China Southern Airlines Co., Ltd. nevű, nem létező ügyben a chatbot látszólag egy másik valós ügyre, a Zicherman v. Korean Air Lines Co., Ltd.-re hivatkozott, de a dátumot (és más részleteket) tévesen adta meg, azt állítva, hogy az eredeti, 1996-os döntés után 12 évvel később született.
Schwartz azt mondja:
nem volt tudatában annak a lehetőségnek, hogy a tartalma hamis lehet és most már nagyon sajnálja, hogy generatív mesterséges intelligenciát használt az itt elvégzett jogi kutatás kiegészítésére, és a jövőben soha nem fog ilyet tenni a hitelesség abszolút ellenőrzése nélkül.
Ez ismét rávilágít arra az abszurditásra, hogy a chatbotokat kutatásra használják anélkül, hogy máshol kétszer (vagy háromszor) ellenőriznék a forrásaikat, hiszen ezek a rendszerek még nagyon gyerekcipőben totyognak. Jó példa erre a Microsoft Bing debütálása mára hírhedté vált a pofátlan hazugságokkal és érzelmi manipulációval. Vagy a Bard, a Google AI chatbotja, ami az első bemutatójában kitalált egy minen alapot nélkülöző tényt a James Webb űrteleszkópról. A Bing még azt is hazudta, hogy a Bardot leállították tavaly márciusban. Szóval csak óvatosan ezekkel a rendszerekkel!