Een rechter in Californië nam onlangs een vaste houding aan tegen het niet bekendgemaakte gebruik van AI -platforms door advocaten in juridische archieven. Rechter Michael Wilner ontdekte een aanvullende opdracht met gefabriceerde juridische citaten en citaten. Zijn reactie? Sancties van $ 31.000 geheven tegen de twee betrokken advocatenkantoren.
Rechter Wilner uitte zijn bezorgdheid over dergelijke praktijken. Hij verklaarde dat het vertrouwen op AI voor juridisch onderzoek en schrijven zonder goed toezicht een aanzienlijke fout is voor een bevoegde advocaat. Juridische experts Eric Goldman en Blake Reid hebben ook het probleem op Bluesky benadrukt.
Advocaten gesanctioneerd voor niet bekendgemaakt AI -gebruik in juridisch onderzoek
De rechter vertelde zijn ervaring en merkte op dat de aangehaalde zaken aanvankelijk overtuigend leken, waardoor hij verder werd onderzocht. Het was toen dat hij deze beslissingen simpelweg niet bestond. Hij benadrukte het potentiële gevaar en legde uit hoe gemakkelijk dergelijke valse informatie zijn weg had kunnen vinden naar een gerechtelijke orde.
Kortom, dit is een ander geval waarin “AI -hallucinaties” het gebruik van chatbots onthullen. Een soortgelijke situatie vond eind 2024 plaats in een-ironisch gezien-anti-AI-geval.
De situatie ontvouwde zich toen het juridische team van een eiser AI gebruikte om een schets op te stellen voor een korte tegen State Farm. Deze schets, met wat de rechter noemde ‘nep-gegenereerd onderzoek‘Werd vervolgens doorgegeven aan een ander bedrijf, K&L Gates, die het in de laatste opdracht bracht. Schokkend, geen van beide bedrijven heeft de AI-gegenereerde informatie blijkbaar geverifieerd voordat deze aan de rechtbank werd ingediend.
Rechter identificeerde AI -hallucinaties dankzij zijn ervaring
Bij beoordeling identificeerde rechter Wilner ten minste twee volledig niet -bestaande juridische autoriteiten. Toen hij om opheldering van K&L Gates vroeg, bevatte de herziene opdracht die zij indienden nog meer gefabriceerde citaten en citaten. Dit bracht de rechter ertoe om een bevel uit te geven dat de advocaten verplicht hun acties onder ede uit te leggen. Dit bevestigde uiteindelijk het gebruik van AI. De advocaat die de eerste overzicht heeft gemaakt, gaf toe dat hij Google Gemini en de AI juridische onderzoekstools binnen Westlaw Precision met Cocounsel heeft gebruikt.
Rechter Wilner concludeerde dat het eerste, niet bekendgemaakte gebruik van AI om de opdracht op te stellen fundamenteel verkeerd was. Hij benadrukte verder het risico dat betrokken was bij het doorgeven van door AI gegenereerd materiaal zonder de oorsprong ervan te onthullen, waardoor andere juridische professionals mogelijk misleiden.