ChatGPT is geen advocaat: waarom generative AI faalt in de rechtszaal

Een Amerikaanse advocaat werd het middelpunt van een juridische soap toen hij een pleidooi indiende gebaseerd op voorbeelden van ChatGPT. Wat bleek? De ingediende zaken waren verzinsels. Ja, ChatGPT, de veelgeprezen AI-assistent, had overtuigende maar volledig fictieve uitspraken uit zijn siliconenhoed getoverd. Resultaat: sancties voor de advocaat en een zware deuk in zijn reputatie.

Maar als je denkt dat dit uniek is voor de VS, lees dan toch maar even verder om te ontdekken wat er hier gebeurd is!.

an robotic lawyer making arguments in a court

AI-drama in de Benelux

In de Benelux dook een ander AI-drama op. Bij het Bureau voor Intellectuele Eigendom (BOIP) vertrouwde een aanvrager van een merk op ChatGPT om een juridische verdediging te formuleren in een oppositieprocedure.

De kern van het conflict? De aanvrager probeerde een nieuw beeldmerk, "Artpenguin," te registreren. De tegenpartij, Penguin Books Limited, stelde dat het verwarringsgevaar tussen "Artpenguin" en hun eigen merken te groot was.

Wat is een merkaanvraag en een oppositieprocedure?

Een merkaanvraag is het proces waarbij een individu of bedrijf een merk registreert om exclusieve rechten te verkrijgen op het gebruik ervan binnen een bepaalde regio en sector. Bij het BOIP kan men een merk registreren voor de Benelux. Wanneer een nieuw merk wordt aangevraagd, kunnen houders van oudere, vergelijkbare merken bezwaar maken via een oppositieprocedure. Deze procedure is bedoeld om te voorkomen dat nieuwe merken verwarring veroorzaken bij het publiek of inbreuk maken op bestaande merkrechten.

In dit specifieke geval had Penguin Books Limited oppositie ingediend tegen de registratie van "Artpenguin". Penguin Books Limited beroept zich op hun oudere rechten op het bekende merk "Penguin." Het BOIP oordeelt bij dergelijke procedures of er een risico op verwarring is tussen de merken, bijvoorbeeld doordat ze visueel of fonetisch op elkaar lijken, of omdat de betrokken producten en diensten sterk overlappen.

De aanvrager besloot echter geen gebruik te maken van een gespecialiseerde merkenadviseur, maar vertrouwde in plaats daarvan op ChatGPT om argumenten te genereren om het bezwaar te weerleggen. Wat leverde dit op? Een verdediging die een potpourri was van irrelevante, slecht onderbouwde argumenten.

Een van de fouten? ChatGPT vergeleek het nieuwe merk "Artpenguin" met een niet-relevant merk "Penguin Books," dat geen deel uitmaakte van de oppositie. Het BOIP vatte het samen met een rake observatie: "Die prompt kan beter." Het gevolg: de oppositie werd toegewezen en de aanvrager verloor.

Waarom generative AI faalt als jurist

Generative AI zoals ChatGPT blinkt uit in het genereren van teksten die klinken alsof ze met menselijke expertise zijn geschreven. Maar de kern van het probleem is dit: AI weet niet wat ‘waar’ is. Het model is ontworpen om geloofwaardige en coherente antwoorden te geven op basis van statistische patronen in data, niet om juridische correctheid of waarheidsgetrouwheid te garanderen.

In plaats van een betrouwbare partner, krijg je een overijverige stagiair zonder juridische scholing.

En dat gebrek aan “waarheidsgetrouwheid” heeft ernstige gevolgen in de juridische praktijk:

1.         Verzinsels vermomd als feiten: Zoals in het Amerikaanse voorbeeld, kan AI klinken als een doorgewinterde jurist terwijl het argumenten aanhaalt die nergens op gebaseerd zijn.

2.         Gebrek aan context: In complexe juridische zaken zijn nuances cruciaal. AI begrijpt de wet niet en kan dus ook geen context-specifieke argumenten ontwikkelen.

3.         Geen vermogen tot ethische beoordeling: Juridisch advies is niet alleen een technische kwestie; het gaat ook over strategie en moraal. AI heeft geen ethisch kompas.

Juridisch argumenteren: een vak apart

Juridisch argumenteren vraagt om meer dan alleen een goede woordenschat. Het vereist een diep begrip van rechtsregels, precedenten en het vermogen om abstracte concepten te vertalen naar concrete toepassingen. Goede juristen hebben de vaardigheid om:

·      Strategisch te denken: Welke argumenten hebben de meeste kans van slagen? Wat zijn de risico’s? Dit vereist inzicht in het juridische systeem én de context van de zaak.

·      Precedenten te analyseren: Welke eerdere zaken zijn relevant, en waarom? AI herkent mogelijk precedenten, maar mist het inzicht om hun toepasselijkheid en impact goed in te schatten.

·      Complexiteit te beheersen: Juridische zaken zijn zelden zwart-wit. Juristen balanceren vaak op het snijvlak van tegenstrijdige belangen en grijze gebieden.

Waarom juristen meer zijn dan wandelende wetboeken

Een jurist is niet alleen een technisch adviseur. Denk aan een goede jurist als een meesterstrateeg, vergelijkbaar met een schaakspeler die meerdere zetten vooruitdenkt. Bijvoorbeeld, in een merkenzaak zoals de "Artpenguin"-zaak, moet een jurist niet alleen argumenten analyseren, maar ook anticiperen op hoe de tegenpartij deze zal weerleggen. Bovendien moet hij de nuances van consumentengedrag in aanmerking nemen. Waarom zouden consumenten "Artpenguin" verwarren met "Penguin"? Dat soort inzicht vereist zowel juridische als psychologische expertise, iets wat AI volledig mist.

De gevaren van AI in juridische processen

AI wordt vaak geprezen om zijn efficiëntie, maar in juridische processen brengt dit enkele inherente gevaren met zich mee:

1.         Overgeneralisatie: AI neigt om algemene antwoorden te geven, wat in juridische context vaak onvoldoende is. Elk juridisch probleem is uniek en vereist maatwerk.

2.         Blinde afhankelijkheid: Door te vertrouwen op AI, lopen gebruikers het risico kritische fouten over het hoofd te zien die een menselijke jurist wél zou opmerken.

3.         Gebrek aan verantwoordelijkheid: Een AI-model neemt geen verantwoordelijkheid voor zijn output. Dat maakt het des te gevaarlijker wanneer zijn adviezen blindelings worden opgevolgd.

Stel je een situatie voor waarin een verhuurder juridische stappen wil ondernemen tegen een huurder die achterstallig is met betalingen. In plaats van een jurist te raadplegen, besluit de verhuurder kosten te besparen en vertrouwt op ChatGPT om een juridisch verzoekschrift op te stellen. Het AI-model produceert een document vol indrukwekkend juridisch jargon en verwijzingen naar clausules uit een fictieve "Uniforme Huurwet 2023" – een wet die in werkelijkheid niet bestaat.

Bij de rechtbank ontdekt de rechter dat het verzoekschrift niet alleen verwijst naar niet-bestaande wetten, maar ook belangrijke wettelijke vereisten voor het beëindigen van een huurovereenkomst volledig over het hoofd ziet, zoals de verplichting om de huurder schriftelijk in gebreke te stellen. Het resultaat? De zaak wordt afgewezen, en de verhuurder moet alsnog een jurist inhuren om de procedure opnieuw te starten. De extra tijd en kosten hadden eenvoudig voorkomen kunnen worden met een professioneel advies vanaf het begin.

Voor- en nadelen van generative AI in het recht

Hoewel generative AI zijn beperkingen heeft, kunnen er ook voordelen zijn als het op de juiste manier wordt gebruikt:

Voordelen:

·      Tijdswinst: AI kan helpen bij het structureren van documenten of het snel ophalen van basisinformatie.

·      Toegankelijkheid: Juridische concepten kunnen sneller toegankelijk worden gemaakt voor niet-experts.

·      Creativiteit: AI kan nieuwe perspectieven bieden die als basis voor verder onderzoek dienen.

Nadelen:

·      Onbetrouwbaarheid: Zoals de genoemde gevallen laten zien, kan AI gevaarlijke fouten maken.

·      Gebrek aan juridische diepgang: AI begrijpt geen rechtsregels of precedenten zoals een mens dat doet.

·      Ethiek en moraal: AI kan geen morele afwegingen maken, wat essentieel is in veel juridische kwesties.

Een analogie: AI is als een navigatiesysteem

Zie AI als een navigatiesysteem. Het kan je een route geven naar je bestemming, maar het begrijpt de reden van je reis niet. Een jurist is meer als een ervaren chauffeur die niet alleen de route kent, maar ook weet wanneer omwegen nodig zijn, waar de gevaren liggen, en hoe je veilig aankomt. Vertrouwen op AI zonder menselijke tussenkomst is alsof je in een vreemde stad rijdt en blindelings je GPS volgt, zelfs als deze je door een rivier probeert te sturen.

Advies: gebruik AI, maar met mate

AI-tools zoals ChatGPT zijn nuttig als startpunt, maar niet als eindpunt. Het kan helpen bij:

·      Het opstellen van een eerste schets van een juridisch document.

·      Het structureren van een argumentatie.

·      Het opvragen van algemene informatie over juridische concepten.

Maar wees alert. Laat elk stukje AI-gegenereerde tekst door een juridisch specialist beoordelen. Denk aan AI als de rekenmachine bij het opstellen van de boekhouding: handig voor rekenwerk, maar waardeloos zonder iemand die begrijpt wat de cijfers betekenen.

Tot slot

Het gebruik van AI in de juridische praktijk kan een krachtig hulpmiddel zijn – mits verstandig toegepast. Het is geen vervanging voor juridische expertise, nuance, en verantwoordelijkheid. Of zoals het BOIP fijntjes opmerkte: "Die prompt kan beter."

Dus: als je volgende keer denkt dat AI je werk kan overnemen, bedenk dan dit: een AI-model is een statistisch systeem dat is ontworpen om je tevreden te stellen, niet om je zaak te winnen. En in de rechtszaal is tevredenheid zelden genoeg.

Heb je vragen over hoe generative AI slim en veilig kan worden ingezet in juridische contexten? Neem dan contact op via hallo@consey.legal. Wij helpen je graag verder!

Geschreven door Kris Seyen, Founder & Managing Partner consey.legal

Vorige
Vorige

Rebranding en jouw merk: Wat moet je weten over kleine wijzigingen?

Volgende
Volgende

Bereid je voor op de verplichte e-facturatie in 2026!