ChatGPT en de gedragsregels: slimme sidekick of onjuiste conclusies?

Gebruik jij AI als slimme sidekick bij het maken van je BA-opdrachten? Als moderne advocaat moet je weten wat de voor- én nadelen zijn van het gebruik van Generatieve AI zoals ChatGPT, Claude en CoPilot. Binnen de BA zien we steeds meer dat advocaat-stagiairs deze tools inzetten bij het maken van de voorbereidende opdrachten. Maar hoewel de AI-antwoorden vaak correct lijken, gaat het in de details en in de nuance toch regelmatig mis. Dat blijkt bijvoorbeeld bij de casus uit het onderdeel Ethiek 3. Wie kent de gedragsregels beter: jij of ChatGPT?

Niet bij het juiste eind

Bij het maken van opdrachten voor de BA mogen advocaat-stagiairs onder voorwaarden gebruik maken van Generatieve Artificiële Intelligentie (GenAI). Je mag GenAI gebruiken als taalassistent voor het verbeteren van zelfgeschreven teksten, en als zoekrobot om je te oriënteren op een onderwerp of om relevante literatuur en jurisprudentie te identificeren. Daarbij moet je wel kritisch en alert blijven, want zo’n AI-tool heeft het vaak toch niet helemaal bij het juiste eind. De BA- docenten en -trainers zien daarvan helaas al regelmatig voorbeelden in de praktijk.

Gedragsregels geschonden

De opdracht ‘Knip en Plak’ bij Ethiek 3 gaat over de gedragsregels. In het kort komt de casus op het volgende neer: Advocaat Van Rechteren is door zijn buurman Flinkenflügel ingeschakeld om een bezwaarschrift op te stellen. Wanneer overbuurman Wolzak ook aan Van Rechteren vraagt om over dezelfde kwestie een bezwaarschrift op te stellen, hergebruikt de advocaat het bezwaarschrift van Flinkenflügel. Hij laat daarbij per abuis informatie staan die niet voor de ogen van Wolzak bedoeld is, namelijk de argumenten voor Flinkenflügels bezwaar. De vraag is welke gedragsregels in deze casus in het geding zijn, welke zijn toegepast, en welke zijn geschonden.

Zorgvuldigheid

Wie deze opdracht aan ChatGPT voorlegt, krijgt een uitgebreid antwoord dat goed onderbouwd lijkt te zijn. Maar kijk je kritischer, dan staat er onjuiste informatie in. Zo heeft ChatGPT het over: ‘Zorgvuldigheid (Gedragsregel 7) – Inhoud van de regel: Een advocaat moet de belangen van zijn cliënt zorgvuldig behartigen en zich onthouden van handelen dat deze belangen kan schaden.’

Er is weliswaar een gedragsregel over zorgvuldigheid, maar dat is Gedragsregel 12. En die luidt: ‘De advocaat behandelt de hem opgedragen zaken zorgvuldig en houdt daarbij steeds het bijzondere karakter van de relatie tussen advocaat en cliënt voor ogen.’ ChatGPT haalt er ook het schaden van belangen bij, maar dat wordt in werkelijkheid in deze gedragsregel helemaal niet genoemd.

ChatGPT schrijft in het antwoord ook: ‘Gedragsregel 17: Een advocaat moet een schriftelijke opdrachtbevestiging sturen waarin afspraken over werkzaamheden en beloning zijn vastgelegd.’ In gedragsregel 17 staat echter niets over het sturen van een schriftelijke opdrachtbevestiging. Dat volgt wél uit art. 7.5 Voda en Gedragsregel 16, maar die noemt ChatGPT niet.

Onvolledige en onjuiste conclusies

We willen in dit artikel natuurlijk niet de hele opdracht uitwerken, maar met deze voorbeelden wel illustreren dat ChatGPT regelmatig onjuiste antwoorden geeft. In dit geval zie je concreet dat de AI-tool de gedragsregels verkeerd interpreteert, verkeerd nummert of zelfs niet-bestaande gedragsregels bespreekt. Duik je verder in de opdracht en de antwoorden van ChatGPT, dan merk je dat de tool belangrijke argumenten overslaat, er informatie bij verzint die helemaal niet in de casus stond (ook wel hallucinaties genoemd) en dat dit alles uiteindelijk leidt tot onvolledige en deels onjuiste conclusies. En zelfs als je GenAI alleen gebruikt om je zelfgeschreven teksten te checken, blijkt in de praktijk dat de tool niet alleen als taalassistent werkt, maar ook ongevraagd onjuiste informatie toevoegt.

Gezond verstand en eigen kennis

Ons advies: vertrouw niet blind op GenAI. Gebruik je gezond verstand, je eigen kennis, en check vakliteratuur en jurisprudentie. Realiseer je ook dat misbruik van GenAI waarbij (een deel van) je werk grotendeels door GenAI is gegenereerd als fraude kan worden aangemerkt. Besluit je toch om AI te gebruiken om je te ondersteunen bij het maken van je opdrachten, wees daarover dan transparant, zodat een juist oordeel van trainers en docenten over je kennis, inzicht en/of vaardigheden steeds mogelijk blijft. Meer informatie over verantwoord gebruik van GenAI lees je in dit artikel en in de DLO onder ‘Algemene informatie BA’.

 

 

Terug naar overzicht

Aanbevolen artikelen