Advocaten hebben een notoire worsteling met technologie. De advocatuur bestaat uit rechtszalen met houten lambrisering en in leer gebonden wetboeken, en niet uit apps en chatbots.
De beroemde Cat Advocate in het vroege Zoom-tijdperk van de pandemie is een bijzonder hilarisch voorbeeld van wat er gebeurt als advocaten gedwongen worden technologie te gebruiken die ze anders nooit zouden aanraken.
En wanneer advocaten het gebruiken kunstmatige intelligentievaak zijn de resultaten net zo slecht.
Een advocaat uit Massachusetts wel gesanctioneerd voor het aanhalen van gevallen waarin ChatGPT geen hallucinaties had in officiële rechtszaken, en recentelijk in Californië legde advocaat een boete van $ 10.000 op voor soortgelijke AI-hallucinatiefout.
Het is daarom niet verrassend dat advocaten terughoudend zijn in het gebruik van grote taalmodellen (LLM) en AI-agenten die op grote schaal door andere beroepsgroepen worden overgenomen.
Bepaalde eigenaardigheden in de advocatuur kunnen echter binnenkort hun hand opdringen door advocaten met wanpraktijken te bedreigen als ze dat toch doen Niet doen AI adopteren.
En dezelfde dynamiek kan ook worden toegepast op terreinen als de boekhouding of de geneeskunde, zodat deze AI-sceptische velden met een grote impact voorop zullen lopen bij de adoptie van AI, of ze dat nu leuk vinden of niet.
Aangezien dit een verhaal over advocaten is, zal ik even pauzeren om de disclaimer te geven dat ik een verslaggever ben, geen advocaat, en dat niets hier juridisch advies inhoudt – het is gebaseerd op mijn eigen onderzoek en verschillende off-the-record gesprekken met praktiserende advocaten. Indien u dit beroep uitoefent, dient u over deze wijzigingen te overleggen met uw eigen balie.
Gedwongen door de vertrouwenspersoon
De meeste mensen moeten gewoon goed genoeg zijn in hun werk.
Zelfs als mijn metaforen een beetje stijf zijn of bepaalde passages die ik schrijf gebrek aan alliteratie en charme hebben, heb ik mijn werk gedaan als Snel bedrijf bijdrager als ik het nieuws eerlijk heb gerapporteerd en u voldoende op de hoogte heb gehouden.
Advocaten hanteren verschillende normen. In veel gevallen is dat ook zo gebonden door een aantal fiduciaire verplichtingen– een wettelijke verplichting om hun klanten op een bepaalde manier te behandelen.
Zo moeten zaken vertrouwelijk blijven en mogen advocaten hun cliënten niet aan anderen verkopen.
Advocaten zijn echter ook wettelijk verplicht bekwaam en capabel te zijn brengen hun klanten redelijke vergoedingen in rekening—die kosten zo laag mogelijk houden en toch aan de juridische behoeften van hun cliënten voldoen.
In het verleden betekende dit meestal het vermijden van onnodig juridisch onderzoek dat bijvoorbeeld tot rekeningen kon leiden, of het vermijden van het uitgeven van overdadige maaltijden en andere triviale zaken op de rekeningen van uw cliënten.
Maar vandaag de dag kan AI de definitie van ‘competent’ veranderen. En het vermogen van AI om taken eenvoudiger en sneller te maken, zou fiduciaire problemen kunnen veroorzaken voor advocaten en andere professionals die de technologie niet gebruiken.
Wees efficiënt, of anders
Ook hier zijn advocaten vaak huiverig om nieuwe technologie te gebruiken. Geconfronteerd met het risico van verzonnen zaken en hoge boetes kiezen veel advocaten ervoor om AI helemaal niet te testen of te gebruiken.
A formeel advies van de American Bar Association (ABA) legt echter uit dat dit binnenkort misschien niet langer een optie is.
“Met de mogelijkheid om snel nieuwe, schijnbaar door mensen gegenereerde inhoud te creëren als reactie op verzoeken van gebruikers, bieden generatieve AI (GAI) tools advocaten het potentieel om de efficiëntie en kwaliteit van hun juridische dienstverlening aan cliënten te verbeteren”, aldus de ABA.
Ja, deze tools kunnen fouten maken, erkende de ABA, en “advocaten mogen hun verantwoordelijkheden niet verzaken door uitsluitend op GAI-tools te vertrouwen.”
Toch waarschuwt de ABA haar leden om niet te voorzichtig te zijn met het gebruik van AI.
“Opkomende technologieën kunnen resultaten opleveren van veel hogere kwaliteit dan de huidige GAI-instrumenten, of advocaten in staat stellen het werk veel sneller en economischer te doen”, aldus het advies.
Als dat gebeurt, waarschuwt de ABA, kan dit leiden tot een fiduciaire verplichting om competent te zijn en de kosten te minimaliseren. Deze instrumenten kunnen “alomtegenwoordig zijn in de juridische praktijk” en vorm geven aan “conventionele verwachtingen met betrekking tot de competentieplichten van advocaten.”
Met andere woorden: AI zou zo nuttig kunnen worden in de advocatuur dat advocaten die AI vermijden de tijd van hun cliënten verspillen of een inferieure vertegenwoordiging bieden.
ABA biedt e-mail- en pdf-voorbeelden. “Een advocaat zal in de huidige omgeving moeite hebben om competente juridische diensten te verlenen als hij niet weet hoe hij e-mail moet gebruiken of elektronische documenten moet maken”, aldus de ABA. “Naarmate GAI-tools zich blijven ontwikkelen en op grotere schaal beschikbaar komen, is het denkbaar dat advocaten ze uiteindelijk zullen moeten gebruiken om bepaalde taken voor cliënten vakkundig uit te voeren.”
Nogmaals, vanwege hun fiduciaire verplichtingen is het nalaten dit te doen niet alleen maar slecht gedrag; het kan mogelijk ook als wanpraktijken worden beschouwd.
Om dit te begrijpen breidde de ABA haar e-mailmetafoor uit en zei dat advocaten die er niet in slagen de nieuwste technologie te gebruiken “mogelijk aansprakelijk zijn voor wanpraktijken.” De duidelijke implicatie is dat dezelfde straffen kunnen worden opgelegd aan bedrijven die traag zijn met het adopteren van AI, zodra de technologie voldoende geavanceerd is.
Off the record hebben verschillende advocaten mij verteld dat dat moment nabij is of al is aangebroken.
Het ABA-advies is geschreven in 2024, toen de LLM minder robuust en nauwkeurig was. Tegenwoordig, zo vertelde een ervaren advocaat me, schrijven LLM’s vaak binnen enkele minuten lijsten met relevante zaken – of zelfs volledige briefings – die net zo goed zijn als wat een advocaat na kantooruren in een traditionele juridische bibliotheek produceert.
De potentiële aansprakelijkheid voor het gebruik van AI lijkt al naar voren te komen in de jaarlijkse permanente educatiematerialen van advocaten. En naarmate LLM’s steeds beter worden, zal hun vermogen om tijd te besparen en superieure resultaten te behalen – en de verplichting voor advocaten om deze te implementeren – alleen maar toenemen.
Gedwongen om voorop te lopen
Als LLM en andere generatieve AI-instrumenten zich zodanig ontwikkelen dat advocaten gedwongen worden ze te gebruiken om competent te blijven, dan zou de advocatuur plotseling gedwongen kunnen worden om voorop te lopen op het gebied van AI-toepassingen.
Bedrijven zullen ernaar streven hun advocaten te voorzien van de meest actuele informatie over de nieuwste AI-technologie. En het lijdt geen twijfel dat talloze bedrijven AI op elk aspect van de wet zullen toepassen. Dit wordt een goudmijn voor makers en consultants van AI-applicaties.
En het is onwaarschijnlijk dat de impact op juridisch gebied zal blijven liggen: verschillende andere beroepen die sceptisch staan tegenover AI zouden onderworpen kunnen zijn aan soortgelijke ethische en wettelijke verplichtingen, en een vergelijkbare snelle en gedwongen adoptie ervaren.
Artsen leggen bijvoorbeeld een professionele eed af om ‘geen kwaad te doen’. Ondertussen bevestigt de American Medical Association dit Artsen mogen niet gestraft worden omdat ze er momenteel niet in slagen om AI toe te passen, wijzen andere bronnen erop naarmate de LLM vordertAls er geen gebruik wordt gemaakt van AI, kunnen patiënten onnodig risico lopen.
Een onderzoek uit 2024 binnen gerapporteerd New York Times toonde aan dat zelfs relatief eenvoudige chatbots dat jaar beter waren dan artsen in het diagnosticeren van veel ziekten. En wat nog erger is: toen artsen probeerden samen te werken met de chatbot, presteerden ze zonder hun hulp nog slechter dan de chatbot.
Uit onderzoek blijkt dat zelfs patiënten vinden chatbots empathischer en beter in communiceren dan echte artsen.
Nogmaals, naarmate de technologie vordert, zou dit kunnen betekenen dat artsen die AI vermijden steeds meer risico lopen hun patiënten schade toe te brengen. Hetzelfde geldt voor accountants, financiële planners, makelaars in onroerend goed en vele andere beroepen die een fiduciaire verantwoordelijkheid hebben jegens hun klanten.
Voorlopig kunnen advocaten, artsen, accountants en andere professionals wijzen op hun LLM-status in een vroeg stadium en hun aanhoudende neiging tot hallucineren, en de noodzaak negeren om technologie te adopteren of ermee te experimenteren.
Naarmate de modellen beter worden, zullen deze beweringen echter moeilijker te maken zijn. Zoals de ABA opmerkt, zou een advocaat die geen e-mail verstond in 1990 als volledig competent worden beschouwd. Tegenwoordig zou hij als een hacker worden beschouwd en waarschijnlijk worden geschorst.
Dezelfde dynamiek kan binnenkort van toepassing zijn op chatbots en LLM’s. En als dit gebeurt, zullen professionals die de hedendaagse technologie niet leren kennen – of koppig volhouden dat AI slechts een rage is die hun tijd en aandacht niet verdient – dat op eigen risico doen.



