Kunstig intelligens kan ramme mere præcist end dommere. Alligevel bør fejlbare mennesker have det sidste ord i retten

AFGØRENDETeknologien bør være retfærdighedens tjener og ikke dens herre. Illustration: Jørgen Stamp / Zetland

Vores medlemmer foretrækker at lytte

Zetlands medlemmer kan høre alle vores artikler som lyd - oplæst af skribenterne selv. De fleste foretrækker at lytte i vores app, hvor man får den bedste oplevelse. Men du er velkommen til at lytte med her.

00:00

09:39

Derfor skal du læse denne artikel

ARGUMENT: Kunstig intelligens har stort potentiale inden for retssystemet, viser flere undersøgelser. Der er eksempler på, at algoritmer kan ramme mere præcist end menneskelige dommere. Men trods potentialet er der store faldgruber, argumenterer Jacob Mchangama. For maskinerne fjerner ikke menneskelige fejl. Tværtimod risikerer de at forstørre dem.

Egentlig har det været et ideal siden Aristoteles’ Politikken.

I det gode og retfærdige samfund er det loven og ikke enkelte personer, der bestemmer.

Idealet har som sin kerne, at lovene skal binde alle, både dem, der vedtager dem, og den almindelige borger. Lovene skal anvendes konsistent og uden vilkårlige hensyn, der tilgodeser bestemte personer eller grupper.

Problemet er bare dette: Mennesker er notorisk fejlbarlige. Fra naturens hånd har vi mere end svært ved at fralægge os ubevidste præferencer og blinde vinkler – bias. Derfor har idealet været en vigtig ledestjerne, men det har aldrig kunnet virkeliggøres fuldt ud. Selv i et land som Danmark, med en udbygget retsstat og lav grad af korruption, ser vi usaglige og fejlagtige afgørelser. Men måske tilbyder teknologien en løsning.

Med kunstig intelligens og maskinlæring kan vi muligvis være tæt på den dag, hvor idealet bliver til virkelighed, lyder det nu fra eksperter. Allerede nu kan computere med stor præcision afsige domme, der i dag er overladt til dommere af kød og blod.

Spørgsmålet er så bare, om det er en udvikling, som skaber mere eller mindre retfærdighed.

I oktober 2016 offentliggjorde britiske forskere et studie, der viste, at et softwareprogram med en træfsikkerhed på 79 procent var i stand til at forudsige det korrekte udfald af 584 sager om alt fra tortur til privatlivsbeskyttelse.

Der er selvfølgelig meget langt fra 79 til 100 procent, når det handler om retssikkerhed. Men når man tager den teknologiske udviklings enorme fart i betragtning, er det givetvis kun et spørgsmål om tid, før algoritmerne rammer plet så godt som hver gang.

Og faktisk er der allerede udviklet software, der er bedre til at træffe vigtige afgørelser af væsentlig betydning for retsvæsnet end sine menneskelige konkurrenter.

Et amerikansk studie fra februar 2017 fokuserede på varetægtsfængslinger i New York. I den slags sager skal dommere beslutte, om den tiltalte skal afvente den egentlige retssag i fængslet eller på fri fod. Derfor er det afgørende at vurdere, om den tiltalte vil begå ny kriminalitet, hvis han eller hun sættes fri inden retssagen.

Studiet viste noget interessant. Algoritmer, der analyserer en enorm mængde data, kan ramme rigtigt i langt højere grad, end menneskelige dommere er i stand til i dag. Det ville i de konkrete sager ifølge forskerne kunne reducere kriminaliteten med næsten 25 procent – uden at øge antallet af fængslede. Alternativt kunne man reducere antallet af fængslede med 42 procent, uden at omfanget af kriminalitet voksede. Samtidig kunne man reducere den menneskelige bias, der forklarer en del af overrepræsentationen af sorte og hispanics i amerikanske fængsler.

Men inden man omdanner Højesterets fornemme domicil midt i København til et datacenter, bør man tænke sig godt om.

Indtil den dag, hvor kunstig intelligens opnår selvbevidsthed, vil det stadig være mennesker, der skaber og programmerer algoritmerne bag. Vi slipper derfor ikke uden om bias. For selv om et softwareprogram kan være 100 procent konsistent i sine afgørelser, vil konsistensen og de kriterier, den bygger på, i sig selv afspejle menneskelige fordomme. Det viser en undersøgelse fra det amerikanske medie ProPublica.

Undersøgelsen problematiserer, at et softwarefirmas algoritmer i en række amerikanske delstater bruges til at vurdere risikoen for, at en tiltalt vil begå ny kriminalitet. Det vil ofte indgå i dommeres overvejelser om strafudmåling og varetægtsfængsling. ProPublica gennemgik 7.000 afgørelser fra et område i Florida og brugte samme data som softwarefirmaet.

ProPublica nåede frem til, at kun 20 procent af de personer, som algoritmerne forudsagde ville begå ny kriminalitet, rent faktisk gjorde det. (Præcisionen steg dog til 61 procent, når man tog selv meget milde lovovertrædelser med).

Endnu mere alvorligt var det, at ProPublicas simulation viste, at algoritmen var langt mere tilbøjelig til fejlagtigt at udpege sorte end hvide som fremtidige lovovertrædere – også selv om race ikke indgik som et kriterium. Hvide blev også fejlagtigt sat til at udgøre en lavere risiko end sorte. Firmaet bag algoritmen bestrider ProPublicas konklusioner, men har ikke ønsket at frigive sine egne udregninger.

Det fører os til et helt centralt spørgsmål.

Hvis det alene er algoritmer, der bestemmer, vil den indbyggede menneskelige bias så få potentielt langt større magt end i dag, hvor vi trods alt har både byret, landsret og Højesteret til at forholde sig kritisk til tidligere instansers afgørelser? Og hvis man først har besluttet sig for, at algoritmerne har ret, hvor går man så hen, hvis den kunstige intelligens træffer afgørelser, der forekommer åbenlyst forkerte eller urimelige?

To eksempler kan gøre problemstillingen mere konkret.

I en debat på Folkemødet fremhævede tidligere højesteretspræsident Børge Dahl Højesterets fortolkning af knivloven. Pointen var, at domstolene ikke blot skal agere retstekniske maskiner, men også har til opgave at sikre retfærdighed.

Knivloven blev i 2008 ændret, så den klare hovedregel var, at overtrædelse skulle medføre fængselsstraf i førstegangstilfælde. Det gjaldt også for hobbyknive og multiværktøjer, selv om de bruges på arbejdet af for eksempel håndværkere. I to sager idømte landsretten fængselsstraffe til personer, der havde knive til deres arbejde i bilen. Det var i overensstemmelse med lovens ordlyd.

Men – lød indvendingen – det var også i strid med både sund fornuft og en grundlæggende retfærdighedssans. Højesteret foretog i hvert fald en mere konkret vurdering og udnyttede en ganske snæver undtagelse til alene at idømme de tiltalte en bødestraf, der stod bedre mål med ret og rimelighed. Det er svært at forestille sig kunstig intelligens foretage den slags meget konkrete afvejninger i specifikke sager.

Det andet eksempel handler om noget, der også er meget grundlæggende.

At lade kunstig intelligens overtage domstolenes rolle vil nemlig fjerne et stærkt nødvendigt menneskeligt element.

Lad os forestille os en sag om tvangsfjernelse af børn. Der findes vel næppe noget større skrækscenarie for forældre, end at staten skrider ind og fjerner deres børn. Omvendt kan det i grelle sager være helt nødvendigt – på grund af misbrug, vold eller andet omfattende omsorgssvigt.

I alle tilfælde må det være helt grundlæggende, at man som forælder får mulighed for at fremføre sin sag for den instans, der skal træffe den endelige beslutning. At få fjernet sit barn som følge af en anonym og ukendt algoritmes uigennemskuelige processering af data – ud fra kriterier, som kun en dataspecialist kan gennemskue – strider mod en helt basal følelse af grundlæggende retfærdighed.

Det er i den forbindelse også vigtigt, at man kan læse begrundelsen for en konkret afgørelse. Sådan en afgørelse kan være meget individuel og afhængig af helt specifikke detaljer. Det er svært at forestille sig et stykke software affatte detaljerede begrundelser snarere end skematiske og generiske af slagsen. Det skaber en overhængende risiko for, at borgere, der får fjernet børn eller bliver sendt i fængsel af et anonymt system, føler afmagt og mistillid til hele systemet.

Der er selvfølgelig nuancer.

Med en transparent brug af kunstig intelligens og andre teknologiske landvindinger vil retsvæsnet utvivlsomt kunne styrkes. Dommere vil kunne bruge gennemtestede programmer til at træffe bedre og hurtigere beslutninger. Software kan hjælpe dommere og politikere til at identificere blinde vinkler og bias i nuværende beslutninger og processer. Der er med andre ord ekstremt stort potentiale i at lade teknologien vinde indpas i retssystemet.

Men teknologien bør være retfærdighedens tjener og ikke dens herre. Det er helt afgørende. Derfor bør det stadig være fejlbarlige dommere snarere end kunstig intelligens, der har det sidste ord, når thi kendes for ret.

Bidrag fra Zetlands medlemmer

Ved du, hvorfor Zetland findes?

Vi følger otte enkle principper, der hjælper med at skabe plads til fordybelse og omtanke i en verden, der mangler præcis dét.

– Lea Korsgaard, medstifter og chefredaktør

I dag læser vores medlemmer: