Kan dommere erstattes af robotter?

I mange sammenhænge viser det sig, at kunstige intelligenser har fordomme. Det gælder også i retsvæsnet. Men er de værre end mennesker? Eller afspejler de bare de fordomme, vi alle bærer rundt på? techst har talt med professor i etik og retsfilosofi Jesper Ryberg.

For et år siden kunne det amerikanske firma Law Geex offentliggøre et studie, der viser, at den kunstige intelligens, de sælger til advokatfirmaer, er langt hurtigere end mennesker til at gennemse og finde fejl i kontrakter. 20 menneskelige jurister brugte gennemsnitligt 92 minutter og fandt 85% af fejlene. Den kunstige intelligens brugte 26 sekunder og fandt 94%.

Mange jobs forsvinder

Der er store penge at tjene ved at bruge kunstig intelligens. Konsulentfirmaet McKinsey anslår, at 22% af advokaternes og 35% af advokatfuldmægtigenes jobs kan automatiseres. Og det er der ikke de store etiske problemer i, så længe man taler om udformning af kontrakter og aftaler. Heller ikke når det handler om at hjælpe advokater med at tilrettelægge retssager, som de fx har gjort hos Kammeradvokaten.

Jakob Kamby og Stanley Stener Nielsen skriver i en artikel i Advokatsamfundet om, at Kammeradvokaten har brugt kunstig intelligens til at analysere sammenhænge i Den Europæiske Menneskerettighedsdomstols praksis. Og deres erfaringer viser, at dataanalyser og algoritmer kan vise nye sammenhænge og er et nyttigt redskab ved forberedelse af retssager.

Strafferet stiller andre etiske krav

Men når vi taler om straffesager og etik, er det en helt anden snak, og den har techst taget med Jesper Ryberg, professor i etik og retsfilosofi på Roskilde Universitet. Han er sammen med sin forskergruppe i gang med et stort forskningsprojekt om kunstig intelligens, etik og strafferet. Kunstig intelligens bruges især i USA i politiarbejdet og ved domfældelser, siger Jesper Ryberg:

Jesper Ryberg

– Man bruger det indenfor politiarbejde både til opklaring og i forebyggelse. Fx har man i New York og Washington lydsensorer i områder, hvor der er meget skyderi. Når én er blevet skudt, kan sensorerne bestemme præcis, hvilken lokalitet skuddet kom fra.

– Kunstig intelligens i kriminalitetsforebyggelse – predictive policing – bruger man i fx New York, Californien og Washington til at forudse, i hvilke områder, det er sandsynligt, der vil finde forbrydelser sted. Man indlæser en lang række data: Fra hvilke områder har vi fået flest nødopkald til politiet? I hvilke områder er der mange arbejdsløse? Hvor ved vi, at der bor folk under dårlige forhold? Så sammenkører man alle disse data, og ved hjælp af dem, får man lokaliseret, at lige nu på det her tidspunkt i eftermiddag, er der et hotspot i et bestemt område. Det kan politiet bruge til at være til stedet i de områder, hvor man antager, at risikoen for kriminalitet er stor.

– Man kan også tage et skridt videre og sammenkøre med data om enkeltpersoner, fortsætter Jesper Ryberg. – Så kan man fx få at vide, at Peter Smith, som har en kriminel forhistorie, for tiden er arbejdsløs, og så kan politiet gå ud og banke på og sige: ’Du har ikke begået noget lige nu, men du skal bare vide, at vi holder øje med dig.’ Det system, har man brugt i Chicagos South Side, hvor der er meget kriminalitet, og det har været meget omdiskuteret.

I Danmark hedder det POL-INTEL

Det danske politi har også et system, der kan forudsige kriminalitet, men de bruger det ikke på den måde. I 2018 sagde politidirektør Svend Larsen til Danmarks Radio: – Der er heldigvis så lidt kriminalitet i Danmark, at man kan altså ikke lave et system, som kan forudsige geografisk, hvor det næste indbrud og lignende kommer til at ske.

Og det gælder stadig. Thomas Kristensen, Pressechef i Rigspolitiet oplyser, at POL-INTEL ikke bruges til at forudsige kriminalitet kun til at systematisere data, som politiet i forvejen har, for at gøre efterforskningsarbejdet mere effektivt. Det kan være politirapporter, anmeldelser af kriminalitet og andet fra politiets egne databaser – og eksterne kilder som fx CPR-registret.

Strafudmåling og farlighedsvurderinger

Noget af det, Jesper Rybergs forskningsgruppe har mest fokus på, er anvendelse af kunstig intelligens i forbindelse med strafudmåling.  

– Dommere dømmer forskelligt, selvom der er tale om samme forbrydelse, siger Jesper Ryberg. – Videnskabelige studier viser at i præcis samme typer sager, ville én dommer give to år og en anden et år og ni måneder. En kunstig intelligens, der bygger på en præcis database, kunne guide dommerne, så man fik et mere ensartet system. Domstolene kunne også arbejde hurtigere med hjælp fra kunstig intelligens, og det er vigtigt for retssikkerheden.

Spørgsmålet er så, om folk vil opfatte det som retfærdigt, at en kunstig intelligens er involveret i strafudmålingen. Jesper Ryberg nævner, at processen betyder meget for, om folk føler sig retfærdigt behandlet. Det er vigtigt, at de er blevet lyttet til og har fremlagt deres syn på sagen. Det kræver et menneske, så det er ikke sikkert, folk vil acceptere en dom, hvis der har været en maskine involveret.

Et andet sted, hvor kunstig intelligens bruges, er i farlighedsvurderinger. Man plejer at bruge psykiatere eller psykologer til at vurdere om en person er farlig, om han skal idømmes en længere straf, eller om han kan få udgang eller prøveløsladelse.

– Det kan man nu ved hjælp af algoritmer, siger Jesper Ryberg. – I stedet for at vurdere den enkelte person sammenkører man en lang række data, fx: Har personen tidligere begået forbrydelser? Hvilken alder har han? Er han stofmisbruger? Hvordan er de sociale forhold? Alle de forhold bliver kørt sammen, og så får man en vurdering. Han er enten farlig, medium farlig eller ikke farlig.

Loomis og algoritmen

I 2013 blev Eric Loomis fra Wisconsin i USA idømt seks års fængsel for at være med i et drive-by-shooting. En kunstig intelligens vurderede, at Loomis var i fare for at falde tilbage i kriminalitet, så han kunne ikke prøveløslades. Systemet hedder COMPAS, og er udviklet af et privat firma, Northpointe Inc., som nægtede at udlevere algoritmen bag systemet til retten og Loomis.

Sagen endte i Wisconsins højesteret, hvor Loomis bl.a. ankede over, at når han ikke kunne få indsigt i algoritmen bag COMPAS, fik han ikke en individuel vurdering af sin sag. Loomis tabte sagen. Det rejser nogle om spørgsmål retssikkerhed, mener Jesper Ryberg:

– I en retssag har man normalt mulighed for at få at vide, hvad der ligger til grund for en dom. I Danmark vil man formentlig kun bruge privatudviklede algoritmer, hvis de er åbne, så alle har adgang til dem. Men problemet er, at hvis man bruger machine learning, hvor algoritmen hele tiden opjusterer sin viden, når den får nye data, så vil en væsentlig årsag til manglende transparens være, at algoritmerne er så komplicerede, at Loomis måske ville få 1.000 siders udskrift af programmeringssystemer. Det er der jo ingen mennesker, der forstår. Det ville ikke hjælpe ham i forhold til den indsigt, han gerne vil have.

Systemet er ikke bedre end sine data

Menneskeretsorganisationer i USA har været meget kritiske overfor brugen af kunstig intelligens i retsvæsnet. Både i forhold til politiarbejdet og strafudmålinger. De mener, at predictive policing og systemer som COMPAS er diskriminerende – ikke mindst overfor den afroamerikanske befolkning.

– Hvis du ser på systemer, der forudsiger, hvor vil det være rimeligt at antage, at der vil finde forbrydelser sted, så er en del af de data, du lægger ind i algoritmen, data om, hvor har der været mange arrestationer. Men hvis politiet fx har fordomme om sorte unge mænd, så tager de måske flere med på stationen fra områder, hvor der bor mange sorte. Det tæller som en arrestation, selvom han måske bliver lukket ud to timer senere. Men det bliver lagt ind i algoritmen, at der er mange forbrydelser i det område. Systemerne er ikke bedre end de data, man lægger ind i dem.

– Problemet er det samme med systemer som COMPAS, fortsætter Jesper Ryberg. – Der er lavet studier af COMPAS, der viser at sandsynligheden for at man bliver vurderet som farlig selvom man ikke er det, er større, hvis man er sort. Og det sker selvom man ikke må lægge ind i algoritmen, om en person er sort eller hvid. Den afspejler bare politiets adfærd. Hvad skal man gøre? Det kan jo godt være rigtigt, at sorte har større fare for at ende i kriminalitet end hvide. Så det, man skal vurdere, er: Hvad er en rimelig form for bias og hvad er urimeligt? Vi laver masser af forskelsbehandling, som vi synes er ok. Fx kan ældre køre billigere med bussen. Spørgsmålet er, hvornår det er berettiget, og hvornår det ikke er. Det er vi også nødt til at se på i forhold til kunstig intelligens.

Alle diskriminerer

Daniel Kahnemann, foto: Nobel Foundation

At kunstige intelligenser har fordomme og skævvrider i forhold til race, alder eller køn, er ikke noget vi bryder os om. Men mennesker er også fyldt med ubevidste fordomme. Jesper Ryberg nævner et eksperiment, som nobelpristager i økonomi, Daniel Kahneman, har lavet. En række forsøgspersoner skulle dreje et lykkehjul, der kun kunne stoppe på 10 og 65, og de vidste ikke, at hjulet var fikset. Når de havde drejet hjulet, blev de spurgt om, hvor stor en %-del af landene i Afrika der er medlem af FN. Det er der ikke mange, der ved, så de måtte gætte. Det viste sig, at dem, hvor lykkehjulet stoppede på 65 i gennemsnit gættede 20% point højere end dem, der fik 10.

– Når først vi har fået et tal i hovedet, har det en afsmitning på noget andet, der er helt irrelevant, siger Jesper Ryberg. – Der er ingen sammenhæng, men sådan fungerer vores hjerner. Man ved fra massiv forskning, at er der nogen, der diskriminerer, er det os mennesker.

– Når man studerer kunstig intelligens, er det er ikke et spørgsmål om at sammenligne et system, der måske har fået indlagt nogle fordomme med noget, som ikke har fordomme. Det er et spørgsmål om at se på, hvilket system der er bedst. Det kan jo være, at systemerne er at foretrække, frem for de fordomme vi mennesker eller en dommer naturligt har, når han eller hun vurderer en sag.

EU’s etiske regler

1 Systemerne skal respektere fundamentale rettigheder.

2 De må ikke diskriminere.

3 De skal have høj kvalitet og være sikre.

4 De skal være åbne og fair.

5 Brugerne skal have indsigt i og kontrol med systemet.

EU har opstillet fem etiske regler for brug af kunstig intelligens i retsvæsnet, som de i USA ikke kan leve op til. Jeg spørger Jesper Ryberg om ikke reglerne er så overordnede, at de næsten bliver tomme?

– Det vigtige ved sådan nogle regler er, hvordan de bliver fortolket. De meget overordnede regler skal jo udfyldes, og så opstår problemerne med, hvad de egentlig betyder. Det er let nok at sige, at man skal have indsigt i en algoritme, men hvad er det for en indsigt? Hvad kan man bruge den til? Det er det, der er det vigtige.

Dette er en tredie artikel i en serie på syv.

Denne uge:

Kan dommere erstattes af robotter?

I mange sammenhænge viser det sig, at kunstige intelligenser har fordomme. Det gælder også i retsvæsnet. Men er de værre end mennesker? Eller afspejler de bare de fordomme, vi alle bærer rundt på? techst har talt med professor i etik og retsfilosofi Jesper Ryberg.

For et år siden kunne det amerikanske firma Law Geex offentliggøre et studie, der viser, at den kunstige intelligens, de sælger til advokatfirmaer, er langt hurtigere end mennesker til at gennemse og finde fejl i kontrakter. 20 menneskelige jurister brugte gennemsnitligt 92 minutter og fandt 85% af fejlene. Den kunstige intelligens brugte 26 sekunder og fandt 94%.

Mange jobs forsvinder

Der er store penge at tjene ved at bruge kunstig intelligens. Konsulentfirmaet McKinsey anslår, at 22% af advokaternes og 35% af advokatfuldmægtigenes jobs kan automatiseres. Og det er der ikke de store etiske problemer i, så længe man taler om udformning af kontrakter og aftaler. Heller ikke når det handler om at hjælpe advokater med at tilrettelægge retssager, som de fx har gjort hos Kammeradvokaten.

Jakob Kamby og Stanley Stener Nielsen skriver i en artikel i Advokatsamfundet om, at Kammeradvokaten har brugt kunstig intelligens til at analysere sammenhænge i Den Europæiske Menneskerettighedsdomstols praksis. Og deres erfaringer viser, at dataanalyser og algoritmer kan vise nye sammenhænge og er et nyttigt redskab ved forberedelse af retssager.

Strafferet stiller andre etiske krav

Men når vi taler om straffesager og etik, er det en helt anden snak, og den har techst taget med Jesper Ryberg, professor i etik og retsfilosofi på Roskilde Universitet. Han er sammen med sin forskergruppe i gang med et stort forskningsprojekt om kunstig intelligens, etik og strafferet. Kunstig intelligens bruges især i USA i politiarbejdet og ved domfældelser, siger Jesper Ryberg:

Jesper Ryberg

– Man bruger det indenfor politiarbejde både til opklaring og i forebyggelse. Fx har man i New York og Washington lydsensorer i områder, hvor der er meget skyderi. Når én er blevet skudt, kan sensorerne bestemme præcis, hvilken lokalitet skuddet kom fra.

– Kunstig intelligens i kriminalitetsforebyggelse – predictive policing – bruger man i fx New York, Californien og Washington til at forudse, i hvilke områder, det er sandsynligt, der vil finde forbrydelser sted. Man indlæser en lang række data: Fra hvilke områder har vi fået flest nødopkald til politiet? I hvilke områder er der mange arbejdsløse? Hvor ved vi, at der bor folk under dårlige forhold? Så sammenkører man alle disse data, og ved hjælp af dem, får man lokaliseret, at lige nu på det her tidspunkt i eftermiddag, er der et hotspot i et bestemt område. Det kan politiet bruge til at være til stedet i de områder, hvor man antager, at risikoen for kriminalitet er stor.

– Man kan også tage et skridt videre og sammenkøre med data om enkeltpersoner, fortsætter Jesper Ryberg. – Så kan man fx få at vide, at Peter Smith, som har en kriminel forhistorie, for tiden er arbejdsløs, og så kan politiet gå ud og banke på og sige: ’Du har ikke begået noget lige nu, men du skal bare vide, at vi holder øje med dig.’ Det system, har man brugt i Chicagos South Side, hvor der er meget kriminalitet, og det har været meget omdiskuteret.

I Danmark hedder det POL-INTEL

Det danske politi har også et system, der kan forudsige kriminalitet, men de bruger det ikke på den måde. I 2018 sagde politidirektør Svend Larsen til Danmarks Radio: – Der er heldigvis så lidt kriminalitet i Danmark, at man kan altså ikke lave et system, som kan forudsige geografisk, hvor det næste indbrud og lignende kommer til at ske.

Og det gælder stadig. Thomas Kristensen, Pressechef i Rigspolitiet oplyser, at POL-INTEL ikke bruges til at forudsige kriminalitet kun til at systematisere data, som politiet i forvejen har, for at gøre efterforskningsarbejdet mere effektivt. Det kan være politirapporter, anmeldelser af kriminalitet og andet fra politiets egne databaser – og eksterne kilder som fx CPR-registret.

Strafudmåling og farlighedsvurderinger

Noget af det, Jesper Rybergs forskningsgruppe har mest fokus på, er anvendelse af kunstig intelligens i forbindelse med strafudmåling.  

– Dommere dømmer forskelligt, selvom der er tale om samme forbrydelse, siger Jesper Ryberg. – Videnskabelige studier viser at i præcis samme typer sager, ville én dommer give to år og en anden et år og ni måneder. En kunstig intelligens, der bygger på en præcis database, kunne guide dommerne, så man fik et mere ensartet system. Domstolene kunne også arbejde hurtigere med hjælp fra kunstig intelligens, og det er vigtigt for retssikkerheden.

Spørgsmålet er så, om folk vil opfatte det som retfærdigt, at en kunstig intelligens er involveret i strafudmålingen. Jesper Ryberg nævner, at processen betyder meget for, om folk føler sig retfærdigt behandlet. Det er vigtigt, at de er blevet lyttet til og har fremlagt deres syn på sagen. Det kræver et menneske, så det er ikke sikkert, folk vil acceptere en dom, hvis der har været en maskine involveret.

Et andet sted, hvor kunstig intelligens bruges, er i farlighedsvurderinger. Man plejer at bruge psykiatere eller psykologer til at vurdere om en person er farlig, om han skal idømmes en længere straf, eller om han kan få udgang eller prøveløsladelse.

– Det kan man nu ved hjælp af algoritmer, siger Jesper Ryberg. – I stedet for at vurdere den enkelte person sammenkører man en lang række data, fx: Har personen tidligere begået forbrydelser? Hvilken alder har han? Er han stofmisbruger? Hvordan er de sociale forhold? Alle de forhold bliver kørt sammen, og så får man en vurdering. Han er enten farlig, medium farlig eller ikke farlig.

Loomis og algoritmen

I 2013 blev Eric Loomis fra Wisconsin i USA idømt seks års fængsel for at være med i et drive-by-shooting. En kunstig intelligens vurderede, at Loomis var i fare for at falde tilbage i kriminalitet, så han kunne ikke prøveløslades. Systemet hedder COMPAS, og er udviklet af et privat firma, Northpointe Inc., som nægtede at udlevere algoritmen bag systemet til retten og Loomis.

Sagen endte i Wisconsins højesteret, hvor Loomis bl.a. ankede over, at når han ikke kunne få indsigt i algoritmen bag COMPAS, fik han ikke en individuel vurdering af sin sag. Loomis tabte sagen. Det rejser nogle om spørgsmål retssikkerhed, mener Jesper Ryberg:

– I en retssag har man normalt mulighed for at få at vide, hvad der ligger til grund for en dom. I Danmark vil man formentlig kun bruge privatudviklede algoritmer, hvis de er åbne, så alle har adgang til dem. Men problemet er, at hvis man bruger machine learning, hvor algoritmen hele tiden opjusterer sin viden, når den får nye data, så vil en væsentlig årsag til manglende transparens være, at algoritmerne er så komplicerede, at Loomis måske ville få 1.000 siders udskrift af programmeringssystemer. Det er der jo ingen mennesker, der forstår. Det ville ikke hjælpe ham i forhold til den indsigt, han gerne vil have.

Systemet er ikke bedre end sine data

Menneskeretsorganisationer i USA har været meget kritiske overfor brugen af kunstig intelligens i retsvæsnet. Både i forhold til politiarbejdet og strafudmålinger. De mener, at predictive policing og systemer som COMPAS er diskriminerende – ikke mindst overfor den afroamerikanske befolkning.

– Hvis du ser på systemer, der forudsiger, hvor vil det være rimeligt at antage, at der vil finde forbrydelser sted, så er en del af de data, du lægger ind i algoritmen, data om, hvor har der været mange arrestationer. Men hvis politiet fx har fordomme om sorte unge mænd, så tager de måske flere med på stationen fra områder, hvor der bor mange sorte. Det tæller som en arrestation, selvom han måske bliver lukket ud to timer senere. Men det bliver lagt ind i algoritmen, at der er mange forbrydelser i det område. Systemerne er ikke bedre end de data, man lægger ind i dem.

– Problemet er det samme med systemer som COMPAS, fortsætter Jesper Ryberg. – Der er lavet studier af COMPAS, der viser at sandsynligheden for at man bliver vurderet som farlig selvom man ikke er det, er større, hvis man er sort. Og det sker selvom man ikke må lægge ind i algoritmen, om en person er sort eller hvid. Den afspejler bare politiets adfærd. Hvad skal man gøre? Det kan jo godt være rigtigt, at sorte har større fare for at ende i kriminalitet end hvide. Så det, man skal vurdere, er: Hvad er en rimelig form for bias og hvad er urimeligt? Vi laver masser af forskelsbehandling, som vi synes er ok. Fx kan ældre køre billigere med bussen. Spørgsmålet er, hvornår det er berettiget, og hvornår det ikke er. Det er vi også nødt til at se på i forhold til kunstig intelligens.

Alle diskriminerer

Daniel Kahnemann, foto: Nobel Foundation

At kunstige intelligenser har fordomme og skævvrider i forhold til race, alder eller køn, er ikke noget vi bryder os om. Men mennesker er også fyldt med ubevidste fordomme. Jesper Ryberg nævner et eksperiment, som nobelpristager i økonomi, Daniel Kahneman, har lavet. En række forsøgspersoner skulle dreje et lykkehjul, der kun kunne stoppe på 10 og 65, og de vidste ikke, at hjulet var fikset. Når de havde drejet hjulet, blev de spurgt om, hvor stor en %-del af landene i Afrika der er medlem af FN. Det er der ikke mange, der ved, så de måtte gætte. Det viste sig, at dem, hvor lykkehjulet stoppede på 65 i gennemsnit gættede 20% point højere end dem, der fik 10.

– Når først vi har fået et tal i hovedet, har det en afsmitning på noget andet, der er helt irrelevant, siger Jesper Ryberg. – Der er ingen sammenhæng, men sådan fungerer vores hjerner. Man ved fra massiv forskning, at er der nogen, der diskriminerer, er det os mennesker.

– Når man studerer kunstig intelligens, er det er ikke et spørgsmål om at sammenligne et system, der måske har fået indlagt nogle fordomme med noget, som ikke har fordomme. Det er et spørgsmål om at se på, hvilket system der er bedst. Det kan jo være, at systemerne er at foretrække, frem for de fordomme vi mennesker eller en dommer naturligt har, når han eller hun vurderer en sag.

EU’s etiske regler

1 Systemerne skal respektere fundamentale rettigheder.

2 De må ikke diskriminere.

3 De skal have høj kvalitet og være sikre.

4 De skal være åbne og fair.

5 Brugerne skal have indsigt i og kontrol med systemet.

EU har opstillet fem etiske regler for brug af kunstig intelligens i retsvæsnet, som de i USA ikke kan leve op til. Jeg spørger Jesper Ryberg om ikke reglerne er så overordnede, at de næsten bliver tomme?

– Det vigtige ved sådan nogle regler er, hvordan de bliver fortolket. De meget overordnede regler skal jo udfyldes, og så opstår problemerne med, hvad de egentlig betyder. Det er let nok at sige, at man skal have indsigt i en algoritme, men hvad er det for en indsigt? Hvad kan man bruge den til? Det er det, der er det vigtige.

Dette er en tredie artikel i en serie på syv.

Log ind

Opret kundekonto

Dine personlige data vil blive anvendt til at understøtte din brugeroplevelse,, til at administrere adgang til din konto, og til andre formål, som er beskrevet i vores persondatapolitik.

Ja tak, jeg vil gerne have et gratis prøveabonnement og adgang til alle artikler

Enkelt abonnement



Gruppeabonnement



Gavekort