Lektor Sune Hannibal Holm og professor Peter Sandøe er begge filosoffer og arbejder med etik og kunstig intelligens på Københavns Universitet. techst har talt med dem om etik og velfærdssamfundets brug af kunstig intelligens. En af deres pointer er, at de færreste har noget imod, at kunstig intelligens ordner en masse kedelige rutineopgaver, så samfundets ressourcer kan bruges bedre. Der, hvor diskussionen kan opstå, er på følsomme områder som fx social- og sundhedsområderne.
– Der er dilemmaer. Fx kan der jo være god grund til at udvikle vores sundhedsvæsen, så vi kan redde flere menneskers liv eller få dem til at leve længere og bedre, siger Sune Holm. Men brugen af personlige data kan udfordre vores forståelse af retten til privatliv. Hvis vi gør meget ud af, at folks data skal være meget private, at de ikke må anvendes, med mindre der er givet eksplicit tilladelse af den enkelte borger, så kan det have nogle negative konsekvenser for muligheden for at bruge kunstig intelligens i sundhedsvæsnet. Det er et dilemma vi må forholde os til.
– Jeg er nok så meget nytteetiker, at jeg ikke synes, det nødvendigvis er et dilemma, siger Peter Sandøe. I princippet bør vi bruge sundhedsdata til fremadrettet at sikre bedre behandlinger. Man skal dog tænke meget over, hvordan man bruger data. Hvis det ikke foregår på en måde, hvor folk føler sig respekterede, er der risiko for, at folk saboterer og nægter at medvirke. Du kan risikere, at velfærd går tabt, hvis folk ikke føler sig ordentligt behandlet.
Det gik ikke i Gladsaxe
Et eksempel, hvor folk ikke blev ordentligt behandlet, er Gladsaxe kommunes forsøg på en tidlig opsporing af udsatte børn gennem kunstig intelligens og samkøring af data om børnefamiliernes tandlægebesøg, ledighed, skilsmisser og meget andet. Først var den tidligere borgerlige regering begejstret og ville gøre noget lignende til en del af ghettoplanen. Men efter intens kritik og kommunens læk af næsten 20.000 borgeres data samt diskussion af sagerne i åbne fora som Facebook, blev projektet droppet.
Men borgerne må vænne sig til den slags, sagde Gladsaxes familiechef, Tine Vesterby Sørensen til Politiken – Folk har altid været vant til, at deres persondata er fortrolige, og har selv bestemt, hvad de skal bruges til. Men vi bevæger os ind i en tidsalder, hvor borgere skal vænne sig til, at deres data anvendes til flere ting.
De mindst privilegerede bliver overvåget
Ifølge Karen Melchior, radikalt medlem af EU-parlamentet, der tidligere har arbejdet med persondatabeskyttelse hos Styrelsen for Arbejdsmarked og Rekruttering, er det kun nogle borgere, der skal vænne sig til tanken. I Peter Svarres bog Hvad skal vi med mennesker?, siger hun – Når vi kigger på, hvem vi laver datadreven administration på, så er det de mindst privilegerede. Dem, som vi frygter snyder med sociale ydelser. Jeg har ikke set nogen, der vil lave datadreven administration af, om folk faktisk bor, der hvor de siger, at de bor, eller om de lejer boliger ud via platforme uden at betale skat. Hvis du er privilegeret, så er du reddet, for der er ikke nogen, der føler, at de skal drive klapjagt på dig.
Men netop skatten kunne være et godt sted at starte, mener Sune Holm – Når man kommer med nye muligheder for at anvende regnekraft og med ret stor pålidelighed forudsige noget om specifikke individer, vil der være gode muligheder for at opspore mange slags snyd. Det er dog vigtigt, at befolkningen kan se det rimelige i at anvende teknologien til det pågældende formål. Derfor er det måske ikke oplagt at starte med noget så følsomt som udsatte børn. Måske er det mere oplagt at starte med rutineopgaver og med folk, der snyder i skat. I forhold til udsatte børn er det mennesker, som formentlig i forvejen er i en stor risiko for stigmatisering, som bliver anvendt som forsøgskaniner.
Gennemskuelighed
Ofte bliver vi også utrygge, når vi ikke forstår, hvad der foregår, og den situation er vi mange, der er i, når man ved hjælp af kunstig intelligens laver forudsigelser om andre mennesker eller måske os selv.
– Meget af det her handler om, hvorvidt det er forståeligt, hvad der sker, siger Peter Sandøe. – Der sker noget i dit liv, og hvis du ikke forstår, hvad der sker, så kommer der lidt Kafka over det. Vi har holdt et foredrag, hvor vi siger: det med privathed er Orwell, du bliver overvåget, men det med Kafka er, at du står op en morgen og så får du at vide, at du er anklaget, men du kan ikke få at vide, hvad du er anklaget for. Og det, at du pludselig får udpeget dit barn som et risikobarn, men ikke kan få at vide hvorfor, det er jo meget, meget bekymrende. Traditionel retsnorm er jo, at når nogen tager en beslutning om dig, så skal du have en saglig begrundelse.
Viden om, hvordan en kunstig intelligens fungerer, og hvilke data den er fodret med kan være væsentlige for at forstå, hvorfor systemet kommer med en statistisk sandsynlighed for, at man fx bliver langtidsledig. Den åbenhed omkring systemerne kan man godt forlange af det offentlige, men når man som i Danmark ofte arbejder med partnerskaber mellem det offentlige og private virksomheder, bliver situationen en anden.
Skal vi kende algoritmerne?
I sundhedsvæsnet er der meget samarbejde mellem det offentlige og private virksomheder, – siger Sune Holm. – Og i hvilken udstrækning skal de private virksomheders algoritmer være noget, man som borger har adgang til? Meget ofte vil de sige, det er forretningshemmeligheder.
Spørgsmålet om åbenhed ikke så enkelt, fortsætter Sune Holm – Hvis du skal have en forklaring på, hvorfor en algoritme er nået frem til at bedømme folk på en given måde, så lægger du også information ud til folk, som gør at de kan snyde systemet. Dem, der vil snyde i skat, skal nok sætte sig ind i, hvordan systemet virker. For i nogen tilfælde vil dem, du gerne vil fange, også være dem der har grund til at sætte sig ind i, hvordan det fungerer.
Spørgsmålet er også, hvordan vi vægter algoritmernes præcision i forhold til deres gennemskuelighed. De præcise algoritmer er også ofte sværere at gennemskue. Hvis du laver nogen algoritmer, som er nemmere at forstå, vil man højst sandsynligt få en lavere succesrate.
– Det er et dilemma, der også eksisterede før de her systemer, siger Peter Sandøe. – Hvis du som offentlig myndighed griber ind, så risikerer du at gribe ind på et forkert grundlag. Og hvis du sætter barren for lavt risikerer du, at rigtig mange børn bliver udsat for incest eller børnemishandling. Så der er altid dilemmaer, når man skal udpege mennesker. De mennesker, der designer algoritmerne er nødt til at afgøre, hvordan man vægter fordele og ulemper. Ligesom man i et retssystem er nødt til at sige, hvordan man vægter bevisbyrden.
Fordomme
Kunstige intelligenser bliver ofte beskyldt for at have fordomme. I USA, hvor man bruger dem i retsvæsnet, er systemerne fyldt med fordomme over for den sorte befolkning, og det samme gælder i øvrigt mange søgemaskiner. Googles fotoprogram har fx karakteriseret et billede af to personer af afrikansk oprindelse som ”gorillas”. Problemet er, at den formentlig er trænet på billeder af hvide mennesker. Og en kunstig intelligens er ikke bedre end de data, den fodres med.
– Man skal huske på, at mennesker, der tager beslutninger, ikke nødvendigvis er bedre, siger Peter Sandøe. – Vi bilder de studerende ind, at når de får en karakter, så er det meget objektivt. Men vi ved udmærket godt, at alle mulige fordomme kan spille ind, og at de kønne fx kan slippe lettere igennem en mundtlig eksamen end de mindre kønne. Hvis man helt droppede kunstig intelligens, ville det være folks ofte fordomsfulde bedømmelser, der styrer beslutningerne. Det er ikke sådan, at enten har vi kunstig intelligens eller også noget godt gammeldags, hvor seriøse mennesker tager fornuftige beslutningerne. Mennesker er jo ofte dårlige til at tage beslutninger. Vi tager jo mange beslutninger også i forvaltningssammenhænge, der er enormt skæve og fordomsfulde. Fx er der i en række undersøgelser dokumenteret køns- og racemæssig bias i beslutninger truffet af læger.
– Noget man også kan overveje er, om der er en relevant forskel på det, algoritmen gør, og det sagsbehandleren gør, siger Sune Holm. – Sagsbehandlerne sidder med filer på borgere, og prøver efter 30 år at være gode til at forudsige faresignaler. I virkeligheden er det måske det algoritmerne gør meget bedre. For de kan på kort tid køre endnu mere materiale igennem end din sagsbehandler kan. Det kan jo godt være, at det eksperterne har inde i hovedet, når de sidder og foretager deres gode gammeldags menneskelige vurdering, er en algoritme, de har lavet. Det er jo et neuralt netværk derinde. Min grundlæggende pointe er, at når vi begynder at tale om de etiske problemstillinger ved at anvende algoritmer, så er det altid vigtigt, at vi ser på, hvor gode alternativerne er.
Arbejdsløse
Arbejdsløshedssystemet er et af de steder, hvor man er gået i gang med at bruge kunstig intelligens til at se på, hvem der er i fare for at blive langtidsledig, og det rejser også nogle etiske spørgsmål.
– Der vil ofte være en fare for, at egenskaber, som er meget statistisk signifikante for, om du bliver langtidsledig, vil blive forstået som ensbetydende med, at man bliver langtidsledig, siger Sune Holm. Ydermere kan vi komme til at glemme, at der er tale om sandsynligheder. Der kan hurtigt komme en opfattelse af, at en algoritme har forudset, at du bliver langtidsledig. Ikke at der er en vis sandsynlighed for det. Derfor kræver det stor varsomhed, hvis vi giver os til at implementere de her systemer i det offentlige.
– Men at blive sagsbehandlet af en kunstig intelligens kan også have fordele, siger Peter Sandøe – Jeg kender nogen, som er blevet fyret her fra universitetet, som er nær de 60, og de fortæller om den endeløse ydmygelse, det er at komme ind i abejdsløshedssystemet. De siger ikke: Det er et fantastisk system, vi har, I må ikke nedlægge det. Der kunne en algoritme måske være et frisk pust, hvis den var lavet rigtigt. Måske får en person en chance, fordi algoritmen ikke har samme grad af fordomsfuldhed som de menneskelige sagsbehandlere. Det kan også være, at systemerne har bedre manerer end mange sagsbehandlere. De er væsentlig mere tålmodige og begynder ikke at hidse sig op. De har aldrig en dårlig dag, som almindelige mennesker har.
Dette er den anden artikel i en serie på syv.