Rødmer Siri, når hun lytter?

Kunstig intelligens kommer til at forandre vores samfund radikalt. Og ofte til det bedre. Men det rejser en række etiske spørgsmål, for vi bruger hele tiden kunstig intelligens: Når vi søger på nettet, hvis vi bruger Siri eller Alexa. Måske styrer en kunstig intelligens dit varmeforbrug og din robotstøvsuger eller tjekker dit køleskab.

LG, som producerer meget andet end skærme, har lanceret ThinQ, som kan spille en proaktiv rolle i dit liv, som LG selv siger på deres hjemmeside. Den kan tjekke temperaturen på din vin og fortælle dig, hvornår du skal købe mælk, og den kan advare dig, når der er ubudne gæster i dit hjem. Nogen smarte husholdningsmaskiner kan sige: ’Jeg skal rengøres’ eller ’Jeg starter om tyve minutter’, men ThinQ går et skridt videre og foreslår alternative løsninger. Vaskemaskinen kan fx sige: ’Der er meget lidt vasketøj, så det er mindre forurenende, hvis jeg bruger et hurtigt program, der slutter om 20 minutter.’

Og det er jo dejligt at blive vejledt og hjulpet af med kedelige rutineopgave i hjemmet. Og der er heller ingen tvivl om, at kunstig intelligens vil være en stor fordel i mange industrier. Problemerne opstår, når de kunstige intelligenser opsamler og anvender store mængder af personfølsomme data. Siri, Alexa og de andre elektroniske assistenter lytter med på alt, hvad der foregår i dit hjem. Google gør også. Det har de selv indrømmet. Men de gør det selvfølgelig kun for at gøre brugeroplevelsen bedre, siger de.

‘Kunstig intelligens kan meget vel skabe dystopiske samfund med øget ulighed, massearbejdsløshed og fordomsfulde algoritmer, der undertrykker og ekskluderer bestemte samfundsgrupper. Men kunstig intelligens kan lige så vel gøre vores arbejdsliv sjovere, øge velstanden, kurere sygdomme og hjælpe os med at træffe bedre beslutninger om vigtige spørgsmål. I sidste ende er det op til os!’

Googles fejltrin

Kunstige intelligenser kræver store mængder af data for at fungere og de store techfirmaer som Google, Facebook og andre sælger dig som en vare til deres annoncører. Dine data er guld, det er derfor, de vil lytte med, og det er derfor etik i databehandlingen er et varmt emne. For de store techfirmaer har igen og igen vist, at de ikke er i stand til at håndtere de data, de indsamler på betryggende vis, og at de ikke formår, at tage hånd om de etiske spørgsmål, det rejser, når de samler informationer om os alle.

Selv når de prøver at gøre det rigtige, går det ofte galt. I marts i år oprettede Google et eksternt råd, der skulle rådgive om nogle af de store udfordringer med etikken der opstår, når man arbejder med ansigtsgenkendelse, maskinlæring og kunstig intelligens. En af dem, Google gerne ville have til at sidde i rådet, var Kay Coles James, direktør for højrefløjstænketanken Heritage Foundation, der bl.a. modarbejder LGBTQ-personers rettigheder og er skeptisk overfor klimaændringerne. Mange mente, at det gjorde hende uegnet til at rådgive verdens største firma indenfor kunstig intelligens om etiske spørgsmål. Der blev startet en underskriftsindsamling og et andet medlem af rådet trak sig. Google opgav, og gik i tænkeboks inden rådets første møde.

Algoritmer

En algoritme er den opskrift en kunstig intelligens arbejder ud fra. Det er ikke et program, men en formel, der i generelle termer fortæller en computer, hvilke skridt den skal tage, for at løse et problem. Hvis du fx søger en rutevejledning på Google Maps, er det en algoritme, der finder ud af, hvilken vej fra A til B, der er hurtigst.

Algoritmer har fordomme

Man kan spørge, hvorfor en kvinde med afroamerikansk baggrund og højreorienterede synspunkter ikke kan være en del af et rådgivende organ? Er det den amerikanske politiske korrekthed, der stikker snuden frem? Eller har kritikerne noget at have deres argumenter i?

Det har de i den forstand, at de algoritmer, der styrer de kunstige intelligenser, ikke er objektive størrelser, der bare styrer nogle maskiner ved hjælp af binære talsystemer – ’0’er og ’1’er. Det viser sig nemlig, at de fordomme, som dem, der programmerer maskinerne har, lever videre i de kunstige intelligenser.

Det har Safiya Umoja Noble vist i bogen Algorithms of Oppression – how search engines reinforce racism. Her viser hun, som det ses på bogens forside, at Googles søgemaskine bl.a. har fordomme overfor kvinder med afrikansk baggrund. Nu har Google ændret sin algoritme, men andre mindre brugte søgemaskiner har ikke, som det ses på billedet af en søgning på ’Why are black women so’ på Yahoo.

Er kunstige intelligenser sexistiske?

FN har udgivet en rapport, der hedder Jeg ville rødme, hvis jeg kunne med henvisning til Apples digitale assistent Siri, som svarer sådan med en kvindestemme, når den bliver fornærmet af brugerne. Men Siri er ikke den eneste digitale assistent, der er udstyret med stereotype ’kvindelige’ træk. De fleste digitale assistenter har kvindestemmer. FN opfordrer til, at man stopper den praksis og i øvrigt programmerer dem til at modarbejde kønsbaserede tiltaler og sprogbrug, og at man sørger for at uddanne flere kvinder til at arbejde med ​​nye teknologier på lige fod med mænd.

Men en afbalanceret tilgang kræver vel også forskellige politiske og religiøse holdninger repræsenteret? Som fx Kay Coles James, der repræsenterer et konservativt, kristent synspunkt.  Eller bliver det for meget med klimabenægtere?

Jack Poulson, en tidligere forsker hos Google, der sagde sin stilling op på grund af Googles arbejde med en censureret søgemaskine til det kinesiske marked, siger til magasinet The Verge, at balladen om Googles etiske komite tager opmærksomheden fra det egentlige problem, som er tech virksomhedernes manglende ansvarlighed. Hvis vi kaster os ud i politiske diskussioner om etik, gavner det virksomhederne, for så kræver vi ikke ansvarlighed af dem, mener han.

Er Jinri Toutiao ansvarlig, eller må vi selv være det?

Jinri Toutiao

I Den store tech revolution skriver Christina Boutrup om den kinesiske nyhedstjeneste Jinri Toutiao – det betyder dagens overskrifter – som er en af Kinas største nyhedsplatforme med 120 millioner brugere. Jinri Toutiao finder videoer og artikler fra mere end 4.000 medier, som passer til den enkelte bruger. En kunstig intelligens finder dem ved hjælp data fra sociale medier. Men Jinri Toutiao tilbyder også brugerne noget, de ikke har vist interesse for, så de på den måde kan udvide deres horisont. Desuden arbejder virksomheden ved hjælp af robotter på at opsnappe og stoppe falske nyheder.

Er det ansvarlighed, eller er det bare endnu en smart forretningsmodel? Smart er det i hvert fald, for brugerne er i gennemsnit 76 minutter på Jinri Toutiao om dagen, og det er annoncørerne rigtig glade for.

Måske er Jinri Toutiao en måde, hvor de kunstige intelligenser bliver mere interessante, for normen er, at de kun anbefaler de nyheder, film, tøj, bøger osv. som der er størst statistisk sandsynlighed for, at vi ender med at købe. Som Peter Svarre skriver i bogen Hvad skal vi med mennesker?: ’De kunstige intelligenser hjælper mig ikke med at realisere mig selv eller nå nogen højere aspirationer. Tværtimod trækker de mig i retning af mine mest primitive drifter og simple ønsker. Ikke for at skade mig, men fordi deres mål er nogen andre end mine. Så hvordan sikrer vi, at vores personlige mål, drømme og aspirationer overlever i en verden med kunstige intelligenser, der har andre mål end vores? VI MÅ FORHOLDE OS AKTIVT TIL DEM. Vælg selv om du vil have det de tilbyder dig.’

Kan kunstig intelligens erstatte mennesker?


Kunstig intelligens er en maskine, som kan lære og anvende viden på en måde, som vi normalt forbinder med mennesker. Fx at opfatte, løse problemer, interagere med omverdenen og være kreativ. En kunstig intelligens kan behandle store mængder af data meget hurtigt, og den kan lære af de ting den ’ser’. Det kaldes deep learning og mønstergenkendelse.

Den har ingen bevidsthed. Den har ingen intuition og dens kognitive evner er meget anderledes end menneskets. Et barn skal ikke se ret mange katte, før det kan genkende en kat. En kunstig intelligens skal måske bruge 10.000 billeder, og alligevel kan den ikke genkende katten, hvis den får et billede, hvor katten ses bagfra.

Hvad er etisk?

At vælge kunstig intelligens fra, vil være lige så uetisk, som det vil være at bruge dem ukritisk til alt. For kunstige intelligenser hjælper os med at bekæmpe sult, at afbøde klimakrisen og lette overgangen til smarte bæredygtige byer. Det drejer sig om at bruge dem rigtigt og etisk, og mange analytikere mener, at Europa kan have en særlig fordel frem for de stor technationer USA og Kina.

I USA stoler man blindt på markedskræfterne og har overgivet udviklingen til de store techgiganter som Google, Amazon, Apple og Facebook. I Kina er det staten, der styrer udviklingen med hård hånd. Ingen af disse alternativer er særligt attraktive. Med bl.a.  GDPR – EU’s persondataforordning – tilbyder Europa en tredje vej, hvor man vil sætte det enkelte menneske og retten til privatliv i centrum.

Brugen af kunstig intelligens rejser en række spørgsmål, der ikke kan besvares med simpelt ja og nej. De næste uger vil techst se nærmere på kunstig intelligens og etik indenfor en række områder, som velfærdsstaten, sundhed, medicinalindustrien, militær, jura og uddannelse.

Dette er den første artikel i en serie på syv.

Denne uge:

Rødmer Siri, når hun lytter?

Kunstig intelligens kommer til at forandre vores samfund radikalt. Og ofte til det bedre. Men det rejser en række etiske spørgsmål, for vi bruger hele tiden kunstig intelligens: Når vi søger på nettet, hvis vi bruger Siri eller Alexa. Måske styrer en kunstig intelligens dit varmeforbrug og din robotstøvsuger eller tjekker dit køleskab.

LG, som producerer meget andet end skærme, har lanceret ThinQ, som kan spille en proaktiv rolle i dit liv, som LG selv siger på deres hjemmeside. Den kan tjekke temperaturen på din vin og fortælle dig, hvornår du skal købe mælk, og den kan advare dig, når der er ubudne gæster i dit hjem. Nogen smarte husholdningsmaskiner kan sige: ’Jeg skal rengøres’ eller ’Jeg starter om tyve minutter’, men ThinQ går et skridt videre og foreslår alternative løsninger. Vaskemaskinen kan fx sige: ’Der er meget lidt vasketøj, så det er mindre forurenende, hvis jeg bruger et hurtigt program, der slutter om 20 minutter.’

Og det er jo dejligt at blive vejledt og hjulpet af med kedelige rutineopgave i hjemmet. Og der er heller ingen tvivl om, at kunstig intelligens vil være en stor fordel i mange industrier. Problemerne opstår, når de kunstige intelligenser opsamler og anvender store mængder af personfølsomme data. Siri, Alexa og de andre elektroniske assistenter lytter med på alt, hvad der foregår i dit hjem. Google gør også. Det har de selv indrømmet. Men de gør det selvfølgelig kun for at gøre brugeroplevelsen bedre, siger de.

‘Kunstig intelligens kan meget vel skabe dystopiske samfund med øget ulighed, massearbejdsløshed og fordomsfulde algoritmer, der undertrykker og ekskluderer bestemte samfundsgrupper. Men kunstig intelligens kan lige så vel gøre vores arbejdsliv sjovere, øge velstanden, kurere sygdomme og hjælpe os med at træffe bedre beslutninger om vigtige spørgsmål. I sidste ende er det op til os!’

Googles fejltrin

Kunstige intelligenser kræver store mængder af data for at fungere og de store techfirmaer som Google, Facebook og andre sælger dig som en vare til deres annoncører. Dine data er guld, det er derfor, de vil lytte med, og det er derfor etik i databehandlingen er et varmt emne. For de store techfirmaer har igen og igen vist, at de ikke er i stand til at håndtere de data, de indsamler på betryggende vis, og at de ikke formår, at tage hånd om de etiske spørgsmål, det rejser, når de samler informationer om os alle.

Selv når de prøver at gøre det rigtige, går det ofte galt. I marts i år oprettede Google et eksternt råd, der skulle rådgive om nogle af de store udfordringer med etikken der opstår, når man arbejder med ansigtsgenkendelse, maskinlæring og kunstig intelligens. En af dem, Google gerne ville have til at sidde i rådet, var Kay Coles James, direktør for højrefløjstænketanken Heritage Foundation, der bl.a. modarbejder LGBTQ-personers rettigheder og er skeptisk overfor klimaændringerne. Mange mente, at det gjorde hende uegnet til at rådgive verdens største firma indenfor kunstig intelligens om etiske spørgsmål. Der blev startet en underskriftsindsamling og et andet medlem af rådet trak sig. Google opgav, og gik i tænkeboks inden rådets første møde.

Algoritmer

En algoritme er den opskrift en kunstig intelligens arbejder ud fra. Det er ikke et program, men en formel, der i generelle termer fortæller en computer, hvilke skridt den skal tage, for at løse et problem. Hvis du fx søger en rutevejledning på Google Maps, er det en algoritme, der finder ud af, hvilken vej fra A til B, der er hurtigst.

Algoritmer har fordomme

Man kan spørge, hvorfor en kvinde med afroamerikansk baggrund og højreorienterede synspunkter ikke kan være en del af et rådgivende organ? Er det den amerikanske politiske korrekthed, der stikker snuden frem? Eller har kritikerne noget at have deres argumenter i?

Det har de i den forstand, at de algoritmer, der styrer de kunstige intelligenser, ikke er objektive størrelser, der bare styrer nogle maskiner ved hjælp af binære talsystemer – ’0’er og ’1’er. Det viser sig nemlig, at de fordomme, som dem, der programmerer maskinerne har, lever videre i de kunstige intelligenser.

Det har Safiya Umoja Noble vist i bogen Algorithms of Oppression – how search engines reinforce racism. Her viser hun, som det ses på bogens forside, at Googles søgemaskine bl.a. har fordomme overfor kvinder med afrikansk baggrund. Nu har Google ændret sin algoritme, men andre mindre brugte søgemaskiner har ikke, som det ses på billedet af en søgning på ’Why are black women so’ på Yahoo.

Er kunstige intelligenser sexistiske?

FN har udgivet en rapport, der hedder Jeg ville rødme, hvis jeg kunne med henvisning til Apples digitale assistent Siri, som svarer sådan med en kvindestemme, når den bliver fornærmet af brugerne. Men Siri er ikke den eneste digitale assistent, der er udstyret med stereotype ’kvindelige’ træk. De fleste digitale assistenter har kvindestemmer. FN opfordrer til, at man stopper den praksis og i øvrigt programmerer dem til at modarbejde kønsbaserede tiltaler og sprogbrug, og at man sørger for at uddanne flere kvinder til at arbejde med ​​nye teknologier på lige fod med mænd.

Men en afbalanceret tilgang kræver vel også forskellige politiske og religiøse holdninger repræsenteret? Som fx Kay Coles James, der repræsenterer et konservativt, kristent synspunkt.  Eller bliver det for meget med klimabenægtere?

Jack Poulson, en tidligere forsker hos Google, der sagde sin stilling op på grund af Googles arbejde med en censureret søgemaskine til det kinesiske marked, siger til magasinet The Verge, at balladen om Googles etiske komite tager opmærksomheden fra det egentlige problem, som er tech virksomhedernes manglende ansvarlighed. Hvis vi kaster os ud i politiske diskussioner om etik, gavner det virksomhederne, for så kræver vi ikke ansvarlighed af dem, mener han.

Er Jinri Toutiao ansvarlig, eller må vi selv være det?

Jinri Toutiao

I Den store tech revolution skriver Christina Boutrup om den kinesiske nyhedstjeneste Jinri Toutiao – det betyder dagens overskrifter – som er en af Kinas største nyhedsplatforme med 120 millioner brugere. Jinri Toutiao finder videoer og artikler fra mere end 4.000 medier, som passer til den enkelte bruger. En kunstig intelligens finder dem ved hjælp data fra sociale medier. Men Jinri Toutiao tilbyder også brugerne noget, de ikke har vist interesse for, så de på den måde kan udvide deres horisont. Desuden arbejder virksomheden ved hjælp af robotter på at opsnappe og stoppe falske nyheder.

Er det ansvarlighed, eller er det bare endnu en smart forretningsmodel? Smart er det i hvert fald, for brugerne er i gennemsnit 76 minutter på Jinri Toutiao om dagen, og det er annoncørerne rigtig glade for.

Måske er Jinri Toutiao en måde, hvor de kunstige intelligenser bliver mere interessante, for normen er, at de kun anbefaler de nyheder, film, tøj, bøger osv. som der er størst statistisk sandsynlighed for, at vi ender med at købe. Som Peter Svarre skriver i bogen Hvad skal vi med mennesker?: ’De kunstige intelligenser hjælper mig ikke med at realisere mig selv eller nå nogen højere aspirationer. Tværtimod trækker de mig i retning af mine mest primitive drifter og simple ønsker. Ikke for at skade mig, men fordi deres mål er nogen andre end mine. Så hvordan sikrer vi, at vores personlige mål, drømme og aspirationer overlever i en verden med kunstige intelligenser, der har andre mål end vores? VI MÅ FORHOLDE OS AKTIVT TIL DEM. Vælg selv om du vil have det de tilbyder dig.’

Kan kunstig intelligens erstatte mennesker?


Kunstig intelligens er en maskine, som kan lære og anvende viden på en måde, som vi normalt forbinder med mennesker. Fx at opfatte, løse problemer, interagere med omverdenen og være kreativ. En kunstig intelligens kan behandle store mængder af data meget hurtigt, og den kan lære af de ting den ’ser’. Det kaldes deep learning og mønstergenkendelse.

Den har ingen bevidsthed. Den har ingen intuition og dens kognitive evner er meget anderledes end menneskets. Et barn skal ikke se ret mange katte, før det kan genkende en kat. En kunstig intelligens skal måske bruge 10.000 billeder, og alligevel kan den ikke genkende katten, hvis den får et billede, hvor katten ses bagfra.

Hvad er etisk?

At vælge kunstig intelligens fra, vil være lige så uetisk, som det vil være at bruge dem ukritisk til alt. For kunstige intelligenser hjælper os med at bekæmpe sult, at afbøde klimakrisen og lette overgangen til smarte bæredygtige byer. Det drejer sig om at bruge dem rigtigt og etisk, og mange analytikere mener, at Europa kan have en særlig fordel frem for de stor technationer USA og Kina.

I USA stoler man blindt på markedskræfterne og har overgivet udviklingen til de store techgiganter som Google, Amazon, Apple og Facebook. I Kina er det staten, der styrer udviklingen med hård hånd. Ingen af disse alternativer er særligt attraktive. Med bl.a.  GDPR – EU’s persondataforordning – tilbyder Europa en tredje vej, hvor man vil sætte det enkelte menneske og retten til privatliv i centrum.

Brugen af kunstig intelligens rejser en række spørgsmål, der ikke kan besvares med simpelt ja og nej. De næste uger vil techst se nærmere på kunstig intelligens og etik indenfor en række områder, som velfærdsstaten, sundhed, medicinalindustrien, militær, jura og uddannelse.

Dette er den første artikel i en serie på syv.

Log ind

Opret kundekonto

Dine personlige data vil blive anvendt til at understøtte din brugeroplevelse,, til at administrere adgang til din konto, og til andre formål, som er beskrevet i vores persondatapolitik.

Ja tak, jeg vil gerne have et gratis prøveabonnement og adgang til alle artikler

Enkelt abonnement



Gruppeabonnement



Gavekort