LG, som producerer meget andet end skærme, har lanceret ThinQ, som kan spille en proaktiv rolle i dit liv, som LG selv siger på deres hjemmeside. Den kan tjekke temperaturen på din vin og fortælle dig, hvornår du skal købe mælk, og den kan advare dig, når der er ubudne gæster i dit hjem. Nogen smarte husholdningsmaskiner kan sige: ’Jeg skal rengøres’ eller ’Jeg starter om tyve minutter’, men ThinQ går et skridt videre og foreslår alternative løsninger. Vaskemaskinen kan fx sige: ’Der er meget lidt vasketøj, så det er mindre forurenende, hvis jeg bruger et hurtigt program, der slutter om 20 minutter.’
Og det er jo dejligt at blive vejledt og hjulpet af med kedelige rutineopgave i hjemmet. Og der er heller ingen tvivl om, at kunstig intelligens vil være en stor fordel i mange industrier. Problemerne opstår, når de kunstige intelligenser opsamler og anvender store mængder af personfølsomme data. Siri, Alexa og de andre elektroniske assistenter lytter med på alt, hvad der foregår i dit hjem. Google gør også. Det har de selv indrømmet. Men de gør det selvfølgelig kun for at gøre brugeroplevelsen bedre, siger de.
Googles fejltrin
Kunstige intelligenser kræver store mængder af data for at fungere og de store techfirmaer som Google, Facebook og andre sælger dig som en vare til deres annoncører. Dine data er guld, det er derfor, de vil lytte med, og det er derfor etik i databehandlingen er et varmt emne. For de store techfirmaer har igen og igen vist, at de ikke er i stand til at håndtere de data, de indsamler på betryggende vis, og at de ikke formår, at tage hånd om de etiske spørgsmål, det rejser, når de samler informationer om os alle.
Selv når de prøver at gøre det rigtige, går det ofte galt. I marts i år oprettede Google et eksternt råd, der skulle rådgive om nogle af de store udfordringer med etikken der opstår, når man arbejder med ansigtsgenkendelse, maskinlæring og kunstig intelligens. En af dem, Google gerne ville have til at sidde i rådet, var Kay Coles James, direktør for højrefløjstænketanken Heritage Foundation, der bl.a. modarbejder LGBTQ-personers rettigheder og er skeptisk overfor klimaændringerne. Mange mente, at det gjorde hende uegnet til at rådgive verdens største firma indenfor kunstig intelligens om etiske spørgsmål. Der blev startet en underskriftsindsamling og et andet medlem af rådet trak sig. Google opgav, og gik i tænkeboks inden rådets første møde.
Algoritmer har fordomme
Man kan spørge, hvorfor en kvinde med afroamerikansk baggrund og højreorienterede synspunkter ikke kan være en del af et rådgivende organ? Er det den amerikanske politiske korrekthed, der stikker snuden frem? Eller har kritikerne noget at have deres argumenter i?
Det har de i den forstand, at de algoritmer, der styrer de kunstige intelligenser, ikke er objektive størrelser, der bare styrer nogle maskiner ved hjælp af binære talsystemer – ’0’er og ’1’er. Det viser sig nemlig, at de fordomme, som dem, der programmerer maskinerne har, lever videre i de kunstige intelligenser.
Det har Safiya Umoja Noble vist i bogen Algorithms of Oppression – how search engines reinforce racism. Her viser hun, som det ses på bogens forside, at Googles søgemaskine bl.a. har fordomme overfor kvinder med afrikansk baggrund. Nu har Google ændret sin algoritme, men andre mindre brugte søgemaskiner har ikke, som det ses på billedet af en søgning på ’Why are black women so’ på Yahoo.
Er kunstige intelligenser sexistiske?
FN har udgivet en rapport, der hedder Jeg ville rødme, hvis jeg kunne med henvisning til Apples digitale assistent Siri, som svarer sådan med en kvindestemme, når den bliver fornærmet af brugerne. Men Siri er ikke den eneste digitale assistent, der er udstyret med stereotype ’kvindelige’ træk. De fleste digitale assistenter har kvindestemmer. FN opfordrer til, at man stopper den praksis og i øvrigt programmerer dem til at modarbejde kønsbaserede tiltaler og sprogbrug, og at man sørger for at uddanne flere kvinder til at arbejde med nye teknologier på lige fod med mænd.
Men en afbalanceret tilgang kræver vel også forskellige politiske og religiøse holdninger repræsenteret? Som fx Kay Coles James, der repræsenterer et konservativt, kristent synspunkt. Eller bliver det for meget med klimabenægtere?
Jack Poulson, en tidligere forsker hos Google, der sagde sin stilling op på grund af Googles arbejde med en censureret søgemaskine til det kinesiske marked, siger til magasinet The Verge, at balladen om Googles etiske komite tager opmærksomheden fra det egentlige problem, som er tech virksomhedernes manglende ansvarlighed. Hvis vi kaster os ud i politiske diskussioner om etik, gavner det virksomhederne, for så kræver vi ikke ansvarlighed af dem, mener han.
Er Jinri Toutiao ansvarlig, eller må vi selv være det?
I Den store tech revolution skriver Christina Boutrup om den kinesiske nyhedstjeneste Jinri Toutiao – det betyder dagens overskrifter – som er en af Kinas største nyhedsplatforme med 120 millioner brugere. Jinri Toutiao finder videoer og artikler fra mere end 4.000 medier, som passer til den enkelte bruger. En kunstig intelligens finder dem ved hjælp data fra sociale medier. Men Jinri Toutiao tilbyder også brugerne noget, de ikke har vist interesse for, så de på den måde kan udvide deres horisont. Desuden arbejder virksomheden ved hjælp af robotter på at opsnappe og stoppe falske nyheder.
Er det ansvarlighed, eller er det bare endnu en smart forretningsmodel? Smart er det i hvert fald, for brugerne er i gennemsnit 76 minutter på Jinri Toutiao om dagen, og det er annoncørerne rigtig glade for.
Måske er Jinri Toutiao en måde, hvor de kunstige intelligenser bliver mere interessante, for normen er, at de kun anbefaler de nyheder, film, tøj, bøger osv. som der er størst statistisk sandsynlighed for, at vi ender med at købe. Som Peter Svarre skriver i bogen Hvad skal vi med mennesker?: ’De kunstige intelligenser hjælper mig ikke med at realisere mig selv eller nå nogen højere aspirationer. Tværtimod trækker de mig i retning af mine mest primitive drifter og simple ønsker. Ikke for at skade mig, men fordi deres mål er nogen andre end mine. Så hvordan sikrer vi, at vores personlige mål, drømme og aspirationer overlever i en verden med kunstige intelligenser, der har andre mål end vores? VI MÅ FORHOLDE OS AKTIVT TIL DEM. Vælg selv om du vil have det de tilbyder dig.’
Hvad er etisk?
At vælge kunstig intelligens fra, vil være lige så uetisk, som det vil være at bruge dem ukritisk til alt. For kunstige intelligenser hjælper os med at bekæmpe sult, at afbøde klimakrisen og lette overgangen til smarte bæredygtige byer. Det drejer sig om at bruge dem rigtigt og etisk, og mange analytikere mener, at Europa kan have en særlig fordel frem for de stor technationer USA og Kina.
I USA stoler man blindt på markedskræfterne og har overgivet udviklingen til de store techgiganter som Google, Amazon, Apple og Facebook. I Kina er det staten, der styrer udviklingen med hård hånd. Ingen af disse alternativer er særligt attraktive. Med bl.a. GDPR – EU’s persondataforordning – tilbyder Europa en tredje vej, hvor man vil sætte det enkelte menneske og retten til privatliv i centrum.
Brugen af kunstig intelligens rejser en række spørgsmål, der ikke kan besvares med simpelt ja og nej. De næste uger vil techst se nærmere på kunstig intelligens og etik indenfor en række områder, som velfærdsstaten, sundhed, medicinalindustrien, militær, jura og uddannelse.
Dette er den første artikel i en serie på syv.