Hvordan skal vi regulere kunstig intelligens?

Debatten om hvordan og hvor meget brugen af kunstig intelligens skal reguleres, har efterhånden stået på et stykke tid. I artiklen ’AI-udviklere ignorerer ofte sikkerhed i jagten på et gennembrud – så hvordan regulerer vi dem uden at blokere for fremskridt?’ beskriver tre forskere, hvordan spilteori netop kan bruges til det formål.

Lige siden kunstig intelligens (AI) gik fra teori til virkelighed, har forsknings- og udviklingscentre over hele verden konkurreret om at komme med det næste store AI gennembrud.

Denne konkurrence kaldes undertiden ’AI kapløb’. I praksis er der dog hundredvis af ’AI løb’ på vej mod forskellige mål. For eksempel konkurrer nogle forskningscentre om at skabe AI til digital markedsføring, mens andre konkurrer om at udvikle AI til militært materiel. Nogle kapløb er mellem private virksomheder og andre er mellem lande.

The Anh Han er Associate Professor i Computer Science på Teesside University

Fordi AI-forskere konkurrerer om at vinde deres valgte kapløb, kan de overse sikkerhedsproblemer i deres iver for at komme foran deres rivaler. Men sikkerhedshåndhævelse via regler er uudviklet, og modvilje mod at regulere AI kan faktisk være berettiget: det kan kvæle innovation, hvilket reducerer de fordele, som AI kan levere til menneskeheden.

Vores seneste forskning, udført sammen med vores kollega Francisco C. Santos, søgte at afgøre, hvilke AI-racer der skulle reguleres af sikkerhedsmæssige årsager, og hvilke der skulle efterlades ureguleret for at undgå at kvæle innovation. Vi gjorde det ved hjælp af en spilteori simulering.

AI overherredømme

Reguleringen af AI skal tage hensyn til de ulemper og de fordele der er ved teknologien. Ulemper, som regulering kan forsøge at lovgive imod, omfatter muligheden for, at kunstig intelligens diskriminerer dårligt stillede grupper, og udviklingen af autonome våben. Men fordelene ved AI, som for eksempel bedre kræftdiagnoser og smart klimamodellering, eksisterer måske ikke, hvis AI-reguleringen er for hårdhændet. En fornuftig AI-regulering vil maksimere fordelene og mindske dens skader.

Men med USA i konkurrence med Kina og Rusland om at opnå ’AI overherredømme’ – som kan være en klar teknologisk fordel i forhold til rivalerne – ja, så har regulering af AI indtil videre været mangelfuld. Det har ifølge FN kastet os ud i et ’uacceptabelt moralsk territorium’.

Luís Moniz Pereira er professor emeritus i Computer Science på Universidade Nova de Lisboa

AI- forskere, regeringsorganer og ikke mindst EU har opfordret til hurtigt at indføre reguleringer for at forhindre udviklingen af uetisk kunstig intelligens. Men EU’s hvidbog om emnet har erkendt, at det er vanskeligt for forvaltningsorganer at vide, hvilket AI-kapløb, der vil ende med uetisk AI, og hvilke som vil ende med gavnlig kunstig intelligens.

Fremadrettet

Vi ønskede at finde ud af, hvilke AI-forløb der skulle prioriteres i forhold til regulering, så vores team skabte en teoretisk model til at simulere hypotetiske AI-forløb. Vi kørte derefter denne simulering i gennem hundredvis af gange med justeringer af forskellige variabler for at forudsige, hvordan udviklingen af et AI- forløb vil se ud i den virkelige verden.

Vores model omfatter en række virtuelle agenter, der repræsenterer konkurrenter i et AI kapløb – ligesom forskellige teknologivirksomheder, for eksempel. Hver agent fik tilfældigt tildelt en adfærd som efterlignede, hvordan disse konkurrenter ville opføre sig i et rigtigt AI-kapløb. For eksempel overvejer nogle agenter omhyggeligt alle data og AI-faldgruber, mens andre tager unødige risici ved at springe over disse tests.

Selve modellen var baseret på evolutionær spilteori, som tidligere er blevet brugt til at forstå, hvordan adfærd udvikler sig i et samfund, blandt mennesker eller endda i vores gener. Modellen antager, at vinderne i et bestemt spil – i vores tilfælde et AI-kapløb – tager alle fordelene, som biologer hævder sker i den evolutionære udvikling.

Ved at indføre regler i vores simulering – sanktionere usikker adfærd og belønne sikker adfærd – kunne vi så se, hvilke regler der havde held til at maksimere fordelene, og hvilke der endte med at kvæle innovation.

Tom Lenaerts er professor på Faculty of Sciences, Université Libre de Bruxelles

Lektioner i regeringsførelse

Den variabel, vi fandt særlig vigtig, var kapløbets ’længde’ – den tid, vores simulerede løb tog for at nå deres mål (et funktionelt AI-produkt). Da AI-kapløb hurtigt nåede deres mål, fandt vi ud af, at konkurrenter, som vi havde kodet til altid at overse sikkerhedsforanstaltninger, altid vandt.

I disse hurtige AI-løb, eller ’AI-sprints’, opnås konkurrencefordelen ved at være hurtige, og dem, der holder pause for at overveje sikkerhed og etik, taber altid. Det ville være fornuftigt at regulere disse AI-sprints, så de AI-produkter, de konkurerer med, er sikre og etiske.

På den anden side fandt vores simulering, at langsigtede AI-projekter, eller ’AI-maratonløb’, ikke havde så presserende krav om regulering.

Det skyldes, at vinderne af AI-maratonløb ikke altid var dem, der overså sikkerheden. Plus at vi fandt ud af, at regulering af AI-maraton forhindrede dem i at nå deres potentiale. Det lignede en kvælende overregulering – den slags, der rent faktisk kunne modarbejde samfundets interesser.

I betragtning af disse resultater vil det være vigtigt for lovgiverne at fastslå, hvor længe forskellige AI-kapløb sandsynligvis vil vare, ved at anvende forskellige regler baseret på deres forventede tidshorisonter. Vores resultater tyder på, at en regel for alle AI-forløb – fra sprints til maratonløb – vil føre til nogle resultater, der langt fra er ideelle.

Det er ikke for sent at sammensætte smarte, fleksible regler for at undgå uetisk og farlig AI og samtidig støtte AI, der kan gavne menneskeheden. Men sådanne regler kan være presserende: vores simulering tyder på, at de AI-kapløb, der skal afsluttes hurtigst, vil være de vigtigste at regulere.

Artiklen har tidligere været bragt i The Conversation.

Oversat af Uffe Lynglund for techst

Denne uge:

Hvordan skal vi regulere kunstig intelligens?

Debatten om hvordan og hvor meget brugen af kunstig intelligens skal reguleres, har efterhånden stået på et stykke tid. I artiklen ’AI-udviklere ignorerer ofte sikkerhed i jagten på et gennembrud – så hvordan regulerer vi dem uden at blokere for fremskridt?’ beskriver tre forskere, hvordan spilteori netop kan bruges til det formål.

Lige siden kunstig intelligens (AI) gik fra teori til virkelighed, har forsknings- og udviklingscentre over hele verden konkurreret om at komme med det næste store AI gennembrud.

Denne konkurrence kaldes undertiden ’AI kapløb’. I praksis er der dog hundredvis af ’AI løb’ på vej mod forskellige mål. For eksempel konkurrer nogle forskningscentre om at skabe AI til digital markedsføring, mens andre konkurrer om at udvikle AI til militært materiel. Nogle kapløb er mellem private virksomheder og andre er mellem lande.

The Anh Han er Associate Professor i Computer Science på Teesside University

Fordi AI-forskere konkurrerer om at vinde deres valgte kapløb, kan de overse sikkerhedsproblemer i deres iver for at komme foran deres rivaler. Men sikkerhedshåndhævelse via regler er uudviklet, og modvilje mod at regulere AI kan faktisk være berettiget: det kan kvæle innovation, hvilket reducerer de fordele, som AI kan levere til menneskeheden.

Vores seneste forskning, udført sammen med vores kollega Francisco C. Santos, søgte at afgøre, hvilke AI-racer der skulle reguleres af sikkerhedsmæssige årsager, og hvilke der skulle efterlades ureguleret for at undgå at kvæle innovation. Vi gjorde det ved hjælp af en spilteori simulering.

AI overherredømme

Reguleringen af AI skal tage hensyn til de ulemper og de fordele der er ved teknologien. Ulemper, som regulering kan forsøge at lovgive imod, omfatter muligheden for, at kunstig intelligens diskriminerer dårligt stillede grupper, og udviklingen af autonome våben. Men fordelene ved AI, som for eksempel bedre kræftdiagnoser og smart klimamodellering, eksisterer måske ikke, hvis AI-reguleringen er for hårdhændet. En fornuftig AI-regulering vil maksimere fordelene og mindske dens skader.

Men med USA i konkurrence med Kina og Rusland om at opnå ’AI overherredømme’ – som kan være en klar teknologisk fordel i forhold til rivalerne – ja, så har regulering af AI indtil videre været mangelfuld. Det har ifølge FN kastet os ud i et ’uacceptabelt moralsk territorium’.

Luís Moniz Pereira er professor emeritus i Computer Science på Universidade Nova de Lisboa

AI- forskere, regeringsorganer og ikke mindst EU har opfordret til hurtigt at indføre reguleringer for at forhindre udviklingen af uetisk kunstig intelligens. Men EU’s hvidbog om emnet har erkendt, at det er vanskeligt for forvaltningsorganer at vide, hvilket AI-kapløb, der vil ende med uetisk AI, og hvilke som vil ende med gavnlig kunstig intelligens.

Fremadrettet

Vi ønskede at finde ud af, hvilke AI-forløb der skulle prioriteres i forhold til regulering, så vores team skabte en teoretisk model til at simulere hypotetiske AI-forløb. Vi kørte derefter denne simulering i gennem hundredvis af gange med justeringer af forskellige variabler for at forudsige, hvordan udviklingen af et AI- forløb vil se ud i den virkelige verden.

Vores model omfatter en række virtuelle agenter, der repræsenterer konkurrenter i et AI kapløb – ligesom forskellige teknologivirksomheder, for eksempel. Hver agent fik tilfældigt tildelt en adfærd som efterlignede, hvordan disse konkurrenter ville opføre sig i et rigtigt AI-kapløb. For eksempel overvejer nogle agenter omhyggeligt alle data og AI-faldgruber, mens andre tager unødige risici ved at springe over disse tests.

Selve modellen var baseret på evolutionær spilteori, som tidligere er blevet brugt til at forstå, hvordan adfærd udvikler sig i et samfund, blandt mennesker eller endda i vores gener. Modellen antager, at vinderne i et bestemt spil – i vores tilfælde et AI-kapløb – tager alle fordelene, som biologer hævder sker i den evolutionære udvikling.

Ved at indføre regler i vores simulering – sanktionere usikker adfærd og belønne sikker adfærd – kunne vi så se, hvilke regler der havde held til at maksimere fordelene, og hvilke der endte med at kvæle innovation.

Tom Lenaerts er professor på Faculty of Sciences, Université Libre de Bruxelles

Lektioner i regeringsførelse

Den variabel, vi fandt særlig vigtig, var kapløbets ’længde’ – den tid, vores simulerede løb tog for at nå deres mål (et funktionelt AI-produkt). Da AI-kapløb hurtigt nåede deres mål, fandt vi ud af, at konkurrenter, som vi havde kodet til altid at overse sikkerhedsforanstaltninger, altid vandt.

I disse hurtige AI-løb, eller ’AI-sprints’, opnås konkurrencefordelen ved at være hurtige, og dem, der holder pause for at overveje sikkerhed og etik, taber altid. Det ville være fornuftigt at regulere disse AI-sprints, så de AI-produkter, de konkurerer med, er sikre og etiske.

På den anden side fandt vores simulering, at langsigtede AI-projekter, eller ’AI-maratonløb’, ikke havde så presserende krav om regulering.

Det skyldes, at vinderne af AI-maratonløb ikke altid var dem, der overså sikkerheden. Plus at vi fandt ud af, at regulering af AI-maraton forhindrede dem i at nå deres potentiale. Det lignede en kvælende overregulering – den slags, der rent faktisk kunne modarbejde samfundets interesser.

I betragtning af disse resultater vil det være vigtigt for lovgiverne at fastslå, hvor længe forskellige AI-kapløb sandsynligvis vil vare, ved at anvende forskellige regler baseret på deres forventede tidshorisonter. Vores resultater tyder på, at en regel for alle AI-forløb – fra sprints til maratonløb – vil føre til nogle resultater, der langt fra er ideelle.

Det er ikke for sent at sammensætte smarte, fleksible regler for at undgå uetisk og farlig AI og samtidig støtte AI, der kan gavne menneskeheden. Men sådanne regler kan være presserende: vores simulering tyder på, at de AI-kapløb, der skal afsluttes hurtigst, vil være de vigtigste at regulere.

Artiklen har tidligere været bragt i The Conversation.

Oversat af Uffe Lynglund for techst

Log ind

Opret kundekonto

Dine personlige data vil blive anvendt til at understøtte din brugeroplevelse,, til at administrere adgang til din konto, og til andre formål, som er beskrevet i vores persondatapolitik.

Ja tak, jeg vil gerne have et gratis prøveabonnement og adgang til alle artikler

Enkelt abonnement



Gruppeabonnement



Gavekort