Autonome våben – man må reagere på en farlig udvikling

I artiklen Kan robotter forstå Genevekonventionen? sagde ph.d. stipendiat Léonard van Rompaey i et interview, at han ikke tillægger åbne breve til FN om at forbyde autonome våben stor værdi, for det vil være umuligt at gennemføre. techst har bedt professor på DTU Thomas Bolander skrive et indlæg om, hvorfor han har skrevet under.

Når forskere opfordrer til at forbyde autonome våbensystemer, er det jo i høj grad et spørgsmål om at råbe vagt i gevær, for nu at bruge det udtryk. Det er klart, at det kan være svært at effektuerer et sådant forbud, for hvornår er et våbensystem autonomt? hvordan sikrer vi at ingen kan bøje forbuddet og lave et våbensystem, som ikke burde have været tilladt, men som alligevel går under radaren af forbuddet? Eller hvordan undgår vi at det så i stedet bliver terrorister, der udvikler og udnytter autonome våbensystemer?

Thomas Bolander

Når forskere og industrifolk indenfor kunstig intelligens opfordrer til at forbyde autonome våbensystemer, handler det i høj grad om at vi ser en potentiel meget farlig udvikling, som vi bliver nødt til at reagere på og oplyse verden om.

Beslutningstagere skal forstå risikoen

Hvis en forsker i virus-sygdomme, genetik eller atomfysik opdager at hendes forskning potentielt kan være meget farlig i de forkerte hænder, har hun naturligt en pligt til at advare verden og gøre hvad hun kan for at den så ikke ender i de forkerte hænder. Den enkelte forsker kan jo ikke beslutte hvordan lovgivningen skal være, og det er heller ikke sikkert, den enkelte forsker er den bedste til at beslutte, hvordan man dæmmer op for en potentiel fare.

Men os der forsker i potentielt farlige teknologier, har i det mindste en pligt til at gøre det bedste vi kan, som er at understrege risikoen og gøre alt for at beslutningstagerne forstår det. Det er det vi forskere i kunstig intelligens opnår ved at lave åbne breve imod autonome våbensystemer, ved at boykotte samarbejde med universiteter, som ønsker at være med i udviklingen af sådanne våbensystemer, ved at lave skræmmevideoer og lignende. Det er også den vej vi går når vi som forskere bliver enige om at bruge vores forskning og teknologi til gode formål som hjælper menneskeheden, f.eks. forskning som adresserer verdensmålene.

Det handler meget om oplysning og indsigter, at så mange som muligt, både beslutningstagere og den almene befolkning, bliver klar over hvad det er vi står overfor, så der kan træffes de rigtige beslutninger. Det er ikke AI-forskerne selv der kan dæmme op for fuldt autonome dræberrobotter, lige så lidt som klimaforskere der advarer om klimaudfordringer er dem der sørger for at reducere udledningen eller laver lovene.

Forskere skal advare

Men klimaforskerne spiller en helt afgørende rolle i at advare om udfordringerne og de potentielle fremtidsscenarier. Man kan så diskutere hvad der er det bedste virkemiddel, om en opfordring til et forbud mod autonome våbensystemer er det bedste man kan gøre som forsker i kunstig intelligens. Men det er vigtigt at advare om faren, blandt andet fordi fuldt automatiserede våbensystemer kan ende med at være ude af kontrol og træffe meget dårlige beslutninger, fordi de ikke kan relatere til verden lige så effektivt som vi mennesker kan.

DARPAs autonome anit-ubåds våbensystem. Foto: DARPA

Så faren i autonome våbensystemer handler ikke kun om hvor avancerede og effektive de er eller kan blive. Det handler faktisk også om at der er så mange aspekter af menneskelig kognition, som kunstig intelligens stadig er langt fra at kunne håndtere, at det virker som halsløs gerning at udstyre dem med livsfarlige våben og så slippe dem fri på egen hånd. Det er eksempelvis tankevækkende at der både i 2016 og 2019 har været fatale ulykker med Tesla’er i autopilot-mode, hvor bilen har forsøgt at køre under anhængeren på en lastbil på tværs af vejen, som den troede var et motorvejsskilt (fordi begge dele er store rektangulære overflader med tekst på, så mønstergenkendelsesalgoritmen synes de ligner hinanden).

Kunstige intelligenser er ikke kloge nok

Hvis kunstig intelligens løber løbsk er det mest realistiske scenarie ikke, at de gør det, fordi de bliver for kloge og selvstændige, men simpelthen fordi de stadig ikke er kloge nok, og vi stadig bør være forsigtige med hvor vi bruger dem til selvstændigt at træffe beslutninger når der potentielt er menneskeliv på spil.

Det sagt, kan kunstig intelligens naturligvis også være med til at redde menneskeliv. Et godt eksempel på dette er det danske firma Corti, som har lavet en algoritme, der lytter med på opkald til alarmcentralen for at vurdere om der kunne være tale om et hjerteanfald. Hvis algoritmen vurderer at der er det, kommer der en advarselslampe op på skærmen hos den person der tager imod opkaldet. Af og til kommer advarselslampen op uden at der faktisk er tale om et hjerteanfald, men der sidder stadig et menneske, som kan forholde sig til den advarselslampe, og hellere sende en ambulance for meget end for lidt. Her er der tale om kunstig intelligens, som understøtter menneskelig beslutningstagen.

Vi må ikke få blind tillid til kunstig intelligens

Man bruger også kunstig intelligens til at understøtte menneskelig beslutningstagen eksempelvis i kampfly. Når forskere forsøger at forbyde brugen af autonome våbensystemer, er det ikke den slags brug af kunstig intelligens, vi forsøger at forbyde. Det er den fuldt autonome slags, hvor eksempelvis en drone selvstændigt kan drage ud på militære missioner uden nogen menneskelig indblanding. Der er naturligvis også gråzoner, og hvis vi mennesker lader os påvirke for meget af de anbefalinger som kunstig intelligens-algoritmer kommer med, så er afstanden til fuldt automatiseret kunstig intelligens ikke så stor.

Tesla tillader heller ikke at man har bilen på autopilot uden hænderne på rettet og øjnene på vejen. Men hvis autopiloten i tilstrækkeligt lang tid altid har truffet korrekte beslutninger, begynder man nemt at få blind tillid til den, som eksempelvis chaufføren i Tesla-ulykken fra 2016, som sad og så Harry Potter på sin iPad, som det sidste han så nåede at gøre i sit liv. Disse gråzoner gør naturligvis hele sagen meget mere kompleks, men netop derfor skal vi jo også have fokus på sagen og få det diskuteret, og noget af det der kan være meget til at skabe opmærksom er åbne breve.

Denne uge:

Autonome våben – man må reagere på en farlig udvikling

I artiklen Kan robotter forstå Genevekonventionen? sagde ph.d. stipendiat Léonard van Rompaey i et interview, at han ikke tillægger åbne breve til FN om at forbyde autonome våben stor værdi, for det vil være umuligt at gennemføre. techst har bedt professor på DTU Thomas Bolander skrive et indlæg om, hvorfor han har skrevet under.

Når forskere opfordrer til at forbyde autonome våbensystemer, er det jo i høj grad et spørgsmål om at råbe vagt i gevær, for nu at bruge det udtryk. Det er klart, at det kan være svært at effektuerer et sådant forbud, for hvornår er et våbensystem autonomt? hvordan sikrer vi at ingen kan bøje forbuddet og lave et våbensystem, som ikke burde have været tilladt, men som alligevel går under radaren af forbuddet? Eller hvordan undgår vi at det så i stedet bliver terrorister, der udvikler og udnytter autonome våbensystemer?

Thomas Bolander

Når forskere og industrifolk indenfor kunstig intelligens opfordrer til at forbyde autonome våbensystemer, handler det i høj grad om at vi ser en potentiel meget farlig udvikling, som vi bliver nødt til at reagere på og oplyse verden om.

Beslutningstagere skal forstå risikoen

Hvis en forsker i virus-sygdomme, genetik eller atomfysik opdager at hendes forskning potentielt kan være meget farlig i de forkerte hænder, har hun naturligt en pligt til at advare verden og gøre hvad hun kan for at den så ikke ender i de forkerte hænder. Den enkelte forsker kan jo ikke beslutte hvordan lovgivningen skal være, og det er heller ikke sikkert, den enkelte forsker er den bedste til at beslutte, hvordan man dæmmer op for en potentiel fare.

Men os der forsker i potentielt farlige teknologier, har i det mindste en pligt til at gøre det bedste vi kan, som er at understrege risikoen og gøre alt for at beslutningstagerne forstår det. Det er det vi forskere i kunstig intelligens opnår ved at lave åbne breve imod autonome våbensystemer, ved at boykotte samarbejde med universiteter, som ønsker at være med i udviklingen af sådanne våbensystemer, ved at lave skræmmevideoer og lignende. Det er også den vej vi går når vi som forskere bliver enige om at bruge vores forskning og teknologi til gode formål som hjælper menneskeheden, f.eks. forskning som adresserer verdensmålene.

Det handler meget om oplysning og indsigter, at så mange som muligt, både beslutningstagere og den almene befolkning, bliver klar over hvad det er vi står overfor, så der kan træffes de rigtige beslutninger. Det er ikke AI-forskerne selv der kan dæmme op for fuldt autonome dræberrobotter, lige så lidt som klimaforskere der advarer om klimaudfordringer er dem der sørger for at reducere udledningen eller laver lovene.

Forskere skal advare

Men klimaforskerne spiller en helt afgørende rolle i at advare om udfordringerne og de potentielle fremtidsscenarier. Man kan så diskutere hvad der er det bedste virkemiddel, om en opfordring til et forbud mod autonome våbensystemer er det bedste man kan gøre som forsker i kunstig intelligens. Men det er vigtigt at advare om faren, blandt andet fordi fuldt automatiserede våbensystemer kan ende med at være ude af kontrol og træffe meget dårlige beslutninger, fordi de ikke kan relatere til verden lige så effektivt som vi mennesker kan.

DARPAs autonome anit-ubåds våbensystem. Foto: DARPA

Så faren i autonome våbensystemer handler ikke kun om hvor avancerede og effektive de er eller kan blive. Det handler faktisk også om at der er så mange aspekter af menneskelig kognition, som kunstig intelligens stadig er langt fra at kunne håndtere, at det virker som halsløs gerning at udstyre dem med livsfarlige våben og så slippe dem fri på egen hånd. Det er eksempelvis tankevækkende at der både i 2016 og 2019 har været fatale ulykker med Tesla’er i autopilot-mode, hvor bilen har forsøgt at køre under anhængeren på en lastbil på tværs af vejen, som den troede var et motorvejsskilt (fordi begge dele er store rektangulære overflader med tekst på, så mønstergenkendelsesalgoritmen synes de ligner hinanden).

Kunstige intelligenser er ikke kloge nok

Hvis kunstig intelligens løber løbsk er det mest realistiske scenarie ikke, at de gør det, fordi de bliver for kloge og selvstændige, men simpelthen fordi de stadig ikke er kloge nok, og vi stadig bør være forsigtige med hvor vi bruger dem til selvstændigt at træffe beslutninger når der potentielt er menneskeliv på spil.

Det sagt, kan kunstig intelligens naturligvis også være med til at redde menneskeliv. Et godt eksempel på dette er det danske firma Corti, som har lavet en algoritme, der lytter med på opkald til alarmcentralen for at vurdere om der kunne være tale om et hjerteanfald. Hvis algoritmen vurderer at der er det, kommer der en advarselslampe op på skærmen hos den person der tager imod opkaldet. Af og til kommer advarselslampen op uden at der faktisk er tale om et hjerteanfald, men der sidder stadig et menneske, som kan forholde sig til den advarselslampe, og hellere sende en ambulance for meget end for lidt. Her er der tale om kunstig intelligens, som understøtter menneskelig beslutningstagen.

Vi må ikke få blind tillid til kunstig intelligens

Man bruger også kunstig intelligens til at understøtte menneskelig beslutningstagen eksempelvis i kampfly. Når forskere forsøger at forbyde brugen af autonome våbensystemer, er det ikke den slags brug af kunstig intelligens, vi forsøger at forbyde. Det er den fuldt autonome slags, hvor eksempelvis en drone selvstændigt kan drage ud på militære missioner uden nogen menneskelig indblanding. Der er naturligvis også gråzoner, og hvis vi mennesker lader os påvirke for meget af de anbefalinger som kunstig intelligens-algoritmer kommer med, så er afstanden til fuldt automatiseret kunstig intelligens ikke så stor.

Tesla tillader heller ikke at man har bilen på autopilot uden hænderne på rettet og øjnene på vejen. Men hvis autopiloten i tilstrækkeligt lang tid altid har truffet korrekte beslutninger, begynder man nemt at få blind tillid til den, som eksempelvis chaufføren i Tesla-ulykken fra 2016, som sad og så Harry Potter på sin iPad, som det sidste han så nåede at gøre i sit liv. Disse gråzoner gør naturligvis hele sagen meget mere kompleks, men netop derfor skal vi jo også have fokus på sagen og få det diskuteret, og noget af det der kan være meget til at skabe opmærksom er åbne breve.

Log ind

Log ind

Ja tak, jeg vil gerne have et gratis prøveabonnement og adgang til alle artikler

Enkelt abonnement


Abonnement

30 dages gratis prøveperiode. Herefter 49,00 DKK per måned. Dit abonnement bliver fornyet automatisk, når prøveperioden udløber. Du kan opsige abonnementet når du vil.

30 dages gratis prøveperiode. Herefter 49,00 DKK per måned

Varenummer (SKU): 40000 Varekategori:

Gruppeabonnement


Gruppeabonnement

Dit abonnement bliver fornyet automatisk, når prøveperioden udløber. Du kan opsige abonnementet når du vil.

30 dages gratis prøveperiode. Herefter Fra: 441,00 DKK per måned

102550
Clear

Varenummer (SKU): 30000 Varekategori: