Aktuelt

Når dronene våkner – Autonome våpensystemer og robotisering av krig

13. mai 2016

Hva hvis dronene ikke lenger er avhengig av menneskelig styring, men våkner til (kunstig) liv og selv kan fatte beslutninger over liv og død? Hvilke militære, juridiske, etiske og politiske problemstillinger reiser dette? Utvikling mot større autonomi gjelder ikke bare droner, men også for en rekke andre våpensystemer. Etisk råd har skrevet forordet og rådets sekretær, Andreas Carlsson, har skrevet kapittelet «Krig uten krigere. Autonome våpen, ansvar og dømmekraft» i denne nye boken fra Cappelen Damm Undervisning.

Les mer om boken på cappelendammundervisning.no

Redaktører for boken er: Tor Arne S. Berntsen, Gjert Lage Dyndal og Sigrid R. Johansen.

Forord

Fullt ut autonome våpen, som er i stand til å velge ut mål og angripe dem uten menneskelig inngripen eller oppsyn, eksisterer ennå ikke. Dette er likevel et scenario vi bør ta på alvor. Militærteknologien preges av en stadig økende grad av autonomisering og i sitt innledningskapittel anslår Gjert Lage Dyndal at fullt ut autonome våpen kan være i bruk kort tid etter 2030. Den teknologiske utviklingen er uansett ofte raskere enn vår evne til å reflektere grundig over utfordringene som skapes. Dette gjelder for eksempel bioteknologi, der muligheten for kloning og bruk av surrogatmødre nå reiser vanskelige etiske og juridiske problemstillinger. Men det gjelder i høyeste grad også militærteknologi. Ifølge en rapport fra Royal Society er en tredjedel av all forskning på verdensbasis viet til militærteknologisk utvikling. En enorm mengde ressurser brukes til å utvikle nye, mer effektive måter å ta liv på. I dette perspektivet er fremveksten av autonome våpensystem bare en av mange nye våpenkategorier. Det er likevel ikke vanskelig å se hvordan autonome våpensystemer kan oppleves som spesielt urovekkende og problematisk.

Noe av ubehaget ved autonome våpen er knyttet til frykten for at mennesker mister kontroll over sine egne maskiner, spesielt hvis – eller når- maskiner får evnen til å reprogrammere og forbedre seg selv. Denne problemstillingen- velkjent fra science fiction- er etter hvert noe som forskere tar på alvor. I desember 2015 annonserte Cambridge University at de vil opprette et nytt senter som skal forske på «kunstig intelligens og menneskehetens fremtid». Denne problemstillingen ligger imidlertid en stykke inn fremtiden og er ikke begrenset til våpensystemer.

Andre problemstillinger er mer nærliggende, og noen av disse har allerede dukket opp i den omfattende og opphetede debatten om bruk av militære droner. Hverken droner eller autonome våpen utsetter egne soldater for fare. Begge våpentyper innebærer derfor en utfordring til tradisjonelle måter å tenke om kriger og soldaters rolle i krigen. Det er ikke åpenbart hvilken rolle tradisjonelle krigerdyder, som for eksempel mot, vil spille hvis mye av krigføringen vil skje ved hjelp av autonome våpen. Ambisjonen om å minimere risiko for egne soldater er imidlertid ikke ny. Den militærteknologiske utviklingen – fra spydet til langdistanseraketten- har alltid vært drevet frem av ønsket om å minimere risiko for egne soldater. Også kritikken om at nye våpen truer måten kriger bør utkjempes på har gamle aner. Bruk av buer og armbrøst var i sin tid betraktet som umoralsk og uridderlig og ble fordømt av det andre Laterankonsil i 1139. Miguel de Cervantes mente at artilleri var en djevelsk oppfinnelse, som tillot en feiging å ta livet av den tapreste kriger. Men krigføring uten risiko for egne soldaters liv kan også medføre mer alvorlige problemer. Fordi egne soldater ikke utsettes for fare har flere påpekt en bekymring for at terskelen for å gå til krig senkes. Dette kan også forstås som et demokratisk problem: Når man ikke lenger opplever egne tap, og når egne soldater ikke lenger kommer hjem for å fortelle om hvordan krigen utspiller seg, kan dette bidra til en større avstand fra krigens virkelighet og svekke den offentlige debatten. Det oppstår en fare for krigføringen blir en teknologisk affære, løsrevet fra det samfunnet som sender autonome våpen til krigssoner. Michael Ignatieffs spørsmål fra 2000 er aktuelt i dag og vil bli stadig mer aktuelt i fremtiden.  «If war becomes unreal to the citizens of modern democracies, will they care enough to control and restrain the violence in its name?» (Ignatieff 2000).

Vi kan skille mellom forskjellige typer problemer knyttet til autonome våpen. Noen av disse er juridiske: I hvilken grad vil bruk av autonome våpen være i strid med krigens folkerett? Andre er sikkerhetspolitiske: hvilke konsekvenser vil autonome våpen ha for stabiliteten og konfliktnivået stater i mellom?

Autonome våpen reiser også viktige etiske problemstillinger. Det er ikke åpenbart for alle at det gir mening å snakke om etikk i forbindelse med krigføring. Pasifister mener at krig alltid er galt. Politiske realister hevder gjerne at moralske regler hverken kan eller skal appliseres på krig: staters egeninteresse er, og bør være, det som regulerer krigføring. For mange er det imidlertid åpenbart at krig i visse tilfeller kan rettferdiggjøres fra et etisk perspektiv, så lenge visse kriterier oppfylles. Dette etiske rammeverket for regulering av krig kalles rettferdig krig- tradisjonen.

Vi kan grovt sett skille mellom to typer etiske problemstillinger forbundet med autonome våpen: Noen problemer hviler på empiriske forutsetninger, som for eksempel faren for at våpensystemene misbrukes eller skepsis til at de vil få den teknologiske kapasiteten til skille mellom sivile og stridende. Andre problemer er av en mer prinsipiell art: Er det i seg selv galt at autonome maskiner tar «beslutninger» om liv og død? Hvem skal holdes til ansvar når autonome våpen gjør feil?

Flere har argumentert for at det kan oppstå et ansvarsgap når disse våpnene tar livet av uskyldige. Har de etterlatte krav på at noen holdes ansvarlig i slike situasjoner?  Og hvem bør i så fall holdes til ansvar- politikere, produsenter, eller offiseren som leder angrepet? Flere artikler i denne boken behandler denne problemstillingen, både fra et etisk og fra et juridisk perspektiv. Mange vil også mene at det er noe spesielt problematisk med autonome våpensystemer som selv har evnen til å velge ut mål og angripe dem. Det kan virke som om bruk av autonome våpen innebærer at beslutningen om å ta liv overlates til maskiner.  Det er imidlertid ikke åpenbart at dette er tilfellet. I den grad det er meningsfullt å snakke om at maskiner tar beslutninger, vil disse bestemmes av en algoritme som mennesker har konstruert. Reglene de følger vil være bestemt av mennesker og beslutningen om å ta disse våpnene i bruk vil være tatt av mennesker. I dette perspektivet er det naturlig å betrakte selv fullt ut autonome våpen som verktøy- midler som stater og andre grupperinger kan ta i bruk for å oppnå sine militære mål. Verktøy kan være mer eller mindre egnet for å oppnå disse målene. Hvis målet er å vinne en krig ved hjelp av de juridiske og etiske reglene for krigføring, er det avgjørende at autonome våpen vil være i stand til å følge disse reglene. Hvorvidt de vil ha dette teknologiske kapasiteten er empirisk spørsmål. Det pågår nå en debatt om det er sannsynlig at autonome våpen kunne skille mellom sivile og stridende, samt gjøre riktige avveininger mellom militære mål og sivile tap. Hvorvidt det kan være moralsk akseptabelt å benytte seg av disse våpnene, vil avhenge av om dette er teknologisk gjennomførbart. Som andre verktøy og våpen, kan autonome våpensystemer også misbrukes. 28. juli 2015 publiserte Institute of Future Studies en appell om å forby autonome våpen. Appellen var underskrevet av en rekke ledende forskere på kunstig intelligens, samt blant annet Steven Hawking, Elon Musk, Steven Wozniak og Noam Chomsky.  Det var nettopp faren for misbruk som ble vektlagt. Autonome våpen vil kunne benyttes av terrorister og despoter for umoralske formål. Det er også lett å forestille seg at autonome våpen vil benyttes selv om de ikke skulle ha evnen til å skille mellom sivile og stridende eller at de lett vil kunne omprogrammeres slik at de ikke lenger skiller mellom sivile og stridende.

Autonome våpen reiser en rekke viktig og vanskelig spørsmål, både av empirisk og prinsipiell art. Det er gode grunner til å anta at autonome våpen vil prege den ikke alt for fjerne fremtidens krigføring. Det er derfor maktpåliggende at den offentlige debatten om disse våpnene begynner allerede nå. Hvilke juridiske, politiske og etiske utfordringer bør man reflektere over før slike våpentyper eventuelt kan tas i bruk? Denne boken belyser disse spørsmålene på en grundig måte.