Høringssvar fra Etisk råd for forsvarssektoren (ERF)

Dato: 12.10.2020

Etisk råd for forsvarssektoren

c/o Forsvarsdepartementet

Postboks 8126 Dep.

N-0032 Oslo Oslo 13. oktober 2020

Høringssvar til NOU 2020: 7 Verdier og ansvar

Etisk råd for forsvarssektoren ønsker med dette å oversende vårt høringssvar til Finansdepartementet om det etiske rammeverket for Statens pensjonsfond utland (vedlagt).

Høringssvar fra Etisk Råd for Forsvarssektoren (ERF)

Finansdepartementet har sendt ut NOU 2020:7 Verdier og ansvar – Det etiske rammeverket for Statens pensjonsfond utland (SPU) på høring. Utvalget ble oppnevnt ved kongelig resolusjon 5. april 2019 for å vurdere de etisk motiverte retningslinjene for Statens pensjonsfond utland i lys av utviklingen siden retningslinjene ble etablert i 2004. Departementet mottok utvalgets utredning 15. juni 2020.

Høringsnotatet: https://www.regjeringen.no/no/dokumenter/nou-2020-7/id2706536/

Utvalget gir en klar anbefaling om at dødelige autonome våpen bør inkluderes i listen over våpen som skal utelukkes fra fondet, dvs. at SPU ikke skal investere i selskaper som produserer slike våpen eller komponenter til slike våpen. Med «autonome våpen» (AV) menes våpen der beslutningen om maktbruk ikke underlagt direkte menneskelig kontroll. Dette medfører, ifølge utvalget, at ansvarsforholdene er uklare. AV hevdes dessuten å være prinsipielt problematisk siden våpen som ved normal bruk bryter med grunnleggende humanitære prinsipper, gir grunnlag for produktbasert utelukkelse. Utvalget presiserer at henvisningen til grunnleggende humanitære prinsipper også omfatter den offentlige samvittighets krav, slik dette framgår av den såkalte Martens-klausulen.

Utgangspunktet for ERFs høringsvar er utvalgets hovedargumenter for utelukkelse av dødelige autonome våpen (AV) i NOU 2020:7 Verdier og ansvar – Det etiske rammeverket for Statens pensjonsfond utland:

  1. Der avgjørelser tas av et autonomt system er der uklare ansvarsforhold.

  2. AV vil ikke klare å overholde og vurdere humanitærrettens krav til distinksjon mellom stridende og sivile, stridenes rett til å kapitulere eller siviles rett til beskyttelse.

  3. AV kan senke terskelen for bruk av makt.

Forut for en diskusjon om hva slags produkter som skal utelukkes, trengs imidlertid en klarere forståelse av hva «autonomt» skal bety i forbindelse med dødelige våpen. Utvalgets argumentasjon benytter følgende beskrivelse: «Med autonome våpen er beslutningen om maktbruk ikke underlagt direkte menneskelig kontroll» (12.6.4). Den formen for autonomi er imidlertid ikke prinsipielt forskjellig fra automatiske våpen – i begge våpensystemer slik vi kjenner til i dag, er det en ansvarlig forsker/produsent/bruker som står bak teknologien, samt beslutningen om bruken av våpenet. Ut fra denne forståelsen av «dødelige autonome våpen» blir det dermed vanskelig å klassifisere dem som vesensforskjellig fra andre dødelige automatiske våpen hva angår ansvar.

Det er heller ikke klart at de AV som eksisterer pr. i dag i større grad enn mer tradisjonelle våpen, bryter med grunnleggende humanitære prinsipper ved normal bruk.

Dersom utvalget snarere ønsker å utelukke fullt ut autonome våpensystemer som selv tar alle beslutninger (ofte kalt Killer robots), eksisterer disse ikke pr. i dag. Derfor blir det problematisk å følge utvalgets øvrige argumentasjon: Vi vet i dag ikke om det er korrekt at slike våpen vil være mindre i stand til å overholde humanitærrettens krav til distinksjon etc. enn det vi mennesker er. Vi vet heller ikke om deres eksistens vil senke terskelen for maktbruk. Dermed står vi igjen med utvalgets siste argument om at det er dypt problematisk å overlate beslutninger av så viktig art som dødelig maktbruk til en maskin.

ERF er enig med utvalget at dette ville være problematisk. Problemet er særlig at beslutninger tatt av kunstig selvlærende intelligens kan skje på bakgrunn av algoritmer som er så komplekse at selv ikke de opprinnelige programmererne forstår hva som er maskinenes begrunnelse for beslutningen. At beslutninger som gjelder liv og død ikke kan gis noen begrunnelse som vi mennesker kan forstå, er svært vanskelig å akseptere.

Men hvis dette skal være hovedargumentet mot at man i dag investerer i teknologi som kan utvikles til slike fremtidsvåpen, vil det samme argumentet også kunne ramme sivil teknologi særlig innen helsesektoren. I begge tilfeller kan man se for seg et fremtids-scenario der mennesket overlater beslutninger som angår liv og død (f.eks. tilbud om eksperimentell medisinsk behandling), til et system der vi ikke gjennomskuer deres resonnementer og begrunnelser.

Oppsummert finner ERF det problematisk skille ut en kategori våpen som er uklart definert og der argumentene for utelukkelse derfor også blir sviktende. Det er viktig å utelukke våpen som i sin normale bruk ikke tilfredsstiller humanitærrettens krav til distinksjon, men ERF kan ikke se at påstanden om at dette gjelder AV, er tilstrekkelig belagt. Det samme gjelder påstanden om ansvarshull og eskalering av maktbruk.

Det er på denne bakgrunn vanskelig for ERF å stille seg bak utvalgets forslag om utelukkelse fra SPU slik det foreligger.

Vedlegg