Professor Noel Sharkey vid sidan av ett robotsystem utvecklat av Darpa Foto: Darpa/SVT

”Mördarrobotar kan inte hållas ansvariga”

Uppdaterad
Publicerad

Kritiken är hård mot utvecklingen av ”mördarrobotar” för användning i krig. Professor Noel Sharkey, expert på robotteknik, är djupt oroad över ansvarsfrågan.

Vapensystem som programmeras för att slå till mot ett mål eller döda en människa, så kallade ”mördarrobotar”, är enligt många framtidens vapen. I USA, Storbritannien, Ryssland och Israel är just sådana robotar under utveckling. 

Till skillnad från så kallade drönare är robotarna i fråga också helt autonoma, och kan med andra ord använda dödligt våld utan att en människa fattar det slutgiltiga beslutet, eller ens är delaktig. 

Utvecklingen är mycket kontroversiell. En stor protestkampanj har dragits igång och organisationer som Amnesty och Human Rights Watch har anslutit. Frågan var också uppe på FN:s bord i förra veckan.

”Har ingen moralisk kompass”

Noel Sharkey, professor i robotteknik och artificiell intelligens vid universitetet i Sheffield,  ställer ställer sig starkt kritisk till den här typen av vapensystem. Framförallt säger han sig vara djupt oroad av ansvarsfrågan som uppstår vid användandet av förprogrammerade robotar i krigsföring.

–En robot kan inte hållas ansvarig, den kan inte straffas och den har ingen moralisk kompass. Och här handlar det dessutom om ett datasystem, där en massa saker kan gå snett.

Att som många hävdar påstå att robotarna skulle kunna bespara liv är inte heller korrekt, enligt professor Sharkey.

–Det blir bara mindre blodspillan för en sida. Vår krigsföring är redan assymetrisk: Vi bombar platser som Afghanistan och Irak och straffar och tillintetgör invånarna. Men tio år senare finns problemen kvar, och detsamma skulle ske i ett robotkrig. Dessutom är det så att transporteras inga lik hem – och här vill jag säga att jag absolut inte vill se unga dö i krig – men när inga lik transporteras hem, är det så mycket lättare att inleda krig.

”Barmhärtighet måste finnas även i krig”

Noel Sharkey ställer sig också frågande till att robotens rationella kvaliteter skulle kunna göra krigföringen säkrare.

–I dagsläget kan en robot knappt skilja på en bil och en människa, och den kan inte skilja på ett barn med ett leksaksgevär och en soldat med ett gevär. Jag ser framför mig ett barn som springer med sitt leksaksgevär medan hans mor skriker:”Akta dig, det finns soldater där ute.” En soldat skulle förstå vad som pågick medan en robot inte skulle göra det, utan döda barnet. I krig krävs mer än rationalitet och logiik ibland behöver man även kunna visa barmhärtighet.

Fakta

Så arbetar vi

SVT:s nyheter ska stå för saklighet och opartiskhet. Det vi publicerar ska vara sant och relevant. Vid akuta nyhetslägen kan det vara svårt att få alla fakta bekräftade, då ska vi berätta vad vi vet – och inte vet. Läs mer om hur vi arbetar.