Wat killer robots betekenen voor de toekomst van oorlog

Wat killer robots betekenen voor de toekomst van oorlog

Killer robots zien er voorlopig niet zo uit Denis Starostin/Shutterstock

Van killerrobots, slachtbots of terminators – officieel dodelijke autonome wapens (LAW’s) genoemd – heb je misschien wel eens gehoord uit films en boeken. En het idee van superintelligente wapens die op hol slaan is nog steeds sciencefiction. Maar nu AI-wapens steeds geavanceerder worden, groeit de publieke bezorgdheid over het gebrek aan verantwoording en het risico van technische storingen.

We hebben al gezien hoe zogenaamd neutrale AI seksistische algoritmen en onbekwame inhoudsbeheersingssystemen heeft gemaakt, grotendeels omdat de makers ervan de technologie niet begrepen. Maar in een oorlog kunnen dit soort misverstanden burgers doden of onderhandelingen kapot maken.

Een doelherkenningsalgoritme kan bijvoorbeeld getraind worden om tanks te identificeren uit satellietbeelden. Maar wat als alle beelden die gebruikt worden om het systeem te trainen soldaten in formatie rond de tank tonen? Het zou een burgervoertuig dat door een militaire blokkade rijdt, als doelwit kunnen zien.

Waarom hebben we autonome wapens nodig?

Burgers in veel landen (zoals Vietnam, Afghanistan en Jemen) hebben geleden onder de manier waarop mondiale grootmachten steeds geavanceerdere wapens bouwen en gebruiken. Velen zullen beweren dat ze meer kwaad dan goed hebben gedaan, zoals recentelijk de Russische invasie van Oekraïne begin 2022.

In het andere kamp zitten mensen die zeggen dat een land zichzelf moet kunnen verdedigen, wat betekent dat het de militaire technologie van andere landen moet bijhouden. AI is mensen al te slim af met schaken en poker. Het overtreft mensen ook in de echte wereld. Microsoft beweert bijvoorbeeld dat zijn spraakherkenningssoftware een foutenpercentage heeft van 1%, vergeleken met een menselijk foutenpercentage van ongeveer 6%. Het is dus niet verwonderlijk dat legers algoritmen langzaam de teugels in handen geven.

Maar hoe voorkomen we dat killer robots worden toegevoegd aan de lange lijst van dingen waarvan we zouden willen dat we ze nooit hadden uitgevonden? Ten eerste: ken uw vijand.

Wat zijn dodelijke autonome wapens (LAW’s)?

Het Amerikaanse Ministerie van Defensie definieert een autonoom wapensysteem als: “Een wapensysteem dat, eenmaal geactiveerd, doelen kan selecteren en aanvallen zonder verdere tussenkomst van een menselijke operator.”

Veel gevechtssystemen voldoen al aan deze criteria. De computers op drones en moderne raketten hebben algoritmen die doelen kunnen detecteren en erop kunnen vuren met veel meer precisie dan een menselijke operator. Israël’s Iron Dome is een van de verschillende actieve verdedigingssystemen die doelen kunnen aanvallen zonder menselijk toezicht.

Hoewel ontworpen voor raketverdediging, kan de Iron Dome per ongeluk mensen doden. Maar dat risico wordt in de internationale politiek als aanvaardbaar beschouwd, omdat de Iron Dome over het algemeen een betrouwbare geschiedenis heeft van bescherming van burgerlevens.

Wat killer robots betekenen voor de toekomst van oorlog.0&q=45&auto=format&w=754&fit=clip

Een Israëlisch raketafweersysteem
ChameleonsEye/Shutterstock

Er zijn ook wapens met AI die ontworpen zijn om mensen aan te vallen, van robotwachters tot rondhangende kamikaze-drones die in de Oekraïense oorlog werden gebruikt. LAW’s zijn er al. Dus, als we het gebruik van LAWs willen beïnvloeden, moeten we de geschiedenis van moderne wapens begrijpen.

De regels van de oorlog

Internationale overeenkomsten, zoals de Verdragen van Genève, stellen gedragsregels vast voor de behandeling van krijgsgevangenen en burgers tijdens een conflict. Ze zijn een van de weinige instrumenten die we hebben om te controleren hoe oorlogen worden uitgevochten. Helaas bewijst het gebruik van chemische wapens door de VS in Vietnam, en door Rusland in Afghanistan, dat deze maatregelen niet altijd succesvol zijn.

Erger is wanneer belangrijke spelers weigeren mee te doen. De International Campaign to Ban Landmines (ICBL) lobbyt al sinds 1992 bij politici om mijnen en clustermunitie (waarbij kleine bommen willekeurig over een groot gebied worden verspreid) te verbieden. In 1997 werd in het Verdrag van Ottawa een verbod op deze wapens opgenomen, dat door 122 landen werd ondertekend. Maar de VS, China en Rusland trapten er niet in.

Landmijnen hebben sinds 2015 minstens 5.000 soldaten en burgers per jaar verwond en gedood en in 2017 zelfs 9.440 mensen. Het Landmine and Cluster Munition Monitor 2022 rapport zegt:

Het aantal slachtoffers…is de afgelopen zeven jaar verontrustend hoog geweest, na meer dan een decennium van historische dalingen. Het jaar 2021 was geen uitzondering. Deze trend is grotendeels het gevolg van het toegenomen conflict en de sinds 2015 waargenomen besmetting door geïmproviseerde mijnen. De meeste slachtoffers zijn burgers, waarvan de helft kinderen.

Lees meer:
Het aantal doden door landmijnen neemt toe – en het opruimen ervan zal tientallen jaren duren

Ondanks de beste inspanningen van de ICBL zijn er aanwijzingen dat zowel Rusland als Oekraïne (lid van het Ottawa-verdrag) landmijnen gebruiken tijdens de Russische invasie van Oekraïne. Oekraïne heeft ook gebruik gemaakt van drones om artillerie-aanvallen te leiden, of meer recent voor “kamikaze-aanvallen” op de Russische infrastructuur.

Onze toekomst

Maar hoe zit het met meer geavanceerde wapens met AI? De Campaign to Stop Killer Robots somt negen belangrijke problemen op met LAWs, met de nadruk op het gebrek aan verantwoording, en de inherente ontmenselijking van het doden die ermee gepaard gaat.

Hoewel deze kritiek terecht is, is een volledig verbod op LAW’s om twee redenen niet realistisch. Ten eerste is, net als bij mijnen, de doos van Pandora al geopend. Bovendien zijn de grenzen tussen autonome wapens, LAW’s en killer robots zo vaag dat het moeilijk is ze van elkaar te onderscheiden. Militaire leiders kunnen altijd een achterpoortje vinden in de formulering van een verbod en killer robots als defensieve autonome wapens gebruiken. Ze zouden dat zelfs onbewust kunnen doen.

Man met honkbalpet houdt een bord omhoog

San Francisco, CA – 5 december 2022: Activisten die tegen de invoering van gewapende politierobots zijn, komen bijeen bij het stadhuis.
Phil Pasquini

We zullen in de toekomst vrijwel zeker meer wapens met AI zien. Maar dit betekent niet dat we de andere kant op moeten kijken. Meer specifieke en genuanceerde verboden zouden helpen om onze politici, data wetenschappers en ingenieurs verantwoordelijk te houden.

Bijvoorbeeld, door te verbieden:

black box AI: systemen waarbij de gebruiker geen andere informatie over het algoritme heeft dan inputs en outputs
onbetrouwbare AI: systemen die slecht zijn getest (zoals in het eerder genoemde voorbeeld van de militaire blokkade).

En je hoeft geen expert in AI te zijn om zicht te hebben op LAW’s. Blijf op de hoogte van nieuwe militaire AI-ontwikkelingen. Als je leest of hoort over het gebruik van AI in de strijd, vraag je dan af: is het gerechtvaardigd? Beschermt het de burgerbevolking? Zo niet, ga dan in gesprek met de gemeenschappen die werken aan de beheersing van deze systemen. Samen kunnen we voorkomen dat AI meer kwaad dan goed doet.

The Conversation

Jonathan Erskine ontvangt financiering van UKRI en Thales Training and Simulation Ltd.

Miranda Mowbray is verbonden aan de Universiteit van Bristol, waar ze colleges geeft over AI-ethiek in het door UKRI gefinancierde Centre for Doctoral Training in Interactive AI. Ze is lid van de adviesraad van de Open Rights Group.