• GENOMINEERDEN 2020 // The campaign to stop Killer Robots

  • GENOMINEERDEN 2020 // Borderline Sicilië

  • GENOMINEERDEN 2020 // Rebecca Johnson

  • GENOMINEERDEN 2020 // Mukhtar May, Pakistan

  • GENOMINEERDEN 2020 // Women solidarity network Yemen

The campaign to stop Killer Robots

8606658211 d01da84bfe b

Intro

In de geschiedenis heeft de mens om verschillende redenen oorlogen uitgevochten waarbij wapens telkens weer werden verbeterd om meer schade aan te richten, maar ook om zelf zo ver mogelijk weg te blijven van de directe gevarenzone. Deze verbeteringen hebben de wapens steeds efficiënter gemaakt. Zo werd tijdens WOI gas ingezet als eerste massavernietigingswapen, tijdens de tweede WOII werd een nog veel krachtiger wapen geïntroduceerd: de atoombom. Eén enkele bom vernietigt een stad. De vernietigende kracht van deze wapens was zo beangstigend dat Japan zich na de bombardementen op Hiroshima en Nagasaki overgaf, uit angst om opnieuw gebombardeerd te worden. Inmiddels hebben meer landen kernwapens verworven en schrikken evt. tegenstanders af door te dreigen om ze effectief in te zetten.
Maar sinds enkele jaren wordt geëxperimenteerd met een nieuw type wapen dat menselijke soldaten zou kunnen vervangen: de autonome wapens die volgens sommigen levens zullen redden en voor anderen de ondergang van de mensheid zullen betekenen: killer robots

Autonome wapens

Een autonoom wapen is een technologisch systeem dat gebruikt wordt voor militaire doeleinden en dat uitgerust is met kunstmatige intelligentie.

Kunstmatige intelligentie of Artificiële Intelligentie (AI)

AI wordt gedefinieerd als "een wetenschap die tot doel heeft om een machine taken te laten uitvoeren die de mens met behulp van zijn intelligentie uitvoert". Deze AI wordt gebruikt in veel domeinen, van transport tot geneeskunde, speeltjes (schaken met de computer) maar ook en vooral voor militaire doeleinden.

twee soorten AI's,

De eerste vorm van artificiële intelligentie heeft tot doel om door middel van machines de menselijke intelligentie na te bootsen door het reproduceren van een specifieke actie waarvoor het eerder geprogrammeerd is. De machine is niet in staat om deze actie te begrijpen. Ze kan deze niet verbeteren en is daarom alleen in staat om te doen wat haar is geleerd.

De tweede vorm van AI is deze waarbij de machine in staat is om te evolueren en te verbeteren (deep learning). Het toestel wordt in een eenvoudige "probleemsituatie" geplaatst waar het een oplossing moet vinden, dan wordt de situatie ingewikkelder, zodat de machine zichzelf kan perfectioneren. Het voordeel van deze techniek is dat de machine voortdurend in ontwikkeling is en in staat zal zijn om situaties of problemen aan te pakken waarvoor hij niet is opgeleid.

Verschillende niveaus van autonomie

Het is belangrijk om een onderscheid te maken tussen de 3 verschillende niveaus van autonomie van AI bij deze machines die vandaag of in de toekomst voor militaire doelen (zullen) worden ingezet.

Semi-autonomie

De robot wordt op afstand bestuurd door een mens die toegang heeft tot sensoren en camera's die op de robot zijn geplaatst om hem te kunnen sturen en controleren. De gegevens die door de sensoren en camera's worden verzameld, kunnen door de robot worden geanalyseerd.

Gecontroleerde autonomie

De robot beweegt en voert acties uit zonder dat hij door een mens wordt gestuurd, maar hij blijft onder zijn controle en de mens kan op elk moment ingrijpen in zijn acties: stoppen of wijzigen.

Volledige autonomie

De robot is volledig autonoom. Als hij eenmaal een taak heeft gekregen, is het onmogelijk om deze te wijzigen totdat hij deze heeft voltooid. Het enige wat een mens kan doen als de robot in actie is, is hem uitschakelen, vernietigen.

De eerste twee autonomieniveaus bestaan al en worden op het terrein gebruikt door de verschillende legers. Veel drones en bewapende systemen worden wereldwijd ingezet terwijl het laatste niveau van autonomie "nog niet bestaat". Het feit dat de mens geen plaats meer heeft in het besluitvormingssysteem levert immers vanuit verschillende invalshoeken problemen op.

Volledig autonome robots zouden met wapens kunnen worden uitgerust om zo de tegenstander aan te vallen: deze autonome wapens worden killer robots of "robotsoldaten" of "robotmoordenaars genoemd. Wetenschappers geven de voorkeur aan de term SALA (Systèmes d’armes létales autonomes) : autonoom dodelijke wapensystemen

Autonoom dodelijke wapensystemen

SALA’s zouden een nieuwe revolutie kunnen veroorzaken in de oorlogsvoering gezien zij de mens, de militair zouden vervangen tijdens de gevaarlijkste missies: aan het front, tijdens infiltratiemissies,....

Geen enkele regering heeft officieel toegegeven SALA’s te bezitten, maar er is geen twijfel mogelijk over hun wens om die wel te hebben. Zo investeerde de VS in 2017 18 miljard dollar om het leger te moderniseren. 2 miljard dollar werd besteed aan de ontwikkeling van militaire robots.

Rusland, de Verenigde Staten en China hebben op een VN-conferentie in april 2018 in Genève aangegeven dat zij dergelijke systemen willen blijven ontwikkelen en zo snel mogelijk willen testen.

In april 2013 werd een internationale coalitie van 51 ngo's opgericht om te proberen de ontwikkeling, productie en het gebruik van autonome wapens op een preventieve manier te verbieden. Het grote probleem is evenwel dat deze wapens nog niet bestaan, en dus is het moeilijk om ze heel correct te beschrijven en te verbieden in een tekst van internationaal recht. Elk land definieert SALA’s op haar manier. Het is dus moeilijk om tot een eenduidige definitie te komen. Toch komen steeds een aantal zaken terug. Een SALA heeft 4 elementaire functies, capaciteiten:

  • gegevensoverdracht via geïntegreerde sensoren,
  • een analyse van de door de sensoren verzamelde gegevens om informatie te verkrijgen die nuttig is voor de huidige missie, opdracht
  • besluitvorming door gebruik te maken van de geëxtraheerde informatie en kennis van het systeem en de ontwikkeling van een actieplan,
  • en de uitvoering van de gekozen actie in de echte wereld via de systeemapparatuur.

Maar het zou ook andere functies kunnen hebben die het nog functioneler en onafhankelijker maken, zoals

  • communicatie met mensen of andere verwante wapensystemen door het verzenden van informatie en analyses die tijdens lopende missies zijn verzameld,
  • een geheugencapaciteit die het mogelijk maakt om zichzelf verbeteren door te leren uit de fouten zodat later nog efficiënter op een situatie kan worden gereageerd. Het zou dus in staat zijn om "Deep Learning" te doen, zoals hierboven uitgelegd.

Wapenwedloop

Sinds 1900 zijn 's werelds grootste mogendheden een wapenwedloop begonnen om zo efficiënt mogelijk te zijn tegen vijanden, eerst door hun artillerie- en oorlogsvloot te verbeteren en vervolgens door bij voorbeeld gas als massavernietigingswapen in te zetten tijdens WOI en meer recent, in de jaren vijftig en zestig, met de nucleaire bewapeningswedloop. In de afgelopen jaren heeft deze race een nieuw doel gevonden met de ontwikkeling van autonome wapens. Overheden zien met de ontwikkelingen op het vlak van AI een kans om hun wapens tegen een lage kost te verbeteren.

Rusland

Rusland is een van de belangrijkste spelers in deze wapenwedloop. Vladimir Poetin heeft publiekelijk verklaard dat hij sterk afhankelijk is van AI en van plan is om tegen 2022 één derde van de soldaten te vervangen door semiautonome systemen om de menselijke soldaten zo ver mogelijk uit de buurt te houden van gebieden met direct gevaar. Op 1 september 2017 verklaarde hij dat "wie leider wordt op het vlak van AI, de meester van de wereld zal zijn "

In 2018 begon Kalashnikov, het Russische wapenbedrijf dat bekend staat om zijn geweren, met de ontwikkeling van kleine gepantserde tanks die zijn uitgerust met allerlei wapens en volledig autonoom zijn.

tctskr foto1

Rusland zit niet meer in de testfase omdat het sinds 2015 kleine verkennings- en ontmijningsrobots inzet in Syrië (Platform-M) maar hun rol stopt niet bij het verkennen en ontmijnen, omdat ze kunnen worden gebruikt om soldaten te ondersteunen bij de verdediging van een militaire basis of bij de overname van een vijandelijke basis. Deze robots zijn semiautomatisch, maar intussen werkt Rusland aan twee nieuwe soorten robots met meer autonomie.

De NERHETA en SORATNIK, zijn de namen van de 2 tanks die Rusland in 2017 in Wit-Rusland heeft ingezet. Deze komen het dichtst in de buurt van een SALA. Ze zijn uitgerust met machinegeweren en granaatwerpers, terwijl ze uitstekend blijven reageren. Ze hebben een AI die hen in staat stelt om doelwitten te identificeren en het vuur te openen als ze daar de opdracht toe krijgen. Voorlopig blijven ze dus op het niveau van de gecontroleerde autonomie, maar dit is geen garantie dat Rusland niet streeft naar autonome wapens.

tctskr foto2
SORATNIK-tank ingezet in Wit-Rusland

China

China is net als Rusland een groot voorstander om AI in te zetten voor militaire doeleinden. De Chinese regering heeft de afgelopen jaren miljarden dollars geïnvesteerd om zo tot de belangrijkste landen te behoren inzake deze ontwikkeling. De afgelopen jaren zijn er verschillende onderzoeken gevoerd over de ‘verzelfstandiging’ van wapens en observatieapparatuur. De regering heeft beslist dat om verder te werken op de ontwikkeling van AI. China wil zo snel mogelijk vooruitgang boeken en zo andere landen voor zijn. De regering heeft nog niet gecommuniceerd over een mogelijk bezit van autonome wapens en een eventueel aantal. China kiest er duidelijk voor om te wachten met communiceren tot de systemen die in ontwikkeling zijn, klaar zijn om te worden ingezet

Naast andere onderzoekprogramma's hebben de Chinese autoriteiten immers een uniek autonoom programma voor onderzoek en ontwikkeling van wapens gelanceerd. De 31 beste studenten onder de 18 jaar werden voor een test gerekruteerd om in een periode van 4 jaar expert te worden op dit gebied. Zij krijgen les van Chinese wetenschappers op het gebied van elektronica, algemeen wapenontwerp en AI. Vervolgens laat men ze werken aan concrete projecten zoals de ontwikkeling van nieuwe autonome wapens. China ziet hier een kans om deze toekomstige wetenschappers nog vaderlandslievender te maken en hen zo te stimuleren om "zichzelf te overtreffen voor hun land".

USA

De Verenigde Staten waren aanvankelijk gekant tegen het ontstaan van SALA's en gaven er de voorkeur aan een mens te behouden voor de uiteindelijke besluitvorming. Daarom wilden zij met andere VN-lidstaten verdragen ondertekenen die de ontwikkeling van SALA's beperkten, maar zij werden gedwongen hun standpunt te wijzigen door de positionering van Rusland en China. In het geval van een conflict met een land dat SALA's inzet zouden de VS het risico lopen veel meer mensen te verliezen, wat ethische en strategische problemen zou veroorzaken. Daarom investeert de VS nu ook in de ontwikkeling van nieuwe autonome wapens.

In 2016, tijdens missies in de Stille Oceaan, besloot de Amerikaanse regering om een aantal min of meer autonome robots in te zetten voor veldtesten. Zo zou de robot MULTIPURPOSE UNMANNED TACTICAL TRANSPORT, die tot doel heeft om materiaal en voedsel te vervoeren om de soldaten te ontlasten, zich volledig autonoom bewegen aangezien hij geprogrammeerd is om zijn team te volgen. Er is weinig andere informatie uitgelekt, maar het is moeilijk voor te stellen dat de Verenigde Staten tevreden zijn met dit type aardrobot.

tctskr foto3

Daarnaast probeert het Pentagon om samen te werken met internetbedrijven om de AI van zijn drones te verbeteren. Dit werd in maart 2018 bevestigd. Het doel was eenvoudig: Google, een pionier op het gebied van AI, moest het Pentagon helpen de autonomie van zijn drones te verbeteren. Het Pentagon wilde vooral toegang tot de miljoenen video's om de AI van zijn drones te trainen. Google, dat eigenaar is van eigenaar van Youtube, was uiteraard het geschikte bedrijf om dit materiaal aan te leveren.

Het doel van de samenwerking was om drones te maken die in staat waren om doelwitten op te sporen en te volgen zonder enige menselijke controle. Helaas voor het Pentagon hebben 4000 Google-medewerkers een petitie ondertekend om de samenwerking met het leger te staken, omdat ze van mening zijn dat hun werk niet voor militaire doeleinden mag worden gebruikt. Google zag zich daarom genoodzaakt een stap terug te zetten en deze samenwerking in juni 2018 te staken.

The Sea Hunter

AI ontwikkelt zich ook op zee. Verschillende Amerikaanse schepen zijn uitgerust met een programma genaamd C-Ram9 dat alle raketten die op weg zijn naar het schip detecteert. Vervolgens worden deze onderschept en vernietigd voor ze het schip raken.

Dat is nog niet alles. Sinds 2016 test de Amerikaanse marine de SEA HUNTER, een 45 meter lang schip dat volledig autonoom is en geen mensen aan boord heeft. Het is uitgerust met allerlei soorten radars, sonars,.... waardoor het zich gemakkelijk langs de kusten of op volle zee kan verplaatsen, maar het is ook in staat om schepen in de omgeving en eventuele onderzeeërs te detecteren. Het uiteindelijke doel is om het schip militair uit te rusten zodat het in staat is om samen met andere autonome schepen een gebied te verdedigen of te jagen op vijandelijke schepen en onderzeeërs.

tctskr foto4

Frankrijk

Frankrijk nam oorspronkelijk hetzelfde standpunt in als de VS. De opkomst van autonome wapens moest beperkt blijven omdat het absoluut noodzakelijk is om de besluitvorming over te laten aan een mens. Wie zal immers de verantwoordelijkheid op zich nemen wanneer zich een probleem voordoet met zo’n wapen?

Emmanuel Macron zei: "De machine kan alles voorbereiden, onzekerheden verminderen tot ze eventueel zijn weggenomen, het is een ongeziene verbetering, maar op een gegeven moment moet de beslissing om in te grijpen door een mens worden genomen. Iemand de verantwoordelijkheid voor welke beslissing dan ook moet nemen.

Frankrijk is dus voorstander van een verdrag dat de ontwikkeling van autonome wapens zou beperken, maar het feit dat Rusland, China en de Verenigde Staten tegen dit soort verdragen zijn, zal het land dwingen zijn standpunt te herzien, volgens de adviezen van deskundigen. Frankrijk moet op deze manier voorkomen om militair ingehaald te worden door de andere wereldmachten.

Zuid-Korea

tctskr foto5

Zuid-Korea is niet echt een grote wereldmacht, maar het is een hoog technologisch ontwikkeld land, en AI vormt geen uitzondering op deze technologische vooruitgang. Meer nog… Zuid-Korea is wereldleider inzake AI

Sinds 2013 heeft Zuid-Korea besloten om autonome wachtposten langs de grens met Noord-Korea te installeren: de SGR-A1 is een door Samsung ontwikkelde bewakingsrobot die de toegang van een persoon tot het gedemilitariseerde gebied tussen twee Korea's detecteert. De robot is uitgerust met krachtige dag- en nachtbewakingscamera's, infraroodcamera's en sensoren die een bewegend doelwit binnen een straal van 4 kilometer detecteren. Wanneer een menselijk doelwit is gedetecteerd, stuurt de robot een signaal naar de centrale en wordt een waarschuwingsbericht naar de indringer gestuurd terwijl hij dit blijft observeren. Een mens moet daarom in het controlecentrum blijven en beslissen over de reactie van de robot. Hij kan met de indringer communiceren via de microfoons en luidsprekers op de robot en kan uiteindelijk beslissen of de robot het doelwit doodt of niet. De robot beslist zelf of hij zijn machinegeweer of granaatwerper gebruikt, afhankelijk van de situatie, dankzij zijn AI. Voorlopig worden deze robots dus geleid door mensen, maar ze zouden zich volledig autonoom kunnen ontwikkelen als ze daarvoor geprogrammeerd worden.

De inzet van deze robots maakt het mogelijk dat honderden Zuid-Koreaanse soldaten voor andere missies kunnen worden ingezet en dit tot grote tevredenheid van de Koreaanse regering.

Militair gewin

De voordelen van autonome wapens zijn talrijk, niet alleen vanuit strategisch oogpunt, maar ook en vooral vanuit economisch oogpunt. Het is duidelijk dat het financiële aspect een van de belangrijkste oorzaken van deze revolutie is.

De Amerikaanse krant "The Fiscal Times" heeft berekend dat het veel goedkoper is om autonome wapens in te zetten in plaats van echte soldaten. Het schatte bijvoorbeeld dat in 2013 elke Amerikaanse soldaat die in Afghanistan wordt ingezet, de Amerikaanse regering ongeveer 850.000 dollar per jaar heeft gekost. Deze aanzienlijke kosten worden verklaard door het salaris, de steeds geavanceerdere apparatuur en de zorg die wordt geboden, maar ook door enorme transportkost.

Het kost +/- 230.000 dollar om de MULTIPURPOSE UNMANNED TACTICAL TRANSPORT te produceren. Het toestel zou één op de vier soldaten in een typische brigade van 4.000 man kunnen vervangen. De resulterende besparingen zouden 620.000 dollar per vervangen soldaat opleveren en dus 620 miljoen dollar per brigade.

Daarnaast zijn autonome wapens zeer interessant vanuit strategisch oogpunt. Ze zijn veel resistenter dan mensen, ze zijn nooit moe, hebben geen wroeging of aarzeling, zijn niet onderhevig aan onoplettendheid en gehoorzamen aan alle bevelen omdat ze verstoken zijn van gevoelens. Ze zijn dus perfect voor lange en eentonige taken zoals grensbewaking, vanuit een basis, .... Zo is Zuid-Korea erin geslaagd om middelen te besparen en soldaten voor andere missies terug te winnen, terwijl het tegelijkertijd een even doeltreffende controle van zijn grens heeft weten te behouden en het budget dat het land hiervoor had vooropgesteld heeft verminderd.

Dankzij deze autonome systemen zullen legers minder behoefte hebben om zorg en voedsel te vervoeren of kampen in opstandige gebieden voor te bereiden, aangezien alleen de aanwezigheid van wachtrobots voldoende zal zijn om in het veld aanwezig te blijven. Menselijke verliezen zullen ook aanzienlijk worden beperkt doordat autonome systemen in gebieden met onmiddellijk gevaar zullen worden ingezet in plaats van soldaten.

Deze autonome systemen zouden ook effectiever zijn dan mensen in de strijd, met bijna geen reactietijd, onberispelijk observatievermogen en superieure aanvalskracht. Het zal daarom zeer moeilijk zijn voor menselijke soldaten om het te halen van autonome wapens. De sensoren en camera's die op de systemen worden geplaatst, zorgen ervoor dat ze nooit buiten schot blijven en altijd weten waar de vijanden zich bevinden. De verschillende wapens die op de systemen zijn geplaatst (mitrailleurs, granaatwerpers, mortieren, enz.) zullen de wapensystemen in staat stellen om op alle soorten situaties te reageren. Het oordeel van deze autonome systemen kan nooit worden beïnvloed door gevoelens of aarzeling voordat ze bijvoorbeeld op een doelwit schieten, omdat ze geen emoties of vrees voelen. Ze zullen betrouwbaarder en effectiever zijn dan welke soldaat dan ook.

Internationaal protest

De afgelopen jaren hebben NGO's en AI-deskundigen met alle middelen geprobeerd regeringen van grote landen ervan te weerhouden SALA's te ontwikkelen door de negatieve aspecten van het gebruik ervan te benadrukken.

In 2015 publiceerden meer dan duizend wetenschappers, deskundigen en bedrijfsleiders die werkzaam zijn in de AI of robotica een open brief met het verzoek aan regeringen om de ontwikkeling van SALA te verbieden. In de brief leggen zij uit dat als een land effectief autonome wapens zou gaan inzetten, de andere grote landen dit voorbeeld zouden moeten volgen, met als argument dat dit zal leiden tot een vermindering van de menselijke verliezen en dat men zo een militair voordeel voor de tegenstander wil vermijden.

Volgens de voorspelling van de wetenschappers zal het inzetten van autonome wapens sommige landen ertoe aanzetten hetzelfde te doen zonder deze voldoende te hebben getest, hetgeen ernstige incidenten zoals burgerslachtoffers zal veroorzaken (autonome wapens die geen onderscheid maken tussen een burger of militaire vijand). Een mogelijk gevolg zou kunnen zijn dat autonome wapens plots op de zwarte markt verschijnen en in handen vallen van terroristische groeperingen die nog dodelijker aanslagen willen organiseren, of voor dictators die hun gezag willen bevestigen.

The Campaign to stop Killer Robots

De Campaign to Stop Killer Robots werd opgericht in oktober 2012. Het is een coalitie van niet-gouvernementele organisaties (NGO's) die zich inzet voor een verbod op volledig autonome wapens en daarmee een zinvolle menselijke controle over het gebruik van geweld wil behouden. De coalitie telt in september 2019 113 organisaties uit 57 landen. De werking er van wordt gecoördineerd door Human Rights Watch, die zich hoofdzakelijk bezighoudt met de bescherming van de mensenrechten. In ons land is Pax Christi Vlaanderen lid van het netwerk, in Nederland de Vredesorganisatie PAX.

Het doel van de organisatie is om wettelijk kader te creëren voor de ontwikkeling van autonome wapens. Aanvankelijk wilde het netwerk alle SALA’s verbieden, ook de semiautomatische en de gecontroleerd autonome wapens, in de overtuiging dat een mens altijd de uiteindelijke beslissing moet nemen om een vijand te doden of niet, maar het netwerk moest haar focus verleggen omwille van de koppigheid van sommige landen die blijven investeren in volledig autonome wapens. SALA's moeten altijd gehoorzamen aan menselijke bevelen, de mens die ze leidt moet altijd toegang hebben tot de informatie die door SALA's wordt doorgegeven. Wapenssystemen moeten daarom op het niveau van gecontroleerde autonomie blijven en mogen nooit de capaciteit verwerven dat zelf volledig autonoom te kunnen beslissen.

Volledig autonome wapens hebben problemen

  1. Volledig autonome wapens zouden bepalen wie er leeft en sterft, zonder enige of verdere menselijke tussenkomst, wat een morele drempel overschrijdt.
  2. De VS, China, Israël, Zuid-Korea, Rusland en het Verenigd Koninkrijk ontwikkelen inmiddels wapensystemen met een aanzienlijke autonomie in de kritische functies van het selecteren en aanvallen van doelen, maar finaal is er nog steeds menselijke controle. Als deze controle er niet meer is, kan de wereld in een destabiliserende robotwapenwedloop terechtkomen.
  3. Het vervangen van troepen door machines zou de beslissing om ten strijde te trekken gemakkelijker kunnen maken en de last van het conflict nog verder naar de burgerbevolking kunnen verschuiven. Volledig autonome wapens kunnen tragische fouten maken met onverwachte gevolgen die de spanningen verder doen escaleren.
  4. Volledig autonome wapens zouden het menselijke oordeel missen dat nodig is om de noodwendigheid van een aanval te beoordelen, om de burger van de strijder te onderscheiden en om andere kernbeginselen van het oorlogsrecht na te leven. De geschiedenis leert dat het gebruik ervan zich niet zou beperken tot bepaalde omstandigheden.
  5. Het is onduidelijk wie, als er al iemand is verantwoordelijk zou kunnen worden gesteld voor onwettige handelingen veroorzaakt door een volledig autonoom wapen: de programmeur, de fabrikant, de commandant en de machine zelf. Dit verschil in verantwoording zou het moeilijk maken om gerechtigheid te garanderen, vooral voor slachtoffers.
  6. Volledig autonome wapens kunnen worden gebruikt in andere omstandigheden buiten gewapende conflicten, zoals bij grenscontrole en politie. Ze zouden kunnen worden gebruikt om protest in de kiem te smoren en steun verlenen dictatoriale regimes. Niet-dodelijk geweld kan nog steeds veel doden veroorzaken.

De oplossing volgens The Campaign to stop Killer robots

De ontwikkeling, productie en het gebruik van autonome wapens moet volledig worden verboden.

  1. De Campagne pleit voor behoud van zinvolle menselijke controle over doelwit- en aanvalsbeslissingen door de ontwikkeling, productie en het gebruik van volledig autonome wapens te verbieden. Wettigen van het verbod door middel van nationale wetten en internationale verdragen.
  2. Alle landen moeten hun mening geven over de bezorgdheden die door volledig autonome wapens opdoemen en zich ertoe verbinden een nieuw verbodsverdrag op te stellen om het beginsel van een zinvolle menselijke controle op het gebruik van geweld in te voeren.
  3. Alle technologiebedrijven en -organisaties en individuen die werken aan de ontwikkeling van kunstmatige intelligentie en robotica moeten beloven om nooit bij te dragen aan de ontwikkeling van volledig autonome wapens.

Met de steun van de Verenigde Naties:

Antonio Guterres, secretaris generaal van de Verenigde Naties, in een toespraak over SALA’s

“Het bewapenen van artificieel intelligente instrumenten vormt een ernstig gevaar en het vooruitzicht dat machines uit zichzelf doelen kunnen kiezen en vernietigen creëert enorme problemen of zal enorme problemen veroorzaken om de toename van conflicten te voorkomen en ervoor te zorgen dat het internationaal humanitair recht en de mensenrechten op het slagveld worden geëerbiedigd.

Voor mij is er één boodschap, en die is heel erg duidelijk. Machines die de kracht en de beoordelingsvrijheid hebben om te beslissen om over mensenlevens te beslissen zijn politiek onaanvaardbaar, zijn moreel verwerpelijk en zouden door het internationale recht verboden moeten worden.”

Het standpunt van België

In de Kamer van volksvertegenwoordigers is een resolutie goedgekeurd die bepaalt dat volledig automatische wapens, "killer robots", nooit door ons land gebruikt mogen worden. Als ze er ooit komen, zal ons land ze nooit toelaten of gebruiken. België is het eerste land dat zo'n preventief verbod goedkeurt. Onderzoek naar volledig automatische wapens kan wel nog in ons land.

TOELICHTING

DAMES EN HEREN,
We leven in de tijd van de vierde industriële revolutie, waarin de introductie van automatisering, robotisering en artificiële intelligentie met rasse schreden vooruitgaat. Het is niet de bedoeling van deze resolutie om deze belangrijke technologische evolutie te kortwieken door een rem te zetten op onderzoek en innovatie, maar om te verhinderen dat producten ervan door de Belgische Defensie zouden aangewend worden met het doel mensen te doden in oorlogsomstandigheden. “Killer robots”, ook “killerbots” of “killer drones” genoemd in de populaire media, zijn de gebruikelijke namen die aan gerobotiseerde wapensystemen gegeven worden en die, zo vrezen sommigen, in de toekomst zouden kunnen ingezet worden om mensen op een machinale manier om te brengen. Dergelijke wapensystemen zijn een beschaafd land onwaardig en moeten verboden worden, liefst wereldwijd door middel van internationale overeenkomsten, maar het verbod op het gebruik ervan door individuele landen kan een krachtig signaal geven naar de anderen en als te volgen voorbeeld dienen.

De “Human Rights Council” van de Verenigde Naties had in 2014 reeds zijn diepe bezorgdheid uitgedrukt in resolutie A/HRC/25/L.32 over de burgerslachtoffers die veroorzaakt werden in “counter terrorisme”-operaties door het gebruik van “remotely piloted aircraft” of gewapende drones. De aanleiding hiervoor was het gebruik van gewapende drones sinds het begin van deze eeuw in onder meer Afghanistan, Pakistan, Yemen, Somalië en Irak, voorlopig enkel in de strijd tegen het terrorisme, omdat zulks door de gebruikers als “wettige zelfverdediging” wordt omschreven. De “legaliteit” van dit soort operaties blijft echter zeer gecontesteerd, ook door het International Court of Justice1. Wat echter meer bezorgdheid opwekt is wat de rol van dergelijke wapensystemen zal zijn als het niet over “counter terrorisme”- operaties zal gaan. Internationaal wordt gewaarschuwd tegen “killer robots” en wordt onderzocht of een nieuw “juridisch bindend instrument” tot de mogelijkheden behoort. 

In december 2016 besliste de vijfjaarlijkse herzieningsconferentie van de Conventie voor Conventionele Wapens (CCW) om in 2017 een “Groep van Gouvernementele Experten” bijeen te roepen die zich onder meer zal buigen over de definitie van “dodelijke autonome wapensystemen”, de veiligheidsrisico’s eraan verbonden en de ethische en legale aspecten vooral in overeenstemming met het internationale humanitaire recht. In een open brief waarschuwden onder meer Stephen Hawking, Elon Musk en een duizendtal prominente academici, onderzoekers en publieke figuren de maatschappij voor “killer robots”.

De Commissie Landsverdediging organiseerde een uiterst interessante hoorzitting over autonome wapensystemen op 6 december 2017. De talrijke sprekers leerden ons dat zogenaamde “volledig autonome wapens” nog niet bestaan en dat er ook nog geen universele definitie over bestaat. Er was wel een brede consensus dat wetenschappelijk onderzoek en innovatie op het vlak van automatisering en artificiële intelligentie zeker niet mogen verboden worden, maar dat machines die mensen doden zonder dat iemand daarvoor rekenschap moet afleggen niet kunnen. Het verleden heeft aangetoond dat modernisering en automatisering bijdraagt tot minder fouten en slachtoffers, ook in militaire operaties, dankzij een betere precisie en “situation awareness”. Een positieve invloed van “artificiële intelligentie” op het verhinderen van burgerslachtoffers en het vermijden van menselijke fouten wordt dus wel aangemoedigd. Er was duidelijk een consensus tegen “killer robots”, maar niet tegen wetenschappelijk onderzoek en technologische vooruitgang.

De commissie Landsverdediging organiseerde ook een hoorzitting over drones of onbemande vliegtuigen op 14 maart 2018. Aan deze hoorzitting namen experten uit de commerciële, de militaire en de academische wereld deel. Naast een overzicht van wat drones tot nu toe verwezenlijkt hebben werd er vooral gewezen op het enorme potentieel voor de toekomst. In het domein defensie was er een consensus tussen alle deelnemers dat drones en vliegtuigen complementair zijn in militaire operaties. Zij benadrukten dat de toegevoegde waarde en het groeipotentieel van drones vooral in niet-gewapende opdrachten lag. Deze trend wordt ook bevestigd in toekomstige ontwikkelingen op het vlak van militaire drones.
Oorlog is onmenselijk, maar “des mensen”. Enkel mensen kunnen de schade en het leed binnen de perken houden. Daarom is het onontbeerlijk dat de mens van dichtbij betrokken is bij het geweld en het volle gewicht voelt van de verantwoordelijkheid voor zijn oorlogsdaden. België hoeft niet te wachten op wat anderen

VOORSTEL VAN RESOLUTIE

DE KAMER VAN VOLKSVERTEGENWOORDIGERS,

A. gelet op de aanbevelingen tijdens de hoorzitting over autonome wapens in de parlementaire commissie voor de Landsverdediging op 6 december 2017;
B. gelet op de aanbevelingen tijdens de hoorzitting over drones in de parlementaire commissie voor de Landsverdediging op 14 maart 2018;
C. is van mening dat de ontwikkeling van robotica en intelligente technologie op zich geen probleem vormt, maar dat de inzet ervan in militaire operaties belangrijke ethische en humanitaire problemen kan teweegbrengen;
D. gelet op de resolutie A/HRC/25/L.32 van 24 maart 2014 van de “Human Rights Council” van de Verenigde Naties waarin deze hun diepe bezorgdheid uitdrukken over de burgerslachtoffers die veroorzaakt werden in “counter terrorisme”-operaties door het gebruik van “remotely piloted aircraft” of gewapende drones;
E. gelet op de resolutie 2014/2567(RSP) van het Europees Parlement van 27 februari 2014 over de inzet van gewapende drones, in het bijzonder het punt 2waarin opgeroepen wordt “om gewapende drones op te nemen in alle relevante Europese en internationale regelingen inzake ontwapening en controle op wapens.”;
F. wijst erop dat de vijfjaarlijkse herzieningsconferentie van de Conventie voor Conventionele Wapens (CCW) in december 2016 besliste om een “Groep van Gouvernementele Experten” bijeen te roepen die zich onder meer zal buigen over de definitie van “dodelijke autonome wapensystemen”, de eraan verbonden veiligheidsrisico’s en de ethische en legale aspecten, vooral overeenkomstig het internationale humanitaire recht;
G. gelet op de resultaten van het Verdrag van Ottawa uit 1997 (dat antipersoonsmijnen verbiedt) en
de Conventie van Oslo uit 2008 (over clustermunitie), die voorbeelden zijn van een verbod op humanitair ontoelaatbare wapens en waarin België een voortrekkersrol speelde;

KAMER 5e ZITTING VAN DE 54e ZITTINGSPERIODE 2017 2018 VERZOEKT DE FEDERALE REGERING:

1. deel te nemen aan de internationale werkgroepen in het kader van de Verenigde Naties en van de Conventie voor Conventionele Wapens (CCW) in het bijzonder, om te werken aan een internationaal erkende definitie voor “killer robots” en om te bepalen welk soort wapens onder deze categorie vallen in de toekomst;
2. er in internationale fora voor te ijveren, samen met gelijkgezinde landen, om tot een wereldwijd verbod te komen op het gebruik van volledig geautomatiseerde “killer robots” en gewapende drones;
3. er voor te zorgen dat de Belgische Defensie nooit “killer robots” zal inzetten in militaire operaties;
4. de ontwikkeling en het gebruik van robottechnologie voor burgerdoeleinden te steunen.

15 juni 2018

Peter BUYSROGGE (N-VA) - Richard Miller (MR) - Veli YÜKSEL (CD&V) - Tim VANDENPUT (Open Vld) - Karolien GROSEMANS (N-VA) - Rita BELLENS (N-VA)
En in maart 2019 bevestigde minister van Buitenlandse Zaken en Defensie Didier Reynders dat België binnen de VN zal ijveren voor zo’n internationaal verbod.

 

Laatste stand van zaken

Tussen 19 en 21 augustus 2019 vond in Genève diplomatiek overleg plaats tussen VN-lidstaten over de toekomstige regulering van 'killer robots'. De Verenigde Naties (VN) buigen zich inmiddels sinds 2013 over de uitdagingen die de ontwikkeling van volledig autonome wapensystemen stelt. Experts beschrijven dergelijke wapensystemen immers als de 'derde revolutie in oorlogsvoering' (na de uitvinding van buskruit en kernwapens) en de 'Kalasjnikovs van morgen', die het gezicht van oorlogsvoering in de 21ste eeuw zullen transformeren.

Diplomaten onderhandelden drie dagen lang over een tekst die bepaalde hoe de VN-besprekingen over killer robots er de komende twee jaren zullen uitzien. België speelde een constructieve rol tijdens de VN-gesprekken. Maar voorlopig zonder succes. Rusland en de Verenigde Staten wilden elke ambitieuze passage uit de slottekst schrappen. De nachtelijke onderhandelingen resulteerden in een flauwe en inspiratieloze slottekst. VN-lidstaten komen op 15 november 2019 opnieuw samen in Genève om deze slottekst verder te bespreken en al dan niet goed te keuren.

The Campaign to Stop Killer Robots zal dan ook opnieuw van de partij zijn, en diplomaten aansporen om een ambitieuze tekst aan te nemen die leidt tot onderhandelingen over een internationaal verbodsverdrag.