calendar tag arrow download print
Doorgaan naar inhoud

Terwijl de militaire AI-drone slachtoffers maakt, kijkt de mens weg

Artikel
12 augustus 2024

Het doembeeld van de killer robot – een autonoom wapensysteem dat een doelwit selecteert en aanvalt zonder betekenisvolle menselijke controle – komt gevaarlijk dichtbij, stellen Linda Kool en Rinie van Est (Foto: Shutterstock)

Image
Militairen lopen met onbemande drones

Bij de inzet van drones die met behulp van AI dodelijke aanvallen uitvoeren, worden steeds meer burgerslachtoffers geaccepteerd, zien onderzoekscoördinatoren Rinie van Est en Linda Kool.

Landen als Amerika, Rusland en Israël maken veelvuldig gebruik van gewapende drones tijdens oorlogen of hun strijd tegen terrorisme. De normen die landen zichzelf daarbij opleggen, zijn vervaagd. Zo sterk, dat grote aantallen burgerslachtoffers inmiddels op de koop toe worden genomen. Van betekenisvolle menselijke controle op de technologie is haast geen sprake meer. Het is zaak dat het Nederlandse kabinet het voortouw neemt bij het maken van internationale afspraken, die paal en perk stellen aan de inzet van gewapende drones.

Tussen 2014 en 2019 voerde een geheime eenheid van het Amerikaanse leger talloze bombardementen uit in Syrië. In 2021 deed de New York Times uit de doeken hoe deze eenheid verschillende veiligheidsmaatregelen afschaalde. Zo werden eerder voordat een aanval plaatsvond, verschillende informatiebronnen (van inlichtingendiensten, troepen ter plaatse, of camerabeelden) gecombineerd. Nu beriep het team zich op zelfverdediging ter rechtvaardiging van doelgerichte moordaanvallen. Hierdoor werden de eerdere strenge eisen aan de controle van doelwitinformatie versoepeld. Ook was het niet langer noodzakelijk om toestemming voor een aanval te vragen aan een generaal; een sergeant ter plaatse voldeed. Zo konden meer drone-aanvallen worden uitgevoerd. Met meer aanvallen steeg ook het aantal burgerslachtoffers – het waren er tien keer zoveel als bij soortgelijke Amerikaanse operaties in Afghanistan.

 

In de internationale discussie over robotoorlogsvoering staat de noodzaak van betekenisvolle menselijke controle al jarenlang centraal.

Momenteel maakt Israël tijdens de Gaza-oorlog veelvuldig gebruik van gewapende drones. Volgens +972 Magazine, een samenwerking tussen Palestijnse en Israëlische journalisten, identificeert Israël met behulp van de AI-software Lavender duizenden menselijke doelwitten. Het programma selecteert ook doellocaties voor drone-aanvallen. De nauwkeurigheidsgraad van de AI-doelwitbepaling is 90 procent; het risico op onschuldige burgerslachtoffers is dus groot.

Menselijke controle op die AI-informatie wordt nu alleen nog toegepast voor hooggeplaatste Hamas-leden. Bij aanvallen op deze leden werd aan het begin van de oorlog een maximumaantal van honderd burgerslachtoffers als acceptabel beschouwd. Voor het uitschakelen van lagere Hamas-leden werd vóór de oorlog geen enkele burgerdode geaccepteerd. Nu gelden vijftien tot twintig burgerslachtoffers als acceptabel. Diverse experts wijzen erop dat vooraf vastgestelde toleranties voor burgerslachtoffers niet in overeenstemming zijn met het internationaal recht, dat stelt dat voor elke militaire actie per geval een afweging gemaakt dient te worden.

Steeds grotere rol

De informatie uit bovenstaande voorbeelden is om logische redenen niet openbaar en wordt door officiële woordvoerders – eveneens om logische redenen – ontkend. Noodgedwongen moeten we daarom afgaan op journalistieke verslaggeving. Als we aannemen dat deze gedegen is, maken de voorbeelden duidelijk dat AI-systemen een steeds grotere rol spelen in gewapende conflicten en dat militaire normen daarmee vervagen. De snelheid van oorlogsvoering neemt toe, met minder tijd voor menselijke controle van de informatie uit de AI-systemen, en minder controle vanuit hogergeplaatste bevelhebbers.

Zo is van betekenisvolle menselijke controle op AI-systemen nauwelijks sprake meer. Het doembeeld van de killer robot – een autonoom wapensysteem dat een doelwit selecteert en aanvalt zonder die betekenisvolle menselijke controle – komt daarmee gevaarlijk dichtbij.

Gezien de toenemende inzet van gewapende drones, is het cruciaal om duidelijke richtlijnen op te stellen.

In de internationale discussie over robotoorlogsvoering staat de noodzaak van betekenisvolle menselijke controle al jarenlang centraal. Het Nederlandse kabinet stelt dat volledig autonome wapensystemen per definitie verboden zijn onder internationaal recht. Hoewel daarvoor groeiende internationale steun is, ontbreken concrete afspraken nog steeds.

Gezien de toenemende inzet van gewapende drones, is het cruciaal om duidelijke richtlijnen op te stellen. Vragen die dringend beantwoord moeten worden, zijn onder andere: hoe dient informatie over menselijke doelwitten te worden verzameld? Hoe betrouwbaar moet die informatie te zijn? Wie mag als doelwit worden beschouwd? Wie mag de beslissing nemen om een menselijk doelwit te doden? Hoeveel burgerslachtoffers acht men in welke situatie acceptabel? En hoe dienen aanvallen te worden geëvalueerd?

Antwoorden op deze vragen zullen de huidige praktijk niet direct veranderen. Toch zijn ze essentieel om de ethische achteruitgang van het afgelopen decennium te stoppen. Het is opmerkelijk dat militaire applicaties niet zijn opgenomen in bijvoorbeeld de nieuwe Europese AI-wet. De Nederlandse grondwet verplicht onze regering zich actief in te zetten voor de bevordering van de internationale rechtsorde. Daarom moet Nederland in Europees en NAVO-verband het voortouw nemen om afspraken te maken die de inzet van autonome en semi-autonome gewapende drones reguleren.

Dit opinieartikel verscheen eerder in het NRC.

Gerelateerde publicaties