De gewetenloze strijd tussen Israël en Hamas

Al meer dan tien jaar worstelen militaire experts, advocaten en ethici met de vraag hoe dodelijke autonome wapensystemen, soms ook wel killer-robots genoemd, onder controle kunnen worden gehouden. Eén antwoord was om menselijk toezicht te houden – om ervoor te zorgen dat een mens altijd elke beslissing om dodelijk geweld te gebruiken goedkeurde. Dat nachtmerrie-achtige visioen van oorlog met mensen die ogenschijnlijk de controle hebben, maar geen echt begrip hebben van hun daden, waarbij ze 'op de automatische piloot' doden, lijkt in Gaza werkelijkheid te zijn geworden.


In 2021 publiceerde het hoofd van de Israëlische inlichtingendienst een boek over het ontwerpen van een speciale machine die een oplossing zou kunnen bieden voor wat hij omschreef als een menselijk knelpunt voor het lokaliseren en goedkeuren van doelen in een oorlogsituatie. Uit een recent onderzoek blijkt dat het Israëlische leger een op kunstmatige intelligentie gebaseerd programma heeft ontwikkeld dat precies dàt doet.

Er is een uitgebreid onderzoeksrapport (link hier) verschenen waarin het gebruik van A.I. bij bombardementen op Gaza wordt beschreven, waardoor het menselijke oordeel vrijwel wordt geëlimineerd over wanneer en of het bombarderen van een structuur om een vermoedelijke Hamas-agent te doden gerechtvaardigd is, waardoor de nieuwe oorlog mechanisch, meedogenloos en onmenselijk wordt uitgevoerd, zelfs volgens de maatstaven van eerdere oorlogvoering.

Degenen die tot nu toe hebben verdedigd wat zij ‘Israël’ noemen, kunnen nu mogelijk eervol terugdeinzen als ze zich realiseren dat dit niet het ‘Israël’ is dat ze ooit kenden, maar eerder een Israël dat is uitgebreid en ingehaald door een niet-aanwezig geweten. AI-technologie kent veel programma's, met duivelse, zelfs sarcastische namen, zoals: 'Where's daddy?' of  ‘The Gospel.’  En niet te vergeten de belangrijkste, genaamd: ‘Lavender.’

Volgens zes Israëlische inlichtingenofficieren met ervaring uit de eerste hand is de Lavender kunstmatige intelligentie (A.I). De machine bepaalde wie er moest worden gedood en de uitkomsten werden met militaire discipline gehoorzaamd. Tijdens de eerste weken van de 'oorlog tegen Hamas' wees het Lavender-systeem ongeveer 37.000 Palestijnen aan als doelwit en voerde luchtaanvallen uit op hun huizen. Ondanks dat men wist dat het systeem ongeveer 10% van de tijd fouten maakt, vond men het niet nodig om de gegevens van de machine te controleren. Net als elk ander AI-systeem is Lavender duidelijk onvolmaakt, maar de context is belangrijk. Als ChatGPT 10% van de tijd hallucineert, vinden we dat misschien oké. Maar als van een A.I.-systeem 10% van de tijd het doelwit moord op onschuldige burgers is, zouden de meeste mensen dat waarschijnlijk als een onaanvaardbaar niveau van schade beschouwen.

Deze technologische sprong in de afgrond maakt ‘oorlogvoering’ koud, mechanisch en orgiastisch. Het menselijke element wordt verwijderd, samen met het schuldige geweten dat normaal gesproken zou weigeren. “Alles was statistisch, alles was netjes, het was erg droog.” Het vertegenwoordigt een bedreiging voor de mensheid die zo diep en groot is dat het bijna onvoorstelbaar is, en overstijgt de ‘gevoelens’ van vóór 7 oktober over het Israëlisch-Palestijnse conflict.

Het Israëlische leger viel de beoogde personen systematisch 's nachts aan, in hun huizen, terwijl hun hele familie aanwezig was. Een geautomatiseerd systeem dat bekend staat als "Where's daddy?" werd gebruikt om de beoogde personen te volgen en bomaanslagen uit te voeren toen ze de woningen van hun familie binnengingen. Het voor de hand liggende resultaat was dat duizenden vrouwen en kinderen werden weggevaagd door Israëlische luchtaanvallen. Volgens deze Israëlische inlichtingenofficieren bombardeerde de IDF hen als eerste optie in huizen. En bij verschillende gelegenheden werden hele gezinnen vermoord terwijl het eigenlijke doelwit zich niet binnen bevond. In één geval werden vier gebouwen vernietigd, samen met iedereen die erin zat, omdat zich in één ervan een enkel doelwit bevond.

Als het om doelen ging die door het A.I. Lavendelsysteem als 'low level' werden gekwalificeerd, werden goedkopere bommen gebruikt die hele gebouwen verwoestten, waarbij vooral burgers en hele gezinnen omkwamen. Dit werd gedaan omdat de IDF geen dure bommen wilde verspillen aan mensen die zij als onbelangrijk beschouwden.

Er werd besloten dat voor elke Hamas-strijder op laag niveau die door Lavender werd gemarkeerd, het toegestaan was om vijftien tot twintig burgers te doden. En als het doelwit een hoge Hamas-functionaris was, waren meer dan honderd burgerslachtoffers acceptabel.

De meeste van deze A.I. doelen werden vóór de oorlog nooit gevolgd. De Lavender-software analyseerde informatie verzameld over de 2,3 miljoen inwoners van de Gazastrook via een systeem van massasurveillance, beoordeelde de waarschijnlijkheid dat elke persoon een militant was en gaf een beoordeling van 1 tot 100. Als de beoordeling hoog genoeg was, dan werden samen zij met hun hele familie vermoord. Lavendel markeerde individuen met patronen die vergelijkbaar waren met die van Hamas. Inclusief politie, burgerbescherming, familieleden en bewoners met vergelijkbare namen en bijnamen.

En hoewel veel mensen beweren dat Israël de VS de baas is, zei president Joe Biden dat Israël de Amerikaanse belangen dient:

Er is geen verontschuldiging nodig. Geen enkele. Het is de beste investering van 3 miljard dollar die we hebben gedaan. Als er geen Israël was geweest, zouden de Verenigde Staten van Amerika een Israël moeten uitvinden om haar belangen in de regio te beschermen."
 

De mainstream media hebben wel over dit gebruik van kunstmatige intelligentie geschreven, de laatste tijd, zie bijvoorbeeld hier, maar de teneur van de artikelen is toch vooral dat het hier een 'slim' systeem is wat gebruikt is. En ook al die 'deskundigen' die op tv in talloze talkshows optreden (inclusief (oud) politici en veelal gepensioneerde leunstoel-generaals) zwijgen over de onmenselijke praktijken die het Israëlische leger er vooral in het begin van de 'oorlog' er op na gehouden heeft.

Voor de goede orde: het Israëlische leger (IDF) ontkent de werkwijze zoals beschreven in het rapport. In een verklaring aan de Britse The Guardian verklaarden ze: "Lavender is eenvoudigweg een database die tot doel heeft inlichtingenbronnen met elkaar te vergelijken." Als dit waar is, betekent dit echter dat we een gevaarlijke Rubicon zijn overgestoken in de manier waarop deze systemen worden gebruikt in oorlogsvoering. We hebben het hier wel over systemen die mensen het leven kosten. Dit maakt het debat over de vraag of ze gebruikt moeten worden, en zo ja hoe ze te gebruiken, enorm moeilijk, maar ook urgent.

Met de opkomst van A.I.-systemen op de werkvloer lijkt het onvermijdelijk dat legers over de hele wereld technologieën als Lavender zullen gaan adopteren. Landen over de hele wereld, waaronder de VS, hebben miljarden gereserveerd voor A.I.-gerelateerde militaire uitgaven, wat betekent dat de internationale wetten voor het A.I.-tijdperk zo snel mogelijk moeten worden bijgewerkt. We moeten weten hoe nauwkeurig deze systemen zijn, op welke gegevens ze worden getraind, hoe hun algoritmen doelen identificeren, en we moeten toezicht houden op het gebruik van deze systemen. Het is niet overdreven om te zeggen dat nieuwe wetten op dit gebied letterlijk het verschil betekenen tussen leven en dood.









[Alle links, bronnen, documenten en meer informatie uitsluitend voor abonnee's]



[14 april 2024]

 

Afdrukken Doorsturen