Israel, AI for å kjempe krigen mot Hamas? Hæren nekter

«Alle, inkludert meg, mistet noen 7. oktober. Maskinen gjorde det kult og gjorde ting enklere.» Dermed en israelsk etterretningstjenestemann som snakker om antatt
bidrag fra kunstig intelligens i krigen mot Hamas i Gaza og hvordan militæret foretrakk å stole på «en statistisk mekanisme» fremfor en sørgende soldat. I løpet av disse seks månedene har det israelske militæret faktisk brukt en database drevet av kunstig intelligens – kodenavnet «Lavendel» – for å identifisere 37 000 potensielle mål basert på tilsynelatende koblinger til Hamas, faktisk, avslører kilden sitert i en rapport. Som da innrømmer at høytstående israelske tjenestemenn også tillot drap på mange palestinske sivile, spesielt i løpet av de første ukene av konflikten. Men den israelske hæren benektet rapporten, i det minste delvis.

Den uvanlig ærlige beretningen gir en førstehåndsberetning om israelske etterretningstjenestemenns erfaringer med å bruke AI for å identifisere mål under den seks måneder lange krigen. Et uutforsket terreng fra et juridisk og moralsk synspunkt, som transformerer forholdet mellom militæret og maskiner. «Dette er enestående, i mitt minne,» sier en etterretningsoffiser som brukte lavendel, mens en annen påpeker at menneskets rolle i utvelgelsesprosessen er langt fra vesentlig. «På dette stadiet investerte jeg 20 sekunder i hvert mål, og gjorde dusinvis av dem hver dag. Jeg hadde ingen merverdi som menneske annet enn å være et godkjennelsesstempel. Jeg sparte mye tid.»

Der vitnesbyrd fra seks etterretningsoffiserer, alle involvert i bruken av AI for å identifisere målene til Hamas og Islamsk Jihad, ble gitt til journalisten Yuval Abraham for en artikkel publisert i det israelsk-palestinske magasinet +972 Magazine og for det hebraiskspråklige nettstedet Local Call og delt på forhånd med Guardian. Lavendel ble utviklet av den israelske forsvarsstyrkens elite etterretningsavdeling, Unit 8.200, som kan sammenlignes med US National Security Agency eller Storbritannias GCHQ.

Flere kilder har beskrevet hvordan, For visse kategorier av mål brukte IDF forhåndsgodkjente terskler for det estimerte antallet sivile som kunne bli drept før et angrep ble autorisert.. To kilder sa at i de første ukene av krigen fikk 15 eller 20 sivile bli drept under luftangrep mot lavtstående militanter. Angrep på slike mål ble utført med ustyrt ammunisjon kjent som «dumme bomber», sa kildene, og ødela hele hus og drepte alle beboerne.

«Du vil ikke kaste bort dyre bomber på uviktige mennesker, det er veldig dyrt for landet og det er mangel (på disse bombene)», rettferdiggjorde en etterretningsoffiser, mens en annen avslørte at hovedspørsmålet vi stod overfor var spørsmålet om hvorvidt «collateral damage» på sivile ville tillate et angrep. Og «selv om det unngås, bekymrer du deg ikke: du går umiddelbart videre til neste mål. På grunn av systemet tar målene aldri slutt. Det er ytterligere 36 000 som venter«.

IDF benekter det

Israel Defense Forces (IDF) benektet imidlertid i det minste en del av rapporten: «Det er det det kreves en uavhengig evaluering av en analytiker (av intelligens, red.), som bekrefter at de identifiserte er legitime mål for angrep, i samsvar med betingelsene fastsatt av IDF-direktiver og internasjonal lov«, sa den israelske hæren.

Les også

Rating
( No ratings yet )
admin/ author of the article
Loading...