Israel brukte kunstig intelligens for å identifisere og angripe potensielle Hamas-mål. The Guardian avslører om det innovative «Lavender»-programmet

Mer enn 37 000 potensielle mål mistenkt for koblinger til den palestinske gruppen Hamas har blitt identifisert av den israelske hæren gjennom et kunstig intelligenssystem kalt «Lavender», avslører The Guardian, som konsulterte flere etterretningskilder involvert i Gaza-krigen.

Israelske angrep på byen Rafah i GazaFoto: Ismael Mohamad / UPI / Profimedia

Israels bruk av dette systemet representerer inngangen til et uutforsket land for avansert krigføring og reiser spørsmål om moralen til slike avgjørelser, så vel som deres lovlighet, påpeker den britiske publikasjonen, sitert av news.ro.

«Dette er enestående, så vidt jeg kan huske,» sa en etterretningsoffiser, som sa at myndighetene hadde mer tro på en «statistisk mekanisme» enn soldater som var vitne til grusomhetene 7. oktober. «Maskinen gjorde (målvalg nr.) uten følelser. Og det gjorde det lettere», forklarte etterretningsoffiseren

En annen bruker av lavendelsystemet bekreftet at menneskets rolle i utvelgelsesprosessen er ubetydelig. «Jeg investerer 20 sekunder per mål på dette stadiet og gjør dusinvis av slike valg hver dag. Jeg har null merverdi som menneske annet enn å være et stempel. Det sparer mye tid», innrømmet han.

Vitnesbyrdene fra seks etterretningsoffiserer, alle involvert i bruken av kunstige intelligenssystemer for å identifisere Hamas og palestinske islamske jihad (PIJ) mål under krigen, ble spilt inn av journalisten Yuval Abraham for den israelsk-palestinske publikasjonen +972 Magazine og det hebraiske språket Local Call, nevner The Guardian. Kontoene deres ble delt eksklusivt med The Guardian før publisering.

Alle seks sa at lavendel spilte en sentral rolle i krigen, og behandlet store mengder data for raskt å identifisere potensielle «junior» agenter å målrette mot. Fire av kildene sa at lavendel på et tidspunkt i den tidlige krigen listet opp til 37 000 palestinske menn som AI-systemet knyttet til Hamas eller PIJ.

Lavendel ble utviklet av elite etterretningstjenesteavdelingen til Israel Defense Forces, Unit 8200, sammenlignbar med US National Security Agency eller Storbritannias GCHQ.

Sivile ble offer for lavendelsystemet

Flere kilder har sagt at sivile har blitt offer for AI-angrep, og israelske myndigheter har innført forhåndsgodkjente kvoter for det estimerte antallet sivile som kan bli drept før en streik er autorisert.

To kilder sa at de i de første ukene av krigen fikk drepe 15 eller 20 sivile under luftangrep på lavere rangerte militanter.

Angrep på slike mål ble vanligvis utført ved hjelp av ustyrt ammunisjon, kjent som «dumme bomber», som var i stand til å ødelegge hele hus og drepe alle beboerne deres, sa kildene.

«Du vil ikke kaste bort dyre bomber på uviktige mennesker – det er veldig dyrt for landet og det er mangel (på slike bomber),» sa en etterretningsoffiser. En annen offiser sa at hovedspørsmålet de sto overfor var om » sideskade» på sivile tillot et angrep.

«Selv om et angrep unngås, ikke bry deg – gå videre til neste mål umiddelbart. På grunn av systemet tar målene aldri slutt. Du har fortsatt 36 000 som venter på deg,» sa en offiser.

Hvis Israel brukte «dumme bomber» for å sprenge hjemmene til tusenvis av palestinere som var knyttet, med AI, til militante grupper i Gaza, kan dette bidra til å forklare det sjokkerende høye dødstallet, ifølge konflikteksperter i krig.

Helsedepartementet i det Hamas-styrte territoriet sier at 32 000 palestinere har blitt drept i konflikten de siste seks månedene. FN-tall viser at bare i den første måneden av krigen led 1340 familier flere tap, med 312 familier som mistet mer enn 10 medlemmer.

Hvordan Israel reagerer

Den israelske hæren motarbeidet, gjennom en uttalelse, at dens operasjoner ble utført i samsvar med proporsjonalitetsreglene gitt av internasjonal lov, og at de «dumme bombene» er et «standardvåpen» brukt av pilotene på en måte som sikrer » et høyt presisjonsnivå».

Hærens uttalelse beskrev Lavender som en database som ble brukt «for å kryssreferanser informasjonskilder for å produsere oppdaterte lag med informasjon om militære operatører av terrororganisasjoner.»

– Militæret bruker ikke et kunstig intelligenssystem som identifiserer terroristagenter eller prøver å forutsi om en person er en terrorist, sier Israeluil. «Datasystemer er bare verktøy for analytikere i målidentifikasjonsprosessen.»

Hvor mange personer er i systemet

I tidligere israelske militæroperasjoner var identifisering av menneskelige mål ofte en mer arbeidskrevende prosess. Beslutningen om å «inkriminere» en person eller identifisere dem som et legitimt mål ble diskutert og deretter signert av en juridisk rådgiver.

I ukene og månedene etter 7. oktober akselererte dette mønsteret med å godkjenne angrep på menneskelige mål dramatisk, ifølge kildene. Ettersom bombardementet av Gaza intensiverte, sa de, ba befalene om en jevn strøm av mål.

«Vi var konstant under press: gi oss flere mål. De ropte virkelig på oss,» sa en etterretningsoffiser. «Vi ble fortalt: nå må vi beseire Hamas, uavhengig av kostnadene. Bomb alt du kan,» sa kilden også.

For å møte denne etterspørselen har militæret kommet til å stole sterkt på lavendelsystemet for å generere en database med personer som anses å ha egenskapene til en Hamas- eller Islamsk Jihad-militant.

Lavender opprettet en database med titusenvis av mennesker som ble markert som overveiende lavt rangerte medlemmer av Hamas» militære fløy. Det ble brukt sammen med et annet AI-basert beslutningsstøttesystem kalt Gospel, som anbefalte bygninger og strukturer som mål i stedet for mennesker.

Beretningene inkluderer vitnesbyrd om hvordan etterretningsoffiserer jobbet med Lavender og hvordan rekkevidden til nettverket hans kunne justeres. «På sitt høydepunkt klarte systemet å generere 37 000 mennesker som potensielle menneskelige mål,» sa en av kildene. «Men tallene endret seg hele tiden, fordi det avhenger av hvor du setter grensen for hva en Hamas-agent betyr,» forklarte kilden.

«Det var tider da en Hamas-operativ ble definert bredere, og da begynte maskinen å bringe oss alle slags sivilforsvarsmedlemmer, politifolk, som det ville være synd å kaste bort bomber på. De hjelper Hamas-regjeringen, men de setter egentlig ikke soldatene i fare,» sa kilden.

Før krigen estimerte USA og Israel antallet Hamas-medlemmer til rundt 25-30 000 mennesker.

Rating
( No ratings yet )
admin/ author of the article
Loading...