A Hamász terrorszervezet ellen küzdő Izrael a napokban heves nemzetközi kritikák célpontjává vált, miután az izraeli védelmi erők (IDF) hét halálos áldozattal járó rakétatámadást intéztek egy járműkonvoj ellen, ami a World Central Kitchen nevű humanitárius szervezethez tartozott, vagyis semmiféle veszélyt nem jelentett.
A hadsereg későbbi beszámolója alapján az illetékesek tévesen úgy gondolták, hogy a járművek terroristákat szállítanak, a tragédia miatt azonban az IDF átfogó vizsgálatot indított, hogy ne ismétlődhessen meg az eset. Egy friss jelentés most arra utal, hogy akár a mesterséges intelligenciának is szerepe lehetett az ártatlan segítők halálában.
A napokban két izraeli lap, a +972 és a Local Call publikált egy közös oknyomozó anyagot, amely azt állítja, hogy a hadsereg egy Lavender nevű mesterséges intelligenciás rendszert használ a bombázásra kijelölt célpontok azonosítására, ez viszont közel sem működik megbízhatóan. A megoldást állítólag rögtön bevetették a gázai háborút kiprovokáló október 7-i terrortámadása után, egy ponton pedig egyszerre 37 ezer palesztint jelölt meg potenciális célpontként.
A Lavender AI felépítéséhez a Hamász és az Iszlám Dzsihád terrorszervezetek ismert ügynökeire vonatkozó információkat tápláltak be egy adathalmazba, egy bennfentes szerint viszont olyan emberek is bekerültek a szórásba, akik csak lazán kapcsolódtak a terroristákkal összefüggésbe hozható személyekhez. A mesterséges intelligenciát arra képezték ki, hogy bizonyos jellemzők (pl. tagság egy WhatsApp-csoportban, a telefonszám és a lakcím gyakori váltogatása) alapján egy 1-100-as skálán rangsorolja annak valószínűségét, hogy egy adott illető a Hamászhoz tartozik-e, egy bizonyos küszöbérték felett pedig légicsapást javasol.
A jelentés alapján viszont a rendszer csak 90 százalékos pontossággal működik, vagyis a potenciális célpontok 10 százaléka ártatlan ember lehetett. A cikk bennfentes forrásai szerint a hírszerzők ennek ellenére magas toleranciaküszöbbel dolgozhattak, így a háború első heteiben az alacsonyabb rangú Hamász-ügynökök elleni támadásoknál 15-20, a magasabb rangú terrorgyanús személyek kiiktatásánál pedig akár "több száz" főnyi járulékos (értsd: civil) veszteséget engedélyezhetett a hadvezetés.
A CNN érdeklődésére válaszolva az izraeli hadsereg szóvivője nem tagadta a Lavender létezését, viszont úgy nyilatkozott, hogy a szakértőknek "független vizsgálatot" kell folytatniuk a javasolt célpontok tényleges bombázása előtt. Az oknyomozó jelentés hírszerzési forrásai ezzel szemben azt állítják, hogy a gyakorlatban nem kötelező az eljárás, így esetenként lényegében csak jóváhagyták az algoritmus döntéseit.
A Lavender ráadásul nem az egyetlen AI-megoldás, amit az izraeliek bevethetnek a háborúban: a napokban a The New York Times számolt be egy másik rendszerről, ami arcazonosítás segítségével próbálja kiszúrni a terroristákat, de olyan pontatlanul működik, hogy még a Google Fotók is lepipálja, ez pedig téves letartóztatásokhoz és kínvallatásokhoz vezethetett. A +972 és a Last Call jelentése szerint pedig egy harmadik mesterséges intelligenciás rendszer (Where's Daddy? néven) is létezik, ami folyamatosan nyomon követi a Lavender által kijelölt célpontokat, és akkor mér csapást rájuk, amikor hazaérnek, végezve az egész családjukkal.