Interview mit Rainer Rehak: „Die Nutzung solcher KI-Systeme muss als Kriegsverbrechen eingestuft werden“
Stichproben hätten gezeigt, dass „Lavender“ in zehn Prozent der Fälle gar keine legitimen Ziele markierte. Selbst bei den Zielen, die sogenannte „legitime Ziele“ waren, genehmigte das israelische Militär, dass für jeden mutmaßlichen Hamas-Kämpfer fünf bis 20 Zivilist:innen getötet werden können.
[…]
Bei „Lavender“ war es manchmal sogar so, dass sie alle aktuellen Ziele, die das System ausgespuckt hatte, angegriffen hatten, aber, salopp gesagt, trotzdem noch Bomben für den Tag übrig hatten. Deshalb sollen sie sich dafür entschieden haben, die sowieso schon geringen Genauigkeitsanforderungen noch weiter herunterzusetzen. Sie haben also an ein paar Parametern gedreht und den Fokus ungenauer gemacht, dann produziert das System weitere Ziele. Diese Möglichkeiten sind ein Beispiel für Skalierungs-Effekte.
Als Mensch würde man vielleicht auf die Karte gucken und zufällig auf Häuser zeigen. Das wäre eindeutig Willkür und ganz furchtbare Kriegspraktik. Wenn es aber eine Maschine macht, bekommt das so eine Art „Goldstaub des Gezielten“. Das stimmt aber nicht und das wissen diejenigen, die es einsetzen, auch genau. Trotzdem benutzen sie es so.
Wenn der eigentliche Kombatant zum “Collateral Damage” wird…
Warum gegen die Verantwortlichen noch kein Prozess läuft ist mit schleierhaft.,