KI im Krieg digital magazin

Mit künstlicher Intelligenz gesteuerte Waffen sollen zielgenauer sein. Die Fehlerquote ist hoch. © digital-magazin

Der Rüstungswettlauf mit KI-Systemen birgt grosse Risiken

Albrecht Kieser /  Die KI kann falsche militärische Ziele identifizieren und riskiert vom Feind manipuliert zu werden. Zwei KI-Expertinnen warnen.

KI-Unternehmen balgen sich um lukrative Rüstungsaufträge. Zwei Mitarbeiterinnen des AI-Now-Institute in New York halten dies für problematisch. Das AI-Now-Institute ist eine politikwissenschaftliche Forschungseinrichtung mit Schwerpunkt Künstliche Intelligenz. Es hat bereits Expertisen für das US-Handelsministerium erstellt. Heidy Khlaaf, leitende Wissenschaftlerin am Institut, und ihre CEO Sarah Myers West warnten am 27. Januar 2025 in der «New York Times» , die KI im Krieg übereilt einzusetzen.

Die Big Player der KI-Branche, die um die angekündigten 500 Milliarden Dollar KI-Investitionen der Trump-Administration buhlen («Stargate»), wollen über ihren bisherigen Geschäftsrahmen hinauswachsen und suchen derzeit enge Verbindungen mit Rüstungsunternehmen wie Lockheed Martin oder Booz Allen. 

OpenAI (Chat GPT, Microsoft) und Meta (Facebook und Co) sind mit von der Partie, aber auch das Startup Scale AI und ein anderer Jungspund, Anduril. In Zusammenarbeit mit den Rüstungskonzernen wollen sie dafür sorgen, dass das Militär Bomben, Raketen und Drohnen mithilfe von KI zielgenauer einsetzen kann. 

Der Ansatz ist nicht neu, schon vor Jahresfrist hatte Palentir von der Biden-Regierung einen Auftrag über 178 Millionen US-Dollar erhalten, um den «präzisen» Krieg durch den Einsatz von KI voranzubringen. Neu ist allerdings der Umfang der in Aussicht gestellten Investitionen durch Trump.

Die beiden Autorinnen warnen vor blauäugigen Hoffnungen auf «saubere» chirurgische Schläge gegen etwelche Feinde und zitieren kritische Militärs, die das ähnlich sehen. Aus mehreren Gründen: Zum einen liefern die Systeme sehr ungenaue Zielvorgaben. So fand 2021 eine unabhängige Studie eine Treffergenauigkeit KI-gesteuerter Angriffe von lediglich 25 Prozent. Das ist gleichbedeutend mit 75 Prozent «Kollateralschäden», Massakern an Zivilisten also. Die behaupteten 90 Prozent Trefferquote sei ein Märchen der Militärlobby.

Was den Einsatz von KI im Krieg zudem gefährlich macht: Die KI empfiehlt allzu oft falsche Ziele. Diese seien «halluziniert», wie die Autorinnen es nennen. Die KI liegt also nicht nur mit den empfohlenen Zielkoordinaten allzu oft daneben, sondern auch mit der Wahl der Ziele selbst. Der KI sei «blanker Unsinn» bislang nicht auszutreiben, erklären die Wissenschaftlerinnen. Wer schon häufiger Chat GPT um eine konkrete Antwort auf eine konkrete Frage gebeten hat, kann davon ein Lied singen. Bloss sind die Folgen nicht so blutig wie das, was die KI «im Feld» anrichtet.

Beide Fehlerquellen seien möglicherweise ein Grund für die grosse Zahl getöteter Zivilisten im Gaza-Krieg, meinen die Autorinnen. Denn die israelische Armee habe nach Angaben eines israelischen Investigativjournalisten die Ziele ihres Bombenkrieges mithilfe von KI ausgewählt.


«Auswirkungen schon jetzt sichtbar»

upg. Für die 2012 gegründete Dachorganisation «Stop Killer Robots» mit mehr als 250 Mitgliedsorganisationen, die auf ein Verbot der autonomen Kriegsführung hinarbeitet, sind die verheerenden Auswirkungen der KI-gesteuerten Waffensysteme schon jetzt sichtbar: «Berichte über den Einsatz militärischer KI-Tools durch Israel im Gazastreifen haben gezeigt, welch verheerende und inakzeptable Schäden entstehen können, wenn versucht wird, die Gewalt durch KI und Automatisierung zu beschleunigen.» Siehe Infosperber vom 13. Dezember 2024: «Autonome Waffen entscheiden über Leben und Tod – ohne Regulierung.

Ein weiteres Problem kommt hinzu: Wenn es um gezielte Tötungen von Personen geht, sind die extrem grossen Datenmengen, die zur Zielfindung ausgewertet werden, im Wesentlichen aus individueller Gesichtserkennung und individuellen Verhaltensmustern generiert. Grundlagen sind Daten, die von Nutzern von Internet und Social Media abgegriffen werden. Dieses von KI für den Kriegseinsatz gebündelt Material macht es interessant für Hacker aller Art. Sie können Daten für eigene Zwecke absaugen. Sie können sie aber auch manipulieren und für Kriegszwecke in eine andere Richtung lenken. Solche Einfallstore, so die Autorinnen, können nicht geschlossen werden, es sei denn, die Form der Datenaufarbeitung würde «grundlegend geändert».

Danach allerdings sieht es nicht aus. Im Gegenteil. Während unter Biden noch versucht wurde, sich diesem Problem zu nähern, hat die Trump-Administration entsprechende Regulierungsabsichten wieder zurückgefahren. Die Autorinnen setzen hier an und fordern, dass kommerziell gewonnene Daten keinen Eingang in die militärischen KI-Systeme finden. 

Das Fazit der beiden Autorinnen: Die «technischen Schwächen» des aktuellen Systems würden die nationale Sicherheit eher untergraben, als ihr nützen: «Eines Tages werden wir das zutiefst bereuen.»

Weiterführende Informationen


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Eine Meinung zu

  • am 7.02.2025 um 11:57 Uhr
    Permalink

    Hoffentlich bleib es nur beim Säbelrasseln…
    Die Vernichtungsmaschinerie ist einsatzbereit, kann beim geringsten Anlass in Gang gesetzt werden, wartet nur darauf, dass irgendein Besessener oder Geistesgestörter den «Knopf» drückt, oder dass ein defekter Computerchip das große Feuerwerk entfesselt. Erstaunlicher Weise macht man sich darüber jedoch recht wenig Gedanken. Millionen von Menschen wissen, dass ihr Dasein
    einer fortwährenden, unmittelbaren Bedrohung unterworfen ist, nehmen dieses aber widerspruchslos hin. Nur wenn der zornige Protest der Menschen überall in der Welt die Herrschenden zur Umkehr zwingt, kann die atomare Katastrophe abgewendet werden.
    Eine Gesellschaft, die sich systematisch weigert, zu erkennen, dass ihr physisches Überleben unmittelbar in Frage steht, und die keinen Schritt zu ihrer Rettung unternimmt, kann nicht als psychisch gesund bezeichnet werden.

Ihre Meinung

Lade Eingabefeld...