Drohne und Soldat

Autonom agierende Drohnen könnten so programmiert werden, dass sie gezielt Menschen angreifen. © vadimrysev / Depositphotos

Autonome Waffen entscheiden über Leben und Tod

Martin Born / Martina Frei /  Rüstungsfirmen setzen auf KI, um Waffensysteme zu steuern und zu vernetzen – ohne Regulierung oder Leitplanken.

An der «Eurosatory», der internationalen Ausstellung für Verteidigung und Sicherheit in Paris, war die Stimmung letzten Sommer euphorisch. Die 2000 Aussteller, so viele wie noch nie, übertrafen sich mit Waffensystemen, die mit Hilfe von Künstlicher Intelligenz, schneller, effizienter, einfacher, sicherer und präziser werden sollen. «Die Zahl der Systeme mit Künstlicher Intelligenz explodiert», erfuhren die Zuschauer der Sendung «Nano» von 3 Sat, es herrsche «Aufbruchsstimmung in der Rüstungsbranche». 

Die Rüstungsfirma Rheinmetall beispielsweise entwickelt eine «digitale Brigade». Fahrzeuge und Drohnen würden schon miteinander «sprechen», erläuterte der  Firmenvertreter Armin Krenn gegenüber «Nano». Nun gehe es darum, Soldaten und Satelliten einzubinden. Das Ziel sei die «multidomain operation», bei der Land-Luft-See und Weltraum zusammenarbeiten – natürlich mit KI.

Die Künstliche Intelligenz solle helfen, Ziele zu finden, zu identifizieren und zu zerstören. «Die Reise wird dahingehen, dass sich die Waffensysteme noch besser vernetzen», sagt der Rheinmetall-Mitarbeiter vor der Kamera.

Rasend schnelle Informationsverarbeitung unzähliger Daten, selbstlernend und ohne Emotionen – diese «Vorteile» werden bei der Kriegs-KI herausgestrichen. Die Software der intelligenten Waffensysteme könne nach dem Motto «trial and error» dazu lernen und Lösungen entwickeln, so die Versprechungen. 

Drohnen, Panzer, U-Boote würden von den immer besser werdenden Informationen profitieren. Die letzte Entscheidung würde aber immer noch beim Menschen liegen – heisst es. Noch. 

Doch der Bericht zeigt auch: Es könnte auch bald die KI sein, welche die Entscheidungen trifft. 

Während die Hersteller davon sprechen, dass die KI «den Bediener entlasten» solle, warnt Karl-Heinz Bläsius, KI-Experte der Hochschule Trier, in der Sendung «Nano»: «Der Mensch kann allein aufgrund der kürzeren Zeit und der höheren Komplexität die Lage gar nicht mehr bewerten, er kann nur noch annehmen, was die Künstliche Intelligenz von ihm verlangt.» Es geht dabei um Entscheidungen innerhalb von Sekunden. 

Schreckensvideo zum Thema Autonome Waffen von «autonomousweapons.org».

Drohnenschwärme lernen bei jedem Einsatz

Führend im autonomen Wettrüsten: Die USA, China und Israel. Doch auch die Europäer wie Airbus und die erwähnte Firma Rheinmetall sind dabei. 

Die US-Firma «Shield AI» etwa baut Drohnen, die zur Aufklärung, aber auch bewaffnet im Schwarm daherkommen. Sie verständigen sich untereinander und lernen angeblich «mit jedem Einsatz dazu». Das führe dazu, dass genau unterschieden werden könne, wer Freund und Feind sei, sagt der Hersteller, dessen erste Drohne mit 16 Kameras ausgestattet ist. «Es kommt drauf an, wie gut die Sensoren sind», erläutert eine Mitarbeiterin. 

«Das ist nicht verlässlich», widerspricht KI-Experte Bläsius. Weil es keine fehlerfreie Software gebe und die zu verarbeitenden Informationen vage, unsicher und unvollständig seien, könnten auch KI-Systeme nicht zuverlässig entscheiden. 

Bläsius warnt auch davor, dass die KI den Stand der menschlichen Intelligenz bald erreichen und übertreffen könne. Die «Superintelligenz» sei «völlig unkalkulierbar». Den Menschen könnte die Kontrolle in vielen Bereichen entgleiten. Falls die KI beispielsweise den Informationsfluss im Internet beherrschen würde, könnte das Finanzwesen weitgehend zusammenbrechen. Das führe zu gravierenden Problemen – bis hin zu einem erhöhten Atomkriegsrisiko.

Für die 2012 gegründete Dachorganisation «Stop Killer Robots» mit mehr als 250 Mitgliedsorganisationen, die auf ein Verbot der autonomen Kriegsführung hinarbeitet, sind die verheerenden Auswirkungen der KI-gesteuerten Waffensysteme schon jetzt sichtbar: «Seit der UN-Generalversammlung im vergangenen Jahr haben Berichte über den Einsatz militärischer KI-Tools durch Israel im Gazastreifen gezeigt, welch verheerende und inakzeptable Schäden entstehen können, wenn versucht wird, die Gewalt durch KI und Automatisierung zu beschleunigen.»

«Es gibt bei der KI-Entwicklung keine Grenzen», sagt Bläsius. 

«Nano» zufolge debattieren Regierungsexperten an der Uno seit etwa 10 Jahren unverbindlich darüber, was bei den autonomen Waffensystemen ethisch und völkerrechtlich vertretbar sei – «bisher erfolglos». Österreich etwa fordere ein Verbot vollautonomer Kampfautomaten. Deutschland trete bei der Regulierung «auf die Bremse». Gelinge die Regulierung nicht bald, «könnten Konflikte in Maschinengeschwindigkeit ausgelöst oder zum Eskalieren gebracht werden».

Das Fazit der Sendung «Nano» letzten Sommer: «Die Büchse der Pandora ist geöffnet – es bleibt nur noch die Hoffnung.»

Uno-Resolution gegen Autonomie in Waffensystemen

Am 5. November 2024 verabschiedete nun der Erste Ausschuss der UN-Generalversammlung die Resolution L.77, der 161 Staaten zustimmten. 13, darunter die USA, enthielten sich der Stimme, drei waren dagegen: Israel, Russland und die Ukraine. 

In der von Österreich und 26 mittragenden Staaten eingereichten Resolution geht es gemäss «Stop Robot Killer» um diese Bedenken:  

  • Die negativen Folgen und Auswirkungen autonomer Waffensysteme auf die globale Sicherheit und die regionale und internationale Stabilität einschliesslich des Risikos eines aufkommenden Wettrüstens.
  • Die Verschärfung bestehender Konflikte und humanitärer Krisen 
  • Fehlkalkulationen
  • Die Senkung der Schwelle für und die Eskalation von Konflikten. 
  • Die Verbreitung, auch an nicht autorisierte Empfänger und nichtstaatliche Akteure.

Weiterführende Informationen


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

Bildschirmfoto20170526um16_19_51

Angriffe mit unbemannten Drohnen

Sie sollen Terroristen treffen, möglichst keine Zivilisten. Sie schaffen Feinde und sind oft rechtswidrig.

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Eine Meinung zu

  • am 13.12.2024 um 13:39 Uhr
    Permalink

    Ob mit KI Menschen umgebracht werden oder ohne KI, was spielt das für eine Rolle? Auch werden sich die Grossmächte und Israel sich kaum an Richtlinien halten, denen geht es nicht um Menschenleben, sondern eine «Spielfiguren». Einer mehr oder weniger stört sie nicht. Es geht um eigene Macht und um Wirtschaftsinteressen, darum müssen Tausende daran glauben. Es ist traurig aber wahr. Das wird sich auch in Zukunft kaum ändern.

Ihre Meinung

Lade Eingabefeld...