Autonomous Weapons: Das KI-Hippokrates – Warum die Tech-Konzerne die falschen Schlachten schlagen
Im Februar 2026 stellte das US-Kriegsministerium Anthropic ein Ultimatum: Entweder das Unternehmen streicht seine Einschränkungen für autonome Waffensysteme und Massenüberwachung aus dem 200-Millionen-Dollar-Vertrag – oder es verliert alles. Anthropic weigerte sich. Präsident Trump ordnete den Ausschluss des Unternehmens aus allen Regierungssystemen an, Verteidigungsminister Hegseth stufte Anthropic als "Lieferkettenrisiko" ein. [1] Stunden später verkündete OpenAI seinen eigenen Pentagon-Deal – mit "roten Linien", die auf genau denselben Regierungsrichtlinien basieren, die das Pentagon jederzeit einseitig ändern kann. [2]
Die Reaktion der Tech-Welt: Applaus für Anthropics Standhaftigkeit, Kritik an OpenAIs Pragmatismus. Aber beide Seiten dieser Debatte übersehen das eigentliche Problem. Die Frage ist nicht, welches Unternehmen die bessere Ethik hat. Die Frage ist, warum wir überhaupt erwarten, dass gewinnorientierte Unternehmen die letzte Instanz für Entscheidungen über Leben und Tod im Krieg sein sollten.
Die Illusion der korporativen Ethik
Anthropics Position verdient Respekt. Das Unternehmen hat auf mehrere hundert Millionen Dollar Umsatz verzichtet, Geschäftsbeziehungen mit Firmen gekappt, die Verbindungen zur Kommunistischen Partei Chinas unterhalten, und seine KI-Modelle proaktiv in die klassifizierten Netzwerke der US-Regierung integriert – für Geheimdienstanalyse, Operationsplanung, Cyber-Operationen. [3] Anthropics Einwand gegen autonome Waffen war nicht naiv-pazifistisch, sondern technisch begründet: Frontier-KI-Systeme seien schlicht nicht zuverlässig genug, um vollautonome tödliche Entscheidungen zu treffen. [4]
Aber hier beginnt das strukturelle Problem. Anthropics "rote Linien" sind keine Gesetze. Sie sind Unternehmenspolitik. Sie existieren, solange der aktuelle CEO sie vertritt, solange der Vorstand sie mitträgt, solange die Investoren sie tolerieren. Dario Amodei leitet Anthropic heute mit einer klaren Überzeugung. Aber Amodei ist sterblich, austauschbar, absetzbar. Was passiert, wenn der nächste CEO pragmatischer denkt? Wenn ein feindlicher Übernahmeversuch die Eigentümerstruktur verschiebt? Wenn ein geopolitischer Konflikt die Kalkulation ändert?
OpenAIs Entwicklung illustriert dieses Muster bereits. Im Januar 2024 strich das Unternehmen sein generelles Verbot militärischer Nutzung – leise, ohne große Ankündigung. [5] Sam Altmans "rote Linien" beim Pentagon-Deal klingen Anthropics Positionen verblüffend ähnlich: keine Massenüberwachung, keine autonomen Waffen. Aber der entscheidende Unterschied: OpenAIs Vertrag referenziert bestehende Pentagon-Richtlinien als Grundlage dieser Einschränkungen. Richtlinien, die das Pentagon als Vertragspartner einseitig ändern kann. Wie Stuart Russell, einer der führenden KI-Sicherheitsforscher, anmerkte: "Man kann das Verteidigungsministerium nicht vertraglich an Regeln binden, die es selbst ändern kann." [2]
Das ist kein Versäumnis von OpenAI. Es ist eine strukturelle Unmöglichkeit. Kein privatwirtschaftlicher Vertrag kann die Exekutivgewalt eines Staates dauerhaft einschränken. Und kein Unternehmen – egal wie aufrichtig seine Gründer – kann Prinzipien garantieren, die über seine eigene Existenz hinausreichen.
Der hippokratische Fehlschluss
Die Analogie, die in dieser Debatte fehlt, ist die naheliegendste: die Medizin. Der hippokratische Eid – "Erstens: nicht schaden" – funktioniert nicht, weil einzelne Pharmaunternehmen sich freiwillig daran halten. Er funktioniert, weil eine ganze institutionelle Architektur ihn trägt: Ärztekammern, die Lizenzen vergeben und entziehen. Ethikkommissionen, die Forschung überwachen. Peer-Review-Prozesse, die Verstöße aufdecken. Rechtsprechung, die Missbrauch sanktioniert. Internationale Konventionen, die Grenzen setzen.
Kein einziges dieser Elemente existiert für militärische KI.
Was wir stattdessen haben, ist das Äquivalent einer Welt, in der Pfizer, Roche und Johnson & Johnson eigenständig entscheiden, welche Medikamente ethisch vertretbar sind – ohne FDA, ohne Ärztekammer, ohne Patientenschutzgesetze. In der einzelne CEOs zwischen "verantwortungsvoller Innovation" und Marktanteilen abwägen, ohne dass eine unabhängige Institution ihre Entscheidungen überprüft. Genau das ist der aktuelle Zustand der militärischen KI-Governance.
Die UN und das Internationale Komitee vom Roten Kreuz drängen seit Jahren auf ein rechtsverbindliches globales Abkommen zur Regulierung letaler autonomer Waffensysteme (LAWS) – mit einem Zieltermin 2026. [6] Der UN-Generalsekretär hat ein Verbot von LAWS ohne menschliche Aufsicht gefordert. [7] Aber der Fortschritt ist minimal. Die geopolitische Realität – ein technologisches Wettrüsten zwischen den USA, China und Russland – macht jede multilaterale Vereinbarung zum diplomatischen Drahtseilakt. Und während die Diplomaten verhandeln, schaffen Unternehmen Fakten.
Die strukturelle Unmöglichkeit korporativer Kontrolle
Ein offener Brief von Mitarbeitern bei Google und OpenAI unterstützte Anthropics Haltung gegenüber dem Pentagon. [4] Das erinnert an 2018, als Google nach internem Protest das Project Maven aufgab – eine Zusammenarbeit mit dem Pentagon zur KI-gestützten Drohnenbildanalyse. [8] Damals feierte die Techbranche den Rückzug als Triumph der Ethik. Sechs Jahre später verhandeln dieselben Unternehmen über weitaus tiefgreifendere militärische Anwendungen.
Das ist kein Widerspruch. Es ist die Logik des Systems. Unternehmen unterliegen Kräften, die ihre ethischen Positionen auf Dauer aushöhlen:
Gewinnorientierung. Anthropics Bewertung wird auf über 60 Milliarden Dollar geschätzt. OpenAI hat gerade eine Finanzierungsrunde über 122 Milliarden Dollar abgeschlossen. [9] Investoren erwarten Rendite. Ein 200-Millionen-Dollar-Vertrag mit dem Pentagon ist ein Tropfen im Ozean – aber das Signal, das ein Ausschluss aus Regierungsverträgen sendet, beeinflusst die gesamte Bewertungslogik. Wie lange kann ein Unternehmen "Nein" sagen, wenn "Nein" den Börsenwert gefährdet?
Führungswechsel. Google ging 2018 aus Project Maven. Sundar Pichai verhandelt 2026 mit dem Pentagon über Gemini-Integrationen. Was sich geändert hat, ist nicht die Ethik – sondern das Management, der Marktdruck, die geopolitische Lage. Unternehmensprinzipien haben die Halbwertszeit einer Vorstandssitzung.
Geopolitische Abhängigkeiten. Trumps Anordnung gegen Anthropic zeigt die nukleare Option: Wer sich weigert, wird nicht nur ausgeschlossen, sondern als Sicherheitsrisiko gebrandmarkt. [1] Das ist kein subtiler Druck. Es ist ein existenzielles Signal an jedes andere KI-Unternehmen: Kooperation oder Ausgrenzung.
Regulatorische Asymmetrie. In einem echten regulatorischen Framework kann kein einzelnes Unternehmen bestraft werden, weil es ethische Standards einhält – weil alle Unternehmen denselben Standards unterliegen. Ohne ein solches Framework wird ethisches Verhalten zum Wettbewerbsnachteil. Anthropic verliert den Pentagon-Vertrag. OpenAI gewinnt ihn. Die Lektion für den Rest der Branche ist eindeutig.
Was der Arzt weiß und der CEO nicht
Die Medizin hat Jahrhunderte gebraucht, um ihre institutionelle Ethik-Infrastruktur aufzubauen. Die militärische KI hat diese Zeit nicht. Aber die Architekturprinzipien sind übertragbar.
Eine unabhängige Lizenzierungsinstanz. Nicht das Pentagon entscheidet, welche KI-Systeme für autonome Kriegsführung geeignet sind. Nicht OpenAI oder Anthropic. Sondern eine Behörde, die nach technischen, ethischen und sicherheitsrelevanten Kriterien zertifiziert – analog zur Zulassungsbehörde für Arzneimittel. Die Lawfare-Analyse zur militärischen KI-Governance bestätigt: Procurement-Verträge sind kein Ersatz für regulatorische Governance. [10] Einzelne Beschaffungsentscheidungen können keine kohärente, langfristige Politik ersetzen.
Peer-Review für militärische KI-Systeme. Bevor ein Medikament auf den Markt kommt, durchläuft es unabhängige klinische Studien. Bevor ein KI-System autonome tödliche Entscheidungen treffen darf, sollte es eine vergleichbare unabhängige Prüfung durchlaufen – nicht durch den Hersteller, nicht durch den Auftraggeber, sondern durch eine dritte Instanz mit Zugang zu den technischen Details und ohne finanzielles Interesse am Ergebnis.
Persönliche Haftung. Ärzte können ihre Approbation verlieren. Ingenieure können ihre Zulassung verlieren. Wer verliert seine Zulassung, wenn ein autonomes Waffensystem Zivilisten tötet? Heute: niemand. Die akademische Forschung bestätigt, dass autonome Waffen die moralische Verantwortlichkeit im Krieg fundamental untergraben. [11] Ohne persönliche Haftung bleibt Verantwortung ein abstrakter Begriff.
Transnationaler Rahmen. Der hippokratische Eid gilt nicht nur in einem Land. Die Genfer Konventionen gelten nicht nur für eine Armee. Ein Regulierungsrahmen für militärische KI, der nur in einem Land gilt, ist nutzlos – er verschiebt lediglich die Entwicklung in weniger regulierte Jurisdiktionen. Nature fordert daher ein Moratorium für KI im Krieg, bis internationale Gesetze vereinbart sind. [7]
Die unbequeme Wahrheit
Anthropic hat richtig gehandelt. Aber die eigentliche Lektion aus dem Pentagon-Debakel ist nicht, dass Anthropic mutig war – sondern dass Mut allein keine Governance-Strategie ist. Ein System, in dem die ethische Kontrolle über autonome Waffen davon abhängt, ob ein einzelner CEO an einem einzelnen Freitagnachmittag standhaft bleibt, ist kein System. Es ist ein Glücksspiel.
Die EFF warnt zurecht: Tech-Unternehmen sollten nicht in Überwachung gedrängt werden. [12] Aber die Gegenseite – dass Tech-Unternehmen allein die ethische Brandmauer gegen militärischen Missbrauch bilden – ist genauso naiv. Unternehmen sind die falschen Institutionen für diese Aufgabe. Nicht weil ihre CEOs schlechte Menschen wären. Sondern weil Unternehmen strukturell nicht für dauerhafte ethische Garantien gebaut sind.
Die Tech-Branche schlägt die falsche Schlacht. Sie debattiert, ob Anthropic oder OpenAI die richtigere Position haben. Die richtige Debatte wäre: Welche Institution jenseits von Unternehmen und kurzfristigen Regierungen sollte die Kontrolle über militärische KI ausüben? Wer schreibt den hippokratischen Eid der KI – und wer erzwingt ihn?
Solange diese Frage unbeantwortet bleibt, bleibt jede "rote Linie" eines Tech-Unternehmens das, was sie ist: eine freiwillige Selbstverpflichtung. Aufrichtig gemeint, aber strukturell wertlos. Denn der nächste CEO, der nächste Vorstandsbeschluss, die nächste geopolitische Krise kann sie jederzeit aufheben. Und dann gibt es keine Ärztekammer, die die Lizenz entzieht.
Referenzen
- Eskalation zwischen Anthropic und dem US-Kriegsministerium über KI-Nutzungsbeschränkungen, Anthropic Statement, 2026
https://www.anthropic.com/news/statement-comments-secretary-war - OpenAI's 'compromise' with the Pentagon is what Anthropic feared, MIT Technology Review, 2026
https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/ - Positionierung zu KI-Einsätzen im Verteidigungsbereich, Anthropic Statement, 2026
https://www.anthropic.com/news/statement-department-of-war - Deadline Day for Autonomous AI Weapons & Mass Surveillance, YouTube, 2026
https://www.youtube.com/watch?v=Cru804JMjPI - OpenAI on Surveillance and Autonomous Killings: You're Going to Have to Trust Us, The Intercept, 2026
https://theintercept.com/2026/03/08/openai-anthropic-military-contract-ethics-surveillance/ - Governing Lethal Autonomous Weapons in a New Era of Military AI, TRENDS Research, 2026
https://trendsresearch.org/insight/governing-lethal-autonomous-weapons-the-future-of-warfare-and-military-ai/ - Stop the use of AI in war until laws can be agreed, Nature, 2026
https://www.nature.com/articles/d41586-026-00762-y - I lived through Google's AI-military crisis. Here's why engagement still matters, SF Standard, 2026
https://sfstandard.com/opinion/2026/04/03/google-maven-anthropic-pentagon-ai/ - OpenAIs strategische Finanzierung und Frameworks für KI-Verhalten, OpenAI News, 2026
https://openai.com/news/rss.xml - Military AI Policy by Contract: The Limits of Procurement as Governance, Lawfare, 2026
https://www.lawfaremedia.org/article/military-ai-policy-by-contract--the-limits-of-procurement-as-governance - The ethical legitimacy of autonomous weapons systems, Tandfonline, 2025
https://www.tandfonline.com/doi/full/10.1080/16544951.2025.2540131 - Tech Companies Shouldn't Be Bullied Into Doing Surveillance, EFF, 2026
https://www.eff.org/deeplinks/2026/02/tech-companies-shouldnt-be-bullied-doing-surveillance