USA gegen die eigene KI-Industrie: Wenn der Staat seine Innovatoren zum Feind erklärt
TLDR: Die US-Regierung hat Anthropic als "Supply Chain Risk" eingestuft und aus Bundesbehörden verbannt – weil das Unternehmen sich weigert, seine ethischen Leitplanken für Massenüberwachung und autonome Waffen aufzuheben. OpenAI springt in die Bresche, getrieben von einem jährlichen Verlust von 14 Milliarden Dollar und der Hoffnung auf Pentagon-Verträge. Das ist kein abstraktes Policy-Geplänkel, sondern ein handfester Machtkampf, der zeigt, wer am Ende die Spielregeln für KI-Einsätze bestimmt: die Firmen mit ihren Ethik-Commitments oder der Staat mit seinen Sicherheitsargumenten und Beschaffungshebeln.
Ein Konflikt, der keiner sein müsste
Ende Februar 2026 ordnete die Trump-Administration an, sämtliche Anthropic-Technologie aus US-Bundesbehörden zu entfernen. Die Begründung: "National Security" und "Supply-Chain-Risiken". Das klingt nach einer Reaktion auf chinesische Infiltration oder russische Cyberangriffe. Tatsächlich richtet sich diese Massnahme gegen ein amerikanisches Unternehmen aus San Francisco, das KI-Modelle mit eingebauten ethischen Leitplanken entwickelt.
Der Kern des Disputs ist überraschend simpel: Das Pentagon – seit September 2025 offiziell wieder als "Department of War" firmierend – verlangte von Anthropic, zwei spezifische Einschränkungen aus den Nutzungsbedingungen zu streichen. Erstens: das Verbot, Claude für Massenüberwachung amerikanischer Bürger:innen einzusetzen. Zweitens: das Verbot autonomer Waffensysteme, bei denen die KI eigenständig Tötungsentscheidungen trifft.
Anthropic-CEO Dario Amodei lehnte ab. Seine Argumentation: Claude sei schlicht nicht zuverlässig genug für autonome Tötungsentscheidungen, und Massenüberwachung verletze fundamentale demokratische Rechte. Die Antwort des Staates kam prompt und hart.
Die Instrumente des Drucks
Die Einstufung als "Supply Chain Risk" unter 10 U.S. Code § 3252 ist normalerweise ausländischen Gegnern wie Huawei vorbehalten. Für Anthropic bedeutet das konkret: Verteidigungsauftragnehmer wie Boeing, Lockheed Martin oder Raytheon müssen Claude aus ihren Systemen entfernen, um ihre eigenen Pentagon-Verträge nicht zu gefährden. Das ist keine symbolische Geste, sondern ein wirtschaftlicher Würgegriff.
Die Entwicklung dahin verlief schrittweise. Im Juli 2025 erhielt Anthropic noch einen Prototyp-Vertrag über 200 Millionen Dollar für "agentische KI". Von November 2024 bis Februar 2026 lief Claude über Palantir auf klassifizierten Netzwerken für Militär- und Geheimdienstoperationen. Als Anthropic-Mitarbeiter:innen Bedenken über den Einsatz in tödlichen Missionen äusserten, eskalierte die Situation.
Am 24. Februar 2026 traf Verteidigungsminister Pete Hegseth Dario Amodei persönlich und stellte ein Ultimatum: uneingeschränkte Nutzung von Claude für "jeden rechtmässigen Zweck" bis Freitag, den 27. Februar. Amodei lehnte ab. Drei Tage später war Anthropic aus dem Bundesmarkt draussen.
OpenAI springt ein – aus Überzeugung oder Verzweiflung?
In der Nacht zum 27. Februar 2026, nur Stunden nach dem Bruch mit Anthropic, verkündete OpenAI den Abschluss einer Vereinbarung mit dem Department of War. Sam Altman versicherte, das Pentagon respektiere die Prinzipien gegen Massenüberwachung und autonome Waffen. Die vertragliche Bindung an "rechtmässige Zwecke" überlässt allerdings die Definition dessen, was rechtmässig ist, dem DoW selbst.
Die Frage, warum OpenAI einknickend wo Anthropic standhaft blieb, beantwortet ein Blick auf die Bücher. OpenAI verbrennt Geld in einem Ausmass, das selbst hartgesottene Investoren nervös macht:
| Kennzahl | Projektion 2026 |
|---|---|
| Erwarteter Nettoverlust | 14 Milliarden USD |
| Kumulierter Cash-Burn bis 2029 | 115 Milliarden USD |
| Inferenzkosten pro 1 USD Umsatz | 1,69 USD |
| Angestrebte neue Finanzierung | 100 Milliarden USD |
Wenn du für jeden Dollar Umsatz 1,69 Dollar an Rechenkosten zahlst, sind Pentagon-Budgets keine Option mehr, sondern eine Überlebensfrage. Der Deal mit dem Department of War ist weniger strategische Wahl als existenzielles Muss.
Geopolitische Dimension: Mehr als ein Firmenstreit
Die Unterordnung führender KI-Labore unter militärische Anforderungen sendet Signale weit über Washington hinaus. China interpretiert die Entwicklung als Beweis dafür, dass die USA bereit sind, ihre gesamte technologische Kapazität für militärische Zwecke zu mobilisieren. Die "Operation Epic Fury" vom 28. Februar 2026 – massive Luftangriffe auf den Iran, bei denen laut Berichten Claude für Geheimdienstbewertungen und Zielidentifikation eingesetzt wurde – unterstreicht diese Lesart.
Das Paradox: Während die Politik Anthropic öffentlich diskreditiert, nutzt das Militär operativ weiterhin deren Technologie, oft über Partnerplattformen wie Palantir. Die Einstufung als Sicherheitsrisiko hindert niemanden daran, die Fähigkeiten zu verwenden – sie soll nur die Kontrolle über die Einsatzbedingungen verschieben.
Die eigentliche Machtfrage
Der "Krieg" zwischen dem US-Staat und seinen KI-Firmen dreht sich nicht um Technologie, sondern um Governance. Wer setzt die Einsatzlogik durch, wenn es wirklich brennt? Die Firma mit ihren Policies oder der Staat mit Sicherheitsargumenten und Beschaffungshebeln?
Die Antwort zeichnet sich ab: Sobald ein Unternehmen im klassifizierten Umfeld operiert, verschiebt sich die Machtbalance zugunsten des Staates. Erwartungsdruck wächst, "Scope Creep" setzt ein, asymmetrische Informationslagen entstehen. Selbst wenn heute Grenzen gelten, sind diese morgen oft bereits Geschichte.
Für europäische Beobachter:innen stellt sich die Frage, welche Lehren daraus zu ziehen sind. Die Abhängigkeit von US-amerikanischen KI-Systemen bedeutet auch eine Abhängigkeit von den Machtkämpfen, die dort ausgetragen werden. Digitale Souveränität ist nicht nur ein wirtschaftliches Argument – sie ist eine Frage der Handlungsfähigkeit.
Die wichtigsten Punkte auf einen Blick
- Anthropic wurde als "Supply Chain Risk" eingestuft – eine Massnahme, die normalerweise ausländischen Gegnern vorbehalten ist, weil das Unternehmen ethische Leitplanken gegen Massenüberwachung und autonome Waffen verteidigte.
- OpenAI übernahm die Pentagon-Verträge, getrieben von einem jährlichen Verlust von 14 Milliarden Dollar und Inferenzkosten, die höher sind als die Einnahmen.
- Die Machtfrage ist entschieden: Im klassifizierten Umfeld bestimmt der Staat die Spielregeln, nicht die Firmen mit ihren Ethik-Commitments.
- Geopolitisch signalisiert die Entwicklung die Bereitschaft der USA, technologische Kapazität bedingungslos militärischen Zielen unterzuordnen.
- Für Europa bedeutet das: Abhängigkeit von US-KI-Systemen ist auch Abhängigkeit von deren internen Machtkämpfen.
Quellenverzeichnis
Anthropic. (2025). Anthropic and the Department of Defense to advance responsible AI in defense operations. https://www.anthropic.com/news/anthropic-and-the-department-of-defense-to-advance-responsible-ai-in-defense-operations
Barron's. (2026). Trump bars Anthropic from federal agencies and Hegseth labels it a supply chain risk. Here's why. https://www.barrons.com/articles/trump-federal-agencies-phase-out-anthropic-technology-b440f2db
Breaking Defense. (2025, June 17). 'OpenAI For Government' launches with $200M win from Pentagon CDAO. https://breakingdefense.com/2025/06/openai-for-government-launches-with-200m-win-from-pentagon-cdao/
Business Insider. (2026). OpenAI shares its contract language and 'red lines' in agreement with the Department of Defense. https://www.businessinsider.com/openai-shares-contract-language-department-of-war-mass-surveillance-weapons-2026-2
Chief Digital and Artificial Intelligence Office. (2024, December 11). GenAI Toolkit operationalizes guidelines & guardrails memo. https://www.ai.mil/Latest/Blog/Article-Display/Article/3994183/genai-toolkit-operationalizes-guidelines-guardrails-memo/
DefenseScoop. (2023, November 9). New interim DOD guidance 'delves into the risks' of generative AI. https://defensescoop.com/2023/11/09/new-interim-dod-guidance-delves-into-the-risks-of-generative-ai/
The Guardian. (2026, February 28). OpenAI to work with Pentagon after Anthropic dropped by Trump over company's ethics concerns. https://www.theguardian.com/technology/2026/feb/28/openai-us-military-anthropic
The Verge. (2026). Defense secretary Pete Hegseth designates Anthropic a supply chain risk. https://www.theverge.com/policy/886632/pentagon-designates-anthropic-supply-chain-risk-ai-standoff
U.S. Department of Defense. (2024). Responsible Artificial Intelligence Strategy and Implementation Pathway. https://media.defense.gov/2024/Oct/26/2003571790/-1/-1/0/2024-06-RAI-STRATEGY-IMPLEMENTATION-PATHWAY.PDF