USA stuft Anthropic als Lieferkettenrisiko ein – und OpenAI kassiert den Verteidigungsdeal
Anthropic steckt mitten in einem ungewöhnlich harten Konflikt mit dem US Verteidigungsapparat. Ausgerechnet das Unternehmen, das nach eigenen Angaben als erstes Frontier KI Modelle in klassifizierten US Regierungsnetzwerken ausgerollt hat, wird nun offiziell als Lieferkettenrisiko eingestuft. Die Folge ist drastisch: Militärlieferanten und Partner sollen künftig keine Geschäfte mehr mit Anthropic machen. Fast zeitgleich unterschreibt OpenAI einen neuen Vertrag mit dem US Verteidigungsministerium, der den Einsatz seiner Modelle in militärischen Netzwerken vorsieht.
Was genau passiert ist – und warum der Schritt so ungewöhnlich ist
Laut Berichten kommt die Einstufung nicht aus heiterem Himmel, sondern nach einem eskalierenden Streit über sogenannte Guardrails: Welche Grenzen dürfen KI Anbieter dem Militär bei der Nutzung ihrer Systeme setzen. US Verteidigungsminister Pete Hegseth erklärte Anthropic öffentlich zum Risiko und ordnete an, dass Auftragnehmer und Partner der Streitkräfte kommerzielle Aktivitäten mit dem Unternehmen unterlassen sollen – „mit sofortiger Wirkung“. Anthropic kündigte an, die Maßnahme juristisch anzufechten.
Meine Einordnung: Das ist weniger ein normales Vergabeproblem und mehr ein Machtkampf darüber, wer am Ende definiert, wie weit KI im militärischen Kontext gehen darf – die Regierung oder die Anbieter.
Amodeis rote Linien: keine Massenüberwachung, keine autonomen Waffen
Anthropic CEO Dario Amodei positioniert sich dabei bewusst als pro nationaler Sicherheit, aber mit klaren Grenzen. In einem offiziellen Statement betont er, Anthropic halte zwei Einsatzfelder für nicht vereinbar mit demokratischen Werten oder nicht sicher genug beherrschbar: massenhafte inländische Überwachung und vollständig autonome Waffensysteme ohne angemessene Leitplanken. Genau diese roten Linien sollen den Konflikt ausgelöst haben.
Bewertung: Inhaltlich wirken diese Grenzen nachvollziehbar. Politisch sind sie explosiv, weil sie dem Staat signalisieren: Wir liefern Technologie, aber nicht blanko für jede denkbare Anwendung.
OpenAI rückt nach – mit eigenen Schutzklauseln
OpenAI nutzte das Zeitfenster und verkündete Details zu einem neuen Pentagon Abkommen. Laut Reuters verweist OpenAI auf „layered protections“ und drei rote Linien: keine massenhafte inländische Überwachung, kein autonomes Waffenzielsystem, keine kritischen automatisierten Entscheidungen. OpenAI betont zudem, dass es Sicherheitsprotokolle kontrollieren und bei Verstößen kündigen könne.
Meine Einordnung: OpenAI versucht hier sichtbar den Spagat. Einerseits das Geschäft mit dem Staat, andererseits der Versuch, sich öffentlich als Anbieter mit Grenzen zu präsentieren – vermutlich auch, um nicht in denselben Strudel zu geraten wie Anthropic.
Warum das mehr ist als ein Firmenzoff
Der Fall zeigt ein strukturelles Problem: KI ist längst strategische Infrastruktur. Wenn ein Anbieter Bedingungen stellt, kann das im Pentagon als Risiko ausgelegt werden – nicht unbedingt, weil die Technik unsicher ist, sondern weil die Verfügbarkeit politisch oder vertraglich „unsicher“ wirkt.
Das macht die Einstufung als Lieferkettenrisiko so brisant: Sie wirkt wie ein Signal an die ganze Branche, dass ethische Vorbehalte im Zweifel als Störfaktor gelten könnten. Genau davor warnen Beobachter auch mit Blick auf die künftige Rolle privater Tech Firmen in Sicherheitsfragen.
Was wir jetzt erwarten sollten
-
Gerichtsverfahren und politische Nachbeben: Anthropic will die Einstufung anfechten. Das könnte klären, wie weit die Exekutive bei solchen Labels gehen darf.
-
Ein Wettlauf um Pentagon Kompatibilität: Rivalen werden versuchen, als „verlässlicher“ zu gelten – mit oder ohne harte Guardrails.
-
Mehr Druck auf klare Regeln: Je stärker KI ins Militär rutscht, desto dringender wird die Frage, ob rote Linien gesetzlich definiert werden müssen – statt in AGBs einzelner Firmen.