Über uns Redaktion Affiliate Do., 16. April 2026
✓ Redaktionell geprüft ⚠ Keine Anlageberatung 📰 Seit 2014
LIVE
BTC €63.377,00 +0,93% ETH €1.986,16 +0,61% XRP €1,1900 +3,77% BNB €528,1200 +1,46% SOL €72,2700 +2,51% TRX €0,27672 +0,96% DOGE €0,08170 +3,53% ADA €0,21227 +4,31% BTC €63.377,00 +0,93% ETH €1.986,16 +0,61% XRP €1,1900 +3,77% BNB €528,1200 +1,46% SOL €72,2700 +2,51% TRX €0,27672 +0,96% DOGE €0,08170 +3,53% ADA €0,21227 +4,31%
Alle Kurse →
News

US-Militär nutzte Anthropic-KI trotz offizieller Aussetzung

Das US-Militär nutzte Anthropic-KI während eines Iran-Luftangriffs, obwohl die Technologie offiziell ausgesetzt war. CEO Amodei verweigerte uneingeschränkten Militärzugang aus ethischen Gründen.

Das US-Militär setzte während eines bedeutenden Luftangriffs auf den Iran weiterhin Anthropic-KI-Systeme ein, obwohl die Regierung deren Nutzung kurz zuvor offiziell ausgesetzt hatte. Die Enthüllung zeigt, wie tief künstliche Intelligenz bereits in militärische Operationen integriert ist und wie schwer sich politische Vorgaben gegen etablierte technische Infrastrukturen durchsetzen lassen.

Claude-KI bleibt trotz Verbot in militärischen Abläufen aktiv

Führungseinheiten wie das US-Zentralkommando nutzten Anthropics Claude-System weiterhin für kritische Aufgaben: Informationsauswertung, Zielidentifizierung und Operationssimulationen. Das zeigt, dass die KI-Software so tief in die militärischen Arbeitsabläufe integriert war, dass selbst offizielle Aussetzungen nicht sofort greifen konnten. Anthropic hatte zuvor einen mehrjährigen Pentagon-Vertrag im Wert von bis zu 200 Millionen US-Dollar erhalten.

Die kontinuierliche Nutzung erfolgte über bereits bestehende Sicherheitsfreigaben und Zugriffsberechtigungen, die nicht automatisch widerrufen wurden. Militärische Kommandeure rechtfertigten den Einsatz mit der operativen Notwendigkeit und verwiesen darauf, dass alternative Systeme nicht kurzfristig verfügbar seien. Die Claude-KI war besonders bei der Analyse von Geheimdienstdaten und der Erstellung von Lageberichten unverzichtbar geworden.

Palantir und AWS ermöglichen geheime KI-Operationen

Die technische Umsetzung erfolgte über Partnerschaften mit Palantir und Amazon Web Services, die Claude für vertrauliche Geheimdienst- und Militäroperationen zugänglich machten. Berichten zufolge kam das System bereits bei einer Operation in Venezuela zum Einsatz, bei der Präsident Nicolás Maduro festgenommen wurde. Diese Infrastruktur zeigt, wie private Tech-Unternehmen zu unverzichtbaren Partnern für Geheimdienste werden.

AWS stellte dabei die sichere Cloud-Infrastruktur bereit, während Palantir als Vermittler zwischen den KI-Modellen und den militärischen Anwendungen fungierte. Diese dreiseitige Partnerschaft ermöglichte es, Anthropic-KI in hochsensiblen Umgebungen zu nutzen, ohne dass Anthropic direkten Zugang zu den militärischen Daten erhielt. Das System verarbeitete täglich Tausende von Geheimdienstberichten und unterstützte Entscheidungsprozesse in Echtzeit.

Anthropic-Chef verweigert uneingeschränkten Militärzugang

Als Verteidigungsminister Pete Hegseth uneingeschränkten militärischen Zugriff auf die KI-Systeme forderte, lehnte Anthropic-CEO Dario Amodei mit Verweis auf ethische Grenzen ab. Amodei betonte öffentlich, dass bestimmte militärische Anwendungen fundamentale ethische Linien überschreiten würden. Die Kontrolle über kritische Entscheidungen müsse immer bei Menschen bleiben, nicht bei vollständig autonomen Systemen.

Amodei verwies in seiner Stellungnahme auf die Verfassungsprinzipien der “Constitutional AI”, die Anthropic als Grundlage für die Entwicklung seiner KI-Modelle verwendet. Diese Prinzipien verbieten explizit die Unterstützung von Massenüberwachung, autonomen Waffensystemen ohne menschliche Kontrolle und anderen Anwendungen, die grundlegende Bürgerrechte verletzen könnten. Das Unternehmen hatte bereits früher ähnliche Anfragen von Geheimdiensten abgelehnt.

Pentagon plant Wechsel zu alternativen KI-Anbietern

Nach Amodeis Weigerung begann das Pentagon, alternative Anbieter zu evaluieren. OpenAI gilt als wahrscheinlicher Ersatz für Klassifizierungsnetzwerke. Das Verteidigungsministerium stufte Anthropic inzwischen als Risiko in der Verteidigungslieferkette ein und untersagte Regierungsauftragnehmern den Einsatz der KI-Modelle. Dieser Schritt verdeutlicht den wachsenden Konflikt zwischen ethischen KI-Standards und militärischen Anforderungen.

OpenAI hat bereits Gespräche mit Pentagon-Vertretern geführt und signalisiert eine größere Bereitschaft zur Kooperation bei militärischen Anwendungen. Auch andere Anbieter wie Google DeepMind und Microsoft werden als potenzielle Partner evaluiert. Das Pentagon investiert parallel in die Entwicklung eigener KI-Systeme, um die Abhängigkeit von privaten Anbietern zu reduzieren. Die Umstellung könnte jedoch Monate dauern und erhebliche Kosten verursachen.

Ethikrichtlinien versus nationale Sicherheitsinteressen

Der Fall illustriert den grundsätzlichen Spannungsbereich zwischen KI-Ethik und Verteidigungspolitik. Während Amodei massenhafte Inlandsüberwachung und autonome Waffentechnologien ohne menschliche Kontrolle ablehnt, sehen Militärstrategen darin unverzichtbare Werkzeuge. Die Diskussion zeigt, dass Tech-Unternehmen zunehmend politischen Druck ausgesetzt sind, ihre ethischen Standards zu lockern.

Experten warnen vor den langfristigen Konsequenzen einer vollständigen Militarisierung der KI-Entwicklung. Sie befürchten, dass der Wettbewerbsdruck Unternehmen dazu verleiten könnte, ethische Standards zu senken. Gleichzeitig argumentieren Verteidigungsexperten, dass andere Nationen wie China und Russland keine vergleichbaren ethischen Beschränkungen haben und dadurch strategische Vorteile erlangen könnten.

Internationale Auswirkungen und Regulierungsdebatte

Die Anthropic-Kontroverse hat auch internationale Aufmerksamkeit erregt. Europäische Regulierungsbehörden sehen darin einen Beweis für die Notwendigkeit strengerer KI-Regulierung. Die EU-Kommission plant bereits verschärfte Vorschriften für militärische KI-Anwendungen. Auch die Vereinten Nationen diskutieren über internationale Standards für den Einsatz von künstlicher Intelligenz in Verteidigungssystemen.

Die Anthropic-Kontroverse markiert einen Wendepunkt in der Debatte um militärische KI-Nutzung. Sie verdeutlicht, dass die Integration von künstlicher Intelligenz in Verteidigungssysteme bereits so weit fortgeschritten ist, dass ethische Bedenken einzelner Unternehmen die operative Realität kaum noch bremsen können. Gleichzeitig zeigt sie, wie wichtig die Haltung der Tech-Konzerne für die Zukunft autonomer Waffensysteme bleibt. Der Ausgang dieser Auseinandersetzung könnte wegweisend für die gesamte KI-Branche werden.

⚠️ Risikohinweis

Die Inhalte auf online24.de stellen keine Anlageberatung dar. Kryptowährungen sind hochriskante Anlagen. Bitte führe immer deine eigene Recherche durch (DYOR).

Achim Straber

Achim Straber ist Autor bei online24.de und Experte für Blockchain und Stable Coins. Er erklärt digitale Finanzthemen verständlich, präzise und mit Blick auf aktuelle Entwicklungen im Krypto-Markt. Sein Fokus liegt auf technologischen Grundlagen, Regulierung und der praktischen Bedeutung moderner Zahlungssysteme.

⏱ 12+ Jahre

Der Krypto-Newsletter
der dir wirklich hilft

Täglich die wichtigsten Krypto-News, Marktanalysen und Ratgeber — direkt in dein Postfach. Kostenlos und jederzeit abbestellbar.

📧 12.000+ Abonnenten 🔒 Kein Spam 📱 Täglich 8 Uhr

Mit der Anmeldung akzeptierst du unsere Datenschutzerklärung.