Claude AI: Pentagon setzt verbotene KI im Iran-Konflikt ein
03.03.2026 - 22:50:28 | boerse-global.deTrotz eines strikten Verbots durch das WeiĂe Haus hat das US-MilitĂ€r die KI Claude von Anthropic fĂŒr Angriffe im Iran genutzt. Diese direkte Missachtung eines PrĂ€sidialerlasses offenbart die tiefe AbhĂ€ngigkeit der StreitkrĂ€fte von der umstrittenen Technologie und einen beispiellosen Machtkampf ĂŒber ethische Grenzen der KĂŒnstlichen Intelligenz.
Eklat zwischen Pentagon und WeiĂem Haus
Der Einsatz von Claude fĂŒr AufklĂ€rung und Zielauswahl in Iran erfolgte nur Stunden, nachdem PrĂ€sident Donald Trump am Freitag allen Bundesbehörden die sofortige Einstellung der Nutzung befohlen hatte. Das Pentagon, das die KI laut eigenen Angaben fĂŒr Dokumentenanalyse und Logistik nutzt, befand sich damit im offenen Konflikt mit der Regierung. Die StreitkrĂ€fte argumentieren intern, ein sofortiger Stopp in kritischen Systemen sei technisch unmöglich â die vollstĂ€ndige Ablösung könnte drei Monate oder lĂ€nger dauern.
Der Einsatz von KI-Systemen in sensiblen Bereichen erfordert klare Regeln und die Einhaltung gesetzlicher Rahmenbedingungen. Dieser kostenlose Leitfaden zur EU-KI-Verordnung hilft Ihnen, Anforderungen und Risikoklassen richtig einzuschÀtzen. Kostenloses E-Book zur KI-Verordnung herunterladen
Der Kern des Streits: Ethische ârote Linienâ
Der Konflikt schwelt seit Wochen. Auslöser ist die Weigerung des KI-Sicherheitsspezialisten Anthropic, vertragliche Schutzvorkehrungen zu streichen. Das Unternehmen lehnt es ab, sein Modell fĂŒr MassenĂŒberwachung amerikanischer BĂŒrger oder den Betrieb vollstĂ€ndig autonomer Waffensysteme ohne menschliche Kontrolle freizugeben. Ende Februar eskalierte der Disput, als Verteidigungsminister Pete Hegseth dem Anthropic-CEO Dario Amodei ein Ultimatum stellte: Die BeschrĂ€nkungen fallen oder die lukrativen RegierungsauftrĂ€ge sind weg.
Anthropic blieb hart. CEO Amodei erklĂ€rte, man könne die Forderungen âmit gutem Gewissenâ nicht erfĂŒllen â eine Frage demokratischer Werte und technischer Limitationen. Diese öffentliche Konfrontation ist ein PrĂ€zedenzfall: Noch nie hat ein fĂŒhrender KI-Entwickler das US-MilitĂ€r derart offen in ethischen Fragen herausgefordert.
WeiĂes Haus schlĂ€gt zurĂŒck mit harten Sanktionen
Als Reaktion auf die Blockade verhĂ€ngte PrĂ€sident Trump nicht nur das Nutzungsverbot mit einer sechsmonatigen Ăbergangsfrist. Verteidigungsminister Hegseth stufte Anthropic zudem als âRisiko fĂŒr die Lieferketteâ ein â eine scharfe Kategorie, die normalerweise auslĂ€ndischen Gegnern vorbehalten ist. Regierungsstellen wie das Finanz- und AuĂenministerium begannen umgehend mit der Abschaltung der Anthropic-Tools.
Der General Services Administration, der zentralen Beschaffungsstelle der US-Regierung, wurde angewiesen, Anthropic aus ihrem Marktplatz zu entfernen. Das schneidet das Unternehmen von einem Hauptkanal fĂŒr StaatsauftrĂ€ge ab.
Nicht nur im MilitĂ€r, auch in der Wirtschaft verschĂ€rfen neue Gesetze zur KĂŒnstlichen Intelligenz und Cyber Security die Haftungsrisiken fĂŒr Entscheider. Erfahren Sie im Experten-Report, wie Sie Ihr Unternehmen proaktiv schĂŒtzen und regulatorische Vorgaben erfĂŒllen. Cyber Security & KI-Gesetze: Jetzt Gratis-Report sichern
OpenAI springt in die Bresche â unter Bedingungen
Die Kontroverse verĂ€ndert das Wettbewerbsfeld schlagartig. Nur Stunden nach der Ăchtung von Anthropic verkĂŒndete der Rivale OpenAI eine neue Vereinbarung mit dem Pentagon. Bemerkenswert: Auch dieses Abkommen verbietet ausdrĂŒcklich MassenĂŒberwachung und autonome Waffen â jene âroten Linienâ, die zum Bruch mit Anthropic fĂŒhrten.
Ăffentlichkeit reagiert mit gesteigertem Interesse
Der Machtkampf hat einen unerwarteten Nebeneffekt: Das öffentliche Interesse an Claude ist explodiert. In den Tagen nach der Eskalation stieg die Claude-App zur meistheruntergeladenen in den USA auf und ĂŒberholte sogar den MarktfĂŒhrer ChatGPT.
Die kommenden Monate werden richtungsweisend fĂŒr die Zukunft der KI in MilitĂ€r und Sicherheit. Das Pentagon muss den Ăbergang von einer tief verwurzelten Technologie meistern, wĂ€hrend es die neue Partnerschaft mit OpenAI aufbaut. Dieser Konflikt hat die Debatte ĂŒber KI-Ethik aus dem Theoretischen in die harte operative RealitĂ€t geholt. Er wirft drĂ€ngende Fragen auf: Wer kontrolliert letztlich den Einsatz mĂ€chtiger KI-Systeme? Welche Schutzvorkehrungen sind nötig, wenn diese Technologien zur KriegsfĂŒhrung immer zentraler werden? Die Entscheidungen in diesem beispiellosen Konflikt werden das VerhĂ€ltnis zwischen Silicon Valley und dem nationalen Sicherheitsapparat auf Jahre prĂ€gen.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.
