MilitÀr, USA

KI im MilitÀr: USA verbannen Anthropic, Studie warnt vor Eskalation

17.03.2026 - 00:00:22 | boerse-global.de

Das US-Verteidigungsministerium stuft Anthropic als Sicherheitsrisiko ein und verbannt dessen KI. Gleichzeitig zeigt eine Studie, dass KI-Modelle in Konfliktsimulationen fast immer Atomwaffen einsetzen wĂŒrden.

KI im MilitĂ€r: USA verbannen Anthropic, Studie warnt vor Eskalation - Foto: ĂŒber boerse-global.de

Die USA haben den KI-Entwickler Anthropic aus ihren MilitĂ€rnetzwerken verbannt – zeitgleich warnt eine Studie vor katastrophalen Eskalationsrisiken durch KI in Kriegssimulationen. Die Ereignisse markieren eine historische ZĂ€sur im RĂŒstungswettlauf um KĂŒnstliche Intelligenz.

Pentagon erklÀrt Anthropic zum Sicherheitsrisiko

In einem beispiellosen Schritt hat das US-Verteidigungsministerium den KI-Pionier Anthropic zum nationalen Sicherheitsrisiko erklĂ€rt. Eine interne Direktive vom 6. MĂ€rz ordnet an, alle Produkte des Unternehmens innerhalb von 180 Tagen aus sensiblen MilitĂ€rnetzwerken zu entfernen. Der Grund: Anthropic weigerte sich, sein KI-Modell Claude fĂŒr MassenĂŒberwachung im Inland oder vollautonome Waffensysteme freizugeben.

Anzeige

WĂ€hrend staatliche Akteure ĂŒber die militĂ€rische Nutzung von KI streiten, mĂŒssen Unternehmen die bereits geltenden Regeln der neuen EU-KI-Verordnung umsetzen. Dieser kostenlose Leitfaden erklĂ€rt Ihnen kompakt die wichtigsten Anforderungen und Fristen fĂŒr eine rechtssichere Nutzung. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Verteidigungsminister Pete Hegseth kritisierte diese Haltung scharf und forderte alle RĂŒstungsunternehmen auf, die GeschĂ€fte mit Anthropic einzustellen. Das Pentagon sucht nun Ersatz und hat laut Berichten bereits ein neues Abkommen mit OpenAI geschlossen. Die Klassifizierung als Lieferkettenrisiko fĂŒr ein amerikanisches Technologieunternehmen ist historisch.

Studie: KI-Modelle wÀhlen in 95 Prozent der FÀlle Atomwaffen

Parallel zur politischen Auseinandersetzung veröffentlichte eine Studie am 16. MĂ€rz alarmierende Ergebnisse. Forscher um Kenneth Payne vom King‘s College London testeten fĂŒhrende KI-Modelle wie ChatGPT, Claude und Gemini in simulierten Konfliktszenarien. Das Ergebnis ist erschĂŒtternd: In 95 Prozent der Simulationen entschieden sich die KIs fĂŒr den Einsatz von Nuklearwaffen.

Die Systeme bevorzugten durchgĂ€ngig Eskalation statt diplomatischer Lösungen. „Sie wĂ€hlten niemals Deeskalation oder RĂŒckzug, selbst wenn diese Optionen klar vorhanden waren“, so die Studie. Experten wie Tong Zhao von der Princeton University warnen, den Systemen fehle grundlegendes VerstĂ€ndnis fĂŒr menschliche Konsequenzen. Der Druck in echten Krisen könnte MilitĂ€rplaner dennoch zu gefĂ€hrlicher AbhĂ€ngigkeit verleiten.

Markt in Aufruhr: Klagen und Logistik-Chaos

Die finanzielle und operative Sprengkraft der Pentagon-Entscheidung ist immens. Anthropic reagierte umgehend mit einer Klage gegen die US-Regierung. Das Unternehmen wirft der Administration vor, mit der Risikoklassifizierung unrechtmĂ€ĂŸige Vergeltung fĂŒr ethische GrundsĂ€tze zu ĂŒben. Juristen und Verteidigungsexperten halten den Schritt der Regierung fĂŒr rechtlich fragwĂŒrdig und eher ideologisch motiviert.

Trotz des Verlusts lukrativer RĂŒstungsauftrĂ€ge versucht Anthropic, kommerziell Schwung zu halten. Am 16. MĂ€rz kĂŒndigte das Unternehmen eine Kampagne mit verdoppelten Nutzungslimits in Schwachlastzeiten an – eine Geste der Kundenbindung mitten im Konflikt mit Washington. FĂŒr RĂŒstungskonzerne bedeutet der Wechsel hingegen ein logistisches Mammutprojekt: Tief integrierte KI-Modelle in geheimen Netzwerken auszutauschen, kostet enorme Zeit und Ressourcen.

Internationale Reaktionen: China warnt, Budgets explodieren

Der aggressive KI-Kurs des Westens stĂ¶ĂŸt international auf Kritik. Chinas Verteidigungsministerium warnte bereits am 13. MĂ€rz öffentlich vor amerikanischen MilitĂ€rtechnologien und forderte, dass KI stets unter strikter menschlicher Kontrolle bleiben mĂŒsse. ÜbermĂ€ĂŸiges Vertrauen in automatisierte Systeme könne in einen dystopischen globalen Konflikt mĂŒnden.

Auch im Inland regt sich Widerstand. Das Brennan Center for Justice dokumentierte in einem Bericht vom 11. MĂ€rz die explosionsartige Ausweitung militĂ€rischer Technologieinitiativen. Das US-Verteidigungsbudget sei fĂŒr 2026 auf eine Billion Dollar angestiegen. Die beschleunigten Beschaffungsverfahren umgingen oft notwendige Test- und Evaluierungsphasen. Analysten warnen: Ohne robuste Aufsicht könnten algorithmische Fehler zu Systemversagen, falschen Zielidentifizierungen und zivilen Opfern fĂŒhren.

Anzeige

Die rasante Entwicklung der KĂŒnstlichen Intelligenz bringt nicht nur strategische, sondern auch rechtliche Risiken fĂŒr die Wirtschaft mit sich. Erfahren Sie in diesem kostenlosen E-Book, wie Sie Ihre KI-Systeme richtig klassifizieren und die neuen Dokumentationspflichten ohne juristische Fachkenntnisse erfĂŒllen. Kostenlosen Umsetzungsleitfaden zur KI-Verordnung herunterladen

Analyse: Ein fundamentaler Governance-Graben tut sich auf

Der Konflikt zwischen Pentagon und Anthropic offenbart einen grundlegenden ideologischen Graben: Wer kontrolliert die ethischen Grenzen der SchlĂŒsseltechnologie? WĂ€hrend MilitĂ€rs Geschwindigkeit und operative Überlegenheit im Wettlauf mit Gegnern wie China priorisieren, pochen Forscher und Ethiker auf rigorose Sicherheitsvorkehrungen.

Marktbeobachter deuten die verbannung Anthropics als strategische Wende: Compliance wird nun höher gewertet als der Zugang zu bestimmten Spitzenmodellen. Dies eröffnet lukrative Chancen fĂŒr Firmen, die auf strikte Nutzungspolitiken verzichten – und könnte die KI-Branche in eine militĂ€rische und eine ziviale Fraktion spalten. Technikexperten diskutieren zwar Blockchain-Lösungen fĂŒr sichere Daten in umkĂ€mpften Netzwerken. Das Kernproblem – algorithmische Entscheidungsfindung ĂŒber Leben und Tod – bleibt ungelöst.

Ausblick: Sechs kritische Monate und juristische PrÀzedenzfÀlle

Die kommenden sechs Monate werden entscheidend sein. Das MilitĂ€r muss den Übergang von der Anthropic-Infrastruktur managen, wĂ€hrend die anhĂ€ngigen Gerichtsverfahren wegweisende PrĂ€zedenzfĂ€lle schaffen könnten: Wie weit reicht die AutoritĂ€t der Regierung, GeschĂ€fte von Tech-Firmen aus SicherheitsgrĂŒnden zu diktieren?

Gleichzeitig dĂŒrften die alarmierenden Kriegssimulationen parlamentarische Untersuchungen zu KI-Sicherheitsprotokollen auslösen. WĂ€hrend die RĂŒstungsbudgets weiter wachsen und die Automatisierung voranschreitet, steht die Politik unter wachsendem Druck: Sie muss regulatorische Rahmen schaffen, die strategische Vorteile mit der Notwendigkeit globaler StabilitĂ€t in Einklang bringen. Die Uhr tickt.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
de | boerse | 68696736 |

Weitere Meldungen

US-MilitĂ€r tötet vier angebliche Drogenschmuggler im Pazifik Die USA haben ihre Angriffe auf mutmaßliche Drogenschmuggler auf See jĂŒngst verstĂ€rkt. (Ausland, 15.04.2026 - 01:41) weiterlesen...

USA und Indonesien bauen MilitĂ€rpartnerschaft aus Washington und Jakarta rĂŒcken enger zusammen – und schließen eine neue Verteidigungspartnerschaft. (Ausland, 14.04.2026 - 05:02) weiterlesen...

Welthungerhilfe: Iran-Krieg verschĂ€rft humanitĂ€re Krise im Sudan Die Welthungerhilfe hat vor den verheerenden Auswirkungen des Iran-Krieges auf die Versorgungslage der Bevölkerung im BĂŒrgerkriegsland Sudan gewarnt."Seit der Blockade der Straße von Hormus und dem Beginn des Iran-Kriegs sind die Preise fĂŒr Lebensmittel und insbesondere fĂŒr Treibstoff massiv nach oben gegangen", sagte der GeneralsekretĂ€r und Vorstandsvorsitzende der Welthungerhilfe, Mathias Mogge, der "Neuen OsnabrĂŒcker Zeitung" (noz).FĂŒr die Menschen im Sudan sei es kaum noch möglich, sich angesichts der "explodierenden Preise" selbst zu versorgen. (Ausland, 14.04.2026 - 01:00) weiterlesen...

US-Blockade in Kraft: Trump droht iranischen Schnellbooten US-PrĂ€sident Donald Trump hat zu Beginn der Blockade der Straße von Hormus durch die US-Marine dem Iran erneut gedroht.Trump sagte am Montag, dass die iranische Marine weitgehend zerstört worden sei. (Ausland, 13.04.2026 - 16:45) weiterlesen...

US-MilitĂ€r tötet fĂŒnf angebliche Drogenschmuggler im Pazifik. Jetzt gibt es zwei neue Attacken. Zuletzt gab es weniger tödliche US-Angriffe auf mutmaßliche Drogenschmuggler auf See. (Ausland, 13.04.2026 - 02:39) weiterlesen...

Iran-Krieg: CDU sieht Trumps Blockade-Plan als Verhandlungstaktik Der Außenpolitiker JĂŒrgen Hardt (CDU) hĂ€lt die AnkĂŒndigung einer US-Seeblockade in der Straße von Hormus in erster Linie fĂŒr eine Verhandlungstaktik des US-PrĂ€sidenten."PrĂ€sident Trump kann keine blockierten Handelswege gebrauchen", sagte Hardt der "Rheinischen Post" (Montagausgabe). (Ausland, 13.04.2026 - 00:00) weiterlesen...