Anthropic, USA

Anthropic verklagt USA nach MilitÀr-Ausschluss

10.03.2026 - 00:00:24 | boerse-global.de

Das KI-Unternehmen Anthropic wehrt sich gerichtlich gegen seine Einstufung als Sicherheitsrisiko durch das US-Verteidigungsministerium. Der Konflikt entzĂŒndete sich an ethischen Nutzungsverboten fĂŒr autonome Waffen.

Anthropic verklagt USA nach MilitĂ€r-Ausschluss - Foto: ĂŒber boerse-global.de
Anthropic verklagt USA nach MilitĂ€r-Ausschluss - Foto: ĂŒber boerse-global.de

Ein KI-Pionier wehrt sich gegen die schwarze Liste des Pentagons – und stellt grundsĂ€tzliche Fragen zur Ethik autonomer Waffen.

San Francisco – Der Streit um kĂŒnstliche Intelligenz im MilitĂ€r eskaliert: Das Unternehmen Anthropic hat die US-Regierung verklagt. Der Vorwurf: Das Pentagon bestrafe das Unternehmen fĂŒr seine ethischen GrundsĂ€tze und schließe es willkĂŒrlich von AuftrĂ€gen aus. Auslöser ist die Einstufung als Sicherheitsrisiko, nachdem Anthropic „rote Linien“ fĂŒr den Einsatz seiner KI zog.

Anzeige

WĂ€hrend Tech-Giganten ĂŒber ethische Leitplanken streiten, reguliert die EU den Einsatz kĂŒnstlicher Intelligenz bereits durch verbindliche Gesetze. Dieser kostenlose Leitfaden erklĂ€rt verstĂ€ndlich, welche konkreten Pflichten und Risikoklassen die neue KI-Verordnung fĂŒr Ihr Unternehmen vorsieht. EU-KI-Verordnung kompakt: Jetzt kostenloses E-Book sichern

Rote Linien gegen autonome Waffen

Im Kern geht es um zwei Tabus. Anthropic verbietet den Einsatz seiner KI, insbesondere des Chatbots Claude, fĂŒr zwei Zwecke: die MassenĂŒberwachung von US-BĂŒrgern und die Steuerung vollautonomer Waffensysteme, die ohne menschliches Eingreifen töten können. Die Technologie sei dafĂŒr nicht verlĂ€sslich genug, so das Unternehmen, und der Schritt verletze fundamentale Rechte.

Das Pentagon unter Minister Pete Hegseth pocht dagegen auf das Recht zur „jeden rechtmĂ€ĂŸigen Nutzung“. Private Firmen dĂŒrften nicht die operativen Entscheidungen des MilitĂ€rs diktieren. Die Verhandlungen scheiterten Ende Februar.

Beispiellose Eskalation: Vom Partner zum Risiko

Die Reaktion der Regierung war drastisch. PrĂ€sident Donald Trump ordnete an, die Nutzung von Anthropic-Technologie in allen Behörden zu stoppen. Das Pentagon setzte das Unternehmen dann auf die Liste fĂŒr Lieferkettenrisiken – ein Instrument, das sonst gegen als gegnerisch eingestufte auslĂ€ndische Konzerne wie Huawei zum Einsatz kommt.

Die Folgen sind gravierend. Nicht nur direkte MilitĂ€rauftrĂ€ge sind blockiert. Auch alle Zulieferer des Pentagons mĂŒssen Anthropic-Software jetzt abstoßen. Das Unternehmen berichtet von stornierten VertrĂ€gen und gefĂ€hrdeten GeschĂ€ften im Wert von hunderten Millionen Dollar.

Klage als PrĂ€zedenzfall fĂŒr die Tech-Branche

Anthropic geht nun vor Gericht. Mit Klagen in Kalifornien und Washington D.C. will das Unternehmen die Einstufung als Sicherheitsrisiko kippen. Die Maßnahmen seien „beispiellos und rechtswidrig“ und bestraften geschĂŒtzte MeinungsĂ€ußerung, heißt es in der Klageschrift.

Der Fall wird zum Lackmustest. Entscheidet er darĂŒber, wie viel Einfluss Tech-Unternehmen auf die militĂ€rische Nutzung ihrer KI haben? In Silicon Valley wird die Auseinandersetzung intensiv diskutiert. Sie könnte die Verhandlungsstrategien anderer KI-Firmen mit Regierungen weltweit prĂ€gen.

Anzeige

Die rasanten Entwicklungen im Bereich der KI bringen nicht nur ethische, sondern auch neue rechtliche Anforderungen fĂŒr die IT-Sicherheit mit sich. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen auf die aktuellen Cyber-Security-Trends und neuen Gesetzgebungen vorbereiten. Kostenlosen Cyber-Security-Leitfaden herunterladen

OpenAI als Gegenmodell – mit eigenen Konflikten

WĂ€hrend der Streit mit Anthropic eskalierte, schloss das Pentagon einen Deal mit dem Konkurrenten OpenAI. Dessen Chef Sam Altman sagte eine umfassende Nutzung zu, verwies aber spĂ€ter auf technische HĂŒrden bei der MassenĂŒberwachung. Dieser Kompromiss hatte interne Konsequenzen: Die Robotik-Chefin von OpenAI trat aus Protest zurĂŒck.

Die Klage von Anthropic zielt auf mehr als VertrĂ€ge. Sie stellt die grundsĂ€tzliche Frage: DĂŒrfen ethische Leitplanken von Entwicklern die Sicherheitspolitik beeinflussen? Oder hat der Staat bei erworbener Technologie uneingeschrĂ€nkte VerfĂŒgungsgewalt? Die Antwort wird die Zukunft militĂ€rischer KI entscheidend formen – und hat die Debatte ĂŒber Verantwortung im digitalen Zeitalter bereits jetzt neu entfacht.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
de | boerse | 68653562 |