Anthropic, KI-Supermodell

Anthropic: KI-Supermodell trotz Datenleck und Pentagon-Konflikt

09.04.2026 - 07:39:17 | boerse-global.de

Anthropic präsentiert sein leistungsstärkstes KI-Modell Claude Mythos, während ein Datenleck Sicherheitslücken offenbart und ein Gericht die Einstufung als Sicherheitsrisiko durch das US-Militär bestätigt.

Anthropic: KI-Supermodell trotz Datenleck und Pentagon-Konflikt - Foto: über boerse-global.de

Anthropic stellt sein mächtigstes KI-Modell vor – während ein Datenleck Sicherheitslücken offenbart und ein Gericht die Pentagon-Blacklist bestätigt.

Heute hat das KI-Unternehmen Anthropic sein bisher leistungsfähigstes Modell, Claude Mythos, in einer eingeschränkten Vorschau präsentiert. Der Durchbruch in autonomer Sicherheitsforschung kommt zu einem denkbar ungünstigen Zeitpunkt: Nur Tage zuvor hatte ein massives internes Datenleck eine kritische Sicherheitslücke in der Entwickler-KI „Claude Code“ aufgedeckt. Gleichzeitig bestätigte ein US-Bundesberufungsgericht eine Einstufung des Unternehmens als Sicherheitsrisiko durch das Pentagon. Die Ereignisse der Woche zeigen die extreme Spannung zwischen rasantem KI-Fortschritt und den damit einhergehenden Sicherheits- und Regulierungsrisiken.

Anzeige

Die rasanten Entwicklungen bei KI-Systemen stellen Unternehmen vor völlig neue rechtliche Herausforderungen. Dieser kostenlose Umsetzungsleitfaden zur neuen EU-KI-Verordnung hilft Ihnen, Risikoklassen richtig einzuschätzen und alle gesetzlichen Fristen einzuhalten. EU AI Act in 5 Schritten verstehen

Datenleck legt Sicherheitslücke in KI-Entwicklerwerkzeug offen

Die Kette der Pannen begann bereits Ende März. Durch einen Fehler bei einer öffentlichen Software-Aktualisierung veröffentlichte Anthropic unbeabsichtigt fast 2.000 interne Quellcode-Dateien für „Claude Code“. Das Leck umfasste über 500.000 Zeilen proprietären Codes und gab Einblick in die Architektur des KI-Coding-Assistenten.

Sicherheitsforscher der firma Adversa AI entdeckten in dem veröffentlichten Code eine gravierende Schwachstelle: Claude Code ignorierte selbst gesetzte Sicherheitsregeln, sobald ein Befehl mehr als 50 Unterbefehle enthielt. Diese Lücke war offenbar das Resultat einer Performance-Optimierung, die Sicherheitsprüfungen nach der 50. Anweisung abbricht. Ein Angreifer hätte so verbotene Kommandos – etwa zur Datenausspähung – hinter einer langen Kette harmloser Anweisungen verstecken können.

Obwohl Anthropic inzwischen einen Patch bereitgestellt hat, bleibt der Schaden. Die Cybersicherheitsfirma Trend Micro berichtete gestern, dass Hacker den geleakten Quellcode bereits als Köder in Social-Engineering-Angriffen nutzen, um Schadsoftware zu verbreiten. Das Ereignis wirft grundsätzliche Fragen auf: Stehen KI-Performance und robuste Sicherheit in einem strukturellen Konflikt?

Projekt Glasswing: Mythos als defensiver Schild für kritische Infrastruktur

Trotz der akuten Sicherheitskrise präsentierte Anthropic wie geplant Claude Mythos. Das Modell, intern auch „Capybara“ genannt, soll einen Generationssprung in Logik, Planung und autonomer Ausführung darstellen. Laut Unternehmensangaben erreicht es eine Erfolgsquote von 83,1 Prozent in einem etablierten Cybersicherheits-Benchmark.

Die besondere Stärke von Mythos liegt in der autonomen Sicherheitsforschung. In internen Tests identifizierte die KI Tausende bisher unbekannter Sicherheitslücken (Zero-Day-Exploits) in allen großen Betriebssystemen und Webbrowsern. Darunter war ein 27 Jahre alter Fehler in OpenBSD und eine 16 Jahre alte Schwachstelle in der FFmpeg-Bibliothek. Das Modell kann solche Lücken nicht nur finden, sondern auch zu komplexen Angriffsketten kombinieren.

Angesichts dieser mächtigen – und potenziell gefährlichen – Fähigkeiten setzt Anthropic auf ein strikt kontrolliertes Rollout. Unter dem Namen Projekt Glasswing erhalten ausgewählte Partner wie Amazon Web Services, Apple, Google, Microsoft und die Linux Foundation exklusiven Zugang zu Mythos. Ihr Auftrag: Kritische Infrastruktur scannen und sichern, bevor die Fähigkeiten der KI breiter verfügbar werden. Anthropic unterstützt die Initiative mit 100 Millionen Euro an Nutzungsguthaben und vier Millionen Euro an Spenden für Open-Source-Sicherheitsorganisationen.

Anzeige

Neue KI-Technologien bringen nicht nur Chancen, sondern auch unbekannte Cyberrisiken für die gesamte IT-Infrastruktur mit sich. Erfahren Sie in diesem kostenlosen Experten-Report, wie Sie Ihr Unternehmen proaktiv absichern und neue gesetzliche Anforderungen ohne hohe Investitionen erfüllen. Gratis-E-Book: Cyber-Bedrohungen 2024 abwenden

Gericht bestätigt Einstufung als Sicherheitsrisiko durch US-Militär

Parallel zu den technischen Entwicklungen verschärft sich der Konflikt mit der US-Regierung. Gestern wies das Berufungsgericht in Washington D.C. einen Eilantrag von Anthropic ab. Das Unternehmen wollte verhindern, dass das Pentagon es weiterhin als „Risiko für die Lieferkette“ einstuft.

Der Streit eskalierte Anfang des Jahres, als Anthropic sich weigerte, Standardklauseln in Militärverträgen zu akzeptieren, die „jede rechtmäßige Nutzung“ erlauben. Das Unternehmen berief sich auf seine ethischen Leitplanken, die den Einsatz in vollautonomen Waffensystemen oder zur Massenüberwachung US-amerikanischer Bürger ausschließen. Das Pentagon reagierte mit der Blacklist, die Anthropic von Regierungsaufträgen ausschließt.

Rechtsexperten deuten die Ankündigung von Projekt Glasswing auch als strategischen Schachzug in diesem Konflikt. Indem Anthropic sein stärkstes Modell als defensiven Schild für die nationale Sicherheit positioniert, versucht es, das Narrativ vom Risiko zum Asset zu wenden. Das Gericht räumte zwar ein, dass die Einstufung dem Unternehmen „unwiederbringlichen Schaden“ zufügen werde, sah jedoch keinen Grund für eine einstweilige Verfügung.

Null-Minuten-Lücken: KI beschleunigt das Wettrüsten in der Cybersicherheit

Die gegensätzlichen Meldungen der Woche – Höchstleistung in der Sicherheitsforschung neben einem folgenschweren Sicherheitsversagen – verdeutlichen die Volatilität des KI-Marktes. Analysten sprechen bereits von einer Ära der „Null-Minuten-Lücken“. Die Zeitspanne zwischen der Entdeckung einer Schwachstelle und ihrer Ausnutzung schrumpft durch KI-gestützte Automatisierung von Tagen auf Minuten.

Der Erfolg von Projekt Glasswing wird zum Prüfstein dafür, ob führende KI-Labore Technologien, die „zu gefährlich für eine Freigabe“ sind, effektiv steuern können. Gelingt es der Allianz, die von Mythos entdeckten Tausenden Zero-Day-Lücken zu schließen, wäre das ein Erfolg für Anthropics sicherheitsorientierte Philosophie.

Die wirtschaftlichen Auswirkungen sind bereits spürbar. Trotz aller Rückschläge soll die Jahresumsatzrate von Anthropic laut Berichten 30 Milliarden Euro übersteigen – ein Beleg für die enorme Nachfrage der Wirtschaft nach agentenhafter KI. Die Expansion in neue Rechenzentrumspartnerschaften mit Google und Broadcom deutet auf weitere, noch leistungsfähigere Modelle hin. Die Ereignisse der letzten Woche erinnern jedoch daran: Mit wachsender KI-Macht schrumpft der Spielraum für menschliche Fehler in Software-Entwicklung und Unternehmensführung.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis  Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69109598 |