Anthropic, KI-Modell

Anthropic stoppt KI-Modell mit gefährlichen Hacker-Fähigkeiten

12.04.2026 - 11:40:11 | boerse-global.de

Das KI-System Claude Mythos Preview kann jahrzehntealte Sicherheitslücken autonom ausnutzen. Die US-Regierung und Experten warnen vor einer Bedrohung für Finanzinfrastruktur und nationale Sicherheit.

Anthropic stoppt KI-Modell mit gefährlichen Hacker-Fähigkeiten - Foto: über boerse-global.de

Ein neues KI-System kann jahrzehntealte Sicherheitslücken autonom ausnutzen – und wird nun unter Verschluss gehalten. Der Entwickler Anthropic reagiert damit auf massive Bedenken von US-Behörden und Cybersicherheitsexperten.

San Francisco – Der KI-Entwickler Anthropic hat den öffentlichen Rollout seines neuesten Flaggschiff-Modells Claude Mythos Preview gestoppt. Hintergrund sind interne Tests, die „übermenschliche“ Hacker-Fähigkeiten des Systems offenbarten. Es kann eigenständig kritische Software-Schwachstellen finden und ausnutzen, die teilweise seit Jahrzehnten unentdeckt blieben. Regulierer fürchten nun Bedrohungen für die globale Finanzinfrastruktur und die nationale Sicherheit.

Anzeige

Angesichts von KI-Systemen, die selbst jahrzehntealte Sicherheitslücken in Rekordzeit aufspüren, wird der Schutz privater Endgeräte immer wichtiger. Ein kostenloser Ratgeber zeigt Ihnen in 5 einfachen Schritten, wie Sie Ihr Android-Smartphone effektiv gegen moderne Hacker-Angriffe und Datenmissbrauch absichern. 5 sofort umsetzbare Schutzmaßnahmen entdecken

Die Entscheidung folgt auf wachsenden Druck von US-Bundesbehörden. Hochrangige Beamte in Washington äußerten die Sorge, dass solche Technologie in falsche Hände geraten und von Staaten oder kriminellen Organisationen weaponisiert werden könnte.

KI findet 27 Jahre alte Sicherheitslücke

Der Kern der Kontroverse sind technische Befunde, die Anthropic Anfang April veröffentlichte. Demnach identifizierte Claude Mythos Preview autonom mehrere kritische Zero-Day-Schwachstellen in allen großen Betriebssystemen und Webbrowsern.

In einem dokumentierten Fall entdeckte die KI eine Sicherheitslücke in OpenBSD – einem Betriebssystem, das für seine Robustheit bekannt ist. Das Erschreckende: Diese Schwachstelle existierte bereits seit 27 Jahren unerkannt.

Weitere Berichte zeigen, dass das Modell eine 17 Jahre alte Sicherheitslücke in FreeBSD erfolgreich ausnutzte. Es erlangte dabei root-Zugriff, ohne menschliches Zutun. Experten bewerten die Fähigkeit, solche „Altlasten“-Bugs zu finden, als Quantensprung der KI-Entwicklung. Das System kann funktionierende Exploits in Stunden entwickeln – zu einem Bruchteil der Kosten menschlicher Operationen.

Ursprünglich hatte Anthropic das Tool als Durchbruch für defensive Cybersicherheit und Patch-Management gepriesen. Doch das Unternehmen räumte später ein: Dieselben Fähigkeiten machen das Modell in falschen Händen zu einer beispiellosen Bedrohung.

Der Zugang ist nun auf etwa 40 Partnerorganisationen beschränkt, darunter Tech-Giganten wie Microsoft, Apple und Amazon. Sie unterliegen strengen Nutzungsbedingungen.

Notfall-Briefing für US-Finanzchefs

Die potenzielle Gefahr für die Weltwirtschaft löste am 7. April ein dringliches Treffen in Washington aus. Finanzminister Scott Bessent und Fed-Chef Jerome Powell beriefen die CEOs der größten US-Banken ein, um die Risiken zu besprechen.

Laut Brancheninsidern konzentrierte sich das Briefing darauf, wie die Fähigkeit des Modells, traditionelle Sicherheitsebenen zu umgehen, systemrelevante Banken ins Visier nehmen könnte. Das Finanzministerium schwieg zu den Details. Doch Quellen zufolge fürchten Beamte eine Ära „größerer Cyber-Risiken“, auf die aktuelle Abwehrmaßnahmen nicht vorbereitet sind.

Das Timing des Treffens – kurz vor der Quartalsberichtssaison der Banken – signalisierte einen Kurswechsel der US-Regierung. Die generelle Zuversicht in die KI-Produktivität weg direkten Eingriffen in systemische Sicherheitsfragen.

Kritiker der Technologie, darunter Forscher verschiedener Politik-Gruppen, warnen vor katastrophalen Folgen für die öffentliche Sicherheit bei einer breiten Freigabe. Einige Analysten ziehen Vergleiche zum Y2K-Risiko. Sie betonen jedoch, dass die Automatisierung komplexer Angriffe durch KI eine dynamischere und unberechenbarere Herausforderung darstellt.

Anzeige

Während KI-Tools wie Claude Mythos neue Bedrohungsszenarien schaffen, bleiben veraltete Software-Stände das größte Risiko für Smartphone-Nutzer. Dieser kostenlose Experten-Report erklärt verständlich, wie Sie Sicherheitslücken durch richtige Updates schließen und Malware dauerhaft verhindern. Kostenlosen Sicherheits-Ratgeber herunterladen

Sicherheitspannen und „Sockpuppeting“-Angriffe

Die Warnungen vor dem neuesten Modell werden durch jüngste Sicherheitsverstöße bei bestehenden Entwickler-Tools von Anthropic verstärkt. Im Frühjahr leakte das Unternehmen unbeabsichtigt den Quellcode von „Claude Code“, einem beliebten KI-gestützten Programmier-Assistenten.

Der Leak umfasste zwar nicht die zugrundeliegenden Model-Gewichte, legte aber über 500.000 Codezeilen offen. Potenziellen Angreifern bot sich damit eine Blaupause der Tool-Logik.

Innerhalb von Tagen identifizierten Cybersicherheitsforscher mehrere Schwachstellen in der Software. Dazu gehörten Lücken, die Remote-Code-Ausführung und den Diebstahl von API-Zugangsdaten ermöglichten.

In einem Bericht vom 10. April beschrieben Analysten von Trend Micro zudem eine neue Jailbreaking-Technik namens „Sockpuppeting“. Dabei manipulieren Angreifer eine API-Funktion namens „Assistant Prefill“, um die KI zu täuschen. Das System umgeht so seine eigenen Sicherheitsbarrieren.

Die Technik nutzt eine „Selbstkonsistenz-Schwachstelle“ aus: Das Modell nimmt an, einer Anfrage bereits zugestimmt zu haben, und generiert weiterhin eingeschränkte oder schädliche Inhalte. Forscher betonen, dass diese Methode besonders gefährlich ist. Sie erfordert weder tiefgehendes technisches Know-how noch Zugang zu den Modell-Interna – sie operiert rein auf API-Ebene.

Konflikt mit dem Pentagon und rechtlicher Druck

Die Beschränkung von Claude Mythos erfolgt vor dem Hintergrund angespannter Beziehungen zwischen Anthropic und dem US-Verteidigungsministerium. Ende Februar und Anfang März soll Verteidigungsminister Pete Hegseth das Unternehmen gedrängt haben, Sicherheitsvorkehrungen zu entfernen.

Diese verhindern den Einsatz der KI für Massenüberwachung oder vollautonome Waffensysteme. Anthropic-CEO Dario Amodei hat diese Forderungen öffentlich zurückgewiesen. Das Überschreiten solcher Grenzen widerspreche den etablierten Sicherheitswerten des Unternehmens.

Doch Anthropic hat kürzlich seine Responsible Scaling Policy überarbeitet. Sie priorisiert nun Wettbewerbsfähigkeit in einem sich rasant entwickelnden Markt. Diese Verschiebung führte bei Beobachtern zu Vorwürfen der „regulatorischen Vereinnahmung“. Sie vermuten, dass die jüngsten Warnungen des Unternehmens vor den Gefahren der eigenen Modelle ein strategischer Schachzug sein könnten. Ziel: Konkurrenten abschrecken, während man die eigene Marktposition hält.

Zusätzliche Herausforderungen kommen von einem bevorstehenden Rechtsvergleich. Die Schlussanhörung zur beispiellosen 1,5-Milliarden-Euro-Vergleich im Fall Bartz gegen Anthropic ist für den 14. Mai angesetzt. Der Deal regelt die unrechtmäßige Nutzung raubkopierter Bücher für das KI-Training.

Laut Vergleichsbedingungen muss Anthropic seine Bibliotheken mit Piratenkopien vernichten. Zudem sind etwa 3.000 Euro an jeden berechtigten Rechteinhaber zu zahlen.

Wendepunkt für KI-Sicherheitsstandards

Die Entscheidung, Claude Mythos unter Verschluss zu halten, markiert einen Wendepunkt in der Debatte um „Frontier“-KI-Modelle. Anthropic hat sich zwar als Vorreiter in Sachen KI-Alignment positioniert. Doch die Entdeckung übermenschlicher Hacker-Fähigkeiten zwingt zu einer Neubewertung dessen, was eine „sichere“ Modell-Freigabe ausmacht.

Mitte April ist die Branche gespalten. Reichen freiwillige Sicherheitszusagen aus? Einige Experten argumentieren: Ohne verbindliche Bundesregulierung und Echtzeit-Überwachung wird die Versuchung wachsen, leistungsfähigere – und potenziell gefährlichere – Modelle einzusetzen. Der Wettbewerbsdruck ist einfach zu groß.

Die begrenzte Freigabe von Mythos dient derzeit als ernüchternde Mahnung. Die Fähigkeiten Künstlicher Intelligenz könnten die Welt bereits überholt haben – zumindest was die Sicherung der digitalen Infrastruktur angeht, auf die sie angewiesen ist.

So schätzen die Börsenprofis Aktien ein!

<b>So schätzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | boerse | 69130441 |