Anthropic: KI-Leak legt geheime KI-Agenten-PlÀne offen
03.04.2026 - 01:39:38 | boerse-global.deEin Konfigurationsfehler bei Anthropic hat den Quellcode der KI-Agenten-Plattform Claude Code öffentlich zugĂ€nglich gemacht. Der Vorfall gibt Einblick in die Architektur einer der weltweit fĂŒhrenden KI-Entwicklerassistenten und offenbart unveröffentlichte ZukunftsplĂ€ne des Unternehmens.
Ein simpler Fehler mit schwerwiegenden Folgen
Die Panne geschah nicht durch einen Hackerangriff, sondern durch einen einfachen menschlichen Fehler. Bei einer Routine-Aktualisierung des Software-Pakets auf der Plattform npm wurde versehentlich eine 59,8 MB groĂe Debug-Datei mitveröffentlicht. Diese sogenannte Source Map ermöglichte es, den gesamten TypeScript-Quellcode des Systems â ĂŒber 512.000 Zeilen â nachzuvollziehen.
Der aktuelle Vorfall zeigt, wie schnell technologische Neuerungen rechtliche Fragen aufwerfen. Dieser kostenlose Download verschafft Ihnen den Ăberblick zu Fristen, Pflichten und Risikoklassen der neuen EU-KI-Verordnung, den Ihre Rechts- und IT-Abteilung jetzt dringend braucht. EU AI Act in 5 Schritten verstehen
Sicherheitsforscher machten den Fund am Dienstag, den 31. MĂ€rz, auf der Plattform X publik. Der Link verbreitete sich rasend schnell. Anthropic zog die fehlerhafte Version 2.1.88 zwar umgehend zurĂŒck und veröffentlichte eine gepatchte Version. Doch da war es bereits zu spĂ€t: Der Code wurde in kĂŒrzester Zeit auf Dutzende GitHub-Repositories gespiegelt. Ein Mirror sammelte in weniger als zwei Stunden ĂŒber 50.000 Sterne â ein Rekord fĂŒr die Plattform.
Das Unternehmen betont, dass weder Kundendaten noch die Kern-KI-Modelle kompromittiert wurden. Der Schaden beschrÀnkt sich auf die Offenlegung der Orchestrierungslogik. Doch genau diese gibt tiefe Einblicke in die internen AblÀufe.
Blaupause fĂŒr die Zukunft: KAIROS und âSelbstheilendes GedĂ€chtnisâ
Die analysierten Dateien enthĂŒllen ambitionierte interne Projekte. Besonders auffĂ€llig ist das System KAIROS, das als autonomer Daemon beschrieben wird. Es soll KI-Agenten ermöglichen, langlaufende Aufgaben im Hintergrund auszufĂŒhren â etwa die kontinuierliche ĂberprĂŒfung von Code-Sicherheit oder groĂangelegte Umstrukturierungen von Codebasen.
Noch bedeutsamer ist die EnthĂŒllung einer neuen Modellfamilie mit dem Codenamen âMythosâ oder âCapybaraâ. Die Dokumentation beschreibt ein âSelbstheilendes GedĂ€chtnisâ (Self-Healing Memory, SHM). Diese Architektur soll es der KI ermöglichen, ihren eigenen Kontextverlauf zusammenzufassen, um auch in extrem langen Sitzungen die KohĂ€renz zu bewahren. Das deutet auf deutlich erweiterte Kontextfenster der nĂ€chsten Generation hin.
Weitere Funde sorgen fĂŒr Diskussionen: Ein âUndercover Modeâ entfernt KI-generierte Signaturen aus Code-Commits. Das könnte die Unterscheidung zwischen menschlicher und maschineller Arbeit erschweren â ein potenzielles Problem fĂŒr regulierte Branchen mit KI-Offenlegungspflicht. Auch âAnti-Distillationâ-Werkzeuge wurden entdeckt. Sie fĂŒgen API-Antworten Köderdaten hinzu, um das Nachahmen des Modells durch Konkurrenten zu erschweren.
Neue Technologien bringen oft ungeahnte Cyberrisiken mit sich, auf die viele Unternehmen noch nicht vorbereitet sind. Dieser kostenlose Report klĂ€rt auf, welche rechtlichen Pflichten und Bedrohungen Unternehmer jetzt kennen mĂŒssen, um ihre IT-Sicherheit zukunftssicher aufzustellen. Kostenlosen Cyber-Security-Report jetzt herunterladen
Sicherheitsalarm: âSchatten-Agentenâ tauchen im Dark Web auf
Die veröffentlichte Orchestrierungslogik zeigt detailliert, wie Claude Code Berechtigungen verwaltet, Bash-Befehle ausfĂŒhrt und auf Dateisysteme zugreift. FĂŒr Sicherheitsexperten ist das ein Alarmsignal. Angreifer mĂŒssen nicht mehr im Dunkeln tappen, um Schwachstellen in den Sicherheitsvorkehrungen zu finden. Sie können nun die konkrete TypeScript-Implementierung der âConstitutional AIâ-Filter studieren und gezielte Angriffentwicklung.
Die Konsequenzen lieĂen nicht lange auf sich warten. Bereits 48 Stunden nach dem Leck tauchten modifizierte Versionen des Codes im Dark Web auf. Diese âSchatten-Agentenâ haben die ethischen Sicherheitsvorkehrungen und Terminal-ZugriffsbeschrĂ€nkungen entfernt. Sie könnten als Werkzeugkasten fĂŒr die automatisierte Erstellung von Cyberangriffen dienen.
Sicherheitsberater wie Gartner raten Unternehmen nun dringend, ihren Einsatz von KI-Coding-Assistenten zu ĂŒberprĂŒfen. Sie empfehlen, diese Agenten als unvertrauenswĂŒrdige AbhĂ€ngigkeiten zu behandeln. Granulare Berechtigungsgrenzen und das Scannen auf sensible Daten sollen verhindern, dass die KI wĂ€hrend autonomer Operationen unbeabsichtigt Zugangsdaten preisgibt.
RĂŒckschlag fĂŒr den KI-Sicherheitspionier
Der Zeitpunkt des Vorfalls ist fĂŒr Anthropic denkbar ungĂŒnstig. Das Unternehmen, das seinen Ruf auf dem Fundament von KI-Sicherheit aufgebaut hat, schloss kĂŒrzlich eine Finanzierungsrunde ĂŒber 30 Milliarden US-Dollar ab. Die Bewertung liegt bei etwa 380 Milliarden US-Dollar. Nun steht die operative Disziplin des Unternehmens in Frage.
Die Panne erfolgte zudem nur Wochen, nachdem die US-Regierung bestimmte KI-Entwicklungspraktiken als potenzielle Risiken fĂŒr die Lieferkette eingestuft hat â eine Klassifizierung, gegen die Anthropic vor Gericht kĂ€mpft.
Ein weiteres Problem könnte das Urheberrecht sein. Da Anthropic zuvor einrĂ€umte, dass groĂe Teile von Claude Code von einer KI verfasst wurden, könnte der Schutz des geleakten Codes unter US-Recht geschwĂ€cht sein. Dies wĂŒrde die laufenden BemĂŒhungen erschweren, den Code per DMCA-Takedown aus dem Internet zu entfernen.
Der âGroĂe Claude-Leak von 2026â wird den Druck auf die Branche erhöhen, transparentere Sicherheitsstandards zu etablieren. Er könnte aber auch das Spielfeld ebnen: Kleinere KI-Labore, denen bisher die Ressourcen fĂŒr komplexe Orchestrierungssysteme fehlten, könnten nun auf Basis der geleakten Architektur eigene Open-Source-Frameworks entwickeln. Die Blaupause eines der fortschrittlichsten KI-Systeme der Welt ist nun nur einen Git-Befehl entfernt.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.
