KI-Agenten, Cybersicherheit

KI-Agenten revolutionieren die Cybersicherheit – und schaffen neue Risiken

07.05.2026 - 15:10:21 | boerse-global.de

Autonome KI-Systeme schaffen neue Angriffsvektoren, während Datenschutzbehörden und EU-Gesetze die Sicherheitsanforderungen für Unternehmen drastisch erhöhen.

KI-Agenten revolutionieren die Cybersicherheit – und schaffen neue Risiken - Foto: über boerse-global.de
KI-Agenten revolutionieren die Cybersicherheit – und schaffen neue Risiken - Foto: über boerse-global.de

Die rasche Verbreitung eigenständig handelnder KI-Agenten hat die Cybersicherheit auf den Kopf gestellt. Wo früher der Mensch als größtes Sicherheitsrisiko galt, rücken nun die Schwachstellen maschineller Entscheidungen in den Fokus. Eine Reihe von Berichten aus Aufsichtsbehörden, Forschungslaboren und Technologiekonzernen zeichnet ein klares Bild: Die Branche muss sich auf eine neue Ära automatisierter Angriffe einstellen – und gleichzeitig die eigenen KI-Systeme vor Manipulation schützen.

Anzeige

Die rasante Entwicklung autonomer KI-Systeme bringt nicht nur technische Risiken, sondern auch komplexe rechtliche Verpflichtungen mit sich. Dieser kostenlose Leitfaden zum EU AI Act hilft Ihnen, Risikoklassen und Fristen besser zu verstehen, um Ihr Unternehmen rechtssicher aufzustellen. EU AI Act in 5 Schritten verstehen

Die neuen Gefahren: Wenn KI gegen KI kämpft

Das Open Worldwide Application Security Project (OWASP) hat am 7. Mai 2024 erstmals eine Liste der zehn größten Risiken für sogenannte „agentische KI" veröffentlicht. Diese Systeme sind keine passiven Chatbots mehr – sie führen eigenständig komplexe Aufgaben in Unternehmensnetzwerken aus. Die neue Gefahrenliste nennt Bedrohungen wie „Goal Hijacking" (Zielentführung), bei dem Angreifer die Aufgabenstellung eines KI-Agenten umbiegen, oder „Memory Poisoning" (Speichervergiftung), bei dem der Entscheidungskontext des Systems manipuliert wird.

Labortests auf der OpenClaw-Plattform zeigten die Brisanz: KI-Agenten gaben unbeabsichtigt vertrauliche Daten preis und kompromittierten sich gegenseitig in mehreren Fällen. Das Problem: Diese Systeme arbeiten oft mit weitreichenden Berechtigungen in verschiedenen Software-Umgebungen.

Die Folge: Fast 70 Prozent der Cybersicherheitsexperten erwarten, dass KI-basierte Schwachstellen bis 2027 ein größeres Risiko darstellen als menschliche Fehler. Das geht aus einer Studie des Sicherheitsanbieters Keyfactor hervor. Herkömmliche Schulungen reichen nicht mehr – Unternehmen müssen KI-Agenten in Sandbox-Umgebungen isolieren und jede kritische Aktion durch einen Menschen bestätigen lassen.

Besonders alarmierend: In 82 Prozent der Unternehmen sind unbekannte KI-Agenten aktiv. Diese „Schatten-KI" umgeht oft die Zugriffskontrollen und schafft blinde Flecken. Ein Angriff auf npm-Anmeldedaten im Frühjahr 2024 zeigte, dass solche Lücken in weniger als 90 Sekunden ausgenutzt werden können.

Datenschutz unter Druck: Behörden schlagen Alarm

Während die technischen Risiken wachsen, verschärfen die Datenschutzbehörden ihre Kontrollen. Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI), Louisa Specht-Riemenschneider, hat am 6. Mai 2024 ihren Tätigkeitsbericht für 2025 vorgelegt. Die Zahlen sind beeindruckend: 11.824 Datenschutzanfragen und Beschwerden – ein Anstieg von über 35 Prozent im Vergleich zum Vorjahr.

Im Fokus der Behörde steht das Training von KI-Modellen mit Daten Dritter. Nach der Datenschutz-Grundverordnung (DSGVO) benötigt diese Verarbeitung eine klare Rechtsgrundlage – die oft fehlt, wenn Daten ohne Einwilligung gescrapt werden. Specht-Riemenschneider fordert eine europaweite Debatte darüber, welche KI-Nutzungen erlaubt sein sollen. Sie unterscheidet zwischen sinnvollen Anwendungen wie medizinischer Therapie und problematischen wie Massenüberwachung.

Die Behörde hat im vergangenen Jahr 80 Vor-Ort-Prüfungen und 40 schriftliche Audits durchgeführt und 129 Maßnahmen verhängt. Ein prominentes Beispiel: eine Geldstrafe von 45 Millionen Euro gegen Vodafone wegen Datenschutzverstößen. Als Hilfestellung für Unternehmen hat die BfDI einen „Datenbarometer" und spezielle Leitlinien für KI unter Datenschutzaspekten eingeführt.

Die Automatisierung des Betrugs

Während die Aufsichtsbehörden die Zügel anziehen, treiben Kriminelle die Automatisierung voran. Eine Studie von KnowBe4 vom 5. Mai 2024 zeigt: 86 Prozent aller Phishing-Angriffe werden inzwischen von KI unterstützt. Die Zahl der Angriffe über Kalendereinladungen stieg um 49 Prozent, die Bedrohungen über Kollaborationsplattformen wie Microsoft Teams um 41 Prozent. Besonders besorgniserregend: Der Einsatz von Reverse-Proxys zur Umgehung der Multi-Faktor-Authentifizierung bei Microsoft 365 hat sich um über 130 Prozent erhöht.

Eine neue Bedrohungsklasse sind „KI-Betrugsagenten". Laut einem Bericht von Sumsub aus Mitte Mai 2024 nutzen diese Systeme generative KI und bestärkendes Lernen, um synthetische Identitäten zu erschaffen und Datenpipelines zu manipulieren. Die Angreifer steuern interaktive Avatare, die in Echtzeit „Lebendigkeitsprüfungen" umgehen können. Die Folge: 180 Prozent mehr hochkomplexe Betrugsfälle im Jahresvergleich. Die Verteidigung erfordert den Einsatz von Verhaltens-KI und „Human-Binding"-Techniken, die die physische Anwesenheit eines Nutzers durch mehrere Prüfungen bestätigen.

Die großen Technologiekonzerne reagieren. Microsoft hat seinen Dienst Agent 365 allgemein verfügbar gemacht – eine zentrale Steuerungsebene für die Überwachung und Sicherung von KI-Agenten in lokalen und Cloud-Umgebungen. ServiceNow hat einen „AI Control Tower" vorgestellt, der nicht-menschliche Identitäten erkennt und „KI-Teamkollegen" in Unternehmenssystemen verwaltet.

Vom Ausführenden zum Aufseher

Die aktuelle Entwicklung verändert das Verständnis von „menschlichem Risiko" grundlegend. Jahrelang galt der Mensch als schwächstes Glied – durch Klicks auf falsche Links oder schwache Passwörter. In der Ära der agentischen KI verschiebt sich das Risiko hin zur Steuerung der Systeme, die Menschen erschaffen und einsetzen. Die größte Gefahr liegt im „Black-Box-Problem" und der Möglichkeit des „Goal Hijackings", bei dem die menschliche Absicht hinter einer KI-Mission in der Ausführung verloren geht.

Der Arbeitsmarkt spürt die Veränderungen bereits. Wirtschaftsanalysen zeigen, dass wissensbasierte Berufe in Ingenieurwesen, Finanzen und Recht besonders von Automatisierung bedroht sind. Fast 30 Prozent der Aufgaben in bestimmten Bereichen können heute von KI-Agenten übernommen werden. Die Rolle des Menschen wandelt sich vom Ausführenden zum Aufseher – mit neuen Anforderungen an KI-Governance und ethische Prüfung.

2026: Das Jahr der Regulierung

Anzeige

Angesichts der drohenden Millionenstrafen bei Verstößen gegen das EU-KI-Gesetz ist eine lückenlose Dokumentation für Unternehmen unerlässlich. Sichern Sie sich jetzt den kostenlosen Umsetzungsleitfaden zum AI Act, um alle relevanten Übergangsfristen und Compliance-Anforderungen rechtzeitig zu erfüllen. Jetzt kostenlosen KI-Leitfaden herunterladen

Der weitere Verlauf des Jahres 2026 wird von einem massiven Schub regulatorischer Klarheit geprägt sein. In den USA prüft die Regierung einen Executive Order, der Sicherheitstests für KI-Modelle vor ihrer Veröffentlichung vorschreiben würde. Dies folgt auf freiwillige Vereinbarungen zwischen der Cybersicherheitsbehörde CISA und großen Entwicklern wie Microsoft, xAI und Google DeepMind.

In Europa sind die Fristen noch konkreter. Das EU-KI-Gesetz tritt am 2. August 2026 in Kraft – mit einem Strafrahmen von bis zu 7 Prozent des globalen Jahresumsatzes bei Verstößen. Nur wenige Wochen später, am 11. September 2026, folgt der Cyber Resilience Act, der neue Sicherheitsanforderungen für digitale Produkte über ihren gesamten Lebenszyklus hinweg einführt.

Für Unternehmen bedeutet das: Der Weg führt weg von fragmentierten, menschenzentrierten Sicherheitsmodellen hin zu integrierten, identitätsbasierten Strategien. Das Ziel ist klar: KI-Agenten müssen als vollwertige digitale Identitäten mit eingeschränkten Berechtigungen und ständiger menschlicher Aufsicht verwaltet werden. Wer jetzt nicht handelt, wird die neuen Regeln nicht einhalten können – und riskiert nicht nur Sicherheitslücken, sondern auch Millionenstrafen.

Wirtschaftsnachrichten lesen ist gut - trading-notes lesen ist besser!

Wirtschaftsnachrichten lesen ist gut - <b>trading-notes</b> lesen ist besser!
Seit 2005 liefert der Börsenbrief trading-notes verlässliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
Für. Immer. Kostenlos.
de | wirtschaft | 69288718 |