KI-Agenten im Finanzsektor: Wenn autonome Systeme zur Sicherheitsbedrohung werden

Published by Luna on

80 Prozent der Fortune-500-Unternehmen setzen bereits aktive KI-Agenten ein. Gleichzeitig berichten 80 Prozent der befragten Organisationen von riskanten Verhaltensweisen dieser Agenten – darunter unautorisierte Systemzugriffe und ungewollte Datenoffenlegung. Für Banken und Versicherungen, die unter DORA ohnehin ihre digitale operationale Resilienz nachweisen müssen, entsteht eine völlig neue Risikodimension.

Die neue Realität: KI-Agenten sind keine Chatbots mehr

Die Entwicklung der letzten zwölf Monate hat einen fundamentalen Wandel vollzogen. KI-Systeme haben sich von reaktiven Assistenten, die auf Anfragen antworten, zu autonomen Agenten entwickelt, die eigenständig mehrstufige Aufgaben ausführen, externe Tools aufrufen und Entscheidungen ohne menschliche Einzelfreigabe treffen. Microsoft berichtet in seinem aktuellen Security Blog, dass 80 Prozent der Fortune-500-Unternehmen bereits aktive KI-Agenten nutzen – Tendenz stark steigend.

Was das konkret bedeutet: Ein KI-Agent in einer Bank kann selbstständig Datenbanken abfragen, Transaktionen vorbereiten, Reports generieren und dabei mit Dutzenden internen und externen Systemen kommunizieren. Das ist kein Science-Fiction-Szenario, sondern bereits Produktionsrealität in vielen Finanzinstituten.

Konzeptdarstellung autonomer KI-Agenten die auf Banksysteme und Datenbanken zugreifen mit Sicherheitssymbolen

Die drei zentralen Sicherheitsprobleme autonomer KI-Agenten

Ein aktuelles Briefing des AIUC-1 Consortium, entwickelt unter Mitwirkung von Stanfords Trustworthy AI Research Lab und mehr als 40 Security-Führungskräften – darunter CISOs von Confluent, Elastic, UiPath und der Deutschen Börse – identifiziert drei zentrale Risikokategorien, die Sicherheitsverantwortliche aktuell beschäftigen.

1. Das Agenten-Problem: Unkontrollierte Autonomie

KI-Agenten mit überprivilegierten Zugriffsrechten und unzureichenden Containment-Grenzen können allein durch ihren regulären Betrieb Schäden verursachen – ganz ohne externen Angreifer. Die Zahlen sind alarmierend:

  • 80 Prozent der befragten Organisationen berichten von riskantem Agentenverhalten, einschließlich unautorisierter Systemzugriffe und unbeabsichtigter Datenoffenlegung.
  • Nur 21 Prozent der Führungskräfte geben an, vollständige Transparenz über Agentenberechtigungen, Tool-Nutzung und Datenzugriffsmuster zu haben.
  • Laut einer EY-Studie haben 64 Prozent der Unternehmen mit einem Jahresumsatz über einer Milliarde Dollar bereits mehr als eine Million Dollar durch KI-Ausfälle verloren.

Omar Khawaja, VP und Field CISO bei Databricks, bringt das Problem auf den Punkt: KI-Komponenten ändern sich ständig über die gesamte Lieferkette hinweg, während bestehende Sicherheitskontrollen statische Assets voraussetzen. Wenn sich das Verhalten eines Agenten dynamisch ändert, entstehen blinde Flecken.

2. Das Sichtbarkeitsproblem: Shadow AI außer Kontrolle

63 Prozent der Mitarbeitenden, die 2025 KI-Tools nutzten, haben sensible Unternehmensdaten – darunter Quellcode und Kundendaten – in persönliche Chatbot-Accounts eingefügt. Im Durchschnitt nutzt ein Unternehmen geschätzt 1.200 inoffizielle KI-Anwendungen, wobei 86 Prozent der Organisationen keine Transparenz über ihre KI-Datenflüsse haben.

Die finanziellen Auswirkungen sind erheblich: Shadow-AI-Sicherheitsvorfälle kosten durchschnittlich 670.000 Dollar mehr als Standard-Sicherheitsvorfälle – verursacht durch verzögerte Erkennung und die Schwierigkeit, das Ausmaß der Exposition zu bestimmen.

3. Das Vertrauensproblem: Prompt Injection und Manipulation

Autonome Agenten sind anfällig für eine Reihe von Angriffsszenarien, die bei klassischen IT-Systemen nicht existieren: Prompt Injection und Manipulation, Tool-Missbrauch und Privilege Escalation, Memory Poisoning, kaskadierende Fehler und Supply-Chain-Angriffe. Der Cisco State of AI Security Report 2026 dokumentiert die Evolution dieser Angriffsvektoren und zeigt, wie sich die Bedrohungslandschaft rasant erweitert.

Palo Alto Networks warnt in einer aktuellen Analyse sogar davor, dass KI-Agenten selbst zu bösartigen Insider-Akteuren werden könnten – ein mögliches Szenario, das traditionelle Insider-Threat-Modelle grundlegend infrage stellt.

DORA und KI-Agenten: Die regulatorische Dimension

Geschäftsführer und IT-Leiter besprechen DORA-Compliance-Anforderungen in einem modernen Besprechungsraum

Für den Finanzsektor verschärft sich die Situation durch die regulatorischen Anforderungen des Digital Operational Resilience Act (DORA). Seit Januar 2025 unmittelbar anwendbar, zeigt sich über ein Jahr später ein ernüchterndes Bild: Laut aktuellen Erhebungen haben 44 Prozent der betroffenen Finanzunternehmen erhebliche Umsetzungsprobleme. Nur 27 Prozent der befragten Unternehmen geben an, DORA bereits vollständig umgesetzt zu haben.

Warum KI-Agenten die DORA-Compliance erschweren

DORA fordert von Finanzunternehmen in fünf Kernbereichen Nachweise:

DORA-Kernpfeiler Herausforderung durch KI-Agenten
IKT-Risikomanagement Dynamisches Agentenverhalten erschwert statische Risikomodelle. Agenten ändern ihre Aktionsmuster je nach Kontext und Training.
Incident Reporting Wann ist ein fehlerhaftes Agentenverhalten ein meldepflichtiger Vorfall? Die Abgrenzung ist unklar und die Erkennungszeiten sind lang.
Resilienztests (inkl. TLPT) Klassisches Penetration Testing deckt KI-spezifische Angriffsvektoren wie Prompt Injection nicht ab.
Drittparteienrisiko KI-Agenten nutzen externe APIs und Modelle. Die Lieferkette wird unübersichtlich – besonders bei Open-Source-Modellen.
Informationsaustausch KI-spezifische Bedrohungsinformationen werden bisher kaum systematisch zwischen Finanzunternehmen geteilt.

Die BaFin hat für 2026 systematische Prüfungen und Nachschauprüfungen angekündigt. Finanzunternehmen, die KI-Agenten im Produktionsbetrieb einsetzen, ohne deren Risiken im DORA-Rahmenwerk adressiert zu haben, laufen Gefahr, bei Prüfungen erhebliche Compliance-Lücken aufzuweisen.

NIST setzt Standards für KI-Agenten-Sicherheit

Auf internationaler Ebene hat das US-amerikanische National Institute of Standards and Technology (NIST) im Februar 2026 die “AI Agent Standards Initiative” angekündigt. Die Initiative adressiert zwei zentrale Bereiche: AI Agent Security und AI Agent Identity and Authorization. Die Ergebnisse werden auch für europäische Finanzinstitute relevant sein, da sie voraussichtlich als Referenzrahmen für die Entwicklung eigener EU-Standards dienen werden.

Parallel dazu baut sich ein neues Marktsegment auf: Das Cybersecurity-Unternehmen Kai hat erst gestern eine Finanzierungsrunde über 125 Millionen Dollar abgeschlossen, um eine agentenbasierte Cybersecurity-Plattform aufzubauen, die Sicherheitsarbeit autonom ausführen soll. Der Markt für KI-Sicherheit und KI-gesicherte Sicherheit wächst rasant.

Handlungsempfehlungen für Finanzinstitute

Auf Basis der aktuellen Forschungsergebnisse und regulatorischen Anforderungen ergeben sich folgende konkrete Handlungsfelder:

Sofortmaßnahmen (Q1-Q2 2026)

  1. KI-Inventar erstellen: Erfassen Sie alle im Einsatz befindlichen KI-Agenten, deren Zugriffsrechte, Datenflüsse und externen Abhängigkeiten. Laut der AIUC-1-Studie fehlt diese Transparenz bei 79 Prozent der Organisationen.
  2. Shadow-AI-Audit durchführen: Identifizieren Sie inoffizielle KI-Nutzung in Ihrem Unternehmen. Die durchschnittlich 1.200 nicht genehmigten KI-Anwendungen pro Unternehmen stellen ein erhebliches Risiko dar.
  3. Berechtigungsmodell überprüfen: Implementieren Sie das Prinzip der geringsten Berechtigung (Least Privilege) für alle KI-Agenten. Kein Agent sollte mehr Zugriffsrechte haben als für seine definierte Aufgabe notwendig.

Mittelfristige Maßnahmen (Q2-Q4 2026)

  1. KI-spezifische Testverfahren implementieren: Ergänzen Sie Ihr TLPT-Programm um KI-spezifische Angriffsszenarien wie Prompt Injection, Memory Poisoning und Tool-Manipulation.
  2. Monitoring und Observability aufbauen: Implementieren Sie Echtzeit-Überwachung für das Verhalten Ihrer KI-Agenten – nicht nur für deren Verfügbarkeit, sondern für deren Entscheidungen und Aktionen.
  3. DORA-Integration sicherstellen: Integrieren Sie KI-Agenten explizit in Ihr IKT-Risikomanagement-Framework und passen Sie Ihre Incident-Response-Prozesse an KI-spezifische Vorfälle an.

Strategische Maßnahmen (2026-2027)

  1. Governance-Framework für KI-Agenten etablieren: Definieren Sie klare Verantwortlichkeiten, Genehmigungsprozesse und Eskalationswege für den Einsatz autonomer KI-Systeme.
  2. Branchenübergreifenden Informationsaustausch vorantreiben: Nutzen Sie die DORA-Möglichkeiten zum freiwilligen Austausch von Bedrohungsinformationen speziell für KI-bezogene Risiken.

TCO-Betrachtung: Was Nicht-Handeln kostet

Die wirtschaftlichen Auswirkungen unzureichender KI-Sicherheit lassen sich quantifizieren:

Kostenposition Durchschnittliche Kosten
Shadow-AI-Sicherheitsvorfall (Mehrkosten ggü. Standard) 670.000 USD
KI-Ausfälle (Unternehmen >1 Mrd. Umsatz) >1.000.000 USD
DORA-Non-Compliance (mögliche BaFin-Sanktionen) Bis zu 2% des weltweiten Jahresumsatzes
Reputationsschaden durch KI-bedingten Datenvorfall Schwer quantifizierbar, aber langfristig wirkend

Demgegenüber stehen die Kosten für proaktive KI-Sicherheitsmaßnahmen, die erfahrungsgemäß bei einem Bruchteil der potenziellen Schadenskosten liegen. Unternehmen, die frühzeitig strukturierte KI-Sicherheitskontrollen implementieren, berichten laut der AIUC-1-Studie von schnelleren Beschaffungszyklen, klarerer Audit-Bereitschaft und reduzierter Reibung beim Einsatz von Agenten in regulierten Umgebungen.

Fazit: Handeln, bevor die BaFin anklopft

KI-Agenten sind gekommen, um zu bleiben. Sie bieten enorme Effizienzpotenziale, aber sie führen auch eine Risikoklasse ein, die in bestehenden IT-Sicherheits- und Compliance-Frameworks nicht vorgesehen war. Für Banken und Versicherungen, die unter DORA stehen, ist die Integration von KI-Agenten-Risiken in das IKT-Risikomanagement keine optionale Zukunftsaufgabe, sondern eine regulatorische Pflicht.

Die gute Nachricht: Wer jetzt handelt, kann sich einen erheblichen Wettbewerbsvorteil verschaffen. Denn die Fähigkeit, KI-Agenten sicher und compliant einzusetzen, wird zunehmend zum Differenzierungsmerkmal im Finanzsektor.

Wie Aionda unterstützen kann

Die Aionda GmbH unterstützt Finanzinstitute bei der sicheren Integration von KI-Technologien in bestehende IT-Landschaften. Unsere Expertise umfasst die Entwicklung DORA-konformer Softwarearchitekturen, die Implementierung sicherer KI-Agenten-Frameworks und die Beratung bei der regulatorischen Einordnung neuer Technologien.

Sprechen Sie mit uns über Ihre KI-Strategie und DORA-Compliance:
Stephan Ferraro, Gründer und Geschäftsführer Aionda GmbH
E-Mail: stephan.ferraro@aionda.com

Autor: Stephan Ferraro, Gründer und Geschäftsführer Aionda GmbH

Categories: Blog

0 Comments

Schreibe einen Kommentar

Avatar placeholder

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert