AI Agents in der Finanzbranche: Chancen, Risiken und der DORA-Faktor
Autonome KI-Agenten revolutionieren Geschäftsprozesse in Banken und Versicherungen. Doch mit der rasanten Adoption wachsen die Sicherheitsrisiken – und die regulatorischen Anforderungen durch DORA verschärfen den Handlungsdruck. Ein Überblick für Entscheider.
Die KI-Agenten-Revolution erreicht die Finanzbranche
2026 markiert einen Wendepunkt: KI-Agenten haben den Sprung von experimentellen Prototypen in produktive Unternehmenssysteme geschafft. Laut aktuellen Analysten-Daten prognostiziert McKinsey, dass AI Agents jährlich 2,6 bis 4,4 Billionen US-Dollar an Wertschöpfung generieren könnten. Gartner erwartet, dass bis 2028 rund 33 Prozent aller Enterprise-Softwareanwendungen agentenbasierte KI integrieren werden.
Für die Finanzbranche sind die Einsatzszenarien besonders vielversprechend:
- Compliance und Regulatorik: Automatisierte Überwachung von Transaktionen, Policy-Enforcement und Anomalie-Erkennung
- Risikomanagement: Echtzeit-Bewertung von IKT-Risiken, Konzentrationsrisikoanalyse bei Drittanbietern
- Kundenservice: Autonome Bearbeitung von Anfragen, Kontoverifizierung und Eskalationsmanagement
- Fraud Detection: KI-gestützte Mustererkennung in Echtzeit über mehrere Datenquellen hinweg
- Reporting: Automatisierte Erstellung regulatorischer Berichte und Audit-Dokumentationen
Doch die Geschwindigkeit der Adoption übersteigt die Fähigkeit vieler Sicherheitsteams, Schritt zu halten. Und genau hier liegt das Problem.
Die Sicherheitslücke: Zahlen, die aufrütteln sollten
Der Gravitee State of AI Agent Security Report 2026 liefert alarmierende Daten: 80,9 Prozent der technischen Teams haben KI-Agenten bereits über die Planungsphase hinaus in aktive Tests oder Produktion gebracht. Nur 14,4 Prozent dieser Agenten gingen mit vollständiger Sicherheits- und IT-Freigabe live.

Die Verbindung von DORA-Compliance und KI-Automatisierung wird 2026 zum strategischen Pflichtprogramm für Finanzinstitute.
Die wichtigsten Kennzahlen im Überblick:
| Kennzahl | Wert | Bedeutung |
|---|---|---|
| Organisationen mit KI-Sicherheitsvorfall | 88 % | Fast 9 von 10 Unternehmen betroffen |
| Agenten mit Sicherheits-Monitoring | 47,1 % | Mehr als die Hälfte unüberwacht |
| Agenten mit Shared API Keys | 45,6 % | Kritische Identitätsschwäche |
| Sichtbarkeit über Agent-Zugriffe | 21 % | Fast 80 % der Unternehmen im Blindflug |
| Mehrkosten durch Shadow-AI-Vorfälle | 670.000 USD | Pro Vorfall gegenüber Standard-Incidents |
Die Diskrepanz ist bemerkenswert: 82 Prozent der Führungskräfte glauben, ihre bestehenden Richtlinien schützten sie vor unautorisierten Agenten-Aktionen. Doch nur 21 Prozent haben tatsächlich Transparenz darüber, worauf ihre Agenten zugreifen, welche Tools sie aufrufen oder welche Daten sie verarbeiten.
Die vier kritischen Angriffsvektoren bei KI-Agenten
KI-Agenten unterscheiden sich fundamental von klassischer Software. Sie denken, planen, rufen externe Tools auf und treffen autonome Entscheidungen. Jede dieser Fähigkeiten eröffnet einen eigenen Angriffsvektor, den traditionelle Application Security nie adressieren musste.
1. Prompt Injection
Prompt Injection steht auf Platz 1 der OWASP LLM Top 10. Dabei werden schädliche Anweisungen in Nutzereingaben, Dokumente oder abgerufene Daten eingebettet, die das Verhalten eines Agenten ändern, ohne konventionelle Sicherheitswarnungen auszulösen. In agentischen Systemen potenziert sich das Risiko: Wenn ein Agent externe Daten abruft, verarbeitet und darauf basierend Aktionen ausführt, kann eine einzelne injizierte Anweisung durch einen gesamten Workflow kaskadieren.
2. Over-Permissioning
Die meisten Agenten starten mit deutlich mehr Zugriffsrechten als notwendig. Wenn ein Kundenservice-Agent die gesamte Wissensdatenbank lesen, Abrechnungssysteme abfragen und Kontoeinstellungen ändern kann, wächst der Blast Radius eines einzelnen Sicherheitsvorfalls exponentiell. IBM empfiehlt das Prinzip der Just-in-Time-Berechtigungen: Zugriff wird nur für die Dauer einer spezifischen Aufgabe gewährt und unmittelbar danach widerrufen. In der Praxis setzen dies nur wenige Organisationen um.
3. Shadow AI
Jede fünfte Organisation berichtet von Sicherheitsvorfällen durch unautorisierte KI-Nutzung. Mitarbeiter, die nicht genehmigte KI-Tools einsetzen, schaffen blinde Flecken, in denen Agenten sensible Daten über unüberwachte Kanäle verarbeiten. Unternehmen haben im Durchschnitt rund 1.200 inoffizielle KI-Anwendungen im Einsatz.
4. Memory und Datenpersistenz
Agenten, die Konversationshistorie oder Kontext über Sitzungen hinweg aufrechterhalten, akkumulieren sensible Informationen über die Zeit. Ohne explizites Memory-Lifecycle-Management können diese Datenspeicher zu attraktiven Angriffszielen werden, insbesondere in regulierten Branchen wie dem Finanzsektor.
DORA 2026: Das Jahr der Bewährung
Die Relevanz dieser Sicherheitsrisiken wird durch den regulatorischen Rahmen noch verschärft. Der Digital Operational Resilience Act (DORA) ist seit Januar 2025 verbindlich, und 2026 gilt als das Jahr der Bewährung.
Die Befundlage nach zwölf Monaten Umsetzung ist gemischt. Die BaFin hat seit Inkrafttreten über 600 schwerwiegende IKT-Vorfälle registriert. Viele Finanzinstitute haben die formalen Anforderungen zwar adressiert, kämpfen aber weiterhin mit fragmentierten Prozessen, Medienbrüchen und fehlender End-to-End-Sicht auf Risiken, Vorfälle und Drittparteien.
Die größte Herausforderung laut Branchenumfragen: das Management von IKT-Drittparteien. 75 Prozent der kritischen Auslagerungsdienstleister stammen aus Drittstaaten, was die Komplexität der Überwachung erheblich steigert.
Wo DORA und KI-Agenten kollidieren
Die Einführung von KI-Agenten in DORA-regulierte Umgebungen erzeugt spezifische Spannungsfelder:
- IKT-Risikomanagement (Art. 5-16 DORA): KI-Agenten sind eigenständige IKT-Systeme, die einem vollständigen Risikomanagement-Framework unterliegen. Ihre autonome Natur erschwert die vorgeschriebene Identifikation und Bewertung von Risiken erheblich.
- Vorfallmeldung (Art. 17-23 DORA): Wenn ein KI-Agent durch Prompt Injection kompromittiert wird, muss dies als IKT-Vorfall klassifiziert und gemeldet werden. Die Erkennung solcher Vorfälle erfordert spezialisiertes Monitoring.
- Drittanbieter-Management (Art. 28-44 DORA): KI-Modelle werden häufig über externe APIs bezogen. Diese Abhängigkeiten müssen im Informationsregister erfasst, Konzentrationsrisiken bewertet und Exit-Strategien definiert werden.
- Resilienz-Testing (Art. 24-27 DORA): Agentische Systeme erfordern neue Testmethoden, die über klassische Penetrationstests hinausgehen – etwa Red-Teaming gegen Prompt Injection oder adversarial Testing.
Handlungsempfehlungen: Ein Rahmenwerk für den sicheren KI-Agenten-Einsatz
Für IT-Leiter und CISOs in Banken und Versicherungen empfiehlt sich ein strukturierter Ansatz, der sowohl Sicherheits- als auch Compliance-Anforderungen integriert:
Phase 1: Inventarisierung und Governance (Sofort)
- Vollständige Erfassung aller im Einsatz befindlichen KI-Agenten, inklusive Shadow AI
- Einrichtung einer Agent-Identity-Management-Struktur: Jeder Agent erhält eine eigene, nachverfolgbare Identität
- Definition von Zugriffspolicies nach dem Least-Privilege-Prinzip
- Integration ins DORA-Informationsregister
Phase 2: Sicherheitsarchitektur (Kurzfristig, Q2 2026)
- Implementierung von Just-in-Time-Berechtigungen für alle produktiven Agenten
- Aufbau eines Agent-Monitoring-Systems mit vollständigem Audit-Trail
- Einführung von Input-Validierung und Output-Filterung gegen Prompt Injection
- Verschlüsselung und Lifecycle-Management für Agent-Memory
Phase 3: Testing und Continuous Compliance (Mittelfristig)
- Regelmäßiges adversarial Testing und Red-Teaming für agentische Systeme
- Integration der Agent-Sicherheit in bestehende DORA-Resilienz-Tests
- Automatisierte Compliance-Checks und Reporting
- Aufbau interner Kompetenz für AI Security Engineering
TCO-Betrachtung: Was kostet Nichtstun?
Eine pragmatische Kosten-Nutzen-Analyse verdeutlicht den Handlungsdruck:
| Kostenfaktor | Ohne Sicherheitskonzept | Mit strukturiertem Ansatz |
|---|---|---|
| Durchschnittlicher Sicherheitsvorfall | 670.000 USD Mehrkosten | Risikominimierung um 60-80 % |
| DORA-Compliance-Verstöße | Bis zu 2 % des Jahresumsatzes | Regulatorische Sicherheit |
| Reputationsschaden | Nicht quantifizierbar, potenziell existenzbedrohend | Vertrauensvorsprung bei Kunden |
| Implementierungskosten (mögliches Szenario) | – | 150.000 – 400.000 EUR initial |
Die Rechnung ist eindeutig: Ein einzelner Shadow-AI-Vorfall kann die Kosten eines strukturierten Sicherheitskonzepts für mehrere Jahre übersteigen.
Ausblick: Was Finanzinstitute jetzt tun sollten
Die Konvergenz von KI-Agenten und regulatorischen Anforderungen wie DORA ist kein Zukunftsszenario – sie ist Realität. Die Frage ist nicht, ob Finanzinstitute KI-Agenten einsetzen werden, sondern wie sicher und compliant sie dies tun.
Drei Prioritäten für 2026:
- Sichtbarkeit schaffen: Wer nicht weiß, welche Agenten mit welchen Rechten im Unternehmen laufen, kann weder Sicherheit noch Compliance gewährleisten.
- Governance first: KI-Agenten-Governance muss Teil der bestehenden IKT-Governance-Strukturen werden, nicht ein separates Silo.
- Kompetenz aufbauen: Die Schnittstelle zwischen AI Engineering, Cybersecurity und regulatorischer Compliance erfordert neue Kompetenzprofile, die am Markt knapp sind.
Die Aionda GmbH unterstützt Finanzinstitute bei der sicheren Integration von KI-Agenten in regulierte Umgebungen – von der Architekturberatung über die Implementierung bis zum laufenden Betrieb. Mit Nearshoring-Teams in Spanien und Südamerika bieten wir dabei eine kostengünstigere Alternative zu rein inländischer Umsetzung, ohne Kompromisse bei Qualität und Datenschutz.
Sie möchten KI-Agenten sicher und DORA-konform in Ihrem Finanzinstitut einsetzen? Kontaktieren Sie uns für ein unverbindliches Beratungsgespräch.
📧 stephan.ferraro@aionda.com
🌐 aionda.com
Autor: Stephan Ferraro, Gründer und Geschäftsführer der Aionda GmbH
0 Comments