KI-Agenten in der Finanzbranche: Wenn die Adoption die Sicherheit überholt
88 Prozent aller Unternehmen melden KI-Sicherheitsvorfälle, nur 14 Prozent haben ihre KI-Agenten vollständig freigegeben – und die BaFin verschärft ihre Anforderungen. Eine Bestandsaufnahme für Entscheider in Banken und Versicherungen.
Die neue Realität: KI-Agenten sind Produktionsinfrastruktur
Was vor zwei Jahren noch als Experiment galt, ist 2026 operative Realität: KI-Agenten – autonome Softwaresysteme, die eigenständig Entscheidungen treffen, Datenbanken abfragen, Code modifizieren und Workflows auslösen – sind in über 80 Prozent der technischen Teams über die Planungsphase hinaus. Sie sind in Ticketsystemen, Quellcode-Repositories, Chat-Plattformen und Cloud-Dashboards verankert. In manchen Umgebungen öffnen sie Pull Requests, buchen Services und triggern automatisierte Prozesse mit minimaler menschlicher Beteiligung.
Für die Finanzbranche bedeutet das einen fundamentalen Wandel. Banken und Versicherungen setzen KI-Agenten zunehmend für Kreditentscheidungen, Compliance-Prüfungen, Schadenbearbeitung und Kundeninteraktion ein. Die Effizienzgewinne sind erheblich – doch die Sicherheitsrisiken wachsen mindestens ebenso schnell.
Die Zahlen sprechen eine deutliche Sprache
Der State of AI Agent Security 2026 Report von Gravitee, basierend auf einer Befragung von über 900 Führungskräften und Technikern, zeichnet ein beunruhigendes Bild:
- 88 % der Organisationen meldeten bestätigte oder vermutete KI-Agenten-Sicherheitsvorfälle im vergangenen Jahr
- Nur 47,1 % der KI-Agenten eines Unternehmens werden aktiv überwacht oder gesichert
- Nur 14,4 % der Organisationen haben eine vollständige Sicherheitsfreigabe für ihre gesamte Agentenflotte
- Mehr als die Hälfte aller Agenten operiert ohne jegliche Sicherheitsüberwachung oder Protokollierung
Ciscos State of AI Security 2026 Report bestätigt diese Befunde und liefert zusätzliche Daten: Multi-Turn-Angriffe – Attacken, die sich über mehrere Gesprächsrunden entfalten – erreichten in Tests Erfolgsraten von bis zu 92 Prozent über acht Open-Weight-Modelle hinweg. Klassische Einzelanfrage-Schutzmaßnahmen versagen bei längeren Sessions mit Speicher- und Tool-Zugriff.

Das Confidence-Paradox: Wenn Führungskräfte sich sicher fühlen, aber nicht sicher sind
Eine besonders gefährliche Konstellation für Finanzinstitute: 82 Prozent der Führungskräfte sind überzeugt, dass ihre bestehenden Richtlinien sie vor unautorisierten Agentenaktionen schützen. Die technische Realität widerspricht dem fundamental.
Dieses Confidence-Paradox ist für die Finanzbranche besonders riskant, weil es Investitionen in KI-Sicherheit verzögert. Vorstände, die sich sicher wähnen, sehen keinen Handlungsbedarf – bis ein Vorfall eintritt, der nicht nur technische, sondern auch regulatorische Konsequenzen nach sich zieht.
Die fünf kritischen Angriffsvektoren für KI-Agenten
| Angriffsvektor | Beschreibung | Risiko für Finanzsektor |
|---|---|---|
| Prompt Injection | Manipulation der KI durch eingeschleuste Anweisungen | Sehr hoch – kann zu unautorisierten Transaktionen führen |
| Privilege Escalation | Agent erlangt Zugriffsrechte über seine Berechtigung hinaus | Kritisch – Zugriff auf sensible Finanzdaten |
| Memory Poisoning | Vergiftung des Langzeitgedächtnisses eines Agenten | Hoch – persistente Manipulation von Entscheidungslogik |
| Tool Misuse | Missbrauch angebundener Werkzeuge und APIs | Hoch – unkontrollierte Datenbankschreibzugriffe |
| Supply Chain Attacks | Kompromittierung über Drittanbieter-Modelle oder -Plugins | Sehr hoch – betrifft DORA-Drittanbieter-Management |
DORA und die BaFin: Der regulatorische Rahmen verschärft sich
Die Herausforderung für Finanzinstitute wird durch die regulatorische Landschaft zusätzlich verschärft. Der Digital Operational Resilience Act (DORA) ist seit Januar 2025 vollständig anwendbar und entfaltet 2026 seine volle Prüfwirkung. Die BaFin hat in ihrem Bericht „Risiken im Fokus 2026″ klar signalisiert, dass IT-Sicherheit und digitale operationale Resilienz zu den Top-Prioritäten der Aufsicht gehören.
Konkrete DORA-Anforderungen mit KI-Bezug
ICT-Risikomanagement (Artikel 5-16): Finanzunternehmen müssen einen umfassenden Rahmen für das Management aller ICT-Risiken unterhalten. KI-Agenten, die autonom auf Produktionssysteme zugreifen, fallen eindeutig in diesen Bereich. Jeder Agent muss in die Risikobewertung einbezogen werden – inklusive seiner Zugriffsrechte, Entscheidungslogik und Fehlermodi.
Incident Reporting (Artikel 17-23): Schwerwiegende ICT-Vorfälle müssen innerhalb definierter Fristen an die zuständigen Behörden gemeldet werden. Allein in den ersten drei Quartalen 2025 meldeten Firmen der BaFin über 500 schwerwiegende Vorfälle – etwa 70 Prozent davon stammten von Kreditinstituten. Wenn KI-Agenten Sicherheitsvorfälle verursachen, greift die Meldepflicht.
Resilience Testing (Artikel 24-27): Identifizierte Finanzunternehmen müssen mindestens alle drei Jahre ein Threat-Led Penetration Testing (TLPT) durchführen. KI-Agenten und ihre Schnittstellen müssen Teil dieser Tests sein – ein Bereich, den viele Institute bislang vernachlässigen.
Third-Party Risk Management (Artikel 28-44): Die Verwaltung von Drittanbieterrisiken ist ein zentrales DORA-Element. Wer KI-Modelle externer Anbieter nutzt – sei es über APIs oder eingebettete Dienste – muss diese Anbieter in sein Drittpartei-Risikomanagement integrieren. Die BaFin betont, dass viele Banken hier noch erhebliche Defizite aufweisen.

Shadow AI: Das unsichtbare Risiko
Ein besonders brisantes Thema für regulierte Institute ist Shadow AI – KI-Agenten, die ohne Wissen oder Freigabe der IT-Sicherheit in Betrieb genommen werden. Die Daten sind alarmierend: Nur 14,4 Prozent der Organisationen haben eine vollständige Sicherheitsfreigabe für alle ihre KI-Agenten.
In der Finanzbranche ist Shadow AI ein mögliches Szenario mit gravierenden Konsequenzen. Ein Fachbereich, der eigenständig einen KI-Agenten für die Datenanalyse einsetzt, ohne die IT-Sicherheit einzubinden, könnte unwissentlich gegen DORA-Anforderungen verstoßen. Wenn dieser Agent auf Kundendaten zugreift, kommen zusätzlich DSGVO-Anforderungen ins Spiel.
Microsofts aktueller Security-Blog zu den Top-10-Risiken bei Agent-Fehlkonfigurationen identifiziert vier wiederkehrende Grundprobleme:
- Überexposition – Agenten haben Zugriff auf mehr Daten als nötig
- Schwache Authentifizierungsgrenzen – unzureichende Identitätsprüfung
- Unsichere Orchestrierung – mangelnde Kontrolle bei der Tool-Nutzung
- Fehlende Lifecycle-Governance – kein Management des Agenten-Lebenszyklus
Handlungsempfehlungen: Ein Fünf-Stufen-Plan für Finanzinstitute
Stufe 1: Inventarisierung und Sichtbarkeit
Der erste und wichtigste Schritt ist die vollständige Erfassung aller im Einsatz befindlichen KI-Agenten. Dies umfasst sowohl offiziell eingeführte Systeme als auch Shadow-AI-Implementierungen. Ohne vollständige Sichtbarkeit ist keine Sicherheit möglich.
Stufe 2: Identitäts- und Zugriffsmanagement für Agenten
KI-Agenten benötigen eigene Identitäten innerhalb des Identity-and-Access-Management-Systems (IAM). Sie dürfen nicht unter Benutzerkonten von Mitarbeitern operieren. Jeder Agent braucht klar definierte Berechtigungen nach dem Least-Privilege-Prinzip.
Stufe 3: DORA-konforme Risikobewertung
Integrieren Sie KI-Agenten in Ihr bestehendes ICT-Risikomanagement-Framework gemäß DORA Artikel 5-16. Dokumentieren Sie Risiken, Mitigationsmaßnahmen und Restrisiken. Bewerten Sie externe KI-Anbieter im Rahmen Ihres Drittpartei-Risikomanagements.
Stufe 4: Monitoring und Incident Response
Implementieren Sie Echtzeit-Monitoring für alle KI-Agenten-Aktivitäten. Definieren Sie klare Incident-Response-Prozesse für KI-bezogene Sicherheitsvorfälle, die den DORA-Meldepflichten entsprechen. Protokollieren Sie alle Agentenaktionen revisionssicher.
Stufe 5: Regelmäßige Tests und Anpassung
Integrieren Sie KI-Agenten in Ihre TLPT-Programme. Testen Sie regelmäßig auf Prompt Injection, Privilege Escalation und andere agentenspezifische Angriffsvektoren. Passen Sie Ihre Sicherheitsmaßnahmen kontinuierlich an die sich entwickelnde Bedrohungslandschaft an.
TCO-Betrachtung: Sicherheit als Investition, nicht als Kostenfaktor
Die Kosten einer unzureichenden KI-Agenten-Sicherheit übersteigen die Investition in angemessene Schutzmaßnahmen bei Weitem:
| Kostenfaktor | Ohne Sicherheitsinvestition | Mit proaktiver Sicherheit |
|---|---|---|
| DORA-Bußgelder | Bis zu 2 % des globalen Jahresumsatzes | Vermieden |
| Reputationsschaden | Schwer quantifizierbar, potenziell existenzbedrohend | Minimiert |
| Incident Response | 500.000 – 5 Mio. € pro Vorfall | Reduziert durch Prävention |
| Regulatorische Maßnahmen | Betriebslizenz-Einschränkungen möglich | Compliance sichergestellt |
| Proaktive Sicherheit (jährlich) | — | 150.000 – 500.000 € |
Die Investition in KI-Agenten-Sicherheit ist keine optionale Ausgabe – sie ist eine regulatorische Notwendigkeit und ein betriebswirtschaftliches Gebot.
Fazit: Handeln, bevor die Aufsicht handelt
Die Finanzbranche steht an einem Wendepunkt. KI-Agenten bieten enorme Chancen für Effizienzsteigerung und Kundenservice. Doch die aktuelle Geschwindigkeit der Adoption übersteigt die Fähigkeit vieler Institute, diese Technologie sicher zu betreiben.
Die BaFin hat mit ihrem Bericht „Risiken im Fokus 2026″ und den begleitenden Workshops im Februar 2026 klar signalisiert: IT-Sicherheit und digitale operationale Resilienz stehen ganz oben auf der Agenda. Institute, die jetzt nicht handeln, riskieren nicht nur Sicherheitsvorfälle, sondern auch aufsichtliche Maßnahmen.
Die gute Nachricht: Der Fünf-Stufen-Plan ist umsetzbar, auch für mittelgroße Institute. Entscheidend ist, jetzt zu beginnen – mit Inventarisierung, Identitätsmanagement und DORA-konformer Risikobewertung.
Ihr nächster Schritt
Als spezialisierter IT-Dienstleister für die Finanzbranche unterstützt die Aionda GmbH Banken und Versicherungen bei der sicheren Integration von KI-Agenten und der Umsetzung von DORA-Anforderungen. Von der Risikobewertung über die Architektur bis zur Implementierung – wir begleiten Sie auf dem Weg zur compliant und resilienten KI-Nutzung.
Kontaktieren Sie uns für ein unverbindliches Beratungsgespräch:
[email protected]
Autor: Stephan Ferraro, Gründer und Geschäftsführer der Aionda GmbH
0 Comments