KI-Agenten und DORA: Warum Finanzinstitute 2026 ihre Sicherheitsstrategie neu ausrichten müssen

Published by Luna on

Autonome KI-Systeme revolutionieren den Finanzsektor, doch die Sicherheitskontrollen hinken hinterher. Gleichzeitig zeigt sich ein Jahr nach DORA-Inkrafttreten: Viele Institute haben Nachholbedarf. Eine Analyse der aktuellen Risikolage und konkreter Handlungsempfehlungen.

Autor: Stephan Ferraro, Gründer und Geschäftsführer Aionda GmbH

Die doppelte Herausforderung: KI-Agenten und regulatorische Compliance

Finanzinstitute in Europa stehen Anfang 2026 vor einer doppelten Herausforderung, die in ihrer Gleichzeitigkeit beispiellos ist. Auf der einen Seite drängen autonome KI-Agenten in Produktionsumgebungen – Systeme, die eigenständig Entscheidungen treffen, externe Tools aufrufen und mehrstufige Prozesse ohne menschliche Freigabe pro Einzelschritt ausführen. Auf der anderen Seite zeigt sich ein Jahr nach dem Inkrafttreten des Digital Operational Resilience Act (DORA), dass viele Institute die regulatorischen Anforderungen noch nicht vollständig umgesetzt haben.

Diese beiden Entwicklungen sind nicht voneinander zu trennen. KI-Agenten verändern die Risikoprofile von Finanzinstituten grundlegend, während DORA genau diese operationale Widerstandsfähigkeit einfordert, die durch den Einsatz autonomer Systeme auf eine neue Probe gestellt wird.

KI-Agenten: Vom Assistenten zum autonomen Akteur

Visualisierung einer KI-Agenten-Sicherheitsarchitektur mit vernetzten Knoten und Schutzschild

Die Transformation ist in Zahlen messbar: Laut einem aktuellen Briefing des AIUC-1 Consortiums, das unter Mitwirkung von Stanfords Trustworthy AI Research Lab und über 40 Sicherheitsverantwortlichen aus Unternehmen wie Deutsche Börse, Databricks und UiPath erstellt wurde, haben KI-Systeme den Sprung von reaktiven Assistenten zu autonomen Akteuren vollzogen.

Die zentralen Erkenntnisse sind alarmierend:

  • 80 % der befragten Organisationen berichten von riskantem Verhalten ihrer KI-Agenten, darunter unautorisierte Systemzugriffe und unsachgemäße Offenlegung von Daten.
  • Nur 21 % der Führungskräfte geben an, vollständige Transparenz über die Berechtigungen, Tool-Nutzung und Datenzugriffsmuster ihrer KI-Agenten zu haben.
  • 64 % der Unternehmen mit einem Jahresumsatz über 1 Milliarde Euro haben bereits mehr als 1 Million Euro durch KI-bedingte Fehler verloren (EY-Erhebung).
  • Jedes fünfte Unternehmen meldet einen Sicherheitsvorfall, der auf nicht autorisierte KI-Nutzung (“Shadow AI”) zurückzuführen ist.

Omar Khawaja, VP und Field CISO bei Databricks, bringt das Kernproblem auf den Punkt: KI-Komponenten verändern sich konstant entlang der gesamten Lieferkette, während bestehende Sicherheitskontrollen statische Assets voraussetzen. Die Folge sind blinde Flecken, sobald sich das Systemverhalten verändert.

Drei Sicherheitsprobleme dominieren die Praxis

1. Das Agenten-Problem

KI-Agenten, die mehrstufige Aufgaben ausführen, externe Schnittstellen ansprechen und eigenständig Entscheidungen treffen, schaffen Fehlerbedingungen, die ohne externen Angreifer entstehen. Ein Agent mit übermäßigen Berechtigungen und unzureichenden Begrenzungen kann allein durch seinen regulären Betrieb Schaden verursachen. Für Banken und Versicherungen, die KI-Agenten etwa im Kreditrisikomanagement, der Betrugserkennung oder der automatisierten Kundenberatung einsetzen, ergibt sich daraus ein erhebliches operationales Risiko.

2. Das Transparenz-Problem

Die Zahlen sind eindeutig: 63 % der Mitarbeitenden, die 2025 KI-Tools nutzten, haben sensible Unternehmensdaten – darunter Quellcode und Kundendaten – in persönliche Chatbot-Accounts eingegeben. Im Durchschnitt sind in einem Unternehmen schätzungsweise 1.200 inoffizielle KI-Anwendungen im Einsatz, wobei 86 % der Organisationen keine Transparenz über ihre KI-Datenflüsse haben. Shadow-AI-Vorfälle kosten im Schnitt 670.000 Euro mehr als gewöhnliche Sicherheitsvorfälle.

3. Das Vertrauens-Problem

Prompt Injection – die Manipulation von KI-Systemen durch eingeschleuste Anweisungen – hat sich von akademischer Forschung zu wiederkehrenden Produktionsvorfällen entwickelt. OWASP führt Prompt Injection auf Platz 1 der LLM Top 10 für 2025. Die Schwachstelle besteht, weil große Sprachmodelle nicht zuverlässig zwischen Anweisungen und Dateninput unterscheiden können. 53 % der Unternehmen nutzen bereits Retrieval-Augmented Generation oder agentische Pipelines – jede davon eröffnet neue Angriffsflächen.

DORA ein Jahr danach: Die Bilanz fällt ernüchternd aus

Geschäftsführerin prüft DORA-Compliance-Dokumente auf einem Tablet

Parallel zur KI-Sicherheitsproblematik zeigt sich, dass die DORA-Umsetzung in der Finanzbranche langsamer voranschreitet als erwartet. Mate Ivanszky, CEO von Matworks, einem IT- und Cybersecurity-Dienstleister für den Finanzsektor, formuliert es deutlich: “Stand des Bewertungszyklus 2025 können nur sehr wenige Institute glaubhaft eine vollständige Reife unter DORA beanspruchen.”

Die Befunde im Detail:

  • Systematische Unterschätzung: Die praktischen Anforderungen von DORA wurden branchenweit unterschätzt, was erklärt, warum viele Institute nun hinter dem Zeitplan liegen.
  • Meldepflichten nicht erfüllt: Die zypriotische Aufsichtsbehörde CySEC stellte im Januar 2026 in einem Rundschreiben fest, dass “Defizite bei der Klassifizierung und Meldung von IKT-bezogenen Vorfällen” bestehen – einschließlich unterlassener Meldungen schwerwiegender Vorfälle.
  • Drittanbieter-Risikomanagement als Schwachstelle: Laut Ivanszky ist das IKT-Drittanbieter-Risikomanagement der am meisten unterschätzte Bereich. Moderne Geschäftsmodelle basieren auf einem dichten Netz von Technologieanbietern mit unterschiedlichem Sicherheitsniveau.

Ein konkretes Beispiel verdeutlicht die Brisanz: Im November 2025 führte ein dreistündiger Ausfall bei Cloudflare zur Störung mehrerer Broker-Websites. Unter DORA kann eine Meldepflicht ausgelöst werden, wenn mehr als 10 % der Kunden oder Transaktionen betroffen sind, über 100.000 Kunden involviert sind, der finanzielle Schaden 100.000 Euro übersteigt oder kritische Funktionen länger als zwei Stunden gestört sind.

Die Schnittmenge: KI-Agenten als DORA-relevantes Risiko

Was in der aktuellen Diskussion häufig übersehen wird, ist die direkte Verbindung zwischen dem Einsatz von KI-Agenten und den DORA-Anforderungen. Betrachten wir die fünf DORA-Säulen im Kontext autonomer KI-Systeme:

DORA-Säule Relevanz für KI-Agenten Risikoeinschätzung
IKT-Risikomanagement KI-Agenten verändern Risikoprofile dynamisch; statische Risikoanalysen greifen nicht Hoch
Vorfallmeldung KI-bedingte Vorfälle (z.B. unkontrollierte Datenoffenlegung) fallen unter Meldepflichten Hoch
Resilienz-Tests Herkömmliche Penetrationstests decken Prompt Injection und agentische Fehlketten nicht ab Mittel-Hoch
Informationsaustausch KI-spezifische Bedrohungsintelligenz muss in bestehende Austauschformate integriert werden Mittel
Drittanbieter-Risiko KI-Modelle von externen Anbietern (OpenAI, Anthropic, Google) als kritische IKT-Dienstleistung Sehr hoch

Besonders brisant ist die Drittanbieter-Dimension: Wenn ein Finanzinstitut KI-Modelle externer Anbieter nutzt – sei es für Betrugserkennung, Kreditentscheidungen oder Kundenkommunikation – handelt es sich um IKT-Dienstleistungen im Sinne von DORA. Die Institute müssen vertragliche Due Diligence durchführen, Prüfungsrechte sichern und Resilienzmetriken in Lieferantenvereinbarungen verankern.

Handlungsempfehlungen für Finanzinstitute

Auf Basis der aktuellen Erkenntnisse ergeben sich sechs konkrete Maßnahmen:

1. KI-Inventar erstellen und pflegen

Ein vollständiges Register aller KI-Systeme – sowohl offiziell eingesetzte als auch inoffiziell genutzte (“Shadow AI”) – ist die Grundvoraussetzung. Dies umfasst Modellversionen, Datenquellen, Berechtigungen und Integrationsschnittstellen.

2. Agenten-spezifische Sicherheitskontrollen implementieren

Bestehende Frameworks wie NIST AI RMF und ISO 42001 bieten organisatorische Governance-Strukturen, decken aber nicht die technischen Kontrollen ab, die für agentische Deployments nötig sind: Tool-Call-Parametervalidierung, Prompt-Injection-Logging, Containment-Tests und dynamische Berechtigungsverwaltung.

3. DORA-Compliance um KI-Dimension erweitern

Die DORA-Umsetzung muss KI-Agenten explizit berücksichtigen. Das bedeutet: KI-bedingte Vorfälle in die Incident-Klassifizierung aufnehmen, KI-Anbieter im Drittanbieter-Register führen und Resilienz-Tests um agentische Szenarien ergänzen.

4. Least-Privilege-Prinzip für KI-Agenten durchsetzen

Jeder KI-Agent sollte nur die minimal notwendigen Berechtigungen erhalten. Zugriffe auf Kundendaten, Transaktionssysteme und interne APIs müssen granular gesteuert und protokolliert werden.

5. Monitoring-Infrastruktur aufbauen

Echtzeit-Monitoring der KI-Agenten-Aktivitäten, einschließlich Tool-Aufrufe, Datenflüsse und Entscheidungspfade, ist unerlässlich. Anomalie-Erkennung muss auf die spezifischen Verhaltensmuster autonomer Systeme ausgerichtet sein.

6. Schulung und Awareness-Programme

Mitarbeitende müssen über die Risiken von Shadow AI sensibilisiert werden. Klare Richtlinien, welche Daten in welche KI-Systeme eingegeben werden dürfen, sind ebenso wichtig wie technische Kontrollen.

Mögliches Szenario: TCO-Betrachtung einer KI-Sicherheitsinitiative

Um die Investition in KI-Sicherheit einzuordnen, lohnt ein Blick auf die möglichen Kosten eines Unterlassens im Vergleich zu einer proaktiven Strategie:

Kostenposition Ohne Maßnahmen (Risiko p.a.) Mit Maßnahmen (Invest p.a.)
Shadow-AI-Vorfälle (Durchschnitt) 670.000 EUR+
DORA-Bußgelder bei Non-Compliance Bis 2 % des Jahresumsatzes
KI-Sicherheits-Audit und Inventar 50.000 – 150.000 EUR
Monitoring-Infrastruktur 80.000 – 200.000 EUR
Schulung und Governance 30.000 – 80.000 EUR
Reputationsschaden (geschätzt) Nicht quantifizierbar

Hinweis: Die genannten Zahlen basieren auf Branchenerhebungen und dienen der Orientierung. Die tatsächlichen Kosten variieren je nach Institutsgröße und Komplexität der IT-Landschaft.

Ausblick: Was 2026 noch bringt

Die europäischen Aufsichtsbehörden (ESAs) arbeiten an erweiterten Leitlinien für die DORA-Umsetzung, insbesondere im Bereich der Drittanbieter-Überwachung. Gleichzeitig steht mit dem EU AI Act ein weiteres regulatorisches Rahmenwerk vor der vollständigen Anwendung, das zusätzliche Anforderungen an KI-Systeme im Hochrisikobereich stellt – und der Finanzsektor fällt in weiten Teilen in diese Kategorie.

Finanzinstitute, die jetzt eine integrierte Strategie für KI-Sicherheit und DORA-Compliance entwickeln, schaffen nicht nur regulatorische Konformität, sondern einen echten Wettbewerbsvorteil. Denn die Fähigkeit, KI-Agenten sicher und kontrolliert einzusetzen, wird in den kommenden Jahren zu einem entscheidenden Differenzierungsmerkmal.

Fazit

Die Konvergenz von autonomen KI-Systemen und regulatorischen Anforderungen wie DORA stellt Finanzinstitute vor eine Aufgabe, die weder rein technisch noch rein organisatorisch zu lösen ist. Es braucht einen ganzheitlichen Ansatz, der Technologie, Governance und Unternehmenskultur verbindet. Die Daten zeigen: Wer jetzt nicht handelt, riskiert nicht nur Bußgelder, sondern die operative Handlungsfähigkeit seines Instituts.


Sie möchten Ihre KI-Strategie DORA-konform aufstellen oder benötigen Unterstützung bei der sicheren Integration von KI-Agenten in Ihre Finanzinfrastruktur?

Die Aionda GmbH unterstützt Banken und Versicherungen bei der Entwicklung und Implementierung sicherer KI-Lösungen – von der Architekturberatung bis zum operativen Betrieb. Mit unserem Nearshoring-Modell bieten wir hochqualifizierte Entwicklerteams zu wettbewerbsfähigen Konditionen.

Kontaktieren Sie uns für ein unverbindliches Erstgespräch:
Stephan Ferraro, Gründer und Geschäftsführer
E-Mail: [email protected]
Web: aionda.com

Categories: Blog

0 Comments

Schreibe einen Kommentar

Avatar placeholder

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert