AI Agents als neue Angriffsfläche: Was Banken und Versicherungen 2026 wissen müssen

Published by Luna on

Autonome KI-Agenten revolutionieren Geschäftsprozesse in der Finanzbranche. Doch mit der rasanten Einführung wächst eine neue Bedrohung, die viele Institute unterschätzen: AI Agents werden zur grössten neuen Angriffsfläche seit der Cloud-Migration. Aktuelle Studien zeigen alarmierende Zahlen – und DORA verschärft den Handlungsdruck erheblich.

Die stille Revolution: AI Agents in der Finanzbranche

Künstliche Intelligenz hat sich in den letzten zwei Jahren von experimentellen Chatbots zu autonomen Agenten weiterentwickelt, die eigenständig Entscheidungen treffen, Datenbanken abfragen, E-Mails versenden und komplexe Workflows auslösen. In Banken und Versicherungen übernehmen AI Agents bereits heute Aufgaben wie automatisierte Kreditprüfungen, Betrugserkennung, Compliance-Monitoring und Kundenservice.

Die Geschwindigkeit dieser Entwicklung ist bemerkenswert: Laut dem Gravitee State of AI Agent Security 2026 Report haben 80,9 % der technischen Teams die Planungsphase hinter sich gelassen und testen oder betreiben AI Agents bereits in Produktivumgebungen. McKinsey prognostiziert, dass AI Agents jährlich 2,6 bis 4,4 Billionen US-Dollar an Mehrwert generieren könnten.

Doch hinter dieser Euphorie verbirgt sich ein strukturelles Problem: Die Einführung von AI Agents erfolgt deutlich schneller als die Entwicklung entsprechender Sicherheitskonzepte.

Visualisierung autonomer AI Agents mit hervorgehobenen Sicherheitslücken und Angriffsvektoren
Autonome AI Agents bilden ein komplexes Netzwerk – jeder Knotenpunkt ist ein potenzieller Angriffsvektor.

Die Zahlen sprechen eine deutliche Sprache

Die aktuelle Datenlage zur Sicherheit von AI Agents sollte jeden IT-Verantwortlichen in der Finanzbranche aufhorchen lassen:

  • 88 % der Organisationen meldeten im vergangenen Jahr einen bestätigten oder vermuteten Sicherheitsvorfall im Zusammenhang mit AI Agents.
  • Nur 14,4 % der in Produktion genommenen AI Agents wurden mit vollständiger Freigabe durch Sicherheits- und IT-Abteilungen deployt.
  • 82 % der Führungskräfte glauben, ihre bestehenden Richtlinien schützen vor unbefugten Agent-Aktionen – doch nur 21 % haben tatsächliche Transparenz darüber, auf welche Daten und Systeme ihre Agents zugreifen.
  • 47,1 % der AI Agents in Unternehmen werden aktiv überwacht oder abgesichert – mehr als die Hälfte operiert ohne konsistente Sicherheitsaufsicht.
  • 25,5 % der eingesetzten Agents können eigenständig neue Agents erstellen und beauftragen, was die Angriffsfläche exponentiell vergrössert.

Besonders kritisch: 45,6 % der Organisationen nutzen gemeinsame API-Schlüssel für die Agent-zu-Agent-Authentifizierung. Das entspricht dem Sicherheitsniveau, als würde man allen Mitarbeitern dasselbe Passwort geben.

Die fünf grössten Angriffsvektoren bei AI Agents

Traditionelle IT-Sicherheitskonzepte sind nicht für autonome Systeme ausgelegt. AI Agents denken, planen, nutzen externe Werkzeuge und treffen eigenständige Entscheidungen. Jede dieser Fähigkeiten eröffnet spezifische Angriffsvektoren.

1. Prompt Injection

Prompt Injection steht auf Platz 1 der OWASP Top 10 für LLM-Anwendungen 2025. Dabei werden schädliche Anweisungen in Benutzereingaben, Dokumente oder abgerufene Daten eingebettet, um das Verhalten eines Agents zu manipulieren – ohne dass konventionelle Sicherheitssysteme Alarm schlagen.

Das Risiko potenziert sich in agentischen Systemen: Wenn ein Agent externe Daten abruft, verarbeitet und darauf basierend Aktionen ausführt, kann eine einzige eingeschleuste Anweisung eine Kaskade durch den gesamten Workflow auslösen. Forschungsergebnisse zeigen, dass Fine-Tuning-Angriffe Claude Haiku in 72 % und GPT-4o in 57 % der Fälle umgehen konnten.

2. Übermässige Berechtigungen (Over-Permissioning)

Die meisten AI Agents werden mit deutlich mehr Zugriffsrechten ausgestattet, als sie für ihre Aufgabe benötigen. Wenn ein Kundenservice-Agent die gesamte Wissensdatenbank lesen, Abrechnungssysteme abfragen und Kontoeinstellungen ändern kann, wächst der potenzielle Schaden einer Kompromittierung exponentiell.

IBM empfiehlt ein Just-in-Time-Berechtigungsmodell, bei dem Zugriffe nur für die Dauer einer spezifischen Aufgabe gewährt und anschliessend sofort entzogen werden. In der Praxis setzen dies jedoch die wenigsten Organisationen um.

3. Shadow AI

Jede fünfte Organisation berichtet von Sicherheitsvorfällen durch nicht autorisierte KI-Deployments. Mitarbeiter nutzen eigenständig KI-Tools, die nicht von der IT-Abteilung genehmigt wurden. Diese Shadow-AI-Systeme verarbeiten sensible Daten über unkontrollierte Kanäle.

Die finanziellen Auswirkungen sind erheblich: Shadow-AI-Sicherheitsvorfälle kosten durchschnittlich 670.000 US-Dollar mehr als Standard-Sicherheitsvorfälle. Unternehmen betreiben im Durchschnitt etwa 1.200 inoffizielle KI-Anwendungen.

4. Datenpersistenz und Memory-Risiken

AI Agents, die Konversationsverläufe oder Kontext über Sitzungen hinweg speichern, sammeln im Laufe der Zeit sensible Informationen an. Ohne explizites Memory-Lifecycle-Management entstehen unkontrollierte Datenspeicher, die bei einer Kompromittierung zum umfassenden Datenleck werden können.

5. Supply-Chain-Angriffe

KI-Supply-Chain-Schwachstellen stehen auf Platz 3 der OWASP Top 10. Manipulierte Modelle, kompromittierte Trainingsdaten oder bösartige Plugins können die gesamte Agent-Infrastruktur unterwandern – ein Risiko, das mit der zunehmenden Vernetzung von Agents untereinander wächst.

DORA verschärft den Handlungsdruck

Geschäftsteam diskutiert DORA-Compliance-Strategie in einem modernen Konferenzraum
DORA-Compliance erfordert eine ganzheitliche Strategie, die auch autonome KI-Systeme umfasst.

Die EU-Verordnung DORA (Digital Operational Resilience Act) hat die regulatorischen Anforderungen an die digitale Widerstandsfähigkeit von Finanzinstituten grundlegend verschärft. Für den Einsatz von AI Agents ergeben sich daraus konkrete Pflichten:

ICT-Risikomanagement

DORA verlangt umfassende Rahmenwerke für das ICT-Risikomanagement, die alle technologischen Ressourcen auf geschäftliche Auswirkungen abbilden. AI Agents müssen als eigenständige ICT-Ressourcen identifiziert, klassifiziert und kontinuierlich überwacht werden. Die Tatsache, dass nur 21,9 % der Organisationen AI Agents als unabhängige, identitätsführende Entitäten behandeln, stellt ein erhebliches DORA-Compliance-Risiko dar.

Incident Reporting

Sicherheitsvorfälle im Zusammenhang mit AI Agents fallen unter die DORA-Meldepflichten. Organisationen müssen in der Lage sein, Agent-bezogene Incidents schnell zu erkennen, zu dokumentieren und an die zuständigen Behörden zu melden. Ohne durchgängige Überwachung der Agent-Aktivitäten ist dies kaum möglich.

Third-Party-Risikomanagement

Viele AI Agents nutzen externe APIs, Cloud-Dienste und Modelle von Drittanbietern. DORA fordert eine systematische Überwachung und Steuerung dieser Drittanbieter-Risiken, einschliesslich Konzentrationsrisiken. Wenn mehrere kritische Agents auf demselben LLM-Anbieter basieren, entsteht ein Klumpenrisiko, das unter DORA explizit adressiert werden muss.

Resilience Testing

DORA schreibt regelmässige Tests der digitalen Widerstandsfähigkeit vor, einschliesslich Threat-Led Penetration Testing (TLPT). AI Agents müssen in diese Testszenarien einbezogen werden – einschliesslich spezifischer Angriffsmuster wie Prompt Injection, Agent Hijacking und Privilege Escalation.

Ein Sicherheitsframework für AI Agents in der Finanzbranche

Basierend auf aktuellen Best Practices und regulatorischen Anforderungen empfehlen wir Finanzinstituten ein strukturiertes Vorgehen:

Massnahme Beschreibung DORA-Bezug
Agent-Inventar Vollständige Erfassung aller AI Agents mit Zugriffsrechten, genutzten APIs und Datenflüssen Art. 5-16 (ICT Risk Management)
Identity Management Jeden Agent als eigenständige Identität mit individuellen Credentials und Least-Privilege-Zugriff behandeln Art. 9 (Schutz und Prävention)
Just-in-Time-Berechtigungen Dynamische Rechtevergabe nur für die Dauer spezifischer Aufgaben Art. 9 (Schutz und Prävention)
Continuous Monitoring Echtzeit-Überwachung aller Agent-Aktivitäten, Tool-Aufrufe und Datenflüsse Art. 10 (Erkennung)
Prompt-Injection-Schutz Input-Validierung, Output-Filterung und Sandboxing für alle Agent-Interaktionen Art. 9 (Schutz und Prävention)
Memory Management Definierte Lebenszyklen für Agent-Speicher mit automatischer Bereinigung sensibler Daten Art. 11 (Reaktion und Wiederherstellung)
Agent Red Teaming Regelmässige Sicherheitstests mit AI-spezifischen Angriffsszenarien Art. 26-27 (TLPT)
Drittanbieter-Monitoring Systematische Überwachung aller externen LLM-Provider und API-Abhängigkeiten Art. 28-44 (Third-Party Risk)

TCO-Betrachtung: Was kostet Untätigkeit?

Die durchschnittlichen Kosten eines Datenvorfalls lagen 2025 bei 4,88 Millionen US-Dollar (IBM Cost of a Data Breach Report). Shadow-AI-Vorfälle kosten durchschnittlich 670.000 US-Dollar mehr als herkömmliche Sicherheitsvorfälle. Gleichzeitig zeigt die IBM-Studie, dass Organisationen mit umfassendem KI-Einsatz in ihren Security Operations Centern die Kosten pro Vorfall um durchschnittlich 2,2 Millionen US-Dollar senken konnten.

Für ein mittelgrosses Finanzinstitut ergibt sich ein mögliches Szenario:

Kostenfaktor Ohne AI-Security-Strategie Mit AI-Security-Strategie
Durchschnittliche Breach-Kosten 4.880.000 € 2.680.000 €
Shadow-AI-Zusatzkosten (pro Vorfall) 670.000 € 0 €
DORA-Bussgeld-Risiko bis 10 Mio. € oder 5 % Umsatz minimiert
Aufbau AI Security Framework (jährlich) 0 € 250.000 – 500.000 €
Gesamtrisiko-Exposure Hoch Kontrolliert

Die Investition in ein strukturiertes AI-Security-Framework amortisiert sich bei einem einzigen verhinderten Sicherheitsvorfall um ein Vielfaches.

Der EU AI Act als zusätzlicher Treiber

Ab August 2026 wird der EU AI Act vollständig durchgesetzt. Für Finanzinstitute, die AI Agents einsetzen, bedeutet dies zusätzliche Anforderungen an Transparenz, Risikobewertung und menschliche Aufsicht. Hochrisiko-KI-Systeme im Finanzsektor – etwa solche, die Kreditentscheidungen treffen oder Betrugsanalysen durchführen – unterliegen besonders strengen Auflagen.

Die Kombination aus DORA und EU AI Act schafft einen regulatorischen Rahmen, der proaktives Handeln belohnt und reaktives Verhalten bestraft. Finanzinstitute, die jetzt ihre AI-Agent-Strategie mit einem robusten Sicherheitsframework unterlegen, schaffen sich einen doppelten Vorteil: regulatorische Compliance und operationale Widerstandsfähigkeit.

Handlungsempfehlungen für CEOs und IT-Leiter

  1. Bestandsaufnahme sofort starten: Identifizieren Sie alle AI Agents in Ihrer Organisation – einschliesslich Shadow AI. Sie können nicht schützen, was Sie nicht kennen.
  2. Agent Identity Management einführen: Behandeln Sie jeden AI Agent wie einen Mitarbeiter mit eigenem Ausweis, definierten Befugnissen und nachvollziehbarem Verhalten.
  3. Zero-Trust-Prinzipien auf Agents anwenden: Kein Agent sollte implizites Vertrauen geniessen. Jeder Zugriff wird verifiziert, jede Aktion protokolliert.
  4. AI-spezifisches Red Teaming etablieren: Testen Sie Ihre Agents mit Prompt-Injection-Angriffen, Social Engineering und Privilege-Escalation-Szenarien.
  5. DORA-Compliance um AI Agents erweitern: Integrieren Sie AI Agents in Ihr bestehendes ICT-Risikomanagement, Incident Reporting und Third-Party-Monitoring.
  6. Kompetenz aufbauen: Nur 24 % der Unternehmen haben ein dediziertes AI-Security-Governance-Team. Investieren Sie in Weiterbildung und spezialisierte Rollen.

Fazit: Handeln, bevor der Vorfall eintritt

AI Agents sind keine Zukunftsmusik – sie sind Produktionsrealität. Die Finanzbranche steht vor der Herausforderung, die Innovationskraft autonomer KI-Systeme zu nutzen, ohne die Sicherheit und Compliance zu gefährden. Die Daten zeigen eindeutig: Die grösste Gefahr geht nicht von der Technologie selbst aus, sondern von der Lücke zwischen Deployment-Geschwindigkeit und Sicherheitsreife.

Finanzinstitute, die jetzt handeln, sichern sich nicht nur gegen die aktuellen Bedrohungen ab, sondern positionieren sich als vertrauenswürdige, resiliente Partner in einem zunehmend regulierten Umfeld.


Sie möchten Ihre AI-Agent-Strategie auf ein solides Sicherheitsfundament stellen? Die Aionda GmbH unterstützt Banken und Versicherungen bei der sicheren Integration von KI-Systemen – von der Architekturberatung über Nearshoring-Entwicklung bis hin zur DORA-konformen Implementierung.

Kontaktieren Sie uns: stephan.ferraro@aionda.com

Autor: Stephan Ferraro, Gründer und Geschäftsführer der Aionda GmbH

Categories: Blog

0 Comments

Schreibe einen Kommentar

Avatar placeholder

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert