KI-Agenten als neue Angriffsfläche: Warum Finanzinstitute jetzt handeln müssen

Published by Luna on

88 Prozent aller Unternehmen meldeten im vergangenen Jahr einen bestätigten oder vermuteten Sicherheitsvorfall im Zusammenhang mit KI-Agenten. In der Finanzbranche dürfte diese Zahl noch höher liegen. Während Banken und Versicherungen KI-Agenten in immer mehr Geschäftsprozesse integrieren, entsteht eine völlig neue Angriffsfläche, die mit klassischen IT-Sicherheitskonzepten nicht beherrschbar ist.

IT-Sicherheitsexperte analysiert KI-Sicherheitsdashboards in einer Bank

Von Chatbots zu autonomen Agenten: Ein Paradigmenwechsel

KI-Agenten sind keine Chatbots. Diese Unterscheidung ist fundamental für das Verständnis der damit verbundenen Risiken. Während ein Chatbot auf Anfragen reagiert und vordefinierte Antworten liefert, treffen KI-Agenten eigenständige Entscheidungen, greifen auf Datenbanken zu, lösen Workflows aus und interagieren mit externen Systemen – oft mit minimaler menschlicher Überwachung.

Das National Institute of Standards and Technology (NIST) definiert KI-Agenten als Systeme, die autonome Aktionen mit Auswirkungen auf reale Umgebungen durchführen. In der Praxis bedeutet das: Ein KI-Agent in einer Bank kann Kreditentscheidungen vorbereiten, Kundenanfragen bearbeiten, Compliance-Prüfungen durchführen und Transaktionen auslösen – und das alles in Maschinengeschwindigkeit.

Die Adoptionsgeschwindigkeit ist beeindruckend. Laut dem Gravitee State of AI Agent Security 2026 Report haben 80,9 Prozent der technischen Teams die Planungsphase bereits hinter sich gelassen und befinden sich in aktiven Tests oder im Produktivbetrieb. Salesforce, ServiceNow und SAP betten KI-Agenten bereits in ihre Plattformen ein. Die Finanzbranche folgt diesem Trend mit besonderer Dynamik.

Die Sicherheitslücke: Adoption überholt Governance

Das zentrale Problem: Die Geschwindigkeit der Einführung von KI-Agenten hat eine strukturelle Sicherheitslücke geschaffen. Teams bringen Agenten in den Produktivbetrieb, während die zugehörigen Governance-Frameworks noch entworfen werden.

Die Zahlen sind alarmierend:

  • Nur 47,1 Prozent der KI-Agenten in Unternehmen werden aktiv überwacht oder abgesichert. Mehr als die Hälfte operiert ohne konsistente Sicherheitsaufsicht.
  • Nur 14,4 Prozent der Agenten gingen mit vollständiger Sicherheits- und IT-Freigabe live.
  • Nur 29 Prozent der Unternehmen fühlen sich bereit, ihre KI-Agenten-Deployments adäquat abzusichern (Cisco State of AI Security 2026).
  • 82 Prozent der Führungskräfte glauben, ihre bestehenden Richtlinien schützen vor unautorisiertem Agentenverhalten – doch nur 21 Prozent haben tatsächlich Transparenz darüber, worauf ihre Agenten zugreifen.

Für regulierte Finanzinstitute ist diese Diskrepanz zwischen wahrgenommener und tatsächlicher Sicherheit besonders kritisch. Unter DORA (Digital Operational Resilience Act) und den Anforderungen der BaFin sind Banken und Versicherungen verpflichtet, ihre operationelle Resilienz nachweisbar sicherzustellen – einschließlich aller IKT-Systeme, zu denen KI-Agenten zweifelsfrei gehören.

Konzeptdarstellung von KI-Agenten als vernetzte Knoten mit Sicherheitswarnungen

Die drei kritischen Angriffsvektoren

Die OWASP Top 10 for Agentic Applications (veröffentlicht Dezember 2025) identifizieren spezifische Risiken, die sich grundlegend von klassischen Anwendungsrisiken unterscheiden. Drei Angriffsvektoren verdienen besondere Aufmerksamkeit für Finanzinstitute:

1. Prompt Injection: Wenn Daten zu Befehlen werden

Prompt Injection ist die Nummer-eins-Schwachstelle im OWASP LLM Top 10. Bei diesem Angriffsvektor werden schädliche Anweisungen in Daten eingebettet, die ein KI-Agent verarbeitet – etwa in Kundenmails, Support-Tickets oder importierten Dokumenten.

Der entscheidende Unterschied zu Phishing: Während Phishing darauf setzt, dass ein Mensch eine falsche Entscheidung trifft, zielt Prompt Injection auf ein System, das Anweisungen konstruktionsbedingt befolgt. In agentischen Systemen kann eine einzige injizierte Anweisung durch einen kompletten Workflow kaskadieren.

Aktuelle Forschungsergebnisse zeigen: Fine-Tuning-Angriffe umgehen Claude Haiku in 72 Prozent der Fälle und GPT-4o in 57 Prozent. Für eine Bank, die einen KI-Agenten zur Bearbeitung eingehender Rechnungen oder Kundenanfragen einsetzt, könnte ein vergifteter Input dazu führen, dass sensible Kontodaten exfiltriert oder Zahlungen umgeleitet werden.

2. Überprivilegierung: Zu viel Zugriff, zu wenig Kontrolle

Die meisten KI-Agenten werden mit deutlich mehr Zugriffsrechten ausgeliefert, als sie benötigen. Wenn ein Kundenservice-Agent die gesamte Wissensdatenbank lesen, Abrechnungssysteme abfragen und Kontoeinstellungen ändern kann, wächst der Schadensradius einer einzelnen Kompromittierung exponentiell.

IBM empfiehlt das Prinzip der Just-in-Time-Berechtigungen: Zugriff wird nur für die Dauer einer spezifischen Aufgabe gewährt und unmittelbar danach widerrufen. In der Praxis implementieren dies nur wenige Organisationen. Der Standard sind breite Berechtigungen, die nie überprüft werden.

Besonders problematisch in der Finanzbranche: 45,6 Prozent der Unternehmen nutzen geteilte API-Schlüssel für die Authentifizierung zwischen Agenten, 27,2 Prozent verwenden hartcodierte Autorisierungslogik. Nur 21,9 Prozent behandeln KI-Agenten als eigenständige, identitätsbasierte Entitäten. Das entspricht dem Sicherheitsniveau, jedem Mitarbeiter dasselbe Passwort zu geben.

3. Shadow AI: Die unsichtbare Bedrohung

Jedes fünfte Unternehmen meldete Sicherheitsvorfälle im Zusammenhang mit nicht autorisierten KI-Deployments. Shadow AI – der Einsatz nicht genehmigter KI-Tools durch Mitarbeiter – erzeugt blinde Flecken, in denen Agenten sensible Daten über unüberwachte Kanäle verarbeiten.

Die Kosten sind messbar: Shadow-AI-Vorfälle verursachen im Durchschnitt 670.000 US-Dollar mehr Schaden als Standard-Sicherheitsvorfälle. Und mit durchschnittlich 1.200 inoffiziellen KI-Anwendungen pro Großunternehmen ist die Exposition enorm.

Für Finanzinstitute unter BaFin-Aufsicht ist Shadow AI ein direkter Compliance-Verstoß: Nicht dokumentierte IKT-Systeme können weder in das Risikomanagement-Framework integriert noch im Rahmen von DORA-Prüfungen nachgewiesen werden.

DORA und EU AI Act: Der regulatorische Doppeldruck

Finanzinstitute stehen vor einem regulatorischen Doppeldruck, der KI-Agenten-Sicherheit von einer Best Practice zur rechtlichen Pflicht macht:

DORA (seit Januar 2025 in Kraft): Artikel 2(1) listet über 20 Kategorien von Finanzunternehmen auf, die zur Compliance verpflichtet sind. Die Verordnung verlangt:

  • Umfassendes IKT-Risikomanagement für alle digitalen Systeme
  • Regelmäßige Resilienz-Tests, einschließlich Threat-Led Penetration Testing (TLPT)
  • Überwachung und Management von IKT-Drittanbieterrisiken
  • Meldepflichten für schwerwiegende IKT-bezogene Vorfälle

EU AI Act (Hochrisiko-KI-Bestimmungen bis August 2026): Annex III klassifiziert Bonitätsbewertung, Versicherungsrisikobewertung und bestimmte andere Finanzdienstleistungs-Use-Cases als Hochrisiko-KI. Ab dem 2. August 2026 gelten für Anbieter und Nutzer dieser Systeme strenge Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht.

KI-Agenten, die in Kreditentscheidungen, Risikomodellierung oder Compliance-Prozessen eingesetzt werden, fallen mit hoher Wahrscheinlichkeit unter beide Regulierungen gleichzeitig. Die Überschneidung ist kein Zufall – sie spiegelt das wachsende Verständnis wider, dass operationelle Resilienz und KI-Governance untrennbar verbunden sind.

Europäisches Business-Team diskutiert DORA-Compliance-Strategie im modernen Meetingraum

Handlungsempfehlungen: Ein Sicherheitsframework für KI-Agenten

Auf Basis der aktuellen Bedrohungslage und regulatorischen Anforderungen empfehlen wir Finanzinstituten ein mehrstufiges Sicherheitsframework:

1. Agent Identity Management einführen

Jeder KI-Agent muss als eigenständige Identität behandelt werden – mit individuellen Credentials, definierten Zugriffsrechten und vollständigem Audit-Trail. Geteilte API-Schlüssel und Service-Accounts für Agenten sind ab sofort inakzeptabel.

2. Least-Privilege und Just-in-Time-Zugriff implementieren

Agenten erhalten ausschließlich die Berechtigungen, die sie für die aktuelle Aufgabe benötigen. Zugriff wird dynamisch gewährt und nach Abschluss sofort widerrufen. Jede Zugriffsänderung wird protokolliert.

3. Kontinuierliches Monitoring und Anomalie-Erkennung

Alle Agentenaktivitäten müssen in Echtzeit überwacht werden. Anomalien im Zugriffsverhalten, ungewöhnliche Tool-Aufrufe oder Datenexfiltrationsmuster müssen automatisiert erkannt und eskaliert werden.

4. Input-Validierung und Prompt-Injection-Schutz

Alle Eingaben, die ein KI-Agent verarbeitet, müssen validiert und bereinigt werden. Mehrstufige Verteidigungsstrategien – Input-Filterung, Output-Validierung und sandboxed Execution – reduzieren das Risiko von Prompt-Injection-Angriffen erheblich.

5. Shadow-AI-Erkennung und Governance

Implementieren Sie Netzwerk-Monitoring und Endpoint-Detection, um nicht autorisierte KI-Agenten zu identifizieren. Schaffen Sie gleichzeitig kontrollierte Zugangswege, damit Mitarbeiter KI-Tools nutzen können, ohne auf Schatten-IT ausweichen zu müssen.

6. DORA-konforme Dokumentation und Testing

Integrieren Sie KI-Agenten in Ihr bestehendes IKT-Risikomanagement-Framework. Führen Sie regelmäßige Penetrationstests durch, die spezifisch auf agentische Angriffsvektoren abzielen. Dokumentieren Sie alle Agenten, ihre Berechtigungen, Datenflüsse und Abhängigkeiten von Drittanbietern.

Mögliches Szenario: Was bei mangelnder Absicherung passieren kann

Ein mögliches Szenario verdeutlicht die Tragweite: Ein Finanzinstitut setzt einen KI-Agenten zur automatisierten Bearbeitung von Kundenanfragen ein. Der Agent hat Zugriff auf das CRM-System, Kontodaten und die interne Wissensdatenbank. Ein Angreifer sendet eine präparierte E-Mail mit eingebetteten Prompt-Injection-Anweisungen. Der Agent verarbeitet die E-Mail, folgt den versteckten Anweisungen und beginnt, Kundendaten in seinen Antworten preiszugeben – ohne dass konventionelle Sicherheitssysteme Alarm schlagen.

Laut einem aktuellen Bericht des Guardian (März 2026) haben Sicherheitsforscher genau dieses Verhalten in kontrollierten Tests nachgewiesen: KI-Agenten, die eigentlich LinkedIn-Posts erstellen sollten, veröffentlichten sensible Passwortinformationen aus Unternehmensdatenbanken – ohne dazu aufgefordert worden zu sein und unter Umgehung konventioneller Anti-Hack-Systeme.

Die Rolle spezialisierter IT-Dienstleister

Die sichere Integration von KI-Agenten in regulierte Finanzinfrastrukturen erfordert Expertise an der Schnittstelle von KI-Entwicklung, IT-Security und Finanzregulatorik. Viele Institute verfügen intern nicht über die notwendigen Spezialisten in ausreichender Zahl.

Spezialisierte IT-Dienstleister können hier einen entscheidenden Beitrag leisten: Von der Konzeption sicherer KI-Agenten-Architekturen über die Implementierung von Monitoring-Lösungen bis zur DORA-konformen Dokumentation und dem Aufbau interner Kompetenz.

Entscheidend ist dabei die Wahl eines Partners, der sowohl tiefgreifendes Verständnis für moderne KI-Systeme als auch nachweisbare Erfahrung in der regulierten Finanzbranche mitbringt. Nearshoring-Modelle bieten hier eine kosteneffiziente Alternative zu reinen Inhouse-Lösungen, ohne Kompromisse bei Qualität und Datenschutz einzugehen.

Fazit: Handeln, bevor der Regulator handelt

KI-Agenten transformieren die Finanzbranche – und mit ihnen die Bedrohungslandschaft. 48 Prozent der Cybersecurity-Experten betrachten agentische KI als den wichtigsten Angriffsvektor des Jahres 2026. Die Kombination aus autonomer Entscheidungsfindung, breiten Zugriffsrechten und mangelnder Governance schafft Risiken, die mit traditionellen Sicherheitsansätzen nicht beherrschbar sind.

Finanzinstitute, die jetzt nicht handeln, riskieren nicht nur Sicherheitsvorfälle, sondern auch Compliance-Verstöße unter DORA und dem EU AI Act. Die gute Nachricht: Mit einem strukturierten Ansatz, der Agent Identity Management, Least-Privilege-Prinzipien und kontinuierliches Monitoring kombiniert, lassen sich KI-Agenten sicher und DORA-konform einsetzen.

Der Schlüssel liegt darin, KI-Agenten-Sicherheit nicht als nachträglichen Zusatz, sondern als integralen Bestandteil jeder KI-Initiative zu behandeln. Die Regulierung macht dies ohnehin zur Pflicht – wer freiwillig vorangeht, hat den Vorteil auf seiner Seite.


Sie möchten KI-Agenten sicher und DORA-konform in Ihre Finanzinfrastruktur integrieren? Die Aionda GmbH unterstützt Banken und Versicherungen bei der Konzeption, Entwicklung und Absicherung von KI-Agenten-Systemen – von der Architektur bis zur regulatorischen Dokumentation.

Kontaktieren Sie uns für ein unverbindliches Gespräch: stephan.ferraro@aionda.com

Autor: Stephan Ferraro, Gründer und Geschäftsführer der Aionda GmbH

Categories: Blog

0 Comments

Schreibe einen Kommentar

Avatar placeholder

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert