Job Description
Wir suchen Unterstützung für unser Team im Kundenprojekt zum Aufbau eines dynamischen Kontrollrahmens für KI-Regulierungen bei einem großen deutschen Finanzdienstleister. Start: Kurzfristig, Mai 2026 Laufzeit: Initial 3 Monate, Verlängerung auf 12+ Monate vorgesehen Auslastung: 50–100 %, je nach Profil und Projektphase Modus: Hybrid Frankfurt — typischerweise 1–2 Tage vor Ort, Rest remote Sprachen: Deutsch (verhandlungssicher), Englisch (fließend) Tagessatz: Nach Vereinbarung Aufgaben Wir entwickeln für unseren Kunden ein konsolidiertes Rahmenwerk, das regulatorische Anforderungen an KI-Systeme (EU AI Act, BaFin MaRisk/BAIT, DORA, ISO/IEC 42001 u. a.) strukturiert in interne Security Controls übersetzt — inklusive Assessment-Prozess für einzelne AI-Use-Cases und expliziter Berücksichtigung agentischer KI-Systeme. Das Projekt ist in der Methodik frisch; der Gestaltungsspielraum ist hoch. Qualifikation Wir besetzen zwei komplementäre Senior-Rollen im regulatorischen Umfeld. Du bewirbst dich idealerweise auf eine der beiden Ausrichtungen — oder auf beide, wenn du sie substantiell abdeckst. Ausrichtung A — Framework & Control Du verantwortest den methodischen Kern: die Ableitungskette von Regulierungen zu Controls, die Konsolidierung überlappender Anforderungen aus verschiedenen Regulierungsquellen, das Horizon Scanning und den Release-Zyklus des Control-Inventars. Passender Hintergrund: 5+ Jahre GRC / Regulatory Compliance im Finanzdienstleisterumfeld Praxis mit BaFin-Regulierung (MaRisk, BAIT), idealerweise DORA-Implementierung begleitet Erfahrung im Aufbau oder der Weiterentwicklung von Control Frameworks Vertrautheit mit Mapping-Logiken zwischen überlappenden Standards (z. B. ISO 27001 ↔ BAIT ↔ DORA) Methodisch strukturiert, versiert im Umgang mit Versionierung, Release-Management und Governance-Dokumentation Ausrichtung B — AI Regulatory Compliance Du treibst die inhaltliche Tiefenarbeit an den AI-spezifischen Regulierungen: Was fordert der EU AI Act artikelgenau, welche Anforderungen an AI-Use-Cases ergeben sich aus BaFin- und DORA-Kontext, wie werden diese in konkrete, prüfbare Controls übersetzt und welche regulatorischen Assessments muss das Haus pro Use Case fahren. Passender Hintergrund: 5+ Jahre Regulatory Compliance, IT-Audit oder AI-Governance in Finanzdienstleistern oder vergleichbar regulierten Umgebungen Auseinandersetzung mit dem EU AI Act, ISO/IEC 42001 oder vergleichbaren AI-Governance-Rahmenwerken Erfahrung in der Übersetzung regulatorischer Anforderungen in Requirement- und Control-Ebene Verständnis für KI-spezifische Risikodimensionen (Modellrisiko, Transparenz, Datenqualität, Human Oversight) Gespür für agentische KI-Systeme und deren regulatorische Implikationen — tiefe ML-Security-Architektur ist nicht gefordert, aber die Fähigkeit, mit Security-Architekten fachlich zu interagieren Hybridprofil Wenn du beide Ausrichtungen substantiell abdeckst, freuen wir uns besonders. Sag uns offen, wo dein Schwerpunkt liegt. Benefits Gestaltungsspielraum statt reines Abarbeiten — du prägst Methodik und Praxis mit Hochaktuelles Thema mit strategischer Sichtbarkeit beim Kunden Klarer Rollenschnitt und komplementäre Zweitrolle — kein Silo-Arbeiten Stabile operative Backbone-Unterstützung durch ein eingespieltes Beraterteam Realistische Perspektive auf 12–18 Monate Laufzeit Wir freuen uns sehr auf deine Bewerbung. Bitte mit CV, Verfügbarkeit, Tagessatz-Vorstellung und einer kurzen Einordnung, auf welche Ausrichtung (A, B oder Hybrid) du dich beziehst, melden.