ShellAgents: KI, die einen Papierpfad hinterlässt
Der EU AI Act (Verordnung 2024/1689) ist keine zukünftige Herausforderung. Die Verbote gelten bereits. Die Regeln für KI-Systeme mit allgemeinem Verwendungszweck griffen ab August 2025. Die Pflichten für Hochrisiko-KI — bei Personalentscheidungen, Zugang zu wesentlichen Dienstleistungen, Kreditbewertung, kritischer Infrastruktur und öffentlichen Ausschreibungen — gelten ab August 2026. Bußgelder erreichen bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist.
Für die meisten Organisationen liegt die eigentliche Compliance-Herausforderung nicht in der KI selbst. Sie liegt im fehlenden Nachweis, wie KI bei einer Entscheidung eingesetzt wurde.
Das Audit-Problem mit Standard-KI-Werkzeugen
Wenn Sie ChatGPT, Claude oder ein vergleichbares System zur Unterstützung einer Geschäftsentscheidung nutzen, erhalten Sie eine Antwort. Kein Protokoll darüber, was das System berücksichtigt hat, was es ignoriert hat, welche Quellen es verwendet hat, ob es halluziniert hat oder warum es zu diesem Ergebnis gekommen ist.
Für interne Anwendungen mit geringem Risiko — einen Newsletter entwerfen, ein Meeting zusammenfassen — ist das in der Regel akzeptabel.
Für Entscheidungen, die Menschen betreffen — Einstellungen, Kredite, Leistungsansprüche, Auftragsvergaben, medizinische Einschätzungen — ist es das zunehmend nicht mehr. Nach dem EU AI Act müssen Hochrisiko-KI-Systeme Protokolle erzeugen, die eine nachträgliche Rekonstruktion jeder Entscheidung ermöglichen. Nach DSGVO Art. 22 haben Personen, die von automatisierten Entscheidungen betroffen sind, das Recht auf Erklärung. Nach EU AI Act Art. 14 müssen Menschen KI-Ausgaben verstehen, überwachen und übersteuern können.
Standard-KI-Werkzeuge sind dafür nicht gebaut. ShellAgents schon.
Wie ShellAgents einen Audit-Trail erzeugt
ShellAgents ist ein Orchestrierungssystem, das komplexe Aufgaben in diskrete, klar definierte Schritte zerlegt und jeden Schritt einem spezialisierten Agenten zuweist. Der entscheidende Unterschied zu einer Standard-KI-Sitzung: Jeder Schritt erzeugt einen schriftlichen Nachweis.
Der „Laufzettel" — das strukturierte Aufgabenblatt, das jeden Workflow steuert — enthält:
- Die Aufgabe und ihre Zerlegung in Teilschritte
- Welcher Agent für welchen Schritt verantwortlich war
- Welche Eingaben jeder Agent erhalten hat
- Welche Ausgaben erzeugt wurden
- Welche Qualitätsprüfungen angewendet wurden
- Ob Probleme aufgetreten sind und wie sie gelöst wurden
- Zeitstempel im gesamten Ablauf
Nichts passiert im Hintergrund ohne eine Datei. Der Laufzettel ist kein nachträglich generiertes Protokoll — er ist der Ausführungsmechanismus. Das System kann kein Ergebnis produzieren, ohne den Nachweis zu erstellen.
Was das für die EU-AI-Act-Compliance bedeutet
Die technischen Anforderungen des Gesetzes für Hochrisiko-Systeme entsprechen direkt der ShellAgents-Architektur:
Art. 12 — Protokollierung: Hochrisiko-KI-Systeme müssen automatisch Ereignisse protokollieren, die ausreichen, um ihren Betrieb nachzuverfolgen. ShellAgents erzeugt dies als natürliches Produkt seines Workflows — nicht als Compliance-Zusatz.
Art. 13 — Transparenz: Die Ausgaben müssen für den Betreiber interpretierbar sein. Da jedes ShellAgents-Ergebnis von seinem vollständigen Laufzettel begleitet wird, ist die Argumentationskette immer verfügbar — keine Black Box.
Art. 14 — Menschliche Aufsicht: Systeme müssen es Menschen ermöglichen, KI-Ausgaben zu verstehen, zu überwachen und zu übersteuern. ShellAgents ist sequenziell und dateibasiert: Ein Mensch kann jeden Schritt prüfen, bevor der nächste beginnt. Aufsichtspunkte sind im Workflow-Design verankert.
Art. 9 — Risikomanagement: Betreiber müssen Risiken im gesamten KI-Lebenszyklus identifizieren und dokumentieren. Die schrittweise Dokumentation in ShellAgents macht dies konkret: Sie sehen genau, wo KI beigetragen hat und wo menschliches Urteil angewendet wurde.
Das finanzielle Risiko-Argument
Nicht-Compliance mit dem EU AI Act ist kein abstraktes Reputationsrisiko. Die Bußgeldstruktur ist klar:
- Verbotene KI: bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes
- Verstöße bei Hochrisiko-KI: bis zu 15 Millionen Euro oder 3 % des weltweiten Umsatzes
- Falsche Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro oder 1 % des weltweiten Umsatzes
Für eine Organisation mit 50 Millionen Euro Jahresumsatz sind 3 % bereits 1,5 Millionen Euro. Die Kosten für die Implementierung von Nachvollziehbarkeit im Voraus sind ein Bruchteil davon.
Zusätzlich zum Gesetz selbst akkumuliert sich sektorspezifisches Risiko. Finanzdienstleister unterliegen MiFID II und EBA-Leitlinien zu KI in Kreditentscheidungen. Gesundheitsorganisationen unterliegen MDR-Anforderungen, wenn KI klinische Entscheidungen unterstützt. Öffentliche Stellen unterliegen Vergaberegeln, die Erklärbarkeit verlangen. Der Audit-Trail, den ShellAgents bereitstellt, ist für all diese Kontexte relevant.
Für wen das relevant ist
Compliance- und Rechtsverantwortliche in Organisationen, die KI für interne Entscheidungen einsetzen — Personalunterstützung, Vertragsüberprüfung, Risikobewertung, Dokumentenklassifikation. Ihre Organisation ist der Betreiber nach dem Gesetz: Die Dokumentationspflicht liegt bei Ihnen, nicht bei OpenAI oder Anthropic.
IT-Verantwortliche in Finanzdienstleistungsunternehmen, die MiFID II, EBA-Leitlinien zu KI in der Kreditvergabe oder EZB-Aufsichtserwartungen unterliegen. Regulatoren fragen nach Modelldokumentation und Entscheidungspfaden. ShellAgents liefert diese als natürliches Ergebnis jedes Workflows.
Öffentliche Stellen und Behörden, die KI in der Vergabebewertung, Leistungsbeurteilung oder regulatorischen Analyse einsetzen. Vergaberegeln in Deutschland, Belgien und auf EU-Ebene verlangen zunehmend, dass KI-gestützte Entscheidungen erklärt und rekonstruiert werden können.
Gesundheitsorganisationen und Life-Sciences-Unternehmen, bei denen MDR und Regeln zur klinischen Entscheidungsunterstützung vorschreiben, dass KI-Beiträge zu klinischen Urteilen rückverfolgbar und dem menschlichen Eingriff zugänglich sind.
Rechts- und Beratungsunternehmen, die KI für Recherche, Dokumentenprüfung oder Vertragsanalyse nutzen — wo Qualität und Quellenangabe der KI-Ausgabe die Berufshaftung direkt berühren.
Wenn Ihre Organisation KI für Entscheidungen einsetzt, die Menschen, Verträge oder öffentliche Ressourcen betreffen, ist die Audit-Trail-Frage nicht hypothetisch. Sie ist eine Frage des Wann, nicht des Ob.
Das ist kein Compliance-Theater
Der tiefere Punkt ist architektonischer Natur. Ein KI-System, das sich nicht erklären kann, ist eine Haftung — nicht weil Regulatoren es so sagen, sondern weil nicht erklärbare Entscheidungen schwer zu verteidigen, schwer zu verbessern und schwer zu vertrauen sind.
ShellAgents wurde entwickelt, um auditierbar zu sein, bevor es den EU AI Act gab. Das Laufzettel-Konzept stammt aus der Ingenieurspraxis in regulierten Umgebungen — die Idee, dass jede Aktion in einem komplexen System eine Spur hinterlassen sollte, die Rekonstruktion, Überprüfung und Korrektur ermöglicht.
Compliance ist eine Konsequenz guter Architektur, kein nachträglich aufgesetztes Feature.
ShellAgents ist als Implementierungsservice für Organisationen verfügbar, die KI-gestützte Workflows mit verifizierbaren Audit-Trails benötigen. Kontaktieren Sie mich, um Ihren Kontext zu besprechen, oder lesen Sie mehr über den KI-Prozess- & Automatisierungsservice.