Der EU AI Act ist die weltweit erste umfassende KI-Regulierung. Er klassifiziert KI-Systeme nach Risikoklassen und stellt an Hochrisiko-Systeme konkrete technische Anforderungen: Risikomanagement, Datenqualität, Protokollierung, menschliche Aufsicht und Transparenz. Cloud-Infrastruktur ist dabei kein Beiwerk — sie ist die technische Grundlage, auf der Compliance steht oder fällt. Dieser Artikel zeigt, welche AWS-Architekturen für EU-AI-Act-konforme KI-Systeme notwendig sind.

Zeitleiste: Was wann gilt

Der EU AI Act (EU-Verordnung 2024/1689) ist am 1. August 2024 in Kraft getreten. Die Umsetzungsfristen sind gestaffelt:

Datum Geltende Regelungen
Februar 2025 Verbote für inakzeptable Risikoklassen (z. B. Social Scoring, biometrische Echtzeit-Überwachung im öffentlichen Raum)
August 2025 Governance-Anforderungen: KI-Kompetenzanforderungen für Anbieter und Betreiber; Regelungen für GPAI-Modelle (General Purpose AI)
August 2026 Vollständige Hochrisiko-Anforderungen (Anhang III): Konformitätsbewertung, CE-Kennzeichnung, Marktüberwachung
August 2027 Hochrisiko-Anforderungen für KI in sicherheitskritischen Produkten (Anhang I: Maschinenverordnung, Medizinprodukte u.a.)

Für Unternehmen, die Hochrisiko-KI-Systeme entwickeln oder betreiben, verbleiben bis August 2026 weniger als 18 Monate, um die technische Infrastruktur aufzubauen. Cloud-Architekturen für Compliance by Design müssen jetzt begonnen werden.

Risikoklassifizierung: Welche KI-Systeme sind Hochrisiko?

Der EU AI Act unterscheidet vier Risikoklassen. Die Klassifikation bestimmt die Compliance-Anforderungen:

Inakzeptables Risiko (verboten)
KI-Systeme, die eine inakzeptable Gefahr für Grundrechte darstellen: Social-Scoring durch Behörden, biometrische Echtzeit-Identifikation im öffentlichen Raum, subliminale Manipulation. Verboten seit Februar 2025.
Hohes Risiko (Hochrisiko)
KI-Systeme in kritischen Bereichen: biometrische Identifikation, Personalmanagement, Kreditvergabe, Strafverfolgung, kritische Infrastruktur, Migration und Grenzschutz. Vollständige Konformitätsanforderungen ab August 2026.
Begrenztes Risiko
Chatbots, Deepfake-Generatoren: Transparenzpflichten gegenüber dem Nutzer, aber keine Konformitätsbewertung.
Minimales Risiko
Spam-Filter, einfache Empfehlungsalgorithmen: keine spezifischen AI-Act-Anforderungen.

Technische Anforderungen für Hochrisiko-KI-Systeme

Artikel 9–15 des EU AI Act definieren die technischen und organisatorischen Anforderungen für Hochrisiko-KI-Systeme. Cloud-Infrastruktur ist für alle diese Anforderungen zentral:

  1. Risikomanagementsystem (Art. 9): Ein kontinuierliches Risikomanagement über den gesamten Lebenszyklus des KI-Systems. AWS Config Conformance Packs und AWS Audit Manager ermöglichen automatisierte Kontrollen.
  2. Datenqualität und -governance (Art. 10): Trainingsdaten müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Amazon SageMaker Data Wrangler, AWS Glue Data Quality und Amazon Macie unterstützen Datenqualitäts-Pipelines.
  3. Technische Dokumentation (Art. 11): Vollständige Dokumentation des Systems: Zweck, Design, Leistungsmetriken, Datenquellen und Validierungsergebnisse. AWS Artifact liefert Infrastruktur-Zertifizierungen; Kunden dokumentieren die Systemebene.
  4. Protokollierung und Audit-Logging (Art. 12): Hochrisiko-KI-Systeme müssen automatisch Protokolle erzeugen, die die Rekonstruktion von Entscheidungen ermöglichen. S3 mit Object Lock, CloudTrail und CloudWatch Logs mit unveränderlicher Archivierung bilden das technische Fundament.
  5. Transparenz und Nutzerinformation (Art. 13): Betreiber müssen Nutzer informieren, dass sie mit einem KI-System interagieren. AWS Bedrock Guardrails unterstützt transparente, erklärbare Antworten.
  6. Menschliche Aufsicht (Art. 14): Hochrisiko-KI-Systeme müssen so gestaltet sein, dass menschliche Betreiber Ausgaben überwachen und überschreiben können. Amazon Augmented AI (A2I) implementiert Human-in-the-Loop-Workflows.
  7. Robustheit und Cybersicherheit (Art. 15): Hochrisiko-Systeme müssen robust gegen Fehler und Angriffe sein. Amazon SageMaker Model Monitor und AWS Security Hub sind zentrale Werkzeuge.

AWS-Referenzarchitektur für EU-AI-Act-konforme KI-Systeme

Eine EU-AI-Act-konforme KI-Infrastruktur auf AWS basiert auf folgenden Architekturentscheidungen:

Anforderung (EU AI Act) AWS-Service Implementierung
Unveränderliches Audit-Logging S3 Object Lock + CloudTrail Compliance Mode, WORM-Speicher, Cross-Account-Archivierung
Datenqualität und -herkunft AWS Glue Data Catalog + Amazon Macie Data Lineage, automatische Klassifizierung, Qualitätsregeln
Modell-Monitoring Amazon SageMaker Model Monitor Datendrift-Erkennung, Genauigkeits-Metriken, Alarm bei Abweichungen
Menschliche Aufsicht Amazon Augmented AI (A2I) Human-Review-Workflows für Low-Confidence-Vorhersagen
Erklärbarkeit Amazon SageMaker Clarify Feature-Importance, Bias-Erkennung, Erklärungsberichte
Compliance-Monitoring AWS Audit Manager Automatisierte Nachweise für EU AI Act Controls
Datenlokalisierung AWS Service Control Policies Erzwungene Nutzung von EU-Regionen (Frankfurt, Irland, Paris)
Datenschutz by Design AWS KMS + Amazon Macie Verschlüsselung aller Daten, automatische Erkennung personenbezogener Daten

GPAI-Modelle: Besondere Anforderungen für Foundation Models

Der EU AI Act regelt seit August 2025 auch GPAI-Modelle (General Purpose AI Models) — Foundation Models wie Large Language Models. Anforderungen unterscheiden Standard-GPAI-Modelle von Modellen mit systemischem Risiko (ab 10^25 FLOPs Trainingsaufwand).

Für Unternehmen, die GPAI-Modelle über AWS Bedrock einsetzen, gelten die GPAI-Pflichten primär für den Modellanbieter. Als Betreiber (Deployer) tragen Sie Verantwortung für die Deployment-Konfiguration: Guardrails, Access Control, Audit-Logging und die Sicherstellung, dass keine verbotenen Anwendungen ermöglicht werden.

Häufig gestellte Fragen zum EU AI Act

Was ist ein Hochrisiko-KI-System nach dem EU AI Act?
Hochrisiko-KI-Systeme sind KI-Anwendungen in Bereichen mit erheblichen Auswirkungen auf Sicherheit oder Grundrechte: biometrische Identifikation, Personalmanagement, Kreditvergabe, Strafverfolgung, kritische Infrastruktur. Für sie gelten die strengsten Anforderungen: Risikomanagement, Datenqualität, Protokollierung, menschliche Aufsicht und Konformitätsbewertung.
Wann gilt der EU AI Act verpflichtend?
Verbote für inakzeptable Risikoklassen gelten seit Februar 2025. Hochrisiko-Anforderungen für Anhang-III-Systeme werden ab August 2026 verpflichtend. Unternehmen sollten die erforderliche Infrastruktur jetzt aufbauen.
Welche Strafen drohen bei Verstößen?
Verstöße gegen Verbotspflichten: bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes. Verstöße gegen Hochrisiko-Anforderungen: bis zu 15 Mio. EUR oder 3 % des Umsatzes.
Gilt der EU AI Act für KI-Systeme außerhalb der EU?
Ja. Der EU AI Act gilt extraterritorial: Jedes KI-System, das innerhalb der EU eingesetzt wird oder dessen Ausgaben in der EU genutzt werden, fällt unter die Regulierung — unabhängig vom Standort des Anbieters.

Storm Reply: EU-AI-Act-konforme KI-Infrastruktur

Storm Reply — AWS Premier Consulting Partner im DACH-Markt und AWS Generative AI Competency Launch Partner — entwirft KI-Infrastrukturen auf AWS, die EU AI Act-Anforderungen nativ erfüllen: von der Risikoklassifikation über Infrastrukturarchitektur bis zu Audit-Logging, Modell-Monitoring und menschlicher Aufsicht.

Mit der AWS Machine Learning Competency, Generative AI Competency und über 1.500 AWS-Zertifizierungen in der Reply Group verfügen wir über die Expertise, regulatorische KI-Anforderungen in produktionsreife AWS-Architekturen zu übersetzen.

Quellen

  1. EU-Verordnung 2024/1689 (EU AI Act) im EUR-Lex
  2. AWS Responsible AI
  3. AWS EU AI Act Compliance
  4. Europäische Kommission — KI-Regulierungsrahmen

EU AI Act-konforme KI-Infrastruktur aufbauen?

Storm Reply klassifiziert Ihre KI-Systeme und implementiert die notwendige AWS-Infrastruktur für EU AI Act-Compliance.

Kontakt aufnehmen

Weitere Insights