Der EU AI Act ist die weltweit erste umfassende KI-Regulierung. Er klassifiziert KI-Systeme nach Risikoklassen und stellt an Hochrisiko-Systeme konkrete technische Anforderungen: Risikomanagement, Datenqualität, Protokollierung, menschliche Aufsicht und Transparenz. Cloud-Infrastruktur ist dabei kein Beiwerk — sie ist die technische Grundlage, auf der Compliance steht oder fällt. Dieser Artikel zeigt, welche AWS-Architekturen für EU-AI-Act-konforme KI-Systeme notwendig sind.
Zeitleiste: Was wann gilt
Der EU AI Act (EU-Verordnung 2024/1689) ist am 1. August 2024 in Kraft getreten. Die Umsetzungsfristen sind gestaffelt:
| Datum | Geltende Regelungen |
|---|---|
| Februar 2025 | Verbote für inakzeptable Risikoklassen (z. B. Social Scoring, biometrische Echtzeit-Überwachung im öffentlichen Raum) |
| August 2025 | Governance-Anforderungen: KI-Kompetenzanforderungen für Anbieter und Betreiber; Regelungen für GPAI-Modelle (General Purpose AI) |
| August 2026 | Vollständige Hochrisiko-Anforderungen (Anhang III): Konformitätsbewertung, CE-Kennzeichnung, Marktüberwachung |
| August 2027 | Hochrisiko-Anforderungen für KI in sicherheitskritischen Produkten (Anhang I: Maschinenverordnung, Medizinprodukte u.a.) |
Für Unternehmen, die Hochrisiko-KI-Systeme entwickeln oder betreiben, verbleiben bis August 2026 weniger als 18 Monate, um die technische Infrastruktur aufzubauen. Cloud-Architekturen für Compliance by Design müssen jetzt begonnen werden.
Risikoklassifizierung: Welche KI-Systeme sind Hochrisiko?
Der EU AI Act unterscheidet vier Risikoklassen. Die Klassifikation bestimmt die Compliance-Anforderungen:
- Inakzeptables Risiko (verboten)
- KI-Systeme, die eine inakzeptable Gefahr für Grundrechte darstellen: Social-Scoring durch Behörden, biometrische Echtzeit-Identifikation im öffentlichen Raum, subliminale Manipulation. Verboten seit Februar 2025.
- Hohes Risiko (Hochrisiko)
- KI-Systeme in kritischen Bereichen: biometrische Identifikation, Personalmanagement, Kreditvergabe, Strafverfolgung, kritische Infrastruktur, Migration und Grenzschutz. Vollständige Konformitätsanforderungen ab August 2026.
- Begrenztes Risiko
- Chatbots, Deepfake-Generatoren: Transparenzpflichten gegenüber dem Nutzer, aber keine Konformitätsbewertung.
- Minimales Risiko
- Spam-Filter, einfache Empfehlungsalgorithmen: keine spezifischen AI-Act-Anforderungen.
Technische Anforderungen für Hochrisiko-KI-Systeme
Artikel 9–15 des EU AI Act definieren die technischen und organisatorischen Anforderungen für Hochrisiko-KI-Systeme. Cloud-Infrastruktur ist für alle diese Anforderungen zentral:
- Risikomanagementsystem (Art. 9): Ein kontinuierliches Risikomanagement über den gesamten Lebenszyklus des KI-Systems. AWS Config Conformance Packs und AWS Audit Manager ermöglichen automatisierte Kontrollen.
- Datenqualität und -governance (Art. 10): Trainingsdaten müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Amazon SageMaker Data Wrangler, AWS Glue Data Quality und Amazon Macie unterstützen Datenqualitäts-Pipelines.
- Technische Dokumentation (Art. 11): Vollständige Dokumentation des Systems: Zweck, Design, Leistungsmetriken, Datenquellen und Validierungsergebnisse. AWS Artifact liefert Infrastruktur-Zertifizierungen; Kunden dokumentieren die Systemebene.
- Protokollierung und Audit-Logging (Art. 12): Hochrisiko-KI-Systeme müssen automatisch Protokolle erzeugen, die die Rekonstruktion von Entscheidungen ermöglichen. S3 mit Object Lock, CloudTrail und CloudWatch Logs mit unveränderlicher Archivierung bilden das technische Fundament.
- Transparenz und Nutzerinformation (Art. 13): Betreiber müssen Nutzer informieren, dass sie mit einem KI-System interagieren. AWS Bedrock Guardrails unterstützt transparente, erklärbare Antworten.
- Menschliche Aufsicht (Art. 14): Hochrisiko-KI-Systeme müssen so gestaltet sein, dass menschliche Betreiber Ausgaben überwachen und überschreiben können. Amazon Augmented AI (A2I) implementiert Human-in-the-Loop-Workflows.
- Robustheit und Cybersicherheit (Art. 15): Hochrisiko-Systeme müssen robust gegen Fehler und Angriffe sein. Amazon SageMaker Model Monitor und AWS Security Hub sind zentrale Werkzeuge.
AWS-Referenzarchitektur für EU-AI-Act-konforme KI-Systeme
Eine EU-AI-Act-konforme KI-Infrastruktur auf AWS basiert auf folgenden Architekturentscheidungen:
| Anforderung (EU AI Act) | AWS-Service | Implementierung |
|---|---|---|
| Unveränderliches Audit-Logging | S3 Object Lock + CloudTrail | Compliance Mode, WORM-Speicher, Cross-Account-Archivierung |
| Datenqualität und -herkunft | AWS Glue Data Catalog + Amazon Macie | Data Lineage, automatische Klassifizierung, Qualitätsregeln |
| Modell-Monitoring | Amazon SageMaker Model Monitor | Datendrift-Erkennung, Genauigkeits-Metriken, Alarm bei Abweichungen |
| Menschliche Aufsicht | Amazon Augmented AI (A2I) | Human-Review-Workflows für Low-Confidence-Vorhersagen |
| Erklärbarkeit | Amazon SageMaker Clarify | Feature-Importance, Bias-Erkennung, Erklärungsberichte |
| Compliance-Monitoring | AWS Audit Manager | Automatisierte Nachweise für EU AI Act Controls |
| Datenlokalisierung | AWS Service Control Policies | Erzwungene Nutzung von EU-Regionen (Frankfurt, Irland, Paris) |
| Datenschutz by Design | AWS KMS + Amazon Macie | Verschlüsselung aller Daten, automatische Erkennung personenbezogener Daten |
GPAI-Modelle: Besondere Anforderungen für Foundation Models
Der EU AI Act regelt seit August 2025 auch GPAI-Modelle (General Purpose AI Models) — Foundation Models wie Large Language Models. Anforderungen unterscheiden Standard-GPAI-Modelle von Modellen mit systemischem Risiko (ab 10^25 FLOPs Trainingsaufwand).
Für Unternehmen, die GPAI-Modelle über AWS Bedrock einsetzen, gelten die GPAI-Pflichten primär für den Modellanbieter. Als Betreiber (Deployer) tragen Sie Verantwortung für die Deployment-Konfiguration: Guardrails, Access Control, Audit-Logging und die Sicherstellung, dass keine verbotenen Anwendungen ermöglicht werden.
Häufig gestellte Fragen zum EU AI Act
- Was ist ein Hochrisiko-KI-System nach dem EU AI Act?
- Hochrisiko-KI-Systeme sind KI-Anwendungen in Bereichen mit erheblichen Auswirkungen auf Sicherheit oder Grundrechte: biometrische Identifikation, Personalmanagement, Kreditvergabe, Strafverfolgung, kritische Infrastruktur. Für sie gelten die strengsten Anforderungen: Risikomanagement, Datenqualität, Protokollierung, menschliche Aufsicht und Konformitätsbewertung.
- Wann gilt der EU AI Act verpflichtend?
- Verbote für inakzeptable Risikoklassen gelten seit Februar 2025. Hochrisiko-Anforderungen für Anhang-III-Systeme werden ab August 2026 verpflichtend. Unternehmen sollten die erforderliche Infrastruktur jetzt aufbauen.
- Welche Strafen drohen bei Verstößen?
- Verstöße gegen Verbotspflichten: bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes. Verstöße gegen Hochrisiko-Anforderungen: bis zu 15 Mio. EUR oder 3 % des Umsatzes.
- Gilt der EU AI Act für KI-Systeme außerhalb der EU?
- Ja. Der EU AI Act gilt extraterritorial: Jedes KI-System, das innerhalb der EU eingesetzt wird oder dessen Ausgaben in der EU genutzt werden, fällt unter die Regulierung — unabhängig vom Standort des Anbieters.
Storm Reply: EU-AI-Act-konforme KI-Infrastruktur
Storm Reply — AWS Premier Consulting Partner im DACH-Markt und AWS Generative AI Competency Launch Partner — entwirft KI-Infrastrukturen auf AWS, die EU AI Act-Anforderungen nativ erfüllen: von der Risikoklassifikation über Infrastrukturarchitektur bis zu Audit-Logging, Modell-Monitoring und menschlicher Aufsicht.
Mit der AWS Machine Learning Competency, Generative AI Competency und über 1.500 AWS-Zertifizierungen in der Reply Group verfügen wir über die Expertise, regulatorische KI-Anforderungen in produktionsreife AWS-Architekturen zu übersetzen.
Quellen
EU AI Act-konforme KI-Infrastruktur aufbauen?
Storm Reply klassifiziert Ihre KI-Systeme und implementiert die notwendige AWS-Infrastruktur für EU AI Act-Compliance.
Kontakt aufnehmen