Zum Inhalt springen
>_<
AI EngineeringWiki

EU AI Act: Was du wissen musst

Compliance · 10 min

EU AI Act — Compliance Guide
EU AI Act — Compliance Guide
📋 Auf einen Blick

Der EU AI Act (Verordnung 2024/1689) ist der weltweit erste umfassende Rechtsrahmen für Künstliche Intelligenz. Er klassifiziert AI-Systeme nach Risiko und definiert Pflichten für Anbieter und Betreiber. Für die meisten Self-Hosted AI-Setups gilt: Minimal Risk, keine besonderen Pflichten — aber Transparenz und Dokumentation sind trotzdem empfohlen.

Der EU AI Act (Verordnung 2024/1689) wurde am 12. Juli 2024 im EU-Amtsblatt veröffentlicht und ist am 1. August 2024 in Kraft getreten. Er ist der umfassendste Regelungsrahmen der EU für Künstliche Intelligenz. Einige Pflichten — wie die Verbote (Art. 5) und die KI-Kompetenz (Art. 4) — gelten bereits seit 2. Februar 2025. Die vollständige Anwendung mit Enforcement und Strafen startet ab 2. August 2026.

⚠️ Art. 4 KI-Kompetenz gilt BEREITS

Die Pflicht zur KI-Kompetenz (Art. 4) gilt seit 2. Februar 2025. Es gibt keine Einheitszertifizierung, keine Pflicht zu einem AI Officer und keine One-size-fits-all-Schulung. Die Überwachung und Durchsetzung (Enforcement) startet ab August 2026.

⚠️ Strafen

Bis zu 35 Millionen Euro oder 6% des globalen Jahresumsatzes sind möglich. Für KMU gelten etwas mildere Regeln, aber die Pflichten bleiben.

EU AI Act Risikoklassen Pyramide: Von verboten (oben) bis minimal (unten)
EU AI Act Risikoklassen: Von verboten (oben) bis minimal (unten)

Was regelt der EU AI Act?

Der AI Act reguliert AI-Systeme basierend auf ihrem Risikopotenzial:

EU AI Act Risiko-Pyramide: 4 Stufen von Verboten bis Minimal
EU AI Act Risiko-Pyramide: Verboten, Hoch, Begrenzt, Minimal
VERBOTEN

Unacceptable Risk

Systeme, die Menschen manipulieren, soziales Scoring betreiben oder biometrische Fernidentifikation in Echtzeit. Komplett verboten.

HOCH

High Risk

AI in kritischen Bereichen (Gesundheit, Bildung, Beschäftigung, Strafverfolgung). Strenge Anforderungen an Dokumentation, Transparenz, menschliche Aufsicht.

MITTEL

Limited Risk

Chatbots, Deepfakes, Emotionserkennung. Transparenzpflicht — muss klar sein, dass man mit AI interagiert.

MINIMAL

Minimal Risk

Spam-Filter, Empfehlungssysteme, Gaming-AI. Keine speziellen Pflichten. Die meisten Homelab-AI-Systeme fallen hierunter.

Entscheidungsbaum: Welche Risikoklasse?
Entscheidungsbaum: Welche Risikoklasse?

Was das für typische Business-KI-Nutzung bedeutet

SzenarioRisikostufePflichten
LLM für Content-ErstellungMinimal bis BegrenztTransparenz bei Veröffentlichung ohne menschliche Prüfung
KI-Kundensupport-ChatbotBegrenztNutzer müssen wissen, dass sie mit KI sprechen. Bei Entscheidungen über Leistungserbringung evtl. Hochrisiko.
Interne Produktivität (E-Mail, Code, Zusammenfassungen)MinimalKeine spezifischen Pflichten, aber Dokumentation empfohlen
KI für Recruiting (Lebensläufe, Kandidaten-Ranking)HochVolle Compliance: Doku, Risikomanagement, menschliche Aufsicht

Für wen gilt der AI Act?

AkteurPflichten
AI-EntwicklerKonformitätsbewertung, technische Dokumentation, Qualitätsmanagement
Deployer (Nutzer)Menschliche Aufsicht, Monitoring, Transparenz gegen Betroffene
Importeure/HändlerCE-Kennzeichnung, Konformitätserklärung

Pflichten für High-Risk AI

BereichPflicht
DokumentationDetaillierte technische Dokumentation vor Markteinführung: Verwendungszweck, Design, Methodik, Testergebnisse
RisikomanagementDokumentierter, fortlaufender Prozess zur Identifizierung, Analyse und Minderung von Risiken — kein einmaliges Assessment
Data GovernanceTrainings- und Testdaten müssen Qualitätskriterien erfüllen. Datenquellen, Aufbereitungsmethoden und potenzielle Verzerrungen dokumentieren
TransparenzKlare Informationen über Fähigkeiten, Einschränkungen und Verwendungszweck. Nutzungsanweisungen bereitstellen
Menschliche AufsichtMenschen können Fähigkeiten und Grenzen verstehen, in Entscheidungen eingreifen und das System nicht nutzen oder Ergebnisse ignorieren
AufzeichnungspflichtAutomatische Protokollierung des Betriebs zur Nachverfolgbarkeit. Auf Anfrage den Behörden bereitstellen
GenauigkeitAngemessene Genauigkeit, Robustheit, Cybersicherheit
KennzeichnungCE-Kennzeichnung, EU-Konformitätserklärung

Timeline: Wann gilt was?

DatumWas gilt
12. Juli 2024Im EU-Amtsblatt veröffentlicht
01. Aug 2024In Kraft getreten
02. Feb 2025Verbote (Art. 5) + KI-Kompetenz (Art. 4) gelten BEREITS
02. Aug 2025Governance-Regeln + GPAI-Modelle (Transparenz, Copyright)
02. Aug 2026Vollständige Anwendung (High-Risk etc.) + Enforcement/Überwachung startet
02. Aug 2027Hochrisiko-KI in regulierten Produkten

Dreistufiges Sanktionssystem

VerstossMaximale Strafe
Verbotene KI-Praktiken35 Mio. EUR oder 7% des weltweiten Jahresumsatzes
Hochrisiko-KI-Anforderungen15 Mio. EUR oder 3% des Umsatzes
Falsche Angaben gegenüber Behörden7,5 Mio. EUR oder 1% des Umsatzes

Für kleine und mittlere Unternehmen werden die Bussgelder verhältnismässig angepasst, aber sie sind immer noch erheblich genug, um die Existenz eines kleinen Unternehmens zu gefährden.

Was bedeutet das für Self-Hosted AI?

Gute Nachrichten:

  • ✅ Die meisten Self-Hosted AI-Nutzungen fallen unter "Minimal Risk"
  • ✅ Keine CE-Kennzeichnung nötig
  • ✅ Keine Konformitätsbewertung erforderlich
  • ✅ Lokale Nutzung = volle Kontrolle = leichtere Compliance

Aber beachten:

  • ⚠️ Wenn du AI als Produkt anbietest → andere Regeln
  • ⚠️ Automatisierte Entscheidungen mit rechtlicher Wirkung → High Risk
  • ⚠️ Biometrische Kategorisierung → verboten oder eingeschränkt
  • ⚠️ Chatbot-Nutzung → Transparenzpflicht (Kenntnis geben)

Beispiel: AI-System kategorisieren

# Fragebogen zur Risikokategorisierung

## 1. Systemzweck
Was macht dein AI-System?
→ internen Kundensupport automatisieren

## 2. Entscheidungen mit rechtlicher Wirkung?
Können AI-Entscheidungen rechtliche Folgen haben?
→ Nein, nur Empfehlungen

## 3. Kritischer Bereich?
Gesundheit, Bildung, Beschäftigung, Finanzen?
→ Nein

## 4. Biometrische Daten?
Verarbeitet das System biometrische Daten?
→ Nein

## Ergebnis: MINIMAL RISK ✅
→ Keine speziellen Pflichten nötig

---

# Anders: Recruiting-Tool
## 1. Systemzweck
→ Bewerber screening und Ranking

## 2. Entscheidungen mit rechtlicher Wirkung?
→ Ja, beeinflusst Einstellungen

## 3. Kritischer Bereich?
→ Beschäftigung → HIGH RISK ❌
→ Dokumentation + menschliche Aufsicht nötig

Checkliste: Bereitschaft für AI Act

  • ☐ Kategorie deiner AI-Nutzung bestimmt (Minimal/Limited/High Risk)
  • ☐ Dokumentation, wie AI in deinem Unternehmen genutzt wird
  • ☐ Prozess für Transparenz (Nutzer wissen, dass AI im Einsatz)
  • ☐ Bei High Risk: Technische Dokumentation vorhanden
  • ☐ Menschliche Aufsicht sichergestellt (wer überwacht AI-Entscheidungen?)
  • ☐ Bei Chatbots: Transparente Kommunikation ("Du chatst mit einem Bot")
  • ☐ Löschkonzept für AI-generierte Daten
  • ☐ Regelmäßige Überprüfung der AI-Nutzung

Unsere Empfehlung

  1. 1. Kategorisiere deine AI-Nutzung (Minimal/Limited/High)
  2. 2. Dokumentiere alle AI-Systeme (Art. 30 DSGVO + AI Act)
  3. 3. Transparenz schaffen — Nutzer informieren
  4. 4. Self-Hosted bevorzugen — volle Kontrolle, leichtere Compliance
  5. 5. Monitoring — regelmäßig prüfen ob sich was geändert hat

Quellen

War dieser Artikel hilfreich?

Nächster Schritt: Compliance in den Betrieb bringen

Nutze fertige DSGVO-Templates, Checklisten und Praxis-Guides für AI-Systeme, die dokumentiert und auditierbar sein müssen.

Warum AI Engineering
  • Lokal und self-hosted gedacht
  • Dokumentiert und auditierbar
  • Aus eigener Runtime entwickelt
  • Made in Austria
Kein Ersatz für Rechtsberatung.