
Seit 2. Februar 2025 müssen Unternehmen, die KI entwickeln oder einsetzen, ihre Systeme nach dem Grad des Risikos bewerten und geeignete Maßnahmen ergreifen, um den gesetzlichen Anforderungen gerecht zu werden.
Die KI-Verordnung „EU Artificial Intelligance Act“ (kurz EU AI Act) wird schrittweise eingeführt.
Ziel des AI Acts ist laut EU-Kommission neben dem Schutz der Rechte von Verbraucherinnen und Verbrauchern ein verantwortungsvoller Einsatz von KI sowie die Förderung von Innovationen.
Darum gibt es den AI Act
KI entwickelt sich rasant, bringt Unternehmen und Industrien viele Verbesserungen und eröffnet ihnen neue Chancen – von smarter Datenanalyse bis hin zur Prozessautomatisierung. Dennoch birgt der Einsatz von KI viele Risiken, die es zu minimieren gilt. Mit der zunehmenden Verbreitung wächst die Verantwortung, KI sicher, transparent und ethisch vertretbar einzusetzen. Die Europäische Union hat mit dem EU AI Act , der am 2. August 2024 in Kraft getreten ist, nun erstmals einen umfassenden Rechtsrahmen geschaffen, um Innovation und Verbraucherschutz in Einklang zu bringen.
Das sind die Kerninhalte des AI Acts
Der EU AI Act ist weltweit die erste umfassende Gesetzgebung zur Regulierung von künstlicher Intelligenz (KI) und legt klare Regeln für Unternehmen und Behörden fest. Die KI-Verordnung soll dazu beitragen, mehr Vertrauen in KI-Technologien zu schaffen, gleichzeitig sollen Innovationen gefördert werden.
Risikobasierte Klassifizierung: Vier Risikostufen für KI-Systeme
Die KI-Verordnung verfolgt einen risikobasierten Ansatz zur Regulierung von KI-Systemen und teilt dazu KI-Anwendungen in vier verschiedene Kategorien ein:
1. Unannehmbares Risiko (KI-Anwendungen verboten)
Hierzu zählen besonders schädliche KI-Anwendungen mit hohem Missbrauchspotenzial, z. B.:
- Social Scoring (wie in China praktiziert),
- manipulative KI, die menschliches Verhalten unbewusst steuert,
- bis auf wenige Ausnahmen Echtzeit-Gesichtserkennung im öffentlichen Raum, z. B., um Rückschlüsse auf die Emotionen von Menschen am Arbeitsplatz zu ziehen.
2. Hohes Risiko (KI-Anwendungen erhalten strenge Auflagen)
Hierzu zählen KI-Systeme, die gemäß KI-Verordnung potenziell nachteilig auf die Sicherheit der Menschen oder ihre Grundrechte auswirken. Wer diese herstellt oder verwendet, muss unter anderem eine adäquate Risikobewertung der Systeme gewährleisten, eine transparente Dokumentation und Nachverfolgung sicherstellen, menschliche Aufsicht gewährleisten und Sicherheitsmaßnahmen sowie den Datenschutz einhalten. Zu diesen KI-Anwendungen zählen z. B.:
- KI in Kreditvergabe- oder Scoring-Systemen,
- KI im Personalwesen (Bewerberauswahl, automatisierte Bewertungen),
- medizinische Diagnosesysteme, die mithilfe von KI bewerten, ob jemand eine bestimmte medizinische Behandlung erhalten kann.
3. Begrenztes Risiko (KI-Anwendungen erhalten Transparenzanforderungen)
Diese Kategorie umfasst weniger risikoreiche KI-Anwendungen für die im Gegensatz zur Hochrisikokategorie weniger strenge Verpflichtungen gelten, z. B.:
- Chatbots (müssen als KI erkennbar sein und dürfen menschliches Verhalten nicht manipulieren)
- KI-generierte Inhalte wie Bilder, Audio, Texte (z. B. ChatGPT, Midjourney) oder Videos (müssen als solche gekennzeichnet werden)
4. Minimales Risiko (KI-Anwendungen benötigen keine oder nur wenige Vorschriften)
Hierzu zählen KI-Systeme, die keinerlei gesonderter gesetzlicher Verpflichtungen unterliegen, wie z. B.:
- KI-gestützte Übersetzungsprogramme
- KI-gestützte Spam-Filter
Hohe Strafen bei Verstößen
Wer den AI Act nicht einhält, muss mit hohen Geldbußen rechnen – ähnlich wie bei der DSGVO:
- bei schweren Verstößen, z.B. verbotenen KI-Systemen: bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes,
- bei Verstößen gegen andere Pflichten: bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes,
- bei falschen Angaben: Geldstrafe von bis zu 7,5 Millionen Euro oder 1,5 Prozent des Jahresumsatzes.
Förderung von Innovation und vertrauenswürdiger KI
Neben den Regulierungen sieht der AI Act auch die Notwendigkeit von Fördermaßnahmen für innovative und ethische KI-Lösungen an. Besonders kleine und mittlere Unternehmen (KMUs) sowie Start-ups sollen unterstützt werden.
Für wen die KI-Verordnung gilt
Der EU AI Act gilt für alle, die künstliche Intelligenz innerhalb der Europäischen Union entwickeln, anbieten oder nutzen – unabhängig davon, ob sie in der EU ansässig sind oder nicht.
Dazu gehören vor allem Unternehmen, Start-ups, öffentliche Institutionen und Organisationen. Besonders betroffen sind Branchen mit Hochrisiko-KI, wie:
- Personalwesen (z. B. automatisierte Bewerbungsbewertung)
- Finanzdienstleister (z. B. Kreditvergabe, Betrugserkennung)
- Gesundheitswesen (z. B. KI-gestützte Diagnosen)
- Öffentliche Verwaltung (z. B. KI im Justiz- oder Polizeiwesen)
Zeitplan der Einführung des AI Acts
Die Einführung des AI Acts erfolgt schrittweise. Die EU-Länder müssen den AI Act allerdings noch in nationales Recht umsetzen:
- Seit Februar 2025: Anforderungen an die KI-Kompetenz beginnen zu gelten (Kapitel 1+2). Verbot bestimmter KI-Anwendungen mit unannehmbarem Risiko.
- 2. Mai 2025: Die Kommission muss die Verhaltenskodizes fertiggestellt haben.
- 2. August 2025: Inkrafttreten von Governance-Regeln und Verpflichtungen für GPAI-Anbieter sowie Regelungen zu Benachrichtigungen an Behörden und Sanktionen. Geldstrafen beginnen zu gelten (Kapitel 3, 5, 7, 12 & Artikel 78, 99 & 100).
- 2. August 2026: Die meisten verbleibenden Bestimmungen des AI Act werden wirksam – mit Ausnahme von Artikel 6 Absatz 1.
- 2. August 2027: die verlängerte Übergangsfrist von 36 Monaten für Hochrisikosysteme, etwa im Personalbereich, läuft aus. Auch für diese Systeme treten die Verpflichtungen nun in Kraft.
(Stand Februar 2025)
Unternehmen sollten sich vorbereiten
Der gestaffelte Zeitplan gibt Unternehmen und Behörden die Möglichkeit, sich schrittweise auf die neuen Anforderungen einzustellen und rechtzeitig die notwendigen Maßnahmen zur Einhaltung des AI Act zu ergreifen.
Hier dreht sich alles ums Geld. Mit uns bleiben Sie auf dem Laufenden und erfahren alles über clevere Spartipps, lukrative Anlagemöglichkeiten, smarte Altersvorsorgen und News aus der Finanzwelt. Denn: Wissen zahlt sich aus!
Die häufigsten Fragen zum EU AI ACT
2Wann tritt der EU AI Act in Kraft?
Wann tritt der EU AI Act in Kraft?
Der EU AI ACT ist am 2. August 2024 in Kraft getreten. Das
Gesetz muss nun in nationales Recht umgesetzt werden. Erste Regelungen sind
seit 2. Februar 2025 verpflichtend.
3Was besagt der EU AI Act?
Was besagt der EU AI Act?
Der EU AI Act ist das weltweit erste umfassende Gesetz zur
Regulierung von künstlicher Intelligenz (KI). Er schafft einen einheitlichen
Rechtsrahmen für den sicheren, transparenten und ethischen Einsatz von
KI-Technologien in der Europäischen Union.
4Warum ist der AI Act wichtig?
Warum ist der AI Act wichtig?
Der Einsatz von KI bringt nicht nur Erleichterungen und Verbesserungen, sondern auch Herausforderungen und diverse Risiken mit sich. KI kann tief in das Leben der Menschen eingreifen – von automatisierten Kreditentscheidungen bis hin zu Gesichtserkennungssystemen. Der AI Act stellt sicher, dass:
- KI-Systeme nicht diskriminieren
- Grundrechte, Privatsphäre und Datenschutz respektiert werden
- Menschen informierte Entscheidungen treffen können (z. B. durch Kennzeichnung von KI-generierten Inhalten)
Der AI Act fordert auch:
- die Erklärbarkeit und Dokumentation von KI, die als hochriskant eingestuft wird.
- die Kennzeichnung von KI-generierten Inhalten.
- Verantwortung von Entwicklern und Unternehmen.
Der AI Act soll zudem die Wettbewerbsfähigkeit Europas stärken:
- durch die Förderung von Innovation – aber mit Schutzmaßnahmen
- durch faire Marktbedingungen für Unternehmen
- durch das Wahren europäischer Werte und des Datenschutzes
Stand 14. Februar 2025
