Der AI Act und dessen Risikoklassen

Roboterarme und Bildschirme in einem Labor
© iStock: Scharfsinn86

Künstliche Intelligenz erfordert klare Richtlinien – aus diesem Grund hat die Europäische Union mit dem Artificial Intelligence Act (AI Act) den ersten umfassenden Rechtsrahmen für KI weltweit geschaffen. Ziel ist es, Vertrauen in KI-Systeme zu fördern und gleichzeitig Investitionen sowie Innovationen in diesem Bereich zu stärken. Unternehmen, die in der EU ein KI-System anbieten möchten, müssen sicherstellen, dass ihr Produkt den Vorgaben des AI Act entspricht. 

Vier Risikoklassen für KI-Systeme 

Der AI Act unterscheidet vier Risikostufen für KI-Systeme. Dabei handelt es sich um KI-Systeme mit 

Icon für AI-Act-Risikostufe Minimales Risiko 

minimalem Risiko: Systeme wie Spam-Filter. Diese werden nicht reguliert. 

Icon für AI-Act-Risikostufe begrenztes Risiko 

begrenztem Risiko: Zum Beispiel Chatbots. Über den Einsatz solcher Systeme müssen Nutzer*innen informiert werden.  

Icon für AI-Act-Risikostufe hohes Risiko 

hohem Risiko: Systeme mit potenziellen Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte, beispielsweise biometrische Identifizierung oder medizinische Diagnosesysteme. 

Icon für AI-Act-Risikostufe Inakzeptables Risiko 

inakzeptablem Risiko: Systeme, die verboten sind, etwa manipulative oder diskriminierende KI, beispielsweise Social Scoring. 


Die Risikoklassen legen fest, welche Anforderungen das KI-System erfüllen muss und ob dieses in der EU überhaupt erlaubt ist – je höher das potenzielle Risiko eines KI-Systems, desto höher sind die damit verbundenen Auflagen.  

Der AI Act und Normung

Erfahren Sie hier, welche Rolle die europäische Normung für den AI Act spielt und wie Sie mitwirken können. Mehr erfahren


Ihr Kontakt

DIN e. V.
Amelie Victoria Buss

Am DIN-Platz
Burggrafenstraße 6
10787 Berlin

Zum Kontaktformular