Der AI Act und dessen Risikoklassen
Künstliche Intelligenz erfordert klare Richtlinien – aus diesem Grund hat die Europäische Union mit dem Artificial Intelligence Act (AI Act) den ersten umfassenden Rechtsrahmen für KI weltweit geschaffen. Ziel ist es, Vertrauen in KI-Systeme zu fördern und gleichzeitig Investitionen sowie Innovationen in diesem Bereich zu stärken. Unternehmen, die in der EU ein KI-System anbieten möchten, müssen sicherstellen, dass ihr Produkt den Vorgaben des AI Act entspricht.
Vier Risikoklassen für KI-Systeme
Der AI Act unterscheidet vier Risikostufen für KI-Systeme. Dabei handelt es sich um KI-Systeme mit
minimalem Risiko: Systeme wie Spam-Filter. Diese werden nicht reguliert.
begrenztem Risiko: Zum Beispiel Chatbots. Über den Einsatz solcher Systeme müssen Nutzer*innen informiert werden.
hohem Risiko: Systeme mit potenziellen Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte, beispielsweise biometrische Identifizierung oder medizinische Diagnosesysteme.
inakzeptablem Risiko: Systeme, die verboten sind, etwa manipulative oder diskriminierende KI, beispielsweise Social Scoring.
Die Risikoklassen legen fest, welche Anforderungen das KI-System erfüllen muss und ob dieses in der EU überhaupt erlaubt ist – je höher das potenzielle Risiko eines KI-Systems, desto höher sind die damit verbundenen Auflagen.
Der AI Act und NormungErfahren Sie hier, welche Rolle die europäische Normung für den AI Act spielt und wie Sie mitwirken können. Mehr erfahren |