DIN Verbraucherrat

2025-12-16

Erster Normenentwurf zum Qualitätsmanagement für Hochrisiko-KI-Systeme veröffentlicht

Umsetzung des Standardization Requests zur KI-Verordnung (AI Act)

Zwei Hände halten ein Tablett
© AdobeStock: nateejindakum

Die Regulierung Künstlicher Intelligenz (KI) in Europa nimmt weiter Fahrt auf: Ein zentraler Baustein für mehr Verbraucherschutz ist der erste Entwurf für eine Qualitätsmanagementnorm, die speziell auf Hochrisiko-KI-Systeme zugeschnitten ist. Verbrauchervertretungen wie der DIN-Verbraucherrat sind aktiv an der Entwicklung beteiligt und stellen sicher, dass Verbraucherinnen und Verbraucher von sicheren und vertrauenswürdigen KI-Systemen profitieren.

Zusammenspiel von europäischer Regulatorik und Normung

Im Rahmen des europäischen Normungssystems hat die Europäische Kommission die europäischen Normungsorganisationen CEN und CENELEC mit der Erstellung von zehn harmonisierten Normen zur technischen Unterlegung der KI-Verordnung, welche 2024 verabschiedet wurde, betraut (engl. Standardization Request; Mandat M/613).

Die KI-Verordnung ist eine Produktregulierung, die für KI-Systeme die in der EU auf den Markt gebracht oder in Betrieb genommen werden ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und Grundrechte sicherstellen soll. Sie verfolgt einen risikobasierten Ansatz, indem sie Systeme Künstlicher Intelligenz entsprechend ihrer Risiken klassifiziert (inakzeptables Risiko, hohes Risiko, niedriges Risiko) und unterschiedliche Maßnahmen für diese Risikoklassen definiert. Zusätzlich stellt sie spezifische Anforderungen an KI-Modelle mit allgemeinem Verwendungszweck (z.B. ChatGPT) ohne und mit systemischen Risiken und fordert eine Informationspflicht, wenn Systeme Künstlicher Intelligenz mit Menschen interagieren (z.B. Chatbot), sie überwachen oder Inhalte (Text, Bilder, Video, Audio) von solchen Systemen generiert oder verändert wird.

Hochrisiko-KI-Systeme und ihre Anforderungen

Systeme welche inakzeptable Risiken bezüglich Gesundheit, Sicherheit und Grundrechten darstellen, beispielsweise Systeme zur Emotionserkennung oder zum Social Scoring (wie es in China eingesetzt wird), sind, teilweise mit bestimmten Ausnahmen, verboten.

Systeme mit hohem Risiko (Hochrisiko-KI-Systeme) sind beispielsweise:

  • autonom agierende Roboter und Fahrzeuge;
  • Bewertungs- und Auswahlsysteme für Bewerber, Mitarbeiter, Schüler und Studenten in der Personalverwaltung und Bildungsbereich;
  • Steuerungssysteme von sicherheitsrelevanten Aspekten von kritischer Infrastruktur (z. B. Energie- oder Verkehrssysteme);
  • medizinische Geräte zur Diagnose und Behandlung;
  • Bonitätsbewertungssysteme im Finanzbereich.

Für diese Hochrisiko-KI-Systeme gibt es spezifische Anforderungen, die das System erfüllen, muss wenn es auf den Markt gebracht oder in Betrieb genommen wird. Dazu zählen die Verhinderung bzw. Minimierung der Risiken bezüglich Gesundheit, Sicherheit und Grundrechte auf einen akzeptablen Wert, die Sicherstellung von Datenqualität, Genauigkeit, Robustheit, Cybersicherheit, Transparenz und menschliche Überwachung.

Für Systeme mit niedrigem Risiko regt die Regulierung die Erstellung und freiwillige Anwendung von Verhaltenskodizes an, wodurch die Anforderungen für Hochrisiko-KI-Systeme auch für Systeme mit niedrigerem Risiko zur Anwendung kommen sollen. Damit soll die stärkere Verbreitung ethischer und vertrauenswürdiger KI in der EU gefördert werden.

DIN EN 18286 definiert Anforderungen an Qualitätsmanagement

Nun wurde ein erster wichtiger Meilenstein erreicht: Der erste Normenentwurf zur DIN EN 18286 „Künstliche Intelligenz - Qualitätsmanagementsystem für EU AI Act Regulierungszwecke“ enthält grundlegende Anforderungen an das Qualitätsmanagement für Anbieter und Entwickler von Hochrisiko-KI-Systemen. Das Dokument orientiert sich an der etablierten ISO 9001 „Qualitätsmanagementsysteme - Anforderungen“ und überträgt deren Prinzipien auf die spezifischen Anforderungen der KI-Verordnung. Dadurch schafft der Normenentwurf eine praxistaugliche Grundlage, um die regulatorischen Pflichten systematisch und nachvollziehbar umzusetzen.

Der DIN-Verbraucherrat und ANEC, die europäische Verbraucherstimme in der Normung, haben sich aktiv in die Erarbeitung des Entwurfs eingebracht.

Ihre Mitwirkung am Normungsprozess

Der Entwurf ist seit Anfang November im Normenentwurfsportal von DIN verfügbar und noch bis zum 07. Januar 2026 einsehbar. Sie können Ihre Kommentare auf der Plattform (Hierzu ist eine einmalige kostenfreie Registrierung erforderlich) einreichen oder direkt mit uns in Kontakt treten (Mail an Alexander.Goschew@din.de)

Die Entwürfe der weiteren Themen, beispielsweise zum Risikomanagement von Hochrisiko-KI-Systemen, folgen spätestens im Frühjahr 2026.

Ihr Kontakt

DIN e.V.
Dr. Alexander Goschew

Am DIN-Platz
Burggrafenstraße 6
10787 Berlin

Zum Kontaktformular  

Verwandte Themen

Wählen Sie ein Schlagwort, um mehr zum Thema zu erfahren:

Weitere Informationen

  • Themenseite AI Act. Erfahren Sie mehr zur Rolle der Normung, Risikostufen des AI Acts und Mitgestaltungsmöglichkeiten.