Presse
Normung macht den AI Act greifbar
Im August 2024 ist der AI Act in Kraft getreten, die EU-Verordnung zu Künstlicher Intelligenz. Harmonisierte europäische Normen sollen den AI Act technisch konkretisieren. Derzeit erarbeiten die europäischen Normungsorganisationen diese Normen – DIN und DKE bringen die deutsche Perspektive ein. Der Normungsexperte Dr.-Ing. Lukas Höhndorf, Programm-Manager für KI-Konformitätsbewertung bei der IABG, erklärt Hintergründe und Ziele des AI Act.
Herr Dr. Höhndorf, Sie sind als KI-Normungsexperte bei DIN, ISO und weiteren Normungsorganisationen aktiv. Weshalb sind Normen und Standards für Künstliche Intelligenz so wichtig?
Dr. Lukas Höhndorf: Gerade neue Technologien wie Künstliche Intelligenz profitieren von Normen, sie können das Vertrauen in diese Technologie steigern. Normen stellen von technischer Seite sicher, dass der KI-Einsatz den ethischen Standards entspricht, die der AI Act der EU festgelegt hat. Außerdem schaffen Normen und Standards eine gemeinsame Basis, um KI-Lösungen in der Industrie überhaupt reibungslos implementieren zu können. All das trägt dazu bei, Investitionen und Innovationen in diesem Bereich voranzutreiben.
Normen und Standards schaffen eine gemeinsame Basis, um KI-Lösungen in der Industrie reibungslos implementieren zu können.
Welche Vorgaben macht der AI Act für KI-Systeme?
Beim AI Act geht es darum, dass KI-Systeme in Europa verantwortungsvoll, sicher und im Einklang mit europäischen Werten eingesetzt werden. Unternehmen, die in der EU ein KI-System anbieten oder betreiben wollen, müssen sicherstellen, dass ihr Produkt dieser KI-Verordnung entspricht. Je nachdem, welches potenzielle Risiko mit dem jeweiligen KI-System verbunden wird, gibt es unterschiedliche Anforderungen. Der AI Act unterscheidet zwischen Systemen mit geringem, mittlerem, hohem und inakzeptablem Risiko. Die höchsten Anforderungen gelten entsprechend für Hochrisiko-KI-Systeme – dazu zählen beispielsweise medizinische Diagnosesysteme oder die biometrische Identifizierung. Systeme mit inakzeptablem Risiko dürfen in der EU weder in Verkehr gebracht noch betrieben werden.
Wie darf man sich die europäische Normungsarbeit im Bereich Künstliche Intelligenz konkret vorstellen?
Das ist ein klarer und transparenter Prozess: Die EU-Kommission hat 2023 einen Normungsauftrag an die europäischen Normungsorganisationen CEN und CENELEC vergeben. Diese haben dafür einen gemeinsamen Ausschuss gegründet – das Joint Technical Committee 21 Artificial Intelligence (JTC 21). Innerhalb dieses Ausschusses erarbeiten wiederum Expertinnen und Experten der nationalen Normungsorganisationen wie DIN in Arbeitsgruppen Entwürfe für neue Normen. Sogenannte Spiegelgremien in den EU-Mitgliedsstaaten arbeiten diesen Gruppen zu und bringen die nationalen Perspektiven ein. Nach Abstimmung und Annahme auf europäischer Ebene werden diese Normen von den Mitgliedsländern übernommen und werden beispielsweise in Deutschland zu einer DIN EN-Norm.
Wie schätzen Sie die Bedeutung des AI Acts ein, auch außerhalb der EU?
Der AI Act ist in aller Munde und hat auch in der internationalen Normung eine große Bedeutung. Manchmal habe ich den Eindruck, dass der AI Act außerhalb der EU ganz besonders positiv gesehen wird. Derzeit sind wir dabei, die KI-Verordnung über die erforderlichen Normen und Standards mit Leben zu füllen, sodass sie für Unternehmen einfach anzuwenden ist.
Gibt es auch kritische Stimmen?
Manche sehen die Verordnung als Sargnagel für KI-Entwicklungen – eine extreme Meinung. Andere nehmen den AI Act aber als große Chance wahr: Durch diesen geregelten Rechtsrahmen wissen Unternehmen, was sie tun müssen, um compliant zu sein. Und das möchten diese, denn der europäische Markt ist riesig. Die wenigsten Anbieter werden deshalb zwei Versionen eines KI-Systems haben – eines für die EU, und eines für außerhalb – sondern ein System, das die Anforderungen des AI Acts erfüllt.
Derzeit werden die harmonisierten europäischen Normen zum AI Act erarbeitet. Wo stehen wir aktuell in diesem Prozess?
Die Entwürfe können voraussichtlich im Winter 2025/2026 zur Kommentierung veröffentlicht werden. Das ganze Vorhaben ist nicht gerade trivial, Europa übernimmt mit dem ersten Rechtsakt für vertrauenswürdige KI-Systeme schließlich weltweit eine Pionierrolle. Sind die Entwürfe öffentlich einsehbar, müssen die Rückmeldungen aus den einzelnen Ländern gesichtet und jeweils für einen nationalen Konsens abgestimmt werden, anschließend wird ein Konsens auf europäischer Ebene erarbeitet. Ich bin jedoch zuversichtlich, dass sich der Aufwand lohnt und wir am Ende solide Ergebnisse haben – europaweit einheitliche Normen für KI-Systeme. Das wird ein echter Mehrwert sein und „KI made in Europe“ voranbringen.
Was raten Sie Unternehmen, um sich mit den Anforderungen des AI Act vertraut zu machen?
Am besten in einem ersten Schritt zu prüfen, welche Teile der Verordnung überhaupt für sie relevant sind. Dazu gibt es beispielsweise seitens der EU einen „AI Act Compliance Checker“, ein Tool, um das festzustellen. Und die Bundesnetzagentur unterstützt mit einem KI-Compliance Kompass und ihrem KI-Service Desk. Das liefert bereits wichtige Informationen. Sind dann die ersten Normenentwürfe veröffentlicht, können Unternehmen diese Entwürfe prüfen und sich über den Status informiert halten. Dafür sollten rechtzeitig Ressourcen eingeplant werden. Und langfristig lohnt es sich für Unternehmen immer, selbst in Normungsausschüssen mitzuarbeiten. So sind sie früh informiert und können den eigenen Standpunkt einbringen. Hierfür stehen DIN und DKE als Ansprechpartner gerne zur Verfügung.
Zur Person
Dr.-Ing. Lukas Höhndorf
Programm-Manager für KI-Konformitätsbewertung bei der IABG. Unter anderem Projektleiter ISO/IEC TS 25223 “Information technology — Artificial intelligence — Guidance and requirements for uncertainty quantification in AI systems” sowie Vorsitzender des NIA Arbeitsausschusses Künstliche Intelligenz NA 043-01-42-04 „Vertrauenswürdigkeit“.
Über die IABG
Die Industrieanlagen-Betriebsgesellschaft mbH (IABG) ist ein führendendes europäisches Technologie-Unternehmen mit den Kernkompetenzen Analyse, Simulation & Test und Anlagenbetrieb. Der Begriff „Sicherheit“ bildet dabei das thematische Dach des Lösungsportfolios: Sicherheit neu entwickelter Hightech-Produkte und Verkehrsmittel sowie Sicherheit von Staat, Wirtschaft und Gesellschaft. In diesem Kontext erbringt die IABG technisch-wissenschaftliche Dienstleistungen für private und öffentliche Kunden in den Branchen Automotive, Bahn & Schiene, Energie, Öffentlicher Sektor, Luft- und Raumfahrt sowie Verteidigung. Die IABG beschäftigt 1.200 hoch qualifizierte Mitarbeiterinnen und Mitarbeiter am Stammsitz in Ottobrunn sowie in kundennahen in- und ausländischen Niederlassungen.