Warum auch die KI Normen braucht

Sie ist der Dynamo, der Autonome Systeme erst in Schwung bringt: Künstliche Intelligenz (KI)

Zwei Roboter. Sie halten sich zwei Blechbüchsen an den Kopf. Die Blechbüchsen sind mit einer Schnur verbunden
© Charles Taylor / istockphoto.com

Mit KI wird versucht, menschliche Wahrnehmung und menschliches Handeln so in Maschinen abzubilden, dass sie quasi „denken“ können. Sie lernen selbst und sind in der Lage, aus Daten Informationen zu generieren und die richtigen Schlüsse zu ziehen.

Der öffentliche Diskurs zu KI ist kontrovers. Ob denkende Systeme Fluch oder Segen sind, darüber streiten sich sogar Mark Zuckerberg und Elon Musk. Während Musk nicht müde wird, vor den Gefahren der Künstlichen Intelligenz zu warnen, ist sie für Zuckerberg ein segensreiches Werkzeug für Innovationen. Ins gleiche Horn bläst der schwedische Wissenschaftsphilosoph Max Tegmark.

Optimistisch in die Zukunft

In einem Interview in der F.A.Z. sagt er: „Die Menschheit kann erblühen wie nie zuvor“. Tegmark ist Mitgründer des Future of Life Institute, das sich mit existenziellen Risiken für die Menschheit befasst. Ihm darf man also Besonnenheit und Weitsicht ohne Eigeninteressen unterstellen. Auf die Frage der F.A.Z., ob er KI für gefährlich halte, antwortete er: „Sogar Feuer ist gefährlich, aber das bedeutet nicht, dass wir es nicht verwenden sollten.“ Vielmehr ist er „optimistisch, dass wir eine inspirierende Zukunft mittels Künstlicher Intelligenz kreieren können“. Dabei sieht er noch viel Handlungsbedarf, vor allem im Hinblick auf Sicherheit und Verlässlichkeit von KI-Systemen.

Harmonisierte Regeln

Dieser Ansicht sind auch die Politiker im Europaparlament. Es fordert in einer Anfang 2017 mit großer Mehrheit verabschiedeten Resolution umfassende Gesetze für Roboter und Künstliche Intelligenz auf EU-Ebene. Nicht zuletzt durch die tödlichen Unfälle in den USA mit autonom gesteuerten Fahrzeugen verlangen die EU-Parlamentarier nach „harmonisierten Regeln“. Das Stichwort „harmonisiert“ schafft die Brücke zu Normung und Standardisierung. Denn natürlich erkennen die bei DIN engagierten interessierten Kreise die gesellschaftliche Relevanz, die Chancen und die Risiken von KI. Deshalb haben sich im Januar 2018 rund 30 Experten im Arbeitsausschuss „Künstliche Intelligenz (NA 043-01-42)“ zusammengefunden, die KI in einem Normen-Framework fassen wollen. Die Zusammensetzung des Ausschusses ist interdisziplinär – Vertreter aus KMU, Start-ups, Konzernen und Wissenschaft arbeiten mit hohem Tempo am Thema. Das Ziel beschreibt Obmann Dr. Tarek Besold: „Wir wollen die sichere Anwendung von KI und schaffen mit unserer Arbeit Vertrauen.“ Dazu sind derzeit sechs Arbeitsgruppen etabliert. Zudem wird bei DIN seit Mai 2018 eine DIN SPEC mit dem Arbeitstitel „Künstliche Intelligenz–Qualitätsanforderungen und Life Cycle Management für KI-Module“ erarbeitet. Diese DIN SPEC soll die Grundlage für Prüfverfahren und Bewertungsmethoden für KI-Produkte definieren. In diesem Projekt sollen Anforderungen an die verschiedenen durch die Taxonomie vorgegebenen Klassen erarbeitet werden. Die Systeme der einzelnen Klassen müssen in der Lage sein, Entscheidungsfindung zu erläutern und damit für den Menschen nachvollziehbar zu machen.

Eine Frage der Ethik

Roberto Simanowski spitzte in einem Artikel der „Zeit“ dramatisch zu. Er bezeichnete Künstliche Intelligenz als „Todesalgorithmus“. Und nannte ein Beispiel. Selbst wenn KI im selbstfahrenden Auto viele Gefahren erkennt, bevor sie entstehen, gibt es die finale Extremsituation, in der definitiv jemand zu Schaden kommt: Fährt das Auto mit seinen Insassen gegen die Wand oder in eine Gruppe von Passanten? Simanowski hat die Hoffnung auf eine wohlgesinnte KI. Die aber kommt nicht von selbst. Daher beschäftigen sich nicht nur SAP, Microsoft und viele andere in ihren Entwicklerteams und Advisery Boards mit der Ethik, die sie ihrer KI beibringen wollen. Auch DIN und DKE befassen sich damit, wie Standards und Ethik zusammenhängen sollen und können. Der Impuls dafür kam vom BMWi (Bundesministerium für Wirtschaft und Energie). Drei Themenfelder stehen auf der Agenda und sollen für das autonome Fahren, aber auch für Maschinen im industriellen Kontext, betrachtet werden.

Können Technik, Prozesse oder Dienstleitungen so standardisiert werden, dass sie ethischen Grundsätzen folgen? Welchen Standard muss der „Todesalgorithmus“ erfüllen, um Menschenleben nicht zu gefährden? Ein zweiter Punkt liegt in der Überprüfbarkeit der Ethik einer KI: Woher weiß der Fahrer des Autos, welcher Ethik sein Auto folgt?  Ist der Überprüfungsprozess standardisierbar? Außerdem geht es um das Zusammenspiel von Mensch und Maschine: Wie muss ein System definiert sein, dass der Mensch zuverlässig merkt, wenn er eingreifen muss? Wer trägt wann die Verantwortung und wie können diese Übergabeprozesse aussehen? Allen drei Feldern gemein ist die Tatsache, dass sich alle Beteiligten zunächst auf ethische Dimensionen einigen müssen. Die Diskussion steht erst am Anfang. Mit spannenden Erkenntnissen darf man rechnen.

Ihr Ansprechpartner

DIN e. V.

Katharina Sehnert

Saatwinkler Damm 42/43
13627 Berlin

Ansprechpartner kontaktieren  

Weitere Informationen