2024-08-08

Vertrauen in Künstliche Intelligenz stärken

Eine menschliche Hand und eine Roboterhand sind kurz davor sich berühren
© AdobeStock: nilanka (generiert mit KI)

Kaum eine Technologie wird unseren Alltag künftig so sehr verändern wie KI. Gleichzeitig braucht es aber konkrete Vorgaben für mehr Sicherheit und Transparenz. Neue Impulse liefern die Handlungsempfehlungen der Normungsroadmap KI. Das daraus entstandene internationale Normungsprojekt ISO/IEC AWI 42102 liefert eine Lösung: eine einheitliche Klassifizierung für KI-Systeme. 

Künstliche Intelligenz ist eine Schlüsseltechnologie mit gewaltigem Potenzial. Schon heute wird sie in vielen Bereichen genutzt, zum Beispiel zur Krebsfrüherkennung in der Medizin oder um Fachkräfte zu rekrutieren. Doch es braucht klare Regeln, um zu gewährleisten, dass KI-Systeme für den Menschen arbeiten, sicher sind und niemanden benachteiligen. Das internationale Normungsprojekt ISO/IEC AWI 42102 „Taxonomy of AI system methods and capabilities“ setzt dort an. Dabei handelt es sich, um das erste Normungsprojekt im Bereich Künstliche Intelligenz unter deutscher Leitung. Das Projekt basiert auf den Ergebnissen der zweiten Ausgabe der Normungsroadmap KI. Ziel ist es, eine einheitliche Klassifizierung von Künstlicher Intelligenz zu etablieren.

Transparenz schafft Vertrauen

Nur wenn die Gesellschaft KI-Systemen vertraut, kann deren volles Potenzial ausgeschöpft werden. Um das Vertrauen in Künstliche Intelligenz zu stärken, braucht es jedoch Transparenz: Je besser Menschen nachvollziehen können, wie eine Künstliche Intelligenz funktioniert und wie sie Daten verarbeitet, desto eher akzeptieren sie die Technologie. Aber bisher sind diese Informationen nicht einfach einsehbar, sondern häufig mit aufwendigen Recherchen verbunden. Die Lösung: Eine einheitliche Klassifizierung von Künstlicher Intelligenz, die so einfach zu verstehen ist wie die Nährwertangaben von Lebensmitteln. Das ist das Ziel des Normungsprojekts ISO/IEC AWI 42102. Das Team bestehend aus Taras Holoyad, Referent für Standardisierung Künstlicher Intelligenz, Dr. Wolfgang Hildesheim, Leiter Data Science & KI bei IBM und Dr. Thomas Schmid, Hochschullehrer an der Martin-Luther-Universität Halle-Wittenberg und Lancaster Universität in Leipzig, ist verantwortlich für das Projekt.

Im Gespräch beantworten die drei Verantwortlichen für das Normungsprojekt ISO/IEC AWI 42102 Fragen rund um das Projekt.

Herr Holoyad, mit dem AI Act gibt es bereits ein Gesetz zur Regulierung von KI. Wie schließt ihr Normungsprojekt daran an?

Taras Holoyad: KI-Systeme sind bereits in vielen Bereichen unseres Alltags präsent. Diese Technologien bieten uns zahlreiche Möglichkeiten, bergen jedoch auch Gefahren. Die Europäische Kommission hat dies erkannt und mit dem Artificial Intelligence Act (AIA) das weltweit erste Gesetz zur Regulierung von KI verabschiedet. Doch KI-Systeme unterscheiden sich in ihren Funktionen und Fähigkeiten erheblich voneinander. Daher ist es notwendig, unterschiedliche Vorgaben und Regularien für verschiedene Arten von KI-Systemen zu schaffen. Deshalb haben DIN und DKE im Auftrag des BMWK (Bundesministerium für Wirtschaft und Klimaschutz) gemeinsam mit Experten und Expertinnen aus Wirtschaft, Wissenschaft, Zivilgesellschaft und Politik die Normungsroadmap KI erarbeitet. Deren Ziel ist es, einen strategischen Fahrplan für die KI-Normung zu entwickeln. Mittlerweile ist bereits die zweite Ausgabe der Normungsroadmap veröffentlicht, sie enthält strategische Handlungsempfehlungen. Auf Basis dieser Empfehlungen haben wir unser Normungsprojekt ins Leben gerufen. 

Was ist das Ziel des Normungsprojekts und wo steht das Projekt aktuell?

Taras Holoyad: Selbst in Expertenkreisen herrscht oft noch Uneinigkeit darüber, was genau eine Künstliche Intelligenz ausmacht. Um konkrete Vorgaben für verschiedene Systeme entwickeln zu können, brauchen wir eine einheitliche Basis. Genau hier kommt unser Normungsprojekt ins Spiel. Unsere Norm schafft eine einheitliche Klassifizierung für Künstliche Intelligenz und bildet somit die Grundlage für die Entwicklung weiterer Normen und Standards. Mit dieser Norm können wir sicherstellen, dass wir alle auf derselben Grundlage arbeiten. Aktuell braucht es noch rund 2,5 Jahre bis die Norm veröffentlicht wird. Das liegt an den unterschiedlichen Sichtweisen auf die technische Umsetzung von Algorithmen und den damit umsetzbaren Fähigkeiten. Wir sind gerade dabei, dafür eine gemeinsame Mitte für alle Experten und Expertinnen zu finden.

Warum brauchen wir eine einheitliche Klassifizierung für Künstliche Intelligenz?

Dr. Thomas Schmid: Der Markt an KI-Systemen ist groß und wächst stetig. Dabei unterscheiden sich die Arten, wie eine KI funktioniert und welche Daten verarbeitet werden, sehr. Da den Überblick zu behalten, ist für alle schwer. Aber, wenn Menschen nicht verstehen, was genau eine KI macht, wie sie Daten verarbeitet und was mit den eingegebenen Daten passiert, dann können sie ihr natürlich nur schwer vertrauen. Wenn mich jemand nach meiner Adresse fragt, dann will ich schließlich wissen, wofür er die Daten verwendet und ob er sie an Dritte weitergibt. Wenn das nicht klar kommuniziert wird, gehen Menschen häufig eher in eine Abwehrhaltung – selbst wenn die Weitergabe meiner Daten einen Nutzen hätte, wie beispielsweise die Chance, etwas bei einer Verlosung zu gewinnen. Damit Bürger*innen KI-Systemen vertrauen und sie akzeptieren, müssen Informationen beispielweise über die Fähigkeiten und Grenzen eines KI-Systems so einfach einsehbar sein, wie wir das von anderen Produkten kennen. Aktuell sind Informationen zur Funktion eines KI-Systems meist nicht auf einen Blick ersichtlich. Damit ich sehe, wie die KI funktioniert, muss ich eine Hürde überwinden. Diese Hürde wollen wir verringern, indem wir eine einheitliche Klassifizierung für Künstliche Intelligenz etablieren. Das Ziel: Ein Label, das auf einen Blick alle wichtigen Informationen für mich bereithält.

Wie funktioniert das Label und welche Informationen erhalten Personen darüber?

Dr. Wolfgang Hildesheim: Das Label ist vergleichbar mit der Kennzeichnung von Lebensmitteln. Mit einem Blick auf die Rückseite der Lebensmittelverpackung bekommt jede Person alle wichtigen Informationen über das Produkt mitgeteilt, ohne selbst Ernährungswissenschaften studiert zu haben. Genau das ist unser Ziel mit der AI=MC2-Taxonomie, einer Systematik zur Beschreibung von KI-Systemen. Wir haben uns dabei an der berühmten Formel von Albert Einstein orientiert, die viele Menschen bereits kennen. Wir klassifizieren damit KI-Systeme nach den folgenden drei Dimensionen: Methoden (engl. Methods), damit realisierbare Fähigkeiten (engl. Capabilities) und Kritikalität (engl. Criticality). Bei „Methoden“ geht es darum, was die KI macht, zum Beispiel Probleme lösen oder Projekte planen. Die Dimension „Fähigkeiten“ zeigt, wie die KI ihre Methode umsetzt, etwa indem sie die Umgebung durch Sehen wahrnimmt oder Informationen verarbeitet. Bei der „Kritikalität“ geht es um die Gefahr, die von einem KI-System ausgeht.

Wer soll die KI-Taxonomie in Zukunft einsetzen und an welche Zielgruppen richtet sich die Klassifizierung?

Dr. Wolfgang Hildesheim: Hersteller von KI-Systemen und Unternehmen, die KI einsetzen, sind gesetzlich verpflichtet, verschiedene Vorgaben zu erfüllen. Konkrete Regelungen gibt es bisher noch nicht. Jeder kann die Vorgaben auf unterschiedliche Arten ausführen. Das führt zu erhöhtem Aufwand bei der Regulierung, aber auch zu Unsicherheiten bei Unternehmen. Eine einheitliche Klassifizierung hilft dabei, konkrete Vorgaben zu entwickeln, die für mehr Sicherheit und Transparenz sorgen. Je konkreter die Vorgaben, desto besser lassen sich Prozesse daran anpassen. Zum Beispiel kann so der Prozess des Markzugangs beschleunigt werden und wird dadurch günstiger. Überall dort, wo KI zum Einsatz kommt, soll in Zukunft auch die KI-Taxonomie angewendet werden. Das Schema hilft, die Beschreibung von KI-Systemen an die jeweilige Zielgruppe anzupassen: Über das KI-Label erhalten Bürger*innen Informationen für private Anwendungen, Vertreter*innen aus Wissenschaft und Wirtschaft unterstützt es wiederum bei der Entwicklung und Zertifizierung. Und der öffentliche Dienst kann damit beispielsweise leichter die Einhaltung von Gesetzen überwachen. So können alle die für sie notwendigen Informationen erhalten und verstehen. Weitere Informationen dazu erhalten alle Interessierten in unserem gemeinsam veröffentlichten Buch „Künstliche Intelligenz managen und verstehen“.

Eine detailliertere Übersicht zur KI Taxonomy zeigen die folgenden beiden interaktiven Grafiken, jeweils für die Dimensionen der „KI Methoden“ und „KI Fähigkeiten“, mit denen man KI Systeme beschreiben kann. Durch Anklicken der einzelnen Kategorien gelangen Sie für weitere Informationen auf tiefere Ebenen mit mehr Details.

Die folgende Darstellung zeigt die Dimension „KI Methoden“ unterteilt nach den Feldern „Klassische KI, Symbolische KI, Hybrides Lernen und Maschinellem Lernen“. Durch Klicken auf die Kategorien bekommen sie mehr Details und Beispiele“ im Pop-Up Fenster.

Die folgende Darstellung zeigt die Dimension „KI Fähigkeiten“ unterteilt nach den Feldern „Wahrnehmen, Verarbeiten, Handeln und Kommunizieren“. Durch Klicken auf die Kategorien bekommen sie mehr Details und Beispiele im Pop-Up Fenster.

Weitere Informationen zu dem Projektvorhaben erhalten Sie im kostenlosen White Paper von DIN Media Blackbox Künstliche Intelligenz? Mit EU AI Act und AI=MC2 Taxonomie in die KI von morgen vertrauen

Ihr Kontakt

DIN e. V.
Filiz Elmas

Am DIN-Platz
Burggrafenstraße 6
10787 Berlin

Zum Kontaktformular