Was der AI Act für Unternehmen bedeutet
Die Europäische Kommission will Künstliche Intelligenz stärker regulieren: Künftig werden EU-weit strenge Anforderungen an KI-Systeme gelten. Was heißt das für Unternehmen und wie können sie sich darauf vorbereiten?
Künstliche Intelligenz ist eine mächtige Technologie, die sich rasant weiterentwickelt und schon heute in vielen Branchen zum Einsatz kommt, zum Beispiel in der Industrie, Landwirtschaft, im Gesundheits- und Finanzwesen oder im Mobilitätssektor. Was KI so besonders macht: Sie kann menschliche kognitive Fähigkeiten imitieren, das heißt Daten auslesen, sortieren und daraus logische Schlüsse ableiten. Das birgt große Chancen, aber auch Risiken: Der Lösungsweg des Algorithmus ist für Menschen kaum nachvollziehbar und er unterscheidet nicht, ob bestimmte Werte eingehalten oder Interessen über andere gestellt werden. Das kann Diskriminierung, den Missbrauch personenbezogener Daten oder die Verletzung der Menschenwürde zur Folge haben.
AI Act: KI-Regulierung per Gesetz
Vor diesem Hintergrund reagiert Europa mit dem Artificial Intelligence Act (AIA) auf die Notwendigkeit, KI-Systeme stärker zu regulieren. Er zielt darauf ab, bei der Entwicklung und Anwendung von KI-Technologien die Grundrechte der Menschen zu gewährleisten, das Vertrauen in die Technologie zu stärken sowie gleichzeitig Investitionen und Innovationen in diesem Bereich voranzutreiben. Langfristig soll Europa so zum globalen Zentrum für KI-Exzellenz werden und KI-Systeme bereitstellen, die auf den Menschen ausgerichtet, nachhaltig, sicher, inklusiv und vertrauenswürdig sind. Für Unternehmen im EU-Raum bedeutet das: In naher Zukunft werden sie dazu verpflichtet sein, ihre KI-Systeme und das damit verbundene Risiko zu bewerten. Je nach vorgenommener Risikobewertung geschieht dies durch eine geeignete Konformitätsbewertung, mit der nachgewiesen bzw. erklärt wird, dass die Anforderungen an vertrauenswürdige KI eingehalten werden.
Die neuen EU-Vorschriften folgen dabei einem risikobasierten Ansatz:
- Risikofreie KI-Anwendungen ohne personenbezogene Daten oder Einfluss auf Menschen werden nicht reguliert (beispielsweise Predictive Maintenance)
- KI-Anwendungen mit geringem Risiko müssen Transparenzanforderungen erfüllen (beispielsweise Hinweis, dass es sich um einen Chatbot handelt)
- Hochrisiko-KI-Anwendungen, die sich nachteilig auf die Sicherheit von Menschen oder ihre Grundrechte auswirken können, müssen weitere, strengere Vorgaben erfüllen (das betrifft insbesondere Bereiche wie Mobilität, Medizin oder Personalmanagement)
- Gefährliche KI-Anwendungen, die bspw. das soziale Verhalten von Menschen aus Daten ableiten und überwachen, um das Verhalten oder die Meinung von Menschen direkt zu beeinflussen (beispielsweise Social Scoring) werden verboten
Die Rolle von Normen und Standards
Bei der konkreten Ausgestaltung setzt die EU auf das Prinzip des „New Legislative Framework“ (NLF). Der Gesetzgeber beschränkt sich auf das Formulieren von grundlegenden Anforderungen und Schutzzielen und beauftragt die europäischen Normungsorganisationen, diese in Form von Normen und Standards technisch zu konkretisieren. Speziell im Bereich der Hochrisiko-KI-Anwendungen sind Normen und Standards zentral: Sie definieren die Sicherheitsanforderungen, die KI-Systeme erfüllen müssen, bevor sie auf den Markt kommen – etwa an Transparenz, Genauigkeit, Erklärbarkeit oder Qualität. Normen und Standards können so entscheidend zum Schutz vor Verzerrung, Diskriminierung oder Manipulation beitragen.
Normungsroadmap KI zeigt Handlungsbedarfe auf
Mit der Deutschen Normungsroadmap KI haben DIN und DKE eine umfassende Analyse vorgelegt, welche Normen und Standards es bereits gibt und wo noch konkreter Normungsbedarf für KI-Anwendungen besteht. Die im Dezember 2022 veröffentlichte zweite Ausgabe nimmt dafür neun Schwerpunktthemen in den Blick: Grundlagen, Sicherheit, Prüfung/Zertifizierung, Soziotechnische Systeme, Industrielle Automation, Mobilität, Medizin, Finanzdienstleistungen und Umwelt/Energie. Die für die Einhaltung des AI Acts noch benötigten Normen werden jetzt von Expert*innen aus Wirtschaft, Wissenschaft, Öffentlicher Hand und Zivilgesellschaft auf europäischer Ebene erarbeitet, von der Kommission geprüft und anschließend als sogenannte „harmonisierte Europäische Normen“ veröffentlicht. Wer diese einhält, kann davon ausgehen, die Anforderungen des Rechtsaktes zu erfüllen.
Wer die Norm macht, hat den Markt
Durch das New Legislative Framework-Prinzip ist eine breite Beteiligung bei der konkreten Ausarbeitung der KI-relevanten Normen explizit erwünscht. Der Vorteil: Je mehr Fachpersonen ihr Wissen in den Normungsprozess einbringen, desto höher ist die Akzeptanz des Standards am Markt. Das heißt: Unternehmen jeglicher Größe, aber auch Akteure aus Forschung und Zivilgesellschaft, haben jetzt die Gelegenheit, die rechtlichen Anforderungen an KI selbst aktiv mitzugestalten, indem sie die dafür notwendigen Normen und Standards selbst setzen. Das bringt entscheidende Wettbewerbsvorteile: Wer sich am Normungsprozess beteiligt, sichert sich einen Wissensvorsprung und kann die eigenen Interessen bei der Ausgestaltung einbringen. Auf diese Weise lassen sich Produkte und Dienstleistungen bereits bei der Entwicklung entsprechend ausrichten und schneller zur Marktreife bringen. Nicht zuletzt schaffen Normen und Standards Vertrauen in KI-Anwendungen, was zu einer besseren Marktakzeptanz der eigenen Produkte führt. Eine große Chance für deutsche Unternehmen, aber auch für die Wirtschaft und Wissenschaft insgesamt: Deutschland könnte so künftig zu einem weltweit führenden KI-Standort werden. An der Mitarbeit interessierte Fachleute können sich auf der Kollaborationsplattform DIN.ONE kostenlos registrieren.