Der AI Act und dessen Risikostufen
Künstliche Intelligenz erfordert klare Richtlinien – aus diesem Grund hat die Europäische Union mit dem Artificial Intelligence Act (AI Act) den ersten umfassenden Rechtsrahmen für KI weltweit geschaffen. Ziel ist es, Vertrauen in KI-Systeme zu fördern und gleichzeitig Investitionen sowie Innovationen in diesem Bereich zu stärken. Unternehmen, die in der EU ein KI-System anbieten möchten, müssen sicherstellen, dass ihr Produkt den Vorgaben des AI Act entspricht.
Vier Risikostufen für KI-Systeme
Der AI Act unterscheidet vier Risikostufen für KI-Systeme. Dabei handelt es sich um KI-Systeme mit
- minimalem Risiko: Systeme wie Spam-Filter. Diese werden nicht reguliert.
- begrenztem Risiko: Zum Beispiel Chatbots. Über den Einsatz solcher Systeme müssen Nutzer*innen informiert werden.
- hohem Risiko: Systeme mit potenziellen Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte, beispielsweise biometrische Identifizierung oder medizinische Diagnosesysteme.
- inakzeptablem Risiko: Systeme, die verboten sind, etwa manipulative oder diskriminierende KI, beispielsweise Social Scoring.
Die Risikostufen legen fest, welche Anforderungen das KI-System erfüllen muss und ob dieses in der EU überhaupt erlaubt ist – je höher das potenzielle Risiko eines KI-Systems, desto höher sind die damit verbundenen Auflagen.