Der AI Act schafft einen Rechtsrahmen für KI in Europa.

 Bildnachweis: iStockphoto

Der AI Act: Künstliche Intelligenz unter Kontrolle

Der Artificial Intelligence Act (AI Act) wurde 2024 von der EU verordnet, um einen Rechtsrahmen für Künstliche Intelligenz zu schaffen. Das Gesetz zielt darauf ab, für mehr Sicherheit in Bezug auf KI-Systeme zu sorgen sowie Anforderungen und Verpflichtungen darzulegen. Gleichzeitig steht die Förderung ebenjener Technologien im Vordergrund.

Jeannette Gorzala ist Vizepräsidentin des European AI Forums und eine der bekanntesten Köpfe im europäischen KI-Ökosystem. Im Interview geht sie genauer auf den Einfluss des AI Acts auf Unternehmen und Entwickler:innen ein. 

Welche Arten von Künstlicher Intelligenz werden durch den AI-Act reguliert und warum? 

Jeannette Gorzala: Die Definition des KI-Systems im AI Act ist relativ weit gefasst. Als KI-System definiert der AI Act maschinenbasierte Systeme, die aus den erhaltenen Eingaben für explizite oder implizite Ziele Ausgaben ableiten, wie etwa Vorhersagen, Inhalte, Entscheidungen und Empfehlungen. Vom Regelungskomplex werden auch sogenannte „General Purpose AI Modelle“ umfasst, die im Wesentlichen die Technologien betreffen, die wir auch unter den Schlagworten „generative KI“, „Sprachmodelle (large language models)“ oder „foundation models“ kennen. 

Welche Anforderungen und Verpflichtungen legt der AI Act für Unternehmen und Entwickler:innen fest, die KI-Systeme einsetzen oder entwickeln? 

Jeannette Gorzala: Der AI Act legt verschiedene Anforderungen fest, abhängig von der Risikostufe des KI- Systems. Insbesondere im Bereich der Hochrisiko-KI-Systeme müssen Unternehmen und Ent­wickler:innen folgende Punkte beachten: 

  • Risikomanagementsysteme: KI-Systeme müssen mit einem Risikomanagement ausgestattet sein und Unternehmen müssen Systeme zur Identifikation und Minderung von Risiken implementieren. 

  • Dokumentation und Aufzeichnungspflichten: Entwickler:innen und Anwender:innen müssen umfangreiche Dokumentationen und Aufzeichnungen über die Entwicklung, das Training, die Testphasen und den Betrieb der KI-Systeme führen. 

  • Transparenz und Offenlegung: Entwickler:innen müssen Unternehmen klare und transparente Informationen über das Funktionieren der KI-Systeme bereitstellen. 

  • Überwachung und Meldepflichten: Entwickler:innen müssen bei KI-Systemen Mechanismen zur kontinuierlichen Überwachung einführen und schwerwiegende Vorfälle melden. Ebenso müssen Unternehmen diese KI-Systeme entsprechend kontrollieren. 

  • Konformitätsbewertung: KI-Systeme mit hohem Risiko müssen vor dem Inverkehrbringen einer Konformitätsbewertung unterzogen werden, um sicherzustellen, dass sie den Vorschriften entsprechen. 

Wie unterscheidet der AI Act zwischen verschiedenen Risikostufen von KI-Systemen, und welche Konsequenzen ergeben sich daraus? 

Jeannette Gorzala: Der AI Act reguliert KI-Systeme basierend auf ihrem Risikopotenzial. Es werden vier Risikostufen unterschieden: Systeme mit unzulässigem Risiko sind verboten, da sie als klare Bedrohung für die Sicherheit der Menschen angesehen werden. Dazu zählen z.B. Systeme für soziale Bewertung (Social Scoring) durch Behörden.

KI-Systeme mit hohem Risiko müssen strengen Anforderungen entsprechen, wenn sie in Bereichen eingesetzt werden, die einen signifikanten Einfluss auf die Sicherheit der Menschen haben, z.B. in der medizinischen Diagnose, im Bildungs- oder Personalwesen.

Bei einem begrenzten Risiko müssen die Systeme spezifische Transparenzanforderungen erfüllen, was bei Chatbots der Fall ist, die Menschen darüber informieren müssen, dass sie mit einer KI interagieren. Systeme mit minimalem Risiko – Spam-Filter oder KI-basierte Videospiele – unterliegen keinen besonderen regulatorischen Anforderungen. 

Diese Unterscheidung soll sicherstellen, dass die Regulierung proportional zum Risikopotenzial des jeweiligen KI-Systems ist und die Innovation nicht unnötig behindert wird. Die Konsequenzen dieser Unterscheidung sind, dass die Auflagen und Verpflichtungen für Unternehmen und Entwickler:innen proportional zum Risiko des jeweiligen KI-Systems sind. Dies soll sicherstellen, dass Sicherheits- und Grundrechtsaspekte gewahrt bleiben, ohne die Entwicklung und den Einsatz weniger riskanter KI-Systeme zu behindern. 

Welche Auswirkungen könnte der AI Act auf Innovation und Wettbewerbsfähigkeit in der EU haben? 

Jeannette Gorzala: Der AI Act setzt einen ersten globalen Standard für verantwortungsvolle KI-Entwicklung und es ist jetzt schon zu beobachten, dass andere Märkte, wie beispielsweise die USA, ebenfalls an Standards und Regelwerken arbeiten.

Der AI Act hat, indem er das Thema verantwortungsvolle KI auf die globale Agenda gebracht hat, aus meiner Sicht bereits einen positiven Einfluss auf künftige KI-Entwicklungen genommen. Die Positionierung Europas wird weniger stark vom AI Act abhängen, sondern von der Schaffung eines Ökosystems, das die Verarbeitung brachliegender Datenschätze ermöglicht, Investitionen in neue Technologien begünstigt und auch entsprechende Infrastrukturen für das Entwickeln, Testen und Trainieren bereitstellt. 

Zurück