msg life ag - Logo
Sprache:  
DE | EN
  |  Login
Künstliche Intelligenz

Der Artificial Intelligence Act – Ein Überblick

Von Stefan Nörtemann / 3. Februar 2022
Artificial Intelligence Act - Symbolbild

Mit der rasanten Verbreitung von auf Künstlicher Intelligenz (KI) basierenden Anwendungen ist in den vergangenen Jahren das Thema „Vertrauenswürdige Künstliche Intelligenz“ (engl. trustworthy artificial intelligence) aufgekommen. Im Rahmen der EU-Digitalisierungsstrategie plant die EU-Kommission eine Reihe von Richtlinien und Verordnungen. Für den sogenannten „Artificial Intelligence Act“ hat die EU-Kommission am 21. April 2021 einen Vorschlag vorgelegt.*

High-Level Expert Group on Artificial Intelligence

Bereits die vorherige EU-Kommission hatte das Thema vertrauenswürdige KI auf ihrer Agenda. Mit der Einsetzung einer Expertenkommission, der sogenannten High-Level Expert Group on Artificial Intelligence (AI HLEG), wurden erste Schritte unternommen, auf dem Weg, von der Idee einer vertrauenswürdigen KI hin zu einer EU-weit gültigen und akzeptierten Regulierung. Die AI HLEG veröffentlichte am 08.04.2019 ein Dokument mit dem Namen „ETHICS GUIDELINES FOR TRUSTWORTHY AI“**

In meinem Blogbeitrag vom 09. August 2019 habe ich die wesentlichen Ideen skizziert. Daher hier nur eine knappe Wiederholung der wichtigsten Aussagen.

Vertrauenswürdige KI

Bei der Definition von vertrauenswürdiger KI verfolgt die AI HLEG einen holistischen Ansatz: nicht nur ein einzelnes KI-System muss vertrauenswürdig sein, sondern KI an sich, wie auch alle beteiligten Akteure. Die AI HLEG  definiert drei zentrale Anforderungen: Vertrauenswürdige KI muss rechtmäßig, ethisch und robust sein. Im Weiteren fokussiert sich die AI HLEG auf die Frage nach ethischer KI und formuliert vier ethische Grundprinzipien: Achtung der menschlichen Autonomie, Vermeidung von Schäden, Fairness, Erklärbarkeit.

Daraus werden sieben Anforderungen an KI-Systeme abgeleitet sowie eine Checkliste erarbeitet. Anhand dieser lässt sich prüfen, ob eine spezielle KI-Anwendung die Kernanforderungen und mithin die Grundprinzipien erfüllt.

Branchen-, sparten-, unternehmensweite Umsetzung

Seit der Veröffentlichung der AI HLEG wurde in der Öffentlichkeit, an den Hochschulen, in Verbänden wie auch in Unternehmen, die KI-Systeme erforschen, herstellen oder einsetzen, umfänglich darüber diskutiert, wie die Einhaltung ethischer Grundsätze sowie der Kernanforderungen im konkreten Fall oder bezogen auf eine Branche erreicht, sichergestellt und kontrolliert werden kann. In meinem Blogbeitrag vom 26. August 2019 habe ich versucht, erste Antworten für die Versicherungsbranche zusammen zu tragen.

Vor diesem Hintergrund wurde mit Spannung erwartet, welche konkreten Regelungen in dem Vorschlag zum Artificial Intelligence Act formuliert sind.

Klassifikation der KI-Systeme

Ein erstes Durchblättern durch den Vorschlag bringt sogleich eine große Überraschung. Waren die Empfehlungen der AI HLEG noch für alle (!) KI-Systeme formuliert, wird im Vorschlag zum Artificial Intelligence Act eine Klassifikation der KI-Systeme definiert. Zentral ist hierbei der Begriff der Hochrisikosysteme, für die sehr umfängliche Anforderungen definiert sind. Welche das sind und wie Hochrisikosysteme in dem Vorschlag definiert sind, werde ich in einem Folgebeitrag näher erläutern.

Wichtig ist jedoch, dass der zentrale Fokus der Regulierung auf Hochrisikosysteme beschränkt ist. Leitlinien, Anforderungen, Regulierungen für alle KI-Systeme suchen wir vergeblich!

Regelungssystematik

Neu hingegen (zumindest gegenüber den Empfehlungen der AI HLEG) sind die sogenannten verbotenen Praktiken (gemäß Artikel 5). Hier werden bestimmte KI-Anwendungen, etwa Techniken der unterschwelligen Beeinflussung oder die systematische Ausnutzung einer Schwäche oder Schutzbedürftigkeit, grundsätzlich verboten.

Schließlich werden dazu noch KI-Systeme definiert, für die besondere Transparenzpflichten gelten, etwa für Emotionserkennungssysteme oder Systeme zur biometrischen Kategorisierung.

Für alle anderen KI-Systeme werden sogenannte Verhaltenskodizes empfohlen, in denen im Rahmen einer freiwilligen Selbstverpflichtung eigene Anforderungen, etwa ökologische Nachhaltigkeit oder die barrierefreie Zugänglichkeit, formuliert werden.

Zusammenfassung und Ausblick

Der Vorschlag für den Artificial Intelligence Act formuliert Anforderungen an drei Kategorien von KI-Systemen: KI-Systeme, die verboten sind, Hochrisikosysteme sowie Systeme mit besonderen Transparenzpflichten.

Wie die Systeme definiert sind und welche konkreten Anforderungen hier jeweils formuliert sind, werde ich in einem nachfolgenden Beitrag näher beleuchten.

Bislang liegt lediglich ein Vorschlag vor. Nach Inkrafttreten gilt die Verordnung nach einer Vorlaufzeit von 24 Monaten unmittelbar in jedem EU-Mitgliedsstaat.

 

*) Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS (https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206)

**) ETHICS GUIDELINES FOR TRUSTWORTHY AI, High-Level Expert Group on Artificial Intelligence (HLEG), European Commission, Brüssel, 08.04.2019

Zur Blog Übersichtsseite