Künstliche Intelligenz: Wie steht es um den AI-Act der EU?

Foto: Pixabay User geralt | CC0 1.0 | Ausschnitt angepasst | Schrift hinzugefügt
Foto: Pixabay User geralt | CC0 1.0 | Ausschnitt angepasst | Schrift hinzugefügt
Veröffentlicht am 18.01.2022

Die Regulierung von Künstlicher Intelligenz beschäftigt die Europäische Union bereits seit einiger Zeit. Im neuen Jahr wird die Auseinandersetzung um den „Artificial Intelligence Act“ (AI-Act) ein zentrales digitalpolitisches Thema werden, nachdem die EU-Ratspräsidentschaft im November 2021 eigene Änderungsvorschläge dazu vorgelegt hat. Wir stellen hier die zentralen Inhalte und absehbaren Probleme der geplanten EU-Verordnung vor.

Bereits im April des vergangenen Jahres hatte die EU-Kommission einen weitreichenden Verordnungsentwurf zur KI-Regulierung veröffentlicht. Das Ziel des Artificial Intelligence Act ist es, den EU-Binnenmarkt durch verbindliche Regeln zum weltweiten Vorreiter für die Entwicklung sicherer, vertrauenswürdiger und innovativer KI-Systeme zu machen. In dem Entwurf der Kommission ist unter anderem ein Stufensystem vorgesehen, das KI-Anwendungen in verschiedene Risikoklassen mit bestimmten Auflagen einteilt. „Je höher das Risiko einer spezifischen Nutzungsart der KI, desto strenger die Regeln“, gab damals die EU-Kommissarin für Wettbewerb Margrethe Vestager die Leitlinie vor.

Was plant die EU-Kommission?

Foto: CC0 1.0, Pixabay User TheDigitalArtist | Ausschnitt bearbeitet

Der Großteil der existierenden KI-Anwendungen, etwa Suchalgorithmen, Spamfilter oder Videospiele, werden aufgrund ihres minimalen oder geringen Risikos weitgehend unreguliert bleiben, um die EU als innovationsfreundlichen Wirtschaftsraum zu erhalten. Als „risikoreiche KI-Systeme“ gelten im Entwurf hingegen Systeme, die zum Beispiel als Sicherheitskomponenten in kritischer Infrastruktur eingesetzt werden oder die die Eignung von Personen einschätzen sollen – etwa für Kredite oder Jobs. Die Anbieter solcher Systeme müssen diese laut dem Verordnungsentwurf künftig einer Risikoanalyse unterziehen bzw. ein eigenes Risikomanagement-System dafür entwickeln.  Insbesondere Betreiber kritischer Infrastrukturen – wie Telefónica – und Anbieter von KI-Systemen befürchten hier eine Doppelregulierung, bei der sich Instrumente der IT-Sicherheitsregulierung und der KI-Regulierung überschneiden und zu einem deutlichen Aufwuchs von Bürokratie führen könnten.

Darüber hinaus plant die Kommission ein Verbot von KI-Anwendungen, die Menschen zu ihrem Schaden manipulieren oder eine anlasslose Überwachung durchführen. Auch Gesichtserkennungssoftware soll weitgehend verboten werden und staatlichen Stellen wird das sogenannte Social Scoring untersagt, das z.B. in China gegenüber der Bevölkerung praktiziert wird. Wer diese Regeln verletzt, muss laut Entwurf mit einem Bußgeld von bis zu 30 Millionen Euro oder in Höhe von 6 Prozent des weltweiten Jahresumsatzes rechnen – je nachdem, welcher Betrag höher ausfällt.

Foto: CC0 1.0, Pixabay User geralt | Ausschnitt angepasst

Diese Vorschläge stießen bei auf KI-Systeme spezialisierten Unternehmen und Industrieverbänden auf Kritik, während zivilgesellschaftliche Organisationen noch strengere Regeln fordern. Diese Konfliktlinie spiegelte sich zum Teil auch im EU-Parlament wieder, weshalb die Beratung des Entwurfs seit dessen Vorlage im April nur schleppend vorangekommen ist. Mittlerweile hat man sich zumindest darauf einigen können, dass die weitere parlamentarische Bearbeitung der Gesetzesvorlage unter gemeinsamer Leitung des Ausschusses für bürgerliche Freiheiten, Justiz und Inneres (LIBE) sowie des Ausschusses für Binnenmarkt und Verbraucherschutz (IMCO) erfolgen wird.

Die Vorschläge des EU-Rats

Etwas Bewegung in die Sache haben zudem die Änderungsvorschläge der slowenischen Ratspräsidentschaft Ende November gebracht. Dabei handelt es sich um einen Kompromissvorschlag, der aus den Verhandlungen zwischen den Regierungen der EU-Staaten hervorgegangen ist – also auch unter Mitwirkung der alten Bundesregierung. So möchten die Mitgliedstaaten KI-Systeme, die ausschließlich für militärische oder für wissenschaftliche Zwecke entwickelt werden, aus dem Anwendungsbereich des AI-Act ausschließen.

Weitere zentrale Punkte betreffen eine strengere Handhabe bei der juristischen Genehmigung von biometrischen Erfassungssystemen sowie die Ausweitung des Social Scoring-Verbots von öffentlichen Behörden auf private Einrichtungen. Und KI-Systeme, die zur Berechnung von Versicherungsprämien genutzt werden, sollen nun zu den Hochrisikosystemen zählen. Zudem möchte der EU-Rat die Kommission dazu verpflichten, die Liste der Hochrisikosysteme und die Liste der vom AI-Act erfassten KI-Techniken alle zwei Jahre zu überprüfen.

Vieles muss noch geklärt werden

Foto: CC0 1.0 | Pixabay User UschiL und geralt | Montage

Begleitet wurde der Kompromissvorschlag der Ratspräsidentschaft von einem Fortschrittsbericht des EU-Rats zur KI-Verordnung. Darin mahnen die Mitgliedstaaten an, dass die Anforderungen an Hochrisikosysteme noch zu vage ausfallen und praktischer Leitlinien für die Unternehmen bedürfen. Auch vor einem übermäßigen Verwaltungsaufwand für kleine und mittlere Unternehmen durch die Verordnung wurde vonseiten der EU-Staaten gewarnt. Überhaupt gilt es als eine zentrale Herausforderung der geplanten Regulierung, ein Gleichgewicht zwischen sicheren Produkten und klaren Rechtsmitteln zu schaffen, ohne die erwünschte und benötigte Innovation im Bereich der Künstlichen Intelligenz zu beeinträchtigen.

Daneben wirft auch die vom EU-Rat gewünschte Ausweitung des Verbots von Social Scoring auf private Unternehmen und Einrichtungen Fragen auf. Zum einen könnte diese Änderung weitreichende Auswirkungen auf den Finanzsektor haben, in dem Zinssätze für Kredite momentan auf der Grundlage von Rückzahlungswahrscheinlichkeiten berechnet werden. Zum anderen ist noch unklar, wie dieses Verbot im gewerblichen Bereich effektiv geprüft werden soll.

Insgesamt ist die KI-Verordnung eine ziemlich komplexe Angelegenheit, was neben der politischen Auseinandersetzung über einzelne Fragen ebenfalls zum schleppenden Fortschritt der Gesetzgebung beiträgt. Schließlich wirkt der AI-Act mit verschiedenen anderen EU-Gesetzen zusammen, vom Datenschutz über die Strafverfolgung bis hin zur Produktsicherheit und der IT-Sicherheit und andere sektorale Rechtsvorschriften, wodurch es den politischen Entscheidungsträgern schwerfällt, die Auswirkungen aller Bestimmungen abzusehen.

Ausblick

Wie lange es noch dauert, bis unter den EU-Abgeordneten sowie zwischen dem Parlament und den EU-Staaten eine Einigung auf ein fertiges Gesetz erzielt werden kann, lässt sich somit nur schwer abschätzen. Die seit Januar 2022 amtierende französische EU-Ratspräsidentschaft unter Emmanuel Macron wird sich aufgrund der anstehenden Wahlen in Frankreich wohl eher auf andere europapolitische Themen konzentrieren, bei denen schneller publikumswirksame Erfolge möglich sind. Trotzdem wird in den nächsten zwölf Monaten intensiv über die weltweit erste Verordnung zur KI-Regulierung debattiert werden – selbst wenn manche Beobachter nicht vor dem Jahr 2024 mit einem Inkrafttreten rechnen. Unternehmen, die KI-Systeme entwickeln oder nutzen, sollten sich deshalb aber nicht zurücklehnen, sondern besser schon mal auf die Umsetzung vorbereiten. Denn manchmal geht es bei der Gesetzgebung in der EU schneller, als man denkt.

Mehr Informationen:

KI kurz erklärt: Ein europäischer Regulierungsrahmen für KI
Weißbuch zur Künstlichen Intelligenz: EU-Kommission will Anwendungen nach Risiken einstufen

Schlagworte

Empfehlung der Redaktion