Künstliche Intelligenz: KI-Enquete des Bundestages stellt Ergebnisse vor

Foto: CC0 1.0, Pixabay User geralt | Ausschnitt angepasst
Foto: CC0 1.0, Pixabay User geralt | Ausschnitt angepasst
Veröffentlicht am 06.10.2020

Foto: CC0 1.0, Pixabay User geralt | Ausschnitt angepasst
Der Wandel der Arbeitswelt und des Privatlebens durch Künstliche Intelligenz war zwei Jahre Thema der Enquete-Kommission KI des Bundestages. Das Gremium hat nun Ergebnisse vorgelegt. Darin stecken auch einige Empfehlungen zum Einsatz von KI in den Bereichen Arbeit, Bildung, Forschung sowie Mobilität und Medien.

Was Künstliche Intelligenz (KI) für unsere Gesellschaft und Wirtschaft bedeutet, haben die Mitglieder der Enquete-Kommission „Künstliche Intelligenz“ des Bundestages zwei Jahre lang diskutiert. Nun rückt die Veröffentlichung des Abschlussberichts am 26. Oktober näher. Ihre Ergebnisse aus den sechs Projektgruppen zu Wirtschaft, Staat, Gesundheit, Arbeit (Bildung und Forschung), Mobilität und Medien haben die Abgeordneten und Sachverständigen am Montag, 28. September, im Bundestag vorgestellt und Zusammenfassungen veröffentlicht. Die Teilberichte der ersten drei Projektgruppen, Wirtschaft, Staat und Gesundheit, lagen bereits im Dezember 2019 vor. Die weiteren drei wurden im September dieses Jahres fertiggestellt.

FDP-Digitalpolitiker Mario Brandenburg sprach bei der Präsentation von einem breiten Konsens der Kommission. Anna Christmann, digitalpolitische Sprecherin der Grünen, sowie Petra Sitte, stellvertretende Fraktionsvorsitzende der Linken, forderten eine stärkere Beteiligung der Öffentlichkeit und mehr Transparenz. Daniela Kolbe (SPD), Vorsitzende der Kommission, wies auf die Möglichkeit der Online-Beteiligung hin, die zu den verschiedenen Themen vorab und nochmals anlässlich der Ergebnispräsentation am vergangenen Montag möglich war.

Arbeit: Mitbestimmung verbessern

Für die Arbeitswelt stelle sich die Frage, ob lernende Maschinen Menschen ersetzen können und somit Arbeitsplätze gefährden. Andererseits könne KI auch entlasten, zum Beispiel können „körperlich schwere und immer wiederkehrende Arbeiten reduziert werden und KI-Systeme bei der Lösung komplexer Aufgaben eine unterstützende Funktion erfüllen“, heißt es in der Zusammenfassung der Projektgruppe „KI und Arbeit, Bildung, Forschung“. Die Gefahr, den Job wegen KI-Systemen zu verlieren, sei bisher noch wenig wissenschaftlich untersucht. In der Vergangenheit habe der technologische Wandel aber nicht zu großen Nettoverlusten bei der Beschäftigung geführt. Grund dafür sei, dass die Anzahl der neu entstandenen Arbeitsplätze stets die Anzahl der weggefallenen mehr als ausgleichen konnte. Allerdings sei zu erwarten, dass durch KI ganz andere Tätigkeiten betroffen sein könnten als bei bisherigen Automatisierungswellen. „Möglicherweise wird im Arbeitsmarkt ein sog. Mismatch entstehen – also die Koexistenz von disruptiven Arbeitsplatzverlusten auf der einen Seite und Fachkräftemangel auf der anderen Seite“, heißt es.

pixabay-geralt-netz-netzwerk-personen-beruf-3706725-1280x720
Foto: CC0 1.0, Pixabay / geralt / Ausschnitt bearbeitet

Der Einsatz von KI wirke sich auch auf die Organisation der Arbeit aus und betreffe daher viele weitere Themen, wie Persönlichkeitsrechte, Mitbestimmung oder Transparenz. Das habe unter anderem Folgen für die Personalverwaltung und die Bewerberauswahl. Allgemeine Handlungsempfehlungen will die Projektgruppe nicht abgeben, denn die betrieblichen Einsatzformen von KI seien bislang „zu wenig untersucht, systematisiert, standardisiert und evaluiert“. Außerdem sei der Zeitraum – die Gruppe tagte von Oktober 2019 bis Juli 2020 – für die Beschäftigung mit dem Thema zu kurz gewesen.

Als Empfehlung gibt die Kommission mit, dass evidenzbasierte Forschung und belastbare Prognosen für die Effekte des KI-Einsatzes auf dem Arbeitsmarkt „unerlässlich“ sind. Dazu seien spezielle Förderprogramme nötig. Ein Branchenmonitoring sei zudem hilfreich, um Entwicklungen auf dem Arbeitsmarkt zu beobachten und vorausschauend auswerten zu können. Die betriebliche Mitbestimmung müsse auf die Weiterentwicklung von KI-Systemen ausgerichtet sein. Für die Beschäftigten und ihre Interessenvertretungen müssten etwa Weiterbildungsangebote zur Verfügung stehen. Personalentscheidungen sollten weiterhin nur Menschen treffen, wobei Diskriminierung ausgeschlossen werden müsse. Für die Verwaltung sollte es einen Handlungsrahmen geben, der hilft, „kritische KI-Anwendungen zu erkennen“. Als Orientierung für betriebliche Entscheidungen könnte die Einstufung algorithmischer Systeme nach Risiken eine Lösung sein – diesen Ansatz hatte die Datenethikkommission im vergangenen Jahr vorgeschlagen.

Bildung: Schlüsselkompetenz der Zukunft

Im Bildungsbereich werde KI „immer mehr zu einer notwendigen Schlüsselkompetenz für die Teilhabe in allen gesellschaftlichen Bereichen“, schreibt die Projektgruppe. Das gelte für alle Bildungsbereiche – von der Vorschule bis zur Weiter- und Erwachsenenbildung. Das Bildungssystem müsse die Menschen bestmöglich darauf vorbereiten, indem es „flexibel und dynamisch“ auf Veränderungen durch KI reagiert. Für die Gesellschaft könnte eine Lernplattform eingerichtet werden, um Grundkenntnisse zu vermitteln. Die Projektgruppe hat sich mit zwei Bereichen näher beschäftigt: Lernen über KI, was vor allem Aus- und Weiterbildung betrifft, sowie Lernen mit KI, womit das unterstützende Lernen mit KI-Lösungen gemeint ist. Als „erstrebenswert“ bezeichnet die Kommission KI zur individuellen Förderung und zur Unterstützung lebenslangen Lernens. Weitere Forschung sei unter anderem dazu nötig, „inwieweit und durch welchen Einsatz KI-Systeme positiven Einfluss auf den Lernerfolg nehmen können und Diskriminierungen verhindern.“

Auch im Bildungsbereich hält sich die Projektgruppe mit Empfehlungen zurück, es müsse noch mehr geforscht werden. Konkret fordert sie aber, dass Informatik als Pflichtfach in den Lehrplänen verankert werden sollte. „Kompetenzen zu KI und Algorithmik sollten jahrgangsstufengerecht sowohl im Fach Informatik als auch als Querschnittsthema im gesamten Fächerkanon aufgenommen werden“, heißt es weiter. Neben Mathematik und Informatik empfiehlt die Projektgruppe mehr Wert auf Soft Skills zu legen. Damit ist kritisches Denken und Entscheidungsfähigkeit sowie ein Bewusstsein für philosophische Fragestellungen und gesellschaftliche Herausforderungen durch KI gemeint. Für Lehrkräfte sollten Digitalkompetenzen in der ersten Phase der Ausbildung verpflichtend sein, in den weiteren zwei Phasen schlägt die Projektgruppe Weiterbildungsprogramme der Länder vor. Mädchen und Frauen sollten durch spezielle Angebote stärker für das Thema begeistert werden.

Foto: Pixabay User steveriot1 | CC0 1.0 | Ausschnitt bearbeitet

Forschung: Interdisziplinäre Teams fördern

Im Forschungsbereich differenziere man nach „Embodied KI“ und „Disembodied KI“, was übersetzt so viel wie verkörperte beziehungsweise nicht-verkörperte KI bedeutet. Deutschland sei in beiden Feldern gut aufgestellt. In der Robotik, die zur Embodied KI gehört, zählten viele Universitäten und Forschungseinrichtungen in Deutschland zu den internationalen Spitzenreitern. Disembodied KI behandle Themen wie Sprachanalyse oder Maschinelles Lernen. Als Empfehlung für die KI-Forschung hält die Projektgruppe eine bessere Verknüpfung mit arbeitswissenschaftlicher und pädagogischer Forschung für sinnvoll. Auch normative Fragen, etwa, wie die Technik zu einer Aufwertung der Arbeit führen kann, sollten einbezogen werden. Die staatliche Förderung sollte interdisziplinäre Teams unterstützen, die transdisziplinäre Fragen aufgreifen.

Mobilität: Teilen leicht machen

Die Arbeitsgruppe „KI und Mobilität“ hat sich mit dem Einfluss von KI auf die verschiedenen Verkehrsträger – Straßen-, Schienen-, Luft-, und Schiffsverkehr – sowie mit Mobilitätsplattformen und der Mobilität der Zukunft befasst. Sie hat acht themenübergreifende Handlungsempfehlungen formuliert. Demnach sollte Mobilität ganzheitlich betrachtet werden und sich an den Bedürfnissen des Menschen ausrichten. Dazu muss die digitale Infrastruktur ausgebaut, die Datennutzung geregelt und Open-Data-Strategien gefördert werden. Dabei geht es vor allem um das Teilen von Daten. Der Gesetzgeber müsse hier Interessenskonflikte zwischen „rechtlichen Einschränkungen des Datenzugriffs und dem Zugangsbegehren von anderen (Wettbewerbern, Drittanbietern)“ lösen. Des Weiteren sollte die Forschung ausgebaut und Testfelder eingerichtet werden. Rechtliche Rahmenbedingungen müssten so gestaltet werden, dass sie einen fairen Wettbewerb gewährleisten und Monopolen entgegenwirken. Außerdem plädiert die Projektgruppe für „einen europäischen Weg“, um die Wettbewerbsfähigkeit der EU zu sichern. Als „positives Beispiel“ wird in diesem Zusammenhang die geplante Dateninfrastruktur GAIA-X genannt.

Foto: CC0 1.0, Pixabay User falco | Ausschnitt angepasst

Im ländlichen Raum sollten Carsharing und Ridepooling gefördert sowie autonom fahrende öffentliche Verkehrsmittel vorangebracht werden. Wer zudem privat sein Auto mit anderen teilen möchte, dem sollte dies auch einfacher gemacht werden. Das betrifft rechtliche Fragen der Haftung, aber auch steuerliche Anreize. Damit KI-Systeme schnell entwickelt werden können, empfiehlt die Projektgruppe die Zertifizierung „vorerst mit den bereits existierenden Standards für Nicht-KI-Systeme“ zu beginnen. Außerdem rät sie zu einem Forschungsprogramm für die Verifizierung und Validierung von KI-Systemen. Dieses Themenfeld sei noch nahezu unbearbeitet.

Medien: Einrichtung soll Fälschungen untersuchen

Die Projektgruppe „KI und Medien“ befasste sich mit dem Einfluss der Künstlichen Intelligenz auf Journalismus, Medienpolitik und Meinungsbildung. Insbesondere ging sie Fragen „der Produktion und Distribution von Medieninhalten unter Zuhilfenahme von KI“ sowie dazugehörigen Regulierungsaspekten nach. Dabei machte sie zwei „übergreifende Handlungsfelder“ aus: Zum einen sollte unabhängiger Journalismus und eine pluralistische Öffentlichkeit gefördert werden. Inhalte von Verlagen, öffentlich-rechtlicher Rundfunk und Qualitätsmedien müssten im Netz auffindbar bleiben. Zum anderen sollten Bürger lernen, kompetent mit digitalen Nachrichten umzugehen. Diese Fähigkeit müsse „dauerhaft und permanent gestärkt“ werden. Bildungsangebote für alle Altersstufen sollen dabei helfen, sich über Chancen und Risiken, zum Beispiel von KI erzeugte Inhalte, zu informieren.

Als Problem sieht die Projektgruppe das Sammeln großer Datenmengen zu Werbezwecken an. „Im Internet herrscht nur eine scheinbare Gratiskultur, tatsächlich bezahlen die Nutzenden mit ihren Daten, von deren Sammlung, Speicherung, Auswertung und Reproduktion via KI sich nur wenige einen Begriff machen“, heißt es. Die Projektgruppe hält eine Anpassung des Kartellrechts und „gegebenenfalls die Einführung einer Digitalsteuer“ für sinnvoll.

Bei der Medienproduktion weisen die Autoren auf die gestiegenen Möglichkeiten für Manipulation, Täuschung und Fälschungen durch KI hin (Deep Fake). Sie fordern, dass Fälschungen „kontextuell wie technisch“ nachweisbar sein müssen. Dazu empfiehlt die Projektgruppe den Aufbau einer unabhängigen Einrichtung. Außerdem sollte die Forschung zu Deep Fakes verstärkt werden.

Gefahren durch Filterblasen und Bots

Durch Online-Plattformen wie Facebook oder Google hat sich auch die Verteilung von Nachrichten verändert. „Die Tatsache, dass die Empfehlungen in der Regel keinen journalistischen Standards, sondern eher den Geschäftsinteressen der Unternehmen folgen, wirft Fragen zum Einfluss von Intermediären auf die politische Meinungsbildung auf“, schreibt die Projektgruppe. Algorithmisch personalisierte Nachrichtenkanäle (APN) können „Vielfalt und Charakter“ des öffentlichen Diskurses beeinflussen. Daher sei es „die dringendste Aufgabe“, die Auswirkung von APN auf die politische Meinungsbildung als auch auf Wahlentscheidungen interdisziplinär zu erforschen.

Als „besonders heikel“ schätzt die Projektgruppe Filterblasen oder Echokammern ein, die entstehen, wenn Nutzer nur einseitige Informationen aus ihrem Umfeld erhalten. Außerdem hat die Projektgruppe den Einfluss von Social Bots – algorithmische Systeme, die automatisch generierte Inhalte posten – auf die politische Diskussion untersucht. Stellungnahmen von Fachleuten, die sie einholten, fielen dazu „ausgesprochen unterschiedlich“ aus. Die Datenbasis reiche nicht aus, um die „tatsächliche Bedrohung durch Social Bots nachzuweisen“. Daher sei die Zusammenarbeit mit Plattformbetreibern und mehr Forschung nötig, folgert die Projektgruppe.

Keine KI-Uploadfilter

Der neue Medienstaatsvertrag, der den Rundfunkstaatsvertrag ablöst, beziehe erstmals auch Intermediäre in die Medienregulierung mit ein. Diese müssen etwa offenlegen, nach welchen Kriterien sie Inhalte auswählen und anzeigen. Die Projektgruppe empfiehlt eine Modernisierung und Stärkung der Landesmedienanstalten. Es gelte, „über die fachliche Expertise in den Anstalten und die Zusammensetzung der Gremien nachzudenken“. Zudem sei eine bessere Koordination zwischen Bund und Ländern notwendig.

Foto: CC0 1.0, Pixabay User Wattblicker | Ausschnitt angepasst

Auch mit dem Urheberrecht und Uploadfiltern, die verhindern sollen, dass geschützte Inhalte online gehen, hat sich die Projektgruppe beschäftigt. Fazit: KI-basierte Uploadfilter seien aktuell nicht geeignet, „Urheberrechtsverletzungen im juristischen Sinne sicher festzustellen“. Von einem Einsatz solcher automatisierter Systeme ohne menschliche Kontrolle sei „dringend abzuraten, um die Meinungs- und Informationsfreiheit im Internet auch künftig zu bewahren“, schreibt die Gruppe. Automatische Filter zum Erkennen und Aussortieren von Hassrede seien gegenwärtig „nicht zuverlässig einsetzbar“. Grenzfälle, wie Parodien oder Ironie, ließen sich nur im Kontext beurteilen.

Tagesspiegel Politikmonitoring

Der vorstehende Artikel erscheint im Rahmen einer Kooperation mit dem Tagesspiegel Politikmonitoring auf der Website des BASECAMP.

Schlagworte

Empfehlung der Redaktion