KI im Bundestag: Interview mit Anke Domscheit-Berg (Linke)

Credits: iStock/ipopba, Jesco Denzel
Credits: iStock/ipopba, Jesco Denzel
Veröffentlicht am 08.12.2023

Auf Künstlicher Intelligenz basierende Tools sind seit dem Hype um ChatGPT in aller Munde – und werden zum Teil auch im politischen Betrieb genutzt. In unserer Interview-Reihe befragen wir Digitalpolitiker:innen aus dem Bundestag zu ihren Erfahrungen mit entsprechenden Anwendungen sowie den Chancen und Risiken der Technologie. Als fünfte im Bunde beantwortet Anke Domscheit-Berg, die digitalpolitische Sprecherin der Linksfraktion und Mitglied der Enquête-Kommission des Bundestages zu KI (2018-2020), unsere Fragen zum Thema.

Frau Domscheit-Berg, wie oft und wozu nutzen Sie in Ihrer Arbeit KI-Anwendungen? Welche Tools und Hilfsmittel sind das?

Wie die meisten Menschen verwende ich KI, die in diversen digitalen Diensten versteckt ist: vom Navi auf dem Handy bis zur Diktat-App, Internet-Suchdienste (ja auch Google, und der Suchalgorithmus ist auch eine KI-Anwendung), Schrifterkennungsapps, Übersetzungs-Apps und alle möglichen Dienste, die z.B. Empfehlungsalgorithmen verwenden – wie z.B. fast alle sozialen Medien (Facebook, Twitter, Instagram, YouTube).

Generative KI verwende ich etwa, um neue Grafiken zur Bewerbung meines Podcasts zu erstellen, z.B. Midjourney oder Stable Diffusion. Wenn ich mit den Ergebnissen unzufrieden bin, nutze ich manchmal ChatGPT, um mir bessere Prompts vorschlagen zu lassen, die ich dann bei den Bild-generierenden Programmen eingeben kann – und das klappt ziemlich gut.

Außerdem habe ich generative KI schon genutzt, um Wahlkreistermine vorzubereiten, etwa für eine Art Inhaltsverzeichnis oder roter Faden zu Themen, in denen ich mich selbst gut auskenne, aber keine Zeit habe, mir einen entsprechenden Rede-Zettel auszuarbeiten.

Auch für ehrenamtliches Engagement in meinem Heimatort habe ich ChatGPT schon verwendet, z.B. um mein Wissen für die Nachhilfe für syrische Schülerinnen aufzufrischen. Und mit Midjourney habe ich z.B. Bilder generiert, die von diesen Schülerinnen rechtefrei in einem Vortrag verwendet werden konnte, oder habe Bilder als Illustrationen für den Veranstaltungskalender einer Jugendbildungseinrichtung erstellt.

Was war bisher Ihr persönlich verstörendster bzw. interessantester KI-Moment?

Foto: iStock/Supatman

Ich teste die Qualität generischer KI ganz gern damit, sie nach meinem oder dem Namen meiner Mutter zu fragen. So hat ChatGPT3.5 zu meinem Namen 90 % Unfug produziert, der lustig und beeindruckend, aber einfach falsch war: Ich sei bei der Weltbank gewesen, hätte Transparency International gegründet, verschiedene Doktortitel u.a. in Computer Science und ein Bundesverdienstkreuz hätte ich auch schon erhalten. Das war ein sehr klarer Beweis dafür, wie eloquent KI “bullshitten” kann – und wie gefährlich es sein kann, auf generative KI als einziger Quelle zu vertrauen.

Kürzlich habe ich jedoch ChatGPT4 nach meinem Namen gefragt und es kam ein längerer Text zur Person, der keinen einzigen Fehler enthielt. Ich war auch diesmal geschockt, weil das wiederum zeigt, wie rasend schnell die Entwicklung geht. Aber auch ChatGPT4 scheiterte an Fragen zu meiner Mutter, die immerhin ein paar Bücher geschrieben hat. Es warf einen völlig frei erfundenen Lebenslauf aus – und so hat sich auch ChatGPT4 wieder schnell entzaubert. Eigentlich ist es nur noch schwerer geworden, die Grenzen der KI zu erkennen.

Wo liegen aus Ihrer Sicht die größten Chancen und Risiken von KI-Anwendungen?

Die Chancen und Risiken von KI sind ein umfangreiches Thema, das ich hier nicht komplett ausführen kann. In aller Kürze betreffen die Potenziale u.a. Effizienzsteigerungen für sehr viele Aufgaben, mehr Barrierefreiheit (z.B. durch automatische Übersetzungen oder Bildbeschreibungen), ein allgemeiner Zugang zu kreativen Tools, individuellere Lernprogramme, bessere Diagnosen und Therapien, Innovationen in der Medikamentenforschung, Energie- und Rohstoffeinsparungen, Mobilitätsverbesserungen oder einfacheres Recycling (z.B. durch KI-gestützte Materialerkennung). Auch der Zugang zu sozialen Leistungen kann so erleichtert werden, wenn man Formulare in Chatbots umwandelt und jederzeit und in vielen Sprachen mit dem „Formular“ kommunizieren kann.

Auf der anderen Seite gibt es allerdings auch einige Risiken: Durch die massive Zunahme von Desinformation und Deep Fakes, aber auch durch „Informationsverschmutzung“ – KI lernt von den falschen Informationen anderer KI-Tools – können die Demokratie und der gesellschaftliche Frieden gefährdet werden. Videos, Audio-Aufnahmen und Bilder können überzeugend und ohne viel Vorwissen gefaked werden, sodass man immer schwerer Wahr und Falsch unterscheiden kann.

Mit der Verbreitung von KI-Tools könnten zudem der Wegfall von Millionen Jobs, negative Klimawirkungen durch energieintensive Rechenzentren, Diskriminierung und Vorurteile durch den KI-Dateninput oder Massenüberwachung durch Gesichtserkennung und algorithmische Inhalts-Filter (wie bei der geplanten Chatkontrolle) einhergehen.

Hinzu kommen Sicherheitsrisiken durch die Nutzung von KI für Deanonymisierung (z.B. ID-Klau), das Finden von Sicherheitslücken, Social Engineering für Hackerangriffe, die Entwicklung von Software-Code durch KI ohne Kontrollkompetenz. Oder Gefährdungen für den Kinder- und Jugendschutz, wenn sich Erwachsene mittels KI live als Jugendliche in Videos darstellen.

Mehr zum Thema Chancen und Risiken habe ich auch vor einigen Monaten in einer Diskussion bei Maybrit Illner gesagt.

Sehen Sie die Notwendigkeit, Künstliche Intelligenz stärker zu regulieren?

Ja, eine Regulierung ist nötig, damit KI transparent und nachvollziehbar ist und die Grundrechte wahrt. Es braucht deshalb Transparenzpflichten für die Trainingsprozesse und -daten von KI-Anwendungen, Wasserzeichen für KI-generierte Inhalte, Prüfpflichten für die Betreiber und Zugang für Sicherheitsforscher:innen sowie „Privacy by Design“-Vorgaben zu Datenschutz und Privatsphäre.

Sinnvoll ist auch die Etablierung von Explainable AI, die nachvollziehbar macht, wie ein KI-System zu ihren Ergebnissen kommt – speziell bei Hochrisiko-KI und dem KI-Einsatz bei staatlichen Stellen. Hier ist zudem eine Risikobewertungspflicht nötig. Einige besonders risikobehaftete Anwendungen sollten schließlich auch verboten oder eingeschränkt werden können.

Foto: iStock / anyaberkut

Gerade bei KI-Anwendung durch den Staat sollte es wegen seiner Monopolstellung in vielen Bereichen besonders hohe Hürden und maximale Transparenz geben. Und KI-Systeme dürfen allein keine Entscheidungen mit Auswirkungen auf Bürger:innen treffen – die Letztverantwortung muss beim Menschen liegen. Dabei ist jedoch der Automation-Bias zu beachten, denn Menschen neigen dazu, eine Maschinen-Entscheidung selten infrage zu stellen und dann läuft so ein Letztentscheid natürlich ins Leere, weil das menschliche Korrektiv eben keines mehr ist.

Wie kann Politik sicherstellen, dass KI-Systeme ethisch und verantwortungsvoll entwickelt und genutzt werden, insbesondere in Bezug auf Fragen von Diskriminierung, Transparenz und Datenschutz?

Jenseits der Regulierung sollten wir in der EU zusätzlich auch ethische, nicht-kommerzielle Alternativen für KI-Tools aufbauen! Das Ziel sollte es sein, ein europäisches, gemeinwohlorientiertes KI-Ökosystem zu entwickeln, das hohe Standards bei Sicherheit, Einhaltung ethischer Regeln, Datenschutz und Privatsphäre setzt. Dafür wären sowohl eine entsprechende Forschungsförderung und eine großangelegte Bildungsoffensive gegen Fakenews und Desinformation, als auch die Beteiligung der Zivilgesellschaft an der Entwicklung von Leitlinien und unabhängige Evaluationen von KI notwendig.

Schlagworte

Empfehlung der Redaktion