Data Debate: Zu den Chancen und Risiken von KI-Anwendungen

Tobias Haar, General Counsel, Aleph Alpha, Prof. Alena Buyx, Vorsitzende, Deutscher Ethikrat, Markus Rolle, Finanzvorstand von O2 Telefónica, Daniela Kluckert, Parlamentarische Staatssekretärin beim Bundesminister für Digitales und Verkehr, und Stephan-Andreas Casdorff, Herausgeber, Der Tagesspiegel (Moderation) | Foto: Henrik Andree
Tobias Haar, General Counsel, Aleph Alpha, Prof. Alena Buyx, Vorsitzende, Deutscher Ethikrat, Markus Rolle, Finanzvorstand von O2 Telefónica, Daniela Kluckert, Parlamentarische Staatssekretärin beim Bundesminister für Digitales und Verkehr, und Stephan-Andreas Casdorff, Herausgeber, Der Tagesspiegel (Moderation) | Foto: Henrik Andree
Veröffentlicht am 14.07.2023

Künstliche Intelligenz (KI) ist aufgrund leicht zugänglicher Anwendungen wie ChatGPT oder Midjourney derzeit in aller Munde. Dabei wird sowohl über die Chancen als auch die Risiken der Technologie mittlerweile kontrovers diskutiert. Welche das sind und wie damit umgegangen werden sollte, war letzte Woche Thema einer Data Debate im BASECAMP.

Mit der zunehmenden Verbreitung von KI-Anwendungen werden allgemein große Hoffnungen verknüpft. Speziell viele Wirtschaftsbranchen sehen sie als Schlüsseltechnologie für neue Wachstumsmöglichkeiten und Wohlstand, indem KI die Produktivität erhöhen, Angestellten die Arbeit vereinfachen, dem Fachkräftemangel entgegenwirken, die Energieeffizienz erhöhen und zur Entstehung neuer Jobs und Branchen beitragen könnte. Und auch der Wissenschaft könnte sie zu neuen Erkenntnissen verhelfen, etwa in der Biologie oder Medizin.

Großes Potenzial

Mit Blick auf den europäischen Wirtschaftsraum betont auch das Europäische Parlament die vielen möglichen Vorteile der Technologie: KI könne die Gesundheitsversorgung verbessern, Verkehrsmittel sicherer und Produkte langlebiger machen, gefährliche Arbeitsschritte übernehmen oder den öffentlichen Dienst effizienter machen. Und hinsichtlich kritischer Infrastrukturen sieht z.B. die Telekommunikationsbranche das Potenzial, mithilfe von KI die Resilienz in verschiedenen Bereichen zu steigern. Etwa durch Frühwarnsysteme für Stromnetzausfälle, das Erkennen von Wetter-Risiken, Sicherheitslücken in Datennetzen oder die Anpassung von Lieferengprozessen bei Medikamenten und anderen wichtigen Gütern.

Dabei muss erwähnt werden, dass Künstliche Intelligenz bereits heute häufig als Werkzeug eingesetzt wird und Teil des Alltags vieler Menschen ist: beispielsweise in Form von Übersetzungsanwendungen, Einkaufsempfehlungen, Kundenbetreuung, Sprachassistenten, Lernunterstützung für Kinder oder Gesundheits-Apps für Erwachsene.

Eine Dual-Use-Technologie

Über diese breite Palette an Chancen wurde auch diese Woche im BASECAMP bei der Tagesspiegel Data Debate zum Thema „Trustworthy AI – Europa am Scheideweg“ diskutiert. Markus Rolle, Finanzvorstand von O2 Telefónica, wies daraufhin, dass Telefónica Deutschland als Anwender von KI-Tools bereits viele neue Nutzungsmöglichkeiten erschließt, z.B. zur Reduzierung des Energieverbrauchs, zur Wartung und Optimierung des Mobilfunknetzes, zum Social-Media-Monitoring bei der Prüfung der Lieferantenketten oder zur Analyse des allgemeinen Kundenverhaltens mittels synthetisch erzeugter Datensätze.

Markus Rolle, Finanzvorstand von O2 Telefónica | Foto: Henrik Andree

Im Zentrum der Diskussion stand allerdings die Frage, wie die Chancen von Künstlicher Intelligenz genutzt und zugleich ihre Risiken minimiert werden können ­– ohne dabei eine Überregulierung zu erzeugen.

„Wir müssen aufpassen, dass wir in Deutschland nicht alles kaputt regulieren.“ (Daniela Kluckert, Parlamentarische Staatssekretärin beim Bundesminister für Digitales und Verkehr)

Denn wie die Vorsitzende des Deutschen Ethikrats, Alena Buyx, hervorhob, handelt es sich bei KI um „eine klassische Dual-Use-Technologie“, deren Mechanismen ins Positive wie ins Negative gewendet werden können.

Datenschutz, Urheberrecht, Vorurteile und mehr

Die gerade erkennbar werdenden Risiken von KI-Anwendungen sind dabei nicht zu unterschätzen. So ist es zum Beispiel wahrscheinlich, dass die Technologie nicht nur neue Jobs schafft, sondern auch andere überflüssig macht, wovon laut Studien Millionen Menschen bzw. ihre Arbeitskraft betroffen sein könnten. Dies kann für die betroffenen Gesellschaften eine große Herausforderung darstellen.

Von eher technischer und rechtlicher Natur sind die Fragen des Datenschutzes und Urheberrechts, die speziell mit der Entwicklung von KI-Anwendungen zusammenhängen. Denn beim Training von Künstlichen Intelligenzen sind große Mengen an Daten nötig, mit denen die Algorithmen gefüttert werden, um möglichst genaue Ergebnisse und Vorhersagen zu produzieren. Zum Beispiel ist derzeit noch ungeklärt, ob die KI-Entwickler überhaupt urheberrechtlich geschütztes Material wie Buchtexte oder Bilder verwenden dürfen, um ihre Programme zu trainieren.

Hinzu kommt, dass mit der Zusammenstellung und Konzeption der Daten auch die Gefahr von Manipulationen und Verzerrungen einhergeht. So wird momentan davor gewarnt, dass KI-Anwendungen gesellschaftlich bereits vorhandene Vorurteile noch verstärken könnten – etwa wenn entsprechende Software bei Bewerbungsverfahren zum Einsatz kommt und „untypische“ Bewerber:innen automatisch aussortiert.

Gefahren für den demokratischen Diskurs

Noch drastischer erscheinen die möglichen Gefährdungen für die Demokratie. KI-Tools könnten nämlich gezielt dazu eingesetzt werden, den demokratischen Diskurs zu stören und zu verzerren. Zum Beispiel könnten Bots in sozialen Netzwerken massenhaft Beiträge teilen und damit künstlich für eine hohe Reichweite von bestimmten Meinungen sorgen. Ähnliches gilt für die Verbreitung von Falschinformationen, seien es Texte, Bilder oder Videos: Mithilfe generativer KI-Anwendungen ist es mittlerweile fast jeder Person einfach möglich, hochwertige Fälschungen – sogenannte Deepfakes – zum Zweck der Desinformation zu erstellen.

Dahinter steht die große Herausforderung, irgendwann eventuell nicht mehr zu wissen, von wem Texte und Bilder eigentlich stammen, welchen Informationen man vertrauen kann und ob man noch mit Menschen oder einer Maschine kommuniziert. Aufgrund dieser potenziell tiefgreifenden Risiken für Demokratie und Gesellschaft fordern viele Verantwortliche klare Regeln für KI. Selbst Bundespräsident Frank-Walter Steinmeiner forderte vor kurzem einen ethischen und rechtlichen Rahmen sowie wirksame Standards und Kontrollinstanzen.

Wie mit den Risiken umgehen?

Die damit zusammenhängende Frage des richtigen Umgangs und der sinnvollen Regulierung wurde ebenfalls bei der erwähnten Data Debate im BASECAMP besprochen. Dabei sprachen sich alle Beteiligten dafür aus, die Gesellschaft stärker für den Umgang mit dieser und anderen digitalen Technologien zu ertüchtigen: Ausbildung, Training und Aufklärung speziell für die jungen Menschen seien besonders wichtig, damit sie adäquat mit den Herausforderungen und Chancen umgehen können.

Beim zentralen Punkt der Regulierung, etwa durch den geplanten AI-Act der EU und ein Einstufungssystem von Hochrisiko-KI, waren sich die Diskutanten weitgehend einig, dass Regulierung dringend nötig sei, die Wirtschat aber auch Raum für Innovationen und neue Entwicklungen brauche.

„Es ist wichtig, dass wir jetzt schnell die Leitplanken setzen, dann braucht es aber auch Eigenverantwortung und Vertrauen in die Unternehmen bei der Umsetzung.“ (Markus Rolle, Finanzvorstand von O2 Telefónica)

Daniela Kluckert, Parlamentarische Staatssekretärin beim Bundesminister für Digitales und Verkehr | Foto: Henrik Andree

Während Daniela Kluckert, Parlamentarische Staatssekretärin beim Bundesminister für Digitales und Verkehr, vor einer Überregulierung warnte, plädierte die Europaabgeordnete Birgit Sippel dafür, von Anfang an die Grundrechte der Menschen mitzudenken und Regeln für sichere KI-Produkte aufzustellen – selbst wenn Risiken wie Deepfakes nicht komplett verhindert werden könnten. Besonders wichtig sei es, dass Menschen KI-Entscheidungen am Ende immer noch korrigieren könnten.

Ethikrat-Vorsitzende Alena Buyx unterstrich die besondere Herausforderung, dass bei Künstlicher Intelligenz die gleiche Technologie je nach Sektor anders reguliert werden müsse und dass es dafür möglichst viel internationale Zusammenarbeit brauche, um gemeinsame Mindeststandards festzulegen.

Prof. Alena Buyx, Vorsitzende, Deutscher Ethikrat | Foto: Henrik Andree

Ob KI-Anwendungen eher zum Nutzen oder zum Schaden der Gesellschaft eingesetzt wird, entscheide sich letztlich vor allem am Zusammenspiel und der gemeinsamen Verantwortung der relevanten Akteure ­– also der Politik, der Hersteller, der digitalen Plattformen und der End-User.

Der Ausgang dieses Zusammenspiels ist momentan noch unklar. Sicher ist nur, dass mit der Weiterentwicklung von Künstlicher Intelligenz und ihrer Anwendungsbereiche ein weiterer technologischer Umbruch ansteht.


Schlagworte

Empfehlung der Redaktion