KI verstehen: Update zu Kennzeichnungs­pflichten und zum neuen ChatGPT

Credits: iStock/Dragon Claws
Credits: iStock/Dragon Claws
Veröffentlicht am 03.06.2024

Im Bereich der generativen KI-Anwendungen ist weiterhin viel in Bewegung, sowohl was ihre Möglichkeiten als auch ihre Regulierung angeht. Aktuell gibt es insbesondere neue Entwicklungen hinsichtlich der Kennzeichnungspflicht von KI-Inhalten sowie ihrer Erkennung. Wir werfen in diesem Update einen kurzen Blick auf die Selbstverpflichtungen der Plattformen und das neue Sprachmodell von OpenAI.

Mit der zunehmenden Verbreitung von KI-generierten Inhalten, sei es in Textform, Bildern oder Videos, wächst der Bedarf an Transparenz. Die Nutzer:innen sollen klar erkennen können, ob ein Inhalt von einer KI erstellt wurde oder nicht. Um dies zu gewährleisten, hatten knapp zwei Dutzend Tech-Konzerne im Februar auf der Münchner Sicherheitskonferenz eine freiwillige Vereinbarung unterzeichnet mit dem Ziel, Manipulationsversuche mit KI zu verhindern und die Transparenz zu erhöhen. Mittlerweile haben zahlreiche Plattformen ihre Richtlinien zur Kennzeichnung von KI-Inhalten angepasst und neue Maßnahmen eingeführt.

Neue Richtlinien bei Meta, YouTube und TikTok

So hatte Meta Anfang April die Einführung von Labels wie „Made with AI“ und „Imagined with AI“ angekündigt. Diese Kennzeichnungen sollen auf Basis von Detektionstechnologien und Selbstangaben der Nutzer:innen angebracht werden und vor allem bei fotorealistischen Bildern und anderen Medien, die mit Meta AI erstellt wurden, sichtbar sein. Entsprechenden Kennzeichnungen haben seit Mai auf Facebook und Instagram begonnen.

YouTube verlangt seit Mitte März von seinen Creators, dass sie Inhalte kennzeichnen, die mit veränderten oder künstlichen Medien, einschließlich generativer KI, erstellt wurden und die leicht mit realen Personen, Orten oder Ereignissen verwechselt werden könnten. Ausgenommen von dieser Pflicht sind Beauty-Filter, Spezialeffekte und offensichtlich unrealistische Inhalte, wie beispielsweise Szenen, in denen jemand auf einem Einhorn durch eine Traumwelt reitet.

TikTok hat ähnliche Maßnahmen ergriffen und verlangt von den Creator:innen, alle KI-generierten Inhalte zu kennzeichnen, die realistische Bilder, Audio oder Videos enthalten. Zusätzlich zu den Labels für TikTok-eigene KI-Effekte sollen künftig alle hochgeladenen Videos auf KI-Inhalte gescannt und entsprechend markiert werden, um höhere Transparenz zu gewährleisten.

Automatisierte Erkennung bleibt ausbaufähig

Foto: Unsplash User Emiliano-Vittoriosi | Ausschnitt bearbeitet

Die aktuellen Lösungen basieren auf einer Kombination aus freiwilliger Kennzeichnung durch die Nutzer:innen und automatisierten Erkennungsmethoden. Letztere sollen mithilfe von KI-Technologien KI-generierte Inhalte identifizieren und markieren.

Um die Erkennung von KI-Inhalten zu verbessern, hat beispielsweise OpenAI, die Firma hinter ChatGPT, ein Tool entwickelt, das Forschenden zur Verfügung gestellt wird und helfen soll, synthetische Inhalte zu erkennen. Dieses Tool ist Teil eines Maßnahmenpakets zur Erhöhung der Transparenz vor den US-Wahlen und ist in der Lage, mit DALL-E erstellte Bilder zu identifizieren. OpenAI ist zudem der Coalition for Content Provenance and Authenticity (C2PA) beigetreten, die seit 2021 daran arbeitet, gemeinsame Standards zur Verankerung der Quelle von Medieninhalten in Metadaten zu entwickeln.

Diese Methoden, an denen die Unternehmen arbeiten, sind jedoch häufig noch nicht zuverlässig genug und können leicht umgangen werden. Beispielsweise reicht es oft aus, einen Screenshot von einem KI-generierten Bild zu machen, um die eingebetteten Metadaten zu entfernen.

Da die technischen Lösungen noch nicht ausgereift sind, bleibt die Förderung digitaler Bildung und Medienkompetenz von zentraler Bedeutung. Microsoft und OpenAI haben hierzu den Societal Resilience Fund ins Leben gerufen, der mit zwei Millionen Dollar ausgestattet ist und das Wissen über Künstliche Intelligenz insbesondere unter Wähler:innen und „gefährdeten Gemeinschaften“ fördern soll.

Das neue Sprachmodell von OpenAI

Neben diesen Nachrichten zur Selbstregulierung und KI-Kennzeichnungspflicht hat OpenAI kürzlich zudem sein neues Sprachmodell GPT-4o vorgestellt, das bedeutende Fortschritte im Bereich der Künstlichen Intelligenz verspricht. Das „o“ im Modellname steht für „omni“ und weist darauf hin, dass es in der Lage sein soll, verschiedene Medienformate gleichzeitig zu verarbeiten und auszugeben, darunter Text, Töne und Videos. Während bisherige Systeme verschiedene Modelle für unterschiedliche Medien verwendeten und Spracheingaben zunächst transkribiert werden mussten, um dann die Antwort als Audio abzuspielen, beherrscht GPT-4o alle Formate.

OpenAI hat versprochen, dass GPT-4o im Vergleich zu seinen Vorgängern schneller, leistungsfähiger und effizienter ist. Trotz dieser Fortschritte sind Halluzinationen – also das Generieren von ungenauen oder falschen Informationen – nach wie vor möglich. Ein bemerkenswerter Aspekt des neuen Modells ist außerdem seine kostenlose Verfügbarkeit, während die Mitbewerber ihre leistungsfähigen Modelle meist zahlenden Kunden vorbehalten.

„Vermenschlichung“ von KI – Risiko oder Chance?

Foto: istock/ipopba

Derzeit wird GPT-4o schrittweise ausgerollt, z.B. war der Voice-Modus bislang nur in Demo-Videos zu sehen. Trotzdem entstand bereits eine Kontroverse um eine KI-Stimme, die der von Schauspielerin Scarlett Johansson nachempfunden sein soll. Johansson warf OpenAI vor, ihre Stimme ohne Erlaubnis nachgeahmt zu haben. OpenAI hat diese Vorwürfe zwar bestritten, dennoch ist die betreffende Stimme nun nicht mehr verfügbar.

Im Zusammenhang mit GPT-4o wurde zudem über das Risiko der „Vermenschlichung“ von KI diskutiert: Es wird befürchtet, dass manche Nutzer:innen emotionale Abhängigkeiten entwickeln könnten, insbesondere bei der Nutzung der KI durch einsame Menschen oder Kinder und Jugendliche. Gleichzeitig könnte die Technologie jedoch auch eine bedeutende Rolle im Kampf gegen Isolation und Einsamkeit spielen.

Dies zeigt einmal mehr, dass es beim Fortschritt der KI-Technologie weiterhin darauf ankommt, ihre sozialen und ethischen Implikationen im Auge zu behalten.

Schlagworte

Empfehlung der Redaktion