Responsive image

on air: 

Leslie Runde
---
---
smartphone-ordner-soziale-medien

KI-Label für Facebook, Instagram und Threads

Verschiedene Social Media-App-Icons auf einem Smartphone-Display zu sehen.

15. April 2024

  • Meta plant ein KI-Label einzuführen, das Beiträge kennzeichnet, die mit künstlicher Intelligenz geschaffen wurden.
  • Das neue Label für Facebook, Instagram und Threads wird ab Mai auf den Plattformen ausgerollt werden.
  • Videos und Audios sollen mit dem Label gekennzeichnet werden, mit KI produzierte Texte bleiben ohne Kennzeichnung.   

Da der Unterschied zwischen menschlichen und synthetischen Inhalten immer mehr verschwimmt, möchten die Menschen wissen, wo die Grenze liegt.

Nick Clegg, Präsident für auswärtige Angelegenheiten bei Meta im Blog des Konzerns

Was plant Meta?

Meta möchte den Umgang mit KI transparenter machen. Dafür führt der Konzern, zu dem die Plattformen Facebook, Instagram und Threads gehören, ein KI-Label ein. Ab Mai sollen Bilder, Videos und auch Audios mit dem Label „Made with AI“ gekennzeichnet werden. Schon eingeführt hat Meta Warnhinweise, die kennzeichnen, wenn fotorealistische Bilder mit der hauseigenen KI "MetaAI" produziert wurden. Das neue Label soll nun auch Content markieren, der z.B. mit OpenAI, Midjourney, Adobe oder Google produziert wurde. „Dies ist zwar keine perfekte Lösung und wird nicht alles erfassen, aber es ist ein wichtiger erster Schritt in einem sich entwickelnden Prozess,“ schreibt dazu Nick Clegg, Metas Präsident für auswärtige Angelegenheiten auf dem neuen Kurznachrichtendienst Thread. Meta folgt damit nach eigenen Angaben dem Wunsch der Community. In einer Umfrage unter 23.000 Befragten in 13 Ländern hatten über 80% angegeben, dass sie Warnhinweise zu KI befürworten würden.

 

Wie soll es funktionieren?

KI-Bilder sind schon seit einiger Zeit durch Marker identifizierbar - das gilt auch für die mit der Meta-KI produzierten Bilder. Unsichtbare Wasserzeichen machen sie als KI-generiert erkennbar. Für Videos und Audios existiert diese Kennzeichnung -  vor allem auch Plattform-übergreifend - noch nicht. „Daher können wir diese Signale noch nicht erkennen und diesen Inhalt von anderen Unternehmen kennzeichnen,“ schreibt Meta dazu. Für den Übergang hat der Konzern deswegen eine Funktion eingeführt, die den Nutzern erlaubt, KI-generierte Audios und Videos selbst kenntlich zu machen. Meta verbindet diese Funktion mit einer klaren Aufforderung: „Wir verlangen, dass Nutzer dieses Offenlegungs- und Kennzeichnungstool verwenden, (...) wenn sie organische Inhalte mit einem fotorealistischen Video oder realistisch klingenden Audio veröffentlichen, das digital erstellt oder verändert wurde, und können Strafen verhängen, wenn sie dies nicht tun.“

Wie will Meta bei Missachtung reagieren?

Bei der Kennzeichnung von KI-generierten Audios und Videos setzt Meta also erst einmal auf Freiwilligkeit. Allerdings behält sich der Konzern zum einen vor, Bilder, Audio und Videoinhalte auffälliger zu kennzeichnen, wenn sie ein „hohes Risiko bergen, die Öffentlichkeit in einer wichtigen Angelegenheit zu täuschen.“ Zum anderen will Meta Inhalte entfernen, „unabhängig davon, ob sie von KI oder einer Person erstellt wurden, wenn sie gegen unsere Richtlinien gegen Wählereinmischung, Mobbing und Belästigung, Gewalt und Hetze oder gegen andere Richtlinien unserer Gemeinschaftsstandards verstoßen,“ schreibt Meta in seinem „Ansatz zur Kennzeichnung von KI-generierten Inhalten und manipulierten Medien“. Ein Team von fast 100 unabhängigen Faktenprüfern würde zudem „falsche und irreführende Inhalte überprüfen“, schreibt der Konzern weiter. Allerdings kündigt der Konzern im gleichen Post an, dass er im „Juli die Entfernung von Inhalten allein aufgrund unserer Richtlinie zu manipulierten Videos einstellen“ werde - was bedeutet das nun!? Nach eigenen Angaben repräsentiert Meta damit „den neuesten Stand dessen, was derzeit technisch möglich ist.“   

Ist Meta alleine?

YouTube hat schon Ende 2023 seine Richtlinien in Bezug auf KI-generierten Content verändert. So betont die Video-Plattform, dass auch KI-generierte Inhalte den Community-Richtlinien unterliegen würden. Darüber hinaus setzt aber auch YouTube auf die Eigenverantwortlichkeit, wie die beiden Vizepräsidentinnen Produkt-Management Jennifer Flannery O’Connor und Emily Moxley im YouTube-Blog schreiben: „Insbesondere verlangen wir von den Erstellern, dass sie offenlegen, wenn sie veränderte oder synthetische Inhalte erstellt haben, die realistisch sind, einschließlich der Verwendung von KI-Tools.“ Gleichzeitig sei YouTube aber bewusst, dass „böswillige Akteure unweigerlich versuchen werden, diese Leitplanken zu umgehen.“ In Zusammenarbeit mit der Community will YouTube die Schutzmaßnahmen deswegen kontinuierlich verbessern. Einen ähnlichen Weg hat auch TikTok eingeschlagen. Im September glich die Plattform ihre Richtlinien entsprechend an und führte ein KI-Label für KI-generierte Videos ein. Ähnlich wie Meta und YouTube arbeitet aber auch TikTok noch an einer automatisierten Erkennungs- und Kennzeichnungsoption von KI-generierten Inhalten.


Der wöchentliche Blick ins Web

Eine Person die eine Computertastertur mit Maus bedient


Das Internet schläft nicht - ständig gibt es neue Trends, neue Plattformen, neue Apps und täglich Veränderungen. Mit uns behaltet ihr den Überblick - denn wir präsentieren Ihnen hier jede Woche was es Neues gibt in der digitalen Welt.