20. Mai, 2024

Technologie

TikTok setzt auf automatische Kennzeichnung von KI-generierten Inhalten

TikTok setzt auf automatische Kennzeichnung von KI-generierten Inhalten

TikTok, der populäre Kurzvideo-Dienst, tritt als erstes soziales Netzwerk in das Neuland der automatischen Markierung von Inhalten, die durch Künstliche Intelligenz generiert wurden. Ein wachsendes Bewusstsein für die Verbreitung von Fehlinformationen und sogenannten Deepfakes im Internet hat die Entwickler der App zu diesem innovativen Schritt veranlasst. Die Plattform verpflichtet ihre Nutzer bereits dazu, zu deklarieren, wenn Bilder, Töne oder Videos mithilfe von AI-Software erstellt wurden.

Die Zugehörigkeit zur ByteDance-Familie hindert TikTok nicht daran, eigene Maßstäben zu setzen. So kündigte das Unternehmen an, spezifische Eigenheiten zu implementieren, die es ihm ermöglichen, KI-generierte Videos zu identifizieren und entsprechend zu kennzeichnen. Auch Inhalte, die mit dem Adobe Firefly-Tool oder OpenAIs Dall-E geschaffen wurden, fallen unter die Regelung. Adam Presser, TikToks Verantwortlicher für Betrieb, Vertrauenswürdigkeit und Sicherheit, betont die Relevanz dieser Initiative und die damit verbundene Bewahrung der Authentizität innerhalb der TikTok-Gemeinschaft.

Der Kampf gegen die Flut an qualitativ minderwertigen KI-generierten Spam-Inhalten stellt soziale Medien vor neue Herausforderungen. Plattformen wie Meta, X und YouTube forschen ebenfalls nach Methoden, generative KI zu integrieren. Doch gerade in einem Wahljahr stehen diese Unternehmen unter Druck, Maßnahmen gegen irreführende Deepfakes zu ergreifen und dabei eine neutrale Moderation der Inhalte zu gewährleisten.

Ein aktueller Rechtsstreit zwischen TikTok, ByteDance und der US-Regierung wirft Fragen zum Umgang mit Desinformation und Propaganda auf. Trotz rechtlicher Auseinandersetzungen bleibt TikTok seiner Linie treu und tritt einer von Adobe angeführten Koalition bei, um sogenannte Inhalts-Zertifikate in AI-generierten Produkten zu verankern. Diese Technologie prägt medialen Inhalten eine digitale Signatur ein, die Auskunft über die Herkunft gibt. OpenAI folgt mit der Ankündigung, die Fingerprinting-Technologie in alle von Dall-E 3 generierten Bilder einzubetten – ein Vorhaben, das künftig auch auf das Video-Modell Sora ausgeweitet werden soll.

Große Technologieunternehmen wie Google, Microsoft und Sony spielen ebenfalls mit dem Gedanken, diese Technologien in ihre KI-Werkzeuge einzufügen. Indes erklärt Meta, zukünftig KI-generierte Inhalte mit einem "Made by AI"-Label zu versehen, und an der Entwicklung von Deepfake-Erkennungstools zu arbeiten. Experten sind sich allerdings einig, dass ausgeklügelte Falschinformation-Gruppen eher auf Open-Source-KI-Tools zurückgreifen dürften, die schwieriger nachzuverfolgen sind und durch digitales Fingerprinting nicht automatisch markiert werden würden.

Die Technologiebranche sieht in diesen Maßnahmen einen ersten wichtigen Schritt zur Lösung des Problems. Dana Rao, Justiziar und Chefvertrauensbeauftragter bei Adobe, hebt hervor, dass diese Werkzeuge einen authentischen und transparenten Dialog in einer digital manipulierbaren Welt ermöglichen würden.