YouTube baut seine Technik zur Erkennung von KI-generierten Deepfakes aus. Wie TechCrunch berichtet, startet die Plattform in den USA ein Pilotprogramm für Regierungsvertreter, politische Kandidaten und Journalisten. Sie erhalten Zugang zu einem Tool, das Videos erkennt, in denen ihr Gesicht mithilfe von KI künstlich nachgebildet wurde. Betroffene können anschließend eine Entfernung beantragen, wenn sie einen Verstoß gegen die YouTube-Richtlinien vermuten.
Die Technologie selbst ist nicht neu. YouTube hatte sie bereits im vergangenen Jahr rund vier Millionen Creatorn im Partnerprogramm zur Verfügung gestellt. Das System funktioniert ähnlich wie das bekannte Content-ID-Verfahren, das urheberrechtlich geschütztes Material erkennt. Statt Musik oder Filmausschnitten sucht die Software allerdings nach KI-generierten Abbildern realer Personen.
YouTube: Nicht jeder Treffer wird gelöscht
Hintergrund sind wachsende Sorgen über Desinformation. Deepfakes können Politiker oder andere öffentliche Figuren scheinbar Dinge sagen oder tun lassen, die nie passiert sind.
„Diese Erweiterung zielt vor allem darauf ab, die Integrität der öffentlichen Debatte zu schützen“, wird Leslie Miller, Vice President of Government Affairs and Public Policy bei YouTube, in einer Pressemitteilung zitiert. Sie ergänzt: „Wir wissen, dass die Risiken von KI-Imitationen besonders hoch sind für Menschen, die im öffentlichen und politischen Raum tätig sind. Aber während wir diesen neuen Schutz bieten, gehen wir auch vorsichtig damit um, wie wir ihn einsetzen.“
Nicht jeder erkannte Treffer wird automatisch gelöscht. YouTube prüft jeden Antrag anhand seiner bestehenden Richtlinien. Parodie oder politische Kritik können weiterhin erlaubt sein.
Wer das Tool nutzen will, muss seine Identität zunächst mit Selfie und amtlichem Ausweis bestätigen. Danach lassen sich erkannte Deepfake-Videos einsehen und bei Bedarf melden. Langfristig plant YouTube laut TechCrunch weitere Schritte. Denkbar sei etwa, problematische Uploads bereits vor Veröffentlichung zu stoppen oder sie ähnlich wie beim Content-ID-System zu monetarisieren.
Wie viele Deepfake-Videos bislang entfernt wurden, nennt das Unternehmen nicht. YouTube spricht lediglich von einer „sehr kleinen“ Zahl an Löschungen. Ob das neue Tool auch gezielt für Deutschland geplant ist, ist bislang offen.






