Künstliche Intelligenz kann Stimmen imitieren und Gesichter täuschend echt kopieren – mit gravierenden Folgen für Creator. Medienberichten zufolge startet YouTube dafür ein Abwehrwerkzeug namens „Likeness-Detection“, auf Deutsch Abbild-Erkennung. Die Funktion soll KI-Videos identifizieren, in denen das Abbild von YouTubern missbraucht wird, und Betroffenen die Kontrolle zurückgeben.
YouTube beschreibt „Likeness-Detection“ als System, das automatisch KI-erzeugte Videos markiert, in denen Gesicht, Stimme oder beides ohne Erlaubnis verwendet werden. Der Ansatz reagiert auf die zunehmende Qualität sogenannter Deepfakes, die echte Aussagen und Handlungen vortäuschen.
Deepfakes auf YouTube: reale Probleme
Für die Nutzung müssen Creator im YouTube Studio ihre Identität verifizieren. Der Prozess sieht vor, einen QR-Code zu scannen, einen Lichtbildausweis vorzuzeigen und ein kurzes Selfie-Video hochzuladen. Danach zeigt das Tool gefundene Videos an. Betroffene können die Löschung beantragen, Urheberrechtsverletzungen melden oder die Funde archivieren.
So gibt es bereits einen prominenten Fall: Die Stimme des Technik-YouTubers Jeff Geerling (39) wurde ohne seine Zustimmung für Werbung des Herstellers Elecrow genutzt. Der Vorfall illustriert den Bedarf an einem systematischen Schutz.
Der Rollout erfolgt schrittweise. Zunächst werden ausgewählte YouTube-Partner informiert, in den kommenden Monaten soll die Funktion für deutlich mehr Creator zugänglich werden. Die Plattform weist darauf hin, dass die Erkennung noch nicht unfehlbar ist und auch echte Videos auftauchen können. Zugleich erinnert YouTube an seine Kennzeichnungspflichten: Wer KI-Inhalte nicht markiert, riskiert eine Sperrung des Kontos.

