KI-Schrott bedroht die Werbewirkung

Mithilfe von Künstlicher Intelligenz erstellter Content – insbesondere Videos – nimmt rasant zu. Gleiches gilt für betrügerischen Traffic. Was können Kunden tun, um sich gegen die Nebenwirkungen von KI zu wappnen?
Nebenwirkungen von KI : KI Schrott und betrügerischer Traffic, FOTOMONTAGE, Roboter auf Computertastatur, Symbolfoto künstliche Intelligenz *** FOTOMONTAGE, robot on computer keyboard
KI führt nicht nur dazu, dass mehr künstlicher Content entsteht, sondern auch der nicht-menschliche Traffic wird verstärkt. (© Imago/Christian Ohde)

Seit Mitte Juli wirft YouTube unauthentische Videos aus dem Partnerprogramm und schließt diese de facto von der Monetarisierung aus. Doch warum? Das Video-Portal reagiert damit auf eine Nebenwirkung der sich schnell verbreitenden Künstlichen Intelligenz (KI): AI Slop (deutsch: KI-Schrott). Der Begriff bezeichnet qualitativ minderwertige und massenhaft produzierte KI-Inhalte, die primär zu dem Zweck erstellt wurden, Werbeeinnahmen zu generieren.

Wer künftig bei YouTube Geld verdienen will, muss nachweisen, dass die Inhalte authentisch sind und nicht automatisiert erstellt wurden. So versucht die Plattform den Erstellern den Geldhahn zuzudrehen und die Umfeldqualität wieder anzuheben, die vom KI-Schrott bedroht wird. Denn Nutzerinnen und Nutzer, die solche Videos anklicken, sind meist enttäuscht und schnell wieder weg. Das bedroht die Werbewirkung und löst Reaktanzen aus.

Zahl der Made-for-Advertising-Seiten explodiert

AI Slop ist kein reines YouTube-Problem. Auch auf Social Media nimmt es zu. Anfang September berichtete die Nachrichtenagentur Reuters, dass Fake-Chatbots von Prominenten wie Taylor Swift, Scarlett Johansson und Selena Gomez mit freizügigen Bildern auf Facebook und Instagram auf Userfang gehen – einige sogar von einer Meta-Mitarbeiterin selbst erstellt.

Auch das Open Web mit seinen zahllosen Websites ist betroffen, denn mit KI wird es nun viel einfacher und günstiger, Slop-Websites zu erstellen. „Sie verfügen oft über keine redaktionelle Kontrolle, bieten nur minimale originale Berichterstattung oder Analysen und erhalten möglicherweise fragwürdige oder irreführende Informationen, die ausschließlich darauf abzielen, Suchmaschinen-Traffic zu generieren und die Werbeeinnahmen zu maximieren“, beschreibt Patrick Stoltze, Country Manager CEE beim Technologieanbieter Integral Ad Science (IAS), das Problem.

Sogenannte Made-for-Advertising-Seiten (MFA) gab es zwar schon vor generativer KI, doch die Menge explodiert jetzt. „MFA nimmt mit KI dramatisch zu. Die Erstellung von Seiten ist viel einfacher geworden und sie sehen auch nicht mehr so minderwertig aus. Damit verschärft sich ein Problem, das man schon immer hatte“, sagt Tobias Wegmann, stellvertretender Vorsitzender der Working Group Data Tech & Eco im Bundesverband Digitale Wirtschaft (BVDW) und CTO Mediaplus.

„KI verschärft ein Problem, das man schon immer hatte“, sagt Tobias Wegmann vom Bundesverband Digitale Wirtschaft (BVDW). (© Michaela Handrek-Rehle)

Werbegelder wandern ins Nirwana

Nutzerinnen und Nutzer, die bei diesem Content landen, sind in der Regel ebenso schnell weg, wie sie gekommen sind. „Umfelder wie MFA und KI-generierte Slop-Websites beeinträchtigen die Werbewirksamkeit erheblich“, sagt Stoltze. Denn die Seiten sind nur darauf ausgelegt, hohe Ad Impressions zu erzielen, und nicht darauf, den Nutzern Mehrwert zu bieten. Entsprechend gering sind Engagement und Conversion Rates. Die Folge: „Man pustet Werbegeld ins Nirwana“, sagt Jörn Strehlau, Chief Digital Officer DACH, der zu IPG Mediabrands gehörenden Agentur Kinesso.

Zudem steigen die Gefahren für die Markensicherheit, wenn die Anzeigen auf Slop- oder MFA-Websiten erscheinen, die mit irreführenden, spamigen oder schädlichen Inhalten in Verbindung gebracht werden. „Dies birgt das Risiko, den Ruf der Marke zu schädigen und das Vertrauen der Verbraucher*innen zu untergraben“, so Stoltze.

YouTube kommt als einer der größten Werbeplattformen der Welt eine besondere Verantwortung dabei zu, beherzter gegen AI Slop vorzugehen. „Google hat viele Möglichkeiten in der Hand, um problematische Inhalte zu demonetarisieren“, sagt Wegmann. Doch sich darauf zu verlassen, dass damit keine Werbung mehr in minderwertigen KI-Umfeldern auftaucht, hält Experte Jörn Strehlau für nicht angebracht: „Unbedarft an YouTube heranzugehen, war schon immer schwierig.“

Gezielte Buchungen gegen AI Slop

Doch was können Advertiser und Mediaagenturen tun, um dafür zu sorgen, dass die Werbung in Umfeldern erscheint, die ihrem Anspruch an die Qualität des Contents genügt? Insbesondere in einer digitalen Welt, in der von Jahr zu Jahr mehr Werbeinventar vollautomatisiert programmatisch gehandelt wird? „Es werden Berge von Müll produziert. Aber die Taktiken dagegen haben wir vor langer Zeit gelernt“, sagt Wegmann.

Verifizierungspezialisten wie IAS und Double Verify können dabei helfen, MFA- und KI-generierte Slop-Umgebungen zu identifizieren und zu blockieren. IAS nutzt maschinelles Lernen, semantische Analysen und Echtzeit-Scans. „Diese Lösungen aktualisieren regelmäßig Exklusion-Listen auf der Grundlage der neusten Erkenntnisse über Bedrohungen.“ Stoltze rät außerdem dazu, beim programmatischen Einkauf mit Pre-Bid-Filtern zu arbeiten, mit denen Kategorien oder Inventarquellen ausgeschlossen werden können.

Angesichts des stark wachsenden Angebots an MFA und AI Slop empfiehlt Wegmann jedoch primär den umgekehrten Weg: Zu entscheiden, wo die Werbung platziert werden soll, anstatt zu definieren, wo nicht. „Um problematische Inhalte auszuschließen, helfen nur Allow-Lists. Diese schränken die Reichweiten jedoch deutlich ein.“ Doch was nützen hohe Reichweiten, wenn sie kaum Wirkung erzeugen?

Jörn Strehlau_c_IPG Mediabrands
„Auf Social Media und bei YouTube ist extrem viel Bot Traffic, der nicht nur Content generiert, sondern auch Ad Impressions“, sagt Jörn Strehlau, Chief Digital Officer DACH bei Kinesso. (© IPG Mediabrands)

Auch Strehlau glaubt: „Bei Video führt kein Weg an einer sehr starken Supply-Path-Strategie wie bei MFA im Open Web vorbei. Das ist die einzige sinnvolle Herangehensweise, um AI Slop zu minimieren.“ Es bedeutet, den Weg zwischen Werbungtreibendem und Publisher zu verkürzen und die Transparenz zu erhöhen, bei wem und in welchen Umfeldern die Werbung laufen wird. In der Abwehr von AI Slop hilft zwar ebenfalls KI. Doch das reicht nicht. „Man braucht Menschen, um zu beurteilen, auf welchen Websites die Werbung laufen soll“, so Strehlau.

Betrügerischer Traffic nimmt zu

Zudem ist eine regelmäßige Kampagnenüberwachung angeraten. Das gilt nicht nur für die Frage, in welchen Umfeldern die Werbung erscheint, sondern auch, wer sie eigentlich sieht. Denn KI führt nicht nur dazu, dass mehr künstlicher Content entsteht, sondern auch der nicht-menschliche Traffic wird verstärkt. Betrügerischer Fraud Traffic hat ebenfalls zum Ziel, im Werbegeschäft mitzuverdienen. Doch Bots, die Werbung klicken, werden niemals zu Käufern. Und die Zahlen steigen dramatisch.

Laut Juniper Research hat weltweiter Werbebetrug 2023 Verluste von 84 Milliarden US-Dollar erzeugt – mehr als jeder fünfte (!) Werbeeuro ist damit einfach verpufft. Bis 2028 sollen es schon 172 Milliarden US-Dollar sein – eine unvorstellbare Summe. Zum Vergleich: Laut Zentralverband der Werbewirtschaft beliefen sich die gesamten Netto-Werbeeinnahmen in Deutschland 2024 inklusive Search auf knapp 26,8 Milliarden Euro.

Laut dem von IAS regelmäßig erhobenen „Media Quality Report“ (MQR) stieg die Betrugsrate weltweit im Vorjahresvergleich 2024 um satte 19 Prozent auf 10,9 Prozent an – der höchste Stand seit vier Jahren. „Deutschland ist einer der größten Online-Werbemärkte in Europa und damit ein Ziel für verschiedene Arten von Werbebetrug, darunter Invalid Traffic, Bots, Domain-Spoofing und Klickbetrug“, so Soltze. Laut MQR lag die Ad-Fraud-Rate bei Desktop-Display-Werbung bei 1,9 Prozent und damit über dem weltweiten Schnitt von 1,1 Prozent. Bei Desktop-Video-Werbung bei 1,3 Prozent (Weltweit: 0,8 Prozent). Den Verlust durch Betrug und nicht-menschlichen Traffic beziffert Stoltze auf mehrere zehn Millionen Euro pro Jahr.

Strehlau sieht das Problem vor allem im stark wachsenden Social-Media-Bereich und auf YouTube sehr ausgeprägt: „Dort ist extrem viel Bot Traffic, der nicht nur Content generiert, sondern auch Ad Impressions.“ Auch hier kommen Tools von Technologieanbietern wie IAS zum Einsatz, um den Traffic zu identifizieren und auszuschließen. Doch das reicht nicht. Strehlaus Rat: „Nicht allein auf technologische Lösungen verlassen. Sonst ist man verlassen.“

Juliane Paperlein (pap) ist Fachjournalistin und Moderatorin, war Ressortleiterin bei Horizont und Leiterin der Unternehmenskommunikation der AGF Videoforschung. Es sind vor allem die wirtschaftlichen Zusammenhänge in der bunten und niemals langweiligen Marketing- und Medienwelt, die sie interessieren, und sie ist sehr froh darüber, sich von Frankfurt aus mit immer neuen Themen beschäftigen zu können.