Stephen Schuster und seine Studierenden erforschen seit anderthalb Jahren die Rolle von KI in der Werbung. Dabei geht es vor allem um Glaubwürdigkeit und Vertrauen: Akzeptieren Verbraucherinnen und Verbraucher künstlich generierte „Menschen“ in der Werbung? Wie reagieren sie auf eine Kennzeichnung? Was führt Marken in den Shitstorm? Ein Gespräch über KI-Humans, Digital Twins und Realistic Fakes – und die Rolle von echten Menschen bei alledem.
Herr Schuster, KI lernt schnell. Hat sie schon „verstanden“, was Marketer mit Authentizität, dem Marketing-Buzzword der Stunde, meinen?
KI macht sehr schnelle Fortschritte. Es ist nur eine Frage der Zeit, bis die KI ihr Handwerk zur vollsten Zufriedenheit des Menschen beherrscht. Ob und wofür man sie heute einsetzt, ist auch eine Frage des Anspruchs. Ein CMO aus der Automobilindustrie sagte kürzlich, ihm reiche die aktuelle Qualität in der Bilderstellung noch nicht. Seine Kundinnen und Kunden erwarten Perfektion beim Auto. Und diesen Maßstab legt er auch an die Markenkommunikation. Gleichzeitig ist natürlich absehbar, dass das Qualitätsniveau und damit auch die mögliche Authentizität in der Werbung weiter steigen.
Gibt es diesen 100-Prozent-Anspruch auch auf Verbraucherseite?
Menschen empfinden Werbung per se nicht als authentisch. Das galt schon vor dem KI-Zeitalter. Sie wissen, dass der Burger nie so makellos inszeniert ist wie in der Realität. Werbung erhebt nicht den Anspruch, die Wirklichkeit eins zu eins abzubilden, sie arbeitet mit Inszenierung und Zuspitzung. Das wird bis zu einem gewissen Grad toleriert. Empfindlich reagieren Konsumentinnen und Konsumenten jedoch beim eigentlichen Nutzenversprechen: Produkteigenschaften und Leistung müssen so ehrlich und realitätsnah wie möglich vermittelt werden.
Sie erforschen, wie Werberezipienten auf künstlich generierte „Menschen“, sogenannte KI-Humans, reagieren. Was ist Ihre wichtigste Erkenntnis?
Die Akzeptanz von KI-generierten Inhalten und Menschen ist vorhanden. Ich bin überzeugt, dass wir in drei bis vier Jahren nicht mehr darüber diskutieren werden, ob KI eingesetzt wurde, solange die Werbung authentisch und handwerklich gut gemacht ist. Wir sehen auch keinerlei negativen Einfluss auf die emotionale Markenbindung, also das Vertrauen in eine Marke, wenn eine Voraussetzung erfüllt ist.
Und die wäre?
Die meisten Menschen wünschen sich mittlerweile, dass eine klare Kennzeichnung von KI-Inhalten stattfindet.
Warum die Einschränkung „mittlerweile“?
Interessanterweise gingen die Meinungen dazu bei unseren ersten Befragungen vor anderthalb Jahren noch stärker auseinander: Manche fühlten sich ohne Kennzeichnung getäuscht, andere wollten keinen Abspann in der Werbung, wie man ihn aus der Arzneimittelwerbung kennt: „Fragen Sie Ihren Arzt oder Apotheker!“ Das hat sich mittlerweile geändert, vermutlich auch durch das gestiegene Wissen über KI und die damit verbundenen Möglichkeiten und Risiken.
Die Frage der Kennzeichnungspflicht regelt der AI Act, der in Teilen bereits in Kraft ist. Doch von einer brancheneinheitlichen Lösung oder gar einer Sanktionierung sind wir weit entfernt. Wie würde eine konsistente und transparente Handhabung bei den Rezipienten ankommen?
Die Ergebnisse unserer qualitativen Studie, die wir im Anschluss auch quantitativ validiert haben, zeigen klar, dass die Menschen wissen wollen, ob ein Inhalt KI-generiert ist oder nicht. Das muss nicht ausführlich erklärt sein. Ein kleiner Hinweis genügt. Sind KI-Inhalte gekennzeichnet, wird diese Transparenz sehr positiv wahrgenommen. Dadurch wirkt die Marke ehrlich und auf Augenhöhe, und das kann sogar das Markenvertrauen stärken.
Ob gekennzeichnet oder nicht – KI mischt bei der Kreation von Werbekampagnen kräftig mit. Das kommt mal besser beim Publikum an, mal führt es direkt in den Shitstorm – wie zuletzt bei Prinzenrolle. Woran liegt das?
Entscheidend ist nicht, dass KI eingesetzt wird, sondern wie. Wird der Einsatz als Selbstzweck oder reine Kostensenkung wahrgenommen, wird das häufig kritisch aufgenommen. Gerade im Bewegtbild braucht es weiterhin Qualität, Markenpassung und Budget. Wenn Ausführung und Passung nicht überzeugen oder falsche Erwartungen geweckt werden, folgen in sozialen Medien schnell negative Reaktionen.
In welchen Bereichen erwarten Sie schon bald größere Veränderungen?
Ein breiter Einsatzbereich kann der sogenannte Digital Twin werden, also ein echtes Model, das die Rechte an seinem Erscheinungsbild vergibt. Dieser digitale Zwilling kann für Kampagnen gebucht und eingesetzt werden, ohne dass die Person selbst zu einem Shooting kommen muss. Damit verbunden sind Fragen der Entlohnung, der Mitsprache bei inhaltlichen Änderungen und der Grenzen der Bearbeitung. Hier braucht es einen rechtssicheren und fairen Rahmen mit klaren Regeln zu Vergütung, Änderungsrechten und Transparenz.
Sie sagen auch, dass manche Betrachter gar nicht so sehr darauf achten, wie der Mensch auf einem Werbemotiv aussieht.
Wenn Menschen im Motiv nicht die Hauptrolle spielen, werden KI-basierte Darstellungen grundsätzlich akzeptiert. Entscheidend ist, dass Produkt und Nutzen glaubwürdig und ehrlich vermittelt werden.
Also differenziere die Rezipienten selbst innerhalb eines Werbemotivs?
Das gilt beispielsweise für Landschaften rund um ein beworbenes Auto. Sie sind für die meisten Betrachter zweitrangig. In der Werbung für ein Hotelzimmer darf der Ausblick vom Balkon dagegen auf keinen Fall von der Realität abweichen. Bei einem solchen Motiv wird ein echtes Bild bevorzugt.
Wenn es vor allem auf das Produkt ankommt, dürften es Katalogmodels in Zukunft schwer haben.
Werbetreibende wie das Modelabel Mango setzen bereits auf sogenannte Realistic Fakes, also rein KI-generierte Models. Konsumentinnen und Konsumenten wollen vor allem sehen, wie ein Kleidungsstück am Menschen aussieht und wie der Stoff fällt. Ob die dargestellte Person real oder KI-basiert ist, wird grundsätzlich akzeptiert, entscheidend sind eine realistische Darstellung und eine klare Kennzeichnung.
Bei aller Akzeptanz bleiben doch Bedenken hinsichtlich der Manipulierbarkeit und der ethischen Verantwortung beim KI-Einsatz. Erwarten Sie eher ein Abnehmen oder einen Anstieg dieser Bedenken?
Ich glaube nicht, dass sich diese Vorbehalte rasch auflösen. Aus unserer Sicht liegt das aktuell vor allem an der unrealistisch perfekten menschlichen Darstellung.
Der Grad der Perfektion ist zu hoch?
Wir beobachten, dass viele Menschen mit KI-generierten Personen ein bestimmtes Bild verbinden: sehr glatte, porenarme Haut, ausgeprägte Symmetrie und idealisierte Proportionen. Eine solche schöne, glatte Werbewelt lehnen viele Menschen ab. Das Problem ist, dass es diese Art der Stilisierung bereits vor der KI-Zeit gab. Wird die KI nun damit trainiert, reproduziert sie es nicht nur, sondern überhöht es nochmal. Damit liegt vor Marken und Agenturen noch Arbeit: Menschen realistischer und authentischer darzustellen, ganz gleich, ob es Digital Twins oder Realistic Fakes sind.
Sie sehen noch eine dritte Art von „menschlicher Darstellung“. Was zeichnet sie aus?
Das sind die sogenannten Fictional Avatars. Bei ihnen sieht man sofort, dass kein wirklicher Mensch abgebildet ist. Ein Beispiel sind virtuelle Influencer wie Lil Miquela oder Imma, die bewusst anders aussehen, teils fast cartoonartig.
Was sollte eine Marke aus Ihrer Sicht nicht der KI überlassen?
Ein gutes Beispiel ist Diversität: Unternehmen müssen definieren, was Vielfalt für sie bedeutet und wie sie sie in der Kommunikation sichtbar machen. Das bleibt eine Führungsaufgabe mit menschlicher Entscheidungshoheit. Wichtig sind klare Leitplanken: Kennzeichnung, realistische Darstellung ohne Überperfektion, sowie die aktive Vermeidung eines einheitlichen Schönheitsideals.
