Wie Mathematik und Technik das Marketing erobern

Big Data gilt weithin als das neue Rohöl. Damit Daten sich tatsächlich zum Treibstoff für ein datengetriebenes Marketing wandeln, sind eine intelligente Kombination und Analyse gefragt.

Von Achim Born

Zwei Prozent! So groß war der Stimmenvorsprung des US-amerikanischen Präsidenten Barack Obama vor dem republikanischen Herausforderer Mitt Romney bei seiner Wiederwahl. Dass das Verhältnis der Wahlmänner am Ende mit 332 zu 206 recht deutlich ausfiel, liegt an einer Eigenart des USWahlrechts: The winner takes it all! Wer die Mehrheit der Wählerstimmen in einem Bundesstaat holt, bekommt
sämtliche Wahlmännerstimmen. Damit wird der Wahlausgang maßgeblich von den neun „Swing States“ bestimmt. Wem es gelingt, die Wechselwähler auf seine Seite zu ziehen, der hat schon so gut wie gewonnen.

Das war den Wahlkämpfern früherer Wahlen durchaus bewusst. Um gezielt vorgehen zu können, wünschte sich beispielsweise JFKs legendärer Wahlkampfstratege Matt Reese, eine Art „Godfather“ des politischen Kampagnenmanagements, dass Gott alle Unentschlossen mit einer grünen Nase und alle wahlunwilligen Sympathisanten mit einem violetten Ohr ausstattet. Obamas Wahlkampfteam bediente sich stattdessen modernster Analyseverfahren, um den Aktionen eine maximale Treffsicherheit zu verleihen. Zu diesem Zweck wurden Informationen über Konsumenten, Wahlverhalten, Sponsoren oder Wahlhelfer aus allen zugänglichen Datenquellen zusammengeführt und die statistischen Profile der typischen Wechselwähler modelliert. Diese Daten wurden nicht allein genutzt, um mittels Modellbildung das Wahlverhalten von Wechselwählern zu prognostizieren. Es wurden ebenso Aktionsalternativen „durchgespielt“, damit mit Blick auf den angestrebten Sieg die beste Strategie, sinnvollste Ansprache und Werberessourcen-Allocation für unterschiedliche Personen(-kreise) identifiziert waren. Kontinuierlich wurde das System mit den Erfahrungen der Wahlhelfer – der „Response“ der Wähler – gefüttert und verfeinert.

Projekt-Mastermind Ryid Ghani

Mastermind hinter den Projekten wie Narwhal (Echtzeit-Zusammenführung der Daten) und Dreamcatcher (Textanalyse) ist Rayid Ghani. Der Wissenschaftler hatte in seiner früheren Tätigkeit Analyseprogramme für Supermärkte geschrieben, mit deren Hilfe sich die Effizienz von Werbemaßnahmen maximieren lässt. Und diese Skills nutzte Ghani nun für die Wahlkampfalgorithmen. Damit bestätigt die USamerikanische
Präsidentenwahl einmal mehr, dass Politik auch Verkaufen heißt. Gleichzeitig wird sichtbar, welchen Einfluss eine immer ausgefeiltere Analyse
umfangreicher Datenmengen im Selling-Prozess ausüben kann.

Big Data: Besseres Kundenwissen und 360-Grad-Sicht auf den Markt

Fachleute lassen in diesem Kontext gerne und häufig den Begriff „Big Data“ (siehe Kasten) fallen. Die schnelle Auswertung extrem großer Datenmengen aus unterschiedlichsten Quellen wird vielfach als das Rohöl unserer Tage bezeichnet. Der Grund hierfür ist offensichtlich: Je mehr Daten in eine Analyse einfließen, desto genauer – und damit besser – ist die (Er)Kenntnis. Welche Hoffnungen Unternehmen mit Big Data und den zugehörigen Analytics-Techniken verknüpfen, zeigt eine Studie, die IBM und die Said Business School an der Universität Oxford kürzlich
vorstellten. Danach beabsichtigt jedes zweite Unternehmen, auf diesem Weg mehr Kundennähe zu schaffen, indem Verhaltensmuster, Stimmungen und Vorlieben der Kunden besser erkannt werden.

Dr. Wolfgang Martin von S.A.R.L. Martin geht in seiner Einschätzung sogar noch einen Schritt weiter. Für den Kenner der Business-Intelligence- und Datenmanagementszene, gewinnen Unternehmen durch Big Data nicht nur besseres Kundenwissen, sondern eine 360-Grad-Sicht auf den gesamten Markt. „Nach der Outbound- und Inbound- Kommunikation über Kampagnenmanagement sind wir nun definitiv im Unbound angekommen“, so der Business-Intelligence-Experte. Jeder kommuniziere mit jedem und alles sei – im Rahmen der gesetzlichen Vorgaben – transparent verfolgbar und erfassbar.

Zumindest in der Theorie. Denn die IBM/Said-Business-School-Studie ermittelte auch, dass Unternehmen in der Realität für ihre Big-Data-Projekte noch vorrangig interne Daten einbeziehen. Lediglich 43 Prozent beziehen bereits Informationen aus Social Media-Kanälen
in ihre Analysen mit ein – obgleich gerade diese wertvolle Kundeninformationen liefern können. Damit vergeben sie (noch) eine große Chance. Das belegt der US-Wahlkampf und das zeigen neue Werkzeuge im Marketing, wenn beispielsweise Agenturen wie Media-Com zur präziseren Aussteuerung von Online-Kampagnen die Meinungsbeiträge definierter Zielgruppen im Social Web clustern.

Unternehmen noch unsicher hinsichtlich Daten aus Social Media

Im Allgemeinen sind Unternehmen allerdings noch unsicher, wie mit den individuell gefärbten Inhalten aus den sozialen Medien umzugehen ist. Ein Grund hierfür: Traditionelle Analysewerkzeuge, die mit einfachen Algorithmen vergangenheitsbezogene Daten auswerten, sind mit der Verarbeitung des Rohstoffes Big Data überfordert. Selbst relativ einfache Zusammenhänge lassen sich im Rahmen explorativer Analysen durch „Daten-Browsen“ oder Ähnliches nur zufällig finden. „Werden die Muster komplexer, sind sie selbst für intelligenteste menschliche Analytiker und bei bester Software-Unterstützung zur Aggregation und Visualisierung der Daten praktisch unsichtbar“, bemerkt Dr. Marcus Dill. Für den Geschäftsführer des auf BI-Fragen spezialisierten Beratungshauses Mayato führt daher in Zeiten von Big Data an den unter dem Stichwort Data-Mining subsumierten Analyseverfahren kein Weg vorbei.

Gemeint damit sind hoch komplizierte mathematische Berechnungen, die weitgehend autonom Zusammenhänge in großen Datenmengen aufspüren – beispielsweise um künftige Kaufinteressen auszuloten oder die Wirkung des Werbemitteleinsatzes auf ausgewählte Kundenkreise transparent zu machen. Solche Fragestellungen setzen natürlich voraus, dass Daten möglichst zeitnah und feingliedrig – im Idealfall „roh“ – in die Analyse f ließen und bearbeitet werden. Die wachsende Heterogenität und Reichhaltigkeit der Daten (Variety) fordert die Informationstechnologie
zusätzlich. Freitexte, beispielsweise auf Web-Seiten, Blogs oder in sozialen Netzwerken, aber auch Bilder, Videos, Audiodaten oder Aufenthaltsinformationen sind neue Quellen an wertvollen Informationen.

Die Textanalytik für unstrukturierte Daten kombiniert hierzu linguistische Verfahren mit Suchmaschinen, Text- Mining, Data-Mining und Algorithmen des maschinellen Lernens. „Ein typisches Beispiel für semantisches Text-Mining in Facebook, Twitter & Co. ist die Sentimentanalyse, mit der sich Stimmungen und Einstellungen zu bestimmten Themen, Produkten, Firmen automatisch ermitteln lassen“, erklärt Mayato-Manager Dill. „Das Sentiment im Web 2.0 gegenüber den eigenen und Konkurrenzprodukten ist ein Frühwarnsystem, das mögliche Umsatzrückgänge und das Abwandern größerer Kundengruppen ankündigen kann.“ Insbesondere im Konsumentengeschäft aktive Firmen könnten hiermit auf relativ einfache Weise Hinweise sammeln, in welche Richtung zukünftige Marketingaktionen zielen sollten und welche Produkteigenschaften künftig besonders nachgefragt werden.

Knallharte Technik

Die Anforderungen an die neuen Analysewerkzeuge sind gewaltig. Denn mit reinen Wortmustern gelangt man nicht immer weiter. Man muss sich nur vor Augen führen, mit welchem Grad an Zynismus und Sarkasmus in den sozialen Medien Wortspielereien verwendet werden. Überhaupt hat Big Data auf vielen Ebenen mit knallharter Technik (Grafik) zu tun. Mit dem Gros der Technologien beziehungsweise der Werkzeuge (Tabelle) dahinter dürften Agenturen, Vermarkter oder Publisher in der Online-Display-Werbung – wenn zum Teil auch nur indirekt – als Nutzer vertraut sein. Schließlich zählen Amazon, Ebay, Facebook, Google & Co. zu den maßgeblichen Erfindern der Big-Data-Techniken. Neue Online-Marketing-Ansätze wie Realtime-Bidding, View-Vermarktung oder Multichannel-Tracking im Rahmen der Customer Journey bedienen sich ausgiebig der Datenmanagementfunktionen und der Analyseverfahren aus dem Big-Data- Umfeld.


Deren Leistung ist immer dann gefragt, wenn erstens riesige Mengen Rohöl (Daten) zu verwalten sind, die zweitens zu einstem Treibstoff (Integration, Analyse) für den Werbe- und Verkaufsprozess affiniert werden. Beispiele gefällig? eim Berliner Startup Adclear ist im ackend unter anderem MongoDBKnow-how gefragt. Die Datenbank-Software, die Daten als Texte beliebiger Länge und Verschachtelung im Hauptspeicher verwaltet, wird auch vom Ortungsservice Foursquare oder vom URL-Verkürzungsdienst Bit.ly genutzt. Der große Datensammler und Online- Daten-Auktionär Bluekai wählte IBMs Speichersystem Netezza Twinfin, um die großen Datenmengen zu durchforsten. Zum Motor unter der EA Legends – eine Plattform zur Vermarktung von Gamer- Profilen – erkor Electronics Arts die Datenmanagementbasis nPario, deren Entwicklung einst bei Yahoo angestoßen wurde. Und – um einen letzten Hinweis zu geben – die schöne Bäckerin aus der IBM-Fernsehwerbung kennt die Abhängigkeit von Verkauf und Wetter. Für diese Klarheit sorgt ein präzises Absatzprognosemodell mit viel Data- Mining-Technik, das Meteolytix mit Hilfe von IBM SPSS realisierte. Die gewonnenen Erkenntnisse sind bares Geld wert. Beispielsweise ist allein die Zahl der Retouren aus den Filialen der Großbäckerei im Artikeldurchschnitt um circa ein Drittel gesunken.

Data-Plattform-Lösung als zentrales Datenlager für Realtime-Data-Mining

Auch Online-Händler können beispielsweise anhand der xData-Plattform des Re-Targeting-Spezialisten Xplosion Interactive ihre Produktangebote mehrstufig selektieren, um optimale Produktempfehlungen geben zu können. Durch gezielte Steuerung der Werbeauslieferung
(Frequency-Cap) wird dem Nutzer in begrenzter Anzahl nur die Werbung eingeblendet, die für ihn interessant ist. Während sich der User in einem Web-Shop umsieht, profiliert die Software-Lösung den Besucher, um persönliche Produktvorschläge zu unterbreiten. Dazu lassen sich Daten, die das aktuelle Verhalten der Nutzer auf Web-Seiten widerspiegeln, mit Daten seines historischen Kaufverhaltens zusammenführen und analysieren. Verlässt der Interessent die Seite, erhält er in Folge personalisierte Bannerwerbung.

Durch komplexe Statistik werden Interessenfelder und Affinitäten ermittelt, um die Qualität und Relevanz der in Echtzeit generierten Werbemittel zu maximieren. Aus IT-Perspektive dient die Data-Plattform-Lösung als zentrales Datenlager für Realtime-Data-Mining, das Daten verschiedener Struktur und unterschiedlichster Herkunft verarbeitet.

Ein Gutteil des Leistungsvermögens von Etracker Dynamic Discovery beruht ebenso auf Big-Data-Technik. Durch die Verbindung der eingesammelten Rohdaten mit der analytischen Datenbank ist es möglich, die Perspektive auf die Informationen jederzeit per Drag and drop zu ändern und weitere Kennzahlen flexibel in die Auswertung aufzunehmen oder herauszufiltern.

Tiefgreifende Veränderung in Unternehmen

Der Anwender kann so aus einem für das jeweilige Business-Modell relevanten Set an Parametern beliebig auswählen. Innerhalb weniger Sekunden steht selbst bei komplexen Anfragen das Ergebnis bereit, das in die Bewertung der Qualität seiner Web-Sites oder Kampagnen fließt.
Das direkte Zusammenführen der Datenströme, Analyseläufe in Echtzeit und das dynamische Nachjustieren – all das wird durch Big-Data-Technologien ermöglicht. Und all das führt zu einer tief greifenden Veränderung in Unternehmen, an deren Ende ein datengetriebenes
Marketing bis hin zur automatisierten Steuerung des Handels mit digitaler Werbung steht. Mediaagenturen, Publisher und Technologielieferanten
befeuern zusätzlich diesen Prozess. Das Leistungsversprechen hinter den Aktivitäten lautet in der Regel, den Werbeeinsatz zu optimieren. Das betrifft einerseits die optimale Allocation der Web-Mittel, wie sie beispielsweise Adobe durch den Schulterschluss von AdLens (ehemals
Efficient Frontier) mit SiteCatalyst oder AdClear mit dem neuen „Toplevel-Report“ zum Controlling der Effizienz aller genutzten Online-Werbekanäle unterstützt. Das betrifft andererseits den Verkauf der Werbung selbst, indem Betreiber von Marktplätzen und Data-Management-Plattformen wie Adscale und Mediaplex nun zusätzlich Echtzeitauktionen (Realtime-Bidding) unterstützen.

Die immer stärker um sich greifende Digitalisierung bleibt natürlich nicht ohne Folgen für die Beteiligten. Sie erfordert einen völlig neuen Typ von Marketingmenschen, wie beispielsweise Spree7-Chef Oliver Busch andeutet: „Unsere Kampagnenmanager müssen heute weit mehr technisches Know-how mitbringen sowie eine hohe Affinität zu Arithmetik und Statistik aufweisen.“ Das Mehr an Mathematik und Technik hat denn auch so manchen Kommentatoren zu dem schönen Wortspiel „Aus Mad Men werden Math Mean“ verleitet.