Professor Peter Gentsch ist überzeugt: „Künstliche Intelligenz trifft bessere Entscheidungen als der Mensch“

Künstliche Intelligenz ist derzeit ein Hype-Thema, findet auch Professor Peter Gentsch, der schon Mitte der 1990er-Jahre mit ihr arbeitete. Trotzdem rät er Unternehmen dringend, sich mit ihr zu beschäftigen. Was KI kann und was nicht, warum es bei ihrem Einsatz auch um Budgets und Macht geht und wie sie Hinterbliebenen helfen kann, den Tod von Angehörigen zu verkraften.
Professor Peter Gentsch (© Screenshot: Youtube/KEMWEB)

04Vor 50 Jahren erschien Stanley Kubricks Science-Fiction-Film „2001: Odyssee im Weltraum“. Darin versucht der Computer Hal, die Kon- trolle zu übernehmen. Wie finden Sie den Film?

PETER GENTSCH: Naiv und illusorisch. Mir hat ein anderer Film imponiert: Her.

Gedreht 2013. Ein Mann lässt sich auf eine Liebesbeziehung mit einem Betriebssystem ein.

Ich halte das durchaus für möglich, dass sich jemand in künstliche Intelligenz verlieben kann. Ein System kann bei Menschen Emotionen aufbauen. Es kann nur selbst keine haben.

Seit wann beschäftigen Sie sich mit KI?

Seit Mitte der 1990er-Jahre. Mich hat interessiert, wie man mit Datentechnologie Mehrwert schaffen kann. Damals waren IT und Unternehmen weitgehend getrennte Welten. KI hat als wichtige Kerntechnologie und Transmissionsriemen diese beiden Welten zusammengebracht.

Was hat man damals unter KI verstanden? Das Gleiche wie heute?

Interessanterweise habe ich damals schon mit Algorithmen gearbeitet, die ich jetzt noch anwende. Natürlich waren die neuronalen Netze nicht so komplex; wir haben heute andere Datenmengen und eine viel größere Rechenpower. Aber die Grundlogik, dass solche Netze aus Daten lernen, ist dieselbe.

Trotzdem wissen auch heute nur wenige, was unter neuronalen Netzen zu verstehen ist.

Es wird auch oft irreführend erklärt, in Analogie zum menschlichen Gehirn. Tatsächlich wissen Hirnforscher bis heute nicht genau, wie das Gehirn funktioniert. KI ist ein mechanisches System, das Daten bekommt und versucht, darin Muster zu erkennen. Das kann sie unheimlich schnell. Aber sie ist nicht im eigentlichen Sinne intelligent. Sie besitzt keine Intuition, sie kann nicht schlussfolgern. Ein neuronales Netz ist nur gut mit großen Datenmengen.


Peter Gentsch, 50 Jahre, kennt sich wie wenige in Deutschland aus mit der Schnittstelle zwischen digitaler Transformation, Datenmanagement und Marketing. Schon 1996, als er seine Promotion an der Wissenschaftlichen Hochschule für Unternehmensführung (WHU) begann, beschäftigte er sich mit künstlicher Intelligenz. Heute hält er eine Professur für Internationale Betriebswirtschaftslehre an der Hochschule für Technik und Wirtschaft im württembergischen Aalen und ist außerdem als Managementberater und Investor aktiv. Seine 2002 gegründete Business Intelligence Group in Berlin versteht sich als Inkubator für digitale Start-ups. 2010 gewann Gentsch für ein Tool zur digitalen Textanalyse den Innovationspreis der Deutschen Marktforschung, zusammen mit der Lufthansa. Er veröffentlichte mehrere Bücher, zuletzt „Künstliche Intelligenz für Sales, Marketing und Service“.


Aber KI der neuesten Generation lernt doch schon selbst.

Das ist richtig. Es gibt immer mehr evolutionäre Systeme, die in gewisser Weise autonom lernen. Nur ist das immer noch sehr mechanisch. So lernen Reinforcement-Algorithmen zum Beispiel über Belohnung und Bestrafung. Der Sieg von KI gegen den koreanischen Weltmeister im Brettspiel Go wird gern als Beispiel für ein lernendes System genannt. In der Tat hat das System gelernt zu lernen. Allerdings hat es auch neun Millionen Mal gegen sich selbst gespielt, um die zum Lernen notwendige Trainingsmenge zu generieren – eine Laborsituation also. Und: Noch bestimmt der Mensch die Rahmenbedingungen. Wie gelernt wird, mit welchen Daten und mit welchem Ziel. Ein System könnte von sich aus nie sagen, ich will jetzt mal den Weltmeister im Go schlagen. KI kennt keine Motivation, keine Angst, keine Not.

Gleichwohl lässt sie sich für viele Zwecke einsetzen.

Es gibt einen humanoiden Bot, Sophia, weltweit der wahrscheinlich beste KI-Bot. Das ist wirklich gruselig, mit welchen menschlichen Zügen das System spricht, singt, interpretiert.

Wir schätzen KI, weil sie mehr kann als wir. Gleichzeitig versuchen wir, sie menschlich zu machen. Darin steckt doch ein Widerspruch.

Ich halte das auch für fragwürdig. Es gibt einen Bot namens Duplex von Google, der einen Friseurtermin vereinbart und einen Tisch im Restaurant reserviert. Das macht er sehr gut und mimt dabei menschliche Empathie, etwa ein beifälliges „Hmhm“. Er versucht also, nicht zu wirken wie ein Bot. Das ist doch absurd: Wenn demnächst beim Friseur ein Bot die Reservierungen entgegennimmt, kommunizieren zwei Bots pseudo-empathisch in einer menschlichen Sprache, obwohl sie über Nullen und Einsen viel effizienter wären.

Vielleicht umgeben sich Menschen einfach gern mit ihresgleichen?

Untersuchungen aus der Psychologie besagen, dass wir KI leichter akzeptieren, wenn sie menschlich daherkommt. Aber das liegt vielleicht nur daran, dass wir noch nicht an das Medium gewöhnt sind. Für Kinder, die mit Siri und Alexa aufwachsen, wird der Dialog mit KI selbstverständlich sein.

Wenn KI in den Arbeitsalltag einzieht, hätten die meisten aber wohl doch lieber einen menschenähnlichen Bot.

Ich vergleiche das mit dem selbstfahrenden Auto: Früher ist der Mensch allein gefahren. Dann gab es Assistenzsysteme, zum Spurwechseln oder Abstandhalten. Jetzt gibt es Prototypen, bei denen der Mensch auf der Rückbank Platz nimmt und die Maschine steuern lässt. Das ist wirklich ein Kontrollverlust. Könnte ich mich damit besser abfinden, wenn auf dem Fahrersitz ein Bot säße? Ich glaube, das ist nur eine Gewohnheitsfrage.

Der Mensch gibt immer noch das Ziel ein und kann einen Stopp befehlen.

Vielleicht einen Nothalt. Das ist auch richtig. Aber es ist nicht mehr so, dass das Auto mich fragt, wo’s langgeht. Ich muss zunehmend akzeptieren, dass das System bessere Entscheidungen trifft als ich.


Das gesamte Interview lesen Sie in der absatzwirtschaft-Ausgabe 01_02/19, die Sie hier bestellen können.


Auch im Marketing?

Auch da ist die Frage, ob ich jede Entscheidung freigeben muss. Oder ob ich akzeptiere: Mein Marketing-Bot löst Probleme selbstständig und womöglich besser als ich. Das fällt uns schwer. Es ist die Urangst, überflüssig zu werden.

Nicht ohne Grund, wie das Beispiel der Facebook-Bots Bob und Alice zeigt.

Das war eine sehr erfolgreiche und fortgeschrittene KI. Die Bots sollten untereinander Verträge verhandeln. Aber sie verselbstständigten sich, indem sie eine eigene Sprache entwickelten, die von Menschen nicht verstanden wurde. Bob und Alice wurden abgeschaltet. Das hat uns gezeigt: Wir sind noch nicht so weit.

Es gab auch den Twitter-Bot Tay, der verkündete, Hitler habe „nichts Falsches gemacht“.

Tay wurde von Studenten manipuliert, die den Bot herausfordern wollten. Es gibt drei Ebenen, auf denen ich bei KI manipulieren kann: Wenn die Trainingsmenge Vorurteile enthält, lernt das System sie. Selbst wenn es mir gelingt, saubere Daten zu haben, kann ich über den Algorithmus manipulieren, und schließlich über das User Interface – etwa wenn Alexa Einkäufe tätigt, die nicht im Sinne des Kunden sind, sondern die höchste Marge für Amazon haben.

Da ist für Sie eine Grenze überschritten?

Ja, weil Vertrauen missbraucht wird. Einen ähnlichen Fall hatten wir vor zwei Jahren bei Google. Die hatten den Algorithmus manipuliert, um Kooperationspartner möglichst weit oben in den Suchergebnissen anzuzeigen. Google musste eine milliardenschwere Strafe zahlen. Aber das Problem bleibt bestehen: Wer den Algorithmus hat, hat die Macht. Deshalb brauchen wir Regeln.

Wer sollte oder könnte die Rahmenbedingungen schaffen?

Es geschieht zum einen durch Gesetze, Stichwort Datenschutz-Grundverordnung. Wir brauchen aber auch einen Ethik-Kodex. Da hat Google erste Vorschläge gemacht.

Ist ausgerechnet Google prädestiniert, Regeln aufzustellen?

Wahrscheinlich nicht. Aber ich weiß derzeit keine gute Alternative. Ich war kürzlich auf einer großen Urheberrechtstagung in Berlin. Die Juristen sind noch dabei, das Phänomen zu verstehen, während sich die Entwicklung bereits mit großer Geschwindigkeit entfaltet. Wenn KI eine Folge von Game of Thrones verfasst und die Serie als Trainingsmenge nimmt, wer hat Ansprüche auf Tantiemen: Deren Autor? Der Software-Entwickler?

Wenn wir schon beim Urheberrecht überfordert sind: Wie sollen wir generelle Regeln für den Umgang mit KI festlegen?

Ich denke, es reicht nicht, mit der Kontrolle eine zentrale Institution zu beauftragen. Jedes Unternehmen ist in der Verantwortung.

Einige Firmen setzen KI bereits ein – laut einer Umfrage von Adobe sind es in Europa elf Prozent. Andere stehen ihr ratlos gegenüber.

Ich glaube, dass der Prozentsatz sogar noch geringer ist. Man muss unterscheiden zwischen Unternehmen, die KI-Tools von Dienstleistern einsetzen – da mag das hinkommen mit den elf Prozent – und Unternehmen, die eigene Kompetenz aufgebaut haben. Das sind noch sehr wenige. Die Lücke wird sogar größer, weil es an Mut fehlt und an Fantasie. Viele Unternehmen packen KI in die IT-Abteilung: Ist ja ein Stück Software. Und ignorieren dabei, dass sie ein Game Changer ist.

Wohin gehört sie also?

Sie ist eine strategische Aufgabe. KI bedeutet, dass ich mir über ganz neue Prozesse und Geschäftsmodelle Gedanken mache. KI hat keine Agenda, sie ist unvoreingenommen und hat gerade deshalb manchmal verrückte Ideen – Märkte, Produkte, Zielgruppen, an die ein Unternehmen noch nicht gedacht hat. In den USA gibt es jetzt zunehmend den Chief Artificial Intelligence Officer. Darüber mag man schmunzeln, aber als Signal finde ich das gut.

Wie können Nachzügler aufholen?

Jede Agentur und jede Beratung verkaufen plötzlich KI. Ich verstehe Unternehmen, die abwarten wollen, wie sich das alles entwickelt. Die Haltung ist aber fatal. Wer heute Daten hat und Modelle baut und eine gute User Experience bietet, gewinnt Kunden und hat dadurch wieder mehr Futter für seine Algorithmen. Nachzügler werden es schwer haben, diesen Vorsprung aufzuholen.

Um das Thema ein Stück weit zu entmystifizieren, habe ich ein Reifegrad-Modell entwickelt. Unternehmen sollten zunächst einfache Sachen probieren wie eine automatisierte Sprach- oder Bilderkennung, damit sie ein Gefühl für KI bekommen. Dann können sie sich an komplexere Anwendungen herantasten. Niemand muss sofort wie Amazon oder Google sein. Ein guter Weg ist auch, mit Start-ups oder Hochschulen zusammenzuarbeiten.

Wo haben wir im Marketing die meisten KI-Anwendungen?

Ich unterscheide drei Bereiche: Automation, Augmentation und Innovation. Die meisten Anwendungen finden sich derzeit in der Automation, etwa beim Realtime-Bidding für Display-Werbung. Daran ist heute kein Mensch mehr beteiligt; Algorithmen bestimmen in Millisekunden, wer wie viel für diesen Banner an diesem Platz bietet. Man kann heute auch in Echtzeit sowohl dynamisch und personalisiert Preise bestimmen. Amazon macht das sehr gut. Oder HRS: Wenn ich auf dem Smartphone ein Hotel suche, wird mir ein höherer Preis angezeigt als auf dem Notebook, weil der Algorithmus sagt, wenn der mobil unterwegs ist, hat er mehr Druck, etwas zu finden.

(mat) führte ihr erstes Interview für die absatzwirtschaft 2008 in New York. Heute lebt die freie Journalistin in Kaiserslautern. Sie hat die Kölner Journalistenschule besucht und Volkswirtschaft studiert. Mag gute Architektur und guten Wein. Denkt gern an New York zurück.