Ranga Yogeshwar ist überzeugt: Der Umbruch durch Künstliche Intelligenz wird unterschätzt

Ranga Yogeshwar ist TV-Moderator, Wissenschaftsjournalist und ausgebildeter Teilchenphysiker. Er ist fasziniert von den Innovationen im Bereich künstliche Intelligenz, sieht aber auch, dass unsere Gesellschaft noch lange nicht in der Lage ist, damit verantwortungsvoll umzugehen. Ein Interview.
Ranga Yogeshwar (© Foto: Britta Pedersen/dpa-Zentralbild/dpa)

Herr Yogeshwar, haben Sie Angst vor dem, was sich in Sachen KI in naher Zukunft entwickelt?
Ranga Yogeshwar: Die KI verfügt nicht über Moral, sie ist weder gut noch böse. Wir entscheiden, ob wir sie für gute oder schlechte Zwecke einsetzen. Wir werden mit Fragen konfrontiert, die wir bisher nicht hatten. Zum Beispiel hat die KI in der Medizin ein enormes Potenzial, wirft aber die Frage auf: Wollen wir wissen, wann wir sterben? Das ist nicht gut oder böse, sondern hat mit ƒdatenwder Frage zu tun, zu welchem Grad wir uns der Maschine öffnen.

In der Medizin sind die Fragen ziemlich offensichtlich, aber betreffen sie auch das Alltagsleben?
Natürlich. Erinnern Sie sich an die Vorstellung von Google Duplex vergangenes Jahr? Da ging es um die banale Reservierung eines Friseurtermins. Darf ein Apparat uns so täuschen? Dürfen Maschinen ein menschliches „Hmmm“ aussprechen, oder sollten sie sich sofort als Maschine outen? Was, wenn intelligente Maschinen über die Kreditwürdigkeit eines Menschen entscheiden, ohne dass man dem Betroffenen im Falle einer Ablehnung konkrete Gründe nennen kann? Ist es akzeptabel, wenn ein Algorithmus einen Job-Bewerber anhand seiner Datenspuren im Internet aussortiert? Was tun, wenn ein Fotobuchhersteller durch Gesichtserkennung in der Lage ist, Menschen mit einem Alkoholproblem zu identifizieren? Darf er solche Informationen verarbeiten oder gar einer Versicherung melden?

Hier geht es um die Rolle des Menschen in einer Zukunft intelligenter Apparate: Wo verlaufen im Nebel des Neuen die roten Linien?


Das komplette Interview gibt es in Ausgabe 03/19, die Sie hier bestellen können


Sie hören sich sehr kritisch an. Aber die KI bringt auch viele positive Entwicklungen mit sich.
Natürlich, und das gilt für die gesamte Digitalisierung. Sie braucht zum Beispiel keine zentralen Institutionen. Banken, Katasteramt, Notar. Ich würde keine Wette darauf eingehen, dass wir in zehn Jahren noch Banken haben. Die Digitalisierung ermächtigt jeden von uns selbst. Und eine dezentrale Strukturierung – etwa mit den Mitteln der Blockchain – ist weniger anfällig gegen Manipulation.

Oder betrachten Sie die Medien: Da fand innerhalb von wenigen Jahren eine Umkehrung der Fließrichtung von Informationen statt. Heute tweetet einer, darüber berichtet die Zeitung und dann das Fernsehen. Aus Massenmedien sind die Medien der Massen geworden. Das hat das Potenzial, mehr Pluralismus in den Medien zu erzeugen. Gleichzeitig sind Fake News das Ergebnis.

Und natürlich kann die KI im Straßenverkehr Positives bewirken. Dort sterben 1,3 Millionen Menschen jedes Jahr. KI kann diese Zahl halbieren. Da geht es also um etwas Großes. Das sind mehr Menschen, als bisher im Syrien-Krieg gestorben sind.

Aber: Legitimiert die unbestrittene Leistungsfähigkeit der KI auch deren Einsatz im Alltag? Dürfen wir das fundamentale Prinzip der Kausalität – immerhin die Basis unserer aufgeklärten Gesellschaft – zugunsten eines scheinbar potenteren Korrelationsdenkens opfern?

Die KI stellt eine zentrale Frage neu: Was ist der Unterschied zwischen Mensch und Maschine? Das ist eine sehr spannende Frage, denn am Ende geht es darum, dass wir uns besser verstehen; es geht um die Setzung, was den Menschen ausmacht. 

Und dem widmen wir eine viel zu geringe Aufmerksamkeit?
Das Groteske ist, dass die Menschen nicht glauben, dass sich wirklich etwas ändert. Wir diskutieren die Leistungsfähigkeit der künstlichen Intelligenz am Beispiel des autonomen Fahrens. Dabei ist doch jetzt schon völlig klar, dass wir in den Megacitys keine Autos mehr brauchen. Und wir wollen auch keine. Wir denken, dass wir das, was da kommt, mit unserem bestehenden Instrumentarium bearbeiten können.

Nie zuvor in der Menschheitsgeschichte war der Mensch in der Lage, seine Gegenwart auf so direkte Weise selbst zu gestalten. Doch was sind unsere Ziele? Streben wir tatsächlich eine reibungslose, bequeme Gesellschaft an, die uns jeden Wunsch in kürzester Zeit erfüllt? Es liegt an uns und nicht an der Maschine oder an den Gesetzen des Marktes, eine Antwort zu finden. In Deutschland gibt es eine gewisse hochnäsige Überheblichkeit. Man feiert die alten Erfolge und verkennt den Wandel. Alles soll am liebsten so bleiben, wie es war, doch diese Haltung ist fahrlässig.

Wie dramatisch ist das aus Ihrer Sicht?
Machine-Learning ist heute im wesentlichen Korrelationsdenken. Dazu braucht man eine Menge Daten, um dann per Algorithmus bestimmte Korrelationen zu erkennen. Auf dieser Grundlage werden dann weitreichende Ergebnisse eingeordnet, wie etwa: guter Tumor, schlechter Tumor. Doch es fehlt dabei das Verständnis der kausalen Zusammenhänge. Manchmal entstehen Artefakte: Bei der Analyse von Röntgenbildern stellte sich zum Beispiel heraus, dass die Helligkeit des jeweiligen Röntgensystems eine Rolle spielte: Die Kriterien der Zuordnung durch die Maschine – also guter Tumor, schlechter Tumor – entschieden sich, wie man erst im Nachhinein erkannte, nach der Helligkeit des jeweiligen Bildes. Bei den Trainingsdaten hatte man dies übersehen, und im Zuge des Machine-Learnings gab dieses Kriterium den Ausschlag. Dieses Bias ist nur ein Problem. In vielen Bereichen versagt die KI, wenn sie mit Situationen konfrontiert wird, die nicht in den Trainingsdaten vorkommen. Der Apparat weiß eben nicht, was ein Tumor ist.

Wäre das beim Menschen nicht genauso?
Nein, und genau das ist der wichtige Unterschied. Der Mensch guckt nach dem Tumor und kann die Varianz bei der Bildhelligkeit ausblenden. Zudem hat der Arzt ein wesentlich genaueres Verständnis davon, was einen Tumor ausmacht. Diese Kausalität fehlt den Maschinen. Bei der Erkennung von Bildern von Pferden orientierte sich ein selbstlernender Algorithmus nicht am Bild, sondern am Copyright-Vermerk. Bei der Erkennung von Menschen definierte ein anderer Algorithmus Falten im Stoff als Erkennungsmerkmal. Das sind die Fallen, in die wir reintappen können. 

Aber noch einmal die Frage: Wenn ich nur die Qualität des Ergebnisses messe und sie mit einem menschlichen Diagnostiker vergleiche, ist die Maschine vielleicht noch nicht perfekt, aber doch auf dem richtigen Weg?
Ja, sie ist besser, aber bei einem begrenzten Datensatz und einem eng konturierten Möglichkeitsraum. Gerade in der Medizin ist es doch wichtig, die individuellen Einflussfaktoren zu kennen. Nur dann kann ich das Ergebnis einer Diagnose auch korrekt einordnen. Wir brauchen ein Gesamtverständnis. Zudem hat der Arzt ein völlig anderes Selbstverständnis zum Beispiel in seiner Sorge um einen Patienten. Software-Entwickler schauen hingegen momentan lediglich auf Datenmuster, doch die reichen eben nicht aus.   

In Bereichen wie der Gefühlserkennung funktioniert die KI aus Ihrer Sicht noch nicht richtig gut. Was fehlt?
Auch da geht es um die Frage: Wie gut sind die Trainingsdaten? Wir wissen doch, dass ein Italiener seine Emotionen ganz anders ausdrückt als ein Japaner. Das ist viel komplexer als die mathematisch eher simple Art des Korrelationsdenkens. Aktuell scheitern die Systeme selbst an elementaren Zuordnungen. Wenn Algorithmen auf Bildern Mann und Frau unterscheiden, dann irren sie zum Beispiel bei dunkelhäutigen Personen. Manche Systeme liegen dann bei jedem fünften Bild daneben! Wir sollten eine prinzipielle Sache begreifen: Leben ist mehr als eine Datenwolke.

Sie prangern an, dass oft Produkte mit Halbwissen auf den Markt gebracht werden. Braucht es eine Art Zulassungsbehörde für KI?
Die medizinische Zulassung ist sehr komplex. Firmen müssen zum Beispiel beweisen, dass ein Medikament besser ist als ein Placebo. Für Algorithmen haben wir solche Prüfkriterien noch nicht. Auch die jeweilige Anwendung ist entscheidend: Wenn bei zielgerichtet ausgespielter Werbung der Algorithmus eine Trefferquote von 90 Prozent hat gegenüber früher 70 Prozent, dann ist der Fehler vielleicht akzeptabel. In der Medizin oder im Straßenverkehr wären solche Fehlerquoten jedoch zu hoch.

Werbung ist also ein eher harmloses Einsatzfeld?
Na ja. Werbung ist Manipulation, und die Erkenntnisse, die die Werbung gewinnt, können in anderen Bereichen angewendet werden, wo es alles andere als harmlos ist, zum Beispiel bei Wahlen. Das sind ja die gleichen Wirkungsmechanismen. Auf Plattformen wie Facebook treffen diese beiden Felder aufeinander, und die großen Player verfügen gleichzeitig über enorm viele Daten. Die Frage einer -Manipulation durch die selektive Einspeisung von Daten ist brisant, denn hier geht es um den freien Willen des Menschen. Manchmal werden wir sogar überrascht: Soziale Netzwerke waren zunächst ethisch unproblematisch, doch inzwischen begreifen wir, dass sie zumindest in der jetzigen Ausführung ein Potenzial der Destabilisierung darstellen. Um eines klarzustellen: Der Fortschritt gibt uns großartige Chancen, doch wir sollten ihn sehr viel genauer in seinem Wirkungskontext begreifen.


Ranga Yogeshwar

Ranga Yogeshwar ist diplomierter Physiker und arbeitet als Wissenschaftsredakteur, Fernsehjournalist und Moderator. Die meisten kennen ihn von seiner Kurzsendung „Wissen vor acht“, in der er versucht, einen komplizierten Zusammenhang in 145 Sekunden verständlich zu erklären.