Sprachforscher wollen Wahrheitsgehalt von Informationen im Netz sichtbar machen

„Das Wahrzeichen Londons, das London Eye, brennt.“ Ein Satz wie dieser verbreitet sich über Facebook, Twitter und Co. explosionsartig. Wäre er eine Falschmeldung, gäbe es unberechenbare Folgen. Die Frage der Vertrauenswürdigkeit von Informationen im Netz stellt sich daher immer dringlicher. Aber wie misst man sehr schnell den Wahrheitsgehalt von Online-Informationen? Wie das Nachrichtenportal „Innovations-Report“ berichtet, arbeitet der Sprachtechnologe Thierry Declerck an Antworten auf diese Frage – gemeinsam mit internationalen Forschungspartnern.

Ist eine Information im Internet vertrauenswürdig? Damit diese Frage künftig beantwortet werden kann, kooperiert Declerck im Rahmen des auf drei Jahre angelegten Projekts „Pheme“ mit Wissenschaftlern verschiedener Fachdisziplinen aus England, Österreich, der Schweiz, Bulgarien, Spanien und Kenia. Ziel der Forscher ist es, ein automatisches Analyseverfahren zu entwickeln, das dem Internetnutzer schnell und verlässlich mitteilt, ob er einer gefundenen Information trauen kann oder eher nicht. Die Ergebnisse werden in zwei Fallstudien getestet, diese zielen auf medizinische Informationssysteme und digitalen Journalismus ab.

Vier Arten problematischer Information

Die Wissenschaftler arbeiten an einer robusten Methode, die jeweils zuverlässig angibt, wie vertrauenswürdig eine Information ist. „Wir konzentrieren uns dabei auf vier Arten problematischer Informationen: die Spekulation, die kontroverse Diskussion, die Fehlinformation und die gezielte Verbreitung falscher oder irreführender Tatsachen“, erklärt Declerck.

Eine der größten Herausforderungen hierbei ist die Datenflut. „Mehrere tausend Textnachrichten werden jede Sekunde neu eingestellt. Daher wenden wir Methoden an, um große Datenmengen zu verarbeiten, so genannte Big Data-Analysen“, sagt Declerck, der in der Computerlinguistik der Saar-Universität am Lehrstuhl von Professor Hans Uszkoreit und am Deutschen Forschungszentrum für Künstliche Intelligenz forscht. „Wir verbinden statistische Methoden mit präzisen sprachwissenschaftlichen Analysen. Die Lösung liegt in der Kombination der verschiedenen Verfahren. Im Projekt arbeiten hierzu Wissenschaftler unterschiedlicher Ausrichtung zusammen“, erläutert der Forscher.

Aus der Datenflut Trends herausfischen

Computerlinguistische Sprachanalysen werden verknüpft mit Informationen aus sozialen Netzwerken, Inhalte werden mit zuverlässigen Datenbanken abgeglichen, statistisch geprüft und mittels Grafiken ausgewertet. Die Aussage wird gleichsam durch verschiedenste Filter geschickt; am Ende steht eine bestimmte Wahrscheinlichkeit, die für oder gegen die Wahrheit spricht.

Declercks Aufgabe im Projekt ist die Sprachtechnologie. Er baut dabei auf Vorarbeiten im EU-Projekt „TrendMiner“ auf: „Wir haben Methoden entwickelt, die es möglich machen, aus der Datenflut Themen und Trends herauszufischen, die im Internet aktuell diskutiert werden. So lassen sich etwa Stimmungen erkennen.“ Mit Hilfe eines komplexen Systems aus Sprachverarbeitungs-Modulen will der Forscher jetzt die Informationen weiter auswerten, sie von ihrer Bedeutung und von Besonderheiten im Satzbau her erfassen.

Schlüsselwörter sollen automatisch erkannt werden

„Zum Beispiel wollen wir Satzstrukturen, die Zweifel am Wahrheitsgehalt einer Aussage ausdrücken, sowie bestimmte Schlüsselwörter wie ‚scheinbar‘ oder ‚nicht‘ automatisch erkennen“, sagt Declerck. Im Ausgangsbeispiel mit dem London Eye würde das System die Häufung von Zweifeln wie „Stahl brennt doch gar nicht“ oder „Ich bin am London Eye, hier brennt nichts“ in seine Wahrheits-Analyse einbeziehen. Hierzu entwickelt Declerck derzeit mathematische Algorithmen: In Zahlen übersetzt, lassen sich Muster und Strukturen erkennen – die Informationen werden berechenbar.

Besonderer Knackpunkt für die Forscher wird die Unbeständigkeit der Wahrheit in unserer realen Welt sein. Was heute wahr ist, kann morgen schon falsch sein: „Der Faktor Zeit spielt eine große Rolle. Zum Beispiel ist eine Aussage der Form ‚X ist Präsident des Landes Y‘ nur so lange wahr, wie der genannte Präsident auch tatsächlich amtiert. Unser System muss sich also ständig anpassen können“, erklärt Declerck. Daher verknüpft er die zu überprüfenden Informationen mit den entsprechenden Daten in zuverlässigen Quellen, zum Beispiel Online-Nachschlagewerken wie DBpedia.

„Hinter den Texten solcher Datenbanken liegen verschlüsselte, maschinenlesbare Informationen. Wir nutzen diese derzeit sozusagen als Spielwiese, um Gesetzmäßigkeiten zu finden und neue leistungsfähige Algorithmen zu entwickeln“, fasst der Sprachtechnologe die Arbeit am Projekt zusammen.

Die EU fördert das Projekt „Pheme“ als „Specific Targeted Research Project“. Partner im Projekt sind in England die University of Sheffield, das Kings College London sowie die University of Warwick, in Österreich die Modul Universität Wien, in der Schweiz swissinfo.ch, in Bulgarien Ontotext, in Spanien Atos Spain SAU, in Kenia Ushahidi und in Deutschland die Universität des Saarlandes.