RSS-Feed

„Wahrheitsmotoren“ gegen Fake News

Fachbeitrag und Interview mit dem Dokumentarfilmer Friedrich Moser („How to Build a Truth Engine“, 2024).

Der US-Wahlkampf ist vorbei. Die Bundestagswahl steht bevor. Damit beginnt auch hierzulande wieder die Hochsaison für Fake News und Verschwörungserzählungen. Der Wiener Journalist und Filmemacher Friedrich Moser hat sich fünf Jahre lang mit den Mechanismen, der Entstehung und der Verbreitung von Fake News beschäftigt. Für seinen Film „How to Build a Truth Engine (2024)“ hat er journalistische Strategien und Werkzeuge, „Wahrheitsmotoren“, die diesen entgegenwirken, recherchiert. Im Fachjournalist lesen Sie einen Einstieg ins Thema und ein Interview mit dem Filmemacher.

Pünktlich zum Start des kurzen heißen Bundestagswahlkampfs  fahren die Parteien in Deutschland ihre Kommunikation hoch, vor allem in den sozialen Medien. Die Timelines bei TikTok, Instagram, Facebook und vor allem bei X füllen sich jetzt mit Meinungen, Meldungen, Kommentaren und Links, um die Wähler:innen zu aktivieren.

Viele Posts stammen allerdings von suspekten Protagonist:innen, die im Auftrag autoritärer Regierungen, rechter Verschwörungsnetzwerke oder kommerzieller Agenturen wie Cambridge Analytica unterwegs sind.

Wie Falschmeldungen entstehen und in Umlauf gebracht werden, haben wir beim US-Wahlkampf 2016 und 2024 und zuletzt unter anderem bei der sogenannten Doppelgänger-Kampagne verfolgen können. Bei diesem großangelegten Manipulationsprojekt führen Fake Accounts die Leser:innen über Links vermeintlich auf die Sites bekannter und seriöser Medienmarken. Allerdings sind dies mit Falschmeldungen präparierte Doppelgänger-Seiten.

Für Journalist:innen sind das herausfordernde Zeiten. Sie müssen seriöse, faktenbasierte Berichterstattung liefern und gleichzeitig gefälschte manipulative Meldungen enttarnen. Große Medienhäuser wie ARD, ZDF oder dpa haben dazu eigene Faktencheck-Abteilungen eingerichtet. Freie Journalist:innen können Serviceangebote staatlicher Stellen, wie die der Bundeszentrale für politische Bildung (bpb) oder NGOs wie Hoaxmap und Correctiv.Faktencheck nutzen.

Ursprung und Funktionsweise von Fake News: ein Film als Forschungsprojekt

Warum aber funktionieren Fake News und Verschwörungsnarrative nach wie vor und immer wieder? Warum lassen sie sich so einfach (re-)produzieren und so schnell und effizient verbreiten? Warum setzen sie sich bei vielen Menschen fest, verdichten sich zu Weltbildern und immunisieren gegen reale Fakten?

Antworten auf diese Fragen hat auch der österreichische Journalist und Filmemacher Friedrich Moser gesucht. Für seinen Film „How to Build a Truth Engine“ hat er fünf Jahre lang weltweit in Redaktionen, an Universitäten und bei NGOs recherchiert. Journalist:innen, Computerexpert:innen, Neuro- und Sprachwissenschaftler:innen haben ihm aus ihren Forschungen und von ihrer Arbeit berichtet.

Sie schildern im Film, warum Menschen die Veranlagung haben, besonders alarmierende (Falsch-)Meldungen ungeprüft zu übernehmen und in ihr Weltbild einzubeziehen. Warum sich bestimmte Bevölkerungsgruppen schnell als Outsider diskriminieren und im Extremfall zum Ziel gewalttätiger Kampagnen machen lassen.

Moser hat aber auch Menschen gefunden, die in ihrer redaktionellen und wissenschaftlichen Praxis Strategien und Werkzeuge entwickeln, um Fake News zu enttarnen und gegen sie anzuarbeiten.

Alarmsignale und Hoffnungszeichen

Moser stellt in „How to Build a Truth Engine“ unter anderem die Arbeit der Kolleg:innen von der Visual Investigations-Abteilung der New York Times vor, die maßgeblich zur Aufklärung des russischen Butscha-Massakers beigetragen haben. Er besucht das Journalist:innen-Netzwerk ICIJ, das die Geldwäsche internationaler Großbanken enthüllt. Mosers fast zweistündige filmische Reise führt uns dabei von Wien, wo er den Investigativ-Journalisten Michael Nikbakhsh trifft, bis zu den kalifornischen Universitäten in Los Angeles und Berkeley, wo er bekannte Hirn- und Computerforscher:innen interviewt.

Neben dem niederschmetternden Befund, dass die Urheber:innen von Fake News und ihre Plattformen weltweit auf dem Vormarsch und der faktenbasierte Journalismus auf dem Rückzug ist, findet Moser dabei aber auch viele ermutigende Entwicklungen.

So zeigt er Computerwissenschaftler:innen in LA und Berkeley bei ihrer Arbeit an der Software Story Miner, die im Netz Verschwörungstheorien und ihre Protagonist:innen aufspüren kann. Er besucht die Social-Media-Monitoring-Agentur Storyful, die, ähnlich wie die großen Presseagenturen, Redaktionen mit geprüften Nachrichten aus den sozialen Netzwerken versorgt.

Mit der Journalistin und Menschenrechtsaktivistin Susan Benesch, Leiterin des Dangerous Speech-Projekts, steigt Moser zum Interview auf den Berliner Teufelsberg, wo die Reste einer alten US-amerikanischen Abhörstation stehen.

Im folgenden Interview berichtet Friedrich Moser von seinen Recherchen, seinen Erkenntnissen über die Entstehung und Verbreitung von Fake News und die konstruktiven journalistischen Lösungsansätzen, die er dabei kennengelernt hat.

„Wenn wir falsche Informationen bekommen, kommen wir zu falschen Mustern und zu falschen Entscheidungen“

Friedrich Moser, geb 1969, lebt und arbeitet als Dokumentarfilm-Regisseur und Produzent in Wien. 1997 Uni-Abschluss in Zeitgeschichte („Populismus bei Karl Lueger“), 1998-2000 TV-Journalist in Südtirol. Seit 2001 Dokumentarfilmer, seit 2008 zu internationalen Themen an der Schnittstelle von Wissenschaft, Technologie, Politik und Gesellschaft. Die Filme des Österreichers laufen weltweit auf Festivals, auf Streamern wie Netflix, Prime und Apple+, und/oder haben TV-Ausstrahlungen quer durch Europa, meist mit ARTE als Hauptsender. Foto: Friedrich Moser Film GmbH.

Herr Moser, für Ihren Film „How to Build a Truth Engine“ haben Sie fünf Jahre lang weltweit nach den Mechanismen von Fake News und Verschwörungserzählungen recherchiert. In den USA sind die Wahlen vorbei, in Deutschland stehen sie unmittelbar bevor. Wie entscheidend sind Fake News für den Ausgang von Wahlen?

Die US-Wahlen werden noch analysiert, ein klares Bild wird sich also erst später zeigen. Aber natürlich hatten die sozialen Plattformen, besonders X / Twitter, einen großen Einfluss auf das Abstimmungsverhalten. Gerade gab es die Meldung, dass 87 nachweisliche Fake News, die Elon Musk zwischen Januar und dem Wahltag auf X gepostet hatte, insgesamt 2 Milliarden Mal gelikt wurden.

Die Reichweite einzelner Akteure in den sozialen Medien übersteigt also inzwischen die Reichweite traditioneller Medien um ein Vielfaches. Sie konstruieren Parallelwelten in den Köpfen ihrer Follower und fühlen sich weder dem Berufsethos noch den Regeln seriöser Berichterstattung verpflichtet.

Es gibt ein interessantes Statement des European Digital Media Observatory (EDMO) zur Wirkung von Fake News auf die Wahlen. Die EDMO betont darin die Wirkung der „daily pollution“, also der langfristigen, täglichen Vergiftung unseres Informationsraums durch gezielte Desinformation, unabhängig von temporären Ereignissen wie Wahlen.

Was erwarten Sie diesbezüglich für die Bundestagswahl im Februar?

Auch hier ist wieder eine starke Beeinflussung durch soziale Medien zu erwarten. Die Landtagswahlen im Osten Deutschlands haben ja erneut gezeigt, dass sich besonders Jungwähler kaum noch durch traditionelle Medien und fast ausschließlich online, über Social Media, informieren.

Diese Plattformen unterliegen aber keiner Kontrolle durch Organe der EU oder Deutschlands. Sie werden aus dem Ausland gesteuert – TikTok durch China, X aus den USA und durch Musk, Instagram, Facebook und Threads aus den USA und durch Zuckerberg. Wegen der großen Wirkung und Reichweite dieser außereuropäischen Angebote müssen sich die Europäer dringend um Informationssouveränität kümmern. Autoritäre Regime oder Charaktere könnten die Systeme jederzeit übernehmen. Musk kontrolliert ja bereits X und sein Satellitenkommunikationssystem Starlink hat der Ukraine zwar geholfen, ist aber potenziell ebenfalls eine große Gefahr für die zukünftige Informationssouveränität.

Wie funktioniert die Beeinflussung durch Fake News genau? Welche Erkenntnisse haben Sie während Ihrer Arbeit an „Truth Engine“ gewonnen?

Vorab: Mein Film folgt vier Strängen. Diese sind der gerade stattfindende Informationskrieg, die Arbeit investigativer Journalisten, die Entwicklung neuer Software, die uns helfen kann, mit den riesigen Datenmengen und der hohen Datengeschwindigkeit zurechtzukommen, und die Erkenntnisse, die die Hirnforschung zum Thema Fake News beisteuern kann.

 

Die Hirnforscher im Film sagen, dass wir Menschen als Spezies auch deshalb so erfolgreich sind, weil wir Shortcuts, also neurologische Abkürzungen, nehmen können. Wir können von Informationen sehr schnell zu Mustererkennungen und von da aus zu Entscheidungen gelangen.

Wenn wir aber falsche oder nur sehr eng begrenzte Informationen bekommen – und genau das bewirken Echokammern und Filterblasen in den sozialen Medien –, dann kommen wir zu falschen Mustern und zu falschen Entscheidungen. Man kann auf diesem Weg sozusagen „unser Denken hacken“.

Sie haben bei den Recherchen zu Ihrem Film journalistische Arbeitsweisen, neue IT-Entwicklungen und Erkenntnisse aus der Hirnforschung gleichermaßen einbezogen. Was empfehlen Sie Journalist:innen auf der Basis Ihrer Erfahrungen? Wie können sie Fake News besser begegnen?

Der klassische Journalismus muss technische Neuerungen viel intensiver nutzen. Etwa wie das International Concortium of Investigative Journalists (ICIJ), ein internationales Recherchenetzwerk, das in meinem Film auftritt und durch die Panama Papers bekannt wurde. Das Team aus 30 bis 40 Menschen besteht zu einem Drittel aus klassischen Journalisten, zu einem Drittel aus Data Scientists und zu einem Drittel aus IT-Entwicklern – wahrscheinlich müsste ein Newsroom der Zukunft genauso aussehen.

Auch für neue Formen der Distribution journalistischer Inhalte kann ich ein Beispiel anführen. Für arte und den rbb habe ich den Dokumentarfilm Flash Wars – KI im Krieg produziert. Darin geht es um autonome, durch KI gesteuerte Waffensysteme. Ein komplexer Film. Statt auf einen linearen Sendeplatz bei arte zu warten, haben wir den Film früh und online first in die Mediathek und auf die YouTube-Kanäle von arte in Deutschland und Frankreich gesetzt. Nach einem Jahr hatte er bereits mehr als 5 Millionen Views. Trotzdem hat die Reichweite der späteren linearen TV-Ausstrahlung nicht unter der Online-first-Strategie gelitten und war komplett im Plan.

Das zeigt mir, dass man auf verschiedenen Kanälen verschiedene Zielgruppen erreichen kann und man sich auch nicht vor Langformen fürchten sollte. Man muss nicht alles auf TiKTok-Formate reduzieren. Bei der Distribution geht es jetzt vor allem darum, Communities aufzubauen.

So ist das rechte Verschwörungsnetzwerk QAnon mit seinen Verschwörungsnarrativen auch deshalb so erfolgreich, weil es die Mechanismen eines Live Action Role Plays nutzt. Man wird als Follower selbst zum Detektiv, hilft dabei, das Narrativ zu formulieren, schreibt selbst an der Geschichte mit. Das ist natürlich viel attraktiver als lediglich passiver Rezipient zu sein, wie bei den klassischen Medien.

Deshalb ist es wichtig, dass Medien User-Communities aufbauen, die einen emotionalen Mehrwert schaffen – der Tageszeitung Der Standard in Österreich ist das zum Beispiel gelungen.

Sie fanden bei Ihrer Arbeit an „Truth Engine“ weitere ermutigende Beispiele für Tools und Strategien, mit denen sich Fake News und ihre Verursacher:innen finden und enttarnen lassen. Zum Beispiel die Software StoryMiner. Was macht dieses Programm?

Dazu muss ich etwas ausholen. Ich hatte bereits 2017 für arte den Dokumentarfilm Terrorjagd im Netz gemacht. Darin geht es um IT-Experten, die eine Software zur Überwachung der Online-Aktivitäten des Islamischen Staat (IS) entwickelt hatten. Einer der Protagonisten begann dann 2018 damit, eine Software zu entwickeln, um automatisiert im Netz Fake News entdecken zu können.

Auf Anregung meiner Filmförderanstalt habe ich das eher „nerdige“ Software-Thema mit dem Thema Investigativjournalismus verbunden. Das hat zu „Truth Engine“ geführt. Mein Protagonist, der Wiener Software-Entwickler, ist dann leider unerwartet früh verstorben. Bei der Suche nach einer neuen Software-Story für den Film bin ich auf das StoryMiner-Team in Kalifornien gestoßen.

Vwani Roychowdhury, Professor für Computerwissenschaften an der University of California in Los Angeles (UCLA), und Tim Tangherlini, Professor für Skandinavistik an der UC Berkeley, der seit den frühen 1990er-Jahren computergestützt riesige Folklore-Sammlungen auswertet, haben in ihrem Labor die Software StoryMiner entwickelt. Sie kann unter anderem automatisiert Verschwörungstheorien in sozialen Netzwerken ausfindig machen. Das gelingt ihr, indem sie analysiert, wie in Geschichten Akteure, Orte, Themen und Geschehnisse zueinander in Beziehung stehen, und dies grafisch darstellt.

Die Software StoryMiner spürt Verschwörungstheorien in sozialen Netzwerken auf und identifiziert Narrative mit bestimmten Mustern. Entwickelt wurde der Algorithmus von Vwani Roychowdhury, Professor für Computerwissenschaften an der University of California in Los Angeles (UCLA), und Tim Tangherlini, Professor für Skandinavistik an der UC Berkeley. © Friedrich Moser Film GmbH.

Bei natürlich gewachsenen Geschichten gibt es zwischen allen Akteuren vielfache Verbindungen untereinander. Bei Verschwörungstheorien dagegen sieht man in der grafischen Darstellung, dass zwar einzelne Cluster dieser Erzählung in sich eng verwoben sind, aber nicht die gesamte Erzählung. Die entsteht durch äußerst schwache Verbindungen zwischen den Erzähl-Clustern.

Diese schwachen Verbindungen kann der StoryMiner-Algorithmus finden. StoryMiner ist also eine Art Sortiermaschine. Für Journalisten kann sie solche Narrative vorsortieren und kennzeichnen, die Muster einer Verschwörungserzählung aufweisen.

Professor Roychowdhury hat mich aber auch darauf hingewiesen, dass ich unbedingt auch mit Neurowissenschaftlern sprechen sollte. Er selbst arbeitet mit denen zusammen, um ein vollständigeres Bild zu bekommen. Er sagte mir: „Alles Fact Checking der Welt wird Leute, die an Verschwörungstheorien glauben, nicht in die Realität zurückbringen können.“

Wie unterstützt die Social Media Monitoring Agentur Storyful, die sie ebenfalls im Film vorstellen, den Kampf gegen Fake News?

Die Nachrichten-Agentur Storyful wurde vom irischen Fernsehjournalisten Mark Little gegründet. Auslöser war die „grüne Revolution“, ein Aufstand gegen die Mullahs im Iran, im Jahr 2009. Little realisierte damals, dass er über Twitter wesentlich schneller an relevante Informationen kam als über die klassischen Nachrichtenagenturen.

Mit Storyful entwickelte er eine Nachrichtenagentur, die auf Inhalte im Netz zugreifen und diese über bestimmte Protokolle auch verifizieren kann, zum Beispiel wo und wann ein bestimmtes Video oder Bild aufgenommen wurde.

Storyful wird mittlerweile weltweit von vielen Redaktionen als Nachrichtenagentur genutzt, auch vom Visual Investigations-Team der New York Times.

Fallen Ihnen weitere Tools ein, die Journalist:innen einsetzen können, um Fake News zu entlarven?

Journalisten bauen in den USA gerade eine Library of Lies, eine „Bibliothek der Lügen“ auf. Dort sammeln sie die bekanntesten Verschwörungserzählungen. So lässt sich schnell überprüfen, ob man möglicherweise gerade einer solchen folgt.

Neben dem Debunking, also dem Entlarven von Falschmeldungen, gewinnt aber zunehmend auch das sogenannte Pre-Bunking von Informationen an Bedeutung. Dabei werden zum Beispiel neu veröffentlichte wissenschaftliche Erkenntnisse gleich mit einem Warnhinweis versehen, im Hinblick auf ihre mögliche Fälschung und die dann voraussichtlich genutzten Fake-Argumente. Ein Team an der Universität von Cambridge beschäftigt sich gerade mit einer Studie zu diesem Thema.

Das Wichtigste ist nach meiner Ansicht aber die Vermittlung von Media Literacy, also von Medienkompetenz, auch an Erwachsene.

Wie arbeitet das Dangerous Speech Project, das in Ihrem Film vorgestellt wird?

Gegründet wurde das Projekt von Susan Benesch, die lange als Journalistin in Latein- und Südamerika gearbeitet hatte. Frustriert vom fehlenden Impact ihrer Berichterstattung über die Krisen dort, sattelte sie an der Universität Yale auf Menschenrechtsanwältin um.

Ihr erstes Praktikum machte sie beim Kriegsverbrechertribunal gegen den Serbenführer Karadzic in Den Haag, wo sehr schnell die Frage auftauchte: Wie kann man jemanden juristisch für Kriegsverbrechen zur Verantwortung ziehen, wenn er persönlich niemanden ermordet, aber Tausende Menschen dazu aufgehetzt hat?

Aus diesen Erfahrungen heraus hat sie das Konzept der „gefährlichen Sprache“ entwickelt. Diese beginnt mit verbaler Ausgrenzung und kann über Dehumanisierung und weitere Steigerungsstufen bis zum Genozid an Bevölkerungsgruppen führen. Mit ihrer Agentur, dem Dangerous Speech Project berät sie Unternehmen und NGOs bei dem Thema.

Entwickelte das Konzept der „Dangerous Speech“: Die Menschenrechtsanwältin Susan Benesch berät mit ihrer Agentur Dangerous Speech Project u. a. NGOs zum Thema und bildet Personen in der Content Moderation aus.  Bild: Friedrich Moser Film GmbH.

Benesch saß zum Beispiel im Beirat des Streaminganbieters Spotify. Sie hat auch Personen ausgebildet, die bei Facebook, Twitter und anderen Plattformen in Beiräten für Content Moderation bzw. Trust & Safety dabei waren.

Das Dangerous Speech Project habe ich auch im Film, weil ich glaube, dass Journalismus, Sprachanalyse, Sprachbilder und Hirnforschung in ihrer Wirkung zusammengehören.

Sie zeigen in „Truth Engine“, wie der traditionelle, demokratischen Werten verpflichtete, mit Regeln und Berufsethos ausgestattete Journalismus immer weiter unter Druck gerät. Man sieht, wie ihn eine „neue Medienrealität“ abzulösen droht. Gleichzeitig zeigen Sie aber auch viele ermutigende Ansätze. Wie könnte die Zukunft des Journalismus aussehen?

Journalismus sollte zukünftig stärker das Kuratieren von Informationen übernehmen und die Menschen stärker einbeziehen. Ein Beispiel: Bei der österreichischen Tageszeitung Der Standard gibt es online einen Liveticker, einen Newsticker, bei dem die Leser:innen mitreden und im Forum selbst auch eigene Nachrichten teilen können. Die News sind schnell wie früher auf Twitter, aber von der Redaktion auf Fakten gecheckt, bevor sie online gehen.

Außerdem muss Journalismus intensiver forensisch, also an der wissenschaftlichen Verifikation von Informationen, arbeiten. Bei der Verifizierung von Informationen können Satellitenbilder, Fotos, Handyaufnahmen, abgefangene Telefongespräche, Social-Media-Profile, Material aus Überwachungskameras und Interviews genutzt werden.

Nicht jede Redaktion kann auf dieser Ebene mitspielen. Es spielt ja auch nicht jeder Fußball-Club in der Champions League. Aber die neuen Technologien werden immer günstiger und verfügbarer werden. Deshalb stellen sie ein Empowerment für den einzelnen Journalisten und die einzelne Journalistin dar. Sie helfen ihnen, Fakten und Fiktionen auseinanderzuhalten, sich bei ihrer Arbeit auf reale Ereignisse zu konzentrieren und dadurch gezielter recherchieren zu können. Dasselbe gilt übrigens für die KI. Das Durchdringen zur zugrunde liegenden Wahrheit von Ereignissen wird immer relevant sein. Im weißen Rauschen unseres (Des-) Informationszeitalter sogar noch mehr.

Friedrich Mosers Dokumentarfilm „How to Build a Truth Engine“ (Executive Producer: George Clooney & Grant Heslov) läuft ab 12. Dezember 2024 in österreichischen Kinos. Der Vertrieb weltweit wird derzeit verhandelt.

Das Gespräch führte Gunter Becker. 

Titelillustration: Esther Schaarhüls.

Das Magazin Fachjournalist ist eine Publikation des Deutschen Fachjournalisten-Verbands (DFJV).

Schreiben Sie einen Kommentar (bitte beachten Sie hierbei unsere Netiquette)