RSS-Feed

„Die Coronakrise dominiert den Arbeitsalltag aller Datenteams“

Ein Interview mit Datenjournalist Marcel Pauly, Teamleiter von SPIEGEL Data, über Datenjournalismus in Zeiten von Corona.

Ist die Coronakrise – obwohl das jetzt zynisch klingt – die Sternstunde des Datenjournalismus? Werden Datenjournalisten zukünftig eine noch größere Rolle in den Medienhäusern spielen?

Die Coronakrise dominiert jedenfalls den Arbeitsalltag aller Datenteams. Das ist auch deshalb bemerkenswert, weil die Teams in den verschiedenen Häusern ganz unterschiedlich aufgestellt sind. Manche arbeiten sowieso häufig tagesaktuell, andere sitzen nahezu ausschließlich an Langfrist-Projekten. Aber selbst diese Teams haben jetzt ihre klassische Arbeitsstruktur aufgebrochen.

Beim SPIEGEL sind die zuvor getrennten Redaktionen von Heft und Online im vergangenen Jahr fusioniert. Unser Team kommt historisch aus dem Online-Teil der Redaktion und hat schon immer, wenn es die Nachrichtenlage erforderte, tagesaktuell gearbeitet, auch wenn unser Fokus auf mittel- und längerfristigen Projekten liegt.

Seit zwei Wochen arbeiten wir praktisch nur noch am Thema Corona. Rein quantitativ hat sich unser Output vervielfacht. Alle anderen Projekt sind auf hold.

Wie wird man zum Datenjournalisten? Ist Datenjournalismus mittlerweile Teil der Journalistenausbildung?

Wie generell im Journalismus gibt es weder den einen Weg, Journalist zu werden, noch den einen Weg, Datenjournalist zu werden. Dabei gibt es hierzulande sogar bereits ganze Studiengänge: An der Technischen Universität Dortmund etwa kann man den Master Datenjournalismus machen.

Die Regel in Deutschland sind aber klassisch ausgebildete Journalisten, die sich die Zusatzqualifikationen verschaffen. Dafür gibt es zum Beispiel mehrtägige Weiterbildungsseminare, in denen Journalisten Programmiersprachen wie Python oder R lernen. Ich selbst habe, wie auch manch andere, das Lede Program mitgemacht, einen dreimonatigen Intensivkurs an der Columbia University.

Das Thema ist mittlerweile auch an den Journalistenschulen und im Volontariat angekommen – oft als zwei- bis fünftägiges Einführungsseminar. Man lernt dann zwar nicht gleich Coden, aber man lernt, Datensätze als Quellen wahrzunehmen, einfache Auswertungen mit Excel oder schnelle Visualisierungen mit Tools wie Datawrapper zu machen. Das allein befähigt aber noch nicht dazu, hauptberuflich Datenjournalismus zu betreiben. Dafür kommt man in meinen Augen an Coding-Skills nicht vorbei. Die kann man als Journalist aber lernen.

Natürlich gibt es auch Quereinsteiger. In unserem Team sind zum Beispiel zwei Kollegen aus der Stadtplanung, die Erfahrung in der Analyse georeferenzierter Daten mitgebracht und sich das journalistische Handwerk angeeignet haben.

Sind Datenjournalisten überwiegend bei den Print- und Online-Medien eingesetzt? Gibt es Spezifika bei den verschiedenen Mediengattungen?

Datengetrieben zu recherchieren ist medienunabhängig möglich. Auch Rundfunkmedien setzen auf ihren Websites interaktive Visualisierungen ein, die nur online funktionieren.

So haben ZDF und die ARD-Anstalten Datenjournalistinnen und -journalisten. Der BR war die erste ARD-Anstalt, die ein großes Team aufgebaut hat. Das ist dort inzwischen eng mit dem Rechercheteam verzahnt. Und auch NDR, MDR, RBB und SWR haben Teams, sogar die Deutsche Welle hat eine Einheit.

Ich bin vorwiegend auf junge und jüngere Datenjournalisten gestoßen, kaum auf ältere Kollegen. Ist das ein Job für die „digital native“-Jahrgänge?

Tatsächlich ist der Altersschnitt vergleichsweise niedrig. Aber es gibt auch einige Datenjournalisten, die schon etwas länger dabei sind. Ein Kollege bei uns im Team etwa bringt langjährige Erfahrung als Wissenschaftsjournalist mit und hat auf Datenjournalismus umgesattelt.

Welches sind die zentralen Fähigkeiten und Kompetenzen eines Datenjournalisten?

Das sind zunächst die klassischen journalistischen Fähigkeiten: Themengespür, das Anlegen von Relevanzkriterien, saubere Recherche – Dinge, die zur journalistischen Grundausstattung gehören. Dann sind das zum Zweiten Kompetenzen beim Coding und bei der Datenanalyse. Und drittens dann die Fähigkeit der Datenvisualisierung, also ein grafisches, „designerisches“ Gespür.

Diese drei Bereiche würde ich nennen wollen: Journalismus, Datenanalyse und Visualisierung. In allen drei Bereichen sollte man mindestens über ein solides Grundwissen verfügen.

Ich kenne aber niemanden, der gleichzeitig in allen drei Disziplinen der Überflieger ist. Das macht auch nichts, wir arbeiten oft in Teams und ergänzen uns gegenseitig.

Wie ist ihr Team beim SPIEGEL organisiert? Wie arbeiten Sie mit den anderen Redaktionen zusammen – als eigenständige Redaktion oder eher als Dienstleister?

Wir sind bei SPIEGEL Data vier Personen auf 3,2 Stellen: zwei ausgebildete Journalisten und zwei Quereinsteiger aus der Stadtplanung. Wir verstehen uns als eigenständiges Team, das selbstständig Themen setzt – immer im Austausch mit den zuständigen Fachressorts. Es gibt ja weder im Heft noch auf SPIEGEL.de eine eigene Daten-Rubrik, was ja auch Quatsch wäre: Leserinnen und Leser interessieren sich für Themen, nicht für den methodischen Angang an ein Stück. Deshalb findet sich unser Output immer in den Ausspielflächen der Fachressorts.

Einen Großteil der Themen schlagen wir den Fachressorts vor. Manchmal läuft es auch umkehrt und die Kolleginnen und Kollegen kommen mit Ideen auf uns zu. Die Zusammenarbeit hat dann verschiedene Intensitätsstufen. Manchmal entsteht ein Thema in Gänze bei uns und wird dann „schlüsselfertig“ an das Fachressort übergeben. Manchmal arbeiten wir von Anfang an eng zusammen: Wir als Spezialisten für die Datenauswertung und die Fachkollegen, die inhaltlich tief im Thema stehen, beugen sich dann gemeinsam über die Zahlen und schauen, was wir daraus machen; das macht mir persönlich am meisten Spaß. Manchmal sind wir aber auch „nur“ helfend dabei, um den Kollegen Daten zugänglich zu machen, die zum Beispiel über zig Unterseiten einer Website verstreut veröffentlicht wurden. Dann programmieren wir einen sogenannten Scraper, der diese Informationen automatisiert einsammelt.

Wie viel Spielraum haben Sie momentan noch für eigene Ideen, Auswertungen und Darstellungen bezüglich der Daten? Wie weit müssen Sie jetzt vor allem visualisieren, was zentral vorgegeben wird – vom Robert Koch-Institut (RKI), von der Johns Hopkins University, vom Ministerium? Gibt es neben der Pflicht aktuell noch eine Kür?

Zu Beginn der Krise fühlte es sich tatsächlich so an, als würden wir dem Geschehen hinterherrennen. Natürlich gab es auch bestimmte Datenquellen, etwa die Fallzahlen vom RKI oder von Johns Hopkins, bei denen klar war, dass man sie nutzen wird – sowohl in analysierenden Artikeln als auch in wiederverwendbaren Grafiken, die auch andere Redakteurinnen und Redakteure in ihre Stücke einbauen.

Es hat dann ein paar Tage gedauert, bis wir es geschafft haben, auch eigene Akzente zu setzen. Zum Beispiel mit einer tiefer gehenden Analyse der RKI-Zahlen, die die Dimension der Meldeverzüge offenlegte.

Wir sind auch der Frage nachgegangen, ob sich die Menschen an die erlassenen Ausgangsbeschränkungen halten. Dafür haben wir Passanten- und Verkehrsströme visualisiert, unter anderem mit anonymisierten Daten des Navigationsdienstleisters TomTom. Es hat sich dann herausgestellt, dass wir nicht die einzigen mit dieser Idee waren, aber wir waren mit die Ersten, die sie umgesetzt haben.

Es gibt also durchaus auch ein Konkurrenzdenken bei den Datenjournalisten-Teams der großen Medien? So wie bei den anderen Redaktionen auch?

Ja, natürlich. Aber die datenjournalistische Community in Deutschland ist eng vernetzt. Man trifft sich regelmäßig auf Konferenzen, tauscht sich auf Twitter aus und pflegt einen sehr kollegialen Umgang. Ich schätze die Arbeit der anderen sehr und bin vielen der Kolleginnen und Kollegen freundschaftlich verbunden.

Unter normalen Umständen kommen sich die Teams auch eher selten in die Quere. Es kommt nicht so oft vor, dass man am selben Thema arbeitet.

Woher und wie bekommen Sie Ihre Daten und zu welchen Konditionen?

Diese Frage könnte man auch allen anderen Journalisten stellen – und die Antwort wäre immer dieselbe: Es kommt darauf an.

Wir müssen uns bei jeder Recherche neu nach den passenden Quellen für die Beantwortung unserer Fragen umsehen. Das können Daten von Behörden sein, wie vom schon erwähnten RKI, wenn es etwa um Infiziertenzahlen geht. Auch wissenschaftliche Daten haben wir schon verwendet, um darauf weitere Analysen aufzubauen. Dass wir auf Daten von Unternehmen zurückgreifen, kommt eher selten vor, ist aber auch eine Möglichkeit, wie gerade geschehen bei den Verkehrsflüssen.

Nicht immer ist es mit einer Presseanfrage getan oder stehen Daten schon online zum Download bereit. Bei behördlichen Informationen spielt für uns deshalb manchmal das Informationsfreiheitsgesetz (IFG) eine wichtige Rolle. Das gibt uns, im Unterschied zur einfachen Presseanfrage, das Recht, auch ganze Datensätze zu erfragen. Einfache Presseanfragen nach Daten können Behörde ablehnen, mit der Begründung, sie seien vom Recht auf Auskunft nicht gedeckt. Gemäß IFG werden Datensätze dagegen wie Dokumente behandelt und müssen, wenn keine triftigen Gründe dagegen sprechen, zur Verfügung gestellt werden.

Die Datenbeschaffung und -erhebung ist eine Sache, die Aufbereitung und Veröffentlichung eine andere. Müssen Datenjournalisten beim Aufbereiten und Veröffentlichen von Daten, ähnlich wie bei Bildern und anderen Dokumenten, Lizenzrechte beachten?

Wenn wir nicht nur die Erkenntnisse unserer Analyse veröffentlichen wollen, sondern gleich einen ganzen Datensatz, können, je nach Herkunft der Daten, tatsächlich viele Faktoren eine Rolle spielen. Neben urheber- und lizenzrechtlichen Fragen kann auch der Datenschutz berührt sein, wenn es um personenbezogene Informationen geht.

Manchmal stellen sich rechtliche Fragen auch schon bei der Datenbeschaffung. Ich habe vorhin das Scrapen von Websites angesprochen, bei dem wir mit einem selbst geschriebenen Programm Informationen automatisiert einsammeln, die über viele Unterseiten verteilt vorliegen. Es gibt Websites, die das Scrapen in ihren Nutzungsbedingungen untersagen. In solchen Fällen klären wir unser Vorgehen vorab mit unserer Rechtsabteilung. So hatten wir bisher noch nie Probleme.

Nach unserer Rechtsauffassung wiegt das öffentliche Interesse in der Regel schwerer als solche Nutzungsbedingungen. Das heißt nicht, dass wir einen gescrapeten Datensatz auch in Gänze veröffentlichen dürfen. Aber der journalistischen Arbeit mit diesen Daten steht dann nichts mehr im Weg.

Titelillustration: Esther Schaarhüls

Das Magazin Fachjournalist ist eine Publikation des Deutschen Fachjournalisten-Verbands (DFJV).

Fotocredit: Privat/ Marcel Pauly

Marcel Pauly ist Teamleiter von SPIEGEL Data, dem Team für datengetriebene Recherchen und Datenvisualisierungen des SPIEGEL. Davor war er Datenjournalist im Investigativteam der WELT. Ausgebildet wurde er unter anderem an der Henri-Nannen-Schule, im Lede Program der Columbia Journalism School hat er seine datenjournalistischen Fähigkeiten verfeinert. Als Dozent unterrichtet er den Umgang mit Datensätzen an der ARD.ZDF medienakademie, an der Henri-Nannen-Schule und an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg.

Kommentare sind geschlossen.