RSS-Feed
Roboterjournalismus

Roboterjournalismus: Anwendungsgebiete und Potenziale

Der Begriff des “Roboterjournalismus” ist seit einiger Zeit im Medienbereich allgegenwärtig. Oft wird er gleichgesetzt mit der Zukunft des Journalismus. Manche Beobachter sehen darin eine Bedrohung für den Redakteursberuf, andere betonen die Arbeitserleichterung durch die Computer. In seinem Beitrag für den “Fachjournalist” geht der freie Journalist Lars Sobiraj den Fragen nach, wo durch Maschinen erzeugte Texte bereits heute Realität sind und wie sie künftig den Fachjournalismus verändern werden.

Die Stuttgarter Kommunikationsagentur Aexea von Saim Alkan ist in Deutschland einer der ersten Anbieter auf dem Gebiet des sogenannten “Roboterjournalismus”. Auf dem von der Agentur betriebenen Blog “fussballheute.net” gibt es derzeit eine Vorschau auf den 1. Spieltag der neuen Bundesligasaison. Ein Beispiel gefällig?

Spielerisches Highlight zum Bundesligastart: Borussia Dortmund trifft auf Bayer 04 Leverkusen

Am Wochenende 23./24. August dreht sich endlich wieder alles um das runde Leder: Borussia Dortmund spielt im Signal Iduna Park gegen Bayer 04 Leverkusen. Das Match zum Start der neuen Bundesligasaison wird für den Vizemeister aus Dortmund zum absoluten Belastungstest. Die Werkself landete letzte Saison auf dem vierten Platz und wird alles versuchen, erfolgreich in das Auftaktspiel zu starten. Der Champions-League-Teilnehmer aus Dortmund ist mit der lautstarken Südtribüne im Rücken klarer Favorit auf den Sieg. Für ein hochklassiges Spiel ist zum Start der Saison 14/15 auf alle Fälle gesorgt.

Mensch oder Maschine? Schwer zu sagen. Der Text wurde von Aexea mithilfe eines selbst entwickelten Algorithmus erstellt, der seine Informationen aus einem Datensatz bezieht. Im konkreten Fall besteht dieser im Wesentlichen aus dem Spielplan der Fußball-Bundesliga.

Ursprünge und Entwicklung des Roboterjournalismus

Waren anfangs nur Lückentexte möglich, in die Computer an festgelegten Stellen Textbausteine eingefügt haben, so kommen heutige Algorithmen auch mit flexibleren Datensätzen klar. Der schwedische Forscher Christer Clerwall von der Universität Karlstad untersuchte und verglich die Wirkung von automatisch und manuell erstellten Texten. Für die meisten Leser seiner Studie war grundsätzlich kein Unterschied erkennbar. Viele Teilnehmer bewerteten die Berichterstattung der PCs sogar als objektiver.

Seinen Anfang nahm der Roboterjournalismus in den USA. Eine Gruppe  von Journalismus- und Informatikstudenten der Northwestern University in Chicago erhielt von ihrem Professor vor vier Jahren den Auftrag, eine Software zu schreiben, die einen Datensatz in einen verständlichen Text verwandeln sollte. An diesem Prinzip hat sich bis heute nichts geändert. Nur klingen die Texte jetzt sehr viel ausgereifter als im Jahr 2010. Der erste Anbieter von Roboterjournalismus in den USA war Narrative Science. Das Angebot dieses Unternehmens, gegründet von den Studenten Larry Birnbaum, Stuart Frankel und Kris Hammond, basiert auf den Forschungsergebnisse der Northwestern University. Von der anfänglichen Auswertung der Resultate von Baseballspielen (Stats Money) ist man heutzutage weit entfernt, das neueste Produkt von Narrative Science ist Quill Engage. Dies ist ein patentiertes Programm, welches die Ergebnisse des komplexen Web-Tools Google Analytics verschriftlichen kann.

Roboterjournalismus in Deutschland: Text-on und Retresco

Doch wie steht es mit der Entwicklung hierzulande? Neben der bereits erwähnten Agentur Axea ist das Berliner Start-up Text-on ein weiteres Beispiel für algorithmischen Journalismus in Deutschland. Gegründet wurde Text-on von Cord Dreyer, ehemaliger Chefredakteur und Geschäftsführer der Nachrichtenagentur dapd. Die Geschäftsidee von Text-on: Aus Datenmengen sollen automatisch komplette journalistische Texte generiert werden.

Dreyer wehrt sich seit jeher vehement gegen die Verwendung des Begriffes “Roboterjournalismus”: Er sei zwar sehr plakativ, aber eben genauso falsch. So schön der Begriff auch klingen mag: Die Konvertierung von Informationen in ganze Sätze werde von Computern – und eben nicht von Robotern vorgenommen. In den USA werde dies als “automatisierter Journalismus” bezeichnet, was den Kern der Sache besser treffe. Automatisch generierte Texte kommen in den Staaten häufig bei Produktbeschreibungen von Online-Shops, bei Hotel- oder Restaurantbeschreibungen in der Tourismusbranche, bei Sportevents und Aktien-, Devisen- oder Warentermingeschäften zum Einsatz. Für Aufsehen sorgte die Software “Quakebot“, die eigenständig Erdbeben-Meldungen verfasst. Denkbar sind, auch in Deutschland, darüber hinaus Wasserstandsmeldungen eines Flusses, Ankündigungen von Straßensperren, Ergebnisse von Ratssitzungen, die Belastung eines Stadtteils mit Feinstaub und vieles mehr.

Auf dieses Potenzial setzt auch Johannes Sommer, Geschäftsführer der Berliner Agentur Retresco, die nach eigenen Angaben auf die “Automatisierung contentgetriebener Geschäftsmodelle” spezialisiert ist. Er betont, dass etwa Sportjournalisten immer wieder Spielberichte erstellen müssten, in denen die ewig gleichen Parameter vorkämen: “Viele Fachjournalisten stecken neben der inhaltlich journalistischen Tätigkeit in einem Korsett voller Routinen.” Daraus folgert er: “Wohl kein Journalist fühlt sich in seiner eigentlichen Profession eingeschränkt, wenn diese Standardaufgaben künftig Maschinen erledigen und er sich auf das konzentrieren kann, was eine Maschine heute und vermutlich auch auf absehbare Zeit nicht gleichermaßen kann: die sprachlichen Raffinessen wie Ironie, Sarkasmus, Sprachspiele und die inhaltlichen Feinheiten wie Headlines, Bildunterschriften oder Meinung.” Sommers Unternehmen bietet Redakteuren an, ihnen gegen Bezahlung bei der Erledigung ihrer Routinearbeit zu helfen. Dazu gehört neben der Verschlagwortung (Tagging) bestehender Inhalte auch die automatische Textgenerierung und Inhalts- wie Themenempfehlungen. So entstehen Themenseiten mit Beiträgen, die inhaltlich in einem engen Zusammenhang stehen. Das kann beispielsweise “related content” mit einem politischen oder kulturellen Inhalt sein, den Möglichkeiten sind aber hierbei keine Grenzen gesetzt. Die “F.A.Z.”, “N24″, “Zeit Online” und “dapd” haben die Dienstleistungen von Retresco bereits in Anspruch genommen.

Tame und der Feinstaub-Monitor der Berliner Morgenpost

Automatisierter Journalismus ist in seiner Anwendung durchaus vielfältig. Ein Beispiel ist das Berliner Start-ups Tame, das seinen Kunden eine umfassende Analyse des Microblogging-Netzwerks Twitter anbietet. Unternehmen wollen stets wissen, worüber man sich austauscht. Tame findet heraus, wer Meinungsmacher bzw. anerkannter Fachmann für bestimmte Themen ist. Darüber hinaus werden Trends festgehalten, wie eine Marke oder Produkt von der Masse wahrgenommen wird. Alternativ haben Journalisten die Möglichkeit, Twitter bis zu eine Woche nach frei wählbaren Suchbegriffen zu durchforsten. Wer das tut, bekommt bis zu 100.000 Tweets innerhalb von Sekunden angezeigt. Twitter erleichtert Datenanalysten die Arbeit, weil das Datenmaterial frei zugänglich ist. Bei anderen sozialen Netzwerken wie etwa Facebook oder Google Plus ist das nicht ohne Weiteres möglich.

Doch der Datenjournalismus geht über die reine Analyse hinaus. Die meisten Leser ziehen einem langen Text eine aussagekräftige Grafik vor. Das hat auch die Berliner Morgenpost verstanden. Der Feinstaub-Monitor der Zeitung zeigt seit Anfang Juli an, auf welchen Straßen Berlins die Belastung mit Feinstaub besonders hoch ist. Auch sind auf einen Blick alle Überschreitungen der maximal zulässigen Grenzwerte sichtbar. Visualisierungen sind praktisch für jedes Einsatzgebiet möglich, die Möglichkeiten sind nahezu unbegrenzt.

Was können Maschinen leisten – und was nicht?

In der Aufarbeitung von Daten in Sekundenbruchteilen ist der Computer unschlagbar. Daher lohnen sich auch Berichte, die nur einen Stadtteil oder ein abgelegenes Dorf betreffen. So etwa die Ankündigung von aufgestellten Blitzern, umgefallenen Bäumen, mit Wasser vollgelaufenen Straßen und vieles mehr. Doch die humane Arbeitsleistung ist noch lange nicht komplett ersetzbar. Ein Algorithmus kann wahrscheinlich nie die Intelligenz, Kreativität und das Sprachgefühl eines Journalisten nachahmen. Wichtig ist zudem: Vor jeder Veröffentlichung muss unbedingt sichergestellt werden, dass das Datenmaterial frei verfügbar war, oder die entsprechenden Rechte daran bestehen. Persönlichkeiten des öffentlichen Lebens (Politiker, Schauspieler, Sportler etc.) können sich nicht gegen eine namentliche Nennung wehren. Das sieht bei Privatpersonen natürlich ganz anders aus.

Fazit: Fachjournalisten können profitieren

Fest steht: Beiträge wie Glossen, Reportagen, Kommentare, Interviews, investigative Artikel oder Feuilletonstücke stellen für die Programmierer auf absehbare Zeit unüberwindbare Hindernisse dar. Dennoch dürfte die neue Technologie Bewegung in die Branche bringen. Roboterjournalismus kann mittelfristig für eine neue Sparte von Datenjournalisten sorgen. Studien gehen davon aus, dass die komplette Datenmenge im Jahr 2020 rund 40 Zettabyte erreichen wird. Diese gigantische Zahl mit 21 Nullen entspricht 57 Mal der Menge aller Sandkörner auf allen Stränden der Erde. Schon jetzt, wo es deutlich weniger Daten gibt, wird nur ein Bruchteil der Informationen verschlagwortet oder gar analysiert. An Arbeit wird es Datenjournalisten künftig daher nicht mangeln.

Anbieter von automatisiertem Journalismus betonen zudem, dass die neue Technik keine Konkurrenz für Fachjournalisten darstelle, sondern eine Arbeitsbereicherung. Wenn der Computer standardisierte Aufgaben erledige, könnte für anspruchsvolle Tätigkeiten – insbesondere kritische Recherchen – wieder mehr Zeit vorhanden sein. Keine so schlechten Aussichten also.

Titelillustration: Esther Schaarhüls

Das Magazin Fachjournalist ist eine Publikation des Deutschen Fachjournalisten-Verbands (DFJV).

Lars SobirajDer Autor Lars Sobiraj ist freier Journalist mit den Schwerpunkten Datenschutz, Urheberrecht, Netzpolitik, Internet und Technik. Von 2008 bis 2012 war er Chefredakteur des IT-Portals gulli.com. Heute schreibt unter anderem für heute.de, ZDF Hyperland, iRights.info und torial. Im April gründete er das Portal Tarnkappe.info, auf dem er sich mit Netzthemen aller Art auseinandersetzt.

Kommentare sind geschlossen.