RSS-Feed

„Diese Technologien sind bereits da und bestimmen unser Leben mit“

Es ist nicht so ganz einfach, ein realistisches Bild vom Einsatz künstlicher Intelligenz (KI) im Journalismus zu bekommen. Anbieter:innen von Branchen-Software verbreiten Euphorie. Kritiker:innen warnen vor der Vernichtung von Arbeitsplätzen oder vor der Entmündigung durch den Algorithmus. „Digital Immigrants“ fühlen sich von dem Thema überfordert – „Digital Natives“ geht die Entwicklung nicht schnell und weit genug.

Verlässliche Informant:innen dagegen sind die Kolleg:innen, die täglich professionell mit Algorithmen arbeiten. Sie setzen KI (englisch: Artificial Intelligence, AI) und Automation in ihrer Redaktionsarbeit ein, entwickeln Instrumente und Workflows für ihre Häuser – fragen sich aber auch jedes Mal selbst: Wie und wo können und dürfen Algorithmen eingesetzt werden? Wo stoßen wir damit an handwerkliche, journalistische und ethische Grenzen?

So gesehen ist das AI + Automation Lab des Bayerischen Rundfunks (BR) als Informationsquelle ein Glücksfall. Das Team aus gelernten Journalist:innen, Produktmanager:innen und Machine-Learning-Expert:innen beschäftigt sich seit fast zwei Jahren – gleichzeitig praktisch und akademisch – mit dem KI-Einsatz im Journalismus. Es baut Werkzeuge, setzt sie in eigenen Investigativrecherchen und Kooperationsprojekten ein und fragt gleichzeitig nach den gesellschaftlichen Folgen von KI im Journalismus.

Gunter Becker hat für den „Fachjournalist“ mit Uli Köppen, Leiterin des AI + Automation Lab des Bayerischen Rundfunks und Co-Lead des investigativen Datenjournalismus-Teams BR Data gesprochen. Dieses Team war 2021 für den deutschen Reporter:innenpreis im Bereich „Datenjournalismus“ nominiert.

Frau Köppen, stellen Sie uns doch bitte Ihre Abteilung, das AI + Automation Lab des Bayerischen Rundfunks, kurz vor.

Das AI + Automation Lab gibt es beim BR seit Januar 2020. Die Gruppe besteht aus gelernten Journalist:innen, Produktmanager:innen und Machine-Learning-Expert:innen. Wir kommen dabei aus ganz verschiedenen Bereichen, aber verstehen uns alle als Journalist:innen und arbeiten interdisziplinär. Im BR sind wir vernetzt mit anderen Redaktionen, mit unserer Softwareentwicklung, mit den Archiven. Teilweise sind das auch Leute, die sich bereits länger als wir mit solchen Lösungen beschäftigen.

Welche konkreten Aufgaben haben Sie in der täglichen Arbeit?

Ganz konkret haben wir zwei Aufgaben. Erstens: gemeinsam mit unseren Partnern, den Redaktionen BR Data und BR Recherche, Investigationen mit und zu Algorithmen durchzuführen.

Und zweitens, dem Journalismus Tools und Produkte der Automatisierung zur Verfügung zu stellen. Dazu gehören zum Beispiel automatisierte Texte, Grafiken und Newsbriefings, aber auch Alexa-Skills. Dahinter steht die Idee, mit dem Content, den man bereits hat, möglichst automatisiert weiterzuarbeiten und zusätzlichen Nutzen für die User:innen zu erzeugen.

Können Sie uns konkrete Beispiele nennen? Zunächst für Ihre Investigationen mit und zu Algorithmen?

Wir haben beispielsweise Recherchen zu Algorithmen veröffentlicht, die bei Lieferando die Fahrer:innen überwachen, oder darüber, wie bei Facebook gewaltverherrlichender und mutmaßlich verfassungsfeindlicher Content sehr lange auf der Plattform verbleibt. Diese Geschichte haben wir mit dem NDR und mit dem WDR veröffentlicht.

Dann haben wir eine Recherche gemacht zu KI-Systemen, die für Recruiting eingesetzt werden können. Die Entwickler versprechen Arbeitgeber:innen, aus kurzen Bewerbungsvideos innerhalb von 30 Sekunden Persönlichkeitsprofile der Bewerber:innen extrahieren zu können. Diese Systeme werden vermehrt in den USA eingesetzt und drängen nun auch in Deutschland auf den Markt. Wir haben gezeigt, wie kleine optische Veränderungen, etwa ein Kopftuch oder eine Brille, diese Auswertungen beeinflussen – was sie eigentlich nicht dürften. Für diese Recherche waren wir, zusammen mit den Kolleg:innen von BR Data, 2021 für den deutschen Reporter:innenpreis nominiert.

Mit solchen Beiträgen möchten wir auch eine Debatte darüber anregen, wo und wie wir Algorithmen einsetzen wollen – und wo und wie nicht. Hier müssen der Journalismus und speziell die öffentlich-rechtlichen Anstalten näher hinschauen.

Haben Sie Beispiele für die Tools und Produkte, die Sie dem Journalismus zur Verfügung stellen?

Wir arbeiten etwa gerade an einer Lösung, mit der man den Audiocontent aus Newssendungen so strukturieren kann, dass die Nachrichten auch einzeln vorliegen und dann getaggt, das heißt mit Metadaten versehen werden können. Also zum Beispiel: Um welche Ereignisse geht es? Wo und wann haben sie stattgefunden?

Das kann dann sowohl manuell von der Redaktion selbst als auch über Algorithmen erledigt werden. Meistens sind es sogenannte hybride Workflows, also eine Kombination von beidem. User:innen könnten dann über eine App, eine Website oder eine Voice-Plattform ganz gezielt thematische Anfragen stellen und bekommen diesen Content geliefert. Oder der Content könnte gleich so ausgespielt werden, wie es den Präferenzen der User:innen entspricht. Eine konkrete Anwendung ist unser Prototyp Remix Regional, mit dem man Radio-Regional-Nachrichten personalisieren und dann den Hörer:innen in einer App anbieten kann.

Daraus entstehen neue Produkte und neue Formen: Mit der London School of Economics haben wir an einem Prototypen für die automatische Erstellung von Kurzfassungen gearbeitet. Ziel ist ein Tool, mit dem man journalistische Inhalte aus dem Newsbereich zusammenfassen kann. Ausgangspunkt war die Idee, dass man „Long Tail“-Inhalte, die besonders erfolgreich waren und längerfristiges Interesse bei User:innen hervorgerufen haben, noch einmal verwenden könnte. Das führte zu der nächsten Herausforderung, nämlich: Wie fasst man journalistische Inhalte automatisiert zusammen und verwendet sie erneut?

Welche journalistischen Formate halten Sie für besonders geeignet für KI-Anwendungen?

Recherchen, die mit der Auswertung großer Datenmengen verbunden sind, sind sicher für den Einsatz von Algorithmen geeignet. Die reine Menge dieser „Big Data“ übersteigt häufig die Fähigkeiten eines Menschen, sie zu überblicken und zu analysieren. Bei dem Facebook-Projekt hatten wir zum Beispiel einen Algorithmus darauf trainiert, SS-Runen und Hitlerbilder zu erkennen – da können KI und Automatisierung sinnvoll eingesetzt werden.

Geeignet sind auch alle repetitiven Tätigkeiten, bei denen der Workflow – wir sagen – hybrid gestaltet werden kann. Journalist:innen können so mithilfe von Algorithmen schneller und besser arbeiten.

Auch dazu ein Beispiel: Wir haben letztes Jahr unsere Überblickswebseite für Coronazahlen und -trends sehr schnell automatisiert. Die Daten des Robert Koch-Instituts, RKI, werden jetzt in einem data-to-text- und einem data-to-graphics-Prozess automatisiert übernommen. Die Site schreibt sich selbst weiter, immer aktuell. Redakteur:innen haben damit einen Ort, an dem sie tagesaktuell die neuesten Zahlen und Trends sehen – bayernweit, bundesweit. Die Redakteur:innen und Reporter:innen können sich jetzt wieder auf ihre Kernaufgaben konzentrieren, auf das Reporting, auf Analysen, auf Kommentare.

Welche journalistischen Tätigkeiten halten Sie dagegen für weniger geeignet für den Einsatz von KI und Automation?

Als Tätigkeiten, für die man absehbar keine Algorithmen wird brauchen können, würde ich nennen: Kommentieren, Analysieren, Field Reportings und Stimmen einsammeln.

Weniger geeignet sind auch generelle journalistische, eher strategische Entscheidungen. Also etwa: Wie soll die Website aussehen? Welchen Spin gebe ich einer Geschichte? Das kann man sicher auch nicht einer KI überlassen. Solche Systeme können höchstens Daten für die Entscheidungsfindung liefern.

Könnte man, etwas laienhaft, sagen, dass Bereiche, die eine „individuelle Autor:innenschaft“ verlangen – erkennbar an Emphase, langjährigen persönlichen Erfahrungen mit dem Gegenstand, qualitativen Einordnungen –, eher ungeeignet für KI sind? Also etwa Konzert- oder Filmkritiken?

Ich würde nicht gerne die Qualität einer Autor:innenschaft zum Unterscheidungsmerkmal für KI-geeignete Formate machen. Besser wäre es aus meiner Sicht, lieber „datenschwere“ Bereiche wie Wirtschaft oder Sport von Bereichen wie Kultur zu unterscheiden, für die man meistens keine strukturierten Daten erheben kann – im Gegensatz etwa zum Wetter oder bei einem Fußballspiel. Dazu sollten Sie sich einmal das Experiment des Schriftstellers Daniel Kehlmann mit der KI CTRL ansehen. 

Das war jetzt der Blick auf die journalistische Produktion. Welche Effekte kann man mit KI und Automation auf der Distributionsseite erzielen?

Sinnvoll werden KI und Automatisierung bei der individualisierten Distribution von Content. Also etwa überall dort, wo Content auf die Person des Users oder der Userin abgestimmt zusammengestellt und ausgeliefert werden soll. Siehe als Beispiel den angesprochenen Prototyp Remix Regional.

Auch bei der Versionierung ergeben KI und Automatisierung Sinn, also bei der Individualisierung der Darstellungsform von Content. Sie sind vielleicht eher der visuelle Typ, der Instagram-Content bekommen möchte. Ich dagegen bin eher der Typ, der Content als Bulletpoints sehen möchte. Andere mögen lange Texte lesen.

Aber auch hier ist uns wieder das hybride Vorgehen, also das Ineinandergreifen von automatisierten und manuellen Workflows, wichtig.

Kritiker:innen warnen oft vor der Gefahr von Verzerrungen, dem sogenannten Bias, in den Trainingsdaten der Algorithmen. So könnten in einer weißen Mehrheitsgesellschaft erhobene Daten dazu führen, dass andere Bevölkerungsgruppen von der KI benachteiligt werden. Sie hatten das Beispiel des Kopftuchs bei der Analyse von Bewerber:innen-Videos bereits genannt. Welche Einschätzung haben Sie dazu?

Das Thema der Daten mit Bias, die bestimmte Informationen nicht enthalten oder nur einen Ausschnitt der Realität abbilden, gewinnt glücklicherweise immer mehr an Diskussionsbreite. Es ist denkbar, dass Vorurteile durch KI sogar noch verstärkt werden können – man spricht hier vom Skalierungseffekt.

Das Thema spielt bei uns eine zentrale Rolle. Wir nennen das Algorithmic Accountability Reporting. Konkret bedeutet das für uns, dass wir kritisch zum Einsatz von Algorithmen recherchieren und berichten und auch die Fälle darstellen, in denen Algorithmen auf eine zweifelhafte Art eingesetzt werden.

In den USA hatte das Team von ProPublica mit dieser Art von Journalismus begonnen. Ihre erste große Geschichte in diesem Bereich, die Machine Bias-Story, drehte sich um eine Software, die Richter:innen dabei helfen soll, die Rückfallwahrscheinlichkeit von Delinquent:innen einzuschätzen. Dabei wurden dunkelhäutige Menschen generell als gefährdeter eingeschätzt.

Häufig liegt das Problem tatsächlich in den Trainingsdaten. Zum Beispiel wurden in anderen Fällen Frauen oder People of Color, POC, durch Gesichtserkennungssoftware weniger gut erkannt, weil in den Trainingsdaten mehr weiße Männer erfasst wurden. Das Bewusstsein für die Problematik ist in der breiten Öffentlichkeit in den letzten Jahren aber stark angestiegen. Viele reden jetzt von „Black Box Algorithmen“, manchmal auch von „shit in – shit out“.

Ich würde dafür plädieren, das jedes Mal differenziert zu betrachten. Man muss natürlich die Technologie und die Datenlage kritisch beurteilen. Man muss aber auch darauf schauen, wie wir als Gesellschaft mit Vorurteilen umgehen.

Ein Beispiel ist die SCHUFA-Geschichte, die wir vor Jahren zusammen mit zwei Nichtregierungsorganisationen und dem Spiegel gemacht haben. Der persönliche SCHUFA-Score einer Person, den der – richterlich übrigens als Betriebsgeheimnis geschützte – Algorithmus der SCHUFA ermittelt, kann einzelnen Menschen große Probleme bereiten. Auf der anderen Seite schützt ein solcher Scoring-Algorithmus unter Umständen aber auch Gewerbe und Wirtschaft.

In diesem Fall geht es darum, sich das Zustandekommen des Scores anzusehen und diesen regulatorisch, journalistisch, aber auch gesellschaftlich zu hinterfragen, damit Diskriminierung vermieden wird. Häufig kann man mit größerer Transparenz schon viel erreichen – wenn also die Scoring-Firmen verständlich erklären würden, wie sie zu ihren Ergebnissen kommen. Selbstverständlich ohne ihr Betriebsgeheimnis verraten zu müssen.

Eine generalisierte Entweder-oder-Haltung bringt uns da nicht weiter. Diese Technologien sind bereits da und bestimmen unser Leben mit.

Titelillustration: Esther Schaarhüls

Das Magazin Fachjournalist ist eine Publikation des Deutschen Fachjournalisten-Verbands (DFJV).

© Lisa Hinder

Uli Köppen leitet das AI + Automation Lab und co-leitet BR Data, das datenjournalistische Team des Bayerischen Rundfunks. Dort arbeitet sie an datengetriebenen journalistischen Produkten und Recherchen zu Algorithmen. 2019 hat sie als Nieman Fellow in Harvard und am MIT zu interdisziplinären Teams, Investigation von Algorithmen und Automatisierung in verschiedenen Industrien geforscht.

 

Kommentare sind geschlossen.