RSS-Feed

Künstliche Intelligenz und Journalismus: Anwendungsgebiete, Herausforderungen und Risiken am Beispiel ChatGPT

Künstliche Intelligenz – KI – ist derzeit eines der kontroversesten Themen. Während manche KI als revolutionäre Chance für die Zukunft sehen, wittern andere eine enorme Gefahr für die Menschheit. Beide Sichtweisen haben ihre Berechtigung. Welche Herausforderungen, Probleme und Lösungen aber bieten sich beim Einsatz „denkender Maschinen“ im journalistischen Umfeld?

KI ist dabei, sich in vielen Bereichen der Kommunikation unentbehrlich zu machen. Sogenannte Chatbots sind der Schlüssel dazu: textbasierte Dialogsysteme, die durch die Auswertung einer Unzahl von Beispielen trainiert wurden. Sie beantworten schriftlich und mündlich Standardanfragen an Unternehmen oder Ämter, schreiben und versenden Mails und Newsletter, posten Werbung und Kommentare auf Plattformen und verbreiten Aussagen in den sogenannten „sozialen Medien“. Die KI ist darauf ausgelegt, menschliche Sprache in all ihren Facetten zu verstehen und zu verarbeiten. Sie kann kontextbezogene Konversationen führen, Fragen beantworten, Witze machen und sogar Geschichten erzählen. Mittlerweile gibt es sogar Berichte darüber, dass der Chatbot wütend und in seltenen Fällen auch beleidigend reagieren kann.

Auch die klassischen Medien nutzen die KI, um etwa große Datensätze, „Big Data“, auszuwerten und Hintergrundinformationen zu sammeln oder auch um journalistische Routinen zu vereinfachen – beispielsweise Texte über Sportergebnisse, Wettervorhersagen, Lotterieziehungen oder Kochrezepte zu verfassen. „Robot Journalism“ ist hier das Stichwort. Doch wie verändert der Einsatz von KI – insbesondere von Software wie ChatGPT – den Journalismus und das tägliche Leben?

ChatGPT – die derzeit berühmteste KI

Selbstverständlich gibt es mehr als nur einen Chatbot. Aktuell die bekannteste ist aber wohl ChatGPT von OpenAI.

ChatGPT ist ein auf künstlicher Intelligenz beruhender Chatbot, der speziell für den Einsatz in natürlicher Sprache entwickelt wurde. Es basiert auf maschinellem Lernen sowie Deep Learning und wurde mit riesigen Datenmengen trainiert. Quellen waren zum Beispiel Bücher, Artikel, Webseiten, soziale Medien und Nachrichten. Auf diese Weise lernt die KI, geschriebene und gesprochene Sprache zu verstehen und Verbindungen zwischen Wörtern und Sätzen zu erkennen, um wiederum einen Zusammenhang zwischen Fragen und Antworten herzustellen. Sie analysiert den Kontext, um passende und hilfreiche Antworten zu generieren. Das Ziel ist, den Chatbot in die Lage zu versetzen, auf alle Arten von Fragen und Kommentaren zu antworten, ohne auf menschliche Hilfe oder eine vorherige spezifische Programmierung zugreifen zu müssen.

Der Chatbot nutzt auch die Fähigkeit, in einer menschenähnlichen Weise zu lernen, um mit der Zeit bessere Antworten generieren zu können. Je mehr Gespräche er führt, desto besser versteht er die Sprache und desto präziser wird seine Antwort.

ChatGPT ist in der Lage, die menschliche Sprache zu imitieren, indem es menschenähnliche Ausdrucksweisen verwendet. Bei der Verwendung dieser KI ist es aus diesem Grund empfehlenswert, den Befehl „schreibe aus menschlicher Sicht“ zu nutzen, wenn man einen Textbaustein in diesem Stil benötigt.

Die Anwendungsgebiete von ChatGPT

ChatGPT kann in vielen verschiedenen Bereichen eingesetzt werden. Dazu zählen Kundensupport, Bildung, Marketing und Unterhaltung. Außerdem kann ChatGPT Daten recherchieren, vollständige Texte verfassen, Konzepte für Bücher und andere kreative Projekte erstellen. Die Einsatzmöglichkeiten reichen aber noch weit darüber hinaus. Da die Software in verschiedenen Sprachen genutzt werden kann, wird sie zu einem mächtigen Werkzeug für globale Unternehmen und Organisationen.

Im Kundensupport kann ChatGPT gängige Fragen beantworten und Probleme lösen. In der Bildung kann es als digitaler Lehrer fungieren und Schülern und Studenten helfen, ihre Hausaufgaben zu erledigen oder ein bestimmtes Konzept zu verstehen. Das Problem dabei: Nutzt man die Software dazu, komplette Texte zu schreiben oder ganze Studienarbeiten zu generieren, begeht man einen Betrugsversuch. Derzeit haben Schulen und Universitäten noch keine echte Lösung für das Problem gefunden. Daher sollte jeder Nutzer von ChatGPT verantwortungsvoll damit umgehen und sich bewusst sein, sich auf rechtlich dünnem Eis zu befinden.

Wichtig ist: Auch wenn es verlockend ist, alle Aufgaben der KI zu überlassen – dies sollte auf keinen Fall getan werden. Dieses Vorgehen schadet dem Lernenden selbst. Außerdem liefern KIs noch jede Menge Fehlinformationen. Daher sollte alles ausführlich geprüft werden, was der Bot produziert.

Auch wenn ChatGPT nur eingeschränkt für seriösen Journalismus genutzt werden kann, gibt es dennoch einige Bereiche, in denen der Chatbot unterstützend mitwirken kann. Dazu gehören die Abfrage von Studien, Statistiken, Fachliteratur wie auch Vorschläge für kleinere Textpassagen, wenn man mal eine Schreibblockade bekommen sollte. Hier ist es aber sehr wichtig zu erwähnen, dass Textblöcke nie komplett übernommen werden sollten. Sie sollten bearbeitet und individualisiert werden, mit weiteren Informationen angereichert oder – wenn nötig – komplett verworfen werden, wenn der Text sprachlich oder inhaltlich nicht ins eigene Gesamtwerk passt. Besonders wichtig ist es, bei der Nutzung zu einem von der KI erstellten Text selbst Expertise für den jeweiligen Bereich mitzubringen: Denn nur so können die zusammengestellten Informationen auf ihre Richtigkeit geprüft werden.

Der Kreativität der Befehlseingaben sind hier jedoch fkaum Grenzen gesetzt. Der Chatbot kann produktives Arbeiten in unzähligen Bereichen unterstützen. Doch es sollte nie vergessen werden, dass dahinter kein tatsächlich denkendes Wesen steckt, sondern lediglich ein Programm, das auf einen riesigen Datenpool zugreift. Gefühle, Moral, Ethik – all diese Dinge sind ihm gänzlich fremd.

Die rechtliche Lage – wer ist der Urheber der KI generierten Werke?

Die Frage nach Urheberschaft von KI-generierten Werken ist ein komplexes Thema, das in der Rechtswelt derzeit intensiv diskutiert wird. Im Grunde genommen stellt sich folgende Frage: Wer hat die rechtlichen Ansprüche an Werken, die von einer Maschine erstellt wurden, ohne dass ein menschlicher Schöpfer daran beteiligt war?

In vielen Ländern gilt das Prinzip, dass der Urheber eines Werks automatisch derjenige ist, der es geschaffen hat. Damit könnte der Mensch, der die KI zur Erstellung benutzt hat, als Urheber des generierten Werks angesehen werden. Dies gilt jedoch nur, wenn die KI lediglich ein Werkzeug ist und der menschliche Schöpfer die Kontrolle über das Ergebnis hat. In der Praxis bedeutet das, dass der Mensch, der die Befehle eingibt, sehr konkrete Befehle an die KI geben sollte. Wird im Nachhinein noch einiges angepasst und personalisiert, kann der Benutzer des Chatbots als Urheber angesehen werden.

Es gibt jedoch auch Szenarien, in denen die KI als autonomes System betrachtet wird, das ohne menschliches Eingreifen arbeitet. In solchen Fällen wäre zu argumentieren, dass die KI selbst als Urheber des Werks angesehen werden sollte.

Ein weiteres Problem ist, dass die meisten derzeitigen Urheberrechtsgesetze auf menschliche Kreativität ausgerichtet und nicht darauf vorbereitet sind, die Entstehung von Werken durch eine Maschine zu regeln. Dies bedeutet, dass die Rechtslage in Bezug auf KI-generierte Werke unklar ist und in vielen Ländern noch nicht abschließend geklärt wurde. Die Zukunft wird zeigen, wie man damit verfahren wird.

Einige Länder haben jedoch bereits begonnen, sich mit dieser Herausforderung zu befassen und neue Gesetze und Richtlinien zu erlassen, um die Entstehung von KI-generierten Werken zu regeln. Diese Gesetze sehen vor, dass der menschliche Schöpfer der künstlichen Intelligenz die Urheberrechte an dem generierten Werk besitzt, während andere die KI selbst als Urheber des Werks anerkennen.

In jedem Fall bleibt die Frage nach dem Urheber von KI-generierten Werken ein kontroverses Thema, das in Zukunft noch viele Diskussionen und Debatten auslösen wird. Es wird interessant sein, wie die Rechtssysteme auf der ganzen Welt auf diese neue Art der Kreativität reagieren und welche Auswirkungen dies auf die Kunst- und Technologiewelt haben wird.

KI und Ethik – wie kann man KI journalistisch nutzen, ohne ethisch verwerflich zu handeln?

Die Nutzung von künstlicher Intelligenz im Journalismus kann eine sehr effiziente Möglichkeit sein, um News schnell zu veröffentlichen. Allerdings ist es wichtig, dass Journalisten dabei ethisch verantwortlich handeln und sicherstellen, dass sie die Technologie auf eine Art und Weise nutzen, die die journalistischen Standards und ethischen Prinzipien nicht verletzt.

Im Kern bedeutet das, klar zu unterscheiden, für welche Aufgabenbereiche der Chatbot genutzt werden kann und für welche nicht. Die KI kann beispielsweise dazu eingesetzt werden, große Mengen an Daten zu analysieren und Muster zu erkennen. Dies ist eine Aufgabe, die enorm zeitintensiv sein kann und deshalb oft kaum lösbar ist. Für die KI ist sie hingegen in wenigen Sekunden erledigt. Diese Ergebnisse können dann von menschlichen Journalisten verwendet werden, um Hintergrundinformationen zu recherchieren und anschließend Schlüsse daraus zu ziehen.

Eine weiterer wichtiger ethischer Aspekt ist der Schutz von persönlichen Daten und der Privatsphäre. Bei der Verwendung von KI zur Datensammlung ist darauf zu achten, dass die Daten nur für den vorgesehenen Zweck verwendet werden. Die Privatsphäre der betroffenen Personen muss dabei gewährleistet sein. Dabei ist die Anonymisierung der Daten entscheidend.

Ein weiteres großes Problem sind versehentlich verbreitete Fake News. Die KI kann nicht unterscheiden, welche Nachrichten auf Tatsachen basieren und welche Nachrichten in den Bereich Fake News gehören. Wenn der Fall eintritt, dass die KI Informationen aus unseriösen Quellen verwertet und der Benutzer der KI diese ohne Überprüfung übernimmt, kann eine Welle der Fake News entstehen. Daher ist es die Pflicht eines jeden Journalisten, die Recherchen der künstlichen Intelligenz zu hinterfragen, zu überprüfen und gegebenenfalls komplett zu streichen.

Wichtig ist zudem, die menschliche Verantwortung und Kontrolle über den journalistischen Prozess zu bewahren. KI kann den Journalismus unterstützen, indem sie bestimmte Sachverhalte analysiert und Daten bereitstellt. Aber: Es ist definitiv die Aufgabe des Menschen, die Bedeutung der Daten zu interpretieren und sie in einen Kontext zu stellen, der für die Leserschaft gut verständlich ist.

Fazit

Künstliche Intelligenz ist zu Recht ein sehr umstrittenes Thema. Auf der einen Seite bietet sie unvorstellbar viele Möglichkeiten nicht nur bei der Übernahme von Routinetätigkeiten, sondern auch zur Lösung komplexer Aufgabenstellungen und zur Erhöhung unserer Produktivität, sogar bei der Erstellung neuer Texte. Auf der anderen Seite stellt sie uns vor große Herausforderungen, auf die es bis dato noch keine Antwort gibt.

Schon allein im journalistischen Kontext geht es um Fragen wie Urheberrecht und Ethik. Doch auch ohne eine befriedigende Antwort darauf werden Technologien wie Chat GPT in Kunst, Wissenschaft und Literatur, in Forschung und Lehre und in den Medien sich in den nächsten Jahren weiter stark verbreiten.

Aus diesem Grund sollte sich jeder Journalist mit der KI beschäftigen und – wenn er sie denn einsetzen möchte – dies mit größter Sorgfalt tun. Dabei sollten journalistische Grundsätze nie aus den Augen verloren werden. Denn KI kann vieles, doch eines kann sie nicht: Mensch sein. Das ist und bleibt unsere ureigenste Aufgabe.

Titelillustration: Esther Schaarhüls

Das Magazin Fachjournalist ist eine Publikation des Deutschen Fachjournalisten-Verbands (DFJV).

Dennis Fajt ist Autor und freier Journalist für Magazine im Bereich Gesundheit und Online-Marketing. Durch die Tätigkeit in seiner Agentur Digital100 konnte er internationale Erfahrung in den Bereichen Content-Marketing und Webdesign, vor allem aber im Bereich Suchmaschinenoptimierung sammeln. In seinen Beiträgen teilt er regelmäßig seine Erkenntnisse daraus.

 

 

 

Weiterführende Links: 

„Künstliche Intelligenz – Was die Algorithmen von morgen für die Presse bedeuten“, (Journalistische Trendthemen, dfjv.de): https://www.dfjv.de/beruf/journalistische-trendthemen

„Künstliche Intelligenz im Journalismus – Potenziale und Herausforderungen für Medienschaffende”, (Whitepaper, Stand Januar 2023): AG3_WP_KI_und_Journalismus.pdf (plattform-lernende-systeme.de)

„Künstliche Intelligenz in Journalismus und Medien”, (Medien360G, mdr.de): https://www.mdr.de/medien360g/medienwissen/ki-in-journalismus-und-medien-100.html 

„Offen, verantwortungsvoll und transparent – Die Guidelines der dpa für Künstliche Intelligenz“, (Stefan Raabe, 3.04.2023): Fünf dpa-Guidelines für Künstliche Intelligenz

„GPT-4: Die neue KI-Generation ist besser – und lässt doch viele Fragen offen“, (Andreas Proschofsky, der Standard, 17.03.2023) : GPT-4: Die neue KI-Generation ist besser – und lässt doch viele Fragen offen – Innovationen – derStandard.at › Web

Ethik und Künstliche Intelligenz: „ChatGPT: So lässt sich künstliche Intelligenz verantworten„, (Peter Dabrock, Spiegel Netzwelt, 30.01.2023) https://www.spiegel.de/netzwelt/chatgpt-so-laesst-sich-kuenstliche-intelligenz-verantworten-gastbeitrag-a-d89746ff-a263-4a70-a6d2-7029bb45b7ac

„Texte und Videos per Knopfdruck: Was kann KI im Journalismus?“, (deutschlandfunk.de, 2.3.2023): Texte und Videos per Knopfdruck – Was kann KI im Journalismus? | deutschlandfunk.de

„Warum ChatGPT keine Gefahr für den Lokaljournalismus ist“, (Phillip Weingand, Stuttgarter-Nachrichten.de, 27.03.2023): Künstliche Intelligenz: Warum ChatGPT keine Gefahr für den Lokaljournalismus ist (stuttgarter-nachrichten.de)

„Die Angst vor Desinformation in Zeiten von KI“, (Christian Meier, welt.de, 26.03.2023): Angst vor der Desinformation in Zeiten von KI – Medien-Woche Podcast – WELT

Artificial Intelligence Act (AI-Act): https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

Kommentare sind geschlossen.