Der Chatbot ChatGPT ist derzeit in aller Munde. Welche Auswirkungen hat die künstliche Intelligenz auf Journalismus? Foto: IMAGO/NurPhoto/IMAGO/Jonathan Raa

Der Chatbot ChatGPT verfasst Gedichte, Romane, Computerprogramme, manche beschwören deswegen das Ende des Journalismus. Wir haben ausprobiert, ob der Bot ein guter Redakteur wäre.

Texte auf Knopfdruck – wie verlockend muss das für Verleger sein, erst recht in Krisenzeiten? Seit einiger Zeit macht der Chatbot ChatGPT von sich reden, der Texte zu beliebigen Themen ausspuckt. Die Medienbranche ist im Aufruhr. „Mit ChatGPT gibt es ein Programm, das den Journalismus und das gesamte akademische Milieu radikal umpflügen wird“, prophezeit etwa der rechtsalternative Blog „Tichys Einblicke“. Ein Autor des Branchenmagazins Meedia schreibt: „Ich habe die Zukunft des Journalismus gesehen – und sie heißt GPT“.

 

Tatsächlich sind die Fähigkeiten des Chatbots erstaunlich: In Sekundenschnelle – je nach Serverauslastung – erstellt er Texte in fast fehlerfreiem Deutsch zu beliebigen Themen, in der gewünschten Länge. Er ändert sie auf Wunsch des Nutzers um, übersetzt sie sogar in jede Sprache der Welt. Ein Aufsatz über den St. Patricks Day? Kommt sofort. Ein Abriss über die Deutsche Wiedervereinigung? Kein Problem. Als Journalist muss man da zunächst schlucken. Sitzt in zwei Jahren etwa ein Chatbot an unserem Arbeitsplatz, der schneller arbeitet, keine Kaffeepause braucht und scheinbar alles weiß?

Wagen wir den Test – für den Einstieg muss es auch kein Kandidat für den Pulitzerpreis sein. Aktuell steht eine Übersicht der besten Bars im Rems-Murr-Kreis an – alle von ihnen haben Webseiten, meist sind über sie auch schon Zeitungsartikel erschienen. Für ein Computerprogramm müsste es ein Leichtes sein, beispielsweise die Google-Bewertungen als Auswahlkriterium heranzuziehen, die Öffnungszeiten zu checken und die beliebtesten fünf Bars herauszupicken. Das Ganze in 4000 Zeichen, strukturiert mit Zwischenüberschriften.

Das Ergebnis liest sich zunächst gut: ChatGPT stellt einen Artikel mit verschiedenen Bars zusammen, streicht ihre Besonderheiten hervor, die Zeichenzahl passt perfekt. Doch ein Blick auf die Namen der Bars macht stutzig: Das Kesselhaus in Schorndorf ist definitiv einen Tipp wert. Aber wo soll denn die „Weinbar Waiblingen“ sein? Und an der Adresse, unter der sich in Schorndorf der „Club Domenico“ mit einem „erstklassigen Soundsystem“ befinden soll, ist lediglich ein Paketshop gemeldet. Ein „Brauereigasthof Löwenbräu“ in Backnang existiert ebenfalls nicht. Auf Nachfrage schreibt ChatGPT, die Informationen über diese Bars seien öffentlich zugänglich, der Bot rät sogar, sich vor einem Besuch noch einmal über die aktuellen Öffnungszeiten zu informieren.

ChatGPT ignoriert die Anweisung, bei den Fakten zu bleiben

Erst als der Chatbot auf ganz offensichtlich nicht existierende Bars hingewiesen wird, wird er kleinlaut: „Es ist wichtig, zu betonen, dass alle Angaben in meinem vorherigen Artikel nur aus fiktiven Quellen stammen und somit nicht der Wahrheit entsprechen.“ Ach ja, danke für die Info. Und wenn uns das nicht reicht, rät der Bot uns, „eine eigene Recherche durchzuführen“. Geben wir ChatGPT dennoch eine weitere Chance – vielleicht sind Bars im Remstal ja zu provinziell für dieses Internet. Die nächste Aufgabe ist ein Artikel über ein schweres Verbrechen, das sich im November 2017 in Backnang ereignet hatte. Über den Fall war überall ausführlich berichtet worden, er war sogar Thema einer Fernsehsendung eines Privatsenders. Es sollte für den Bot ein Leichtes sein, die Infos herauszufinden.

Doch falsch gedacht: Die Geschichte, die ChatGPT schreibt, scheint in sich schlüssig. Doch weder Tatort noch Opfer oder Täter, geschweige denn der Ablauf oder das Motiv stimmen – trotz der Anweisung, nur reale Fakten zu nennen und sich auf öffentlich zugängliche Informationen zu stützen.

Zumindest beim jetzigen Stand können Lokalredakteure aufatmen – selbst dann, wenn es um Themen geht, die komplett online recherchiert werden können. Von Reportagen, die von Sinneseindrücken vor Ort leben, oder von Hintergrundberichten, in denen angesichts ihrer Brisanz niemand offiziell zitiert werden will, ganz zu schweigen.

Eine Herausforderung wird ChatGPT für Journalisten dennoch werden – zum Beispiel bei der Erkennung von Fake News. Die Seriosität einer Quelle konnte man vor einiger Zeit – unter anderem – daran einschätzen, wie viele Ausrufezeichen und Schreibfehler ein Schreiben enthielt. Beziehungsweise wie wenige nachprüfbare Fakten oder Quellenangaben die Autoren solcher Botschaften mitlieferten. Im Gegensatz dazu formuliert ChatGPT, wenn man es richtig anstellt, Fake News in Reinform, auf Wunsch im Stil der Nachrichtenagenturen und mit geschickt eingestreuten tatsächlichen Fakten wie Namen der Akteure. Derart aufgebohrte Falschinfos zu erkennen, wird künftig deutlich schwerer sein – und Medienkompetenz bei Jung und Alt noch einmal wichtiger.

ChatGPT – Texte auf Knopfdruck

ChatGPT
Der Name steht für „Generative pre-trained Transformer“. Der sogenannte Chatbot ist nach einer Registrierung über den Internetbrowser abrufbar. ChatGPT hat eine Nutzeroberfläche, die an einen klassischen Chatraum erinnert – doch der Gesprächspartner ist kein Mensch, sondern eine künstliche Intelligenz. ChatGPT beantwortet dabei nicht nur Fragen, sondern erstellt auch Artikel und andere Texte wie Businesspläne oder Programmcodes.

Kursangebot
Die VHS Unteres Remstal bietet aktuell einen neuen Kurs zum Thema Künstliche Intelligenz an. Das Webinar beschäftigt sich mit den Grundlagen von ChatGPT, seinen Prinzipien, Fähigkeiten und Grenzen. Der Dozent ist Walter Kaiser, der Kurs findet am Donnerstag, 20. April, von 18.30 bis 20 Uhr statt. Eine Teilnahme kostet 15 Euro, eine Anmeldung zum Kurs mit der Nummer 23F50745 ist unter www.vhs-unteres-remstal.de möglich.