Von Katharina Schell, stv. APA-Chefredakteurin und Expertin für KI-Anwendungen im Medienbereich
Dass neue Technologien die journalistische Arbeitsweise verändern, ist nichts Neues. Da sind Angstzustände ebenso wenig angebracht wie digitale Euphorie. In der APA experimentieren wir schon seit 2022 mit GPT-3 und testen sehr unterschiedliche Anwendungsfälle. Wir haben viel gelernt, bisher vor allem: was nicht geht. Spoiler: Das meiste von dem, das derzeit gehypt wird.
Eine ganze Reihe von Falschannahmen prägt derzeit die Auseinandersetzung mit ChatGPT. Das größte Missverständnis: Der Bot könne „Wissen“ reproduzieren oder „Fakten“ liefern. Schließlich steht er ja auf jede Frage, sei sie kompliziert oder trivial, bereitwillig Rede und Antwort. Er kann damit recht haben, oder aber „voller Überzeugung Bullshit labern“, wie Marvin Strathmann, lesbar frustriert vom „irrationalen Hype“, es für heise.de ausdrückte.
„Bullshit“-Maschine?
Aber woher hat das Ding denn diese Informationen? Und warum sind sie „falsch“? Weil GPT und ähnlichen Modellen Fakten herzlich egal sind. Große Sprachmodelle haben gelernt, wie Texte funktionieren und welche Wörter besonders häufig miteinander kombiniert werden. Sie wissen etwas über das System Sprache, wie es in Texten repräsentiert wird. Sie wissen aber nichts von der Welt, die diese Sprache beschreibt.
Andreas Mauczka, CDO der APA und somit technologisch um einiges versierter als die Autorin dieser Blog-Zeilen, formuliert das so:
„Diese Modelle werden darauf trainiert, wie Menschen zu klingen. Dass dabei manchmal etwas faktisch Richtiges herauskommt, liegt in der Natur der Sache, ist aber nicht das Ziel. ChatGPT wurde mit ‚dem Internet‘ trainiert – es hat aber kein Wissen daraus gezogen. Auch wenn der Unterschied zwischen echtem Wissen über ein Faktum und der erhöhten Wahrscheinlichkeit von Wörtern, die durch ihr gemeinsames Auftreten dieses Wissen abbilden, oberflächlich gering scheint: Kommen die Wörter woanders auch oft miteinander vor – aber in einem anderen Kontext -, werden sie für GPT austauschbar und verlieren das Wissen, das sie abbilden.“
ChatGPT ist überdies nichts völlig Neues. Das Unternehmen OpenAI hat bereits vor einigen Jahren die ersten Generationen des generativen Sprachmodells vorgestellt, die aktuelle ist GPT-3, demnächst wird mit GPT-4 gerechnet. Das Neue am Chatbot ist, nun ja, seine Fähigkeit zu chatten. OpenAI veröffentlichte ChatGPT, um das „Conversational Design“ des Modells zu demonstrieren und zu testen.
Gepflegte Konversationen
Dank der Dialogfähigkeit von ChatGPT verirrt sich der Bot im Laufe einer Unterhaltung selten in Sackgassen, anders als seine tumberen Verwandten (wie Kundenservice-Bots oder Sprachassistenten). User:innen können Fragen stellen, nachhaken und auf frühere Aussagen Bezug nehmen. Das ist auch dringend nötig, will man ein brauchbares Ergebnis erhalten. Die Fragen müssen präzise formuliert, oft nachgeschärft und ergänzt werden. „Prompt Design“ oder „Prompt Engineering“ heißt der Fachbegriff. Was, nebenbei bemerkt, dahintersteckt: Dass Menschen (wieder einmal) lernen, ihre Kommunikationsstrategien so zu adaptieren, dass sie von Maschinen verstanden werden.
Moment: Warum sollte man überhaupt mit ChatGPT „reden“, wenn das Ding ohnehin nichts weiß von der Welt? Um sein Textwissen zu nutzen. Womit wir allerdings beim letzten großen Missverständnis wären. Denn ja, ChatGPT produziert gut lesbare, verständliche Texte. Doch ChatGPT kann menschliches Schreiben eben nur nachahmen, nicht ersetzen. Erst recht nicht journalistisches Schreiben. Da geht es, im besten Fall: um Fakten. Die sind, es wurde bereits erwähnt, der Maschine egal – der Journalistin (hoffentlich) nicht. Und davon, wie man Geschichten erzählt, die Lust aufs Lesen oder Zuhören machen, hat die KI gar keine Ahnung.
Ein „brauchbares Ergebnis“ ist somit kein faktisch „richtiger“ Text und sicher keine „gute Story“, die einfach mal so veröffentlicht werden. Aber wir brauchen ja so viel in unseren Redaktionen, die gelernt haben, „digital first“ zu denken. Schnell mehrere Versionen von ein und derselben Meldung, mal für einen Ticker, mal für Social Media? Schnell die Zahlen, die sich in einer langen Presseaussendung verstecken, raussuchen, und zwar bitte als Tabelle? Vielleicht auch eine sprachlich weniger komplexe Variante einer mit Fakten gespickten Geschichte, mit kürzeren Sätzen, weniger Fachbegriffen, um auch Menschen mit eingeschränktem Leseverständnis zu informieren? Nichts von all dem kann ChatGPT „von selbst“, und sollte man es schaffen, das Modell dafür einzusetzen: Nichts davon wird Journalist:innen obsolet machen. Und keine KI wird die publizistische Weltherrschaft an sich reißen.
Viele Fragen offen
Dass im APA-Basisdienst eines Tages vollautomatisch erstellte Meldungen einer KI erscheinen, ist völlig unrealistisch. Unbeeindruckt vom aktuellen Hype arbeiten wir aber gerade deshalb an einer KI-Strategie. Was brauchen wir? Was können diese Modelle? Ist es sinnvoll, sie als Komponenten, als Unterstützung für unsere Content-Prozesse einzubinden? An welcher Stelle? Was sind unsere Qualitätsstandards, gibt es „rote Linien“ für den Einsatz, wie adaptieren wir, wenn nötig, unsere Qualitätssicherungssysteme, können wir die Systeme für unsere Zwecke trainieren und „finetunen“? KI und Automatisierung werden im Journalismus bald eine stärkere Rolle spielen. Medienhäuser können das Beste daraus machen, wenn sie tief durchatmen, statt zu hyperventilieren.