apa.at
APA-Value / Mittwoch 25.02.26
APA Katharina Schell, stv. APA-Chefredakteurin

KI-Kennzeichnung: Braucht es schon den Paradigmenwechsel?

Mit Transparenzvorgaben auf Basis des EU-AI-Acts ist es nicht getan. In einer KI-getriebenen Informationsgesellschaft muss die Frage, welche Rolle die Kennzeichnung von „KI“ im Medienkontext spielt, stetig neu bewertet werden. 

Die vom Branchenmagazin Österreichs Journalist:in zur „Chefredakteurin des Jahres 2025“ gewählte KI- und Innovationsexpertin Katharina Schell beleuchtet im Beitrag Kennzeichnungsstrategien im Medienorganismus. Als stv. APA-Chefredakteurin legt sie den Fokus auf die genuin journalistische Leistung, „echte“ Informationen im Spannungsfeld zwischen Transparenzpflicht, Innovationsbereitschaft, publizistischer Verantwortung und dem Erhalt von Vertrauen sichtbar zu machen.

Adam Mosseri, der Chef von Instagram, war am Silvestertag 2025 in Nachdenkstimmung. In einem vielteiligen Posting – auf Instagram natürlich – legte er seine Gedanken über die Zukunft von Content im KI-Zeitalter dar. „Authentizität wird eine karge Ressource”, schrieb er. KI-Inhalte seien perfekter als jedes Abbild der Realität. Wer sich noch abheben wolle vom Feed des Schönen und Künstlichen, müsse weniger „schmeichelhafte” Visuals produzieren: „In einer Welt, in der alles perfektioniert werden kann, wird Unvollkommenheit zu einem Signal.”

Ein bisschen schiacher bitte, viel weniger perfekt – einfach: real? Nicht einmal das wird klappen, geht es nach Mosseri. Unvollkommenheit als Marker für das Echte werde ebenfalls von KI reproduziert werden. Er sieht uns unterwegs in eine Welt, in der wir unseren Augen nicht mehr trauen können. Sein Schluss: „Plattformen wie Instagram werden ihr Bestes tun, um KI-Inhalte zu identifizieren, sie werden darin mit der Zeit aber immer schlechter werden. Es wird praktikabler sein, echte Inhalte zu kennzeichnen als verfälschte.”

Wir hoffen, Adam Mosseri hatte trotz dieser schweren Gedanken dann doch noch einen ausgelassenen Jahreswechsel. Für Medienmenschen, die sich im Jahr 2026 Gedanken über KI-Transparenz im Journalismus machen, war sein Beitrag ein spannendes Signal über Silvester hinaus: Wenn sich Plattformen wie Instagram überlegen, was zu tun ist, tun sie das selten aus Sorge um die Gesellschaft, denn aus einer Business-Perspektive. Wenn Plattformen aus geschäftlichem Interesse beginnen, echten Content höher zu ranken als AI-Fakes, sollten Medien gerüstet sein.

„Wenn Plattformen beginnen, echten Content höher zu ranken als AI-Fakes, sollten Medien gerüstet sein.”

Kennzeichnungsvorgaben nehmen Form an

2026 wird im Zeichen der Entwicklung nachhaltiger und verbindlicher Systematiken für die Kennzeichnung von KI in journalistischen Contentprodukten stehen – diese Prognose ist nicht allzu gewagt. Die Arbeiten am „Code of Practice on Transparency of AI-generated Content under the AI Act” laufen. Im aktuellen Draft sind unter anderem ein „einheitliches Symbol für Deepfakes und KI-generierte und -manipulierte Textveröffentlichungen” als Offenlegungsmethode vorgesehen.

Eine gute Nachricht für jene Medienhäuser, die ungeduldig auf klare Vorgaben warten, was zu kennzeichnen ist und wie. Aber ist es auch eine gute Nachricht für unseren Auftrag als Medien mit Qualitätsanspruch?

Profundes Misstrauen

Je mehr KI-generierte Inhalte die Feeds der User:innen dominieren, desto weniger wissen sie, was sie noch für authentisch halten können. Aus einer gesunden, medienkompetenten Skepsis wird so profundes Misstrauen.

Dieser Habitus des verfestigten Misstrauensvorschusses könnte die eigentliche von KI getriebene Disruption des Kommunikationsraums darstellen. Und ist von vitalem Interesse nicht für Instagram und die Creators, die es bespielen. Ein Informations-Ökosystem, das jegliche Bemühungen von Medienmarken, das Vertrauen in ihr Publikum zu stärken (oder wiederherzustellen), wenn nicht ad absurdum führt, so doch massiv erschwert.

Während Medienorganisationen an Kennzeichnungsstrategien für den KI-Anteil in ihrer Produktion arbeiten, wird der öffentliche digitale Raum mit ungelabelten KI-Inhalten, oft AI Slop, geflutet. Dieser – zweifelsohne derzeit massiv gehypte – Begriff steht für massenhaft verbreitete, minderwertige und/oder manipulative KI-Inhalte. Dass dieses Phänomen als problematisch zu betrachten ist, gilt derzeit als Konsens in der öffentlichen Betrachtung; was er mit der Bereitschaft der Gesellschaft, digital verbreitete Inhalte als legitim zu akzeptieren, anstellt, ist auf Forschungsebene noch nicht schlüssig erhoben. Doch scheint es wahrscheinlich, dass bewährte Vertrauensindikatoren ihre Wirkung verlieren.

Welche Antwort haben Medien auf diese Entwicklung? Reicht es, die künftigen Vorgaben auf Basis des AI Acts umzusetzen? Es ist zu befürchten: Nein. Wer denkt, es sei mit einem simplen Label („mit KI erstellt”) getan, verkennt das Erosionspotenzial des Einsatzes von KI im Journalismus auf User:innenseite.

„Jede Kennzeichnung birgt die Gefahr, den gekennzeichneten Inhalt zu entwerten.”

Jede Kennzeichnung birgt die Gefahr, den gekennzeichneten Inhalt zu entwerten. Es gibt jede Menge Forschung über die Einstellung des Publikums zu KI-generierten Inhalten, die gekennzeichnet wurden. Und es zeigt sich: Der Misstrauensvorschuss erstreckt sich nicht nur auf realistisch animierte Katzen, die Kekse backen, wie sie Instagram und Co. bevölkern. Der „Gestank von KI” kann Inhalte besudeln.

Und ja: Die User:innen ticken paradox. Wenn ihnen für wissenschaftliche Studien seriöse journalistische Texte vorgelegt werden, die mit KI-Assistenz erstellt und korrekt gelabelt wurden, werden sie skeptisch. Zugleich steigt die Nutzung von ChatGPT und seinen Konkurrenzangeboten weiter stark an. Und wurden diese Apps in den Anfangsjahren noch vor allem zum Generieren von Content eingesetzt, ist der Use Case „Informationen finden” mittlerweile der Wichtigste, wie der Digital News Report 2025 zeigte. Den KI-Chatbot des Vertrauens nach aktuellen Informationen zu fragen, ist zum Alltag geworden.

AI Slop hier, auskunftswillige Chatbots da. Wie positionieren sich verlässliche journalistische Informationen in diesem Spannungsfeld? Im Worst-Case-Szenario wären in einem Nachrichtenumfeld korrekt gekennzeichnete journalistische Beiträge in den Augen des Publikums weniger wert als generischer, nichtjournalistischer – und nicht gekennzeichneter – KI-Müll.

Unser Geschäft ist Transparenz

In einem künstlichen Medienumfeld haben Qualitätsmedien eigentlich nur eine Chance, zu reüssieren: mit echten Informationen, auf die man sich verlassen kann. Verhelfen wir dieser genuin journalistischen Leistung ausreichend zur Sichtbarkeit, wenn wir nur „KI” kennzeichnen? Wenn ohnehin überall „Künstliches“ drin ist – sollten wir dann nicht besser „Echtes“ ausschildern? Und: Wenn das Geschäftsmodell jener Plattformen, die unser Business seit Jahrzehnten disruptieren (um es elegant zu formulieren), den künftigen Wert in Authentizität begründet sieht – wie schaffen wir es, unsere Echtheit zu monetarisieren?

Einheitliche Standards für KI-Transparenz sind wichtig – für Medien und User:innen. Doch journalistische Transparenz ist unser Geschäft. Und am Ende sollte vor allem eine wesentliche Information bei den User:innen ankommen: Hier erhältst du „echten” Journalismus.