apa.at
APA-Value / Dienstag 10.10.23

Konferenz „The Future of Fact Checking“

Eine hochkarätig besetzte APA-Konferenz widmete sich am 28. September der Bedeutung und Zukunft von Faktenchecks. Verbale Attacken gegen Faktenchecker:innen befinden sich demnach im Aufwind, KI entwickelt sich zum "Spürhund" für problematische Inhalte und die Sensibilisierung der Bevölkerung zur gesamtgesellschaftlichen Herausforderung.

Desinformationskampagnen und Fake News sind inzwischen allgegenwärtige Phänomene. Professionelle Faktenchecks bilden wirksame Gegenmittel, werden aber selbst immer häufiger das Ziel von Angriffen. Vor welchen Herausforderungen die Branche steht, welche Rolle KI-gestützte Tools spielen können und welche Strategien es gegen Desinformation gibt, diskutierten Branchenvertreter:innen auf Einladung der APA am 28. September in Wien. Journalistin und TV-Moderatorin Susanne Schnabl, ORF, führte durch die Impulsvorträge und Panels.

Beim Event „The Future of Fact Checking“ erörterten Expertinnen und Experten aktuelle Entwicklungen und brennende Fragen zum Thema Faktencheck. Im Bild v.l.n.r.: Moderatorin Susanne Schnabl (ORF), Johannes Bruckenberger (APA), Stefan Voss (dpa-Faktencheck), Susanne Lackner (KommAustria), Florian Schmidt (APA-Faktencheck), Ingrid Brodnig (Autorin und Journalistin), Anastasia Lopez (Lie Detectors), Jakob Winter (profil/Faktencheck faktiv), Eva Wackenreuther (AFP-Faktencheck), Lea Frühwirth (CeMAS Center für Monitoring, Analyse und Strategie), Ines Holzmüller (bait.faktencheck) und Isabelle Sonnenfeld (Google-News Lab Deutschland).
Foto: APA-Fotoservice/Tanzer

Faktenchecks als gesamtgesellschaftlicher Auftrag

„Es muss unserer Gesellschaft viel daran liegen, dass wir alle zwischen Fakten und Fakes – viele davon zusehends KI-generiert – unterscheiden lernen können. Es muss sichere Haltegriffe geben, die helfen und Einordnung liefern“, eröffnete APA-CEO Clemens Pig die Veranstaltung. Gerade Medien und Nachrichtenagenturen hätten mit ihren Journalist:innen und Newsrooms die besten Voraussetzungen, für zuverlässige und sichere Nachrichten zu sorgen. Während KI-Tools einerseits für die Produktion von immer echter wirkender Desinformation eingesetzt werden können, biete sich in ihrer Anwendung auch eine Chance für Aufklärung.

APA-Chefredakteur Johannes Bruckenberger betonte die Verbreitung richtiger, glaubwürdiger und vertrauenswürdiger Nachrichten als Teil des Grundauftrages der APA. „Mit Verification und Faktenchecks beschäftigen wir uns seit 2017. Anfang 2020 haben wir begonnen, der stetig steigenden Flut an Desinformation im digitalen Raum mit einem Team an Verifikations-Profis und seriös recherchierten Fakten entgegenzutreten“, so Bruckenberger. Man setze dafür auch auf nationale und internationale Vernetzung – etwa im Rahmen des German-Austrian Digital Media Observatory (GADMO), einer Plattform führender deutschsprachiger Faktencheck-Organisationen, oder durch die Mitgliedschaft im International Fact Checking Network (IFCN).

Keynote: Faktenchecks als Feindbild

Digitalexpertin Ingrid Brodnig eröffnete ihren Impulsvortrag mit einem Streifzug durch die Welt der Faktenchecks und Fake News. Emotionale Inhalte würden häufiger mit anderen geteilt, was dazu führe, dass sich Fake News schneller verbreiten als Faktenchecks. „Menschen verfallen schnell in Heuristiken. Mechanismen im menschlichen Denken bewirken, dass Dinge für wahr gehalten werden“, so die Digitalexpertin. Dafür gebe es in der Psychologie zahlreiche Erklärungen, etwa den illusory truth effect, der das Phänomen beschreibt, dass Aussagen, die zuvor bereits gehört wurden, ein größerer Wahrheitsgehalt zugeschrieben wird, also solchen, die zum ersten Mal gehört werden.

Brodnig skizzierte weiters, mit welchen spezifischen Methoden Faktenchecks relativiert werden. Auch verbale Attacken auf Faktenchecker:innen würden zunehmen, seien aber auch ein positives Signal: „Ich deute diese harte Gegenwehr aus der Desinformationsszene als Hinweis darauf, dass dieser Szene Faktenchecks nicht ganz recht sind. Das ist ein Indiz dafür, dass Faktenchecks wirken“, so Brodnig. Wichtig wären außerdem das Wiederholen sowie Sichtbarkeit und Zugänglichkeit der Einordnung durch Faktenchecks.

Digitalexpertin und Keynote-Speakerin Ingrid Brodnig: Faktencheckorganisationen sollten Einordnungen wiederholen, da auch Fake News immer wieder im Netz kursieren.
Foto: APA-Fotoservice/Tanzer

Panel 1: Wer schützt uns vor Fake News? 

Zur Frage „Wer schützt uns vor Fake News“ diskutierte Brodnig anschließend mit Susanne Lackner, stv. Vorsitzende der KommAustria, Stefan Voss, Leiter Verification Deutsche Presse-Agentur (dpa) und – digital zugeschaltet – Sabine Frank, Head of Governmental Affairs und Public Policy bei YouTube. Voss hielt zunächst fest, was man sich von Faktenchecks erwarten dürfe und was nicht: „Wir prüfen keine Meinungen, sondern Tatsachenbehauptungen.“ Es gehe daher auch nicht darum, Meinungen zu zensieren oder Inhalte zu löschen, sondern um eine Gegenüberstellung von falschen Behauptungen und geprüften Fakten. Dazu arbeite die dpa unter anderem mit Facebook zusammen. Falschbehauptungen werden dort mit grauen Overlays überdeckt, User können zwar weiterhin auf den Originalcontent klicken, die Faktenchecks bleiben aber sichtbar. Laut Angaben von Facebook wirke diese Arbeit: 90 Prozent der User klicken demnach nicht mehr auf einen Beitrag, der mit solchen Faktenchecks versehen ist.

Bei YouTube geht man dagegen einen anderen Weg und arbeitet nicht mit einzelnen Faktenchecker:innen zusammen. „Wir bezahlen nicht für einzelne Checks, sondern finden es sinnvoller, in die Breite zu investieren“, so Frank. Man arbeite dafür mit vielen Institutionen zusammen und setze auch auf KI. Der Großteil der auf YouTube hochgeladenen Inhalte werde zuerst einer KI angezeigt, das führe dazu, dass etwa 70 Prozent der problematischen Inhalte entfernt würden, bevor sie von mehr als 10 Personen gesehen werden, erläuterte Frank.

Den Einsatz von KI bewerteten auch andere Diskussionsteilnehmer:innen positiv. Brodnig gab allerdings zu bedenken: „Wenn immer mehr KI für wichtige Entscheidungen eingesetzt wird, dann brauchen wir Transparenz darüber, wie diese KI trainiert wurde.“ Hier kommt auch der Gesetzgeber ins Spiel. Mit dem Digital Services Act habe die EU ein Paket geschnürt, das darauf abziele, einen sicheren digitalen Raum zu schaffen und damit auch Online-Plattformen in die Pflicht zu nehmen.

Lackner führte aus, dass hier Risikoanalyse von Seiten der Plattformen, Transparenz bei Empfehlungssystemen und erstmals Zugang zu Daten für Forscher:innen geschaffen würden. „Wir sehen immer mehr, dass der Kampf gegen Desinformation eine gesamtgesellschaftliche Aufgabe ist, in der wir alle unsere Rolle haben und autonom agieren müssen. Faktenchecker und Behörden ergänzen sich so in ihrer Tätigkeit“, so Lackner.

Stefan Voss (dpa-Faktencheck), Susanne Lackner (KommAustria), Ingrid Brodnig (Autorin und Journalistin) und Sabine Frank (YouTube DACH/CEE; digital zugeschaltet) diskutierten unter der Moderation von Susanne Schnabl (ORF; links im Bild) die Frage “Wer schützt uns vor Fake News?”.
Foto: APA-Fotoservice/Tanzer

Impulsvortrag: Neue Tools & Stärkung der Medienkompetenz

Isabelle Sonnenfeld, Head of Google News Lab EMEA, erläuterte, wie man Desinformation mit Hilfe neuer Tools erkennen und widerlegen könne. Google arbeite dafür seit vielen Jahren eng mit Journalist:innen und Faktenchecker:innen zusammen und versuche etwa über die Rankings in den Suchergebnissen, schädliches Verhalten zu minimieren. Sonnenfeld präsentierte auch neue Tools, die Faktenchecks konkret unterstützen sollen. Wichtig sei außerdem, Medienkompetenz aufzubauen und damit Resilienz zu stärken: „Für mich persönlich ist der wichtigste Aspekt, dass wir es schaffen, Menschen deutlich zu machen, dass es wichtig ist, Dinge zu hinterfragen“, so Sonnenfeld.

Panel 2: Ukraine-Krieg, Corona, Klima – zur Systematik von Fake News in Krisenzeiten

Im darauffolgenden Panel diskutierten Eva Wackenreuther, Ressortleiterin AFP-Faktencheck, Jakob Winter, Leiter des Faktenchecks Faktiv bei profil, Lea Frühwirth, CeMAS – Center für Monitoring, Analyse und Strategie, Alexander Schindler, AIT – Austrian Institut of Technology, und Reinhard Steurer, Professor für Klimapolitik an der Universität für Bodenkultur, über die Systematik von Fake News in Zeiten multipler Krisen. Die Natur falscher Narrative ähnle sich stark, erläuterte Wackenreuther. „Teilweise hüpfen Falschinformationen fast identisch von Land zu Land“, so die Faktencheckerin. Die Urheber unterscheiden sich, manchmal könne man aber erkennen, dass Organisationen dahinter stünden, etwa wenn mit großem Aufwand Websites fast identisch nachgebaut und mit einzelnen Falschmeldungen versehen würden.

Dem Befund schloss sich auch Frühwirth an: „Es gibt mehrere Strukturen, die wir immer wieder erkennen. Desinformationen und Angebote, die vermeintlich Halt und Orientierung geben und die Welt begreifbarer und für den Einzelnen handbarer machen.“ Die Krisen von Corona bis Ukraine-Krieg hätten das noch verstärkt.

„Ich könnte zehnmal so viele Leute in meinem Team haben und es wäre immer noch genug Arbeit da“, erklärte Winter. „Etwa ein Drittel der Bevölkerung sind für Verschwörungsmythen empfänglich. Die Hardcore-Gläubigen wird man auch mit den besten Faktenchecks nicht erreichen können. Jene, die sich davon verunsichern lassen, aber schon.“ Wichtig sei dabei, dass Faktenchecks möglichst neutral geschrieben, transparent und nachprüfbar seien.

Reinhard Steurer, Professor für Klimapolitik an der Universität für Bodenkultur in Wien, wünschte sich, dass Wissenschafter:innen mit ihrer Expertise häufiger in Faktenchecks eingebunden werden. Unterstützen könnte laut Schindler (AIT) auch der verstärkte Einsatz von Technologie: „Es geht hier um ein Datenvolumen, das man nicht mehr ohne technologische Unterstützung factchecken kann. Technologie kann dabei helfen, Schreibstile und Emotionen zu erkennen und so Themen und Narrative zu extrahieren“, so Schindler.

"Corona, Ukraine-Krieg, Klimakrise” als Kontext für eine Zeit der Fake-News-Hochkonjunktur widmeten sich Reinhard Steurer (Professor für Klimapolitik/Univ. BOKU Wien), Alexander Schindler (AIT – Austrian Institute of Technology), Eva Wackenreuther (AFP-Faktencheck), Jakob Winter (Faktencheck faktiv/Profil) und Lea Frühwirth (CeMAS Center für Monitoring, Analyse und Strategie).
Foto: APA-Fotoservice/Tanzer

Panel 3: Junge Zielgruppen und die nötige Reichweite für Fakten

Das dritte Panel der Konferenz widmete sich dem Erreichen junger Zielgruppen auf sozialen Netzwerken wie TikTok. Dazu diskutierten Idan Hanin, ZIB TikTok, Ines Holzmüller von BAIT, einem Faktencheck-Kanal für Jugendliche auf TikTok, Anastasia Lopez von Lie Detectors, einem europäischen Medienkompetenzprojekt, und Florian Schmidt, Verification Officer und Leiter des APA-Faktencheck-Teams. Schmidt ging eröffnend auf eine der Problematiken ein, denen sich Faktenchecks gegenübersehen: „Viele unserer Faktenchecks sind nüchterne Textwände, die eher einer wissenschaftlichen Arbeit gleichen und kein klassisches journalistisches Produkt sind. Wir haben ein sehr enges Korsett, wie Faktenchecks aussehen müssen.“

Gerade für soziale Medien wie TikTok sei es aber wichtig, kurz und „catchy“ zu sein. „Auf TikTok sind die ersten zwei Sekunden entscheidend. Der Hook muss gut und spannend sein, als Journalistin ist das oft schwierig, weil man nicht zu sehr zuspitzen und emotionalisieren möchte“, erläuterte Holzmüller. Das Potenzial für Faktencheck sei aber auch auf Social Media gegeben. „Jugendliche sind dem, was sie auf Social Media sehen, oft skeptisch gegenüber. Was ihnen aber fehlt, sind seriöse Medien als Leitanker“, so Holzmüller.

Lopez, die mit Lie Detector gezielt Schüler:innen und Lehrpersonen anspricht, ergänzte: „Ein Problem in den Klassen ist häufig, dass Jugendliche glauben, auf nichts hereinfallen zu können. Beim Nachfragen bemerkt man dann oft, dass sie gar nicht wissen, wer hinter der Nachricht steckt, die sie glauben.“ Desinformation begegne man im Netz unter anderem bei Videos, die zwar echt seien, aber in einen falschen Kontext gesetzt würden.

„Seit Jahren sind Deep Fakes das Schreckgespenst, das über uns allen hängt. In Wahrheit sind sie aber gar nicht notwendig, der Aufwand, um Fakes glaubwürdig zu machen, ist relativ gering. Leute glauben auch schlecht gemachte Fakes“, so Schmidt. Dem stimmte auch Hanin zu: „Es braucht nicht die perfekten Deep Fakes, damit Leute auf etwas hereinfallen, es fängt schon viel früher an.“

Besonders praxisnah zeigte sich Panel 3: Idan Hanin (ORF), Florian Schmidt (APA-Faktencheck), Anastasia Lopez (Lie Detectors) und Ines Holzmüller (bait.faktencheck) berichteten unter dem Motto “Frag eine FaktencheckerIn!” aus ihrem beruflichen Alltag.
Foto: APA-Fotoservice/Tanzer
Video-Aufzeichnung Teil 1:

Keynote Ingrid Brodnig (Autorin und Journalistin): „Faktenchecks als Feindbild. Über die Bedeutung von Faktenchecks und wie Faktenchecks desavouiert werden“

Panel 1: „Wer schützt uns vor Fake News?“
Ingrid Brodnig, Autorin und Journalistin
Sabine Frank, YouTube DACH/CEE
Susanne Lackner, KommAustria
Stefan Voss, dpa-Faktencheck

Video-Aufzeichnung Teil 2:

Impulsvortrag Isabelle Sonnenfeld (Google): „Faktenchecks und Medienkompetenz“

Panel 2: „Corona, Ukraine-Krieg, Klimakrise“
Lea Frühwirth, CeMAS Center für Monitoring, Analyse und Strategie
Alexander Schindler, AIT – Austrian Institute of Technology
Reinhard Steurer, Professor für Klimapolitik/BOKU Wien
Eva Wackenreuther, AFP-Faktencheck
Jakob Winter, Faktencheck faktiv/Profil

Panel 3: „Frag eine Faktenchecker:in“
Idan Hanin, ZIB TikTok/ORF
Ines Holzmüller, bait.faktencheck
Anastasia Lopez, Lie Detectors
Florian Schmidt, APA-Faktencheck

Fotogalerie "The Future of Fact Checking"

Die Bilder zur internationalen Faktencheck-Konferenz am 28. September in Wien.

Zur Fotogalerie

Das Event wurde von Google, Stadt Wien, RTR/KommAustria und dem AIT unterstützt.