apa.at
blog / Montag 09.10.23

KI-Bilder entlarven: So geht’s

Florian Schmidt ist Verification Officer der APA – Austria Presse Agentur und leitet seit 2020 die Faktencheck-Abteilung. Mit seinem Team nimmt er viral gegangene Behauptungen, Bilder oder Videos genauer unter die Lupe und prüft diese auf ihre Faktenbasis. Im Interview erfahren Sie mehr über Recherchetechniken, aktuelle Trends und neue Technologien rund um Fake News.
Fotoservice/Tanzer Florian Schmidt, Verification Officer der APA – Austria Presse Agentur

Welche Möglichkeiten gibt es, KI-Bilder zu überführen?

Derzeit gibt es drei verschiedene Ansätze, die wir verfolgen. Erstens: Das Bild selbst wird auf optische Auffälligkeiten überprüft – das heißt, wir überprüfen, ob erkennbare Fehler passiert sind, die die KI derzeit noch häufig macht. Wir nehmen aber an, dass diese Fehler in Zukunft immer weniger werden. Darüber hinaus nutzen wir KI-Detection-Tools, mit denen wir versuchen, KI-Bilder mithilfe von KI automatisch zu überführen. Das funktioniert allerdings nicht zu 100% zuverlässig und wir gehen davon aus, dass das auch in Zukunft wahrscheinlich nie zu 100% funktionieren wird. Der dritte Ansatz, um KI-generierte Bilder zu überführen, ist der Ansatz der äußeren Logik bei einem Bild. Das heißt, wir nutzen klassische journalistische Recherchetechniken und stellen Fragen wie: Gibt es Augenzeugen oder gibt es andere Bilder, die diese Situation bestätigen?

Welche Gefahren stellen neue Technologien wie Deepfakes und KI-Bilder dar?

Grundsätzlich stellen diese Technologien sehr große Gefahren dar, weil wirklich jeder heutzutage auf Knopfdruck oder mit einer App sehr gute Fakes erstellen kann. Das heißt, eine große Gefahr besteht nicht unbedingt darin, dass dabei etwas Neues entsteht, sondern, dass die Erstellung von Fakes immer leichter zugänglicher wird – für jeden, zu jeder Zeit. Und trotzdem beobachten wir, dass diese ganzen neuen „fancy“ Technologien derzeit noch gar nicht notwendig sind, um Fakes zu verbreiten. Die meisten kursierenden Fakes, kann man innerhalb von 30 Sekunden bis zu einer Minute überführen, weil sie nicht sehr gut gemacht sind. Und trotzdem: Eine große Anzahl an Menschen erachten diese Fakes als wahr, weil sie daran glauben wollen. In der Theorie gibt es durchaus sehr große Gefahren durch Deepfakes, durch KI. Es wird auch definitiv Bilder und Videos geben, die uns wirklich erschüttern und verunsichern werden und vielleicht sogar Krisen auslösen werden. Aber: Die größere Gefahr sind derzeit die sehr billig produzierten Fakes.

Wie rüstet man sich im Faktencheck-Team, um auf neue Herausforderungen reagieren zu können?

Wir achten in der APA sehr darauf, dass wir uns vernetzen – sowohl international als auch mit Partnern, also mit anderen Faktencheckern in Österreich zum Beispiel. Unser Beruf ist kein Lehrberuf, in dem es ein Handbuch gibt, nach dem Fakes widerlegt werden können. Daher ist es umso wichtiger, im ständigen Austausch zu sein, um am neuesten Stand zu bleiben, was diverse Tools und Entwicklungen angeht. Wir benutzen wahnsinnig viele OSINT (Open Source Intelligence)-Tools, die kostenlos und frei im Internet verfügbar sind. Das heißt aber auch, dass es keine Garantie gibt, dass diese Tools morgen noch verfügbar sind und funktionieren. Da ist es enorm wichtig, Alternativen zu kennen und zu wissen, welche Tools sich in welchen Situationen einsetzen lassen, um Fakes zu überführen.