apa.at
blog / Montag 17.11.25

APA Check Avatar KI-Bild von Mädchen am Steuer ging als “echt” viral

APA/Harald Schneider

KI-generierte Inhalte überschwemmen das Internet. Nicht zuletzt deshalb sind sie auch immer öfter Gegenstand von Faktenchecks. Innerhalb von zwei Jahren hat sich der Anteil an Falschinformationen mit KI-Bezug in Europa verfünffacht (1). Jüngst erreichte etwa die Nachricht von einem zwölfjährigen Mädchen aus Texas, das seinen todkranken Hund mit dem Auto zum Tierarzt gebracht haben soll, viele Menschen (2). Doch weder die Geschichte noch die dazugehörigen Bilder sind echt.

 

Einschätzung: Die Bilder wurden mittels KI generiert. Das Lenkrad des Autos befindet sich auf der falschen Seite. Auch kursieren weitere Versionen mit Bildern anderer Mädchen zu der Geschichte, die zudem ausschließlich in sozialen Medien Verbreitung findet.

 

Überprüfung: Das europäische Faktencheck-Netzwerk EDMO registriert einen deutlichen Aufwärtstrend bei KI-manipulierten Bildern und Videos, mit denen Stimmung gemacht werden soll (1). Zuletzt fand etwa ein Bild große Verbreitung, auf dem der ukrainische Präsident Wolodymyr Selenskyj Plateauschuhe getragen haben soll (3). Auch die APA – Austria Presse Agentur widmete sich der Falschbehauptung (4).

 

Diese Inhalte können Menschen aus verschiedenen Gründen in die Irre führen. Nicht immer müssen sie politisch relevant sein. Jüngst sorgte etwa die Nachricht für Erstaunen, dass ein gänzlich mithilfe Künstlicher Intelligenz erstellter Song Platz eins der US-amerikanischen Countrymusik-Downloadcharts eroberte (5).

 

Doch nicht nur in Sachen Musik, auch bei der Erstellung von Bildern und Videos mittels generativer KI geht die Entwicklung rasant voran, wie Googles KI-Videomodell Veo 3.1 oder kürzlich auch OpenAIs Sora 2 eindrucksvoll unter Beweis stellen (6,7). Mit derlei generierten Inhalten lassen sich Stimmungen erzeugen, Aufmerksamkeit erregen und letztlich Klicks generieren, die in ausreichender Menge wiederum Geld einspielen können.

 

Das kranke Mädchen mit dem todkranken Hund 

Nicht immer lassen sich solche Bilder und Videos auf den ersten Blick als Fälschungen erkennen. Oftmals gibt es dennoch Indizien. Im Fall des Mädchens, der auf verschiedenen Plattformen und Webseiten und mit teils enormer Reichweite kursiert (8,9,10), gibt es mehrere fragwürdige Auffälligkeiten.

 

So fehlt etwa am Armaturenbrett des Autos jegliche Art von Instrumenten, die die Fahrgeschwindigkeit, den Kilometerstand oder andere wichtige Informationen anzeigen. Auch das Herstellerlogo des Autos lässt sich vom Lenkrad nicht klar ablesen. Zudem haben die Lüftungsauslässe unterschiedlich viele Schlitze.

 

Am augenscheinlichsten ist aber die Position des Mädchens, das in Texas aufgehalten worden sein soll: Es sitzt auf der rechten Fahrzeugseite am Steuer – das würde auf einen Aufnahmeort etwa in Großbritannien hindeuten. Dass das Bild gespiegelt wurde, kann ausgeschlossen werden, da es vorgibt, von der Bodycam eines Polizeibeamten aufgenommen worden zu sein.

 

Nur in sozialen Medien, mit unterschiedlichen Bildern 

Nicht nur das Gezeigte sollte stutzig machen. Eine kurze Recherche zu der spektakulären Geschichte zeigt, dass es keinerlei seriöse Medienberichte darüber gibt (11). Auch das haben viele Falschbehauptungen gemein. Sucht man in sozialen Medien nach der Erzählung, stößt man jedoch auf weitere Versionen.

 

Inhaltlich handelt es sich dabei stets um dieselbe rührselige Geschichte, bebildert ist sie allerdings unterschiedlich. So gibt es etwa auch eine Version mit einem deutlich älter wirkenden Mädchen und einem größeren Hund, die ebenfalls auf der falschen Seite des Autos sitzen (12).

 

Selbst eine Variante mit einem kurzen Videoclip kursiert (13). Bei dieser wurde gänzlich auf die Mühe verzichtet, KI als Schöpfer zu verschleiern: In der rechten oberen Ecke ist ein Schriftzug zu sehen, der auf eine Webseite zur einfachen Erstellung von KI-generierten Inhalten verweist (14).

Hinweis: Dieser Faktencheck wurde bereits am 14. November über die APA-Kanäle ausgespielt.

Quellen: 

(1) EDMO-Brief Oktober 2025: https://go.apa.at/w6WADxc2 (archiviert: https://perma.cc/464Z-F8PY) 

(2) Posting mit Bild des Mädchens: https://go.apa.at/rbwdxV9Q (archiviert: https://archive.ph/UySLF) 

(3) Selenskyj mit Plateauschuhen: https://go.apa.at/vR4ETfXd (archiviert: https://perma.cc/KP7C-XFCM) 

(4) APA-Faktencheck zu Selenskyj: https://go.apa.at/zIcZJPRQ 

(5) Newsweek-Artikel zum Countrysong: https://go.apa.at/2bjEFaGB (archiviert: https://go.apa.at/dNMEklDm) 

(6) Youtube-Seite zu Veo 3.1: https://go.apa.at/gD1fRc1m (archiviert: https://perma.cc/SN38-2HC8) 

(7) OpenAI-Informationen zu Sora 2: https://go.apa.at/oIIy9Hb4 (archiviert: https://archive.ph/ZnLVc) 

(8) Suche nach der Meldung bei X: https://go.apa.at/u9JC47VJ (archiviert: https://archive.ph/iiTTs) 

(9) Nachricht auf Auto-Webseite: https://go.apa.at/YZ78AQmq (archiviert: https://perma.cc/QCV5-JNKC) 

(10) Reichweitenstarkes Facebook-Posting: https://go.apa.at/kqMAC5H4 (archiviert: https://archive.ph/Xz9td) 

(11) Google-Suche nach Medienberichten: https://go.apa.at/PV0MCbz2 (archiviert: https://perma.cc/PSN3-CE6M) 

(12) Weitere Version des Postings: https://go.apa.at/WY8L5TCB (archiviert: https://archive.ph/2wuVq) 

(13) Version mit Videoclip: https://go.apa.at/cEcwDpaI (archiviert: https://archive.ph/OXyey) (Video archiviert: https://go.apa.at/QhTB3y9c) 

(14) Webseite des KI-Tools: https://go.apa.at/lXQE8EF3 (archiviert: https://archive.ph/1DJDB)

 

Wenn Sie zum Faktencheck-Team Kontakt aufnehmen oder Faktenchecks zu relevanten Themen anregen möchten, schreiben Sie bitte an faktencheck@apa.at. Die Texte vieler deutschsprachiger Faktencheck-Teams finden Sie auf der Seite des German-Austrian Digital Media Observatory (GADMO) unter: www.gadmo.eu


Stefan Rathmanner / Marietta Dümont / Christina Schwaha