ZDF und die KI-Falle: Zwei Patzer, ein Schaden – und plötzlich steht die Glaubwürdigkeit auf dem Spiel

Veröffentlicht am: 20.Februar.2026Kategorien: Rechtliches, Tech & E-CommerceLesezeit: 3 Min.
Avatar-Foto
Hakan Tok schreibt Artikel zu technischen Themen im Blog Recht 24/7 Love & Law.

Bild: 1take1shot / Shutterstock.com

Manchmal reicht ein einziger Fernsehbeitrag, um eine ganze Redaktion in Erklärungsnot zu bringen. Genau das ist dem ZDF passiert: Im Umfeld eines „heute journal“-Beitrags über Einsätze der US-Migrationsbehörde ICE tauchten Bilder auf, die so nicht hätten gesendet werden dürfen. Und weil es nicht bei einem Fehler blieb, sprach Moderatorin und stellvertretende Chefredakteurin Anne Gellinek später von einem „Doppelfehler“ und bat öffentlich um Entschuldigung. In Nachrichten ist das schon ein kleines Erdbeben – denn Entschuldigungen gibt es dort nicht für Kleinkram, sondern für Dinge, die das Vertrauen treffen.

Warum ausgerechnet Bilder so gefährlich sind

Texte kann man relativ schnell korrigieren. Bilder dagegen setzen sich fest. Wenn Zuschauer sehen, wie Menschen von Einsatzkräften abgeführt werden – womöglich sogar mit Kindern im Bild – wirkt das wie ein endgültiger Beleg. Genau deshalb ist Bildmaterial in Nachrichtensendungen so sensibel: Es entscheidet oft in Sekunden, was das Publikum glaubt. Wenn dieses Material nicht stimmt oder falsch eingeordnet ist, wird aus Information eine Illusion.

Fehler Nummer 1: KI-Material – und die Kennzeichnung war weg

Das ZDF erklärte zunächst, es habe KI-generierte Bilder gegeben, die eigentlich als solche erkennbar hätten sein müssen. Die Markierung sei jedoch beim technischen Ablauf nicht korrekt übertragen worden. Für Zuschauer bedeutet das: Sie sehen etwas, das wie Realität aussieht, ohne einen Hinweis, dass es künstlich erstellt wurde. Das ist nicht einfach „unschön“, sondern sprengt den Grundvertrag zwischen Nachrichten und Publikum: „Du kannst dich auf das Gesehene verlassen.“

Fehler Nummer 2: Echtes Video, falsche Geschichte

Später räumte der Sender zusätzlich ein, dass in dem Beitrag außerdem Aufnahmen verwendet wurden, die nicht zu dem aktuellen Thema passten. Also Material aus einem anderen Zusammenhang und aus einer früheren Zeit, das im Beitrag wie ein aktuelles Ereignis wirkte. Auch wenn solche Bilder „echt“ sind, ist die Wirkung verheerend, wenn der Kontext nicht stimmt: Man zeigt dann nicht die Wirklichkeit, sondern eine Erzählung, die sich nur zufällig mit passenden Bildern schmückt.

ZDF zieht eine harte Linie – zumindest auf dem Papier

Nach dem Vorfall machte der Sender deutlich, dass KI-Bilder von Menschen oder politischen Ereignissen im Nachrichtenbereich grundsätzlich nichts verloren haben – außer, man berichtet ausdrücklich über KI-Fälschungen. Und selbst dann reicht ein kleines „KI“-Label oft nicht, weil Zuschauer Bilder emotional aufnehmen und Warnhinweise leicht übersehen.

Politischer Nachhall und der bittere Kern

Kulturstaatsminister Weimer sprach von einem unangenehmen Vorgang und warnte, so etwas kratze an der Glaubwürdigkeit. Gleichzeitig lobte er, dass das ZDF reagiert und sich entschuldigt habe. Nur: Eine Entschuldigung repariert kein System. Entscheidend ist, ob Kontrollen wirklich greifen, bevor etwas gesendet wird.

Der kritische Punkt: Hier wirkt es nicht wie ein einzelner Ausrutscher, sondern wie ein Blick in den Maschinenraum. Wenn KI-Material durchrutscht und zusätzlich altes Material falsch verortet wird, dann ist nicht nur ein Mensch unaufmerksam gewesen – dann stimmt der Sicherheitsgurt im Ablauf nicht. Und wenn Nachrichten anfangen, mit „fast passenden“ Bildern zu arbeiten, sind sie gefährlich nah an dem, was sie sonst bei Social Media kritisieren.

 

Quelle: deutschlandfunk.de

Vermeide ähnliche Fehler und schütze deine Glaubwürdigkeit! Buche jetzt eine Beratung bei unseren Experten für Medienrecht.

Zum Festpreis 169 EURO (brutto)