News

ZDF heute journal und KI: Tröpfchentechnik bringt nichts | ABC-Z

M anchmal wünsche ich mir als Journalistin Belege für etwas, das ich längst zu wissen glaube. Zum Beispiel, dass der Manager einer Künstlerin sich wie ein Arschloch verhält. Ich weiß, dass er viel Unsinn redet und Menschen schlecht behandelt – aber nichts davon ist konkret, justiziabel, zitierfähig. Es reicht nicht für eine Geschichte. Und da sind wir schon bei meinem Punkt: Es tut weh, aber Journalismus lebt nicht von persönlichen Gewissheiten, sondern von Beweisen.

Diese Spannung begleitet unseren Beruf. Hatte eine Tat ein queerfeindliches Motiv? Vielleicht. Ist jemand mit an Sicherheit grenzender Wahrscheinlichkeit ungeeignet für seinen Job? Möglich. Doch veröffentlichen darf man nur, was sich belegen lässt. Wer – wie ich – potenziell jeden Tag Zehntausende Menschen erreicht, beeinflusst Diskurse. Das verpflichtet zur Sorgfalt.

Wie schmerzhaft es ist, wenn die nicht gewährleistet ist, zeigte am vergangenen Sonntag ein Beitrag im „heute journal“ des ZDF, moderiert von Dunja Hayali. In einem Bericht über Einsätze der US-Migrationsbehörde ICE wurden zwei gravierende Fehler gemacht: Ein KI-generiertes Video wurde überhaupt und noch dazu ohne Kennzeichnung verwendet; und zudem zeigte man reale Aufnahmen aus dem Jahr 2022, die allerdings nicht eine Verhaftung durch ICE-Beamten zeigten und noch dazu fälschlich als aktuell eingeordnet wurden.

Die stellvertretende ZDF-Chefredakteurin Anne Gellinek wandte sich drei Tage nach der Sendung, in der Dienstagsausgabe des „heute journals“ direkt an die Zuschauer:innen. Sie sprach von „handwerklichen Fehlern“: Das schmerze sehr, weil das ZDF viel Kraft investiere, um geprüfte Informationen zu liefern. „Das ist uns diesmal nicht gelungen. Dafür bitte ich Sie ausdrücklich um Entschuldigung. Dieser Beitrag entsprach nicht unseren hohen Standards.“ Solche klaren Worte hört man selten in der Branche. Und doch kamen sie spät.

Verbesserungswürdige Fehlerkultur

Warum, dafür muss man sich auch noch mal die Chronologie der Entschuldigung anschauen. Zunächst hatte der Sender von einem „technischen Versehen“ gesprochen, später erklärte er dann der Agentur epd, der Beitrag zeige, „dass sowohl mit echten als auch mit KI-generierten Bildern ein Klima der Angst erzeugt wird“, und man bedauere, das dabei nicht deutlich genug wurde, welche Bilder echt waren und welche nicht.

Noch später dann, in der Entschuldigungssendung von Dienstag, ein anderer Ton: KI-generierte Inhalte hätten in einem Nachrichtenbeitrag grundsätzlich nichts verloren – auch eine Kennzeichnung hätte es nicht besser gemacht. Eine Ausnahme bestehe nur, wenn es explizit um KI-Fälschungen gehe. Eine Entschuldigung also im Tröpfchenverfahren.

Abgesehen von der verbesserungswürdigen Fehlerkultur hatte die Sache selbst gravierende Auswirkungen auf den Diskurs: Nicht alle müssen KI-Fakes erkennen können. Mit fortschreitender Technik wird das für Laien immer schwieriger. Wer sich über Menschen lustig macht, die darauf hereinfallen, greift an der falschen Stelle an. Aber: Ein Leitmedium wie das „heute journal“ mit durchschnittlich rund 3,7 Millionen Zuschauer:innen muss es können. Es ist meinungsprägend – und trägt Verantwortung.

Der Kern des Problems liegt tiefer. Recherche darf nicht bedeuten: Ich habe eine These – jetzt suche ich Material, das sie stützt. Sondern: Das Material liegt vor, und man muss es einordnen in KI-Slop, echt oder nicht belegbar. Alles andere untergräbt Vertrauen. Ein Nachrichtenbeitrag sagt implizit: Hier sehen Sie Wirklichkeit, jedenfalls einen überprüften Ausschnitt davon. Wenn ein KI-Video als vermeintlicher Beleg für brutales Vorgehen dient, wird diese implizite Zusage nicht eingehalten.

Verspieltes Vertrauen

Natürlich stürzten sich rechte Akteur:innen wie etwa Plattformen wie Nius und Apollo News auf den Fehler. Öffentlich-rechtliche Medien stehen bei ihnen ohnehin unter Dauerbeschuss. Doch das eigentliche Problem ist größer: Auch Menschen, die nicht rechts sind, verlieren Vertrauen. Fehler verzeiht das Publikum. Was es nicht verzeiht, ist der Eindruck von Manipulation oder bewusster Irreführung.

Das Phänomen ist kein Einzelfall. Das Magazin Übermedien wies darauf hin, dass ein mutmaßlich KI-generiertes Bild im Kontext der Entführung des venezolanischen Präsidenten Nicolas Maduro sowohl vom ZDF als auch von der Funke-Mediengruppe verwendet wurde. Die Funke-Gruppe reagierte transparent, das ZDF zunächst zögerlicher. Auch wurden zahlreiche, höchstwahrscheinlich KI-generierte Bilder zum Schneesturm in Kamtschatka von verschiedenen Redaktionen weiterverbreitet.

Übermedien formulierte es treffend: „Ein Partner verlässt sich auf den anderen, doch den enormen Aufwand, potenzielle KI-Fälschungen nachzurecherchieren, kann derzeit anscheinend kaum jemand leisten – jedenfalls nicht vor der Veröffentlichung.“ Zu groß die Bilderflut, zu täuschend echt die Ergebnisse, zu unausgereift die technischen Lösungen.

Transparenz bedeutet: Schnell reagieren

Damit sind wir beim strukturellen Problem: Arbeitsbelastung, Zeitdruck, Unterbezahlung, Quotendruck und eine explodierende Nachrichtenflut. Fehler passieren selten aus bösem Willen. Sie entstehen in Systemen, die Geschwindigkeit belohnen und Zweifel bestrafen. Doch gerade in Zeiten, in denen in den USA, in Russland und anderswo Desinformation strategisch eingesetzt wird, muss Journalismus der sichere Ort sein, an dem man sich festhalten kann.

Wir schreiben gern über die Fehler anderer. Über unsere eigenen sprechen wir zu selten. Vielleicht ist die richtige Dosis Transparenz das Entscheidende: schnell reagieren, erklären, wie es passieren konnte, Verantwortung übernehmen – ohne einzelne Mitarbeitende vorzuführen. Nicht Häme, sondern Aufarbeitung.

Denn am Ende bleibt eine einfache Wahrheit: Wir dürfen vieles vermuten. Aber veröffentlichen dürfen wir nur, was wir belegen können. Alles andere ist gefährlich, gerade in diesen Zeiten. Daher möchte ich mich nur nun schon mal im Vorhinein entschuldigen: Dieser Text ist am Ende des Tages unter großem Zeitdruck entstanden. Ich habe alle Zitate doppelt und dreifach gecheckt und Links angegeben, aber passieren kann ein Fehler immer. Bitte verzeiht ihn mir.

Back to top button