Selbst ausgewiesene Experten sind meist chancenlos | ABC-Z

Im Internet lassen sich mit Künstlicher Intelligenz erstellte Bilder oder Videos kaum mehr von echten Inhalten unterscheiden. Diese Erfahrung musste zuletzt auch die Korrespondentin des ZDF in New York, Nicola Albrecht, machen, als sie in einen Beitrag für das „heute journal“ ein KI-generiertes Video einfügte. Doch wie täuschend echt sind KI-Bilder wirklich? Laut einer neuen Studie können mittlerweile sogar echte Experten für Gesichtserkennung kaum mehr einen Unterschied finden.
Sogenannte Super Recognizer haben die besondere Begabung, Gesichter wiederzuerkennen und dadurch Personen zu identifizieren. In der Untersuchung hatten auch sie Probleme damit, echte Gesichter von solchen zu unterscheiden, die mit KI generiert wurden. In der im „British Journal of Psychology“ veröffentlichten Studie schnitten sie nur leicht besser als eine Kontrollgruppe ohne solche Fähigkeiten ab.
Psychologen der Universität von New South Wales in Sydney (UNSW) und der Australischen Nationaluniversität haben dazu 125 Menschen, darunter 36 sogenannte Super Recognizer, einen entsprechenden Onlinetest absolvieren lassen.
Super Recognizer werden von Polizei eingesetzt
Darin bekamen die Teilnehmer Bilder von Gesichtern gezeigt und wurden gefragt, ob diese echt oder KI-generiert sind. Wie die Forscher angeben, lag die Genauigkeit der sogenannten Super Recognizer bei der Erkennung KI-generierter Gesichter im Durchschnitt bei 57 Prozent, also nur knapp über dem Niveau von 50 Prozent, dass die Kontrollgruppe erreichte.
Zum Vergleich: Bei der Identifikation menschlicher Gesichter erreichen sie häufig eine Genauigkeit von über 90 Prozent. Das deute darauf hin, dass für die Erkennung von KI-Gesichtern andere Fähigkeiten notwendig seien, als bei der Erkennung von realen Gesichtern, so die Forscher.
Super Recognizer werden aufgrund ihrer besonderen Fähigkeiten häufig in der Kriminalistik eingesetzt – auch in Deutschland ist das seit einigen Jahren der Fall. Das Berliner Landeskriminalamt beschäftigt etwa seit dem vergangenen Jahr ein solches Team. Oft geht es demnach darum, Videoaufnahmen von Straftaten auszuwerten und Menschen zu identifizieren.

Menschen überschätzen ihre Fähigkeiten, KI-Bilder zu erkennen
„Bisher waren die Menschen zuversichtlich, gefälschte Gesichter erkennen zu können“, zitiert ein Statement Dr. James Dunn, Forscher an der UNSW School of Psychology und Co-Autor der Studie. „Doch die Gesichter, die von den fortschrittlichsten Gesichtserkennungssystemen erzeugt werden, sind nicht mehr so leicht zu erkennen.“
Früher verrieten sich KI-generierte Gesichter oftmals selbst durch auffällige Fehler: verzerrte Zähne, Brillen, die mit dem Gesicht verschmolzen, Ohren, die nicht richtig ansetzten, oder seltsame Hintergründe, die in Haare und Haut übergingen
Ein FUNKE Liebe
Alle zwei Wochen sonntags: Antworten auf Beziehungsfragen – ehrlich, nah und alltagstauglich.
Ein FUNKE Liebe
Alle zwei Wochen sonntags: Antworten auf Beziehungsfragen – ehrlich, nah und alltagstauglich.
Werbevereinbarung
zu.
Doch seit den neuesten KI-Systemen gibt es kaum noch Anhaltspunkte für die Echtheit der gezeigten Gesichter, schreiben die Forscher. „Viele Menschen glauben, sie könnten den Unterschied immer noch erkennen, weil sie gängige KI-Tools wie ChatGPT oder DALL-E ausprobiert haben“, sagte die Psychologin Dr. Amy Dawel von der Australian National University. „Diese Beispiele spiegeln jedoch nicht wider, wie realistisch die fortschrittlichsten Gesichtsgenerierungssysteme geworden sind, und sich darauf zu verlassen, kann ein falsches Sicherheitsgefühl vermitteln.“
mit dpa





















