News

Wirbel um KI von Apple: BBC kritisiert „Apple Intelligence“ | ABC-Z

Apples neues iOS-Update sorgt für Wirbel – und nicht gerade im positiven Sinne. Seit September steht iOS 18 zur Verfügung, mit ihm auch das neue Feature „Apple Intelligence“. Die vorläufig erst im englischsprachigen Raum nutzbare Apple-KI steht jetzt in der Kritik, Desinformation zu verbreiten. Der Nachrichtensender BBC beschwerte sich bei Apple: Die KI habe eine Push-Mitteilung falsch übersetzt.

In einem Beitrag der BBC Anfang Dezember ging es um den Fall des mutmaßlichen Mörders Luigi Mangione, der den Krankenkassen-CEO Brian Thompson in New York erschossen haben soll. Die KI von Apple fasste die Push-Nachricht der BBC für ihre Use­r:in­nen zusammen. Doch sie gab den Inhalt um Mangione falsch wider. Statt den Mord zu melden, dichtete Apples KI als Schlagzeile: „Luigi Mangione erschießt sich selbst“. Ein gravierender Fehler, der nicht nur den Inhalt der Meldung maßgeblich verfälschte, sondern durch diese Falschinformation auch die Glaubwürdigkeit der BBC infrage stellte.

Andere Nachrichtenhäuser melden ebenfalls Probleme

Der Pressesprecher des Nachrichtensenders erklärte nun, man habe Apple kontaktiert, um den Fehler anzusprechen. „BBC News ist das vertrauenswürdigste Nachrichtenmedium der Welt“, betonte er. „Es ist für uns wichtig, dass unsere Zu­schaue­r:in­nen allen Informationen und journalistischen Beiträgen, die in unserem Namen veröffentlicht werden, vertrauen können, und das gilt auch für Meldungen.“ Die anderen Nachrichten in der Push-Nachricht, über den Sturz des Assad-Regimes in Syrien und ein Update über den südkoreanischen Präsidenten Yoon Suk Yeol, gab die KI in der Kurzzusammenfassung korrekt wieder.

Die künstliche Intelligenz „Apple Intelligence“, soll den Alltag der Nut­ze­r:in­nen eigentlich vereinfachen. Einmal heruntergeladen fasst sie Textnachrichten und Meldungen zusammen, generiert Rückblicke aus Galeriefotos und mehr – nette Gadgets also. Ob diese allerdings nicht mehr Schaden anrichten als dass sie Mehrwert bringen, ist fraglich. Man kann sie aber auch deaktivieren – oder gar nicht erst herunterladen.

Die BBC ist mit ihrer Beschwerde gegen Apple nicht allein. Ebenso melden andere Nachrichtenhäuser Probleme mit der neuen KI-Funktion „Apple Intelligence“. Auch der wahre Inhalt einer Nachrichtenmeldung der US-amerikanischen Zeitung The New York Times vom 21. November fiel einer falschen Zusammenfassung zum Opfer. Aus der Schlagzeile, der Internationale Strafgerichtshof habe einen Haftbefehl gegen den israelischen Premierminister Netanjahu ausgestellt, machte Apple Intelligence: „Netanjahu verhaftet“.

Auch von dieser entstellten Push-Mitteilung kursierten daraufhin ungezählte Screenshots im Internet, die für Verwirrung sorgten. Von Apple selbst gibt es bisher keine offizielle Stellungnahme zu den Falschmeldungen. Deutsche Apple-Nutzer:innen können aber aufatmen: Das Update „Apple Intelligence“ wird hierzulande erst ab April 2025 verfügbar sein.

Humor und Empörung

Die Fehltritte der Technologie haben im Internet längst zu einer Welle von ironischen Kommentaren geführt. Ein besonders populäres Beispiel zeigt die Zusammenfassung einer Textnachricht auf der Plattform X. Ein Nutzer zitiert eine Textnachricht seiner Mutter. Sie hatte ihm geschrieben: „Diese Wanderung hat mich fast umgebracht!“ Apples KI generierte daraus eine Zusammenfassung, von der er einen Screenshot teilt: „Hat einen Selbstmordversuch unternommen, sich aber erholt und ist in Redlands und Palm Springs gewandert.“ Die Reaktionen anderer Nut­ze­r:in­nen fielen entsprechend empört aus. Einer schreibt: „Das ist komplett verrückt. Warum fasst Apple Texte zusammen, anstatt sie einfach anzuzeigen? Wem soll das helfen?“

Die Fragen sind berechtigt. Denn obwohl KI-gestützte Funktionen gekennzeichnet sind – ein kleines Pfeilsymbol weist auf ihre Verwendung hin – bleibt die Skepsis groß. Besonders im Journalismus, wo Glaubwürdigkeit alles ist, werfen die Fehler der KI ein schlechtes Licht auf Apple. Technologie soll den Alltag erleichtern, doch in Fällen wie diesen scheint sie mehr Probleme zu schaffen, als sie löst. Vielleicht ist es eine Erinnerung daran, die eigene Urteilsfähigkeit nicht völlig an Algorithmen zu delegieren.

Back to top button