KI-Kritiker Gary Marcus: Warum die Technologie an ihre Grenzen stößt – Kultur | ABC-Z

Der Neurowissenschaftler Gary Marcus war in der KI-Branche zeitweise so unbeliebt, dass es bei OpenAI ein eigenes missvergnügt blickendes Emoji mit seinem Gesicht gab. Sam Altman, der Chef des KI-Unternehmens, bezeichnete ihn öffentlich als Troll. Schon vor über einem Jahrzehnt hat er zum ersten Mal dargelegt, dass die Large Language Models (LLM), die heute jeder geläufigen KI zugrunde liegen, niemals völlig zuverlässig sein werden. Seither ist er nicht müde geworden, in Beiträgen für den New Yorker oder die New York Times, auf Fachkonferenzen und seinen eigenen Social-Media-Kanälen den amerikanischen Tech-Fürsten zu widersprechen: Während diese regelmäßig behaupten, dass die LLMs durch die Nutzung zwangsläufig immer besser werden, sagt Marcus, dass ihnen bestimmte technische Grenzen gesetzt sind, die sie nie überschreiten werden, ganz gleich, wie groß die Datenmengen sind, mit denen man sie füttert. In der Zwischenzeit sind die LLMs zur wichtigsten Technologie der Welt herangewachsen, die weltweiten Investitionen überschreiten heute die Schwelle von drei Billionen Dollar. Für seine Kritik musste sich Marcus viel Spott gefallen lassen, doch das ändert sich gerade spürbar, auch bekannte Köpfe der Branche äußern sich inzwischen deutlich skeptischer über die Potenziale der Technologie. Im Gespräch merkt man Marcus die Genugtuung trotzdem nur ein bisschen an. Zu viel steht auf dem Spiel.





















