Geopolitik

Anthropic: SPD-Digitalexperte will Anthropic nach Europa holen | ABC-Z

Nach der Entscheidung der US-Regierung, das KI-Unternehmen Anthropic als “Lieferkettenrisiko” einstufen zu wollen, dringt der SPD-Digitalexperte Matthias Mieves darauf, das Unternehmen nach Europa zu holen. Er forderte die Bundesregierung und die EU-Kommission zu einem solchen Schritt auf. Anthropic
stehe “unter existenzbedrohendem Druck der US-Regierung“, schreibt
Mieves in einem Brief, über den die Zeitung Rheinpfalz berichtete. Das Schreiben ging an EU-Kommissionspräsidentin
Ursula von der Leyen, Bundeskanzler Friedrich Merz (CDU), Vizekanzler
Lars Klingbeil (SPD) und Digitalminister Karsten Wildberger (CDU).

Käme Anthropic in die EU, könne das Unternehmen sein auf
“menschenzentrierte, vertrauenswürdige KI” ausgerichtetes
Geschäftsmodell “unter optimalen Rahmenbedingungen und der gleichen
freiheitlichen Denkrichtung” fortsetzen, argumentiert Mieves in dem Brief. Die Europäer auf der anderen Seite könnten die Lücke in
der KI-Wertschöpfung schließen und “einen wesentlichen Beitrag zur
digitalen und technologischen Souveränität leisten”.

Streit um Nutzung von künstlicher Intelligenz durch das US-Militär

Zuvor war eine Auseinandersetzung zwischen Anthropic und der US-Regierung um die Nutzung von künstlicher Intelligenz (KI) durch das Militär eskaliert. Anthropic
hatte darauf bestanden, dass seine Software nicht für die
“Massenüberwachung im Inland” oder in vollautonomen Waffensystemen
eingesetzt wird
. US-Präsident Donald Trump hatte das Unternehmen
daraufhin als radikal und “woke” bezeichnet und angewiesen, dass alle Bundesbehörden aufhören sollen, Anthropic-Technologie zu nutzen. Verteidigungsminister Pete
Hegseth ordnete zudem an, Anthropic als “Lieferkettenrisiko” einzustufen, und entschied, dass Auftragnehmer,
Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit Anthropic machen dürften.

Nur Stunden später hatte Anthropic-Konkurrent OpenAI eine Einigung mit dem Pentagon verkündet. Der Vertrag enthält laut OpenAI strenge Schutzvorkehrungen und definiert angeblich drei rote Linien: Die OpenAI-Technologie dürfe nicht zur Massenüberwachung
im Inland, zur Steuerung autonomer Waffensysteme oder ⁠für
automatisierte Entscheidungen mit weitreichenden ​Folgen
eingesetzt werden.

Back to top button