Die US-Verteidigungsspitze hat dem KI-Unternehmen Anthropic, bekannt durch den Chatbot Claude, ein Ultimatum gestellt. Das Unternehmen muss bis Freitag der erweiterten militärischen Nutzung seiner KI-Modelle zustimmen, andernfalls droht ein Eingriff über ein Notgesetz aus der Zeit des Kalten Krieges. Damit spitzt sich der Konflikt darüber zu, wer entscheidet, wie künstliche Intelligenz in Krieg und Überwachung eingesetzt wird.

Pentagon droht mit strikten Maßnahmen

Anthropic hat etwas mehr als 24 Stunden, um auf einen „endgültigen Vorschlag“ des Verteidigungsministeriums zu reagieren. Sollte das Unternehmen dies nicht tun, will Verteidigungsminister Pete Hegseth den Defense Production Act in Kraft setzen.

Dieses Gesetz aus dem Jahr 1950 gibt dem Präsidenten weitreichende Befugnisse, um Unternehmen zu zwingen, ihre Technologie für die nationale Sicherheit bereitzustellen. Das Gesetz wurde bereits während des Kalten Krieges und vor wenigen Jahren in der Corona-Pandemie eingesetzt.

Darüber hinaus droht das Pentagon, Anthropic als „Supply Chain Risk“ zu kennzeichnen. Dieses Label wird normalerweise für Unternehmen verwendet, die ein Risiko für die Lieferkette darstellen, oft aufgrund von Verbindungen zu feindlichen Staaten. Ein solcher Schritt könnte die Zusammenarbeit mit dem Verteidigungsministerium und großen Vertragspartnern abrupt beenden.

US-Medien berichten, dass sich Anthropic während eines Treffens gegen die Nutzung seiner KI für massive inländische Überwachung und für autonome Waffensysteme, bei denen KI eigenständig Ziele auswählt, ausgesprochen habe. Das Pentagon bestreitet, dass dies das Ziel sei, und betont, dass es sich stets an die Gesetze halte.

„Die Einhaltung der Gesetze liegt in der Verantwortung des Pentagons als Endnutzer“, erklärte ein Verteidigungsbeamter.

Kampf um Kontrolle über militärische KI

Der Konflikt dreht sich um einen Vertrag über 200 Millionen Dollar innerhalb eines KI-Pilotprogramms des Pentagons. Auch OpenAI, Google und Elon Musks xAI nehmen daran teil.

Während Wettbewerber bereit zu sein scheinen, ihre Modelle unter dem Prinzip „für alle rechtmäßigen Zwecke“ bereitzustellen, beharrt Anthropic auf eigenen Nutzungsregeln. Das Unternehmen will ausdrücklich keine Beteiligung an massiver Überwachung von Amerikanern oder an tödlichen autonomen Waffen.

Das wirft eine grundsätzliche Frage auf: Wer legt die Grenzen der künstlichen Intelligenz fest? Das Militär, das die Technologie einsetzt, oder das Tech-Unternehmen, das die Modelle entwickelt?

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, die mehr Wert auf Sicherheit legen wollten. Geschäftsführer Dario Amodei warnte bereits früher, dass leistungsstarke KI ohne starke Sicherheitsvorkehrungen große Risiken birgt.

Auch für das Pentagon steht viel auf dem Spiel. KI spielt eine immer größere Rolle in militärischer Analyse, Logistik und Entscheidungsfindung. Wer die Technologie beherrscht, hat einen strategischen Vorteil.

Immer als Erster die wichtigsten Krypto-News?

Verpasse keine Bewegung am schnelllebigen Kryptomarkt mit der kostenlosen Newsbit-App. Egal ob unterwegs oder zu Hause: Mit nur einem Tippen erhältst du Echtzeit-Kursalarme, aktuelle Preisentwicklungen und exklusive Einschätzungen von Experten zu Bitcoin und Altcoins.

Jetzt die Newsbit-App herunterladen und dem Markt immer einen Schritt voraus sein.

Trump handelt Golddeal mit Venezuela aus: Bis zu 1.000 Kilo Gold in die USA

Trump handelt Golddeal mit Venezuela aus: Bis zu 1.000 Kilo Gold in die USA

Trump handelt Golddeal mit Venezuela aus: Bis zu 1.000 Kilo Gold in die USA
Tesla-Milliardär investiert 180 Millionen Dollar in Nvidia: „KI steht erst am Anfang“
Geheime iranische Botschaft an die USA bringt Erleichterung an den Börsen
Mehr Börse news

Meist gelesen

XRP-Kurs laut KI in Unglaubensphase: Was bedeutet das für den Preis?
DeepSeek AI prognostiziert XRP-Kurs für Ende 2026
„Perfekter Moment für XRP ist gekommen“, sagt Evernorth-CEO
Newsbit
Im Store anzeigen
Siehe