Die US-Verteidigungsspitze hat dem KI-Unternehmen Anthropic, bekannt durch den Chatbot Claude, ein Ultimatum gestellt. Das Unternehmen muss bis Freitag der erweiterten militärischen Nutzung seiner KI-Modelle zustimmen, andernfalls droht ein Eingriff über ein Notgesetz aus der Zeit des Kalten Krieges. Damit spitzt sich der Konflikt darüber zu, wer entscheidet, wie künstliche Intelligenz in Krieg und Überwachung eingesetzt wird.

Pentagon droht mit strikten Maßnahmen

Anthropic hat etwas mehr als 24 Stunden, um auf einen „endgültigen Vorschlag“ des Verteidigungsministeriums zu reagieren. Sollte das Unternehmen dies nicht tun, will Verteidigungsminister Pete Hegseth den Defense Production Act in Kraft setzen.

Dieses Gesetz aus dem Jahr 1950 gibt dem Präsidenten weitreichende Befugnisse, um Unternehmen zu zwingen, ihre Technologie für die nationale Sicherheit bereitzustellen. Das Gesetz wurde bereits während des Kalten Krieges und vor wenigen Jahren in der Corona-Pandemie eingesetzt.

Darüber hinaus droht das Pentagon, Anthropic als „Supply Chain Risk“ zu kennzeichnen. Dieses Label wird normalerweise für Unternehmen verwendet, die ein Risiko für die Lieferkette darstellen, oft aufgrund von Verbindungen zu feindlichen Staaten. Ein solcher Schritt könnte die Zusammenarbeit mit dem Verteidigungsministerium und großen Vertragspartnern abrupt beenden.

US-Medien berichten, dass sich Anthropic während eines Treffens gegen die Nutzung seiner KI für massive inländische Überwachung und für autonome Waffensysteme, bei denen KI eigenständig Ziele auswählt, ausgesprochen habe. Das Pentagon bestreitet, dass dies das Ziel sei, und betont, dass es sich stets an die Gesetze halte.

„Die Einhaltung der Gesetze liegt in der Verantwortung des Pentagons als Endnutzer“, erklärte ein Verteidigungsbeamter.

Kampf um Kontrolle über militärische KI

Der Konflikt dreht sich um einen Vertrag über 200 Millionen Dollar innerhalb eines KI-Pilotprogramms des Pentagons. Auch OpenAI, Google und Elon Musks xAI nehmen daran teil.

Während Wettbewerber bereit zu sein scheinen, ihre Modelle unter dem Prinzip „für alle rechtmäßigen Zwecke“ bereitzustellen, beharrt Anthropic auf eigenen Nutzungsregeln. Das Unternehmen will ausdrücklich keine Beteiligung an massiver Überwachung von Amerikanern oder an tödlichen autonomen Waffen.

Das wirft eine grundsätzliche Frage auf: Wer legt die Grenzen der künstlichen Intelligenz fest? Das Militär, das die Technologie einsetzt, oder das Tech-Unternehmen, das die Modelle entwickelt?

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, die mehr Wert auf Sicherheit legen wollten. Geschäftsführer Dario Amodei warnte bereits früher, dass leistungsstarke KI ohne starke Sicherheitsvorkehrungen große Risiken birgt.

Auch für das Pentagon steht viel auf dem Spiel. KI spielt eine immer größere Rolle in militärischer Analyse, Logistik und Entscheidungsfindung. Wer die Technologie beherrscht, hat einen strategischen Vorteil.

Immer als Erster die wichtigsten Krypto-News?

Verpasse keine Bewegung am schnelllebigen Kryptomarkt mit der kostenlosen Newsbit-App. Egal ob unterwegs oder zu Hause: Mit nur einem Tippen erhältst du Echtzeit-Kursalarme, aktuelle Preisentwicklungen und exklusive Einschätzungen von Experten zu Bitcoin und Altcoins.

Jetzt die Newsbit-App herunterladen und dem Markt immer einen Schritt voraus sein.

Jack Dorseys Block halbiert Belegschaft: 4.000 Stellen fallen AI zum Opfer

Jack Dorseys Block halbiert Belegschaft: 4.000 Stellen fallen AI zum Opfer

Jack Dorseys Block halbiert Belegschaft: 4.000 Stellen fallen AI zum Opfer
Netflix zieht sich aus Übernahme von Warner Bros. zurück: Aktie steigt um 13 %
Gold-Silber-Ratio stürzt 7 % ab: Silber gewinnt deutlich an Boden
Mehr Börse news

Meist gelesen

XRP-Kursprognose: Wie viel ist 1.000 XRP Ende Q1 2026 wert?
„XRP bei 0,10 Dollar verpasst? Martinez sieht jetzt die zweite Chance“
Update der XRP Rich List: So viel XRP brauchst du für die Top 10 %
Newsbit
Im Store anzeigen
Siehe