Newsbit
Im Store anzeigen
Siehe

Die US-Verteidigungsspitze hat dem KI-Unternehmen Anthropic, bekannt durch den Chatbot Claude, ein Ultimatum gestellt. Das Unternehmen muss bis Freitag der erweiterten militärischen Nutzung seiner KI-Modelle zustimmen, andernfalls droht ein Eingriff über ein Notgesetz aus der Zeit des Kalten Krieges. Damit spitzt sich der Konflikt darüber zu, wer entscheidet, wie künstliche Intelligenz in Krieg und Überwachung eingesetzt wird.

Pentagon droht mit strikten Maßnahmen

Anthropic hat etwas mehr als 24 Stunden, um auf einen „endgültigen Vorschlag“ des Verteidigungsministeriums zu reagieren. Sollte das Unternehmen dies nicht tun, will Verteidigungsminister Pete Hegseth den Defense Production Act in Kraft setzen.

Dieses Gesetz aus dem Jahr 1950 gibt dem Präsidenten weitreichende Befugnisse, um Unternehmen zu zwingen, ihre Technologie für die nationale Sicherheit bereitzustellen. Das Gesetz wurde bereits während des Kalten Krieges und vor wenigen Jahren in der Corona-Pandemie eingesetzt.

Darüber hinaus droht das Pentagon, Anthropic als „Supply Chain Risk“ zu kennzeichnen. Dieses Label wird normalerweise für Unternehmen verwendet, die ein Risiko für die Lieferkette darstellen, oft aufgrund von Verbindungen zu feindlichen Staaten. Ein solcher Schritt könnte die Zusammenarbeit mit dem Verteidigungsministerium und großen Vertragspartnern abrupt beenden.

US-Medien berichten, dass sich Anthropic während eines Treffens gegen die Nutzung seiner KI für massive inländische Überwachung und für autonome Waffensysteme, bei denen KI eigenständig Ziele auswählt, ausgesprochen habe. Das Pentagon bestreitet, dass dies das Ziel sei, und betont, dass es sich stets an die Gesetze halte.

„Die Einhaltung der Gesetze liegt in der Verantwortung des Pentagons als Endnutzer“, erklärte ein Verteidigungsbeamter.

Kampf um Kontrolle über militärische KI

Der Konflikt dreht sich um einen Vertrag über 200 Millionen Dollar innerhalb eines KI-Pilotprogramms des Pentagons. Auch OpenAI, Google und Elon Musks xAI nehmen daran teil.

Während Wettbewerber bereit zu sein scheinen, ihre Modelle unter dem Prinzip „für alle rechtmäßigen Zwecke“ bereitzustellen, beharrt Anthropic auf eigenen Nutzungsregeln. Das Unternehmen will ausdrücklich keine Beteiligung an massiver Überwachung von Amerikanern oder an tödlichen autonomen Waffen.

Das wirft eine grundsätzliche Frage auf: Wer legt die Grenzen der künstlichen Intelligenz fest? Das Militär, das die Technologie einsetzt, oder das Tech-Unternehmen, das die Modelle entwickelt?

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, die mehr Wert auf Sicherheit legen wollten. Geschäftsführer Dario Amodei warnte bereits früher, dass leistungsstarke KI ohne starke Sicherheitsvorkehrungen große Risiken birgt.

Auch für das Pentagon steht viel auf dem Spiel. KI spielt eine immer größere Rolle in militärischer Analyse, Logistik und Entscheidungsfindung. Wer die Technologie beherrscht, hat einen strategischen Vorteil.

Immer als Erster die wichtigsten Krypto-News?

Verpasse keine Bewegung am schnelllebigen Kryptomarkt mit der kostenlosen Newsbit-App. Egal ob unterwegs oder zu Hause: Mit nur einem Tippen erhältst du Echtzeit-Kursalarme, aktuelle Preisentwicklungen und exklusive Einschätzungen von Experten zu Bitcoin und Altcoins.

Jetzt die Newsbit-App herunterladen und dem Markt immer einen Schritt voraus sein.

Wer wusste, was Trump sagen würde? CFTC untersucht verdächtige Trades auf dem Ölmarkt

Wer wusste, was Trump sagen würde? CFTC untersucht verdächtige Trades auf dem Ölmarkt

Wer wusste, was Trump sagen würde? CFTC untersucht verdächtige Trades auf dem Ölmarkt
Janet Yellen kritisiert Trump scharf: Druck auf Fed erinnert an „Bananenrepublik“
S&P 500 gewinnt in zwei Wochen fast 6 Billionen Dollar: Rekordhöhe wieder in Sicht
Mehr Börse news

Meist gelesen

Ex-Goldman Sachs-Analyst prognostiziert einen XRP-Kurs von 1.000 Dollar im Jahr 2030
ChatGPT berechnet Wahrscheinlichkeit, dass XRP in diesem Quartal auf 3 Dollar steigt
KI sagt XRP-Kurs für den 30. April 2026 voraus