Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Die US-Verteidigungsspitze hat dem KI-Unternehmen Anthropic, bekannt durch den Chatbot Claude, ein Ultimatum gestellt. Das Unternehmen muss bis Freitag der erweiterten militärischen Nutzung seiner KI-Modelle zustimmen, andernfalls droht ein Eingriff über ein Notgesetz aus der Zeit des Kalten Krieges. Damit spitzt sich der Konflikt darüber zu, wer entscheidet, wie künstliche Intelligenz in Krieg und Überwachung eingesetzt wird.
Anthropic hat etwas mehr als 24 Stunden, um auf einen „endgültigen Vorschlag“ des Verteidigungsministeriums zu reagieren. Sollte das Unternehmen dies nicht tun, will Verteidigungsminister Pete Hegseth den Defense Production Act in Kraft setzen.
Dieses Gesetz aus dem Jahr 1950 gibt dem Präsidenten weitreichende Befugnisse, um Unternehmen zu zwingen, ihre Technologie für die nationale Sicherheit bereitzustellen. Das Gesetz wurde bereits während des Kalten Krieges und vor wenigen Jahren in der Corona-Pandemie eingesetzt.
Darüber hinaus droht das Pentagon, Anthropic als „Supply Chain Risk“ zu kennzeichnen. Dieses Label wird normalerweise für Unternehmen verwendet, die ein Risiko für die Lieferkette darstellen, oft aufgrund von Verbindungen zu feindlichen Staaten. Ein solcher Schritt könnte die Zusammenarbeit mit dem Verteidigungsministerium und großen Vertragspartnern abrupt beenden.
US-Medien berichten, dass sich Anthropic während eines Treffens gegen die Nutzung seiner KI für massive inländische Überwachung und für autonome Waffensysteme, bei denen KI eigenständig Ziele auswählt, ausgesprochen habe. Das Pentagon bestreitet, dass dies das Ziel sei, und betont, dass es sich stets an die Gesetze halte.
„Die Einhaltung der Gesetze liegt in der Verantwortung des Pentagons als Endnutzer“, erklärte ein Verteidigungsbeamter.
Der Konflikt dreht sich um einen Vertrag über 200 Millionen Dollar innerhalb eines KI-Pilotprogramms des Pentagons. Auch OpenAI, Google und Elon Musks xAI nehmen daran teil.
Während Wettbewerber bereit zu sein scheinen, ihre Modelle unter dem Prinzip „für alle rechtmäßigen Zwecke“ bereitzustellen, beharrt Anthropic auf eigenen Nutzungsregeln. Das Unternehmen will ausdrücklich keine Beteiligung an massiver Überwachung von Amerikanern oder an tödlichen autonomen Waffen.
Das wirft eine grundsätzliche Frage auf: Wer legt die Grenzen der künstlichen Intelligenz fest? Das Militär, das die Technologie einsetzt, oder das Tech-Unternehmen, das die Modelle entwickelt?
Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, die mehr Wert auf Sicherheit legen wollten. Geschäftsführer Dario Amodei warnte bereits früher, dass leistungsstarke KI ohne starke Sicherheitsvorkehrungen große Risiken birgt.
Auch für das Pentagon steht viel auf dem Spiel. KI spielt eine immer größere Rolle in militärischer Analyse, Logistik und Entscheidungsfindung. Wer die Technologie beherrscht, hat einen strategischen Vorteil.
Die US-Derivateaufsicht untersucht auffallend gut getimte Öl-Trades kurz vor großen Ankündigungen von Trump über den Krieg mit Iran.
Die ehemalige Fed-Vorsitzende Janet Yellen übt deutliche Kritik an Donald Trump, der ihrer Meinung nach eine „Bananenrepublik“ erschafft.
Die Wall Street erlebt in den letzten Wochen einen rasanten Anstieg und nähert sich den bisherigen Höchstständen. Wie ist das angesichts des Iran-Kriegs möglich?
Der ehemalige Goldman Sachs-Analyst Dom Kwok sagt voraus, dass XRP bis 2030 auf 1.000 Dollar ansteigen könnte. Dies entspräche einem Anstieg von über 74.000 Prozent.
Wie realistisch ist ein Anstieg von XRP auf 3 Dollar in diesem Quartal? ChatGPT analysierte die Chancen und entwirft drei mögliche Szenarien.
XRP fällt mit Kryptomarkt nach Trump-Rede. KI-Modelle prognostizieren weitere Schwäche, während wichtige Unterstützung bei 1,30 Dollar unter Druck steht.