Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Die US-Verteidigungsspitze hat dem KI-Unternehmen Anthropic, bekannt durch den Chatbot Claude, ein Ultimatum gestellt. Das Unternehmen muss bis Freitag der erweiterten militärischen Nutzung seiner KI-Modelle zustimmen, andernfalls droht ein Eingriff über ein Notgesetz aus der Zeit des Kalten Krieges. Damit spitzt sich der Konflikt darüber zu, wer entscheidet, wie künstliche Intelligenz in Krieg und Überwachung eingesetzt wird.
Anthropic hat etwas mehr als 24 Stunden, um auf einen „endgültigen Vorschlag“ des Verteidigungsministeriums zu reagieren. Sollte das Unternehmen dies nicht tun, will Verteidigungsminister Pete Hegseth den Defense Production Act in Kraft setzen.
Dieses Gesetz aus dem Jahr 1950 gibt dem Präsidenten weitreichende Befugnisse, um Unternehmen zu zwingen, ihre Technologie für die nationale Sicherheit bereitzustellen. Das Gesetz wurde bereits während des Kalten Krieges und vor wenigen Jahren in der Corona-Pandemie eingesetzt.
Darüber hinaus droht das Pentagon, Anthropic als „Supply Chain Risk“ zu kennzeichnen. Dieses Label wird normalerweise für Unternehmen verwendet, die ein Risiko für die Lieferkette darstellen, oft aufgrund von Verbindungen zu feindlichen Staaten. Ein solcher Schritt könnte die Zusammenarbeit mit dem Verteidigungsministerium und großen Vertragspartnern abrupt beenden.
US-Medien berichten, dass sich Anthropic während eines Treffens gegen die Nutzung seiner KI für massive inländische Überwachung und für autonome Waffensysteme, bei denen KI eigenständig Ziele auswählt, ausgesprochen habe. Das Pentagon bestreitet, dass dies das Ziel sei, und betont, dass es sich stets an die Gesetze halte.
„Die Einhaltung der Gesetze liegt in der Verantwortung des Pentagons als Endnutzer“, erklärte ein Verteidigungsbeamter.
Der Konflikt dreht sich um einen Vertrag über 200 Millionen Dollar innerhalb eines KI-Pilotprogramms des Pentagons. Auch OpenAI, Google und Elon Musks xAI nehmen daran teil.
Während Wettbewerber bereit zu sein scheinen, ihre Modelle unter dem Prinzip „für alle rechtmäßigen Zwecke“ bereitzustellen, beharrt Anthropic auf eigenen Nutzungsregeln. Das Unternehmen will ausdrücklich keine Beteiligung an massiver Überwachung von Amerikanern oder an tödlichen autonomen Waffen.
Das wirft eine grundsätzliche Frage auf: Wer legt die Grenzen der künstlichen Intelligenz fest? Das Militär, das die Technologie einsetzt, oder das Tech-Unternehmen, das die Modelle entwickelt?
Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, die mehr Wert auf Sicherheit legen wollten. Geschäftsführer Dario Amodei warnte bereits früher, dass leistungsstarke KI ohne starke Sicherheitsvorkehrungen große Risiken birgt.
Auch für das Pentagon steht viel auf dem Spiel. KI spielt eine immer größere Rolle in militärischer Analyse, Logistik und Entscheidungsfindung. Wer die Technologie beherrscht, hat einen strategischen Vorteil.
USA und Venezuela vereinbaren Golddeal, bei dem bis zu 1.000 Kilo Gold in amerikanische Raffinerien gelangen können, während die geopolitischen Spannungen weltweit zunehmen.
Tesla-Milliardär Leo KoGuan erwirbt Nvidia-Aktien im Wert von 180 Millionen Dollar und betont, dass künstliche Intelligenz keine Blase sei, sondern sich erst entfaltet.
Iran soll im Hintergrund Verhandlungen mit den USA anstreben. Die Börsen reagieren sofort positiv in der Hoffnung auf ein baldiges Kriegsende.
KI-Chatbot Grok sieht XRP in der Unglaubensphase, während Millionen Coins von Börsen verschwinden und sich eine Erholung abzeichnet.
DeepSeek erwartet, dass der XRP-Kurs bis Ende 2026 auf 2,80 Dollar steigen könnte, mehr als hundert Prozent über dem aktuellen Niveau.
Evernorth stockt mit 388 Millionen XRP die Schatzkammer auf. CEO Birla sieht Regulierung, DeFi und Zufluss als Katalysatoren für XRP.