Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Die US-Verteidigungsspitze und das KI-Unternehmen Anthropic sind uneinig über den Einsatz von künstlicher Intelligenz im Militär. Verhandlungen über die Verlängerung eines Vertrags sind ins Stocken geraten, da Anthropic zusätzliche Beschränkungen für sein KI-Modell Claude einführen möchte. Das Pentagon hingegen will die Technologie flexibler nutzen, solange dies im Rahmen gesetzlicher Vorgaben geschieht.
Die Diskussion berührt eine heikle Frage: Wie weit darf die Regierung mit leistungsstarken KI-Systemen gehen, die für Überwachung und militärische Anwendungen genutzt werden können?
Insidern zufolge will Anthropic explizite Beschränkungen in sein KI-Modell Claude einbauen. Das Unternehmen möchte verhindern, dass die Technologie für Massenüberwachung amerikanischer Bürger oder für die Entwicklung von Waffen ohne menschliches Eingreifen genutzt wird.
Damit gerät es in Konflikt mit dem Pentagon. Das US-Verteidigungsministerium möchte Claude so breit wie möglich verwenden, solange die Nutzung innerhalb gesetzlicher Rahmen bleibt. Über diesen Konflikt berichtete zuvor Axios.
Anthropic positioniert sich als KI-Unternehmen, das Sicherheit und Ethik in den Vordergrund stellt. Es will leistungsstarke Modelle für Regierungen zugänglich machen, jedoch nur unter strikten Bedingungen. Aus diesem Gedanken heraus entwickelte es Claude Gov, eine spezielle Version für die US-amerikanischen Sicherheitsbehörden.
Claude Gov ist dafür ausgelegt, sensible Informationen wie geheime Dokumente, Geheimdienstberichte und komplexe Cybersecurity-Daten zu verarbeiten. Laut Anthropic muss auch diese Regierungsvariante den eigenen Sicherheitsprinzipien des Unternehmens entsprechen.
Ein Sprecher von Anthropic betont, dass das Unternehmen „engagiert ist, fortschrittliche KI zur Unterstützung der nationalen Sicherheit der USA einzusetzen“ und spricht von „konstruktiven Gesprächen im guten Glauben“ mit dem Verteidigungsministerium.
Pentagon-Sprecher Sean Parnell erklärt in einer schriftlichen Stellungnahme, dass die Beziehung zu Anthropic überprüft wird. Seiner Meinung nach erfordert die nationale Sicherheit, dass Partner bereit sind, das US-Militär in jeder Situation zu unterstützen.
In Verteidigungskreisen wird Anthropic inzwischen als mögliches Risiko in der Lieferkette angesehen. Das Verteidigungsministerium könnte Lieferanten sogar verpflichten, zu erklären, dass sie die Modelle des Unternehmens nicht nutzen.
Dies könnte Chancen für Konkurrenten eröffnen. Andere KI-Unternehmen, darunter OpenAI mit ChatGPT, Google mit Gemini und xAI mit Grok, arbeiten laut Quellen mit dem Pentagon zusammen, um ihre Modelle für den rechtmäßigen Einsatz im Verteidigungsbereich anzupassen.
Anthropic schloss letztes Jahr eine zweijährige Vereinbarung mit dem Pentagon über ein Prototyp von Claude Gov und Claude for Enterprise. Der Ausgang der aktuellen Verhandlungen könnte richtungsweisend für zukünftige Gespräche mit anderen KI-Anbietern sein.
Ölpreise steigen stark an, und die Angst vor einem Börsencrash wächst. Welche Auswirkungen hat das auf Bitcoin und andere risikoreiche Anlagen?
IWF warnt, dass der Krieg im Nahen Osten die Inflation erhöhen und das Wirtschaftswachstum beeinträchtigen könnte. Länder sollten sich auf unerwartete Schocks vorbereiten.
Analyst Ed Yardeni erhöht die Wahrscheinlichkeit eines US-Börsencrashs auf 35 Prozent aufgrund des Iran-Kriegs, steigender Ölpreise und wachsender Inflationsängste.
KI-Chatbot Grok sieht XRP in der Unglaubensphase, während Millionen Coins von Börsen verschwinden und sich eine Erholung abzeichnet.
DeepSeek erwartet, dass der XRP-Kurs bis Ende 2026 auf 2,80 Dollar steigen könnte, mehr als hundert Prozent über dem aktuellen Niveau.
ChatGPT, Grok und Claude geben Prognosen ab, wo XRP im Jahr 2027 stehen könnte. ETF-Zuflüsse und Bitcoin sind entscheidend für die Kursentwicklung.