Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Die US-Verteidigungsspitze und das KI-Unternehmen Anthropic sind uneinig über den Einsatz von künstlicher Intelligenz im Militär. Verhandlungen über die Verlängerung eines Vertrags sind ins Stocken geraten, da Anthropic zusätzliche Beschränkungen für sein KI-Modell Claude einführen möchte. Das Pentagon hingegen will die Technologie flexibler nutzen, solange dies im Rahmen gesetzlicher Vorgaben geschieht.
Die Diskussion berührt eine heikle Frage: Wie weit darf die Regierung mit leistungsstarken KI-Systemen gehen, die für Überwachung und militärische Anwendungen genutzt werden können?
Insidern zufolge will Anthropic explizite Beschränkungen in sein KI-Modell Claude einbauen. Das Unternehmen möchte verhindern, dass die Technologie für Massenüberwachung amerikanischer Bürger oder für die Entwicklung von Waffen ohne menschliches Eingreifen genutzt wird.
Damit gerät es in Konflikt mit dem Pentagon. Das US-Verteidigungsministerium möchte Claude so breit wie möglich verwenden, solange die Nutzung innerhalb gesetzlicher Rahmen bleibt. Über diesen Konflikt berichtete zuvor Axios.
Anthropic positioniert sich als KI-Unternehmen, das Sicherheit und Ethik in den Vordergrund stellt. Es will leistungsstarke Modelle für Regierungen zugänglich machen, jedoch nur unter strikten Bedingungen. Aus diesem Gedanken heraus entwickelte es Claude Gov, eine spezielle Version für die US-amerikanischen Sicherheitsbehörden.
Claude Gov ist dafür ausgelegt, sensible Informationen wie geheime Dokumente, Geheimdienstberichte und komplexe Cybersecurity-Daten zu verarbeiten. Laut Anthropic muss auch diese Regierungsvariante den eigenen Sicherheitsprinzipien des Unternehmens entsprechen.
Ein Sprecher von Anthropic betont, dass das Unternehmen „engagiert ist, fortschrittliche KI zur Unterstützung der nationalen Sicherheit der USA einzusetzen“ und spricht von „konstruktiven Gesprächen im guten Glauben“ mit dem Verteidigungsministerium.
Pentagon-Sprecher Sean Parnell erklärt in einer schriftlichen Stellungnahme, dass die Beziehung zu Anthropic überprüft wird. Seiner Meinung nach erfordert die nationale Sicherheit, dass Partner bereit sind, das US-Militär in jeder Situation zu unterstützen.
In Verteidigungskreisen wird Anthropic inzwischen als mögliches Risiko in der Lieferkette angesehen. Das Verteidigungsministerium könnte Lieferanten sogar verpflichten, zu erklären, dass sie die Modelle des Unternehmens nicht nutzen.
Dies könnte Chancen für Konkurrenten eröffnen. Andere KI-Unternehmen, darunter OpenAI mit ChatGPT, Google mit Gemini und xAI mit Grok, arbeiten laut Quellen mit dem Pentagon zusammen, um ihre Modelle für den rechtmäßigen Einsatz im Verteidigungsbereich anzupassen.
Anthropic schloss letztes Jahr eine zweijährige Vereinbarung mit dem Pentagon über ein Prototyp von Claude Gov und Claude for Enterprise. Der Ausgang der aktuellen Verhandlungen könnte richtungsweisend für zukünftige Gespräche mit anderen KI-Anbietern sein.
Mark Newton von Fundstrat prognostiziert einen schwachen und chaotischen Verlauf für die Aktienmärkte im Jahr 2026. Warum ist er so pessimistisch?
S&P 500 und Nasdaq starten schwächer wegen Spannungen um Iran und zunehmender Skepsis gegenüber Zinssenkungen der Federal Reserve.
Investoren wetten verstärkt auf einen Goldpreis von 15.000 Dollar, trotz eines kürzlichen Rückgangs von elf Prozent.
Nach einem starken Rückgang erholt sich der XRP-Kurs deutlich. Grok, die KI von Elon Musk, teilt ihre Prognose bis Februar 2026.
Analysten und KI prognostizieren unterschiedliche Szenarien für den XRP-Kurs im Jahr 2026. Was bedeutet das für eine Investition von 1.000 XRP?
Ripple-CEO Garlinghouse kommentiert den XRP-Kurssturz mit einem bekannten Buffett-Zitat und ermutigt Investoren, gerade jetzt zu kaufen.