Die US-Verteidigungsspitze und das KI-Unternehmen Anthropic sind uneinig über den Einsatz von künstlicher Intelligenz im Militär. Verhandlungen über die Verlängerung eines Vertrags sind ins Stocken geraten, da Anthropic zusätzliche Beschränkungen für sein KI-Modell Claude einführen möchte. Das Pentagon hingegen will die Technologie flexibler nutzen, solange dies im Rahmen gesetzlicher Vorgaben geschieht.

Die Diskussion berührt eine heikle Frage: Wie weit darf die Regierung mit leistungsstarken KI-Systemen gehen, die für Überwachung und militärische Anwendungen genutzt werden können?

Anthropic strebt Begrenzungen für militärischen KI-Einsatz an

Insidern zufolge will Anthropic explizite Beschränkungen in sein KI-Modell Claude einbauen. Das Unternehmen möchte verhindern, dass die Technologie für Massenüberwachung amerikanischer Bürger oder für die Entwicklung von Waffen ohne menschliches Eingreifen genutzt wird.

Damit gerät es in Konflikt mit dem Pentagon. Das US-Verteidigungsministerium möchte Claude so breit wie möglich verwenden, solange die Nutzung innerhalb gesetzlicher Rahmen bleibt. Über diesen Konflikt berichtete zuvor Axios.

Anthropic positioniert sich als KI-Unternehmen, das Sicherheit und Ethik in den Vordergrund stellt. Es will leistungsstarke Modelle für Regierungen zugänglich machen, jedoch nur unter strikten Bedingungen. Aus diesem Gedanken heraus entwickelte es Claude Gov, eine spezielle Version für die US-amerikanischen Sicherheitsbehörden.

Claude Gov ist dafür ausgelegt, sensible Informationen wie geheime Dokumente, Geheimdienstberichte und komplexe Cybersecurity-Daten zu verarbeiten. Laut Anthropic muss auch diese Regierungsvariante den eigenen Sicherheitsprinzipien des Unternehmens entsprechen.

Ein Sprecher von Anthropic betont, dass das Unternehmen „engagiert ist, fortschrittliche KI zur Unterstützung der nationalen Sicherheit der USA einzusetzen“ und spricht von „konstruktiven Gesprächen im guten Glauben“ mit dem Verteidigungsministerium.

Pentagon-Sprecher Sean Parnell erklärt in einer schriftlichen Stellungnahme, dass die Beziehung zu Anthropic überprüft wird. Seiner Meinung nach erfordert die nationale Sicherheit, dass Partner bereit sind, das US-Militär in jeder Situation zu unterstützen.

Pentagon prüft auch ChatGPT und andere KI-Modelle

In Verteidigungskreisen wird Anthropic inzwischen als mögliches Risiko in der Lieferkette angesehen. Das Verteidigungsministerium könnte Lieferanten sogar verpflichten, zu erklären, dass sie die Modelle des Unternehmens nicht nutzen.

Dies könnte Chancen für Konkurrenten eröffnen. Andere KI-Unternehmen, darunter OpenAI mit ChatGPT, Google mit Gemini und xAI mit Grok, arbeiten laut Quellen mit dem Pentagon zusammen, um ihre Modelle für den rechtmäßigen Einsatz im Verteidigungsbereich anzupassen.

Anthropic schloss letztes Jahr eine zweijährige Vereinbarung mit dem Pentagon über ein Prototyp von Claude Gov und Claude for Enterprise. Der Ausgang der aktuellen Verhandlungen könnte richtungsweisend für zukünftige Gespräche mit anderen KI-Anbietern sein.

Immer als Erster die wichtigsten Krypto-News?

Verpasse keine Bewegung am schnelllebigen Kryptomarkt mit der kostenlosen Newsbit-App. Egal ob unterwegs oder zu Hause: Mit nur einem Tippen erhältst du Echtzeit-Kursalarme, aktuelle Preisentwicklungen und exklusive Einschätzungen von Experten zu Bitcoin und Altcoins.

Jetzt die Newsbit-App herunterladen und dem Markt immer einen Schritt voraus sein.

Analyst warnt: Aktienmarkt könnte bis Ende 2026 fallen

Analyst warnt: Aktienmarkt könnte bis Ende 2026 fallen

Analyst warnt: Aktienmarkt könnte bis Ende 2026 fallen
S&P 500 und Nasdaq im Minus: Anleger suchen Sicherheit
Gold auf 15.000 Dollar? Händler spekulieren auf starken Anstieg
Mehr Börse news

Meist gelesen

Elon Musks Grok sagt XRP-Kurs für Februar 2026 voraus
XRP-Kursprognose: Wie viel ist 1.000 XRP Ende Q1 2026 wert?
„Sei gierig“: Ripple-CEO reagiert auf XRP-Kurssturz
Newsbit
Im Store anzeigen
Siehe