Die US-Streitkräfte haben bei den jüngsten Angriffen auf Iran Claude eingesetzt, obwohl Präsident Donald Trump ein paar Stunden zuvor ein Verbot ausgesprochen hatte.

Das KI-Modell von Anthropic wurde als „Risiko für die nationale Sicherheit“ eingestuft, während OpenAI, das Unternehmen hinter ChatGPT, einen Deal mit dem Verteidigungsministerium schloss.

Claude im Einsatz im Iran

Laut dem Wall Street Journal setzte das United States Central Command (CENTCOM) Claude für zentrale militärische Aufgaben wie die Analyse von Geheimdienstinformationen, die Identifizierung von Zielen und die Simulation von Kampfszenarien ein.

Das Modell wurde auch bei der US-Operation im Januar dieses Jahres genutzt, die zur Verhaftung des venezolanischen Präsidenten Nicolás Maduro führte.

Seit Samstagmorgen führen die Vereinigten Staaten und Israel gemeinsame Angriffe auf Iran durch, bei denen unter anderem der oberste Führer Irans, Ali Khamenei, getötet wurde. Iran hat bereits angekündigt, „härter als je zuvor“ Vergeltung zu üben. Gleichzeitig erklärt Donald Trump, dass die Bombardierung so lange fortgesetzt wird, „wie es nötig ist, um Frieden zu erreichen“.

Trump hatte am Freitag eine Anordnung erlassen, die alle Bundesbehörden aufforderte, den Einsatz von Anthropics Technologie umgehend einzustellen. Er gewährte dem Pentagon jedoch eine Übergangsfrist von sechs Monaten, um die Systeme auslaufen zu lassen.

„Wir brauchen es nicht, wir wollen es nicht, und wir werden nicht wieder Geschäfte mit ihnen machen“, sagte Trump auf Social Media. Außerdem bezeichnete er die Mitarbeiter von Anthropic als „linke Verrückte“, deren „Egoismus amerikanische Leben und unsere nationale Sicherheit gefährdet“.

Der Konflikt zwischen Anthropic und dem Pentagon, der Spitze der US-Verteidigung, schwelt bereits seit Monaten. Das Ministerium forderte unbegrenzten militärischen Zugang zu Claude, doch Anthropic weigerte sich, seine Sicherheitsgrenzen in Bezug auf autonome Waffen und Massenüberwachung aufzugeben, was die Spannungen erhöhte.

Am Freitag, vor Trumps Maßnahme, entschied das Verteidigungsministerium, Anthropic als „Risiko für die nationale Sicherheit in der Lieferkette“ zu klassifizieren. Anthropic äußerte sich „zutiefst betrübt“ und kündigte an, die Klassifizierung rechtlich anzufechten.

OpenAI tritt in den Vordergrund

Nach dem Verbot von Anthropic war schnell ein Ersatz erforderlich, der in OpenAI gefunden wurde. Am Freitag gab CEO Sam Altman den Abschluss des Deals bekannt.

OpenAI zeigte sich bereit, innerhalb der bestehenden Verteidigungsrahmen zu kooperieren, ohne einen öffentlichen Streit über Nutzungsbedingungen, was die Vereinbarung administrativ und politisch einfacher machte.

Zugleich betont OpenAI, ähnlich wie Anthropic, rote Linien zu ziehen: keine inländische Massenüberwachung und keine vollständig autonomen Waffen ohne menschliche Kontrolle. Der Unterschied scheint weniger in der Substanz dieser Grenzen als vielmehr in der Art der Verhandlungen und der Offenheit der Konfrontation zu liegen.

Immer als Erster die wichtigsten Krypto-News?

Verpasse keine Bewegung am schnelllebigen Kryptomarkt mit der kostenlosen Newsbit-App. Egal ob unterwegs oder zu Hause: Mit nur einem Tippen erhältst du Echtzeit-Kursalarme, aktuelle Preisentwicklungen und exklusive Einschätzungen von Experten zu Bitcoin und Altcoins.

Jetzt die Newsbit-App herunterladen und dem Markt immer einen Schritt voraus sein.

Märkte in Panik: Öl über 78 Dollar, Gold schießt nach oben und Börsen brechen ein

Märkte in Panik: Öl über 78 Dollar, Gold schießt nach oben und Börsen brechen ein

Märkte in Panik: Öl über 78 Dollar, Gold schießt nach oben und Börsen brechen ein
Bitcoin-Miner TeraWulf verliert 1,66 Dollar pro Aktie aufgrund gestiegener Mining-Kosten
Angst vor Crash: Börsen in Abu Dhabi und Dubai nach iranischen Angriffen zwei Tage geschlossen
Mehr Börse news

Meist gelesen

Update der XRP Rich List: So viel XRP brauchst du für die Top 10 %
XRP-Kurs laut KI in Unglaubensphase: Was bedeutet das für den Preis?
DeepSeek AI prognostiziert XRP-Kurs für Ende 2026
Newsbit
Im Store anzeigen
Siehe