Sam Altman, Chef von OpenAI, versucht, einen schwelenden Konflikt zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium zu entschärfen. In einer internen Mitteilung an die Mitarbeitenden erklärt er, dass OpenAI an einem möglichen Abkommen mit dem Verteidigungsministerium arbeitet, um KI-Modelle in geheimen Umgebungen zuzulassen.

Gleichzeitig zieht er klare Grenzen: Keine Massenüberwachung und keine autonomen tödlichen Waffen. Der Einsatz ist hoch: Es geht um die Zukunft der Künstlichen Intelligenz auf dem Schlachtfeld.

Sam Altman sucht Kompromiss mit Pentagon

Berichten des Wall Street Journal zufolge prüft OpenAI, ob seine Modelle in klassifizierten militärischen Systemen genutzt werden können, ohne die Sicherheitsprinzipien des Unternehmens aufzugeben. Bisher wurde kein Abkommen unterzeichnet, und die Gespräche könnten noch scheitern.

In der Mitteilung schreibt Altman, dass OpenAI einen Vertrag anstrebt, der alle rechtmäßigen Anwendungen erlaubt, außer solchen, die unrechtmäßig oder ungeeignet für den Einsatz in Cloud-Umgebungen sind. Er nennt dabei ausdrücklich inländische Massenüberwachung und autonome offensive Waffen.

„Wir waren immer der Überzeugung, dass KI nicht für Massenüberwachung oder autonome tödliche Waffen eingesetzt werden sollte und dass Menschen in entscheidenden Entscheidungen involviert bleiben müssen“, erklärt Altman.

Damit stellt er sich hinter die Position von Anthropic. Das Unternehmen hatte sich zuvor geweigert, sein Modell Claude unter der breiten Bedingung des Pentagon verfügbar zu machen, dass KI für „alle rechtmäßigen Zwecke“ eingesetzt werden soll.

Anthropic gegen Pentagon: Kampf um Kontrolle

Der Konflikt entstand, nachdem Anthropic-Chef Dario Amodei auf strikten Bedingungen für den militärischen Einsatz von KI bestand. Das Pentagon will nicht, dass private Unternehmen bestimmen, wie die Regierung Technologie zur nationalen Sicherheit einsetzt. Besonders nicht im technologischen Wettlauf mit China.

Zugleich befürchtet die KI-Branche, dass eine zu weite Auslegung von „rechtmäßigen Zwecken“ zu gefährlichen Präzedenzfällen führen könnte. Innerhalb von OpenAI und Google haben Mitarbeiter sogar einen Brief unterzeichnet, in dem sie ihre Direktoren auffordern, dem Druck des Verteidigungsministeriums zu widerstehen.

Auffällig ist, dass Elon Musks KI-Unternehmen xAI der Forderung zugestimmt hat, dass sein Modell für alle rechtmäßigen Zwecke verwendet werden darf. Dennoch wird dieses Modell nicht als vollwertige Alternative zur Technologie von Anthropic angesehen.

Was steht für die KI-Branche auf dem Spiel?

ChatGPT ist bereits in nicht-geheimen militärischen Systemen verfügbar. Die Gespräche, das System auch in geheimen Umgebungen zuzulassen, haben sich nach Angaben von Quellen beschleunigt.

OpenAI will laut Insidern technische Sicherungen einbauen, anstatt sich nur auf vertragliche Vereinbarungen zu verlassen. Dazu gehört die Begrenzung der KI-Modelle auf Cloud-Umgebungen, damit sie nicht direkt in autonome Waffen integriert werden können. Zudem möchte das Unternehmen Mitarbeiter mit Sicherheitsüberprüfungen einsetzen, um die Nutzung zu überwachen.

Altman betont, dass der Konflikt nicht länger nur zwischen Anthropic und dem Pentagon besteht. „Dies ist eine Frage für die gesamte Branche“, schreibt er. Er sagt, er wolle helfen, die Situation zu entschärfen.

Ob es tatsächlich zu einer Einigung kommt, ist noch ungewiss. Klar ist jedoch, dass das Ergebnis Auswirkungen auf die gesamte KI-Industrie haben könnte. Erstmals scheinen die größten KI-Unternehmen gemeinsam Grenzen zu ziehen, wie ihre Technologie von Regierungen genutzt werden darf.

Immer als Erster die wichtigsten Krypto-News?

Verpasse keine Bewegung am schnelllebigen Kryptomarkt mit der kostenlosen Newsbit-App. Egal ob unterwegs oder zu Hause: Mit nur einem Tippen erhältst du Echtzeit-Kursalarme, aktuelle Preisentwicklungen und exklusive Einschätzungen von Experten zu Bitcoin und Altcoins.

Jetzt die Newsbit-App herunterladen und dem Markt immer einen Schritt voraus sein.

Arbeiten mit KI kann das Gehirn überlasten, warnen Forscher

Arbeiten mit KI kann das Gehirn überlasten, warnen Forscher

Arbeiten mit KI kann das Gehirn überlasten, warnen Forscher
Nvidia-CEO Jensen Huang: KI wird neue Arbeitsplätze schaffen
Tech-Investor mit 450 Millionen Dollar: „Krypto und KI gehören nicht in dieselbe Strategie“
Mehr Tech news

Meist gelesen

Ripple-CEO: Geduldige XRP-Investoren könnten in fünf Jahren gut dastehen
Dieses Modell sagte jeden Bitcoin-Tiefpunkt korrekt voraus: Das sagt es jetzt
Analysten prognostizieren XRP-Kurs bis 31. März – 15 XRP kostenlos für Deutsche
Newsbit
Im Store anzeigen
Siehe