Das KI-Unternehmen Anthropic gibt an, Ziel groß angelegter „Distillation”-Angriffe durch drei chinesische KI-Unternehmen gewesen zu sein. Nach Angaben des Unternehmens haben DeepSeek, Moonshot und MiniMax zusammen über rund 24.000 betrügerische Konten mehr als 16 Millionen Interaktionen mit dem Chatbot Claude durchgeführt.

16 Millionen Claude-Interaktionen

Anthropic behauptet in einem Blogbeitrag, dass die drei Unternehmen systematisch Daten von Claude, dem eigenen großen Sprachmodell, gesammelt haben. Dies geschah über Zehntausende von gefälschten Konten, die zusammen mehr als 16 Millionen Interaktionen generierten.

Das Ziel sei die sogenannte Destillation gewesen. Dabei handelt es sich um eine Trainingsmethode, bei der ein kleineres oder schwächeres Modell aus den Ergebnissen eines stärkeren Modells lernt. So als würde ein Schüler die Antworten seines Lehrers kopieren, um selbst klüger zu werden.

„Destillation ist eine weit verbreitete und legitime Trainingsmethode. So destillieren führende KI-Labore routinemäßig ihre eigenen Modelle, um kleinere, kostengünstigere Versionen für ihre Kunden zu erstellen”, schreibt Anthropic.

„Distillation kann jedoch auch für illegale Zwecke genutzt werden: Konkurrenten können sie einsetzen, um leistungsstarke Fähigkeiten anderer Labore in einem Bruchteil der Zeit und zu einem Bruchteil der Kosten zu übernehmen, die für die eigenständige Entwicklung erforderlich wären“, wird hinzugefügt.

Laut Anthropic zielten die Kampagnen auf die markantesten Funktionen von Claude ab, darunter agentenbasiertes Denken, Programmierarbeiten, Datenanalyse und Computer Vision.

Anthropic ist ein US-amerikanischer KI-Entwickler und direkter Konkurrent von OpenAI. Anfang dieses Monats sorgte Anthropic erneut für Schlagzeilen mit einer geplanten Finanzierungsrunde von über 20 Milliarden Dollar, die die Bewertung auf etwa 350 Milliarden Dollar steigern könnte.

Geopolitische Bedenken nehmen zu

Die drei genannten Unternehmen haben ihren Sitz in China und verfügen über Bewertungen in Milliardenhöhe. DeepSeek genießt international die größte Bekanntheit.

Anthropic gibt an, die beteiligten Parteien anhand von IP-Adresskorrelationen, Metadaten von Anfragen und Infrastrukturmerkmalen identifiziert zu haben. Auch Industriepartner hätten ähnliches Verhalten auf ihren Plattformen beobachtet.

Das Unternehmen sieht das Problem nicht nur im Bereich des geistigen Eigentums. „Ausländische Labore, die amerikanische Modelle destillieren, können diese ungeschützten Fähigkeiten dann in Militär-, Nachrichten- und Überwachungssysteme einspeisen, wodurch autoritäre Regierungen fortschrittliche KI für offensive Cyberoperationen, Desinformationskampagnen und Massenüberwachung einsetzen können“, so Anthropic.

Das sind deutliche Worte. Es besteht die Befürchtung, dass fortschrittliche US-KI auf Umwegen in Militär- oder Überwachungssysteme gelangt.

Anthropic kündigt an, die Sicherheit weiter zu verbessern, unter anderem durch strengere Zugangskontrollen und bessere Erkennungssysteme. Das Unternehmen fordert außerdem US-Tech-Unternehmen, Cloud-Anbieter und politische Entscheidungsträger auf, gemeinsam zu handeln.

Schon deine 15 XRP als Willkommensbonus beansprucht?

Bitvavo in Zusammenarbeit mit Newsbit bietet dir aktuell 15 XRP als Geschenk. Die Aktion ist nur für kurze Zeit gültig.

Eröffne ein Konto und zahle mindestens 30€ ein, um den Bonus zu erhalten.

👉 Konto eröffnen und 15 XRP gratis erhalten

Über 1,5 Millionen Nutzer vertrauen bereits auf Bitvavo.

15 XRP sichern Sie werden weitergeleitet zu
Tech-Giganten entwickeln Krypto-Zahlungen für KI-Agenten

Tech-Giganten entwickeln Krypto-Zahlungen für KI-Agenten

Tech-Giganten entwickeln Krypto-Zahlungen für KI-Agenten
Google finanziert Mega-Rechenzentrum im Wert von 5 Milliarden Dollar für KI-Unternehmen Anthropic
Quellcode von Anthropics Claude-Code versehentlich geleakt
Mehr Tech news

Meist gelesen

KI sagt XRP-Kurs für den 30. April 2026 voraus
XRP-Kurs wiederholt Muster von 2017: Analyst peilt 18 Dollar an
XRP ist keine spekulative Coin mehr: 53 % aller Transaktionen sind reale Zahlungen
Newsbit
Im Store anzeigen
Siehe