Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Das KI-Unternehmen Anthropic gibt an, Ziel groß angelegter „Distillation”-Angriffe durch drei chinesische KI-Unternehmen gewesen zu sein. Nach Angaben des Unternehmens haben DeepSeek, Moonshot und MiniMax zusammen über rund 24.000 betrügerische Konten mehr als 16 Millionen Interaktionen mit dem Chatbot Claude durchgeführt.
Anthropic behauptet in einem Blogbeitrag, dass die drei Unternehmen systematisch Daten von Claude, dem eigenen großen Sprachmodell, gesammelt haben. Dies geschah über Zehntausende von gefälschten Konten, die zusammen mehr als 16 Millionen Interaktionen generierten.
Das Ziel sei die sogenannte Destillation gewesen. Dabei handelt es sich um eine Trainingsmethode, bei der ein kleineres oder schwächeres Modell aus den Ergebnissen eines stärkeren Modells lernt. So als würde ein Schüler die Antworten seines Lehrers kopieren, um selbst klüger zu werden.
„Destillation ist eine weit verbreitete und legitime Trainingsmethode. So destillieren führende KI-Labore routinemäßig ihre eigenen Modelle, um kleinere, kostengünstigere Versionen für ihre Kunden zu erstellen”, schreibt Anthropic.
„Distillation kann jedoch auch für illegale Zwecke genutzt werden: Konkurrenten können sie einsetzen, um leistungsstarke Fähigkeiten anderer Labore in einem Bruchteil der Zeit und zu einem Bruchteil der Kosten zu übernehmen, die für die eigenständige Entwicklung erforderlich wären“, wird hinzugefügt.
Laut Anthropic zielten die Kampagnen auf die markantesten Funktionen von Claude ab, darunter agentenbasiertes Denken, Programmierarbeiten, Datenanalyse und Computer Vision.
Anthropic ist ein US-amerikanischer KI-Entwickler und direkter Konkurrent von OpenAI. Anfang dieses Monats sorgte Anthropic erneut für Schlagzeilen mit einer geplanten Finanzierungsrunde von über 20 Milliarden Dollar, die die Bewertung auf etwa 350 Milliarden Dollar steigern könnte.
Die drei genannten Unternehmen haben ihren Sitz in China und verfügen über Bewertungen in Milliardenhöhe. DeepSeek genießt international die größte Bekanntheit.
Anthropic gibt an, die beteiligten Parteien anhand von IP-Adresskorrelationen, Metadaten von Anfragen und Infrastrukturmerkmalen identifiziert zu haben. Auch Industriepartner hätten ähnliches Verhalten auf ihren Plattformen beobachtet.
Das Unternehmen sieht das Problem nicht nur im Bereich des geistigen Eigentums. „Ausländische Labore, die amerikanische Modelle destillieren, können diese ungeschützten Fähigkeiten dann in Militär-, Nachrichten- und Überwachungssysteme einspeisen, wodurch autoritäre Regierungen fortschrittliche KI für offensive Cyberoperationen, Desinformationskampagnen und Massenüberwachung einsetzen können“, so Anthropic.
Das sind deutliche Worte. Es besteht die Befürchtung, dass fortschrittliche US-KI auf Umwegen in Militär- oder Überwachungssysteme gelangt.
Anthropic kündigt an, die Sicherheit weiter zu verbessern, unter anderem durch strengere Zugangskontrollen und bessere Erkennungssysteme. Das Unternehmen fordert außerdem US-Tech-Unternehmen, Cloud-Anbieter und politische Entscheidungsträger auf, gemeinsam zu handeln.
Anthropic plant neue Finanzierungsrunde mit Bewertung von über 900 Milliarden Dollar. Damit würde sie Rivale OpenAI als größte KI-Startup überholen.
Elon Musk und OpenAI stehen sich vor Gericht gegenüber. Der Konflikt dreht sich um Milliarden, Macht und die Zukunft der KI.
Seit 2017 strebt das Golfstaat nach KI-Dominanz. Nun beginnt die Umsetzungsphase: autonome Systeme im Staatsapparat.
Was sagen Analysten zur XRP-Kursentwicklung bis 2030? Die Vorhersagen reichen von 1,57 Dollar bis zu einem extremen Szenario von 1.000 Dollar.
Der Analyst Crypto Dyl News spricht sich für ein XRP-Kursziel von 10.000 Dollar aus. Statt der Einführung im Einzelhandel soll die Integration in Bankensystemen entscheidend sein.
Der XRP-Kurs trifft wiederholt auf Widerstand bei 1,50 Dollar. Steigende Bestände auf Binance deuten auf anhaltenden Verkaufsdruck trotz institutioneller Nachfrage hin.