Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Anthropic hat den Zugang zu einem neuen KI-Modell eingeschränkt, nachdem das System Tausende von Schwachstellen in gängiger Software identifiziert hat. Das Modell, das für allgemeine Anwendungen entwickelt wurde, konnte schwerwiegende Sicherheitslücken in großen Betriebssystemen und Webbrowsern aufdecken. 99 Prozent dieser Schwachstellen sind noch nicht behoben.
Eine bemerkenswerte Erkenntnis ist, dass viele der entdeckten Schwachstellen seit Jahren in den Systemen bestehen. Einige Fehler existieren sogar schon seit Jahrzehnten, ohne dass sie entdeckt wurden. So fand das Modell eine 27 Jahre alte Sicherheitslücke in OpenBSD, einem Betriebssystem, das gerade für seine Sicherheit bekannt ist.
Zusätzlich wurden Bugs unter anderem in FFmpeg, FreeBSD und dem Linux-Kernel entdeckt. Auch weit verbreitete Sicherheitstechnologien wie TLS, AES-GCM und SSH zeigten sich verwundbar. Webanwendungen waren anfällig für bekannte Angriffsmethoden wie Phishing, Cross-Site Scripting und SQL-Injection.
Anthropic gibt bewusst keine Details preis, um Missbrauch zu verhindern. Dass das Modell diese Schwachstellen finden konnte, unterstreicht laut dem Unternehmen, wie schnell sich KI entwickelt. Es warnt, dass es nicht lange dauern wird, bis solche Fähigkeiten breiter verfügbar werden.
Die Entdeckung erfolgt zu einem Zeitpunkt, an dem der Einsatz von KI bei Cyberangriffen stark zunimmt. Laut dem Forschungsplattform AllAboutAI stieg die Zahl der Cyberattacken mit Hilfe von KI im Jahresvergleich um 72 Prozent. Im Jahr 2025 waren 87 Prozent der Organisationen weltweit von Angriffen betroffen, bei denen KI eingesetzt wurde.
Cyberkriminelle nutzen KI, um Schwachstellen schneller zu finden und auszunutzen als mit traditionellen Methoden möglich. Dieselbe Fähigkeit, die Anthropic jetzt zur Verteidigung einsetzt, könnte in falschen Händen zu einer Waffe werden.
Um die Risiken zu minimieren, hat Anthropic das Projekt Glasswing gestartet, eine Zusammenarbeit mit über 40 großen Organisationen. Amazon Web Services, Apple, Cisco, Google, JPMorgan, Microsoft, Nvidia und die Linux Foundation sind beteiligt.
Im Rahmen des Projekts wird das KI-Modell Claude Mythos Preview eingesetzt, um Schwachstellen proaktiv zu identifizieren. Die Ergebnisse werden mit Partnern geteilt, damit Probleme schneller behoben werden, bevor sie von Kriminellen ausgenutzt werden.
Anthropic erwartet, dass KI die Cyberbedrohung kurzfristig verstärkt, aber langfristig zu einer besseren Sicherheit beiträgt. Die Logik: Wenn KI Schwachstellen schneller finden kann als Menschen, können sie auch schneller geschlossen werden. Langfristig verschafft dies den Verteidigern einen Vorteil gegenüber den Angreifern.
Die Übergangsphase ist jedoch riskant. Solange 99 Prozent der entdeckten Lücken nicht gepatcht sind, besteht die Gefahr, dass dieselben Techniken von Kriminellen genutzt werden. Der Kampf zwischen Angreifern und Verteidigern im KI-Zeitalter ist in vollem Gange und der Einsatz ist höher denn je.
Seit 2017 strebt das Golfstaat nach KI-Dominanz. Nun beginnt die Umsetzungsphase: autonome Systeme im Staatsapparat.
Der Betrag ist fast sechsmal so hoch wie vor drei Jahren. Google setzt alles daran, Microsoft und OpenAI voraus zu sein.
Eine Gruppe unbefugter Nutzer hat Zugang zu Anthropics Mythos erhalten, einem KI-Modell, das laut dem Unternehmen gefährliche Cyberangriffe ermöglichen könnte.
Was sagen Analysten zur XRP-Kursentwicklung bis 2030? Die Vorhersagen reichen von 1,57 Dollar bis zu einem extremen Szenario von 1.000 Dollar.
Ein Analyst benennt drei Katalysatoren, die den XRP-Kurs in den kommenden Monaten deutlich antreiben könnten: X-Money, eine Carry-Trade-Umkehr und der CLARITY Act.
Der XRP-Kurs trifft wiederholt auf Widerstand bei 1,50 Dollar. Steigende Bestände auf Binance deuten auf anhaltenden Verkaufsdruck trotz institutioneller Nachfrage hin.