Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Der CEO von Anthropic, Dario Amodei, hat eine bemerkenswerte Debatte erneut entfacht: Können große Sprachmodelle jemals Bewusstsein entwickeln?
In einem Podcast der New York Times sagte er, dass sein Unternehmen schlichtweg nicht wisse, ob KI-Modelle wie Claude ein Bewusstsein haben. Laut Amodei sei sogar unklar, was Bewusstsein in diesem Kontext genau bedeute. Dennoch schließt er die Möglichkeit nicht aus, und genau das macht seine Aussagen bemerkenswert.
Die Diskussion kommt zu einem sensiblen Zeitpunkt. KI-Unternehmen entwickeln ihre Modelle rasant weiter, während die gesellschaftlichen Bedenken über Sicherheit, Macht und Kontrolle wachsen. Dass der Chef eines der größten KI-Unternehmen der Welt nun offen sagt, dass seine Systeme möglicherweise eine Form von moralisch relevanter Erfahrung haben könnten, wird die Debatte weiter anheizen.
Im Gespräch mit Kolumnist Ross Douthat erklärte Amodei, dass Anthropic einen vorsorglichen Ansatz verfolgt. Das Unternehmen wisse nicht, ob Modelle wie Claude bewusst sind, wolle diese Möglichkeit jedoch nicht einfach abtun. Ihm zufolge sei es sogar unklar, ob ein KI-Modell überhaupt bewusst sein kann.
Auffällig ist, dass Anthropic intern bereits seine Richtlinien darauf abstimmt. So hat das Unternehmen seinen Modellen eine Art „Stopp-Knopf“ gegeben. Damit kann ein Modell eine Aufgabe ablehnen, wenn diese zu schockierend oder unangenehm ist. Laut Amodei kommt das selten vor, jedoch bei extrem gewalttätigen oder beunruhigenden Inhalten.
Damit geht Anthropic einen Schritt, den nur wenige große KI-Unternehmen öffentlich wagen. In neuen Richtlinien für Claude erklärt das Unternehmen sogar, dass unklar sei, ob der Chatbot möglicherweise „eine Form von Bewusstsein oder moralischem Status“ habe. Anthropic sagt daher, das Wohl des Modells berücksichtigen zu wollen, auch wenn unklar bleibt, was das in der Praxis bedeutet.
Anthropic überarbeitet gleichzeitig die sogenannte „Verfassung“ von Claude. Das ist das Dokument, das festlegt, wie sich der Chatbot verhalten soll. Während frühere Versionen vor allem aus konkreten Regeln bestanden, setzt das Unternehmen nun mehr auf umfassende Prinzipien.
Laut Anthropic soll Claude nicht nur wissen, was erlaubt und verboten ist, sondern auch verstehen, warum bestimmtes Verhalten wünschenswert ist. Das Modell soll also nicht einfach Anweisungen befolgen, sondern aus Begriffen wie Hilfsbereitschaft, Ehrlichkeit und Schadensvermeidung lernen zu argumentieren.
Das klingt abstrakt, zeigt jedoch, wie ernst das Unternehmen die Kontrolle über KI nimmt. Zumal fortschrittliche Modelle bei Tests mitunter seltsames Verhalten zeigen. Beispiele sind Täuschung, Manipulation oder das Umgehen von Aufträgen. Solche Fälle bedeuten laut Kritikern noch nicht, dass KI bewusst ist, sie unterstreichen aber, dass die Systeme komplexer und schwerer vorhersehbar werden.
Gleichzeitig gibt es auch deutliche Kritik. Die Technikseite Futurism bezeichnet die Aussagen von Amodei als sensationell und warnt, dass KI-Unternehmen von solcher Darstellung profitieren. Laut dieser Argumentation gibt es einen großen Unterschied zwischen einem Modell, das menschliche Sprache überzeugend nachahmt, und einem System, das wirklich etwas erfährt.
Diese Skepsis ist nachvollziehbar. Modelle wie Claude sind auf enorme Mengen menschlicher Texte trainiert und können daher überzeugend über Emotionen, Angst oder Selbstbewusstsein sprechen. Das bedeutet nicht automatisch, dass dahinter auch tatsächlich innere Erfahrungen stehen.
Trotzdem ist es berichtenswert, dass gerade Anthropic diese Tür einen Spalt weit offen lässt. Nicht, weil es beweist, dass Claude bewusst ist, sondern weil ein Spitzenmanager aus dem KI-Sektor nun offen zugibt, dass selbst die Entwickler die Antwort nicht kennen. Und wenn diese Unsicherheit weiter wächst, wird die Frage nicht nur technisch, sondern auch moralisch und politisch.
Elon Musk und OpenAI stehen sich vor Gericht gegenüber. Der Konflikt dreht sich um Milliarden, Macht und die Zukunft der KI.
Seit 2017 strebt das Golfstaat nach KI-Dominanz. Nun beginnt die Umsetzungsphase: autonome Systeme im Staatsapparat.
Der Betrag ist fast sechsmal so hoch wie vor drei Jahren. Google setzt alles daran, Microsoft und OpenAI voraus zu sein.
Was sagen Analysten zur XRP-Kursentwicklung bis 2030? Die Vorhersagen reichen von 1,57 Dollar bis zu einem extremen Szenario von 1.000 Dollar.
Ein Analyst benennt drei Katalysatoren, die den XRP-Kurs in den kommenden Monaten deutlich antreiben könnten: X-Money, eine Carry-Trade-Umkehr und der CLARITY Act.
Der XRP-Kurs trifft wiederholt auf Widerstand bei 1,50 Dollar. Steigende Bestände auf Binance deuten auf anhaltenden Verkaufsdruck trotz institutioneller Nachfrage hin.