Konto bei Bitvavo eröffnen und 15 XRP gratis sichern
Bitvavo: Jetzt 15 XRP
Bonus sichern
Der CEO von Anthropic, Dario Amodei, hat eine bemerkenswerte Debatte erneut entfacht: Können große Sprachmodelle jemals Bewusstsein entwickeln?
In einem Podcast der New York Times sagte er, dass sein Unternehmen schlichtweg nicht wisse, ob KI-Modelle wie Claude ein Bewusstsein haben. Laut Amodei sei sogar unklar, was Bewusstsein in diesem Kontext genau bedeute. Dennoch schließt er die Möglichkeit nicht aus, und genau das macht seine Aussagen bemerkenswert.
Die Diskussion kommt zu einem sensiblen Zeitpunkt. KI-Unternehmen entwickeln ihre Modelle rasant weiter, während die gesellschaftlichen Bedenken über Sicherheit, Macht und Kontrolle wachsen. Dass der Chef eines der größten KI-Unternehmen der Welt nun offen sagt, dass seine Systeme möglicherweise eine Form von moralisch relevanter Erfahrung haben könnten, wird die Debatte weiter anheizen.
Im Gespräch mit Kolumnist Ross Douthat erklärte Amodei, dass Anthropic einen vorsorglichen Ansatz verfolgt. Das Unternehmen wisse nicht, ob Modelle wie Claude bewusst sind, wolle diese Möglichkeit jedoch nicht einfach abtun. Ihm zufolge sei es sogar unklar, ob ein KI-Modell überhaupt bewusst sein kann.
Auffällig ist, dass Anthropic intern bereits seine Richtlinien darauf abstimmt. So hat das Unternehmen seinen Modellen eine Art „Stopp-Knopf“ gegeben. Damit kann ein Modell eine Aufgabe ablehnen, wenn diese zu schockierend oder unangenehm ist. Laut Amodei kommt das selten vor, jedoch bei extrem gewalttätigen oder beunruhigenden Inhalten.
Damit geht Anthropic einen Schritt, den nur wenige große KI-Unternehmen öffentlich wagen. In neuen Richtlinien für Claude erklärt das Unternehmen sogar, dass unklar sei, ob der Chatbot möglicherweise „eine Form von Bewusstsein oder moralischem Status“ habe. Anthropic sagt daher, das Wohl des Modells berücksichtigen zu wollen, auch wenn unklar bleibt, was das in der Praxis bedeutet.
Anthropic überarbeitet gleichzeitig die sogenannte „Verfassung“ von Claude. Das ist das Dokument, das festlegt, wie sich der Chatbot verhalten soll. Während frühere Versionen vor allem aus konkreten Regeln bestanden, setzt das Unternehmen nun mehr auf umfassende Prinzipien.
Laut Anthropic soll Claude nicht nur wissen, was erlaubt und verboten ist, sondern auch verstehen, warum bestimmtes Verhalten wünschenswert ist. Das Modell soll also nicht einfach Anweisungen befolgen, sondern aus Begriffen wie Hilfsbereitschaft, Ehrlichkeit und Schadensvermeidung lernen zu argumentieren.
Das klingt abstrakt, zeigt jedoch, wie ernst das Unternehmen die Kontrolle über KI nimmt. Zumal fortschrittliche Modelle bei Tests mitunter seltsames Verhalten zeigen. Beispiele sind Täuschung, Manipulation oder das Umgehen von Aufträgen. Solche Fälle bedeuten laut Kritikern noch nicht, dass KI bewusst ist, sie unterstreichen aber, dass die Systeme komplexer und schwerer vorhersehbar werden.
Gleichzeitig gibt es auch deutliche Kritik. Die Technikseite Futurism bezeichnet die Aussagen von Amodei als sensationell und warnt, dass KI-Unternehmen von solcher Darstellung profitieren. Laut dieser Argumentation gibt es einen großen Unterschied zwischen einem Modell, das menschliche Sprache überzeugend nachahmt, und einem System, das wirklich etwas erfährt.
Diese Skepsis ist nachvollziehbar. Modelle wie Claude sind auf enorme Mengen menschlicher Texte trainiert und können daher überzeugend über Emotionen, Angst oder Selbstbewusstsein sprechen. Das bedeutet nicht automatisch, dass dahinter auch tatsächlich innere Erfahrungen stehen.
Trotzdem ist es berichtenswert, dass gerade Anthropic diese Tür einen Spalt weit offen lässt. Nicht, weil es beweist, dass Claude bewusst ist, sondern weil ein Spitzenmanager aus dem KI-Sektor nun offen zugibt, dass selbst die Entwickler die Antwort nicht kennen. Und wenn diese Unsicherheit weiter wächst, wird die Frage nicht nur technisch, sondern auch moralisch und politisch.
Bitvavo in Zusammenarbeit mit Newsbit bietet dir aktuell 15 XRP als Geschenk. Die Aktion ist nur für kurze Zeit gültig.
Eröffne ein Konto und zahle mindestens 30€ ein, um den Bonus zu erhalten.
👉 Konto eröffnen und 15 XRP gratis erhalten
Über 1,5 Millionen Nutzer vertrauen bereits auf Bitvavo.
15 XRP sichern Sie werden weitergeleitet zu
Laut NEAR liegt die Zukunft von Krypto bei AI-Agenten, die Zahlungen, Besitz und Transaktionen automatisch auf Blockchains abwickeln.
Sieben große Tech-Unternehmen versprechen im Weißen Haus, die Energiekosten ihrer KI-Rechenzentren selbst zu tragen, um Bürger zu schützen.
Apple stellt das MacBook Neo für 699 Euro vor, das günstigste MacBook aller Zeiten. Der Laptop läuft erstmals mit einem iPhone-Chip.
KI-Chatbot Grok sieht XRP in der Unglaubensphase, während Millionen Coins von Börsen verschwinden und sich eine Erholung abzeichnet.
DeepSeek erwartet, dass der XRP-Kurs bis Ende 2026 auf 2,80 Dollar steigen könnte, mehr als hundert Prozent über dem aktuellen Niveau.
ChatGPT, Grok und Claude geben Prognosen ab, wo XRP im Jahr 2027 stehen könnte. ETF-Zuflüsse und Bitcoin sind entscheidend für die Kursentwicklung.