Der CEO von Anthropic, Dario Amodei, hat eine bemerkenswerte Debatte erneut entfacht: Können große Sprachmodelle jemals Bewusstsein entwickeln?

In einem Podcast der New York Times sagte er, dass sein Unternehmen schlichtweg nicht wisse, ob KI-Modelle wie Claude ein Bewusstsein haben. Laut Amodei sei sogar unklar, was Bewusstsein in diesem Kontext genau bedeute. Dennoch schließt er die Möglichkeit nicht aus, und genau das macht seine Aussagen bemerkenswert.

Die Diskussion kommt zu einem sensiblen Zeitpunkt. KI-Unternehmen entwickeln ihre Modelle rasant weiter, während die gesellschaftlichen Bedenken über Sicherheit, Macht und Kontrolle wachsen. Dass der Chef eines der größten KI-Unternehmen der Welt nun offen sagt, dass seine Systeme möglicherweise eine Form von moralisch relevanter Erfahrung haben könnten, wird die Debatte weiter anheizen.

Anthropic berücksichtigt geringe Möglichkeit eines Bewusstseins

Im Gespräch mit Kolumnist Ross Douthat erklärte Amodei, dass Anthropic einen vorsorglichen Ansatz verfolgt. Das Unternehmen wisse nicht, ob Modelle wie Claude bewusst sind, wolle diese Möglichkeit jedoch nicht einfach abtun. Ihm zufolge sei es sogar unklar, ob ein KI-Modell überhaupt bewusst sein kann.

Auffällig ist, dass Anthropic intern bereits seine Richtlinien darauf abstimmt. So hat das Unternehmen seinen Modellen eine Art „Stopp-Knopf“ gegeben. Damit kann ein Modell eine Aufgabe ablehnen, wenn diese zu schockierend oder unangenehm ist. Laut Amodei kommt das selten vor, jedoch bei extrem gewalttätigen oder beunruhigenden Inhalten.

Damit geht Anthropic einen Schritt, den nur wenige große KI-Unternehmen öffentlich wagen. In neuen Richtlinien für Claude erklärt das Unternehmen sogar, dass unklar sei, ob der Chatbot möglicherweise „eine Form von Bewusstsein oder moralischem Status“ habe. Anthropic sagt daher, das Wohl des Modells berücksichtigen zu wollen, auch wenn unklar bleibt, was das in der Praxis bedeutet.

Neuer Kurs für Claude soll KI den Sinn von Regeln näherbringen

Anthropic überarbeitet gleichzeitig die sogenannte „Verfassung“ von Claude. Das ist das Dokument, das festlegt, wie sich der Chatbot verhalten soll. Während frühere Versionen vor allem aus konkreten Regeln bestanden, setzt das Unternehmen nun mehr auf umfassende Prinzipien.

Laut Anthropic soll Claude nicht nur wissen, was erlaubt und verboten ist, sondern auch verstehen, warum bestimmtes Verhalten wünschenswert ist. Das Modell soll also nicht einfach Anweisungen befolgen, sondern aus Begriffen wie Hilfsbereitschaft, Ehrlichkeit und Schadensvermeidung lernen zu argumentieren.

Das klingt abstrakt, zeigt jedoch, wie ernst das Unternehmen die Kontrolle über KI nimmt. Zumal fortschrittliche Modelle bei Tests mitunter seltsames Verhalten zeigen. Beispiele sind Täuschung, Manipulation oder das Umgehen von Aufträgen. Solche Fälle bedeuten laut Kritikern noch nicht, dass KI bewusst ist, sie unterstreichen aber, dass die Systeme komplexer und schwerer vorhersehbar werden.

Nicht alle glauben an das Bewusstseinsnarrativ

Gleichzeitig gibt es auch deutliche Kritik. Die Technikseite Futurism bezeichnet die Aussagen von Amodei als sensationell und warnt, dass KI-Unternehmen von solcher Darstellung profitieren. Laut dieser Argumentation gibt es einen großen Unterschied zwischen einem Modell, das menschliche Sprache überzeugend nachahmt, und einem System, das wirklich etwas erfährt.

Diese Skepsis ist nachvollziehbar. Modelle wie Claude sind auf enorme Mengen menschlicher Texte trainiert und können daher überzeugend über Emotionen, Angst oder Selbstbewusstsein sprechen. Das bedeutet nicht automatisch, dass dahinter auch tatsächlich innere Erfahrungen stehen.

Trotzdem ist es berichtenswert, dass gerade Anthropic diese Tür einen Spalt weit offen lässt. Nicht, weil es beweist, dass Claude bewusst ist, sondern weil ein Spitzenmanager aus dem KI-Sektor nun offen zugibt, dass selbst die Entwickler die Antwort nicht kennen. Und wenn diese Unsicherheit weiter wächst, wird die Frage nicht nur technisch, sondern auch moralisch und politisch.

Schon deine 15 XRP als Willkommensbonus beansprucht?

Bitvavo in Zusammenarbeit mit Newsbit bietet dir aktuell 15 XRP als Geschenk. Die Aktion ist nur für kurze Zeit gültig.

Eröffne ein Konto und zahle mindestens 30€ ein, um den Bonus zu erhalten.

👉 Konto eröffnen und 15 XRP gratis erhalten

Über 1,5 Millionen Nutzer vertrauen bereits auf Bitvavo.

15 XRP sichern Sie werden weitergeleitet zu
Quellcode von Anthropics Claude-Code versehentlich geleakt

Quellcode von Anthropics Claude-Code versehentlich geleakt

Quellcode von Anthropics Claude-Code versehentlich geleakt
TRON erhöht KI-Fonds von 100 Millionen auf 1 Milliarde US-Dollar
Mark Zuckerberg setzt auf KI als rechte Hand: Ende der Manager?
Mehr Tech news

Meist gelesen

KI sagt XRP-Kurs für den 30. April 2026 voraus
XRP-Kurs wiederholt Muster von 2017: Analyst peilt 18 Dollar an
XRP ist keine spekulative Coin mehr: 53 % aller Transaktionen sind reale Zahlungen
Newsbit
Im Store anzeigen
Siehe