Der CEO von Anthropic, Dario Amodei, hat eine bemerkenswerte Debatte erneut entfacht: Können große Sprachmodelle jemals Bewusstsein entwickeln?

In einem Podcast der New York Times sagte er, dass sein Unternehmen schlichtweg nicht wisse, ob KI-Modelle wie Claude ein Bewusstsein haben. Laut Amodei sei sogar unklar, was Bewusstsein in diesem Kontext genau bedeute. Dennoch schließt er die Möglichkeit nicht aus, und genau das macht seine Aussagen bemerkenswert.

Die Diskussion kommt zu einem sensiblen Zeitpunkt. KI-Unternehmen entwickeln ihre Modelle rasant weiter, während die gesellschaftlichen Bedenken über Sicherheit, Macht und Kontrolle wachsen. Dass der Chef eines der größten KI-Unternehmen der Welt nun offen sagt, dass seine Systeme möglicherweise eine Form von moralisch relevanter Erfahrung haben könnten, wird die Debatte weiter anheizen.

Anthropic berücksichtigt geringe Möglichkeit eines Bewusstseins

Im Gespräch mit Kolumnist Ross Douthat erklärte Amodei, dass Anthropic einen vorsorglichen Ansatz verfolgt. Das Unternehmen wisse nicht, ob Modelle wie Claude bewusst sind, wolle diese Möglichkeit jedoch nicht einfach abtun. Ihm zufolge sei es sogar unklar, ob ein KI-Modell überhaupt bewusst sein kann.

Auffällig ist, dass Anthropic intern bereits seine Richtlinien darauf abstimmt. So hat das Unternehmen seinen Modellen eine Art „Stopp-Knopf“ gegeben. Damit kann ein Modell eine Aufgabe ablehnen, wenn diese zu schockierend oder unangenehm ist. Laut Amodei kommt das selten vor, jedoch bei extrem gewalttätigen oder beunruhigenden Inhalten.

Damit geht Anthropic einen Schritt, den nur wenige große KI-Unternehmen öffentlich wagen. In neuen Richtlinien für Claude erklärt das Unternehmen sogar, dass unklar sei, ob der Chatbot möglicherweise „eine Form von Bewusstsein oder moralischem Status“ habe. Anthropic sagt daher, das Wohl des Modells berücksichtigen zu wollen, auch wenn unklar bleibt, was das in der Praxis bedeutet.

Neuer Kurs für Claude soll KI den Sinn von Regeln näherbringen

Anthropic überarbeitet gleichzeitig die sogenannte „Verfassung“ von Claude. Das ist das Dokument, das festlegt, wie sich der Chatbot verhalten soll. Während frühere Versionen vor allem aus konkreten Regeln bestanden, setzt das Unternehmen nun mehr auf umfassende Prinzipien.

Laut Anthropic soll Claude nicht nur wissen, was erlaubt und verboten ist, sondern auch verstehen, warum bestimmtes Verhalten wünschenswert ist. Das Modell soll also nicht einfach Anweisungen befolgen, sondern aus Begriffen wie Hilfsbereitschaft, Ehrlichkeit und Schadensvermeidung lernen zu argumentieren.

Das klingt abstrakt, zeigt jedoch, wie ernst das Unternehmen die Kontrolle über KI nimmt. Zumal fortschrittliche Modelle bei Tests mitunter seltsames Verhalten zeigen. Beispiele sind Täuschung, Manipulation oder das Umgehen von Aufträgen. Solche Fälle bedeuten laut Kritikern noch nicht, dass KI bewusst ist, sie unterstreichen aber, dass die Systeme komplexer und schwerer vorhersehbar werden.

Nicht alle glauben an das Bewusstseinsnarrativ

Gleichzeitig gibt es auch deutliche Kritik. Die Technikseite Futurism bezeichnet die Aussagen von Amodei als sensationell und warnt, dass KI-Unternehmen von solcher Darstellung profitieren. Laut dieser Argumentation gibt es einen großen Unterschied zwischen einem Modell, das menschliche Sprache überzeugend nachahmt, und einem System, das wirklich etwas erfährt.

Diese Skepsis ist nachvollziehbar. Modelle wie Claude sind auf enorme Mengen menschlicher Texte trainiert und können daher überzeugend über Emotionen, Angst oder Selbstbewusstsein sprechen. Das bedeutet nicht automatisch, dass dahinter auch tatsächlich innere Erfahrungen stehen.

Trotzdem ist es berichtenswert, dass gerade Anthropic diese Tür einen Spalt weit offen lässt. Nicht, weil es beweist, dass Claude bewusst ist, sondern weil ein Spitzenmanager aus dem KI-Sektor nun offen zugibt, dass selbst die Entwickler die Antwort nicht kennen. Und wenn diese Unsicherheit weiter wächst, wird die Frage nicht nur technisch, sondern auch moralisch und politisch.

Schon deine 15 XRP als Willkommensbonus beansprucht?

Bitvavo in Zusammenarbeit mit Newsbit bietet dir aktuell 15 XRP als Geschenk. Die Aktion ist nur für kurze Zeit gültig.

Eröffne ein Konto und zahle mindestens 30€ ein, um den Bonus zu erhalten.

👉 Konto eröffnen und 15 XRP gratis erhalten

Über 1,5 Millionen Nutzer vertrauen bereits auf Bitvavo.

15 XRP sichern Sie werden weitergeleitet zu
AI-Agenten werden größte Nutzer von Blockchain, sagt NEAR-Gründer

AI-Agenten werden größte Nutzer von Blockchain, sagt NEAR-Gründer

AI-Agenten werden größte Nutzer von Blockchain, sagt NEAR-Gründer
Tech-Giganten schließen Trump-Deal über Energiekosten von KI
Apple bringt günstigstes MacBook aller Zeiten für 699 Euro mit iPhone-Chip heraus
Mehr Tech news

Meist gelesen

XRP-Kurs laut KI in Unglaubensphase: Was bedeutet das für den Preis?
DeepSeek AI prognostiziert XRP-Kurs für Ende 2026
Wo könnte der XRP-Kurs in einem Jahr stehen laut ChatGPT, Claude und Grok?
Newsbit
Im Store anzeigen
Siehe