AI Chatbot
Regulierung

Nicht-Einhaltung der EU-Gesetzgebung durch KI-Chatbots: Forschungsergebnisse

Prominente Sprachmodelle wie OpenAI’s GPT-4 und Googles Bard erfüllen nicht die künstliche Intelligenz (KI)-Gesetzgebung der Europäischen Union (EU). Dies geht aus einer neuen Studie der Stanford University hervor. Diese Ergebnisse unterstreichen den Mangel an Transparenz und Einhaltung von Vorschriften sowie die potenziellen Auswirkungen der europäischen KI-Regulierung auf die Industrie. Transparenz wird zunehmend als wesentliche Grundlage für eine verantwortungsvolle Anwendung von KI anerkannt.

Prominente Sprachmodelle erfüllen nicht die KI-Gesetzgebung

In der jüngsten Studie wurden sowohl OpenAI’s GPT-4 als auch Googles Bard von den Forschern gnadenlos kritisiert. Das Fazit lautet, dass keines dieser prominenten Sprachmodelle derzeit den Vorschriften entspricht, die im “Gesetz über Künstliche Intelligenz (KI)” der Europäischen Union (EU) festgelegt sind.

Diese bahnbrechende Gesetzgebung, die die erste ihrer Art ist und KI sowohl auf nationaler als auch auf regionaler Ebene reguliert, wurde kürzlich vom Europäischen Parlament einstimmig verabschiedet. Die EU-KI-Verordnung beschränkt sich nicht nur auf die Regulierung von KI innerhalb der EU mit einer Bevölkerung von etwa 450 Millionen Menschen, sondern dient auch als wegweisender Leitfaden für die weltweite KI-Regulierung.

Dennoch haben KI-Unternehmen laut der jüngsten Stanford-Studie noch erhebliche Fortschritte zu erzielen, um die Gesetzgebung einzuhalten.

Die Forscher haben in ihrer Studie zehn führende Anbieter von Sprachmodellen bewertet. Auf einer Skala von 0 bis 4 wurde bewertet, inwieweit jeder Anbieter den 12 Anforderungen der KI-Gesetzgebung entsprach.

Die Ergebnisse zeigen eine erhebliche Diskrepanz in der Einhaltung der Gesetzgebung, wobei einige Anbieter nur 25% oder weniger in Bezug auf die Einhaltung erreichten, während nur ein Anbieter, nämlich Hugging Face/BigScience, eine Bewertung von mehr als 75% erzielte.

Dennoch zeigt sich, dass selbst die Anbieter mit den höchsten Bewertungen noch erhebliches Verbesserungspotenzial haben.

Die durchgeführte Studie wirft ein aufschlussreiches Licht auf verschiedene entscheidende Aspekte der Nichteinhaltung. Die Forscher haben besorgniserregende Feststellungen hinsichtlich mangelnder Transparenz bei der Offenlegung des Status urheberrechtlich geschützter Trainingsdaten, des Energieverbrauchs, der erzeugten Emissionen und der angewandten Methoden zur Begrenzung potenzieller Risiken gemacht.

Darüber hinaus hat das Team eine klare Ungleichheit zwischen offenen und geschlossenen Modellveröffentlichungen festgestellt. Offene Veröffentlichungen neigen dazu, eine robustere

Offenlegung von Ressourcen zu ermöglichen, bringen aber auch größere Herausforderungen bei der Überwachung und Kontrolle ihrer Verwendung mit sich.

Das Fazit von Stanford lautet, dass alle Anbieter ihr Verhalten verbessern können, unabhängig von der Methode, die sie zur Veröffentlichung ihrer Modelle verwenden.

In den letzten Monaten wurde ein bemerkenswerter Rückgang des Maßes an Transparenz bei großen Modellveröffentlichungen festgestellt. Zum Beispiel hat OpenAI keine Informationen über die verwendeten Daten und Berechnungen in ihren GPT-4-Berichten zur Verfügung gestellt, mit dem Argument eines wettbewerbsintensiven Umfelds und Sicherheitsimplikationen.

Die potenziellen Auswirkungen der europäischen KI-Regulierung auf die Industrie

Obwohl diese Erkenntnisse von erheblicher Bedeutung sind, passen sie auch in einen breiteren Kontext. In letzter Zeit hat OpenAI aktiv versucht, die Einstellung verschiedener Länder zur KI zu beeinflussen, was angesichts dieser Entdeckungen nicht zu vernachlässigen ist. Als führender Technologiegigant hat OpenAI sogar damit gedroht, Europa zu verlassen, wenn die KI-Regulierung zu streng würde – eine Drohung, die später zurückgezogen wurde. Solche Maßnahmen unterstreichen die komplexe und oft heikle Beziehung zwischen Anbietern von KI-Technologie und Regulierungsbehörden.

Die Forscher haben mehrere Empfehlungen zur Verbesserung der KI-Regulierung formuliert. In Bezug auf EU-Politiker ist es von entscheidender Bedeutung, dass die KI-Gesetzgebung Anbieter von groß angelegten Modellarchitekturen für Transparenz und Rechenschaftspflicht verantwortlich macht. Darüber hinaus wird die Notwendigkeit von technologischen Ressourcen und qualifiziertem Personal betont, um die Durchsetzung dieser Gesetzgebung zu gewährleisten, wobei die Komplexität des KI-Ökosystems zum Ausdruck kommt.

Laut den Forschern liegt die größte Herausforderung in der Fähigkeit der KI-Anbieter, ihre Geschäftspraktiken schnell anzupassen und weiterzuentwickeln, um den gesetzlichen Anforderungen gerecht zu werden. Ohne strengen Regulierungsdruck können viele Anbieter durch sinnvolle, aber plausible Änderungen ordnungsgemäß hohe Bewertungen erzielen – irgendwo zwischen 30 und 40 Punkten auf einer Skala von 48.

Die Arbeit der Forscher bietet einen tiefen Einblick in die Zukunft der KI-Regulierung. Sie stellen fest, dass die Umsetzung und Durchsetzung der KI-Gesetzgebung einen erheblichen positiven Einfluss auf das Ökosystem haben und den Weg zu mehr Transparenz und Rechenschaftspflicht ebnen wird.

KI transformiert die Gesellschaft mit ihren beispiellosen Möglichkeiten und inhärenten Risiken. Während die Welt kurz davor steht, diese bahnbrechende Technologie zu regulieren, wird immer deutlicher, dass Transparenz nicht nur eine optionale Ergänzung ist, sondern eine wesentliche Grundlage für eine verantwortungsvolle Anwendung von KI darstellt.

Regulierung News

Wie der politische Wandel in den USA Ripple im Rechtsstreit gegen die SEC helfen kann
EU bereitet sich auf die Konvergenz von Blockchain und KI vor
Kryptobörse Gate.HK schließt Türen wegen Nichterfüllung der Lizenzanforderungen
Mehr News

Meist gelesen

Entscheidungstag für Ethereum ETF: Um diese Uhrzeit wird das Urteil erwartet
Positivie Krypto-Nachrichten: Coinbase nimmt XRP-Handel in New York wieder auf
Kaleo: Bitcoin-Kurs von 200.000 Dollar in Sicht