China Flag
Regulierung

China verschärft die Vorschriften für das Training von generativen KI-Modellen

China hat gerade wegweisende Sicherheitsrichtlinien vorgestellt, die für Unternehmen gelten, die generative künstliche Intelligenz (KI)-Dienste anbieten.

Diese neuen Vorschriften umfassen strenge Einschränkungen in Bezug auf die Datenquellen, die für das Training von KI-Modellen verwendet werden.

Vorgeschlagene Vorschriften wurden enthüllt

Am Mittwoch, dem 11. Oktober, wurden die vorgeschlagenen Vorschriften vom National Information Security Standardization Committee bekannt gegeben. Dieses Gremium setzt sich aus Vertretern wichtiger Einrichtungen zusammen, darunter die Cyberspace Administration of China (CAC), das Ministerium für Industrie und Informationstechnologie und relevante Strafverfolgungsbehörden.

Diese Regulierung kommt zu einer Zeit, in der generative künstliche Intelligenz, wie sie von der beeindruckenden Leistung des ChatGPT-Chatbots von OpenAI illustriert wird, immer besser in der Lage ist, komplexe Aufgaben zu bewältigen. Dies geschieht durch die Analyse historischer Daten und die Generierung neuer Inhalte wie Text und Bilder auf der Grundlage dieser Trainingsdaten.

Durchführung einer Sicherheitsbewertung

Das Gremium empfiehlt, eine Sicherheitsbewertung des Inhalts durchzuführen, der für das Training öffentlich zugänglicher generativer KI-Modelle verwendet wird. Inhalt, der mehr als „5 % illegale und schädliche Informationen“ enthält, wird auf eine schwarze Liste gesetzt. Diese Kategorie umfasst Informationen, die Terrorismus, Gewalt, die Untergrabung des sozialistischen Systems, Schädigung des nationalen Ansehens und Handlungen fördern, die die nationale Einheit und soziale Stabilität gefährden.

Darüber hinaus betonen die Entwurfsbestimmungen, dass Daten, die der Zensur im chinesischen Internet unterliegen, nicht als Schulungsmaterial für diese Modelle dienen dürfen. Diese Entwicklung erfolgt etwas mehr als einen Monat, nachdem Aufsichtsbehörden die Zulassung mehrerer führender chinesischer Technologieunternehmen, darunter das führende Suchmaschinenunternehmen Baidu, zur Einführung ihrer generativen KI-gesteuerten Chatbots für die breite Öffentlichkeit erteilt hatten.

Seit April hat die Cyberspace Administration of China (CAC) konsequent betont, dass Unternehmen verpflichtet sind, Sicherheitsbewertungen bei Regulierungsbehörden vorzulegen, bevor sie generative KI-Dienste der Öffentlichkeit zur Verfügung stellen.

Richtlinien weniger belastend als zuvor vorgeschlagen

Im Juli veröffentlichte die Aufsichtsbehörde für den Cyberspace eine Reihe von Leitlinien für diese Dienste, wobei Branchenanalysten feststellten, dass diese im Vergleich zu den ursprünglichen Maßnahmen, die im April vorgeschlagen wurden, deutlich weniger belastend waren.

Die kürzlich vorgestellten Sicherheitsbestimmungen legen Organisationen, die an der Schulung dieser KI-Modelle beteiligt sind, die Verpflichtung auf, ausdrückliche Zustimmung von Personen einzuholen, deren persönliche Daten, einschließlich biometrischer Informationen, für das Training verwendet werden. Darüber hinaus enthalten die Richtlinien ausführliche Anweisungen zur Vermeidung von Verletzungen des geistigen Eigentums.

In der ganzen Welt kämpfen Länder mit der Herausforderung, Regulierungsrahmen für diese Technologie zu schaffen. China betrachtet KI als ein Gebiet, auf dem es mit den Vereinigten Staaten konkurrieren möchte, und strebt die Ambition an, bis 2030 in diesem Bereich weltweit führend zu werden.

Regulierung News

OpenAI erhält eine Geldstrafe von 15 Millionen Euro von Italien: Was Sie über den KI-Datenschutzfall wissen sollten
VanEck: Bitcoin-Reserve kann die US-Staatsverschuldung bis 2049 um 35 % senken
BRICS-Staaten planen eine Revolution im Handel mit neuer digitaler Währung
Mehr News

Meist gelesen

Dies ist der Grund, warum der Bitcoin Kurs stark gefallen ist
BRICS-Staaten planen eine Revolution im Handel mit neuer digitaler Währung
Krypto-Analyst: XRP-Investoren werden „unschätzbar reich“
Newsbit
Im Store anzeigen
Siehe