Kalifornien: Neuer AI-Entwurf spaltet Silicon Valley - Ein Gesetz mit globalen Auswirkungen
Der Vorstoß Kaliforniens zur Regulierung von künstlicher Intelligenz sorgt im Silicon Valley für heftige Diskussionen. Gegner warnen, dass der Gesetzesrahmen den Wettbewerb beeinträchtigen und Amerikas Position als weltweit führender Technologie-Standort untergraben könnte.
Nachdem Unternehmen wie OpenAI und Meta vergeblich versucht hatten, das Gesetz im kalifornischen Parlament zu entschärfen, warten ihre Führungskräfte nun gespannt darauf, ob Gouverneur Gavin Newsom das Gesetz unterzeichnen wird. Bis zum 30. September hat er Zeit zu entscheiden.
Kalifornien ist das Zentrum der florierenden AI-Industrie, und da es keine föderalen Gesetze zur Regulierung dieser Technologie in den USA gibt – geschweige denn globale Standards – wären die Auswirkungen weitreichend. Yoshua Bengio, ein angesehener Professor und Mitbegründer der AI-Forschung, erklärte gegenüber der Financial Times, dass die ganze Welt aufmerksam beobachte, welche Entscheidungen in Kalifornien und den USA getroffen werden, da diese Auswirkungen auf die Regulierung in anderen Ländern haben könnten.
Die rasante Entwicklung von AI-Tools hat die wahrgenommenen Risiken verschärft, von rechtlichen Streitigkeiten wie Urheberrechtsverletzungen bis hin zu Fehlinformationen und der Verbreitung von Deepfakes. Einige Experten warnen sogar vor existentiellen Bedrohungen für die Menschheit.
US-Präsident Joe Biden unterzeichnete letztes Jahr eine Exekutivanordnung, um nationale Standards für AI-Sicherheit festzulegen, jedoch hat der US-Kongress bislang keine nationalen Gesetze verabschiedet.
Kalifornien hat in der Vergangenheit oft als Vorreiter agiert, wenn die Bundesregierung zögerte. Der vorgeschlagene "Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act", angeführt von Senator Scott Wiener, fokussiert nun auf künstliche Intelligenz.
Das Gesetz verlangt von den größten AI-Entwicklern, grundlegende Sicherheitstests an leistungsstarken AI-Modellen durchzuführen. Es richtet sich gegen Modelle, die unter anderem für bösartige Zwecke missbraucht werden könnten.
Unternehmen müssen zukünftig einen "Kill Switch" in neue Modelle einbauen, um diese im Falle von Missbrauch abschalten zu können. Außerdem sind Sicherheitsberichte und Transparenz-Auflagen vorgesehen.
Das Gesetz trifft auf gemischte Reaktionen in der Technologie-Branche. Unterstützer wie Anthropic und Elon Musk argumentieren, dass es notwendig sei, Risiken zu mindern. Kritiker hingegen befürchten, dass junge Unternehmen und Open-Source-Entwickler dadurch behindert würden.
Trotz Anpassungen am Gesetzentwurf, um bestimmte Bedenken zu adressieren, bleibt die Kontroverse bestehen. Sollte Newsom den Entwurf nicht unterzeichnen, könnte das Parlament seinen Veto mit einer Zweidrittelmehrheit aufheben.
Angesichts der wichtigen Rolle der Technologiebranche für Kaliforniens Wirtschaft steht der Gouverneur in einer schwierigen Position. Unkontrolliertes AI-Wachstum könnte jedoch noch problematischer sein.
Senator Wiener äußerte, er wäre froh, wenn der Kongress ein starkes AI-Sicherheitsgesetz verabschieden würde. Bis dahin fühle sich Kalifornien verpflichtet, die Führung zu übernehmen.