Kalifornien zieht SB 1047 in Betracht, um KI zu regulieren
Kaliforniens SB 1047 zielt darauf ab, hochkostenintensive KI-Modelle zu regulieren
Kalifornien erwägt ein Gesetz, SB 1047, das darauf abzielt, zu verhindern, dass KI-Systeme erheblichen Schaden anrichten, wie z.B. die Schaffung von Waffen, die zu massiven Verlusten führen, oder die Organisation von Cyberangriffen, die über 500 Millionen Dollar an Schäden verursachen. Das Gesetz richtet sich gegen große KI-Modelle, die mindestens 100 Millionen Dollar in der Entwicklung kosten und während des Trainings eine hohe Rechenleistung nutzen. Unternehmen wie OpenAI, Google und Microsoft könnten bald unter diese Vorschriften fallen.
SB 1047 verlangt von den Entwicklern, Sicherheitsprotokolle umzusetzen, einschließlich eines Not-Aus-Knopfes und jährlicher Prüfungen durch Dritte. Eine neue Behörde, die Frontier Model Division (FMD), würde die Einhaltung überwachen, mit einem Gremium, das Vertreter der Industrie, der Open-Source-Community und der Wissenschaft umfasst. Die Entwickler müssen außerdem jährliche Risikobewertungen einreichen und Sicherheitsvorfälle innerhalb von 72 Stunden melden.
Das Gesetz hat Kontroversen ausgelöst, da Giganten des Silicon Valley und Startups dagegen sind und behaupten, es könnte die Innovation behindern und willkürliche Schwellenwerte setzen. Allerdings argumentieren Befürworter, darunter die KI-Forscher Geoffrey Hinton und Yoshua Bengio, dass es notwendig sei, um zukünftige Katastrophen zu verhindern. Es wird erwartet, dass das Gesetz verabschiedet wird und dann zur endgültigen Genehmigung an Gouverneur Gavin Newsom geschickt wird, wobei rechtliche Herausforderungen wahrscheinlich sind, wenn es Gesetz wird.
Auf der anderen Seite haben Tech-Riesen wie OpenAI, Google und Microsoft sowie zahlreiche Startups vehementen Widerstand geäußert. Diese Unternehmen argumentieren, dass das Gesetz die Innovation behindern könnte, indem es willkürliche Schwellenwerte und übermäßige regulatorische Anforderungen, insbesondere für kleinere Unternehmen, auferlegt. Sie äußern auch Bedenken, dass das Gesetz im Widerspruch zu zukünftigen bundesstaatlichen Vorschriften stehen könnte, was ein Flickwerk an Compliance-Anforderungen schaffen würde, das das Wachstum der Branche behindern könnte.
Anthropic, ein bemerkenswertes KI-Unternehmen, hat Änderungen an dem Gesetz vorgeschlagen und fordert, dass die Vorschriften sich auf "ergebnisbasierte Abschreckung" konzentrieren sollten, anstatt präventive Maßnahmen zu ergreifen. Sie argumentieren, dass Unternehmen nur dann verantwortlich gemacht werden sollten, wenn ein Schaden eintritt, anstatt von Anfang an strengen Kontrollen unterworfen zu werden. Anthropic und andere Technologieführer warnen, dass das Gesetz die Bemühungen um KI-Sicherheit schwächen könnte, indem es Talente und Innovationen aus Kalifornien abzieht.
Die Diskussion über SB 1047 verdeutlicht die Spannungen zwischen der Förderung von Innovation und der Gewährleistung von Sicherheit. Während das Gesetz voraussichtlich angenommen wird und einen Präzedenzfall für zukünftige KI-Vorschriften schaffen könnte, könnte seine Umsetzung rechtliche Herausforderungen und weitere Diskussionen über den besten Ansatz zur Regulierung dieser schnell wachsenden Technologie auslösen.
Wichtige Punkte
- Kaliforniens SB 1047 zielt darauf ab, KI-katastrophen wie Massenschäden oder Cyberangriffe über 500 Millionen Dollar zu verhindern.
- Das Gesetz richtet sich gegen große KI-Modelle, die mehr als 100 Millionen Dollar kosten und 10^26 FLOPS während des Trainings nutzen.
- Entwickler müssen Sicherheitsprotokolle umsetzen, einschließlich eines "Not-Aus"-Knopfes und jährlicher Prüfungen durch Dritte.
- Eine neue kalifornische Behörde, die Frontier Model Division (FMD), wird die Einhaltung und Zertifizierung überwachen.
- Das Silicon Valley lehnt SB 1047 ab und befürchtet, dass es die Innovation hemmen und Startups mit strengen Vorschriften belasten wird.
Analyse
Kaliforniens SB 1047, das sich auf hochkostenintensive, leistungsstarke KI-Modelle konzentriert, zielt darauf ab, Risiken wie Massenschäden und Cyberangriffe zu mindern. Direkte Ursachen sind das potenzielle Missbrauch von KI und die hohen Entwicklungskosten fortschrittlicher Modelle. Kurzfristige Auswirkungen umfassen Compliance-Kosten für Unternehmen wie OpenAI und Google, die möglicherweise die Innovation behindern. Langfristig könnte das Gesetz eine sicherere KI-Landschaft schaffen, obwohl rechtliche Herausforderungen wahrscheinlich sind. Die Einrichtung der Frontier Model Division (FMD) wird die Branchenstandards und -überwachung beeinflussen und sowohl Tech-Riesen als auch Startups betreffen.
Wussten Sie schon?
- Frontier Model Division (FMD): Die FMD ist eine vorgeschlagene neue Behörde in Kalifornien, die die Einhaltung von SB 1047 überwachen würde, insbesondere für große KI-Modelle, die kostspielig und rechenintensiv zu entwickeln sind. Sie wäre verantwortlich dafür, sicherzustellen, dass Entwickler Sicherheitsprotokolle umsetzen und jährliche Prüfungen durch Dritte sowie Risikobewertungen einhalten. Der Vorstand der FMD würde Vertreter aus der Industrie, der Open-Source-Community und der Wissenschaft umfassen, um eine vielfältige und ausgewogene Aufsicht sicherzustellen.
- Not-Aus-Knopf: Ein "Not-Aus"-Knopf ist ein Sicherheitsmerkmal, das von SB 1047 für KI-Systeme gefordert wird, die potenziell erheblichen Schaden verursachen könnten. Dieses Merkmal würde eine sofortige Deaktivierung oder Abschaltung des KI-Systems im Notfall oder wenn es gefährliches Verhalten zeigt, ermöglichen. Die Implementierung eines solchen Knopfes dient als Sicherheitsmechanismus, um katastrophale Ergebnisse durch KI-Fehlfunktionen oder Missbrauch zu verhindern.
- Jährliche Prüfungen durch Dritte: SB 1047 verlangt, dass Entwickler großer KI-Modelle jährliche Prüfungen durch Dritte durchlaufen, um die Einhaltung der Sicherheitsprotokolle und Vorschriften sicherzustellen. Diese Prüfungen würden von unabhängigen Stellen durchgeführt, um eine objektive Bewertung der Sicherheit und Zuverlässigkeit der KI-Systeme zu gewährleisten. Das Ziel ist es, einen hohen Sicherheitsstandard aufrechtzuerhalten und potenzielle Katastrophen zu vermeiden, indem regelmäßig überprüft wird, dass die KI-Systeme innerhalb akzeptabler Risiko-Parameter arbeiten.