Das EU-KI-Gesetz ist nun in Kraft
EU-AI-Gesetz nun in Kraft
Die Europäische Union hat offiziell ihre neue risikobasierte Regulierung für AI-Anwendungen eingeführt, bekannt als EU AI Act, die seit dem 1. August 2024 in Kraft ist. Diese Regulierung legt unterschiedliche Compliance-Fristen für verschiedene Kategorien von AI-Entwicklern und -Anwendungen fest, wobei die meisten Bestimmungen bis Mitte 2026 wirksam werden. Einige strenge Verbote, wie die Verwendung von Remote-Biometrie in der Öffentlichkeit durch Strafverfolgungsbehörden, werden jedoch bereits innerhalb von sechs Monaten durchgesetzt.
Die meisten AI-Anwendungen werden als geringes Risiko eingestuft und sind nicht von Regulierungen betroffen. Im Gegensatz dazu unterliegen Anwendungen mit hohem Risiko, einschließlich solcher mit Biometrie, Gesichtserkennung und AI in Bildung und Beschäftigung, der Registrierung in einer EU-Datenbank und müssen strenge Risiko- und Qualitätsmanagement-Protokolle einhalten. AI-Technologien wie Chatbots und Tiefenfälschungswerkzeuge werden als "beschränktes Risiko" eingestuft und erfordern Transparenzmaßnahmen, um Benutzerbetrug zu verhindern. Für Allzweck-KI-Systeme (GPAI) werden Entwickler im Allgemeinen nur geringe Transparenzanforderungen haben, obwohl die fortschrittlichsten Modelle Risikobewertungen durchführen und Gegenmaßnahmenstrategien umsetzen müssen. Die Details zur Einhaltung der GPAI-Compliance werden immer noch abschließend festgelegt, mit Codes of Practice, die voraussichtlich bis April 2025 verabschiedet werden.
OpenAI, der Schöpfer von GPT und ChatGPT, wird eng mit dem EU AI Büro zusammenarbeiten, um das neue regulatorische Rahmenwerk umzusetzen und andere AI-Entwickler bei der Systemklassifizierung und Compliance-Verpflichtungen zu beraten. AI-Fachkräfte müssen den Einfluss dieser neuen Vorschriften auf ihre Arbeit verstehen und ggf. rechtliche Beratung suchen.
Schlüsselerkenntnisse
- Das EU-AI-Gesetz tritt am 1. August 2024 in Kraft und markiert den Beginn von Compliance-Fristen.
- Verbote für bestimmte AI-Anwendungen, wie die biometrische Überwachung, werden innerhalb von sechs Monaten durchgesetzt.
- Die Mehrheit der AI-Anwendungen gilt als geringes Risiko oder ist von der Regulierung befreit.
- Hohes Risiko-AI, einschließlich Biometrie und Bildungswerkzeuge, erfordert die Registrierung in einer EU-Datenbank.
- Entwickler von Allzweck-KI-Systemen stehen unterschiedlichen Transparenz- und Risikomanagement-Anforderungen gegenüber.
Analyse
Das EU-AI-Gesetz wird für Entwickler von Hochrisiko-KI, insbesondere für Biometrie und Bildung, erhebliche Auswirkungen haben und die Einhaltung strenger Compliance-Standards erfordern. Die Zusammenarbeit zwischen OpenAI und dem EU AI Büro spiegelt einen proaktiven Ansatz für die Compliance wider und ist darauf ausgerichtet, Industriestandards zu beeinflussen. Kurzfristig werden AI-Unternehmen mit operativen Anpassungen konfrontiert, während diese regulatorische Rahmenbedingung im Langzeitverlauf den Markt stabilisieren und das Vertrauen in AI-Technologien stärken könnte. Finanzinstrumente, die mit AI-Aktien verknüpft sind, können Volatilität erfahren, da Unternehmen sich an die neue regulatorische Landschaft anpassen.
Haben Sie Gewusst?
- Risikobasierte Regulierung für AI-Anwendungen: Dabei handelt es sich um ein regulatorisches Rahmenwerk, in dem AI-Anwendungen anhand des Risikos, das sie für Einzelpersonen, die Gesellschaft oder die Umwelt darstellen, kategorisiert werden. Die EU-Ansatz klassifiziert AI in niedriges Risiko, begrenztes Risiko und hohes Risiko, jeder mit unterschiedlichen Compliance-Anforderungen und Aufsichtsmechanismen.
- General-Purpose AIs (GPAI): GPAIs sind AI-Systeme, die für eine Vielzahl von Aufgaben in verschiedenen Domänen ausgelegt sind, beispielsweise OpenAIs GPT und ChatGPT. Das EU-Reglement sieht unterschiedliche Transparenz- und Risikomanagement-Anforderungen für GPAIs vor, je nach ihren Fähigkeiten und potenziellen Auswirkungen.
- Transparenzanforderungen für AI: Dabei handelt es sich um Anforderungen, dass AI-Systeme so entwickelt und bereitgestellt werden sollten, dass Benutzer und andere Beteiligte die Entscheidungsprozesse der AI verstehen können. zum Beispiel müssen AI-Tools wie Chatbots und solche, die Deepfakes erstellen können, transparent als AI-generiert kennzeichnen, um Benutzerbetrug zu verhindern und eine informierte Zustimmung zu gewährleisten.