US-Regierung aufgefordert, offene KI-Modelle zu überwachen

US-Regierung aufgefordert, offene KI-Modelle zu überwachen

Von
Hiroko Tanaka
2 Minuten Lesezeit

US-Regierung Rat vom Regulieren Offener Quell-AI-Modelle Ab

Die Nationale Telekommunikations- und Informationsverwaltung (NTIA) hat empfohlen, dass die US-Regierung derzeit von der Regulierung offener Quell-AI-Modelle absehen sollte. Stattdessen solle der Fokus auf einer kontinuierlichen Beurteilung von Risiken und Vorteilen liegen, wobei nur dann eingegriffen werden sollte, wenn dies notwendig ist. Dieser Ansatz soll Innovation fördern und den breiteren Zugang zur AI-Technologie sicherstellen.

Der Bericht behandelt speziell "duale Nutzungsfundamentalmodelle", fortschrittliche AI-Modelle mit über 10 Milliarden Parametern, die für verschiedene Anwendungen genutzt werden können und potenziell ernsthafte Risiken für die öffentliche Sicherheit und Gesundheit darstellen können. Die NTIA glaubt, dass es derzeit nicht ausreichende Beweise gibt, um die Einschränkung dieser Modelle zu rechtfertigen, da dies die Forschung und das Lernen über die Technologie behindern könnte.

Die NTIA schlägt vor, dass die Regierung die Entwicklung offener Quell-AI-Modelle genau beobachtet und bereit ist, schnell zu reagieren, wenn zukünftige Risiken entstehen. Dies kann Einschränkungen der Modellgewichte beinhalten, wenn nachfolgende Bewertungen dies als notwendig erachten. Der Bericht hebt die Bedeutung hervor, das Potenzial dieser Modelle mit möglichen Gefahren abzuwägen, insbesondere für kleine Unternehmen, Forscher, Non-Profit-Organisationen und Einzelpersonen.

Die Regulierung und Überwachung offener Quell-Großsprachmodelle (LLMs) ist herausfordernd aufgrund ihrer dezentralen und weit verbreiteten Natur, was die Kontrolle und Rechenschaftsfähigkeit erschwert. Die Anonymität von Beiträgen und Nutzung, schnelle technologische Fortschritte und vielfältige Anwendungen erschweren die Aufsicht. Zusätzlich komplizieren grenzüberschreitende Rechtsfragen, begrenzte Ressourcen für Aufsichtsbehörden und der Bedarf, Innovation und Sicherheit in Einklang zu bringen, die Regulierung. Diese Faktoren erfordern kooperative und anpassungsfähige Ansätze, um effektiv die Risiken und Vorteile offener Quell-LLMs zu bewältigen.

Schlüsselerkenntnisse

  • NTIA rät US-Regierung nicht, offene Quell-AI-Modelle zu regulieren.
  • Betonung der kontinuierlichen Risikobewertung und Intervention nach Bedarf.
  • Offene Gewichtsmodelle fördern Innovation und Zugänglichkeit trotz möglicher Risiken.
  • Regierung wird beraten, auf AI-Risiken und Vorteile zu achten.
  • Zukünftige Möglichkeit der Einschränkung von Modellgewichten auf Basis der sich entwickelnden Analyse.

Analyse

Die Empfehlung der NTIA gegen die Regulierung offener Quell-AI-Modelle könnte die Innovation und den Zugang verbessern, was kleinen Unternehmen, Forschern und Einzelpersonen zugutekommt. Allerdings erfordern die potenziellen Risiken assoziierten dualen Nutzungsmodellen Wachsamkeit und genaue Überwachung. Kurzfristig könnte dieser Ansatz die AI-Entwicklung beschleunigen, während er langfristig zu engeren Kontrollen führen könnte, wenn die Risiken zunehmen. Es ist wichtig, dass Regierungen und Tech-Unternehmen ein Gleichgewicht zwischen Innovation und Sicherheit herstellen, was möglicherweise globale AI-Standards und -Regulierungen beeinflussen könnte.

Haben Sie Gewusst?

  • Nationale Telekommunikations- und Informationsverwaltung (NTIA)
    • Die NTIA ist eine Behörde im US-Handelsministerium, die den Präsidenten in Fragen der Telekommunikations- und Informationspolitik berät. Sie spielt eine entscheidende Rolle bei der Gestaltung von Politiken im Zusammenhang mit Technologie und Kommunikation, um sicherzustellen, dass sie den nationalen Interessen entsprechen und Innovation fördern.
  • Dual-use Fundamentalmodelle
    • Das sind fortschrittliche AI-Modelle mit über 10 Milliarden Parametern, die für verschiedene Sektoren entwickelt wurden, um vielseitig und anwendbar zu sein. Sie haben das Potenzial für beide vorteilhafte Anwendungen und signifikante Risiken, wie Bedrohungen für die öffentliche Sicherheit oder Gesundheit, abhängig von ihrer Nutzung.
  • Modellgewichte
    • Im Zusammenhang mit AI beziehen sich Modellgewichte auf die Parameter innerhalb des neuronalen Netzwerks, die während des Trainings angepasst werden, um die Leistung des Modells zu verbessern. Die Einschränkung von Modellgewichten könnte den Zugang oder die Modifizierung dieser Parameter beeinflussen, was die Funktionalität und Anpassungsfähigkeit des AI-Modells beeinträchtigen könnte.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote