NIST arbeitet mit Anthropic und OpenAI zusammen, um die Forschung zur KI-Sicherheit zu verbessern
Das US National Institute of Standards and Technology (NIST) hat Partnerschaften mit Anthropic und OpenAI gebildet, um die Forschung und Bewertung zur KI-Sicherheit voranzutreiben. Diese Absichtserklärungen (MOUs) ermöglichen dem US AI Safety Institute einen frühen Zugang zu neuen KI-Modellen beider Unternehmen, sowohl vor als auch nach ihrer Veröffentlichung. Das Ziel der Zusammenarbeit ist es, gemeinsam die Sicherheitsfähigkeiten und Risiken dieser Modelle zu bewerten und Methoden zu entwickeln, um mögliche Risiken zu mindern. Elizabeth Kelly, Direktorin des US AI Safety Institute, hat die Bedeutung dieser Partnerschaften für eine verantwortungsvolle Entwicklung der KI-Technologie betont. Das Institut plant außerdem, Anthropic und OpenAI Feedback zu geben, um die Sicherheit ihrer Modelle zu verbessern und wird eng mit dem UK AI Safety Institute zusammenarbeiten.
Diese Zusammenarbeit steht im Einklang mit NISTs Geschichte der technologischen Weiterentwicklung und Standardsetzung und unterstützt die KI-Exekutivordnung der Biden-Harris-Administration sowie die freiwilligen Verpflichtungen führender KI-Unternehmen. In der Branche herrscht ein wachsendes Interesse an Anthropic, insbesondere in Bezug auf Sicherheitsbedenken. Auffällig ist der bedeutende Abgang wichtiger Forscher und eines Mitbegründers von OpenAI zu Anthropic, was einen Unterschied in den Ansätzen zur KI-Sicherheit zwischen den beiden Unternehmen zeigt.
Anthropic setzt sich für ein kalifornisches Gesetz ein, das Risiken von modernen KI-Modellen anspricht, während OpenAI nationale Regulierungen unterstützt. Der CEO von OpenAI, Sam Altman, hat die Zusammenarbeit mit NIST unterstützt, was eine strategische Übereinstimmung mit den föderalen Regulierungsbemühungen zeigt.
Wichtige Punkte
- NIST arbeitet mit Anthropic und OpenAI an der Forschung zur KI-Sicherheit.
- Frühzeitiger Zugang zu neuen KI-Modellen wird vor und nach der Veröffentlichung gewährt.
- Gemeinsame Anstrengungen zur Bewertung und Minderung von KI-Sicherheitsrisiken.
- US AI Safety Institute wird Feedback zur Verbesserung der Modelle geben.
- Steht im Einklang mit der KI-Exekutivordnung der Biden-Harris-Administration.
Analyse
Die Zusammenarbeit zwischen NIST, Anthropic und OpenAI zeigt einen strategischen Wandel hin zur KI-Sicherheit, beeinflusst durch Branchentrends und regulatorische Übereinstimmungen. Diese Partnerschaft könnte die Glaubwürdigkeit beider Unternehmen im Bereich der KI-Sicherheit erhöhen und möglicherweise ihre Positionierung im Markt sowie das Vertrauen der Investoren beeinflussen. Darüber hinaus zeigt sie einen breiteren Trend in der Branche hin zu proaktiven Sicherheitsmaßnahmen, die künftige regulatorische Rahmenbedingungen und internationale KI-Standards beeinflussen könnten. Kurzfristig stärkt dieses Bündnis die Fähigkeiten des US AI Safety Institute in der Bewertung von KI-Risiken, während es langfristig die globalen Modelle der KI-Governance neu definieren könnte, was Auswirkungen auf die Technologiepolitik und Innovationsökosysteme weltweit hat.
Wussten Sie schon?
- Absichtserklärungen (MOUs):
- Erklärung: MOUs sind formelle Vereinbarungen zwischen zwei oder mehr Parteien, die die Bedingungen und Einzelheiten ihrer Zusammenarbeit festlegen. Im Kontext der Partnerschaft von NIST mit Anthropic und OpenAI legen diese MOUs das gegenseitige Verständnis und die Verpflichtungen in Bezug auf den Zugang zu neuen KI-Modellen, gemeinsame Sicherheitsbewertungen und die Entwicklung von Strategien zur Risikominderung fest.
- US AI Safety Institute:
- Erklärung: Diese spezialisierte Organisation konzentriert sich auf die Forschung, Bewertung und Verbesserung der KI-Sicherheit. Ihre Rolle in der Zusammenarbeit mit NIST, Anthropic und OpenAI umfasst den frühen Zugang zu neuen KI-Modellen, die Bereitstellung von Feedback zur Sicherheitsverbesserung und die Zusammenarbeit mit anderen Instituten für KI-Sicherheit.
- Anthropic vs. OpenAI Ansätze zur KI-Sicherheit:
- Erklärung: Anthropic und OpenAI vertreten unterschiedliche Ansätze zur KI-Sicherheit in der Branche, mit Unterschieden in ihren Strategien zur Ansprache und Minderung von KI-Sicherheitsrisiken.