Elon Musks xAI baut hochmodernes Hochleistungsrechenzentrum auf

Elon Musks xAI baut hochmodernes Hochleistungsrechenzentrum auf

Von
Nikolai Petrovich Smirnov
2 Minuten Lesezeit

Elons Musks xAI plant den Bau eines massiven Supercomputers für den fortschrittlichen Grok-Chatbot

Elon Musks Startup xAI hat Pläne enthüllt, bis Herbst 2025 einen kolossalen Supercomputer, auch als "Gigafabrik des Rechnens" bezeichnet, zu bauen. Dieser Rechnerriese wird von Zehntausenden von NVIDIA H100-GPUs angetrieben und wird voraussichtlich Kosten in Milliardenhöhe verursachen. Das Hauptziel dieses monumentalen Projekts ist es, die Entwicklung einer fortschrittlicheren Version des Grok-Chatbots zu unterstützen. Musk hat erklärt, dass die verbesserte Version des Chatbots mindestens 100.000 GPUs für das Training benötigen wird - ein erheblicher Anstieg gegenüber den 20.000 GPUs, die für Grok 2.0 verwendet wurden. Darüber hinaus hat xAI stolz verkündet, dass ihr GPU-Cluster mindestens viermal so groß sein wird wie bestehende Konkurrenzangebote. In seiner Version 1.5 wurde Grok kürzlich mit der Fähigkeit ausgestattet, neben Text auch Bilddaten zu verarbeiten, und xAI hat begonnen, für seine Premium-Nutzer KI-generierte Nachrichtenzusammenfassungen anzubieten.

Wichtigste Erkenntnisse

  • Elon Musks Startup xAI plant, bis Herbst 2025 einen Supercomputer zu bauen, um die Entwicklung eines fortschrittlichen Grok-Chatbots voranzutreiben.
  • Die "Gigafabrik des Rechnens" soll Zehntausende von NVIDIA H100-GPUs nutzen und wird voraussichtlich Milliarden kosten.
  • Grok 3.0, die verbesserte Version, wird mindestens 100.000 GPUs benötigen, was eine Verfünffachung gegenüber den 20.000 GPUs für Grok 2.0 darstellt.
  • Der geplante GPU-Cluster wird die Leistungsfähigkeit bestehender Konkurrenzangebote mindestens um das Vierfache übertreffen.
  • Grok 1.5, das derzeit für Premium-Nutzer verfügbar ist, kann neben Textinhalten auch Bildmaterial wie Fotos und Diagramme verarbeiten.

Analyse

Elon Musks Startup xAI begibt sich in das aufwendige Unterfangen, einen massiven Supercomputer, oft als "Gigafabrik des Rechnens" bezeichnet, zu bauen. Dieses Vorhaben zielt darauf ab, die Entwicklung eines fortschrittlichen Grok-Chatbots durch den Einsatz einer umfangreichen Palette von NVIDIA H100-GPUs voranzutreiben.

Wussten Sie schon?

  • xAIs Gigafabrik des Rechnens: Ein monumentaler Supercomputer, der von Elon Musks Startup xAI bis Herbst 2025 gebaut wird. Er wird sich auf Zehntausende von NVIDIA H100-GPUs stützen und Investitionen in Milliardenhöhe erfordern. Sein Hauptzweck ist es, die Weiterentwicklung des Grok-Chatbots zu ermöglichen.

  • NVIDIA H100-GPUs: Die neueste Generation von NVIDIAs Grafikprozessoren, die speziell für KI- und Hochleistungsrechnen-Workloads entwickelt wurden. Diese GPUs werden eine entscheidende Rolle dabei spielen, xAIs Gigafabrik des Rechnens anzutreiben und das Training des Grok-Chatbots zu ermöglichen.

  • Grok 3.0 und seine 100.000 GPUs: Die bevorstehende Version von xAIs KI-getriebenem Chatbot, Grok 3.0, wird mindestens 100.000 GPUs für sein Training benötigen, was eine erhebliche Steigerung gegenüber den 20.000 GPUs für Grok 2.0 darstellt. Diese umfangreiche Anforderung ist für die fortgeschrittenen Fähigkeiten des Chatbots, einschließlich der Verarbeitung von Bilddaten neben Textinhalten, unerlässlich.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote