Ist DeepSeek wirklich Open Source oder folgt es nur Branchenstandards?

Von
CTOL Editors - Ken
3 Minuten Lesezeit

Ist DeepSeek wirklich Open Source? Die Wahrheit hinter dem Industriestandard

Das KI-Forschungsunternehmen DeepSeek hat kürzlich sein großes Sprachmodell (LLM) unter der MIT-Lizenz veröffentlicht und stellt Modellgewichte, Inferenzcode und technische Dokumentation zur Verfügung. Das Unternehmen hat jedoch seinen Trainingscode nicht veröffentlicht, was eine hitzige Debatte darüber ausgelöst hat, ob DeepSeek wirklich als "Open Source" betrachtet werden kann.

Diese Kontroverse beruht auf unterschiedlichen Interpretationen dessen, was im Kontext großer Sprachmodelle Open Source ausmacht. Während einige argumentieren, dass ein Modell ohne Trainingscode nicht als vollständig Open Source betrachtet werden kann, betonen andere, dass der Ansatz von DeepSeek mit den Industriestandards führender KI-Unternehmen wie Meta, Google und Alibaba übereinstimmt.

Wichtigste Erkenntnisse

  1. DeepSeeks Open-Source-Ansatz

    • Veröffentlichung von Modellgewichten unter der MIT-Lizenz
    • Bereitstellung von Inferenzcode und technischer Dokumentation
    • Keine Veröffentlichung des Trainingscodes, was zu Debatten über die Open-Source-Glaubwürdigkeit führt
  2. Industriestandard für Open-Source-LLMs

    • Die meisten Unternehmen (Meta, Google, Alibaba) verfolgen ein ähnliches Modell
    • Standardpraxis ist die gemeinsame Nutzung von Gewichten und Inferenzcode, aber nicht von Trainingscode
    • Vollständige Open-Source-Veröffentlichungen (einschließlich Trainingscode) sind selten
  3. Praktische Erwägungen

    • Die Trainingskosten für LLMs sind extrem hoch (DeepSeek v3 Trainingskosten: 30 Mio. RMB)
    • Modellgewichte werden aufgrund ihrer großen Dateigrößen auf Hugging Face gehostet
    • Die Community profitiert vom Zugang zu Gewichten, was Feinabstimmung und Experimente ermöglicht
  4. Reaktionen der Community

    • Einige kritisieren das Fehlen von Trainingscode und argumentieren, dass dies die Transparenz einschränkt
    • Andere betonen die praktischen Vorteile offener Gewichte und lokaler Bereitstellung
    • Ähnliche Kritik wurde gegen große KI-Unternehmen, einschließlich OpenAI, erhoben

Tiefergehende Analyse: Branchenkontext und Auswirkungen

Ein umfassenderer Blick auf Open Source in der KI-Branche

DeepSeek ist keine Ausnahme in Bezug auf die Herangehensweise an Open-Source-KI. Die Praxis, Modellgewichte ohne Trainingscode zu veröffentlichen, ist seit der Veröffentlichung von Llama 2 durch Meta der Industriestandard. Unternehmen wie Google (Gemma), Alibaba (Qwen) und die GLM4-Serie haben ähnliche Richtlinien eingeführt. Selbst Llama 2 enthält kommerzielle Einschränkungen, die die Nutzung für Unternehmen mit über 700 Millionen monatlich aktiven Nutzern einschränken.

Warum veröffentlichen Unternehmen keinen Trainingscode? Die Antwort liegt in den Kosten, der Komplexität und dem Wettbewerbsvorteil. Das Training großer Modelle wie DeepSeek v3 erfordert Rechenressourcen in Höhe von mehreren zehn Millionen Dollar. Darüber hinaus hüten KI-Firmen ihre Trainingsmethoden als Geschäftsgeheimnisse, um die Wettbewerbsfähigkeit ihrer Modelle zu gewährleisten.

Spielt das Fehlen von Trainingscode eine Rolle?

Während Kritiker argumentieren, dass Trainingscode für vollständige Transparenz notwendig ist, benötigen die meisten LLM-Nutzer ihn nicht. Offene Gewichte ermöglichen es Entwicklern:

  • Modelle für spezifische Aufgaben feinabzustimmen
  • Modelle lokal bereitzustellen
  • Experimente durchzuführen und Downstream-Anwendungen zu erstellen

Darüber hinaus basieren viele KI-Modelle auf Standard-Frameworks wie PyTorch, Transformer und vLLM, die es ermöglichen, architektonische Details und Funktionalitäten ohne expliziten Zugriff auf Trainingsskripte abzuleiten.

Perspektiven der Community und Doppelmoral

Eine aufkommende Sorge ist, ob DeepSeek und andere chinesische KI-Firmen stärker unter die Lupe genommen werden als westliche Unternehmen. Kritiker weisen darauf hin, dass OpenAI, das das Wort "open" im Namen trägt, überhaupt keine Modellgewichte veröffentlicht, während DeepSeek trotz der gleichen Vorgehensweise wie Meta und Google härter kritisiert wird.

Die Diskussion spiegelt ein breiteres Muster in Tech-Debatten wider - anfänglicher Hype, gefolgt von Gegenreaktionen und dann eine ausgewogenere Neubewertung. Die Veröffentlichung von DeepSeek hat diesen Zyklus durchlaufen, wobei die anfängliche Begeisterung über seine Fähigkeiten der Kritik an seinen Open-Source-Behauptungen wich.

Schon gewusst? Weniger bekannte Fakten über Open-Source-KI

  • OLMO ist eines der wenigen wirklich Open-Source-LLMs, das nicht nur Gewichte, sondern auch Trainingscode und Daten veröffentlicht. Vollständige Open-Source-Modelle bleiben jedoch eine Nische und werden hauptsächlich für Bildungs- und Forschungszwecke verwendet.
  • KI-Modellgewichte werden aufgrund ihrer massiven Dateigrößen oft auf Hugging Face und nicht auf GitHub gehostet, was den direkten Zugriff für einige Nutzer in China erschwert.
  • Die Debatte über Open-Source-KI ist nicht neu. Diskussionen über "Offenheit" reichen bis in die frühen Tage von OpenAI zurück, als es sich von einem offenen Forschungslabor zu einem kommerziellen KI-Kraftpaket entwickelte.
  • Die Trainingskosten für große KI-Modelle sind astronomisch. Zum Beispiel hat das Training von GPT-4 wahrscheinlich Hunderte von Millionen Dollar gekostet, was es für die meisten Unternehmen unpraktisch macht, es zu replizieren, selbst wenn der vollständige Trainingscode verfügbar wäre.

Abschließende Gedanken

DeepSeeks Ansatz zur Open-Source-KI folgt den Branchenstandards, auch wenn er nicht mit den traditionellen Definitionen von Open-Source-Software übereinstimmt. Die Schlüsselfrage ist, ob Open Source im LLM-Bereich die vollständige Transparenz (Trainingscode, Daten und Gewichte) oder die praktische Zugänglichkeit (Modellgewichte und Inferenzfunktionen) priorisieren sollte. Vorerst profitieren die meisten KI-Entwickler von offenen Gewichten, die reale Anwendungen und Innovationen ermöglichen.

Die Debatte darüber, was "Open Source" in der KI bedeutet, wird weitergehen, aber DeepSeek ist mit seinem Ansatz bei weitem nicht allein. Mit der Weiterentwicklung der KI-Forschung wird sich auch die Definition von Offenheit in diesem schnell wachsenden Bereich verändern.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote