Microsoft löst sich von OpenAI: Einblick in das mutige Angebot des Tech-Riesen für KI-Unabhängigkeit

Von
CTOL Editors - Ken
7 Minuten Lesezeit

Microsofts Abkehr von OpenAI: Strategie, Belastung und die Suche nach Kontrolle

Luftaufnahme des Microsoft-Hauptsitzes in Redmond, Washington. (wikimedia.org)
Luftaufnahme des Microsoft-Hauptsitzes in Redmond, Washington. (wikimedia.org)

Microsoft vollzieht eine deutliche Kehrtwende. Es geht um mehr als nur eine Änderung in der Produktentwicklung. Microsoft baut jetzt eigene Modelle für künstliche Intelligenz. Damit stellt die Firma die Grundlage ihrer einst engen Partnerschaft mit OpenAI in Frage. Was als riskantes Bündnis zwischen zwei Technologie-Giganten begann, hat sich zu einem komplizierten Tanz aus Wettbewerb, Abhängigkeit und unterschiedlichen Zielen entwickelt.

Von außen sieht der weitläufige Campus des Unternehmens in Redmond immer noch stabil aus. Im Inneren sieht es aber anders aus. In den Strategie-Räumen geht es um neue Ziele und Abwehr-Manöver. Microsoft ist es nicht mehr genug, OpenAIs wichtigster Kunde und Investor zu sein. Das Unternehmen baut jetzt sein eigenes Gehirn.


Eine stille Abspaltung: Neue Modelle und neue Ziele

Das Herzstück von Microsofts interner Veränderung ist die Entwicklung einer neuen Reihe von KI-Modellen. Einige sind klein und effizient, wie Phi-4. Andere sind ehrgeiziger, wie das große, interne Modell MAI.

Quellen aus dem Unternehmen sagen, dass MAI jetzt so gut ist wie OpenAIs o1 und o3-mini. Microsoft will es als API-Dienst anbieten. Das ist ein klares Zeichen dafür, dass sich das Unternehmen darauf vorbereitet, gegen seinen KI-Partner und jetzigen Rivalen anzutreten.

FunktionBeschreibung
NameMAI (Microsoft Künstliche Intelligenz)
TypGroße Sprachmodellreihe (LLM)
LeistungKann mit Modellen von OpenAI und Anthropic mithalten
Mögliche AnwendungenIntegration in Microsofts Copilot-Familie; ausgerichtet auf allgemeine Verarbeitung
EntwicklungMöglicherweise mit Microsofts Maia 100 KI-Chip; eine zweite Reihe von LLMs, die für komplexe Denkaufgaben optimiert sind, ist ebenfalls in der Entwicklung
Strategische BedeutungGeringere Abhängigkeit von OpenAI; Integration von Modellen anderer Unternehmen (Anthropic, Meta, DeepSeek, xAI) in Copilot
VeröffentlichungspläneMögliche Veröffentlichung als API noch in diesem Jahr für externe Entwickler
TeamleitungMustafa Suleyman
GesamtzielMicrosoft als unabhängigeren Akteur in der KI-Landschaft positionieren

„Es geht um mehr als nur darum, Kosten zu senken“, sagte ein Analyst, der sich mit der Integration von KI in Unternehmen auskennt. „Es geht darum, die eigene Zukunft selbst zu bestimmen.“


Warum sich Microsofts KI-Strategie ändert

1. Ein überfüllter und wettbewerbsorientierter Markt

Als Microsoft zwischen 2019 und 2024 Milliarden in OpenAI investierte, war das KI-Unternehmen seinen Konkurrenten um Jahre voraus. Heute ist dieser Vorsprung geschmolzen. Anthropic gilt jetzt als führend bei Programmieraufgaben, während DeepSeek und Google bei der Kostenoptimierung und der Geschwindigkeit der Bereitstellung aufgeholt haben.

„In diesem Umfeld ist es nicht mehr sinnvoll, sich nur auf OpenAI zu verlassen“, sagte ein KI-Stratege einer großen Beratungsfirma. „Man muss sich absichern.“

Diese Absicherung sieht für Microsoft so aus, dass es seine eigene KI entwickelt.

2. Anwendungen versus Infrastruktur

Ursprünglich glaubte Microsoft, dass der eigentliche Wert von KI im Aufbau von Anwendungen liegt, nicht in den Kernmodellen. Diese Überzeugung prägte die jetzt allgegenwärtige Copilot-Suite. Aber diese Einschätzung hat sich geändert. OpenAI baut nicht nur eigene, konkurrierende Produkte, sondern behält auch seine besten Modelle für den internen Gebrauch zurück, anstatt sie als API zu lizenzieren.

Der Vergleich von „KI-Anwendung vs. Infrastruktur“ verdeutlicht den Unterschied zwischen KI-Modellen, die für bestimmte Aufgaben verwendet werden, und den zugrunde liegenden Systemen, die sie unterstützen. Dieser Unterschied wird durch die Frage „KI-Modell als Infrastruktur“ noch verstärkt. Sie deutet auf eine Sichtweise hin, in der KI-Modelle selbst zu grundlegenden Komponenten werden, ähnlich wie traditionelle Infrastruktur. Diese Perspektive positioniert KI-Modelle als wiederverwendbare Bausteine, auf denen weitere Anwendungen aufgebaut werden können.

Das bedeutet, dass Microsofts wichtigste Angebote, wie Microsoft 365 Copilot, mit zweitklassigen Modellen betrieben werden – und Microsoft zahlt dafür viel Geld. Noch wichtiger ist, dass das Unternehmen dadurch angreifbar ist.

„Das ist ein klassischer Fall, in dem die Plattform zum Produkt wird“, sagte ein Beobachter. „Microsoft kann es sich nicht leisten, im eigenen System ausgebootet zu werden.“


Spannungen und Turbulenzen: Die Belastung unter der Oberfläche

Die Risse in der Beziehung zwischen Microsoft und OpenAI haben sich im letzten Jahr vergrößert. Laut mehreren Berichten kam es bei einem internen Treffen Ende 2024 zu einem Streitpunkt, als Microsofts KI-Chef Mustafa Suleyman technische Details über die Chain-of-Thought-Technologie von OpenAI anforderte. Die Anfrage wurde abgelehnt.

„Das war ein Weckruf“, sagte eine Person, die über das Treffen informiert wurde. „Es wurde klar, dass die Partnerschaft Grenzen hat – und zwar harte.“

Das symbolische Bündnis, das einst eine gemeinsame Vision für die Zukunft der KI darstellte, wird zunehmend durch widersprüchliche Interessen eingeschränkt. OpenAI, einst ein reiner Modellanbieter, vermarktet jetzt eigene Produkte für Privatpersonen und Unternehmen. Außerdem hat das Unternehmen seine Cloud-Partnerschaften über Microsoft hinaus ausgeweitet, unter anderem mit Oracle, wodurch Redmonds Einfluss auf die Recheninfrastruktur schwindet.

Als Reaktion darauf unternahm Microsoft einen mutigen Schritt: die Übernahme des Kernteams von Inflection AI für 650 Millionen Dollar. Diese Verstärkung durch neue Talente treibt jetzt die interne Entwicklung der MAI-Reihe voran.


Entwicklung für Unternehmen: Warum kleinere Modelle wichtig sind

Bei Microsofts Strategie geht es nicht nur um große, aufsehenerregende Modelle. Genauso wichtig ist die Entwicklung kleinerer, agilerer Modelle, die für Geschwindigkeit, Effizienz und spezifische Unternehmensbedürfnisse optimiert sind.

Phi-4, das neueste Modell in Microsofts Small-Model-Reihe, ist auf Szenarien wie On-Device-Denken, sichere Unternehmensanwendungen und Echtzeit-Unterstützung in Office-Anwendungen zugeschnitten. Im Gegensatz zu den Angeboten von OpenAI können Microsofts interne Modelle direkt in GitHub Copilot Enterprise-Produkte eingebunden und dort feinjustiert werden.

„Das ist nicht nur eine Änderung in der Entwicklung, sondern auch in der Philosophie“, bemerkte ein Entwickler von KI-Anwendungen für Unternehmen. „Microsoft erkennt, dass Einheitsmodelle nicht ausreichen.“

Diese Aufmerksamkeit für Modularität und Kontrolle spiegelt eine breitere Abkehr von dem Skalierungsfieber wider, das einst die KI-Entwicklung dominierte. Anstatt immer größere Modelle mit astronomischen GPU-Anforderungen zu entwickeln, konzentriert sich Microsoft auf Effizienz, Reinforcement Learning und Post-Training-Anpassung – Techniken, die eine hohe Leistung ohne extrem hohe Kosten bieten.


Aufbau eines Ökosystems, nicht nur eines Modells

Trotz dieser Schritte verbrennt Microsoft keine Brücken. Das Unternehmen verwendet weiterhin OpenAI-Modelle in vielen seiner Produkte, auch wenn es Alternativen von Drittanbietern wie Meta, xAI und DeepSeek testet. Auf diese Weise ist Microsofts Strategie nicht nur eine Kehrtwende, sondern ein Portfolio.

Branchenbeobachter bezeichnen die Verlagerung als eine Form von strategischem Dualismus: genügend interne Fähigkeiten aufbauen, um Unabhängigkeit zu gewährleisten, und gleichzeitig eine breite Basis von Optionen aufrechterhalten, um in einem schnelllebigen Markt agil zu bleiben.

„Man kann es mit den Cloud-Kriegen vergleichen“, sagte ein KI-Berater. „Man legt nicht mehr alle seine Daten in eine Cloud. Und Microsoft wendet die gleiche Logik auf KI an.“


Ausblick: Das Risiko und die Belohnung des Alleingangs

Im Moment ist Microsofts Schritt teils Notwendigkeit, teils Ehrgeiz. Das Unternehmen verfolgt eine Zukunft, in der KI-Modelle eng auf Produktziele, Unternehmensbedürfnisse und langfristige Wirtschaftlichkeit abgestimmt sind. Eine Risiko/Ertrags-Matrix, die Microsofts interne KI-Entwicklung mit der fortgesetzten Abhängigkeit von OpenAI vergleicht.

FaktorInterne KI-Entwicklung (Microsoft)Fortgesetzte Abhängigkeit von OpenAI
Mögliche VorteileGrößere Kontrolle über die KI-Technologie, Potenzial für einzigartige Innovationen, höhere langfristige Rentabilität, Ausrichtung auf strategische Ziele, Eigentum an geistigem Eigentum.Zugang zu modernsten KI-Modellen, geringere Entwicklungskosten im Vorfeld, schnellere Bereitstellung, Nutzung der Expertise von OpenAI.
Mögliche RisikenHohe Anfangsinvestitionen, längere Entwicklungszeiten, Potenzial für Misserfolge, Bedarf an spezialisierten Fachkräften, Risiko, hinter den Fortschritten von OpenAI zurückzufallen, wenn die internen Anstrengungen nachlassen.Abhängigkeit von einem Drittanbieter, potenzieller Vendor-Lock-in, Risiko von Preiserhöhungen, begrenzte Kontrolle über Modellentwicklung und -anpassung, Bedenken hinsichtlich geistigen Eigentums und Compliance, potenzieller Schutz von proprietärem Code oder Kundendaten.
RisikominderungsstrategienPhasenweiser Entwicklungsansatz, strategische Gewinnung von Talenten, Konzentration auf Nischenbereiche, kontinuierliche Überwachung der Fortschritte von OpenAI.Diversifizierung der KI-Anbieter, Aushandlung günstiger Lizenzbedingungen, Festlegung klarer Richtlinien für die Datenverwaltung, Durchführung gründlicher Sicherheits- und Compliance-Prüfungen.

Aber der Weg nach vorn ist nicht ohne Risiko. OpenAI ist in wichtigen Bereichen wie Denken und Innovation immer noch führend. Seine besten Modelle bleiben unerreichbar. Und obwohl Microsofts interne Bemühungen schneller vorankommen, kann es Jahre dauern, bis sie mit OpenAIs Tiefe und Vielseitigkeit mithalten können.

Dennoch ist Microsoft in einer Branche, die durch die Kontrolle über grundlegende Modelle definiert ist, entschlossen, einen größeren Teil des Systems zu besitzen.

In den Worten eines Insiders: „Man kann die KI-Revolution nicht anführen, wenn man immer das Gehirn eines anderen lizenziert.“


Ein neues Kapitel in Silicon Valleys meistbeachteter Partnerschaft

Was als eines der hochkarätigsten Bündnisse der Technologiebranche begann, ist zu einer Fallstudie über strategische Abweichungen geworden. Microsofts Entscheidung, eigene KI-Modelle zu bauen, markiert einen Wendepunkt – nicht nur in seiner Beziehung zu OpenAI, sondern auch in der Art und Weise, wie es Führung im Zeitalter der künstlichen Intelligenz definiert.

Wo einst der Fokus auf Zusammenarbeit lag, liegt er heute auf Kontrolle. Und für Microsoft könnte diese Kontrolle den Unterschied ausmachen, ob es die KI-Zukunft anführt – oder sie nur abonniert.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote

Wir verwenden Cookies auf unserer Website, um bestimmte Funktionen zu ermöglichen, Ihnen relevantere Informationen bereitzustellen und Ihr Erlebnis auf unserer Website zu optimieren. Weitere Informationen finden Sie in unserer Datenschutzrichtlinie und unseren Nutzungsbedingungen . Obligatorische Informationen finden Sie im Impressum