Magic KI-Startup erhält 320 Millionen Dollar Finanzierung für Supercomputer
Magic Sicherte 320 Millionen Dollar an Finanzierung für die KI-gesteuerte Codierungrevolution
Magic, ein KI-Startup, hat gerade eine erhebliche finanzielle Unterstützung von 320 Millionen Dollar erhalten, was die Gesamtsumme auf beeindruckende 465 Millionen Dollar erhöht. Zu ihren Unterstützern zählen namhafte Persönlichkeiten wie der ehemalige Google-CEO Eric Schmidt und Alphabet's CapitalG.
Aber Geld ist nicht das einzige, was Magic auf seiner Seite hat. Sie haben sich mit Google Cloud zusammengeschlossen, um zwei Supercomputer zu bauen. Der erste, Magic-G4, wird Nvidia H100 GPUs nutzen, während der zweite, Magic G5, die nächste Generation der Blackwell-Chips von Nvidia enthalten wird. Diese Supercomputer spielen eine wichtige Rolle beim effizienten Training und bei der Ausführung von KI-Modellen.
Gegründet im Jahr 2022 von Eric Steinberger und Sebastian De Ro, hat sich Magic zum Ziel gesetzt, das Codieren zu revolutionieren. Ihre Werkzeuge fungieren als automatisierter Programmierpartner und unterstützen bei Aufgaben wie Schreiben, Überprüfen, Debuggen und Planen von Änderungen. Man kann sich das wie einen unglaublich klugen Begleiter vorstellen, der niemals müde wird.
Was unterscheidet Magic von der Konkurrenz? Ihre Modelle verfügen über außergewöhnlich lange Kontextfenster, die es ihnen ermöglichen, große Mengen an Code zu verarbeiten, ohne den Überblick zu verlieren. Ihr neuestes Modell, LTM-2-mini, hat ein beeindruckendes Kontextfenster von 100 Millionen Token, was 10 Millionen Zeilen Code oder 750 Romanen entspricht. Das ist ein absoluter Game-Changer!
Die umfangreiche Kontextfähigkeit von Magic hilft, Fehler zu verhindern und die Konzentration der KI aufrechtzuerhalten. Sie haben bereits erstaunliche Ergebnisse gezeigt, wie die autonome Erstellung eines Passwortstärke-Messgeräts und eines Rechners. Derzeit trainieren sie ein noch größeres Modell, um die Grenzen weiter zu erweitern.
Wenn Sie also in einer Menge Code stecken, ist Magic hier, um Ihnen zu helfen. Mit ihrer bahnbrechenden Technologie und der erheblichen Finanzierung sind sie auf dem besten Weg, das Codieren zu einer nahtlosen Erfahrung zu machen. Bleiben Sie dran für mehr Magie!
Wichtige Erkenntnisse
- Magic sichert sich 320 Millionen Dollar, was die Gesamtsumme auf 465 Millionen Dollar bringt.
- Unterstützer sind der ehemalige Google-CEO Eric Schmidt und Alphabet’s CapitalG.
- Partnerschaft mit Google Cloud zum Bau von Supercomputern mit Nvidia GPUs.
- KI-Tools zielen darauf ab, Codierungsaufgaben zu automatisieren, ähnlich wie GitHub Copilot.
- Magic’s LTM-2-mini Modell hat ein Kontextfenster von 100 Millionen Token, das größte der Branche.
Analyse
Magic hat 320 Millionen Dollar gesammelt, unterstützt von Technologiegiganten, und treibt die Entwicklung von KI-Codierungswerkzeugen voran. Dieser Geldzufluss stärkt ihre Partnerschaft mit Google Cloud, was die Supercomputerfähigkeiten verbessert. Kurzfristig sehen sich Wettbewerber wie GitHub Copilot wachsendem Innovationsdruck gegenüber. Langfristig könnten Magic's erweiterte KI-Modelle die Codierungsautomatisierung dominieren und die Softwareentwicklungsabläufe neu gestalten. Nvidia wird von der Nachfrage nach GPUs profitieren, während Investoren beträchtliche Renditen erwarten, wenn Magic expandiert.
Wussten Sie schon?
- Nvidia H100 GPUs und Nvidias nächste Generation Blackwell-Chips:
- Nvidia H100 GPUs: Dies sind Hochleistungs-Grafikprozessoren, die von Nvidia entwickelt wurden und hauptsächlich zum Beschleunigen komplexer Berechnungen in Bereichen wie Künstlicher Intelligenz und Deep Learning verwendet werden. Die H100-Serie ist bekannt für ihre fortschrittliche Architektur, die die Geschwindigkeit und Effizienz des Trainings von KI-Modellen erheblich steigert.
- Nvidias nächste Generation Blackwell-Chips: Blackwell ist der Codename für Nvidias kommende Generation von GPUs, die die aktuelle Generation ersetzen sollen. Diese Chips sollen weitere Fortschritte in der Rechenleistung, Energieeffizienz und KI-Fähigkeiten einführen, wodurch sie ideal für die anspruchsvollen Aufgaben des Supercomputings und des großangelegten Trainings von KI-Modellen sind.
- 100 Millionen-Token Kontextfenster:
- Kontextfenster in KI: Dies bezieht sich auf die maximale Menge an Textdaten, die ein KI-Modell gleichzeitig bei seinen Operationen berücksichtigen und verarbeiten kann. Ein größeres Kontextfenster ermöglicht es der KI, mehr Informationen und Kontext aus den Eingabedaten zu behalten, was ihre Fähigkeit verbessert, kohärente und relevante Ausgaben zu erzeugen.
- 100 Millionen-Token Kontextfenster: Dies ist ein außergewöhnlich großes Kontextfenster, das deutlich größer ist als das, was in aktuellen KI-Modellen üblicherweise verwendet wird. Es ermöglicht der KI, riesige Mengen an Informationen zu verarbeiten, wie Millionen von Codezeilen, ohne den Überblick zu verlieren. Diese Fähigkeit ist besonders nützlich bei komplexen Aufgaben wie der Codierung, bei denen es wichtig ist, ein breites Verständnis des Codes zu haben.
- GitHub Copilot:
- GitHub Copilot: Entwickelt von GitHub in Zusammenarbeit mit OpenAI, ist Copilot ein KI-gestütztes Tool, das Softwareentwickler unterstützt, indem es direkt in ihren integrierten Entwicklungsumgebungen (IDEs) Codevorschläge und -ergänzungen bereitstellt. Es verwendet Machine-Learning-Modelle, die auf einem großen Korpus von Code trainiert wurden, um Programmierern zu helfen, effizienter zu coden, Lösungen für häufige Programmierprobleme anzubieten und den Entwicklungsprozess zu beschleunigen.