Microsoft entwickelt benutzerdefinierte Netzwerkhardware, um seine Abhängigkeit von NVIDIA zu verringern

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Wichtige Hinweise

  • Microsoft entwickelt eine benutzerdefinierte Netzwerkkarte für seinen Maia AI-Chip, wodurch möglicherweise die Abhängigkeit von Nvidia verringert und die Leistung von Azure gesteigert wird.
  • Eine erfolgreiche Entwicklung könnte OpenAI zugute kommen, indem die Schulungskosten und -zeiten auf Microsoft-Servern gesenkt werden.
  • Die Übernahme von Fungible durch Microsoft im Jahr 2023 wird zur Entwicklung der neuen Netzwerkkarte beitragen.

Microsoft macht Fortschritte in Richtung größerer Unabhängigkeit und potenzieller Leistungssteigerungen bei der KI-Hardware entwickelt eine neue Netzwerkkarte, die speziell für seinen Maia AI-Serverchip entwickelt wurde. Dieser Schritt hat das Potenzial, nicht nur die Leistung von Maia zu verbessern, sondern auch die Abhängigkeit des Unternehmens vom Chipdesigner NVIDIA verringern, Wer macht sich großartig auf dem Markt?, Dies trägt letztendlich zu einem verbesserten Azure-Cloud-Erlebnis bei.

Angeführt von Pradeep Sindhu, Mitbegründer des Netzwerkgiganten Juniper Networks Ziel des Projekts ist es, eine Lösung zu schaffen, die der ConnectX-7-Karte von NVIDIA ähnelt und häufig mit deren GPUs gekoppelt wird. Während die Entwicklungszeit auf mehr als ein Jahr geschätzt wird, könnte eine erfolgreiche Implementierung OpenAI, einem Unternehmen, in das Microsoft stark und möglicherweise stark investiert, erheblich zugute kommen Steigern Sie die Funktionen von Microsoft Azure, insbesondere in Kombination mit der Leistung von Azure Boost.

Das Potenzial Zu den Vorteilen für OpenAI zählen eine geringere Trainingszeit und geringere Kosten für ihre großen Sprachmodelle auf Microsoft-Servern. Dies steht im Einklang mit der umfassenderen Strategie von Microsoft, die Technologie von OpenAI in verschiedene Produkte zu integrieren, wie Microsoft zugibt Das neu veröffentlichte Sora-Modell wird zu Copilot kommenund festigen damit ihre Position auf dem wettbewerbsintensiven Markt für KI-Software Bereitstellung leistungsfähigerer und effizienterer KI-Dienste auf Azure, weiter verstärkt durch Azure Boost.

Im vergangenen Jahr Fungible, ein auf Datenverarbeitungseinheiten (DPUs) spezialisiertes Unternehmen, wurde offiziell Teil von Microsoft. Es wird erwartet, dass diese Übernahme die Bemühungen von Microsoft im Bereich der Rechenzentrumsinfrastruktur weiter verstärken wird. Das von Fungible gewonnene Fachwissen und die Technologie werden wahrscheinlich eine Rolle bei der Entwicklung der neuen Netzwerkkarte spielen.

Vereinfacht gesagt baut Microsoft eine spezielle Netzwerkkarte für seinen eigenen KI-Chip namens Maia. Dies könnte Maia schneller machen und Microsoft dabei helfen, sich bei Teilen weniger auf NVIDIA zu verlassen. Dies könnte auch einem Unternehmen namens OpenAI helfen, seine KI-Modelle schneller und kostengünstiger auf Microsofts Cloud-Dienst Azure zu trainieren.

Der Vorstoß von Microsoft in die Entwicklung benutzerdefinierter Netzwerkkarten verdeutlicht das Bestreben von Microsoft, bei KI-Hardware unabhängiger zu werden. Der Erfolg dieses Projekts könnte möglicherweise die Wettbewerbslandschaft zwischen Microsoft und NVIDIA verändern, mit Auswirkungen auf die gesamte KI-Branche und möglicherweise zu einer robusteren und wettbewerbsfähigeren Azure-Plattform führen.

Mehr hier.

Mehr zu den Themen: Maia AI, nvidia