Nvidia hat eine neue Scale-Across-Technologie vorgestellt: Spectrum-XGS Ethernet. Ziel dieser Entwicklung ist es, mehrere Rechenzentren miteinander zu verbinden, um eine vereinheitlichte „KI-Superfabrik" zu bilden. Nvidia präsentierte Spectrum-XGS auf der Hot Chips 2025 als eine Lösung für den steigenden Ressourcenbedarf aufgrund von KI.
Laut Dave Salvator, Director of Accelerated Computing Products bei Nvidias Accelerated Computing Group übersteige die zunehmende Inferenzleistung von KI-Agenten normale Aufgaben für Multi-GPU- und Multi-Node-Systeme und werde damit zu einer Herausforderung für die Skalierung von Netzwerken.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Spectrum-XGS baut auf Spectrum-X auf, Nvidias Ethernet-basierter Netzwerkstruktur, die speziell für KI entwickelt wurde. Spectrum-X wurde 2024 eingeführt und vereint Nvidias Netzwerk-Hardware und -Software zu einer KI-optimierten Plattform, die Spectrum SN5600 Switches mit BlueField-3 DPUs kombiniert, um die Netzwerkleistung für generative KI auf das 1,6-fache herkömmlicher Ethernet-Strukturen zu steigern.
Spectrum-XGS markiert die nächste Entwicklungsstufe des Ethernet-Angebots von Nvidia. Mithilfe eines neuen Netzwerkalgorithmus wird die Spectrum-X Infrastruktur genutzt, um Daten effektiv über längere Distanzen zwischen Standorten zu übertragen. Die Lösung integriert Nvidia Spectrum-X Switches mit ConnectX-8 SuperNICs, den KI-zentrierten 800-Gb/s-Netzwerkadaptern des Unternehmens.
Die neue Netzwerkplattform soll die Leistung der Nvidia Collective Communications Library (NCCL) für eine schnelle Kommunikation zwischen Nvidia GPUs nahezu verdoppeln. Die Plattform soll außerdem eine 1,6-fache Bandbreite im Vergleich zu Standard-Ethernet in großen KI-Umgebungen mit mehreren Mietern bieten. Ziel ist es, dass mehrere Rechenzentren miteinander kommunizieren und wie eine mächtige und besonders leistungsfähige GPU oder eine "KI-Superfabrik" (gemäß Nvidias Terminologie) agieren. Die Methode wird als „Scale-Across" beschrieben, ergänzend zu den bestehenden Scale-Up- und Scale-Out-Architekturen.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Weitere Artikel
OpenWorldLib: neues Framework legt fest, was World Models sind – und was nicht
Das OpenWorldLib Framework schafft Orientierung bei der Frage, wie World Models zu definieren sind und was sie können müssen. In
Stärkere Regulierung von OpenAI möglich: Zeigt Europa damit Stärke oder Schwäche?
Die EU-Kommission prüft, ob ChatGPT künftig als „sehr große Online-Suchmaschine“ eingestuft werden soll. Das ist eine Kategorie des Digital Services
CompreSSM: Neues Verfahren ermöglicht schlankere KI-Modelle
Forscher des MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) haben in Zusammenarbeit mit anderen Instituten wie dem Max-Planck-Institut
Zum Inhalt springen



