Meta hat eine spezielle Variante von Catalina Pods vorgestellt, die eine besonders hohe Leistungsdichte ermöglicht. Das System basiert auf der Verwendung von flüssigkeitsgekühlten GPUs in luftgekühlten Rechenzentren.
Meta hat die Bausteine seines Catalina AI-Systems vorgestellt (WCCTech berichtete), das in den Rechenzentren des Unternehmens zum Einsatz kommt. Das System basiert auf NVIDIAs Blackwell GB200 NVL72, wurde aber von Meta an spezifische Anforderungen angepasst und nutzt eine NVL36x2 Konfiguration.
Besonders bemerkenswert ist die Fähigkeit, bis zu 120 kW pro Rack zu unterstützen. Für den Betrieb von zwei dieser 120-kW-Racks, die jeweils 18 Compute-Trays mit 72 Grace-CPUs und 144 Blackwell-GPUs sowie neun NV-Switches enthalten, werden vier separate Kühl-Racks benötigt. Insgesamt bilden zwei IT-Racks, die jeweils 18 Compute-Trays und neun NV-Switches umfassen, eine einzelne 72-GPU-Skalierungsdomäne. Diese Zwei-Rack-Lösung ermöglicht eine Erhöhung der Anzahl der CPUs und des Speichers, sodass bis zu 48 TB kohärenten Cache-Speichers zwischen GPUs und CPUs erreicht werden können.

Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Das Catalina-System erfordert eine leistungsstarke Flüssigkeitskühlung. Meta setzt luftunterstützte Flüssigkeitskühlgeräte (ALCs) ein, die es ermöglichen, flüssigkeitsgekühlte Racks mit hoher Leistungsdichte in bestehenden Rechenzentren zu implementieren, die ursprünglich für luftgekühlte Systeme mit geringerer Dichte ausgelegt waren.
Die Stromversorgung des Systems erfolgt über Netzteile, die 480 Volt oder 277 Volt einphasig in 48 Volt Gleichstrom umwandeln. Dieser Gleichstrom wird dann über die Stromschiene im Rack verteilt. Meta verwendet eine Hochleistungsversion seiner Open Racks, das eine Leistungsaufnahme von bis zu 94 kW für die Stromschiene ermöglicht.
Für die Vernetzung nutzt Meta ein eigenes disaggregiertes, Netzwerk. Es ermöglicht die Verbindung mehrerer dieser Pods innerhalb eines Rechenzentrums oder über mehrere Gebäude hinweg, um große Cluster zu bilden. Das Fabric ist für KI optimiert und bietet Flexibilität und Geschwindigkeit, damit die GPUs miteinander kommunizieren können.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Bessere KI = bessere Deals? Was ist Faithfulness Gap, GPT-55 und die neue OpenAI-Microsoft-Ära
️ Über diese Episode KI-Agenten verhandeln mit echtem Geld, OpenAI verliert an Boden gegen Anthropic und eine neue
OpenAI veröffentlicht Prinzipien: Rechtfertigung für massiven Ausbau der Rechenzentren und Forderung nach neuen Wirtschaftsmodellen
OpenAI hat eine Liste von fünf Prinzipien für den Aufbau und die Nutzung von KI veröffentlicht. Was dabei besonders auffällig
Project Deal: Anthropic testet, wie KI-Agenten selbständig Verhandlungen führen
In einem Experiment von Anthropic hat sich gezeigt: KI-Agenten können selbständig verhandeln. Leistungsstärkere Modelle sind im Vorteil. Anthropic wollte wissen,
Zum Inhalt springen



