InfrastrukturNews

Supermicro bietet Hochleistungs-Server mit NVIDIA HGX H100 8-GPU-Systemen auf PCIe-Basis

Supermicro beginnt mit der Auslieferung neuer GPU-Server, die nach Angaben des Herstellers zur Spitzenklasse gehören. Sie enthalten das neue 8-GPU-System “NVIDIA HGX H100” sowie die ebenfalls neue “L4-Tensor-Core-GPU” (ebenfalls von NVIDIA). Es steht eine umfangreiche Palette anwendungsoptimierter Server zur Verfügung, die sich vom Rechenzentrum bis hin zum Edge erstreckt. Die Server stehen in vielen unterschiedlichen Formfaktoren bereit, nämlich 1U, 2U, 4U, 5U, 6U und 8U. Darüber hinaus gibt es auch SuperBlade-Systeme und Workstations.

Bild: Supermicro

Charles Liang, Präsident und CEO von Supermicro: „Mit unserem neuen NVIDIA HGX H100 Delta-Next-Server können Kunden eine neunfache Leistungssteigerung im Vergleich zur vorherigen Generation für KI-Trainingsanwendungen erwarten. Unsere GPU-Server verfügen über ein innovatives Luftstromdesign, das die Lüfterdrehzahl und den Geräuschpegel reduziert und weniger Strom verbraucht, was zu einer Senkung der Gesamtbetriebskosten (TCO) führt. Darüber hinaus bieten wir komplette Flüssigkühlungsoptionen im Rack-Format für Kunden, die ihre Rechenzentren noch zukunftssicherer machen wollen.”

Supermicros leistungsstärkster neuer 8U-GPU-Server wird jetzt in Serie ausgeliefert. Dieser neue Supermicro 8U -Server ist für KI-, DL-, ML- und HPC-Workloads optimiert und wird von der NVIDIA HGX H100 8-GPU angetrieben, die mit der schnellsten NVIDIA NVLink 4.0 Technologie, NVSwitch Interconnects und NVIDIA Quantum-2 InfiniBand- und Spectrum-4 Ethernet-Netzwerken die höchste GPU-to-GPU-Kommunikation bietet, um die Grenzen der KI zu durchbrechen. Darüber hinaus bietet Supermicro mehrere leistungsoptimierte Konfigurationen von GPU-Servern an, darunter Direct-Connect/Single-Root/Dual-Root-CPUs zu GPUs und Front- oder Rear-I/O-Modelle mit AC- und DC-Stromversorgung in Standard- und OCP-DC-Rack-Konfigurationen. Das Supermicro X13 SuperBlade-Gehäuse bietet Platz für 20 NVIDIA H100 Tensor Core PCIe-GPUs oder 40 NVIDIA L40-GPUs in einem 8U-Gehäuse. Darüber hinaus können bis zu 10 NVIDIA H100 PCIe-GPUs oder 20 NVIDIA L4 Tensor Core-GPUs in einem 6U-Gehäuse eingesetzt werden. Diese neuen Systeme bieten eine optimierte Beschleunigung, die ideal für die Ausführung von NVIDIA AI Enterprise ist, dem Software Layer der NVIDIA AI-Plattform.

Die Flüssigkeitskühlung dieser Server wird auch von vielen GPU-Servern unterstützt. Darüber hinaus kündigt Supermicro ein flüssigkeitsgekühltes KI-Entwicklungssystem (als Tower- oder Rack-Mount-Konfiguration) mit zwei CPUs und vier NVIDIA A100 Tensor Core-GPUs an, das sich ideal für Büro- und Home-Office-Umgebungen eignet und auch in Abteilungs- und Unternehmensclustern eingesetzt werden kann.

Supermicro-Systeme unterstützen die neue NVIDIA L4-GPU, die im Vergleich zu früheren Generationen ein Vielfaches an Beschleunigung und Energieeffizienz bietet. Das Gleiche gilt für KI-Inferencing, Videostreaming, virtuelle Workstations und Grafikanwendungen im Unternehmen, in der Cloud und am Edge. Mit der NVIDIA KI-Plattform und dem Full-Stack-Ansatz ist die L4 für Inferenzen im großen Maßstab für eine breite Palette von KI-Anwendungen optimiert, darunter Empfehlungen, sprachbasierte KI-Avatar-Assistenten, Chatbots, visuelle Suche und Contact Center-Automatisierung, um die bestmögliche personalisierte Erfahrung zu bieten. Als effizientester NVIDIA-Beschleuniger für Mainstream-Server bietet die L4 eine bis zu viermal höhere KI-Leistung, eine höhere Energieeffizienz und eine mehr als dreimal höhere Videostreaming-Kapazität und -Effizienz mit Unterstützung für AV1-Codierung/Decodierung. Die Vielseitigkeit der L4-GPU für Inferenz und Visualisierung und ihr kleiner, energieeffizienter Single-Slot-Formfaktor mit niedrigem Profil und geringem Stromverbrauch (72 W) machen sie ideal für den globalen Einsatz, auch an Edge-Standorten.

„Die Ausstattung von Supermicro-Servern mit der unübertroffenen Leistung der neuen NVIDIA L4 Tensor Core-GPU ermöglicht es Kunden, ihre Workloads effizient und nachhaltig zu beschleunigen”, sagte Dave Salvator, Director of Accelerated Computing Products bei NVIDIA. „Die NVIDIA L4 ist für Mainstream-Implementierungen optimiert und bietet einen flachen Formfaktor mit einem geringen Stromverbrauch von 72 W. Damit erreicht die KI-Leistung und -Effizienz am Edge neue Dimensionen.”

Die neuen PCIe-beschleunigten Lösungen von Supermicro ermöglichen die Erstellung von 3D-Welten, digitalen Zwillingen, 3D-Simulationsmodellen und dem industriellen Metaverse. Zusätzlich zur Unterstützung der vorherigen Generationen von NVIDIA OVX-Systemen bietet Supermicro eine OVX 3.0 -Konfiguration mit vier NVIDIA L40-GPUs, zwei NVIDIA ConnectX-7-SmartNICs, einer NVIDIA BlueField-3-DPU und der neuesten NVIDIA Omniverse Enterprise-Software an.

Weitere Informationen: https://www.supermicro.com/en/accelerators/nvidia