{"id":23123,"date":"2023-04-06T11:03:34","date_gmt":"2023-04-06T09:03:34","guid":{"rendered":"https:\/\/www.sysbus.eu\/?p=23123"},"modified":"2023-03-27T11:21:18","modified_gmt":"2023-03-27T09:21:18","slug":"supermicro-bietet-hochleistungs-server-mit-nvidia-hgx-h100-8-gpu-systemen-auf-pcie-basis","status":"publish","type":"post","link":"https:\/\/www.sysbus.eu\/?p=23123","title":{"rendered":"Supermicro bietet Hochleistungs-Server mit NVIDIA HGX H100 8-GPU-Systemen auf PCIe-Basis"},"content":{"rendered":"\n<p>Supermicro beginnt mit der Auslieferung neuer GPU-Server, die nach Angaben des Herstellers zur Spitzenklasse geh\u00f6ren. Sie enthalten das neue 8-GPU-System &#8222;NVIDIA HGX H100&#8220; sowie die ebenfalls neue &#8222;L4-Tensor-Core-GPU&#8220; (ebenfalls von NVIDIA). Es steht eine umfangreiche Palette anwendungsoptimierter Server zur Verf\u00fcgung, die sich vom Rechenzentrum bis hin zum Edge erstreckt. Die Server stehen in vielen unterschiedlichen Formfaktoren bereit, n\u00e4mlich 1U, 2U, 4U, 5U, 6U und 8U. Dar\u00fcber hinaus gibt es auch SuperBlade-Systeme und Workstations.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/03\/Clipboard01.webp\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"609\" src=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/03\/Clipboard01-1024x609.webp\" alt=\"\" class=\"wp-image-23125\" srcset=\"https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/03\/Clipboard01-1024x609.webp 1024w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/03\/Clipboard01-300x179.webp 300w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/03\/Clipboard01-768x457.webp 768w, https:\/\/www.sysbus.eu\/wp-content\/uploads\/2023\/03\/Clipboard01.webp 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\">Bild: Supermicro<\/figcaption><\/figure>\n\n\n\n<!--more-->\n\n\n\n<p>Charles Liang, Pr\u00e4sident und CEO von Supermicro: \u201eMit unserem neuen NVIDIA HGX H100 Delta-Next-Server k\u00f6nnen Kunden eine neunfache Leistungssteigerung im Vergleich zur vorherigen Generation f\u00fcr KI-Trainingsanwendungen erwarten. Unsere GPU-Server verf\u00fcgen \u00fcber ein innovatives Luftstromdesign, das die L\u00fcfterdrehzahl und den Ger\u00e4uschpegel reduziert und weniger Strom verbraucht, was zu einer Senkung der Gesamtbetriebskosten (TCO) f\u00fchrt. Dar\u00fcber hinaus bieten wir komplette Fl\u00fcssigk\u00fchlungsoptionen im Rack-Format f\u00fcr Kunden, die ihre Rechenzentren noch zukunftssicherer machen wollen.&#8220;<\/p>\n\n\n\n<p>Supermicros leistungsst\u00e4rkster neuer 8U-GPU-Server wird jetzt in Serie ausgeliefert. Dieser neue Supermicro 8U -Server ist f\u00fcr KI-, DL-, ML- und HPC-Workloads optimiert und wird von der NVIDIA HGX H100 8-GPU angetrieben, die mit der schnellsten NVIDIA NVLink 4.0 Technologie, NVSwitch Interconnects und NVIDIA Quantum-2 InfiniBand- und Spectrum-4 Ethernet-Netzwerken die h\u00f6chste GPU-to-GPU-Kommunikation bietet, um die Grenzen der KI zu durchbrechen. Dar\u00fcber hinaus bietet Supermicro mehrere leistungsoptimierte Konfigurationen von GPU-Servern an, darunter Direct-Connect\/Single-Root\/Dual-Root-CPUs zu GPUs und Front- oder Rear-I\/O-Modelle mit AC- und DC-Stromversorgung in Standard- und OCP-DC-Rack-Konfigurationen. Das Supermicro X13 SuperBlade-Geh\u00e4use bietet Platz f\u00fcr 20 NVIDIA H100 Tensor Core PCIe-GPUs oder 40 NVIDIA L40-GPUs in einem 8U-Geh\u00e4use. Dar\u00fcber hinaus k\u00f6nnen bis zu 10 NVIDIA H100 PCIe-GPUs oder 20 NVIDIA L4 Tensor Core-GPUs in einem 6U-Geh\u00e4use eingesetzt werden. Diese neuen Systeme bieten eine optimierte Beschleunigung, die ideal f\u00fcr die Ausf\u00fchrung von NVIDIA AI Enterprise ist, dem Software Layer der NVIDIA AI-Plattform.<\/p>\n\n\n\n<p>Die Fl\u00fcssigkeitsk\u00fchlung dieser Server wird auch von vielen GPU-Servern unterst\u00fctzt. Dar\u00fcber hinaus k\u00fcndigt Supermicro ein fl\u00fcssigkeitsgek\u00fchltes KI-Entwicklungssystem (als Tower- oder Rack-Mount-Konfiguration) mit zwei CPUs und vier NVIDIA A100 Tensor Core-GPUs an, das sich ideal f\u00fcr B\u00fcro- und Home-Office-Umgebungen eignet und auch in Abteilungs- und Unternehmensclustern eingesetzt werden kann.<\/p>\n\n\n\n<p>Supermicro-Systeme unterst\u00fctzen die neue NVIDIA L4-GPU, die im Vergleich zu fr\u00fcheren Generationen ein Vielfaches an Beschleunigung und Energieeffizienz bietet. Das Gleiche gilt f\u00fcr KI-Inferencing, Videostreaming, virtuelle Workstations und Grafikanwendungen im Unternehmen, in der Cloud und am Edge. Mit der NVIDIA KI-Plattform und dem Full-Stack-Ansatz ist die L4 f\u00fcr Inferenzen im gro\u00dfen Ma\u00dfstab f\u00fcr eine breite Palette von KI-Anwendungen optimiert, darunter Empfehlungen, sprachbasierte KI-Avatar-Assistenten, Chatbots, visuelle Suche und Contact Center-Automatisierung, um die bestm\u00f6gliche personalisierte Erfahrung zu bieten. Als effizientester NVIDIA-Beschleuniger f\u00fcr Mainstream-Server bietet die L4 eine bis zu viermal h\u00f6here KI-Leistung, eine h\u00f6here Energieeffizienz und eine mehr als dreimal h\u00f6here Videostreaming-Kapazit\u00e4t und -Effizienz mit Unterst\u00fctzung f\u00fcr AV1-Codierung\/Decodierung. Die Vielseitigkeit der L4-GPU f\u00fcr Inferenz und Visualisierung und ihr kleiner, energieeffizienter Single-Slot-Formfaktor mit niedrigem Profil und geringem Stromverbrauch (72 W) machen sie ideal f\u00fcr den globalen Einsatz, auch an Edge-Standorten.<\/p>\n\n\n\n<p>\u201eDie Ausstattung von Supermicro-Servern mit der un\u00fcbertroffenen Leistung der neuen NVIDIA L4 Tensor Core-GPU erm\u00f6glicht es Kunden, ihre Workloads effizient und nachhaltig zu beschleunigen&#8220;, sagte Dave Salvator, Director of Accelerated Computing Products bei NVIDIA. \u201eDie NVIDIA L4 ist f\u00fcr Mainstream-Implementierungen optimiert und bietet einen flachen Formfaktor mit einem geringen Stromverbrauch von 72 W. Damit erreicht die KI-Leistung und -Effizienz am Edge neue Dimensionen.&#8220;<\/p>\n\n\n\n<p>Die neuen PCIe-beschleunigten L\u00f6sungen von Supermicro erm\u00f6glichen die Erstellung von 3D-Welten, digitalen Zwillingen, 3D-Simulationsmodellen und dem industriellen Metaverse. Zus\u00e4tzlich zur Unterst\u00fctzung der vorherigen Generationen von NVIDIA OVX-Systemen bietet Supermicro eine <a rel=\"noreferrer noopener\" href=\"http:\/\/email.prnewswire.com\/ls\/click?upn=OXp-2BEvHp8OzhyU1j9bSWuwMvMWelqIco5RbfBrouY-2BS9GWnufAUK3i4zK8csOHGHKq-2BazvJOjwYpv3K7ESnX4jwvX5UWpxa-2FmZP99T7G5YV6lUC-2FMva7P-2BVnJ-2BC-2BB0Wc5XQoy1lNL-2BuNvMAlbqvhizLAeecqXhsx8krAQB17scCHomJwGOrbY49V9ZeM51f85D6nzZ-2FobmKWnaJr9lQVmxwtYOUsrxjmbq3JtiADCEd6vLJ3XzBZoD-2FpMsLNXC91HuCfIw4qm349ifVM8kSBjD08GkxoBdtKz-2Bnh6KDophhLFET6X24gn4OUh4iwFnFtxbqEgJ22-2FLJm8Up-2FDDQ41RZv-2FrAEitClRAXM73b-2FAak-3DKVFP_a-2BWxTQtMOYT-2Bt8Ki1f8mYJ-2BH3MrL5duVHKpk5AKdl9GaLUh7kNzcmxnObO7gIHe6QTgmY9WGoPLTvWHbSr222n2wUoTDAX14ptmABlfIEIEEDOu4kmgC0KnNt-2BhZiUIpU0al14Gr6bpeXBCUcSSTOeXu0ZodMjQD9yutcRGpsreb28tqR6HnGV2aIy1Iek5hxsX8G4rvtuYYFT5p9ZnQ1bd9knSUX4bdXSRsN6iT-2Bo-2B5DLChEeaDzo8oVt-2Fa2KtskBnxR4E4wb5x9WHF-2Bjzr-2FgNXHSV47cIF93yF1dpLStTU-2BcLfzybx2Ck-2B9l6JEdRfcmXtrNjwUVmHxv8IER-2F1WTtGI9PsfUCGoxyiMP9H2sM-3D\" target=\"_blank\">OVX 3.0<\/a> -Konfiguration mit vier NVIDIA L40-GPUs, zwei NVIDIA ConnectX-7-SmartNICs, einer NVIDIA BlueField-3-DPU und der neuesten NVIDIA Omniverse Enterprise-Software an.<\/p>\n\n\n\n<p>Weitere Informationen: <a href=\"https:\/\/www.supermicro.com\/en\/accelerators\/nvidia\">https:\/\/www.supermicro.com\/en\/accelerators\/nvidia<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Supermicro beginnt mit der Auslieferung neuer GPU-Server, die nach Angaben des Herstellers zur Spitzenklasse geh\u00f6ren. Sie enthalten das neue 8-GPU-System &#8222;NVIDIA HGX H100&#8220; sowie die ebenfalls neue &#8222;L4-Tensor-Core-GPU&#8220; (ebenfalls von NVIDIA). Es steht eine umfangreiche Palette anwendungsoptimierter Server zur Verf\u00fcgung, die sich vom Rechenzentrum bis hin zum Edge erstreckt. Die Server stehen in vielen unterschiedlichen Formfaktoren bereit, n\u00e4mlich 1U, 2U, 4U, 5U, 6U und 8U. Dar\u00fcber hinaus gibt es auch SuperBlade-Systeme und Workstations.<\/p>\n","protected":false},"author":1,"featured_media":23125,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"colormag_page_container_layout":"default_layout","colormag_page_sidebar_layout":"default_layout","footnotes":""},"categories":[274,4],"tags":[4281,17170,17169,1190,6735],"class_list":["post-23123","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-infrastructure","category-news","tag-gpu","tag-h100","tag-hgx","tag-nvidia","tag-supermicro"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/23123","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=23123"}],"version-history":[{"count":1,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/23123\/revisions"}],"predecessor-version":[{"id":23126,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/posts\/23123\/revisions\/23126"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=\/wp\/v2\/media\/23125"}],"wp:attachment":[{"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=23123"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=23123"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.sysbus.eu\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=23123"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}