Supermicro SuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務(wù)和NVIDIA NeMo平臺(tái),能實(shí)現(xiàn)端對(duì)端生成式AI客制,并針對(duì)NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網(wǎng)速的新型NVIDIA Spectrum-X以太網(wǎng)絡(luò)平臺(tái)優(yōu)化,可擴(kuò)展到具有數(shù)萬(wàn)個(gè)GPU的大型計(jì)算叢集。
Supermicro即將推出的SuperCluster產(chǎn)品包括:
● Supermicro NVIDIA HGX B200 SuperCluster,液冷型;
● Supermicro NVIDIA HGX B100/B200 SuperCluster,氣冷型;
● Supermicro NVIDIA GB200 NVL72 或 NVL36 SuperCluster,液冷型。
Supermicro的SuperCluster解決方案針對(duì)LLM訓(xùn)練、深度學(xué)習(xí)以及大規(guī)模與大批量推理優(yōu)化,與此同時(shí),Supermicro推出了配套的L11、L12驗(yàn)證測(cè)試及現(xiàn)場(chǎng)部署服務(wù)體驗(yàn)。
也許大家有疑問(wèn),SuperCluster選擇了256個(gè)H100/H200 GPU的配置,原因也很簡(jiǎn)單,256是NVlink連接的上限,更多節(jié)點(diǎn)的連接就需要借助Infiniband或者以太網(wǎng)進(jìn)行擴(kuò)展。
Supermicro總裁兼首席執(zhí)行官梁見(jiàn)后表示:“我們的解決方案針對(duì)NVIDIA AI Enterprise軟件提供了優(yōu)化,并能夠保障全球制造產(chǎn)能,因此得以縮短交付時(shí)間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案。從液冷板、CDU乃至冷卻塔,我們的機(jī)柜級(jí)全方位液冷解決方案可以降低數(shù)據(jù)中心40%的持續(xù)用電量?!?/p>