-通过在多种不同图形处理器 (gpu) 服务器上支持 nvidia a100 pcie gpu,supermicro 将数据科学、高效能运算 (hpc) 和人工智能 (ai) 工作负载性能提升 20 倍之多-搭载第 4 代 pcie 的新 supermicro 服务器经过完全优化,支持新的 nvidia a100 gpu、第三代 nvidia nvlink 和 nvidia nvswitch,最大限度地加快训练、推理、hpc 和分析isc digital -- super micro computer, inc(纳斯达克代码:smci)是企业级计算、存储、联解决方案和绿色计算技术领域的全球领先企业,今日宣布广泛的 1u、2u 和 4u gpu 服务器产品组合全面支持新的 nvidia a100 pcie gpu。supermicro 5 月率先宣布支持 nvidia hgx a100 配置,推出基于四路和八路 nvidia hgx a100 电路板的新款高密度 2u 和 4u 服务器。随着 a100 gpu 现在也推出 pcie 尺寸,客户只要为 supermicro 广泛的多 gpu 服务器产品组合配备新的 nvidia a100 gpu,就能大幅提升性能。supermicro 的 ceo 兼总裁 charles liang 表示:“行业领先的 gpu 系统全面支持新的 nvidia a100 pcie gpu 意味着,客户可以根据自己的特定应用选择性能最佳、优化程度最高的服务器。搭载第 4 代 pcie 的新系统专为加快各种计算密集型应用而完全优化,支持新的 nvidia a100,可将一些加速工作负载的性能提升 20 倍之多。”通过直接连接 pci-e 40 x16 cpu 至 gpu 通道,supermicro 新的 4u a+ gpu 系统支持最多八个 nvidia a100 pcie gpu,无需任何 pci-e 开关,实现最低延迟、最高带宽和最大限度的加速。系统还支持最多两个额外高性能 pci-e 40 扩展槽,适合各种用途,包括最高 200gbs 的高性能络连接。额外 aiom 插槽支持 supermicro aiom 卡或 ocp nic 30 卡。这些系统也可直接用于 ngc,为客户提供大规模开发和部署 ai 工作负载的无缝路径。ngc 就绪系统经过功能和性能验证,可用于 nvidia ngc 注册的 ai 堆栈。科电工程
new optimized supermicro a+ server supports 8 nvidia a100 pcie gpus in 4u
nvidia 加速计算产品营销总监 paresh kharya 表示:“作为首款整合训练、推理、hpc 和分析的弹性、多实例 gpu,nvidia a100 旨在处理各种体量的工作负载。nvidia a100 pcie gpu 服务器可帮助客户解决最复杂的数据科学、高性能计算和 ai 挑战。”作为 ai 系统技术的领导者,supermicro 提供多 gpu 优化散热设计,为 ai、深度学习和 hpc 应用带来先进性能和可靠性。”凭借 1u、2u、4u 和 10u 机架安装 gpu 系统;支持 gpu 的 utra、bigtwin 和嵌入式系统;以及用于 8u superblade® 的 gpu 刀片模块,supermicro 提供业界最广泛、最尖端的 gpu 系统,支持从边缘到云的各种应用。