微软在最近的Ignite活动中宣布了围绕其人工智能运算产品组合的一些重大进展,揭示了NVIDIA Blackwell与Azure的集成以及带有客制化HBM内存的新型 AMD EPYC Genoa芯片。
可以说,微软在向公众提供针对人工智能的服务方面处于领先地位,因为该公司庞大的人工智能运算库使其在市场上拥有独家地位。在最近的Microsoft Ignite活动上该公司透露了在Azure平台上使用NVIDIA Blackwell AI产品的情况,特别是最新的Azure ND GB200 V6 VM系列,这是该公司首款采用Blackwell的虚拟机。
更深入了解技术,据报导Azure ND GB200 V6虚拟机配备了两个GB200 Grace Blackwell超级芯片,每个芯片都配备了两个高性能Blackwell GPU和一个Grace CPU,通过NVIDIA的NVLink互连。有趣的是通过板载多个NVLink托盘,微软可以设法提供多达18个运算服务器,最终在单一平台上提供72个NVIDIA Blackwell GPU。对于最新的虚拟机来说,扩充不是问题,这归功于NVIDIA的InfiniBand结构系统。
Azure ND GB200 V6 VM目前正与选定的合作伙伴一起处于私有预览阶段,微软计划很快向更广泛的受众推出该平台。除此之外微软也在Azure平台上发布了一款采用CPU的虚拟机,称为Azure HBv5,专门针对内存带宽密集型HPC应用程序。
为了获得最佳的工作负载和成本效率比,微软决定与AMD合作,利用他们的第四代EPYC服务器CPU。以下是详细规格:
- 400-450GB 内存 (HBM3) 的内存带宽 (STREAM Triad) 为6.9TB/s
- 每个内核高达9GB内存(客户可设置)
- 多达352个AMD EPYC Zen4 CPU内核,4GHz峰值频率(客户可配置)
- 与迄今为止的任何AMD EPYC服务器平台一样,CPU的Infinity Fabric总带宽为2倍
- 停用SMT、仅限单一租用户设计(每台服务器1个虚拟机)
- 800Gb/s的NVIDIA Quantum-2 InfiniBand,平衡为每个CPU SoC 200Gb/s
- Azure VMSS Flex可将MPI工作负载扩展到数十万个HBM驱动的CPU内核
- 通过第二代Azure Boost NIC实现160Gbps的Azure加速网络
- 14TB本地NVMe SSD提供高达50GB/s的读取带宽和30GB/s的写入带宽
微软也透露他们已成功将最新Azure HBv5 VM的性能比上一代同类产品提高了20倍。这确实显示了AMD EPYC平台在市场上的主导地位,该平台的销量也已经超过了Intel。总体而言微软的人工智能产品组合无疑计划成为目前最好的产品组合之一,使该公司能够充分利用人工智能的炒作。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除