NVIDIA今天在GTC大会上宣布,多家中国顶级云服务提供商、系统制造商都部署了NVIDIA A100 Tensor Core GPU、NVIDIA技术,为各种AI应用提速。
今年5月,NVIDIA推出了首款基于安培架构的A100 GPU,台积电7nm工艺制造,集成多达542亿个晶体管,核心面积达826平方毫米,内置6912个FP32 CUDA核心,最高加速频率1.4GHz,搭配512-bit 40GB HBM2显存,带宽达1.6TB/s。
相比上代伏特架构的V100核心,它的INT8推理、FP32训练性能提升20倍,FP64计算性能提升2.5倍,是历史上进步最大的一次。
A100 GPU还配备了精度更高的第三代Tensor Core张量核心、GPU间传输率高达600GB/s的第三代NVIDIA NVLink、NVIDIA NVSwitch、PCIe 4.0、NVIDIA Magnum IO软件SDK,可实现成千上万个GPU集群的高效扩展。
已发布gn7 GPU系列云服务器,内置8块A100,主要面向AI训练和高性能计算应用,可提供新一代GPU计算实例,相比上一代平台AI性能提升最高20倍,高性能计算提升2.5倍。
即将推出lgn3 GPU系列云服务器、vGPU云服务器、百度太行裸金属服务器。
最多搭载8块A100 GPU、8TB NVMe SSD、数百G带宽,主要面向AI训练/推理、高性能计算应用、科学计算等场景,计算能力20倍于上代V100。
A100裸金属服务器,配置8块A100 GPU、2颗AMD EPYC 7302处理器、1024GB内存、2个240GB SATA SSD、2个2TB NVME SSD,适用于AI、数据分析、高性能计算等多种应用场景。
已推出云服务器GT4,搭配AMD第二代霄龙平台,最高180核心vGPU,适用于深度学习训练、推理、高性能计算、数据分析、视频分析等领域。
已推出搭载8颗A100 GPU的全互联6U服务器H3C UniServer R5500 G5,同时全线GPU服务器机型已同步适配升级,包括H3C UniServer R4900 G3(2U 3GPU)、R5300 G3(4U 8GPU)、R4950 G5(2U 4GPU),部分机型已完成NVQUAL认证,全面覆盖集群建设、大规模AI模型训练、高性能计算、AI项目部署等应用场景。
已发布发布多款支持A100 40G的AI服务器,可配置8-16颗,包括NF5488M5-D、NF5488A5、 NF5688M6、NF5888M6,还推出了三款支持A100 PCIe版本的服务器NF5468M6、NF5468A5、NF5280M6。
配备最新A100 80GB GPU的AI服务器NF5488M5-D、NF5488A5也已全球量产供货。
推出了配备A100 GPU的HG680X,4U 8GPU规格,可满足单机多卡需求,支持两种拓扑形式,存储支持最多8个NVMe SSD加16个2.5英寸SAS/SSD,或者24个2.5英寸SAS/SSD。
适用于大型深度学习模型训练场景、大量数据的推理场景,适应不同深度学习算法与改进,可满足互联网、金融、制造等不同行业客户的多样化需求。
X640 G30 GPU服务器完成8卡A100的适配,并通过了NVIDIA NVQUAL的官方认证,可针对不同场景进行GPU互联拓扑调整、升级算力。现已在客户处完成批量部署,应用于海量数据训练、深度学习、语音识别、图像识别等领域。
最新评论