极强大的端到端 AI 和 HPC 数据中心平台
A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案结合了跨硬件、网络、软件、库以及 NGC™ 的经过优化的 A1 模型和应用程序的构建块。 它代表了强大的数据中心端到端 AI和 HPC平台,使研究人员可以提供真实的结果并将解决方案大规模部署到生产中。
深度学习训练
NVIDIA A100 的 Tensor Core 借助 Tensor 浮点运算(TF32)精度,可提供比上一代NVIDIA Volta 高 20 倍之多的性能,并且无需更改代码;若使用自动混合精度和 FP16,性能可进一步提升2倍。与 NVIDIA®NVLink®、NVIDIANVSwitch"、PCI4.0、NVIDIA® Mella-nox® InfiniBand®和 NVIDIA Magnum IO" SDK结合使用时,可扩展到数千个 A100 GPU。 2048 个A100 GPU 可在一分钟内大规模处理 BERT之类的训练工作负载,这是训练时间的世界纪录。 对于具有庞大数据表的超大型模型(例如用于推荐系统的 DLRM),A10080GB可为每个节点提供高达 1.3 TB 的统一显存,而且速度比 A100 40GB 快高达 3倍。 NVIDIA 产品的领先地位在 MLPerf 这个行业级 AI 训练基准测试中得到印证,创下多项性能纪录。
高性能数据分析
搭载 A100NVIDIA® NVLink® and NVSwitch" 实现的超快速内存带宽(超过每秒2TB)和可扩展性妥善处理工作负载。通过结合 InfiniBand,NVIDIAMagnumI0™和 RAPIDS™ 开源库套件(包括用于执行 GPU 加速的数据分析的 RAPIDS AcceleratorforApache Spark),NVIDIA 数据中心平台能够加速这些大型工作负载,并实现超高的性能和效率水平。
中国互联网信息中心(CNNIC)IP地址分配联盟成员 北京市通信行业协会会员单位 中国互联网协会会员单位
跨地区增值业务经营许可证(B1-20150255) 电信与信息服务业务经营许可证(京ICP证060342号) 京ICP备05032038号-1 京公网安备11010802020193号
Copyright ©2005-2024 北京互联互通科技有限公司 版权所有