华为全联接2019大会上,华为副董事长胡厚崑发布了Atlas900AI训练集群。此次发布的Atlas900AI训练集群由数千颗昇腾910AI处理器互联构成,是当前全球快的AI训练集群,代表了当今全球的算力巅峰。其总算力达到256P~1024PFLOPS@FP16,相当于50万台PC的计算能力。
AI算力领先
Atlas900AI训练集群采用业界单芯片算力强的昇腾910AI处理器,每颗昇腾910AI处理器内置32个达芬奇AICore,单芯片提供比业界高一倍的算力。Atlas900AI训练集群将数千颗昇腾910AI处理器互联,打造业界头名的算力集群。
昇腾910AI处理器采用SoC设计,集成“AI算力、通用算力、高速大带宽I/O”,大幅度卸载HostCPU的数据预处理任务,充分提升训练效率。
脱颖而出集群网络
Atlas900AI训练集群采用“HCCS、PCIe4.0、100G以太”三类高速互联方式,百TB全互联无阻塞专属参数同步网络,降低网络时延,梯度同步时延缩短10~70%。
在AI服务器内部,昇腾910AI处理器之间通过HCCS高速总线互联;昇腾910AI处理器和CPU之间以新颖的PCIe4.0(速率16Gb/s)技术互联,其速率是业界主流采用的PCIe3.0(8.0Gb/s)技术的两倍,使得数据传输更加快速和高效。在集群层面,采用面向数据中心的CloudEngine8800系列交换机,提供单端口100Gbps的交换速率,将集群内的所有AI服务器接入高速交换网络。
独创iLossless智能无损交换算法,对集群内的网络流量进行实时的学习训练,实现网络0丢包与E2Eμs级时延。
系统级调优
Atlas900AI训练集群通过华为集合通信库和作业调度平台,整合HCCS、PCIe4.0和100GRoCE三种高速接口,充分释放昇腾910AI处理器的强大性能。
华为集合通信库提供训练网络所需的分布式并行库,通信库+网络拓扑+训练算法进行系统级调优,实现集群线性度>80%,极大提升了作业调度效率。
散热系统
传统数据中心多以风冷技术对设备进行散热,但在人工智能时代传统数据中心却面临非常大的挑战。高功耗器件比如CPU和AI芯片带来更大的热岛效应要求更高效的冷却方式。液冷技术可以满足数据中心高功率、高密部署、低PUE的超高需求。
Atlas900AI训练集群采用全液冷方案,创新性设计业界强柜级密闭绝热技术,支撑>95%液冷占比。单机柜支持高达50kW超高散热功耗,实现PUE<1.1的极致数据中心能源效率。
另外,在空间节省方面,与8kW风冷机柜相比,节省机房空间79%。极致的液冷散热技术满足了高功率、高密设备部署、低PUE的需求,极大地降低了客户的TCO。
据了解,华为已在华为云上部署了一个Atlas900AI训练集群,集群规模为1024颗昇腾910AI处理器。基于当前典型的“ResNet-50v1.5模型”和“ImageNet-1k数据集”,Atlas900AI训练集群只需59.8秒就可完成训练,排名全球头名。
“ImageNet-1k数据集”包含128万张图片,精度为75.9%,在同等精度下,其他两家业界主流厂家测试成绩分别是70.2s和76.8s,Atlas900AI训练集群比第2名快15%。
Atlas900AI集群主要为大型数据集神经网络训练提供超强算力,可广泛应用于科学研究与商业创新,让研究人员更快地进行图像、视频和语音等AI模型训练,让人类更高效地探索宇宙奥秘、预测天气、勘探石油和加速自动驾驶的商用进程。(来源:网易科技,侵删)
转载请注明:爱盈利 » 华为AI训练集群Atlas900有多快?算力相当于50万台PC