9月18日,华为全联接2019(huawei connect)大会上,华为副董事长胡厚崑发布了atlas 900 ai训练集群,以超强算力带给企业人工智能业务的极致体验。世界正从数字化向智能化转型,训练平台人工智能产业作为关键驱动力,面临自身的升级进化的挑战。华为在超强人工智能算力和大规模分布式ai训练集群两个方面加速智能化世界的转型。
在大型数据集上进行训练的神经网络架构涵盖从图像识别、自然语言处理、视频实时分析和智能推荐系统等各个方面,训练这些神经网络模型需要大量浮点计算能力。近年来单个ai处理器算力和训练方法上均取得了重大进步,但是在单一机器上,ai训练所需要的时间仍然长得不切实际,因此需要借助大规模分布式ai集群环境来提升神经网络训练系统的浮点计算能力。
此次发布的atlas 900 ai训练集群由数千颗昇腾910 ai处理器互联构成,是当前全球最快的ai训练集群,代表了当今全球的算力巅峰。其总算力达到256p~1024p flops @fp16,相当于50万台pc的计算能力。
atlas 900 ai训练集群采用业界单芯片算力最强的昇腾910 ai处理器,每颗昇腾910 ai处理器内置32个达芬奇ai core,单芯片提供比业界高一倍的算力(256tflops@fp16)。atlas 900 ai训练集群将数千颗昇腾910 ai处理器互联,打造业界第一的算力集群。
昇腾910 ai处理器采用soc设计,集成“ai算力、通用算力、高速大带宽i/o”,大幅度卸载host cpu的数据预处理任务,充分提升训练效率。
atlas 900 ai训练集群采用“hccs、 pcie 4.0、100g以太”三类高速互联方式,百tb全互联无阻塞专属参数同步网络,降低网络时延,梯度同步时延缩短10~70%。
在ai服务器内部,昇腾910 ai处理器之间通过hccs高速总线互联;昇腾910 ai处理器和cpu之间以最新的pcie 4.0(速率16gb/s)技术互联,其速率是业界主流采用的pcie 3.0(8.0gb/s)技术的两倍,使得数据传输更加快速和高效。在集群层面,采用面向数据中心的cloudengine 8800系列交换机,提供单端口100gbps的交换速率,将集群内的所有ai服务器接入高速交换网络。
独创ilossless 智能无损交换算法,对集群内的网络流量进行实时的学习训练,实现网络0丢包与e2e μs级时延。
atlas 900 ai训练集群通过华为集合通信库和作业调度平台,整合hccs、 pcie 4.0 和100g roce三种高速接口,充分释放昇腾910 ai处理器的强大性能。
华为集合通信库提供训练网络所需的分布式并行库,通信库+网络拓扑+训练算法进行系统级调优,实现集群线性度>80%,极大提升了作业调度效率。
传统数据中心多以风冷技术对设备进行散热,但在人工智能时代传统数据中心却面临非常大的挑战。高功耗器件比如cpu和ai芯片带来更大的热岛效应要求更高效的冷却方式。液冷技术可以满足数据中心高功率、高密部署、低pue的超高需求。
atlas 900 ai训练集群采用全液冷方案,创新性设计业界最强柜级密闭绝热技术,支撑>95%液冷占比。单机柜支持高达50kw超高散热功耗,实现pue
另外,在空间节省方面,与8kw风冷机柜相比,节省机房空间79%。极致的液冷散热技术满足了高功率、高密设备部署、低pue的需求,极大地降低了客户的tco。
atlas 900ai训练集群领先的benchmark指标
华为已在华为云上部署了一个atlas 900 ai训练集群,集群规模为1024颗昇腾910 ai处理器。基于当前最典型的resnet-50 v1.5模型”和“ imagenet-1k数据集”,atlas 900ai训练集群只需59.8秒就可完成训练,排名全球第一。
“ imagenet-1k数据集”包含128万张图片,精度为75.9%,在同等精度下,其他两家业界主流厂家测试成绩分别是70.2s和76.8s,atlas 900 ai训练集群比第2名快15%。
atlas 900 ai集群主要为大型数据集神经网络训练提供超强算力,可广泛应用于科学研究与商业创新,让研究人员更快地进行图像、视频和语音等ai模型训练,让人类更高效地探索宇宙奥秘、预测天气、勘探石油和加速自动驾驶的商用进程。
atlas 900 ai集群也可以提供云服务,以云的方式提供充裕的、经济的算力资源,简单易用、高效率、全流程的ai平台,为客户带来极致体验的“易获取、用得起、方便用”的普惠ai算力。