深度 | AI芯片之智能边缘计算的崛起

原标题:深度|ai芯片之智能边缘计算的崛起
雷锋网注:本文是线性资本黄松延对终端智能芯片前沿技术和市场动态的分析,松延是浙江大学机器学习博士,前华为数据科学家,对机器学习及其应用有深入的研究,阅后若有所感,欢迎通过微信号nikola_629与他交流。本文转载自公众号“线性资本”,雷锋网已获取授权。
基础层、算法层与应用层是人工智能产业链的三个组成部分。人工智能(ai)正在作为基础技术,改变不同的行业,并具有极其广阔的应用市场。考虑到深度学习等ai算法开源的发展趋势,基础层的数据与芯片将在未来竞争中占据越来越重要的地位。作为人工智能发展支柱的ai芯片(特指专门针对ai算法做了特定设计的芯片)更是人工智能行业的核心竞争力。
基于深度神经网络(dnn)在各个应用中表现出的巨大优势,本文的ai仅限于深度学习。下文将从ai计算与ai芯片出发,分析不同种类ai芯片间的区别,探索应用于终端推断(edgeinference,ei)的ai芯片,即ai-ei芯片,并给出ai-ei芯片硬件架构特性,讨论多家ai-ei芯片公司,最后给出ai-ei芯片发展趋势及投资逻辑。
一、ai计算及ai芯片
近几年,深度神经网络(dnn)在图像识别、自然语言处理等方向上取得了前所未有的成功,并推动相关行业的快速发展。但是,这些应用中使用的深度神经网络的参数量巨大,模型训练(training)与推断(inference)都需要大量的计算,传统计算芯片的算力无法满足dnn计算需求。具有高算力的ai芯片能够满足ai行业计算需求并得到了快速发展。
2016年ai芯片全球市场规模为23.88亿美元,有机构预计到2020年ai芯片全球市场规模将达到146.16亿美元(终端ai芯片的市场规模),发展空间巨大。另外,各国纷纷把ai芯片定为自己的战略发展方向。
与传统cpu不同的是,ai芯片具有大量的计算单元,能够适合大规模并行计算的需求。基于通用性与计算性能的不同,可以把ai芯片分为gpu、fpga、asic三大类。深度神经网络的基本运算单元是“乘-加”(mac)操作。每次mac中存储器读写操作如图1所示。
图1:每个mac的读写操作
在ai应用中,cpu与ai芯片的计算能力是由芯片所具备的mac能力及如何发挥芯片的mac能力两个因素决定。
cpu是通用芯片,cpu的大部分面积都被控制单元与缓存单元所占,只有少量的计算单元。另外,cpu的指令执行过程包括取指令、指令译码与指令执行三部分。只有在指令执行的时候,计算单元才能发挥作用。因而,cpu在发挥芯片的mac能力方面亦比较一般。为了提高指令执行效率,cpu采用指令流水处理方式。gpu有大量的计算单元,适合大规模并行计算。但是,gpu也是通用芯片,其指令执行过程也由取指令、指令译码与指令执行三部分组成。该特征是制约gpu计算能力的主要原因之一。fpga,即,现场可编程逻辑门阵列,是一种更接近i/o的高性能、低功耗芯片。fpga是算法即电路,软硬合一的芯片。基于硬件描述语言,可以把算法逻辑直接编译为晶体管电路组合。由于fpga的硬件电路是由算法定制的,其不需要取指令与指令译码过程,因而,fpga能够充分发挥芯片的计算能力。另外,fpga可以重复编程,因而具备一定的灵活性。asic,即,专用集成电路。类似于fpga,asic采用的也是算法即电路的逻辑,亦不需要取指令与指令执行过程。另外,asic是为了特定的需求而专门定制的芯片,因而,能够最大程度发挥芯片的计算能力。但是,不同于fpga的可重复编程,asic的设计制造一旦完成,就无法再改变,其灵活性较差。
在评价一个芯片架构性好坏时,有多种指标可供参考。其中,能耗与峰值计算能力(芯片结构中每秒计算操作数的总和,用ops表示)是两个重要的衡量指标。不同指标间会相互制衡,一个指标的增高可能是以牺牲其它指标为代价而获取的。因而,常采用归一化的指标单位能耗算力(ops/w),即,能效,来衡量芯片计算性能。实质上看,上述的四种芯片是通用性与能效trade-off的结果。能效方面,asic>fpga>gpu>cpu。通用性则反之。
对于ai芯片,从市场格局来看,nvidia是gpu行业的绝对龙头。对于fpga,xilinx、altera(现并入intel)、lattice、microsemi四家占据全球99%的市场份额。其中,xilinx、altera两家占据全球90%的市场份额。另外,fpga四大巨头拥有6000多项行业专利,形成该行业极高的技术壁垒。对于asic芯片,目前还未形成巨头垄断的市场格局,但是对于不同垂直领域,其情况不同,我们将在下文中给出详细分析。
图2:ai芯片象限图
深度学习分为两个阶段:模型训练与智能推断,如图2所示。模型训练需要大量的训练样本,基于梯度下降法,模型优化收敛到局部最优点。深度学习的模型训练需要几小时到多天的迭代优化,因而,现阶段,模型训练都在云端完成(我们认为具备持续学习能力是智能终端未来发展的方向,因而这里并不认为训练一定只在云端完成)。模型训练好之后,则能够基于该模型与输入数据,计算得到输出,完成智能推断。相比于模型训练,推断的计算量要小很多,可以在云端与终端完成。
现阶段,由于终端设备的计算力普遍有限,模型训练与推断大都在云端服务器上完成。在云端模型训练中,nvidia的gpu占主导地位,多gpu并行架构是云端训练常用的基础架构方案。在云端识别中,基于功耗与运算速度的考量,单独基于gpu的方式并非最优方案,利用cpu、gpu、fpga、asic各自的优势,采用异构计算(cpu+gpu+fpga/asic)是目前主流方案。
在计算机视觉、语音识别等应用中,终端采集数据(特别是图像数据),然后上传到云端处理的云计算对网络带宽与数据中心存储都带来越来越大的挑战。另外,无人驾驶等应用对实时性与安全性要求极高。网络的时延与稳定性所带来的安全隐患是无人驾驶等应用所无法忍受的。在终端采集数据,并完成数据处理,提供智能终端推断的边缘计算(edgecomputing),因其能够满足实时性、安全性的需求,且能节约带宽与存储,得到越来越多的关注。我们判断inference将越来越多的在终端设备上完成,即,智能将会下沉到终端设备,智能边缘计算将会崛起。
图3:2017-2020全球ai终端芯片市场规模预测
实时性是选择在终端完成推断最主要的原因之一。但是,由于深度神经网络参数量巨大,推断过程需要完成大量的计算,其对终端硬件的计算力提出了很高的要求。另外,电池供电的终端设备对功耗也有极高的要求,且大多数的终端产品价格敏感。即,执行dnn推断的终端芯片对算力、功耗、价格都有严格的限制。研究用于dnn推断的ai-ei芯片是目前ai芯片行业最热的方向。现阶段,已有大量的初创公司,针对不同领域及应用,提出多种ai-ei芯片硬件设计架构,下文将详细给出ai-ei芯片的架构思路及发展现状。
二、ai-ei芯片及其架构
基于深度神经网络的广泛应用,科技巨头及初创公司都根据dnn的特性进行有针对性的硬件处理器研发。其中包括google的tpu、寒武纪的diannao系列、eyeriss的npu等ai芯片。本节将总结并给出这些ai-ei芯片如何在不降低准确率的前提下实现运算吞吐量提升,并降低能耗。
由前文可知,深度神经网络的基本运算为mac操作,且mac操作很容易被并行化。在dnn硬件设计中,常使用时间架构(temporalarchitecture)与空间架构(spatialarchitecture)两种高度并行化的计算架构,来获取高计算性能。
时间架构(temporalarchitecture)
通用芯片cpu与gpu常采用时间架构,并使用单指令多数据流(simd)或者单指令多线程(simt)来提高并行化处理性能。时间架构基于中央控制器统一控制所有的alu。这些alu只能从层次存储器中取数据,而不能相互通信。
时间架构中,通常使用各种计算变换,特别是对卷积操作的计算变换,来减小计算复杂度,从而提升吞吐量,常用的方法包括:
toeplitz矩阵方法:把卷积操作转换为矩阵乘操作fft方法:经过fft变换,把卷积运算变成矩阵乘操作winograd方法:比较适合较小的滤波器的情况
空间架构(spatialarchitecture)
基于asic或者fpga的ai-ei芯片常使用空间架构。相对于通用芯片,专用芯片应用在特定场景,其功能有限。简单且规则的硬件架构是降低设计成本的基础,亦是实现低成本专用芯片的先决条件。足够低的芯片成本才能对冲专用芯片功能的局限性。
空间架构采用数据流(dataflow)处理方式。在空间架构中,alu形成一条数据处理链,从而能够在alu间直接地传送数据。该空间架构中,每个alu都有自己的控制逻辑与本地存储(寄存器堆)。其中,有本地存储的alu被定义为pe。
对于空间架构,硬件设计基于层次存储器中的低能耗内存,并增加数据重利用率(实质上,卷积是空间重用,这种重用可以获取空间的不变性),来减小能耗。另外,数据流(dataflow)控制数据读、写及处理。总体上,空间架构基于层次存储器与数据流平衡i/o与运算问题,从而降低能耗并提升运算吞吐量。下文将在分析层次存储器与数据流的基础上,讨论不同的技术路线的ai-ei芯片。
访问内存所需时间要远远大于计算所需时间。由深度神经网络的推断部分运算可知,每个mac都需要三次内存读与一次内存写操作。其中三次内存读操作分别为读取输入数据、权值数据与部分和数据(partialsum),一次内存写操作为更新部分和数据。层次存储器基于内部寄存器等存储单元来减小对外挂内存访问次数,降低i/o需求。层次存储器如图4所示,该层次存储器包括pe内部的寄存器(rf)、用于alu间直接传输数据时存储数据的内存单元noc及连接dram的全局缓存器buffer。由图4可以看到,层次存储器中,不同类别的存储器读写操作所消耗的能量不同,这也是我们能够利用层次存储器及数据复用来降低能耗的原因。
图4:层次存储器及各存储器中数据迁移的能耗
dataflow是一种没有复杂程序指令控制且由操作数,即,数据或者中间结果,激活子计算单元,来实现并行计算的一种计算方式。图5总结出了dataflow的架构逻辑。
图5:数据流架构——来源shaaban教授的课程
在深度学习的推断中,有大量的计算需求。但是,这些计算是分层顺序执行的。因而,控制流程相对简单、清晰。可以看出,dataflow处理方式与基于深度神经网络推断部分的计算需求非常吻合。
数据流能够决定哪些数据读入到哪层存储器以及这些数据什么时候被处理。另外,在dnn推断中,没有随机性。因而,可以从最优能耗的角度,设计一个基于dataflow的固定架构的ai-ei芯片。目前,大多数用于深度学习推断的ai-ei芯片都采用dataflow。
层次存储器中,存储量大的存储器读写操作所消耗的能量要比小存储的存储器大很多。因而,一旦一块数据从大存储器搬移到小存储器后,要尽可能最大程度复用(reuse)该数据块来最小化能耗。但是低功耗存储器的存储空间有限。如何最大化复用率是设计基于dataflow加速器时最关注的先前条件。即,通过最大化数据复用率来降低i/o要求,减小数据处理能耗,从而提升吞吐量并降低总体能耗。常见的dnn数据流类型包括:权值固定数据流、输出固定数据流、nolocalreuse(nlr)及行固定数据流。
权值固定数据流: 从dram中读出权值数据,放在pe的rf中并保持不变,之后把输入数据广播(broadcast)到每个pe,最后求取pe阵列的部分和(partialsum)。该处理方式通过最大化从pe的rf中读取权值数据次数,并最小化直接从dram中读取权值次数,实现最大化卷积与滤波器对权值的复用率,来减小能耗。neuflow即为基于该种数据处理方式的ai-ei芯片。
输出固定(os)数据流: 通过在pe阵列中stream输入数据,然后把权值数据广播到pe阵列,保持rf中的部分和的累加不变,从而最小化读写部分和的能耗。寒武纪的shidiannao是基于输出固定的ai-ei芯片。另外,根据处理目标的不同,可以把该种数据流分为以卷积层为处理目标的os_a与以全连接层为处理目标的os_c,os_b是介于os_a与os_c间的一种os数据流。
nlr数据流: pe阵列的rf中并不存储任何固定数据,相反,该情况下,所有数据的读写操作都是在全局buffer中完成。寒武纪的diannao与daniaonao是基于该数据处理方式的ai-ei芯片。
行固定数据流: 最大化所有数据复用率并尽可能的使得所有数据的读写操作都在rf中完成,减小对全局buffer的读写操作,来减小功耗。每个pe能够完成1d的卷积运算,多个pe能够完成2d的卷积运算。在二维的pe阵列中,水平轴上的pe单元上,每一行的权值数据被复用,对角线上的pe单元上,每一行的输入数据被复用,垂直轴上的多个pe单元上,每一行的部分和数据被复用,即,行固定的数据流能够最大化所有数据的复用率,从而能够全局最优化功耗。eyeriss的npu是基于行固定的ai-ei芯片。
三、ai-ei芯片玩家
本节首先总结三家极具代表性的研发dnn加速器(google、wavecomputing、graphcore是平台化的计算平台,因而,这里没把他们叫做ai-ei芯片厂家)的公司,后文中结合应用场景总结ai-ei芯片创业公司,其中部分公司的芯片也可以做训练,且不一定应用在终端场景,这里基于行为考虑,把他们称为ai-ei芯片公司。
googletpu
在2015年就开始部署asic张量处理器tpu。tpu采用脉动阵列(systolicarray)技术,通过矩阵单元的使用...