作为芯片巨头英特尔的核心支柱产业,服务器芯片业务一直以来的亮眼表现,都让该的财务业绩充满着增长活力。据英特尔最近一季度的财报业绩数据显示,依靠销售服务器和ai芯片的英特尔数据中心集团营收达到了61亿美元,相比去年同期增长了26%,而该集团目前占据英特尔总营收的30%以上,在全球服务器芯片市场份额占比为986%。其中免费空间给了创业者很大的精神支持,未来会有更多的创业者为这个行业贡献自己的力量。
不过,如今的英特尔正面临来自友商和其大客户们的前后夹击。这不,就在上月月底的aws re:invent2018用户大会上,亚马逊就带头给了英特尔一记重击,因为该正式对外宣布推出了自研的机器学习芯片inferentia、基于arm架构的云服务器芯片graviton以及基于该芯片提供的ec2a1虚拟服务器,进军服务器和ai芯片战场。而除了亚马逊以外,如今谷歌、微软、facebook以及中国的百度、阿里等英特尔大客户们现在也都开始采用自主开发服务器和ai芯片,或者寻求替代方案的路线,来慢慢摆脱对英特尔芯片的单向依赖。那么,这些志同道合的战友们目前的进展情况究竟如何了?
谷歌
作为很早就意识到数据中心重要性的谷歌,在六年前就开始自主研发芯片,最早源于google为其android系统加入的语音识别技术,也就是我们熟悉的googlenow和 googleassistant。但由于考虑到语音识别、图像识别、机器翻译以及互联网搜索等越来越多云服务使用率会大幅增加,而凭借现有的数据中心规模难以支撑如此庞大的数据量处理和运转,因此在综合考量下谷歌最终选择了自研tpu芯片的这条路。
如今,经过多次的技术迭代,谷歌的tpu项目已经到了第三代,并广泛应用到了谷歌图像搜索、谷歌照片、谷歌翻译以及alphago等诸多项目中,有一颗芯片顶一座数据中心的称誉。据目前谷歌披露的消息,相比类似的服务器级intelhaswell cpu和nvidia k80gpu,tpu在ai运算测试中的平均速度要快15-30倍,更重要的是,tpu的每瓦性能要比普通的gpu高出25-80倍。最新的tpu3pod的总处理能力要高于100 pflops,是tpu2pod的8倍,其中芯片换代的贡献只有2倍,大部分归功于系统层面的各种改进。但众所周知,芯片开发也离不开相关软件工具,google的软件能力和生态也是其能够实现芯片快速迭代的一个重要因素,比如谷歌专为tpu开发的cnn1软件,就可以让tpu的运行速度比普通cpu高出70多倍。
微软
与其他几家云服务巨头不同,微软在自研芯片的行动上一直都谨小慎微,鲜有消息对外披露,更多的还是通过选择合作第二或更多芯片供应商的方式来减少对英特尔独家供应芯片的依赖。今年9月,市场传出微软正寻求与中国华为洽谈ai芯片采购的计划,想要用华为的ai芯片来部署到微软位于中国本土的数据中心服务器上;10月底,fpga供应商xilinx获得了微软azure云计算部门的订单,在超过一半的azure服务器上微软会采用xilinx的芯片来取代英特尔的产品。
在服务器芯片的自研方面,微软其实也没闲着。相信不少人还记得高通之前成立的数据中心项目部,而今年6月该项目部开始大幅裁员,从1000名员工迅速缩减到300位,借此机会微软也陆续从高通挖走了不少服务器芯片设计工程师和高管,包括工程领导团队中的muntaquimchowdhury、thomas speier、michael mcilvaine、wayne smith以及设计经理ketan patel和michaelunderkoffler,微软官方给出的答复是主要为了扩增研发团队规模来开发微软的量子计算芯片,但在量子芯片之后,微软要开发自主服务器芯片也是水到渠成的事情。
亚马逊
对于英特尔而言,亚马逊的正式入场可谓是一个巨大的打击,同时也将对以x86架构为主导的英特尔未来的业务增长构成长期的影响。事实上,早在2015年,亚马逊就以35亿美元的架构收购了以色列芯片开发商annapurna实验室,可见当时就已经进入了研发正轨。而今,在arm架构的推动下,亚马逊一并推出了多款用于云端服务器领域的芯片,即机器学习芯片inferentia以及云服务器芯片graviton。
编者获悉,inferentia是一款兼具高吞吐量、低延迟、持续性能且极具成本效益的ai处理器,inferentia支持流行的框架包括tensorflow、caffe2和onnx,同时支持int8、fp16和混合精度。在亚马逊高管看来,该芯片旨在提高能效,有助于降低数据中心的电力成本,且现在亚马逊也正在提供一项允许商业客户使用其新芯片的云计算服务,这项服务的成本可以比其他云服务低45%。
而关于云服务器芯片graviton,亚马逊也基于该芯片打造了ec2 a1虚拟服务器。aws全球基础设施和客户支持副总裁peterdesantis表示,graviton支持多达16个虚拟cpu(vcpu)和高达32 gb的主内存,其服务器适配器网络带宽高达每秒10 gb,其elasticblock store(ebs)带宽高达每秒35 gb,且拥有8到18个核心,运算频率在16 ghz到23ghz之间,足以与英特尔的skylakexeon-d-2100 v2相匹敌。而基于该芯片打造的ec2a1计算服务,能够对部分工作负载能耗可降低45%,为亚马逊省去大量的电力和芯片采购等额外成本开支。
facebook
经过多年的积累和发展,以社交网站为主营业务的facebook如今已成为了一家国际互联网巨头企业。而今,越来越多的竞争对手都开始大力发展ai及云计算等业务,facebook也不可能坐得住;而且,在服务器芯片上长期以来都依赖英特尔供应也着实不是长久之计。因此,facebook选择自主开发芯片也确实是合情合理。
今年4月份,facebook对外公布了一则招聘信息,显示该正在招募一个半导体芯片专业研发团队,研发团队将打造端对端的socasic、固件和驱动程序开发组织(见图)。此处的soc是指系统级芯片,后者asic(专用集成电路)则表明,facebook计划研发的这款芯片拥有更加特殊的应用场景。该自主芯片将被用在facebook自家的服务器及ai平台上,能帮助facebook降低对诸如英特尔和英伟达等传统芯片厂商的依赖,实现量身定制的同时还能开发差异化的产品。目前,facebook的芯片研发最新进展和细节并未对外披露。
百度
在云服务领域,百度也是一家十分具有影响力的,同时也是英特尔服务器芯片的大客户之一。但显然,随着该在ai之路上越走越远,其摆脱英特尔自主开发云服务器芯片的野心也是越来越大。
其实,从去年开始,百度就已经走上了自研的轨迹。在去年8月的加州hotchips大会上,百度就已经发布了ai云计算的芯片xpu,这是一款256核、基于fpga的云计算加速芯片。该芯片架构突出多样性,着重于计算密集型、基于规则的任务,同时确保效率、性能和灵活性的最大化。据百度官方透露,xpu的目标是在性能和效率之间实现平衡,并处理多样化的计算任务,因为fpga加速器本身很擅长处理某些计算任务,但随着许多小内核交织在一起,多样性程度将会上升。
虽然xpu目前仍然没有做到量产,但百度并没有因此止步。今年7月,在2018百度ai开发者大会上,该又推出了一款云端全功能ai芯片昆仑,其中包含训练芯片昆仑818-300,推理芯片昆仑818-100。据悉,该芯片主要基于三星14nm工艺,由几万个小核心构成,内存带宽高达512gbs,算力高达260tops,功耗100+瓦特,可高效地同时满足训练和推断的需求,除了常用深度学习算法等云端需求,还能适配诸如自然语言处理,大规模语音识别,自动驾驶,大规模推荐等具体终端场景的计算需求,预计量产之日也不远了。
阿里
作为中国芯战队的号召者和主力军之一,阿里今年在ai和云端芯片领域的步伐走的很快。通过收购、成立新以及自主开发等多重模式,阿里如今也正以自己的切实行动来摆脱对国际芯片大厂英特尔等的过度依赖。
今年四月,阿里巴巴正式宣布收购杭州中天微系统有限,布局芯片领域。在收购中天微的前一天,阿里巴巴达摩院也披露了正在研发一款神经网络芯片ali-npu的消息,该芯片将运用于云端图像视频分析、机器学习等ai推理计算。性能是市面上主流cpu、gpu架构ai芯片的10倍,而制造成本和功耗仅为一半,性价比超过40倍。而今年9月,为进一步推进阿里芯片自主化的进程,阿里巴巴宣布将中天微和达摩院自研芯片业务进行整合,成为一家独立的芯片设计,马云赐名为平头哥,研发团队接近300人,推进阿里云端一体化的芯片布局。
小结
大客户们的集体背叛,对于极度依赖服务器业务增长的英特尔来说无疑是一场噩梦。因为正如研究idc的芯片分析师shanerau所说,全球约35%的服务器芯片销往这些大型云服务巨头,就算只有其中一家厂商改变其业务布局,对英特尔来说都是一个非常可怕的消息。因为这些中的每一家都是如此之大,它们本身就是一个市场。
而在这些大市场中日渐消瘦的英特尔,未来的业务发展前景令人堪忧,因为一方面,越来越多的大型和超大型客户拥有了自主研发定制化芯片的能力,虽然短期内难以对英特尔带来致命的影响,但这些客户从此具备了更多的议价能力,未来随着他们芯片的陆续量产,英特尔在服务器芯片的钱无疑是越来越不好赚;另一方面,如今也有amd、英伟达等越来越多竞争对手开始花大力气布局ai和云端计算芯片领域,英特尔在小份额上未来必定会遭到这些的围殴,分食一定的市场份额也是难以避免的事情。所以说如今的英特尔,可能不会再是过去的英特尔,如果不在关键领域做出抉择勇于转型和改变,未来必定会逐步沦陷。