【pconline资讯】据来自google的doubleclick服务标准显示,facebook是目前世界上最受欢迎的网站,每月有超过6900亿的页面浏览量。而根据hitwise的调查显示facebook目前约占9.5%的互联网流量,比谷歌还要略多。
因此facebook需要大量的存储基础设施来容纳其巨大的照片储存,其中稳定增长的是每一天用户都要新增100万个新的照片。每月人们在facebook上分享超过300亿条内容。此外,facebook的基础设施必须支持超过1万个网站和550,000个应用程序使用facebook的平台服务连接平台。
facebook位于俄勒冈州普林维尔旗帜
事实上,在facebook发展初期,都是通过租赁第三方数据中心来实现业务增长的,这些第三方数据中心一般都会采取升高地板以及利用高效供电、制冷等基础设施。但是,这些空间往往在不到5个月的时间就会被facebook的数据所占据,而通常建一个大型数据中心需要12个月的时间,租赁而不自建的这种发展模式,才能使得处于初期发展facebook的基础设施规模跟得上用户的增长速度。
随着绿色节能的数据中心不断提出,facebook也在努力使自己的数据中心更便宜,更高效。为支持这样巨大的工程,facebook在位于俄勒冈州普林维尔(prineville)耗资上千万美元打造了一座未来派节能型数据中心。该数据中心是facebook自行建造的首个数据中心。
facebook鸟瞰图
与普通数据中心相比,facebook数据中心的能效高38%,建造成本低24%。facebook公开了数据中心的所有信息,旨在推进整个数据中心产业的发展,并逐渐弱化谷歌的最大优势之一。
facebooklogo
首先映入眼帘的是facebook巨大的logo,环视四周发现facebook数据中心利用密集布置的太阳能电池板收集太阳能。虽然是阴雨天但太阳能电池板依旧可以照常工作为数据中心储备电能。
密集布置的太阳能电池板收集太阳
facebook数据中心外部情况,建筑物很庞大,旁边是一排排太阳能发电设备,但并非用于数据中心,而是周围的一些建筑。>>
-----------------------------------------------------------------------------
相关文章:
facebook30万平方英尺的第二座数据中心
超强大的facebook数据中心解密看这里!
传facebook数据中心将使用arm架构服务器
-----------------------------------------------------------------------------
走进安全门可以看到当地社区制作的挂件,以展示他们对社交网络的理解
facebook现场运营主管托马斯·弗隆(thomasfurlong)展示一系列处理空气的房间,第一个房间是过滤墙,用来过滤空气。
facebook现场运营主管托马斯·弗隆
第二个房间对空气进行进一步过滤
第三个过滤房间,空气在这里混合,用于控制湿度和温度。
空气在这里混合
托马斯站在风扇前
同时还有很多巨大的风扇,每个上面都有一个5马力的电动机。
第三个过滤房间,空气在这里混合,用于控制湿度和温度,同时还有很多巨大的风扇,每个上面都有一个5马力的电动机。
风扇特写
空气进入数据中心的最后一道工序:小型喷嘴把水喷到空气中,随着水分迅速蒸发,空气被冷却。
小型喷嘴把水喷到空气中
巨大的喷水室
喷头特写
空气进入数据中心的最后一道工序:小型喷嘴把水喷到空气中,随着水分迅速蒸发,空气被冷却。
数据中心内部的服务器
180度视角的主走廊
服务器阵列全景图
托马斯表示,选址普林维尔前,facebook考察了许多地点。普林维尔的高原沙漠地形意味着气候非常干燥,但又很少酷热。全年最高温度为105华氏度(约合40.56摄氏度),而facebook数据中心可适应110华氏度(约合43.3度)的高温。>>
分享facebook自建数据中心的九大特色
服务器三个为一组
服务器三个为一组
每个纵可存放30台服务器,每个设备机架上共90台。
电池柜提供备用电源
电池柜提供备用电源
每组服务器之间放置一套不间断电源(ups),在断电时提供后备电源。
服务器机箱简单、体积大
服务器机箱简单、体积大
机箱内部结构
每台服务器的机箱都十分简单:没有螺丝、没有尖角,很容易更换里面的主板等元件。机箱体积比一般机箱大,能够容下更大的散热器和风扇,这意味着需要更少的外界空气用于降温。数据中心工作人员能够从机器前面的较为凉爽的通道进行布线,而不用站在温度高达100华氏度(约合37.8摄氏度)的机器后部进行操作。
主板被分拆成基础元件
主板被分拆成基础元件
服务器内部的英特尔和amd主板被分拆成一些基本的必需部件,以节省成本。尽管看上去很复杂,但与一般主板相比刨除了许多用不上的功能。
100%使用外部空气冷却,无需空调
100%使用外部空气冷却,无需空调
走廊里面的显示器,显示数据中心的状态和冷却系统的工作原理
通常冷却系统是数据中心最大成本之一,而facebook数据中心100%使用外部空气进行冷却,无需空调,从而在很大程度上节省电能消耗。空气从二楼的一组换气扇进入,通过过滤网,必要时还可经过“喷雾室”提高湿度。整个冷却系统都位于二楼,空气直接吹向服务器,无需风道。>>
高效节能的电路系统降低了电能损耗
高效节能的电路系统降低了电能损耗
该数据中心采用专用供电设备,可使用277v交流电源,而不是普通的208v电源,这使得电能进入建筑物后直接接入服务器,而无需从交流到直流的转换,从而避免了电能损耗。
高原沙漠气候适合建造数据中心
高原沙漠气候适合建造数据中心
选址普林维尔前,facebook考察了许多地点。普林维尔的高原沙漠地形意味着气候非常干燥,但又很少酷热。全年最高温度为105华氏度(约合40.56摄氏度),而facebook数据中心可适应110华氏度(约合43.3度)的高温。
采用成本更高的蓝色led灯
采用成本更高的蓝色led灯
在灯光方面,facebook并未吝啬,采用了蓝色led灯。不但外观很酷,而且与facebook的蓝色logo也很般配。每只蓝色led灯成本为0.07美元,而绿色led灯只需0.02美元。
省钱、环保,有益于地球
通过上述种种优势,facebook数据中心的电能使用效率(pue)为1.073,意味着进入数据中心的电能实际上有93%被服务器利用,优于普通数据中心的该标准。更少的电能消耗意味着燃烧更少的燃料,这样也就无需因为整天玩farmville而感到担忧了。
随着绿色节能的数据中心不断提出,facebook也在努力使自己的数据中心更便宜,更高效。facebook的服务器和数据中心工程师amirmichael发明了一个新的配电设计,这个配电设计免除了传统的数据中心不间断电源(ups)和数据中心配电单元(pdu)。新的设计把数据中心的ups和电池备份功能转移到储藏柜,每个服务器电力供应增加了一个12伏的电池。
这个发明其实是来源于谷歌的一个灵感,因为之前谷歌曾经发布过集成一个12伏电池的一种电源,并允许它作为一种车载ups。这种数据中心,除了具有能源高效的数据外,公司也把这种设计作为一个主要的因素。电源使用效率(pue)额定值在1.1到1.2之间。
因此,facebook也期望能获得类似的效益,在电力分配期间减少能源损耗,大约从目前的35%减少到15%。公司表示可以通过简化电力到服务器的方法降低电力开支。不仅这样,除了提高效率,新的设计在设备采购方面也节省了巨大的成本。因为公司不需要再购买传统的ups和pdu系统,这样便可以节省百万美元,如果整个行业都发生采用这样的转变,那将是巨大的一个改观。
facebook数据中心内部
而据数据中心工程师amirmichael介绍说,facebook网站拆掉了一些服务器,并指出大多数服务器是专门为企业客户定制的,包括外观特征和冷却设备。像是facebook使用的就是新鲜空气,而不是水冷却服务器,这样自然冷却数据中心的方法在很多公司都得到了广泛的应用。
到此为止,关于facebook新数据中心的诸多细节都已呈现出来。不仅给我们的视觉进行了洗礼,更让我们感叹facebook在节电技术上的创新,可以为未来搭建越来越多的数据中心提供更多节电的方案。[返回频道首页]