OCP峰会:Facebook全面更新服务器

Facebook方面已经宣布全面更新服务器,服务器四种模型包括一款存储服务器,两款计算服务器和一款用于训练神经网络的专用设备。Facebook技术战略负责人,Vijay Rao将在圣克拉拉举办OCP(Open Computer Project)峰会(开源硬件小组从2011年开办)上分享新系列服务器的细节以便其它数据中心构建者可以进一步采用和开发。

20397_Vijay-FacebookFacebook技术战略负责人,Vijay Rao

在OCP峰会的主题演讲上,Rao表示:“开放硬件加速了自动化进程,使得所有人以软件的速度工作成为可能。”

四种服务器模型

Bryce Canyon存储服务器专用于包括照片和视频的高密度存储。它的处理器更强大,内存也更大,硬盘密度提升了20%,相比它的前身Honey Badger计算能力提高了4倍。

20378_Facebook-2017-Bryce-Canyon_2

而Facebook存储硬件系统工程师,Jason Adrian在一篇博文中表示,Bryce Canyon存储系统支持72个3.5英寸硬盘(12 Gb SAS/6 Gb SATA)。

这个系统可以作为单一72驱动器存储服务器,作为电源路径完全独立的双36驱动器存储服务器,或作为一个36/72驱动器JBOD进行配置。这种灵活性因为减少了未来需要支持的存储平台配置数量从而进一步简化了数据中心的操作。

Yosemite v2计算服务器适用于横向扩展数据中心。它的设计能让单个节点(sled)从机箱里取出以便维修组件,而无需服务器断电。此外,运行在v2上的HHVM软件还能够有效编译PHP且可用于开源。

20381_Facebook-2017-Yosemite-v2_2

Tioga Pass则是一款新型计算服务器,具有双插槽主板,与前身Leopard相比,闪存,网卡和GPU具有更多I/O带宽。它还允许分散闪存,所以一个Tioga Pass服务器可以在一个名为闪电的节里配置不同数量的闪存,有效地避免之前服务器模块的SKU限制。

20380_Facebook-2017-Tioga-Pass

Big Basin是一款训练神经网络的服务器——模拟了脑结构的机器学习系统,是Facebook和广达电脑合作设计,采用了8个NVIDIA Tesla P100 GPU加速器,通过NVIDIA NVLink技术形成类似NVIDIA深度学习超级电脑NVIDIA DGX-1的8 GPU hybrid cube。结合NVIDIA Deep Learning SDK(软件开发包),新的架构可以提升所有GPU的深度学习训练速度。

神经网络可以处理例如检查大量数据来识别图像的任务,相比前期使用的Big Sur提供了更大的内存和处理能力。

20376_Facebook-2017-Big-Basin_3

峰会上,Rao还播放了一个视频,视频中三个盲人妇女可以对Facebook上的图片作出反应,因为机器学习算法已经识别出图片的特征并进行了语言描述。

Facebook技术项目经理,Kevin Lee还补充称:“Big Basin的性能提升得益于每GPU单精度浮点运算从7 teraflops增加到了10.6 teraflops。之后半精度浮点运算也将引入这种新型架构,以进一步提高吞吐量。”