分享过上海交大对于高性能计算领域“真实应用工作负载”这一关键词的体会后,本期《IT号外》的案例分享将进入高性能计算部分的最后一篇,也将回到石油行业,来谈谈“能效”话题。
所谓能效,最简单的解释就是性能功耗比,这是一个很“经济化”的词汇,衡量的实际上就是一种投入产出比。对任何用户来说,要做的都应该是要加大分子并减小分母,只有这样做才有最好的效益,可现实是,在高性能计算领域,要想在获得更高性能的同时减少在功耗上的付出,可是一个让无数厂商和用户都耗尽了脑汁的事。
导致这个问题的根本原因,就在于高性能计算的性能动力核心——处理器平台并非是单纯为高性能计算的应用而设计和优化的。众所周知,高性能计算系统采用的处理器一般也都是指微处理器或中央处理器,即CPU,它的设计思想和我们使用的PC上的处理器其实并没有太多区别,都是要有足够的能力去承担多样化的计算任务,而这就决定了它在功能设计上必须是平衡的、通用的,必须是要兼顾多种应用的,即使是对某些应用有所偏重或优化,也是有限的。可高性能计算走到今天,其应用对于大规模并行处理的需求已经越来越高,用通用的处理器来运行这种应用,就难免会造成消耗了足够的电能后,性能提升幅度依然有限的局面。
面对这个难题,高性能计算领域的厂商和用户采用了双管齐下的策略,即优化与创新,优化指的是进一步在现有产品技术的基础上优化其能效表现。在这个方面,厂商所做的多是要优化自己产品的能效,其中最重要的就是优化它们执行高度并行计算任务时的性能,例如英特尔公司就在最新的处理器微架构Sandy Bridge中增添了对AVX(高级矢量扩展指令集)的支持,可以更高的效率运行浮点运算密集型的应用,进一步提升高性能计算的性能表现。
用户所做的优化工作,而是从优化服务器的应用和管理出发,例如中国本土地震勘探处理系统软件GeoEast的开发者、中国石油重要的油气勘探机构——东方地球物理勘探有限责任公司研究院就是这样做的——“一是从产品上选择低功耗、高能效的一些产品;二是及时地淘汰落后、高功耗的产品;三是技术改造,利用软件开发做节能软件,让机器不工作时进入休眠状态;四是采用数字化技术,数字化的监控,在可见的时间内,让不用的机器要及时关机,”该研究院处理中心的总工程师赖能和说:“通过这些措施,我们每年能节省电费大约近200万元。”
通过设备管理和优化节省200万,对于一家每年在石油勘探高性能计算上支出2000多万电费的机构来说已经是非常可观的成绩,但对于冲刺百亿亿次性能还是远远不够的,这还需要创新,即开发能将每一分功耗都用于处理高度并行计算任务的IT产品。“大家都盼望着像英特尔这样的IT领导厂商能够尽快地推出相应的产品,就是大核、就是它的集成众核,”赖能和如是说。
其实,客观地说,早在英特尔之前,针对高性能计算领域的这类需求,已经有一些厂商开发出了类似的产品,就是大家熟悉的GPGPU,这类产品也获得了一部分用户的采用,并在推动中国高性能计算系统性能和能效提升方面做出了一些实实在在的成绩,但这些产品的问题在于:它们需要用户修改甚至重新编写自己的应用程序。“CPU和GPU各自要用一种语言来写软件,一套软件系统要从CPU移植到GPU需要很长的时间,而且也需要有专门的队伍来做这个事情,即使如此也存在很多风险,”赖能和表示:“而英特尔的集成众核就没有这样的问题,它可以和现有的高性能计算程序实现很好的兼容性,正是因为这个原因,大家才对它期望很高。”
既能输出很高的性能来专门支持高度并行的计算任务,又拥有对用户既有应用软件的兼容性,或者说是能保护用户在软件上的投资,这就是英特尔集成众核的优势所在,而这一优势已经在部分客户的测试中获得了验证。来自欧洲的德国尤利西研究中心、莱布尼茨超级计算中心、欧洲原子能机构和韩国的科学技术信息研究所就在今年6月的国际超级计算大会上演示了一些测试结果,其中莱布尼茨超级计算中心仅用几个小时就将原来为至强平台开发的软件进行了成功的优化,在配备双路至强处理器和单块基于集成众核的协处理器卡的软件开发平台上实现了超过每秒6500亿次浮点运算的性能。
另一个好消息也会增强高性能计算用户们对于集成众核的信心,那就是美国德克萨斯高级计算中心和德克萨斯大学已宣布将用即将发布的英特尔至强E5处理器及集成众核协处理器来构建性能高达每秒10千万亿次浮点运算的高性能计算系统。这个系统80%的性能都将来源于集成众核协处理器,而仅仅是这部分性能,就已经相当于今年6月全球最强高性能计算机——日本“K Computer”的整体性能。
由此来看,英特尔集成众核成为高性能计算冲向百亿亿次时代的得力助手的计划,正在一步步从理想走向现实,如果一切顺利,未来数年内高性能计算领域就将为社会贡献出更多极具价值的成果。相比之下,云计算这一旨在充分利用计算资源支持企业和行业发展的领域中,面临的问题可能更加复杂和多样化,因此我们从下一篇文章起,就将把话题转向云计算领域的挑战与实践,敬请关注!