浪潮助力“讯飞超脑计划” 让机器“听懂世界”

吕克·贝松执导的《超体》,让人们再一次将目光投向大脑开发。而对于众多从事人工智能研究的工程师们来说,让机器“超体”则是梦寐以求的目标。在人工智能领域,智能语音识别被众多专家认为是未来10年间信息技术领域十大重点发展技术之一,而一项由科大讯飞主导的“讯飞超脑计划”正在致力于将这一梦想变成现实。

无解?人脑能耗比=天河2号的200万倍

智能语音目前主要依靠深度学习的技术实现,作为机器学习的一个重要分支,深度学习在于建立、模拟人脑进行分析学习的神经网络,使得机器能从大量历史数据中学习规律,从而对新的样本做智能识别或对未来做预测,以达到具有人类一样的思考能力。目前,Facebook、Google、IBM、苹果、微软、百度、科大讯飞等均在此方面做了多种尝试。

深度学习技术有很多支撑的计算机算法,而目前最常用的是DNN算法(k近邻分类算法),它能比较好地模拟人脑神经元多层深度传递的过程,解决智能语音中的复杂问题。然而,要模拟人脑绝非易事,人脑的计算能耗比是世界上最快的超级计算机天河2号的200万倍,据了解,人类大脑大致有1000亿神经元,每个神经元有大约5000个神经突触。要使机器无限接近人类的思考能力意味着要模拟出更多的神经元和神经突触,这就会带来巨大的计算挑战。

挑战!模拟1/10人脑神经元

对于神经学领域的工程师们来说,他们所面临的最终挑战就是在提供更好配置性和规模的同时,实现类似于人脑一般的超高能耗比。

在现阶段,即使世界IT巨头都无法彻底解决上述难题,不过科大讯飞却宣布要实现基于类人神经网络的认知智能引擎,预期成果是实现世界上第一个中文认知智能计算引擎。

目前,科大讯飞已经集结了在认知智能领域最强研究团队,将在知识图谱构建与推理、人工神经网络模拟、人脑原理分析模拟几个方向展开研究。

为了抢占国内智能语音市场先机,科大讯飞计划将模拟人脑神经元的1/10,以期让该公司的智能语音设备拥有初步的人类思考能力。

破题!算法优化+高效集群

要实现人脑神经元的1/10的深度模拟,意味着科大讯飞面临着数千倍训练数据及数千倍模型参数的巨大挑战,迫切需求更大规模、更多存储的超算平台集群建设、更优的深度学习并行化及集群调度算法和深度定制的人工神经网络专属芯片系统。

面对这些棘手的问题,该采用何种方式有效解决?首先是算法上优化,科大讯飞将整个DNN环节进行优化压缩,只保留部分核心等流程,整个架构循环由优化了40%,大幅度的增加了运算速度与效率。

在算法调整完以后面临的就是基础设施的建设,如何设计一套占地面积小、计算性能高、又绿色节能的高性能计算集群成为科大讯飞面临的下一个难题。浪潮曾参与研制天河1A、天河2号超级计算机具备非常丰富和领先的系统构建能力,并且拥有一支上百人的应用专家团队,对高性能计算的专业应用也十分了解,因此浪潮成为科大讯飞的选择的厂商之一。

浪潮!伙伴的力量

针对该公司面临的问题,双方联合设计了针对DNN算法特点的GPU集群并行计算框架,通过GPU提高计算能力、通过IB网络提速节点之间的通信速度,最终完成GPU集群版的DNN并行算法,大幅减低了DNN的计算时间。

除了为科大讯飞构建高性能集群系统,浪潮还特别在软件方面与该公司算法专家团队共同成立专门联合项目组,节点内使用CPU+GPU协同计算,大幅降低了计算时间。双方联合针对GPU架构进行了算法层面的优化,重写了计算部分代码,将整体速度大幅提升。

解决了算法和平台的问题,浪潮成功帮助科大讯飞有效提升了语音识别的正确率。浪潮-英特尔中国并行计算联合实验室首席工程师张清介绍:“浪潮已经分别与英特尔和英伟达成立联合并行计算实验室,合作开发优化基于MIC和GPU的并行应用。目前已经建立了一套非常完善的高性能计算集群解决方案,将不仅为用户提供好用的高性能计算集群,还会针对每一个用户的应用特点量身定制集群解决方案,这也就说明未来浪潮将跟用户在应用测试、集群搭建、加速优化等各方面展开合作,把用户的需求看作是浪潮设计构建集群的根本要求。”而这些联合实验室的成果对于支持科大讯飞人工智能超算应用需求起到了关键性的作用。