揭秘语音识别背后的技术,GPU集群+DNN算法
作者头像
  • 秋源俊二
  • 2018-08-19 22:23:43 0

2014年9月26日,浪潮在北京举办了2014高性能计算用户大会。从天河一号A夺魁全球,到天河二号连续三次位居全球超级计算机500强榜首,高性能计算在中国的发展势头迅猛。除了科研领域,高性能计算在金融、互联网、工业设计、文化创意等行业中的应用也越来越广泛,与云计算、大数据的融合趋势愈发明显,成为推动全球信息产业发展的关键力量。

当前,“智能”和“连接”已成为互联网领域的关键词,语音控制技术也日益受到关注。目前,包括Facebook、Google、IBM、苹果、微软、百度、科大讯飞在内的多家公司都在积极探索语音控制技术。

智能语音技术主要依赖深度学习实现。深度学习是一种机器学习的重要分支,通过建立和模拟人脑神经网络,使机器能够从大量历史数据中学习规律,进行智能识别和预测,从而具备类似人类的思考能力。

在本次高性能计算大会上,CSDN采访了科大讯飞高级副总裁胡郁与浪潮Inspur-Intel中国并行计算联合实验室首席工程师张清。他们深入探讨了深度学习模拟人类大脑的方法,以及如何通过GPU集群提升算法效率。

胡郁指出,超算平台在人工智能项目中扮演着关键角色。首先,深度学习技术正在颠覆传统的统计模式识别和机器学习领域,相关人才需求激增;其次,大数据与深度学习的结合在语音识别和图像识别等方面发挥重要作用;最后,超算平台提供了海量数据处理、存储和高性能运算解决方案,是人工智能的基础。

科大讯飞专注于智能语音及语音技术的研究、开发和应用,致力于实现人机语音交互的自然化。尽管他们的技术已取得显著进展,但仍面临诸多挑战,如噪音、口音和个性化问题,需要不断改进。

为了深入了解深度学习计算平台,需要从其算法和架构入手。深度学习技术依托多种计算机算法,其中DNN算法较为常用,可以较好地模拟人脑神经元多层深度传递的过程。然而,要模拟人脑的复杂性并非易事,需要巨大的计算资源。

科大讯飞在训练数据和模型参数方面面临巨大挑战,急需更大规模、更高存储能力的超算平台集群。为此,浪潮为其设计了一套GPU集群,通过优化DNN算法,提升了计算速度和效率。

在基础设施建设方面,浪潮与科大讯飞共同设计了一套占地少、计算性能高且节能的高性能计算集群。该集群采用双路CPU和4块NVIDIA Tesla K20m GPU的配置,通过GPU加速技术和IB网络提升计算能力及节点间通信速度,大幅缩短了DNN计算时间。

在软件优化方面,浪潮与科大讯飞合作,通过CPU+GPU协同计算,进一步提高了计算速度。优化后的软件在单GPU上的运行速度比串行程序快41倍,相当于4.4个8核CPU并行的性能。此外,浪潮GPU版本K-means具有良好的性能可扩展性,适合大规模部署。

科大讯飞的基础设施包括2000颗CPU、300片GPU、4PB的存储和40TB的内存。张清表示,浪潮已与英特尔和英伟达合作,成立了联合并行计算实验室,开发优化基于MIC和GPU的并行应用。他们提供的高性能计算集群解决方案不仅能满足用户的实际需求,还能根据应用特点进行定制。

科大讯飞通过算法和平台的优化,成功将语音识别的正确率提升至95%。胡郁表示,他们正在实施“讯飞超脑”计划,旨在推动人工智能发展。他将人工智能分为三个阶段:计算智能、感知智能和认知智能。目前面临的挑战包括神经网络复杂度、神经元数量以及机器自主学习能力等。

胡郁总结了“讯飞超脑”的未来研究方向:设计更贴近人脑认知机理的人工神经网络,实现与人脑神经元复杂度相当的超大人工神经网络,并构建基于连续语义空间的知识推理和学习智能引擎。

    本文来源:图灵汇
责任编辑: : 秋源俊二
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
集群算法揭秘语音识别背后技术GPUDNN
    下一篇