最不起眼的微处理器也能完成机器学习?
作者头像
  • 机器人之家
  • 2020-01-06 12:31:35 1

往年2月,谷歌、微软、高通、三星及六所高校的研究团队聚集在加州圣何塞,探讨如何将机器学习技术应用于网络边缘,特别是那些由传感器或电池驱动的小型设备。

这次会议被称为“微型机器学习峰会”,其目标是找到在最小的微处理器上运行机器学习算法的方法。边缘计算能够提升隐私保护,降低能耗,并在未来的设备中实现更多功能。

神经网络训练是机器学习的关键环节,需要大量数据才能完成。例如,训练出一个既能玩围棋又能响应语音指令的模型。许多公司正致力于开发专门的硬件,以在数据中心内训练网络。他们还希望在设备端利用这些硬件进行推理,以验证数据是否符合模型预测。

然而,“微型机器学习”(Tiny ML)的目标更为具体,即在最小的处理器上进行推理,比如为远程传感器供电的8位微控制器。尽管在智能手机等设备上,边缘计算已经取得显著进展,但Tiny ML关注的是更小的设备。

谷歌曾在2019年11月开源两个版本的机器学习算法,其中一个版本能耗降低50%,另一个则运行速度翻倍。此外,一些初创公司如Flex Logix、Greenwaves和Syntiant也推出了专用芯片来解决类似问题。

但Tiny ML有着不同的愿景。例如,如果能在助听器上运行机器学习模型,将对话与背景噪音分离,这不仅更高效,也更安全。研究人员还在探索如何在电池驱动的边缘设备上使用机器学习进行更有效的数据分类。

Latent AI公司的CEO Jags Kandasamy提到,他们正在与开发增强现实和虚拟现实耳机的公司合作。该公司开发了一种适用于微型处理器的神经网络压缩软件。这些公司希望通过耳机收集的图像数据,在本地对图像进行分类,从而减少传输到云端的数据量,节约带宽和能源。

虽然机器学习通常需要大量数据,但在设备端进行数据分类可以减少上传至云端的数据量,从而节省资源。因此,即使数据量较小,也能实现高效的应用。

尽管许多人认为数据越多越好,但我对将机器学习应用于边缘设备的潜力充满期待。尽管目前Tiny ML仍主要集中在推理阶段,未来或许能进一步实现在边缘设备上训练网络。

    本文来源:图灵汇
责任编辑: : 机器人之家
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
微处理器不起眼机器完成学习
    下一篇