Google近日发布了两款专门针对移动设备及AI运算架构Edge TPU优化的机器学习模型——MobileNetV3和MobileNetEdgeTPU。这两款模型采用了AutoML技术,旨在提升运算速度和效能。MobileNetV3相较于其前代MobileNetV2,运算速度提高了两倍,同时保持了相同的准确度。而MobileNetEdgeTPU则是专门为Edge TPU架构设计的,它在运算速度、准确度及功耗效率方面均优于其他同类模型。
为了实现兼具隐私保护、持续可用及响应式的人工智能功能,Google在移动设备上集成了硬件与算法支持。例如,在最新发布的Pixel 4手机中,就搭载了Pixel Neural Core,它是Google Edge TPU架构的一个实例,能够支持面部识别解锁、智能助手及特殊相机功能等多种应用。此外,算法也是机器学习应用中不可或缺的一部分。由于移动设备的计算能力有限,因此设备上的模型需要具备压缩和高效的特点。
Google最新推出的这两个设备端机器学习模型,在性能和功耗方面均有显著进步。MobileNetV3与以往由人工设计的MobileNet不同,Google利用AutoML技术为手机的计算机视觉任务寻找最合适的架构。为此,他们开发了大小两种模型,以适应不同的应用场景。小型模型在Pixel 4设备上的测试显示,当MobileNetV3达到65.4%的准确度时,其延迟仅为5毫秒,而MobileNetV2则需要10毫秒;对于大型模型而言,当MobileNetV3达到75%的准确度时,其延迟为20毫秒,这与MobileNetV2达到70%准确度时的延迟相同,但MobileNetV3的性能显然更优。
除了图像分类外,MobileNetV3还新增了目标检测功能。在COCO数据集上,MobileNetV3在相同准确度下的检测延迟比MobileNetV2减少了25%。
另一款发布的机器学习模型MobileNetEdgeTPU,则是专门为Pixel 4设备中的Edge TPU架构设计的。据Google介绍,Pixel 4设备中的Edge TPU架构与Coral系列产品中的Edge TPU板类似,但经过了特别调校以适应手机相机的需求。同样地,Google也使用了AutoML方法来优化MobileNetEdgeTPU模型。
MobileNetEdgeTPU在硬件Edge TPU上的表现尤为出色,不仅具有低延迟和高准确度,而且在相同准确度下消耗的功耗远低于简化版的MobileNetV3,甚至不到其一半。