在过去十年中,机器学习的进步主要得益于两个方面的提升:计算能力的增强和算法的优化。尽管大多数人认为这两个领域相对独立,但实际上,硬件限制可以并且确实影响着算法的设计,反之亦然。现在,越来越多的专业人士致力于将计算和建模结合起来进行优化。
今天我们邀请到了机器学习应用中的硬件与软件整合领域的顶尖专家之一——Max Welling。他曾是一位物理学家,目前在高通公司担任技术副总裁,并且还是加州大学尔湾分校、CIFAR和阿姆斯特丹大学的机器学习研究员。Max分享了许多关于机器学习研究现状及其未来发展方向的观点,以下是其中一些精彩的内容:
首先,计算过程需要消耗大量能量,这会导致手机电池迅速耗尽。因此,机器学习工程师和芯片制造商需要找到有效的方法来降低运行深度学习算法的成本。一种常用的方法是压缩神经网络,或者识别那些在不影响性能的情况下可以移除的部分。另一种策略是减少每个网络参数所需的位数,有时甚至减少到只有几位。这些方法常常被结合使用,并且相互之间有着密切的联系。
其次,目前的机器学习模型通常只针对特定的任务进行了训练,如图像分类或语言翻译,如果将其应用于这些任务之外的场景,效果可能会大打折扣。例如,一个专门用于识别肤色较深人群面部表情的计算机视觉模型,在面对肤色较浅的人群时可能表现不佳。虽然生活经验告诉我们,肤色不应影响面部特征的解释,但这种显著的差异足以使当前最先进的算法失效。
最后,真正需要解决的问题是如何让机器学习算法具备泛化能力,而这正是人类至今仍然优于机器的地方。那么,我们该如何训练机器学习算法进行有效的泛化呢?Max认为,这与人类的学习方式有关:与机器不同,人类的大脑似乎更擅长学习物理原理,比如“当我把一个物体抛向另一个物体时,它们会相互碰撞”。这种思维方式与物体间的互动有关。相比之下,机器则倾向于根据特定任务的模式进行学习,而非抽象出普遍的规则或原理。
因此,Max认为机器学习未来最有前景的发展方向将是学习逻辑和物理定律,而不是仅仅关注这些定律的具体应用。