AI学术圈近期掀起了一场激烈的讨论,主要围绕着深度学习的定义和应用展开。图灵奖得主、机器学习领域的先驱Yann LeCun等人纷纷参与其中,引发了一系列观点碰撞。
讨论的起源是一个关于深度学习本质的问题。Yann LeCun对深度学习进行了清晰的界定,认为深度学习是一种利用参数化功能模块构建网络,并采用基于梯度的优化方法进行样本训练的方法。他进一步指出,深度学习的具体形式包括动态网络、可微编程和图神经网络等,可以根据数据的变化灵活调整网络结构。
然而,这种界定引发了其他专家的争议。比如,知名AI学者Gary Marcus就质疑,如果不能明确讨论一种方法的优点和局限,那这种方法的意义何在?他认为,推崇深度学习的人为了避免批评,常常回避具体且可验证的主张,这可能带来潜在的风险。
机器学习领域的另一位奠基人Thomas G. Dietterich也加入了讨论,他表示深度学习本质上是一种研究路径,而非单一的方法。他强调,深度学习的目标在于推动智能系统的发展,而不是仅仅在理论层面争论。
与此同时,Keras的创始人François Chollet提出了另一种观点,他认为目前对深度学习的定义更多描述了“如何进行”而不是“它是什么”。Chollet认为,深度学习并不是所有智能系统的基础,而只是其中很小的一部分。他还指出,深度学习并不限定特定的学习机制或应用场景,关键在于能否通过一系列特征提取过程实现表征学习。
这场讨论不仅限于学术圈内,也吸引了许多吃瓜群众的关注。许多人表示不解,甚至感到困惑,不知道为何这样一个看似简单的问题会引起如此激烈的争论。
总体来看,这场围绕深度学习的讨论展示了学术界对于这一技术的不同理解和看法,同时也反映了深度学习在实际应用中的复杂性和多样性。