许多科学家创建了所谓的“对抗”样本,以揭示一些图像识别软件的漏洞。目前,还没有一种快速且有效的方法能够修复这些图像识别系统。
在日本九州大学的一项研究中,Su Jiawei和他的团队对大量图片进行了细微调整,然后利用广泛使用的AI图像识别系统进行分析。这些系统主要基于深度神经网络,通常通过分析大量不同的图像样本来学习,从而实现准确识别物体的功能。
然而,研究发现,即使只是改变一个像素点,AI识别系统也会在74%的测试图片上出现误判。有些错误比较接近,例如将小猫误认为小狗,但有些错误却非常离谱,比如将隐形轰炸机误认为小狗……
这些日本研究人员开发了多种基于像素点的攻击方式,并发现所有最先进的图像识别系统都无法幸免于错误。Su Jiawei表示,目前没有哪一种算法或网络表现得更加稳定。
随着越来越多的识别系统采用神经网络,人们可以利用“对抗”样本攻击这些所谓的“智能”系统,这一点令人担忧。Facebook、亚马逊、谷歌等公司已经开始着手研究解决方案,这显然已经成为一个普遍存在的问题,而非个别情况。尽管已经提出了许多技术手段,但似乎还没有找到有效的解决办法。
Su Jiawei推测,“对抗”样本利用了神经网络在学习过程中的一些缺陷。就像大脑中的神经细胞一样,神经网络通过在多个节点之间建立连接来进行工作。通过不断分析,神经网络会做出许多决定来判断它所看到的内容,每个决定都会让它更接近正确的答案。但是,“对抗”样本位于这些决定之间的“边界”上,使得神经网络很容易做出错误的判断。通过细微的调整,“对抗”样本会使神经网络选择“边界”的另一侧,并最终对图像进行错误分类。
有一种看似有前景的方法是将“对抗”样本应用于早期的训练阶段,让神经网络能够识别它们,但这并不能完全解决所有问题。
此前,有一些算法已经能够对自然景观进行分类,并评估其“美观”程度。例如,林间小道、广阔的大海、青山绿水等往往得分较高,而道路、废墟、工厂等地则得分较低。这个系统对城市规划者决策的帮助很大,也许还能帮助我们更好地保护环境。
随着图像识别系统逐渐渗透到生活的各个领域,我们希望AI图像识别系统的问题能够尽快得到解决,并更好地服务于我们的社会。