MIT团队打印的乌龟模型,Google AI怎么看都是把枪
作者头像
  • 罗红姿
  • 2017-11-15 14:48:39 3014
人工智能识“枪”不识“龟”

在人工智能技术日益发展的今天,其识别能力愈发精准,应用于人脸识别、自动驾驶、智能监控等领域,成为人类信赖的伙伴。然而,即便是如此先进的技术,也并非无所不能。近日,美国麻省理工学院的研究团队制造了一个独特的实验——一只乌龟模型,无论从哪个角度看,谷歌的人工智能系统都将它误认为是一把枪。

这种现象揭示了人工智能识别过程中存在的“盲点”。专家们将这类能够误导人工智能判断的图片称为“对抗性图像”,类似于人眼可能看到并不存在的幻觉。这些图像经过精心设计,即便对人类来说看似普通无奇,也能让AI系统陷入判断误区。

传统上,对抗性图像虽显神奇,但通常并不构成重大问题,因为只需变换角度或放大缩小,AI就能准确辨识物体。然而,MIT团队制造的乌龟模型,却能在多个角度下欺骗AI,使其难以正确识别。

为应对这一挑战,研究团队开发了一种算法,能够轻易在模型中加入误导元素,使得AI再也无法识别它们制作的道具。他们甚至创造了一个看似普通的棒球,但在AI眼中却变成了咖啡。

这项技术不仅限于3D模型,还能应用于2D图像。据《ITmedia》报道,该团队制造的3D模型成功误导AI的比例达到84%,而在2D图像中,这一比例更是高达94%。

Labsix团队使用了谷歌开发的图像分类AI“Inception-v3”进行测试,尽管尚未对所有识别软件进行评估,但《The Verger》指出,目前尚无软件专门针对这一漏洞进行修复。

谷歌对此回应称,尽管声称能从“任何角度”欺骗AI的团队说法有些夸张,实际上是在多数角度下有效。要误导AI,需要深入了解其视觉算法的弱点。对于商业自动驾驶系统的视觉系统,实现这种误导将面临较高的技术壁垒。

目前看来,对抗性图像对公共安全的影响几乎可以忽略不计,尽管其效果显著,但能够发挥作用的场景相对有限。此外,机器视觉技术的应用范围尚不广泛。然而,随着技术的不断进步,机器视觉的普及程度将大幅提升。如果不及时解决这一潜在隐患,未来可能引发更为严重的后果。

这提醒我们,随着人工智能技术的快速发展,我们需要持续关注并探讨如何防范和解决类似问题,以确保技术的进步始终服务于人类社会的安全与福祉。

    本文来源:人工智能学习网
责任编辑: : 罗红姿
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
乌龟模型团队打印怎么GoogleMIT
    下一篇