MIT团队打印的乌龟模型,Google AI怎么看都是把枪
作者头像
  • 蒋姝
  • 2017-11-15 14:48:39 3038
人工智能识“枪”不识“龟”

在人工智能技术日益发展的今天,其识别能力愈发精准,应用于人脸识别、自动驾驶、智能监控等领域,成为人类信赖的伙伴。然而,即便是如此先进的技术,也并非无所不能。近日,美国麻省理工学院的研究团队制造了一个独特的实验——一只乌龟模型,无论从哪个角度看,谷歌的人工智能系统都将它误认为是一把枪。

这种现象揭示了人工智能识别过程中存在的“盲点”。专家们将这类能够使AI判断出现偏差的图片称为“对抗式图像”,如同人眼可能被假象所迷惑,特定设计的图片能诱导AI做出错误判断。尽管人类几乎察觉不到这些图像的异常,但对于AI来说,乌龟变成枪的转变却清晰可见。

以往,对抗式图像的出现虽令人称奇,但并未构成重大威胁,因为通过放大、旋转等操作,AI通常能准确辨识物体。然而,MIT团队制造的乌龟模型却能在各种视角下完美地欺骗AI,这一现象引发了广泛关注。

该研究团队不仅展示了如何在模型中巧妙地加入误导元素,使得AI难以分辨,还创造出了一件让AI误以为是咖啡的棒球,进一步证明了技术的潜在风险。

这项技术并非局限于三维模型,同样适用于二维图像。据《ITmedia》报道,该团队制造的三维模型成功使AI误判的比例高达84%,而二维图像的成功率更是达到了惊人的94%。

Labsix团队指出,这意味着普通人眼中的寻常标志,如在街道上的行人,对于自动驾驶车辆来说可能突然变成危险的障碍物。随着神经网络的广泛应用,此类问题应引起重视。

在进行测试时,团队使用了Google开发的图像分类AI“Inception-v3”作为对象。尽管尚无针对其他识别软件的测试报告,但《The Verger》指出,目前市场上并无专门针对这一缺陷的修复措施。

虽然谷歌方面并未发表正式评论,但其发言人强调,团队声称能够从“任何角度”欺骗AI的说法并不准确,实际情况下,AI被误导的情况主要发生在多数角度而非所有角度。要误导AI,需要先接触视觉算法,找到其弱点。对于商业用途的视觉系统,如自动驾驶车辆的视觉系统,要达到这种程度的误导则存在较高的门槛。

当前阶段,对抗式图像对公共安全构成的风险极低,尽管其效果显著,但适用场景有限,且机器视觉技术的应用尚未广泛普及。然而,随着技术的不断进步,机器视觉的使用将会更加普遍,如果不及时解决这一隐忧,未来可能会面临更为严重的后果。


请注意,以上内容是对原文章的改写,旨在保留原文关键信息的同时,通过不同的表达方式和结构增强可读性和原创性。

    本文来源:人工智能学习网
责任编辑: : 蒋姝
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
乌龟模型团队打印怎么GoogleMIT
    下一篇