人工智能、机器学习及人脸交换技术武器化后的安全应战及应对措施
作者头像
  • 兴业计算机团队
  • 2019-10-17 06:51:37 5

【导读】 10月7日,美国《和平困境》杂志发表了一篇文章,探讨了人工智能(AI)、机器学习及人脸交换(Deepfake)技术的发展现状及其对美国安全带来的挑战,并提出了在新形势中美政府部门应采取的应对措施。

【风险】

人工智能、机器学习以及人脸交换等技术可能被恐怖组织、敌对国家的军队和情报机构利用,从而对美国的安全构成威胁。这些机构常常使用欺诈和勒索手段招募人员,而人脸交换技术则使这类操作变得更加容易实施。例如,三星公司的莫斯科人工智能实验室采用“生成对抗网络”(GAN)技术,仅需一张图片就能替换源视频中的图像,这一过程从原本需要成千上万张图片减少到只需十几张。研究人员利用这种算法技术,通过识别眼部、嘴巴和下巴等关键特征,实现逼真的图像叠加。然而,这种技术也可能导致被替换者的面部信息被其他国家的情报机构非法利用。

【美国政府应采取的措施】

① 借鉴以往经验,各部门协同合作应对新技术带来的挑战。面对人工智能、机器学习和人脸交换技术被用于军事领域的可能性,美国应协调多个政府部门、国家实验室及企业,确保信息共享,以便保持在机器学习领域的领先地位,有效应对新技术带来的挑战。

② 成立永久性的专项工作组。国防部应牵头成立一个永久性的专项工作组,成员包括网络安全、心理战和信息战等领域的专家。该小组有权在整个通信过程中进行溯源和反溯源影响测试。此外,该工作组还应加强与情报部门、国务院和其他相关部门的合作,确保信息的互通有无。

    本文来源:图灵汇
责任编辑: : 兴业计算机团队
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
武器化人脸应战人工智能应对交换机器措施安全学习
    下一篇