我们甚至不知道他的名字。2020年3月,在利比亚内战的战场上,一名士兵在完全自主的模式下遭遇了一架土耳其制造的自杀式无人机的攻击。这一事件震惊了国际社会,首次将机器人杀手的真实面貌展现在世人面前。
这名士兵的命运无人知晓,但他却无意中成为了见证机器人杀手首次亮相的目击者。《新科学家》杂志将其描述为历史上首例明确记录在案的“机器自主杀人事件”。
这份由联合国安理会利比亚问题专家小组发布的长达548页的报告,直至最近才因为上述细节引起广泛关注。去年3月,利比亚民族团结政府在土耳其、美国和英国的支持下,与由埃及、法国和俄罗斯支持的哈夫塔尔将军领导的“国民军”展开激战。
根据报告,一名“国民军”士兵在试图撤退时,遭到了一架名为“卡古”2型的四旋翼无人机的攻击。这架无人机由土耳其STM公司生产,配备了炸药,能够实施自杀式攻击。然而,这起事件的不同之处在于,这次攻击是由无人机自主作出的决定,而不是像以往那样由远程操控。
“卡古”2型无人机采用了人工智能的“深度学习”技术,能够自主识别和分类攻击目标,甚至能够在20架无人机协同作战的情况下,共同攻击同一个目标。尽管这项技术在理论上是可行的,但它的实际应用引发了广泛的争议。
许多人可能还记得2017年柯洁与“阿尔法狗”的围棋对决。柯洁作为当时世界排名第一的围棋天才,以0:3的比分败给了人工智能。这不仅展示了人工智能在围棋领域的强大能力,也预示着未来人工智能可能在更多领域取代人类。
具有自主攻击能力的无人机同样依赖人工智能技术,但它们的学习目标是杀人而非下棋。现有的“深度学习”技术尚不稳定,尤其是在图像识别方面。尽管人工智能在图像识别方面的表现有所提升,但其准确性仍有待提高。因此,土耳其制造的无人机是否能够准确区分士兵和平民、装甲车和客车,仍是一个疑问。
有人认为,随着技术进步,图像识别问题将得到解决。然而,杀戮也是一种技能,如果人工智能在图像识别方面取得进展,那些追求利润的军火商很可能也会推动其在杀戮方面的应用。
实际上,联合国的报告提出了一个核心问题:人类能否阻止或延缓自主杀人机器的发展?科学界对此并不乐观。美国国家恐怖主义与反恐对策研究联合会的研究员扎克·卡伦伯恩指出,这些机器给人类带来的威胁不亚于传统的杀伤性武器。
与核武器相比,无人机技术更新迅速,且缺乏有效的国际管控机制。一旦恐怖组织掌握了相关技术,其潜在的危害难以估量。
更为严重的是,目前国际社会的竞争态势使得人工智能技术成为各国争夺的重点。例如,美国和中国都在积极探索人工智能在军事上的应用。据报道,美国密苏里大学团队设计的人工智能系统已经具备了相当的军事能力。在中国,人工智能系统在短短45分钟内就能识别出90个防空导弹阵地,而人类专家则需要60小时以上的时间。
面对外界的担忧,美国军方声称不会让人工智能参与最终决策。然而,实际情况是,在战场上,效率和准确率并重的人工智能在辅助决策中具有不可替代的价值。因此,五角大楼投入大量资金研发人工智能并非只是为了慈善事业。
过去,包括埃隆·马斯克在内的许多人工智能研究人员以及著名科学家如史蒂芬·霍金都呼吁全球禁止开发“自主攻击性武器”。然而,许多国家却在阻碍相关国际管控机制的建立。对此,英国智库皇家联合军种研究所的杰克·沃特林表示:“技术不等人。”
自主杀人机器的出现引发了广泛的关注和争议。尽管科学家们对于控制这类技术持悲观态度,但国际社会仍然需要共同努力,以防止这些危险的技术落入错误之手。