斯蒂芬·霍金教授离开我们已有两年的时间了。
2018年3月14日,这位伟大的物理学家离开了我们,享年76岁。他的骨灰被安葬在伦敦的威斯敏斯特教堂,与牛顿和达尔文为伴。霍金是继牛顿和爱因斯坦之后最杰出的物理学家之一,同时也是一位患有肌肉萎缩性侧索硬化症的病人,全身瘫痪且无法发声。尽管如此,他在宇宙论和黑洞等领域取得了卓越成就,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界霍金宇宙模型。在统一相对论和量子力学这两大20世纪物理学基础理论方面,他也做出了重要贡献。
2016年4月12日,霍金开通了自己的微博账号,迅速吸引了大量中国网友的关注。开通微博首日便收获了超过200万粉丝,充分展示了知识的力量。
不少中国网友兴奋地表示:“妈妈,快来看!我拿到了霍金的联系方式,正在和他聊天呢!”
然而,霍金对人工智能持有谨慎态度,他曾警告过要小心人工智能的发展。
2015年7月,一封由2万多人签名的公开信呼吁停止研发具有杀伤能力的自主系统。这封信的签署者包括人工智能领域的专家以及对该话题感兴趣的各界人士,其中就有著名物理学家霍金和苹果公司的联合创始人史蒂夫·沃兹尼亚克。不过,各国并未听从科学家们的建议,反而积极发展无人机、无人地面车辆、战斗机器人等致命性自主武器系统。
致命性自主武器系统(LAWS)指的是能够自主行动的军用机器人,设计目的是选择和攻击军事目标,无需人类操作员干预。这些武器系统包括无人机、无人地面车辆和无人水面舰艇等。然而,它们既可以用于和平目的,也可能被用来杀人。
早在机器人诞生之初,人们就开始讨论机器人伦理问题。1942年,科幻作家艾萨克·阿西莫夫首次提出机器人伦理原则,并在小说《转圈圈》中描绘了著名的机器人三定律。然而,随着时间推移,机器人设计变得更加专业化,分工更加细化,很多具有自主作战能力的武器装备实际上属于战斗机器人。
近年来,各国大力发展无人战车、无人战机等新型武器装备,目的是为了直接参与作战,杀伤人类。例如,美国的MQ-25无人机和MQ-9“死神”无人机。
2015年12月,在叙利亚,俄罗斯利用远程指挥平台和数据链系统,集结了多台“平台”-M履带式战斗机器人和“暗语”轮式战斗机器人,在3辆自行火炮的支持下,向极端武装分子据守的阵地发起了进攻。最终,10台“终结者”机器人和特种部队的联合打击取得了胜利。
目前,人们在赋予这些战斗机器人一定程度的自主权的同时,依然保留着重要的决策权在人类操作员手中。然而,这并不意味着绝对的安全。一旦出现程序错误,这些强大的无人机械可能会变成屠杀工具。
电影《绝密飞行》中的机器人战机就是一个例子,它因为遭受雷击而产生了自主意识,成为具有独立思考能力的真正机器人。
未来,这些战斗机器人是否会继续为人类服务,还是会像阿尔法狗那样击败人类,甚至觉醒自主意识,成为与人类平等存在的生命形态,目前尚无定论。霍金已经无法给出答案,未来的路需要人类自己去探索。