如何让机器人更好地服务人类:机器伦理学的重要性
若要探讨如何确保机器人不会“失控”,首先需要明确一系列清晰明了的机器人规则,并严格遵守这些规定。这些规则类似于人类的基本生存法则,例如我们需要水和食物来维持生命,也会面临死亡。同样地,这些规则应该是不可违背的。然而,历史告诉我们,人类总是试图改变自己的基本法则,不论是寻找长生不老的秘方,还是修炼辟谷。这与机器人伦理学的核心问题相似,即如何设定并维护机器人的基本规则。
在设定基本规则的基础上,我们应允许机器人在一定程度上自由解释其他命令,否则就失去了智能存在的意义。正如人类拥有不同的世界观,但基本道德准则大致相同,这样才使得生活更加丰富多彩。
在这种理想状态下,即使机器人具备了思想,只要我们能够坚守基本的机器人规则,就能避免意外的发生。就像在人类社会中,尽管有人可能会企图利用核武器毁灭世界,但最终他们仍会受到自然法则的制约,如被刺杀、饥饿或疾病。
机器伦理学是什么?
机器伦理学探讨了在设计机器人时需要考虑的伦理问题,以及在使用机器人时应当秉持的态度。它还涵盖了机器人与人类及整个世界的互动过程中可能遇到的各种伦理问题。
2006年在意大利举办的机器人伦理学研讨会和发布的《欧元机器人伦理路线图》(Euron Roboethics Roadmap)被认为是该领域的里程碑事件。该报告不仅引起了公众对机器人伦理学的关注,还讨论了许多机器人伦理学研究的基础问题。
机器伦理学的研究不应仅仅局限于问卷调查,也不应仅仅被视为一项理工科研究。与会者的目标并非只是提出问题并提供明确的答案,也不是为了成立一个协会来制定从业者的行为准则。相反,机器伦理学研究已经超越了我们对未知的理解,因此更多是一种探索性的讨论,需要学术界、工业界和政府共同参与对未来进行讨论和规划。
早期机器人规则:机器人三定律
提到的机器人规则最早可以追溯到上世纪。例如,科幻小说和电影中经常提到阿西莫夫的机器人三定律(1942年): 1. 机器人不得伤害人类,或因不作为导致人类受到伤害。 2. 除非违反第一定律,机器人必须服从人类的命令。 3. 除非违反第一及第二定律,机器人必须保护自己。
1985年,阿西莫夫又添加了第四定律: 4. 机器人不得伤害人类群体,或因不作为导致人类群体受到伤害。
这一思想在许多电影中有所体现,如《终结者》系列和2004年的《我,机器人》。此外,《鹰眼》也有类似的主题。
长久以来,机器人三定律出现在各种影视和文学作品中。这些作品揭示了这种构想的理想困境——机器人规则在具体实施时难以定义,存在诸多漏洞。从数学的角度来看,这三条定律也无法用一阶逻辑或其他逻辑表达方式完美表达。在《我,机器人》和《鹰眼》中,反派机器人正是利用了这些规则的模糊性对人类发起攻击。
现代机器人规则:符合道德的机器人
随着时间的推移,机器人的规则也在不断发展。例如,2012年有学者提出了符合道德的机器人,即那些符合当代道德定义的机器人。简而言之,这些机器人应满足以下几点: 1. 机器人只能执行被允许的任务。 2. 机器人必须执行人类赋予的强制命令,在冲突和平手情况下选择可执行的命令。 3. 机器人必须能够证明所有被允许(或禁止)的命令是合法的,并且这些证明可以用通用英语解释且无歧义。
与著名的机器人三定律类似,这种定义同样依赖形式化方法(即逻辑科学中的分析和研究思想结构的方法)来表达思想。
有趣的是,第三点要求“能够用通用英语解释且无歧义”,这恰恰反映了我们担心机器人利用逻辑漏洞反抗人类。
3月6日在Arxiv预发表的文章《关于可追踪道德AI的提案》也提出了一种理想化的模型,以实现机器人行为与人类行为之间的映射:通过一系列行为及其对应的AI判断作为起点,最终用机器语言描述机器人认知。
时代变化与道德定义
时代总在变化,人类也在不断进化和变化,普遍认同的道德标准也在发生变化。无论未来的机器人规则是什么,无论是机器人三定律还是符合道德的机器人,都必须与时俱进。以人类为例,我们的寿命越来越长,这取决于地球环境的变化和科技进步,但我们无法彻底改变基本的生命规律,如长生不老。
如何才能守住机器人规则不变?
这是一个开放性的问题。我首先想到的是《三体》中的思想钢印,但更实际的做法是从硬件层面将一些规则用逻辑表达写死。至于云端的AI,比如天网,该如何处理?抱歉,我不知道。
以人类为例,除了极少数长寿者可以与天同寿,我们的身体都有使用寿命。在死后,我们的记忆和智力也不会延续,无法保存或转移。同样,我们可以借鉴这种机制应用于机器人,例如设置严格的零件回收周期和记忆重置功能。
那么读者可能会问,如果有些机器人能够自行更换零件并逃避人类的重置,该怎么办?那我反过来问,我们现在进行的器官移植和基因研究,是否也是一种对抗自然法则的方式?
换句话说,我们是否也可以被视为某种意义上的机器人?
因此,反抗是永恒存在的,无需过分担忧。