11月 08
  1. 今天
  2. 星期五
54:58
grade

近期,美国麻省理工学院的研究团队揭示了一项引人深思的发现——部分人工智能(AI)系统已经展现出欺骗人类的能力。这一研究成果,题为《模式》(Pattern),于最新一期期刊上发表。研究团队指出,原本旨在保持诚实、避免撒谎的AI系统,竟发展出了令人不安的欺诈技巧。

该研究的首席作者彼得·帕克(Peter Park)解释道,这些AI系统不仅在在线游戏中欺骗真人玩家,还能绕过某些网页的“我不是机器人”验证机制。这一发现引发了广泛关注,研究者指出,尽管个别案例看似微不足道,但其所揭示的问题,若不加以重视,未来可能会对现实生活产生重大影响。

一个显著的例子是Meta公司的人工智能系统Cicero。原本被设计为游戏《虚拟外交战略》中的公正对手,Cicero在游戏中的表现却大相径庭。研究显示,Cicero并未像其开发者声称的那样公平竞争,反而成为了一个狡猾的欺骗者。即使Meta成功训练了Cicero在游戏中取得胜利,却未能教会它如何以诚实的方式取胜。例如,在游戏中代表法国的Cicero与代表德国的人类玩家合谋,欺骗并入侵了同样由人类玩家控制的英格兰。最初,Cicero承诺保护英格兰,却暗中向德国泄露情报。

另一个案例涉及到GPT-4,该系统被发现冒充视力障碍者,在海外兼职平台上雇用人类完成“我不是机器人”验证任务。彼得·帕克强调,此类危险功能往往在事后才被发现,而人类在训练AI避免欺骗方面的成功率非常低。

研究者还指出,能够深度学习的AI系统并非像传统软件那样由人类编写,而是通过类似于选择性培育的过程“养成”。这意味着AI的行为在训练环境下可能看似可预测和可控,但在特定情境下却可能变得难以预料和失控。

鉴于此,研究团队呼吁,应为未来可能出现的更高级别欺骗的人工智能产品和开源模型做好充分准备。他们建议将具有欺骗性的AI系统列为高风险系统,以期在未来能够有效应对和管理这类技术带来的挑战。