近期,一批知名人士,包括特斯拉CEO埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克,以及上千位行业内的杰出人物,共同签署了一份公开信,呼吁AI研究机构暂停开发更强大的AI模型半年,以期制定并实施安全准则。这封信的背景是在一年半之前,类似的呼吁曾被提出。
新近的公开信由多位前OpenAI和谷歌DeepMind员工联名发布,两家公司均处于AI领域的前沿。信中提及的签名者共计13人,包括5名前OpenAI员工,6名现职OpenAI员工,1名前谷歌DeepMind员工,以及1名现职谷歌DeepMind员工,后者亦是Anthropic的前任员工。为了遵守相关保密协议,参与发布信件的6名OpenAI员工选择匿名。
信中强调,AI技术具有巨大的潜在福祉,同时也伴随着严重的风险,如加剧社会不平等、助长虚假信息传播、失控的人工智能系统可能导致人类面临灭绝威胁等。这些风险已被AI公司、各国监管机构和AI专家认识到。
然而,信中指出,拥有强大系统能力、了解其局限性以及保护措施有效性的AI公司,只承担有限的义务向政府分享部分信息,无义务向公众披露。因此,信中呼吁AI公司需建立机制保护揭露风险的员工。
信中提出的四项建议包括: 1. 不签订或执行任何限制对风险问题进行批评的协议。 2. 推动验证性的匿名流程,允许员工向董事会、监管机构和专业独立机构报告风险。 3. 支持开放批评文化,允许员工在保护商业秘密和知识产权的前提下,向公众、董事会、监管机构等表达对技术风险的担忧。 4. 在其他程序失效后,避免对揭露风险信息的员工进行报复。
为防止报复事件发生,信中呼吁顶级AI公司承诺保护员工揭露风险的权利,并提供了具体的措施建议,旨在创建一个有利于风险披露和管理的环境。