近期,多位科技界重量级人物联名签署了一份公开信,旨在呼吁暂时停止研发更为先进的人工智能技术,其中包括特斯拉CEO埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克等人。这份信件由非营利组织“生命未来研究所”撰写,其目标是减少先进技术可能带来的全球性灾难性风险。
公开信指出,只有当AI的影响被确认为积极且风险可控时,才应开发更强的AI系统。为此,他们建议所有AI实验室立即暂停至少6个月的时间,以便共同制定并实施一套高级AI设计和开发的安全协议,这些协议需由独立的外部专家进行严格的审计和监督。
信中强调,这一呼吁并非旨在全面冻结AI的发展,而是为了从当前的竞赛中退一步,专注于构建更安全、更可控的AI系统。这一观点直指微软、谷歌等大型科技公司之间的AI竞争,指出了这些公司过去一年内发布的众多新AI产品的潜在风险。
除了马斯克外,信中还出现了Stability AI首席执行官伊马德·穆斯塔克、历史学家尤瓦尔·诺亚·哈拉里、Pinterest联合创始人埃文·夏普等知名人士的名字。值得注意的是,部分参与AI竞赛的公司员工,如谷歌姊妹公司DeepMind和微软的员工,也在信上署名。
然而,这封信的发布引发了广泛的争议和质疑。一些专家和签名者表示,信中存在虚假签名、夸大风险等问题,甚至有人指责其推动了“AI炒作”,并未提出有效的解决方案来应对当前的AI风险。
华盛顿大学语言学系教授艾米丽·本德尔在回应时指出,信中的说法充满AI炒作,且错误地引用了她的研究,实际上她和合著者的研究更侧重于现有大型语言模型的潜在风险,而非信中所设想的未来威胁。
AI领域内的批评者认为,这封信的发布不仅未能解决实际存在的AI危害,反而分散了公众对当前关键问题的关注,如信息安全、系统安全等。此外,一些专家警告称,这种呼吁暂停AI发展的做法可能会阻碍必要的技术创新和监管,使得AI系统在未来面临更大的风险。
尽管如此,仍有一些签名者对此持支持态度,认为这封信体现了对AI风险的正确担忧。然而,面对不断增长的AI技术力量,如何平衡创新与风险、促进科技伦理的发展,已成为全球科技界亟待解决的关键议题。