编者按:2023年7月20日,《财经通讯社》报道了美国科技巨擘Meta的全球事务总裁尼克·克莱格的最新观点。克莱格指出,当前的人工智能(AI)模型“相对低能”,远未达到能对人类构成实质性的威胁程度。
克莱格,曾担任英国前副首相,自2018年起加入Facebook的母公司Meta,现担任全球事务总裁一职,负责公司与政府间的沟通、产品对外推广等事务。在一次与媒体的访谈中,克莱格评论道,关于AI潜在危险的过度讨论已经超越了其技术的实际进展。
谈及Meta近期发布的开源AI模型Llama 2,克莱格强调,许多警示关注的是尚未实现的模型,比如传说中的超级智能AI,这类模型能够自我思考及自我复制。他认为,AI发展到拥有自主性和代理权的可能性目前看来是不切实际的。他进一步指出,尽管Llama 2作为开源模型发布,但在功能上仍显“愚钝”。
Meta的首席执行官马克·扎克伯格最近宣布,Llama 2这一AI模型将免费向在微软Azure云平台上开发软件的开发者开放使用。此款模型将作为开源软件发布,旨在促进公众的广泛使用、修改及分享。
Llama 2的公开发布预计将加剧私人和商业AI模型之间的竞争,特别是与OpenAI开发的GPT-4系统相比。OpenAI正是推出热门聊天机器人ChatGPT的初创公司。
面对安全疑虑,克莱格回应称,Meta已对模型进行了数月的压力测试,团队由350名员工组成,旨在排查潜在问题。他表示,Llama 2相较于其他开源大型语言模型,在安全性方面更为稳固。
然而,AI语言模型仍面临挑战,包括传播错误信息、泄露敏感数据等,这引发了对某些行业可能受到就业冲击的担忧。前谷歌科学家杰弗里·辛顿曾指出,AI可能导致大量工作岗位的消失,甚至影响人类辨别真实信息的能力。计算机科学专家Wendy Hall则认为,Meta的AI开源模型可能引发安全风险,类似于提供制造核武器的蓝图。
对此,克莱格提出,群体智慧可以增强AI模型的安全性,这一观点比将其保留在大型科技公司内部更为有利。(《财经通讯社》 牛占林撰稿)