导读:2023年12月8日,全球首部全面监管人工智能的法规——欧盟《人工智能法案》(AI Act)在欧洲议会与成员国间初定共识,这被视为构建完整人工智能监管架构的关键里程碑,标志着欧盟在全球人工智能领域监管层面的领先地位。
然而,AI Act 的制定过程并非一帆风顺。争议焦点在于如何监管生成式AI大模型,最终达成的一致意见体现了欧盟在平衡利益、确保创新与监管之间取得平衡的努力。
目前,中国主要通过国家网信办等部门发布的《生成式人工智能服务管理暂行办法》等法规,对人工智能服务进行规范,尤其关注语料安全和用户隐私保护。然而,中国监管体系存在分散性问题,各职能部门间的协作有待加强。
欧盟《AI Act》为各国提供了可借鉴的经验,尤其是在生成式人工智能大模型的监管方面。该法案对数据使用、语料来源管理、安全评估与监督抽检等环节有明确且详尽的规定,旨在提升生成式人工智能服务的整体安全性与透明度。
数据使用与语料管理
《AI Act》要求生成式AI服务提供商对语料来源建立黑名单,评估其安全性,并确保语料来源的多样性与可验证性。针对使用包含个人敏感信息的语料,法案强调需获得明确授权,并设立了严格的流程和标准。
安全评估与监督抽检
法案规定服务提供商在推出新服务或进行重大变更前,必须进行安全评估,并实施定期监督抽检,以及时发现并纠正潜在的安全风险。这一机制有助于维护生成式AI服务的稳定性和可靠性。
透明度义务
《AI Act》对所有AI模型设置透明度要求,包括遵循欧盟版权法、在不损害商业机密的前提下发布训练数据概览、确保生成内容可立即识别等。对于先进模型,还需包括模型评估、风险监控、网络安全保护和能耗报告等内容。
监管与创新的平衡
为促进AI创新,欧盟设立了监管沙盒,允许在真实环境中测试AI系统,同时提供了支持中小企业的发展计划和限制措施,减轻其合规成本。
结论:面对AI大模型带来的挑战与机遇,中国正积极寻求有效的监管路径。借鉴欧盟《AI Act》的经验,特别是其在数据管理、安全评估、透明度与创新支持方面的做法,将有助于完善中国的人工智能监管体系,推动产业健康发展,保障公众利益与社会安全。随着人工智能技术的快速演进,全球范围内的合作与交流显得尤为重要,共同探索适应未来发展趋势的监管策略。