管控人工智能“野蛮生长”,ACM 通过生成式 AI 开发原则
作者头像
  • 刘明才
  • 2023-07-14 13:54:07 3059

摘要:

美国生成式人工智能协会 (AGIA) 计算机全球技术政策委员会 (ACM TPC) 最近发布了一份《生成式人工智能技术的开发、部署与使用原则》报告,此报告已获得美国技术政策委员会 (USTPC) 和欧洲技术政策委员会 (Europe TPC) 的认可。该报告旨在确保生成AI技术及其所有衍生技术的公平性、精确性与有益性,以应对日益强大的生成式AI可能带来的社会风险。

正文:

AGIA计算全球技术政策委员会在7月13日发布了一项关于生成式AI技术开发、部署及使用的指导原则。这一原则文件得到了美国技术政策委员会和欧洲技术政策委员会的通过,旨在推动公平、准确和有益的决策,以应对AI技术的快速发展和其对社会可能产生的重大影响。

ACM美国技术政策委员会主席Jeremy Epstein强调,尽管委员会会参与立法机构的意见咨询,但不会对具体法案或其部分内容发表正式立场。ACM作为全球最大的计算科学与教育协会,成立于1947年,拥有超过11万名学生和专业会员。该组织认识到生成式AI的潜力与风险并存,现有技术安全使用指南不足以应对这一挑战,因此迫切需要制定新标准以确保AI技术的安全应用,避免潜在危害。

在发布的指导原则中,有四个原则专门针对生成式AI,强调了在部署和使用时应与各利益相关方进行协商、审查,并实施相应的法律与法规限制,以确保风险可控。此外,报告还提出了知识产权、个人数据控制、可纠正性等方面的要求,以及对透明度、可审计性、环境影响限制和更高的安全与隐私性的建议,旨在构建一个全面、安全且负责任的AI生态系统。

原则摘要:

  • 部署与使用限制与指南:在需要时,应与所有利益相关者合作,评估并实施法律与法规,限制生成AI技术的使用,确保其潜在风险最小化。在高风险系统未满足明确和充分的保障措施,如“人在回路”机制与各方共识的情况下,不得运行系统。

  • 所有权:现有知识产权法律未能充分考虑生成AI系统的独特性质,需进一步完善以适应这类技术的特性。

  • 个人数据控制:生成AI系统应赋予用户选择权,决定是否使用其数据进行训练或信息生成。

  • 可纠正性:生成AI系统的提供者应建立并维护公共错误记录库,便于记录错误并采取必要修正措施。

  • 透明度:任何使用生成AI的应用程序或系统均需明确告知相关利益相关者。

  • 可审计性和可质疑性:提供者应确保记录系统模型、算法、数据和输出,以供适当情况下审计与质疑。

  • 限制环境影响:鉴于生成AI模型对环境的显著影响,建议就方法论达成共识,以量化、归因并积极减少此类影响。

  • 更高的安全性和隐私性:考虑到生成AI系统的安全与隐私风险,包括新的攻击途径和数据泄露,建议采取措施增强安全性与隐私保护。

这份报告为生成式AI技术的健康发展提供了重要指导,旨在平衡技术创新与社会责任,确保AI技术服务于人类社会的长远利益。

    本文来源:图灵汇
责任编辑: : 刘明才
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
管控人工智能野蛮生成生长原则通过开发ACMAI
    下一篇