安恒信息:AI安全监管势在必行!
作者头像
  • 依婷科技
  • 2023-07-14 00:00:00 3011

生成式人工智能服务管理暂行办法:促进发展与规范应用

引言

近期,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》(以下简称《办法》),自2023年8月15日起实施。此《办法》旨在推动生成式人工智能的健康快速发展与合理应用,维护国家安全与社会公共利益,保护个人及法人权益。

人工智能的双刃剑

随着人工智能技术的飞速发展,特别是以ChatGPT为代表的大型模型引领全球人工智能领域的新潮,人工智能在行业生产力上的巨大潜力逐渐显现,同时也带来了安全挑战。安恒信息高级副总裁、中央研究院院长王欣指出,人工智能时代的大模型技术具备“矛”与“盾”的双重特性。

安全挑战与机遇并存

一方面,AI与大模型技术打破了传统安全壁垒,促使安全需求与应用场景发生深刻变革。然而,用户在与生成式人工智能交互过程中,可能无意间暴露个人、商业机密等敏感信息,获取的反馈内容可能暗含平台的价值倾向,从而影响个体的认知、决策和价值观。若放任其自由发展,虚假信息、偏见歧视甚至潜在的意识渗透等风险将不可避免,对个人、机构乃至国家安全构成威胁。

监管与引导

《办法》在鼓励和支持人工智能创新的同时,明确提出了制定分类分级监管规则或指导方针的重要性。其目标在于确保数据来源合法、模型算法公平、生成内容可靠,从而引导人工智能持续向善发展。

国际视角与全球趋势

全球范围内,为构建可信的人工智能生态系统,美国、欧盟等国家和地区正积极探索人工智能治理策略,并通过一系列法律法规(如《人工智能问责政策》、《人工智能风险管理框架》、《人工智能法案》)来约束人工智能的开发与应用。这表明,AI监管已成为国际共识。

安全技术的革新

另一方面,AI和大模型技术亦促进了安全产品的创新与服务的升级,有助于网络安全防护体系的优化与完善。生成式人工智能在风险识别方面的高效性,一定程度上弥补了网络安全领域的人才缺口,使得威胁分析更为精准,安全运营更加高效,安全防护手段更加智能化。

AI与安全同行

安恒信息高级副总裁兼首席科学家刘博在2023世界人工智能大会上强调,安全技术应与AI大模型的智能技术同步发展,以确保人工智能服务于企业时更为可靠、安全。安恒信息通过将类大模型应用与智能数据分类分级相结合,持续研究算法模型内部风险,包括可靠性、稳健性、透明性、可解释性、准确性和公平性,以应对数据合规风险。

未来展望与实践

作为引领新一轮科技革命和产业变革的关键技术,人工智能正处于快速发展阶段。随着应用场景资源的不断开放,未来几年将是人工智能技术实现跃升的重要时期。安恒信息致力于人工智能与网络安全领域的融合创新,通过推进“服务+AI”、“治理+AI”、“产业+AI”等应用场景的安全升级,为数字经济的蓬勃发展提供坚实的安全保障。

    本文来源:图灵汇
责任编辑: : 依婷科技
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
势在必行监管安全信息
    下一篇