为了推动生成式人工智能的健康发展并规范其应用,维护国家安全与社会公共利益,保护公民权益,国家网信办联合多部门于2023年8月15日公布《生成式人工智能服务管理暂行办法》(以下简称《办法》)。这一举措旨在平衡技术创新与社会责任,促进人工智能行业的可持续发展。
随着人工智能领域的发展,特别是以ChatGPT为代表的大型模型引领全球技术潮流,人工智能不仅极大地改变了行业生产力,也给网络安全行业带来了新挑战与机遇。在这一背景下,大模型技术展现出“矛”与“盾”的双重特性。
安全风险与机遇并存
安恒信息的高级副总裁兼中央研究院院长王欣指出,人工智能时代下,大模型技术打破了传统安全壁垒,促使安全需求与应用场景发生显著变化。然而,这一变革也带来了一系列风险,包括用户隐私泄露、信息误导、偏见与潜在的意识渗透等。若任由生成式人工智能自由发展,可能引发虚假信息泛滥、决策偏差及安全威胁,对个人、机构乃至国家层面构成严重风险。
《办法》不仅鼓励和支持人工智能创新,还强调了制定相应监管规则的重要性,以确保数据来源合法、模型算法公平、生成内容可靠。此举旨在引导人工智能技术持续向善发展,构建可信的生态系统。在全球范围内,美国与欧盟等国家和地区也在探索人工智能治理路径,通过立法手段约束AI发展,确保其负责任地服务于社会。
促进安全与AI协同
另一方面,AI技术的革新也推动了安全产品和服务的迭代升级,优化了网络安全防护体系。生成式人工智能提高了风险识别效率,填补了网络人才缺口,使得威胁分析更为精准,安全运营更加高效,安全防护更为智能化。
《办法》中数据安全的重要性尤为凸显,数据作为大模型发展的基础,其合规与安全至关重要。企业用户在使用AI大模型时,需警惕数据泄露风险,特别是在模型训练过程中可能出现的知识归属问题。安恒信息通过结合智能数据分类分级,研究模型内部风险,如可靠性、透明性、准确性与公平性,以应对数据合规挑战。
面对人工智能技术的快速发展与广泛应用,安恒信息聚焦于人工智能与网络安全的融合研究,积极拥抱AI带来的变革。通过产品AI智能化,安恒信息致力于推进“服务+AI”、“治理+AI”、“产业+AI”等应用场景的安全升级,为数字经济的健康发展提供坚实的安全支撑。
随着人工智能技术的不断演进,未来几年将成为其关键的创新窗口期。安恒信息将把握机遇,以创新的方式推动人工智能技术与网络安全的协同发展,为数字时代的安全保驾护航。