自2023年起,人工智能(AI)领域持续展现出巨大突破与广泛的实用性,各行各业的企业与消费者正积极寻求利用AI的规模效应。AI已渗透至商业运营的方方面面,助力数据分析、文本转换、客户服务等任务的高效执行。今年7月在上海举行的“2024世界人工智能大会”上,相关部门公布了一份《中国AI大模型工业应用指数(2024年)》报告,揭示了AI在关键行业,如电力、石化、钢铁、医药等领域的应用能力显著增强。这标志着AI已成为企业提升生产效率的重要工具。
F2 Strategy的一项调查显示,超过半数的财富管理公司已启动AI项目,他们关注的领域包括市场状况和证券随时间的变化预测、文档光学字符识别、工作流程自动化以及聊天机器人等。AI的应用潜力巨大,据估计,它可以将人工操作时间削减最多达90%。然而,同时有60%以上的公司表示需要加强AI应用的安全培训,凸显出尽管AI潜力显而易见,但其部署与应用过程中的风险已成为业界关注焦点。
Check Point的安全专家建议,企业在引入AI工具时,首先需明确其风险与挑战。不法分子同样利用AI技术扩大攻击规模与威力,AI模型也可能被操纵泄露敏感信息或传播恶意内容。未经充分培训的员工可能无意中泄露敏感信息,导致企业面临更多潜在风险。因此,安全控制应贯穿AI生命周期,包括员工培训。在使用任何AI工具前,企业需了解所有输入数据的保密级别、训练AI工具的数据来源,以及保护敏感信息的具体安全协议。
在AI解决方案的实施过程中,确保工具仅访问其训练所需的数据至关重要。了解信息隐私、模型数据来源及内置安全机制对于AI工具的安全使用至关重要。AI工具通常自带防御机制,以防止滥用行为,如ChatGPT的规则旨在阻止不当用途,但可通过精心设计的提示词绕过。企业应采取强大的控制措施,预防潜在风险。零信任网络安全策略是实现这一目标的关键方法。
AI工具,尤其是支持生成式AI的大规模语言模型(LLM),不应被视作传统的软件工具,而应视为工具与使用者的综合体。零信任网络策略应根据员工的角色、职责和需求来限制资源访问权限,以限制横向移动,减少攻击者的破坏能力。任何新增的软件工具都会增加攻击面,为攻击者提供更多入口点。如果AI工具能够访问个人身份信息、公司机密、专有工具、战略预测或竞争分析等敏感信息,则一次入侵可能导致灾难性后果。因此,在实施AI工具时,防范潜在入侵至关重要。
作为网络安全领域的领先企业,Check Point在关注AI技术风险的同时,于年初推出了Infinity AI Copilot,通过自动化加速安全管理,最多提高90%的效率,并通过更快的事件缓解和响应提升安全性。通过与微软合作,整合Microsoft Azure OpenAI服务,Infinity AI Copilot的效能得到了增强,现在能够利用微软提供的高级大规模语言模型,更有效地协助用户应对网络安全挑战。
Check Point中国区技术总监王跃霖指出,虽然AI工具通常内置安全功能,但企业需根据自身需求部署定制化的安全解决方案。面对AI技术带来的新挑战,企业应采取主动的安全措施,确保业务的稳定运行。AI技术的普及不仅为企业提供了竞争优势,也带来了新的安全威胁。随着模型规模与数据量的指数增长,一次泄露事件足以抹杀AI带来的所有价值。因此,采用零信任模式下的网络安全分析与控制、定制化安全策略对于充分发挥AI工具潜力至关重要。