百度安全入选权威报告《联邦学习与可信AI市场机会分析》典型厂商
作者头像
  • 剑飞论道
  • 2023-01-30 00:00:00 3032

联邦学习作为一种前沿人工智能技术,由国际数据公司(IDC)定义为一种分布式隐私保护建模方法。它在不泄露原始训练数据的情况下,让多个参与者合作训练新的数据模型,旨在最大化调动“分散数据”与“分散计算能力”的潜力,同时确保数据隐私保护与最小化数据利用。这种建模方式不仅提升了模型的性能,而且降低了延迟和能耗。

随着技术的演进,全球都在探索人工智能的治理框架,法律界愈发重视人工智能的规范应用。AI的可信度成为关键议题,各国政府和企业正寻求确保AI算法的可解释性、保护个人及企业数据资产。IDC发布的《联邦学习与可信AI市场机会分析》报告,总结了2022年中国的联邦学习与可信AI技术、应用进展和市场生态,为终端用户提供了部署企业AI应用的指南。百度安全凭借其点石联邦学习平台与PaddleSleeve,在该报告中脱颖而出,作为典型案例,分享了最佳实践。

百度安全构建了一个融合区块链、可信计算、大数据、人工智能等技术的可信AI生态系统。这套系统旨在支持城市智能中枢、智管平台、大数据局平台、数据交易所和金融机构的数据全生命周期可信流通、算法协同、可控追溯以及异构算力统一管理。

在数据流通与隐私保护方面,百度安全提供了多样化的解决方案。点石联邦学习平台利用密码学方案,实现“原始数据不出域”的联合计算或建模,确保数据在加密状态下可用且不可见,严格限制数据流动过程中的隐私保护。点石机密计算平台则通过硬件构建虚拟安全区域,实现“数据可用不可见”的联合计算,同时保持硬件性能接近完整,支持机器学习和深度学习算法。点石数据安全沙箱通过权限访问控制、数据脱敏、抽样等技术,实现“数据看得见拿不走”的模式,允许数据拥有方安全地向数据处理方开放数据。

为了增强AI的可信度,百度安全还推出了InterpreteDL模型可解释算法库、TrustAI可信AI工具集以及PaddleSleeve安全与隐私工具。InterpreteDL集成多种经典可解释性算法,帮助开发者理解神经网络模型的预测机制,构建更可信、效果更强的模型。TrustAI则专注于NLP领域的开发,增强模型的安全性和可靠性。PaddleSleeve则从自然干扰和对抗扰动两方面评估模型的鲁棒性和安全性,并通过图像重建及对抗训练等方式进行加固。

在营销领域,百度点石的联邦学习与多方安全计算技术,为客户提供了一个安全可控、自主灵活的工具平台。该平台能够支持数据要素流通、多渠道管理、数据资产管理、数据分析和建模,助力营销科技公司实现全触点数据采集与分析,合规地形成企业与第三方数据结合的用户洞察,为营销活动提供数据驱动的支持,实现安全合规的精细化运营与深度洞察服务。

这展示了百度安全如何通过创新技术,推动数据安全与隐私保护的同时,赋能企业实现高效的数据利用与管理,确保在遵守法规的前提下,实现业务增长与创新。

    本文来源:图灵汇
责任编辑: : 剑飞论道
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
可信联邦入选典型厂商权威机会报告分析安全
    下一篇