本文共计约 2550 字 ,阅读建议时长为 6 分钟。在数字化转型的洪流中,人工智能、云计算、区块链等新兴技术扮演着关键角色。在这日新月异的背景下,海量用户数据成为了推动技术发展的重要力量,同时也引发了业界对数据安全性的新担忧。6 月 7 日,《北京商报》关注到,人工智能领域正迎来一种新概念——“可信 AI”,它旨在解决技术应用中可能存在的问题,构建一个可靠且安全的人工智能生态系统。
随着《北京商报》的深入调查,我们了解到,“可信 AI”旨在通过底层技术框架解决人工智能应用过程中可能遇到的各种挑战,从而建立一个值得信赖的人工智能环境。近年来,AI 换脸被黑客利用、隐私信息买卖等围绕用户个人数据产生的安全问题频发,公众对隐私保护和数据安全的关注度日益提升。
在 6 月 7 日举行的 2021 全球人工智能技术大会可信 AI 专题论坛上,科技部高技术研究发展中心研究员嵇智源强调,可信 AI 的核心在于确保人工智能的公平性、可解释性、健壮性和透明性,让算法能够得到人们的信任。
面对数据孤岛的挑战,同盾科技提出了“知识联邦”的解决方案。这种模式将数据转化为模型策略知识,通过聚合分散的知识,实现智能决策。同盾科技还开发了天启智能开放操作系统,提供了数据商店、模型商店和应用商店,促进数据要素的流通与使用,以更合规的方式打破数据孤岛,保护数据隐私。他们通过数据安全交换协议,实现了多方数据的有效利用、知识共创、共享和推理,确保数据可用但不可见。
隐私计算作为 AI 底层技术之一,为构建可信 AI 提供了支持。星云 Clustar 在 2021 年 4 月发布了一套全面的隐私计算解决方案,集成了联邦学习、多方安全计算等技术,重点关注安全性和效率问题。这一方案帮助某国有大型银行构建了全行级隐私计算平台,实现了数据安全共享与流通,优化了流程标准、降低了管理成本,充分激活了不同业务板块的数据价值。
冰鉴科技研究院高级研究员王诗强认为,人工智能的成果依赖于“大数据+算法”,其应用是否可靠、是否能产生正面影响是值得考量的。可信 AI 实际上是对人工智能发展提出的一种自律性要求。苏宁金融研究院金融科技研究中心主任孙扬则指出,尽管 AI 技术在金融、医疗、教育等领域找到了应用场景,但违规收集、使用用户数据等问题依然存在,增强 AI 的安全性、可靠性和可信性以及防止数据孤岛中的技术滥用,对技术公司提出了更高要求。
随着技术进步,人工智能在金融、医疗、教育等行业的应用日益广泛。金融领域因其涉及的用户信息种类繁多,成为了 AI 应用最为活跃的领域。多位行业专家表示,金融领域仍然是 AI 技术的主要战场,尤其是在风控、投顾、营销、理赔等方面发挥了显著作用。
对于传统信贷业务中投入产出失衡或风险评估困难的情况,AI 技术能够帮助金融机构识别风险客户,降低逾期率,使得线上金融服务更加便捷。王诗强指出,在风险可控的前提下,AI 技术使更多长尾客户获得了金融服务,这正是可信 AI 的体现。
在防控金融风险方面,AI 技术的应用开始向监管科技领域扩展。广州等地的金融科技创新监管应用中,人工智能的身影频繁出现,通过大数据、人工智能、区块链等前沿技术增强了金融监管的专业性和有效性。
孙扬强调,金融机构在利用科技分析数据时应接受穿透式监管,而在监管科技领域,联邦学习、知识图谱、区块链、物联网金融等技术的应用有助于实现金融活动的监管,如物联网金融在供应链金融中的应用、区块链在反洗钱中的应用、知识图谱在贷款中介识别中的应用等。
在可信 AI 发展的过程中,也面临着一系列挑战。同盾科技人工智能研究院院长李晓林提到,确立一个可信的第三方协调者和监管者,以及完善参与方的激励机制,是亟待解决的问题。王诗强指出,虽然可信 AI 能够构建新的安全防线,但在其成熟过程中也可能导致更为精准的大数据杀熟、价格歧视等问题,甚至部分企业可能会过度追求技术先进性,忽视了安全、隐私等方面的考虑。
为确保 AI 技术健康发展,王诗强强调,企业应坚守道德底线,加强自律,将数据安全置于首位,监管部门则需制定合适的标准,及时处理负面创新,加强违法处置力度。孙扬补充道,所有相关机构都应严格遵守监管框架,确保提供的业务既可信又安全,符合伦理,避免以科技之名侵犯用户的权益。
可信 AI 的探索与实践不仅关乎技术创新,更关系到数据安全、隐私保护及伦理道德等多个维度。在这个过程中,需要企业和监管机构共同努力,确保 AI 技术服务于社会,创造价值,同时保护用户权益,防止技术应用中的不当行为。