图灵汇消息显示,近期英国通信监管机构 Ofcom 收到了一些互联网安全倡导者的请求,希望对其限制人工智能在重要风险评估中的应用。这一诉求源于媒体报道称 Meta 公司计划将风险评估程序实现自动化。
一张相关主题的照片显示,英国多家机构联合呼吁监管机构阻止 Meta 使用人工智能进行风险评估。
Ofcom 回应称,此前一份报告显示,Facebook、Instagram 和 WhatsApp 的母公司计划让人工智能承担大部分风险评估任务,对此他们正在认真研究倡导者提出的疑虑。
图灵汇了解到,《在线安全法案》要求社交平台评估平台上可能出现的危害,并采取相应措施,尤其是保护未成年用户免受伤害以及防范非法内容传播。风险评估被认为是这项法案的核心部分。
莫莉·罗斯基金会、国家防止虐待儿童协会以及互联网观察基金会等多个组织在写给 Ofcom CEO 梅兰妮·道斯的信中提到,依赖人工智能进行风险评估是一个“令人不安且不合适的决定”。
信中提到,这些组织希望监管机构明确表态,认为仅靠自动化产生的风险评估难以满足法案的要求,并建议对平台简化评估流程的做法提出疑问。
Ofcom 的发言人提到,他们已经要求相关服务提供风险评估的具体执行人、审核人和批准人的信息,并正在评估这些建议,会在合适的时间给出答复。
Meta 公司则回应说,这封信对公司在安全方面的立场存在误解。Meta 强调,公司严格遵守法律法规,并保持高标准的安全措施。公司发言人表示,他们并未依靠人工智能来做风险判断,而是开发了辅助工具,帮助团队确认产品是否符合法律和政策要求。在人工监督下使用技术,可以更好地应对有害内容,同时技术的进步也带来了显著的安全提升。
早前,美国国家公共广播电台报道,Meta 打算利用人工智能审核算法更新和新增的安全功能,而非依赖员工审查。一位匿名前高管透露,这种方式能让公司更快推出更新和新功能,但也可能增加用户的潜在风险,因为新产品发布前的问题更难提前发现。
此外,NPR 还提到,Meta 正在探索将青少年风险监控和虚假信息传播等敏感领域纳入自动化审查范围的可能性。
文章中附带的广告声明提到,文内包含的外部链接旨在提供更多参考信息,但结果仅供参考。图灵汇的所有文章都会标注此声明。