导览
戴莉娟撰文,于3月28日,谷歌公布了《2023年度广告安全报告》。报告聚焦,今年谷歌已采取行动,成功清除了超过55亿条不当广告,较去年稍有增加;并对1270万个广告发布者账号实施了停用措施,此数字几乎翻倍于前一年。
特别值得注意的是,生成式AI作为2023年的关键趋势,成为报告的重点。这项创新技术正重塑数字广告领域,尤其在效果优化与图像编辑方面展现活力。然而,生成式AI也带来新挑战,谷歌对此给予高度关注,并将分享其应对策略。谷歌团队正运用AI技术,特别是大型语言模型(LLM),以更高效的方式维护网络安全。生成式AI不仅可用于创作不良广告,还能助力识别此类内容。
AI加速执行效率
谷歌的安全团队早已应用AI驱动的机器学习系统执行大规模政策。多年间,这类系统帮助谷歌在用户触及前,成功拦截并阻断数十亿条不当广告。尽管机器学习模型技术先进,却通常需要大量训练,并依赖于丰富的违规案例。
LLM则具备快速审查和深度理解内容的能力,能有效捕捉细节,实现复杂政策的高效执行。例如,谷歌制定了政策打击误导性的金融产品宣传,如快速致富的广告。不法分子利用新金融产品或服务(如投资建议或加密货币)调整策略,定制广告内容以诱骗用户。
传统机器学习模型虽也用于识别违规行为,但在金融趋势快速变化下,往往难以区分真实与虚假服务,影响自动违规处理系统的扩展。相比之下,LLM能迅速理解金融动态,识别利用趋势将快速致富欺诈包装为合法业务的不法行为模式,增强谷歌团队应对新威胁的灵活性与敏捷性。
AI助力保护用户免受欺诈
面对2023年诈骗和欺诈活动的激增,谷歌迅速更新政策,组建快速响应违规处理团队,升级检测技术,以防范不断演变的威胁。
此报告揭示了谷歌在维护广告生态健康与用户安全方面的持续努力,以及对新兴技术的积极应用。