导读
全球科技巨擘携手承诺:共抗AI选举干扰
2024年2月15日,OpenAI发布创新性文生视频大模型Sora,以60秒电影级视频震撼了熟悉其技术的民众与行业,推动AI视频生成步入全新纪元。然而,AI的飞速发展预示着我们将面对深度伪造、针对性欺诈信息与复杂网络安全挑战。
全球50多个国家/地区将在2024年举行大规模选举,涵盖美国、孟加拉国、中国台湾、巴基斯坦、印度尼西亚等国家,选民总数约占全球人口一半。专家预测,2024年将成为全球选举虚假信息泛滥的高峰年。
在Sora发布次日,即2月16日,20家AI前沿企业——包括亚马逊、谷歌、IBM、Meta、微软、OpenAI、TikTok、X等——在慕尼黑安全会议宣布共同承诺,致力于检测与打击选举中的有害人工智能内容,特别是针对选举候选人的深度伪造信息。
这些承诺虽缓和了公众对真实选举的忧虑,却也揭示了未来挑战的复杂性。参与承诺的AI领导者包括Adobe、亚马逊、Anthropic、ARM、ElevenLabs、谷歌、IBM、Inflection AI、LinkedIn、McAfee、Meta、Microsoft、Nota、OpenAI、Snap、Stability AI、TikTok、TrendMicro、TruePic和X。
值得注意的是,AI干扰选举的首例案件已在美国显现。1月内,有人利用AI模仿总统拜登的声音,结合其常用口头禅“真是胡言乱语”,在新罕布什尔州初选前两天向5,000至25,000名选民发送了错误信息,声称来自凯西沙利文的个人手机号码。美国执法机关迅速锁定并采取行动,旨在防范更多干预美国大选的企图。
人工智能技术的应用在提升竞选效率的同时,也为恶意影响选举提供了可能。AI可收集选民兴趣,将其与监管机构关注的问题相匹配;帮助政治家对不同受众发表更具说服力的言论;增强公民对立法者考虑的复杂法律的理解。然而,恶意行为者可能利用AI伪造候选人或选民的音视频内容,通过快速生成与大规模分发,形成公众共识,迫使立法者按照其意愿行事。
面对这一挑战,科技公司宣布自愿采取预防措施,与国际会议的决策者共同签署《2024年选举中打击人工智能欺骗性使用的协议》。该协议旨在开发技术以发现、标记和揭露人工智能操纵的深度伪造内容,促进透明度,培养抵御欺骗性内容的能力,并与全球民间社会组织、学者合作,支持提高公众意识与媒体素养。
尽管协议彰显了科技界的合作精神,但舆论普遍认为其更多体现为象征性行动,缺乏实质性的约束性要求,难以满足寻求更有力保障的倡导者的期望。民间社会团体指出,仅依赖“自我监管”难以解决问题,需要更全面的监管措施,以防止社交媒体平台和广告模式被恶意利用影响选举。
面对这一复杂局面,我们正处在一个关键转折点。人工智能不仅威胁着区分事实与虚构的能力,还挑战着我们构建安全、知情公共领域的可能性。科技公司、政府与民间社会的合作至关重要,共同制定适应不断演变的威胁、确保数字时代民主机构弹性的策略。真正的考验在于,如何在不损害法治原则的前提下,充分利用人工智能潜力,培育一个更安全、更知情的社会环境。