根据美国媒体Axios的报道,麻省理工学院的研究人员近期发表了两篇论文,揭示了当前机器学习模型在识别虚假新闻方面的局限性。
这些研究是在先前相关发现的基础上展开的。此前,研究人员发现计算机在生成逼真的虚构新闻故事方面表现优异。基于此,一些专家期待通过训练基于相同机器学习技术的系统来检测这类虚假新闻,但结果并不乐观。
今年2月,《MIT Technology Review》发表了一篇文章,详细描述了人工智能在制造虚假新闻方面的卓越能力。文章引用了一个假新闻案例,内容如下:
“唐纳德·特朗普无意中发射了导弹,导致俄罗斯向美国宣战。俄罗斯宣称已确定导弹轨迹,并将采取必要措施保护本国人口和战略核力量的安全。白宫对此表示高度关注。”
值得注意的是,这个故事完全是虚构的,且并非由人类撰写。实际上,它是由某种算法根据给定的文字生成的。该算法可以独立完成故事的其余部分,并且可以根据用户提供的任何主题生成逼真的新闻报道。
这一程序由旧金山的研究机构OpenAI开发。OpenAI专注于基础人工智能研究,同时也积极参与探讨人工智能带来的潜在风险。该组织曾在2018年的报告中提到,人工智能可能被用来生成令人信服的虚假新闻、社交媒体帖子或其他文本内容。
虚假新闻已经成为一个问题,但如果这些新闻是自动产生的,那么问题将更加复杂。此外,这些系统还可能针对特定人群或个人进行优化。
可以预见,不久的将来,人工智能将更可靠地生成更加逼真的虚假故事、伪造的推文或回复。
尽管一些专家希望通过机器学习来对抗虚假新闻,但麻省理工学院的研究表明,这并不容易实现。塔尔·舒斯特(Tal Schuster)博士的研究指出,虽然机器学习系统可以有效识别机器生成的文本,但却无法区分真假新闻。
在一项研究中,舒斯特和他的团队发现,即使系统知道某个陈述是正确的(例如“格雷格说他的车是蓝色的”),也很难处理否定陈述(例如“格雷格从未说过他的车不是蓝色的”)。这是因为现有的真实陈述数据库充满了人为偏见。例如,在FEVER数据库中,错误条目多被写为否定陈述,而真实陈述则多为肯定陈述。因此,计算机学会了将含有否定陈述的句子评估为“错误”。
麻省理工学院教授里贾纳·巴兹利表示:“如果设定一个简单的任务,机器可以完成它。但它仍然无法区分虚假新闻和真实新闻。”
此外,另一项研究表明,机器学习系统可以很好地识别机器编写的新闻故事,但无法区分真假新闻。