当前,社交媒体机器人因大量自动生成的内容而备受争议,被指责通过散布虚假信息影响选举和损害公众健康。现在,一些社会学家又提出了一项新的指控:这些机器人干扰了科学研究,特别是那些从热门网站抓取关于人类健康和行为信息的研究。
据《自然》杂志报道,这些网站的数据有助于科学家了解自然灾害对心理健康的影响,解释为何美国年轻人热衷于购买电子烟,以及揭示人们在复杂社交网络中的互动模式。然而,要从自动生成的信息中分辨出真正有价值的声音,研究工作需要耗费大量精力。
“社交媒体机器人被设计成看起来像人类用户。”美国南加州大学的社会学家Jon-Patrick Allem解释道,“如果研究人员想要捕捉公众的真实态度,就必须确保收集的数据确实来自真人。”
早在2013年,计算机科学家Sune Lehmann在丹麦科技大学任教时就设计了第一个机器人。这个机器人最初是为了增加特定账户的关注者数量,旨在向学生展示这些机器人是如何操控社交系统的。后来,随着技术的发展,社交媒体机器人变得越来越复杂,更难被识别。2016年美国总统大选后,这些机器人引起了广泛关注,因为人们认为它们试图影响投票结果。“突然间,这个问题变得非常引人注目。”Allem说。
此后,Allem发现,社交媒体上关于电子烟的宣传内容中有很大一部分是由机器人生成的,而且这些机器人还可能夸大未经验证的大麻对健康的益处。这类研究通常依赖于算法来估计社交媒体账户被机器人控制的可能性。尽管存在检测工具,很多社会科学家和公共卫生研究人员仍然未能有效过滤出自动生成的内容,部分原因是缺乏相关专业知识。
“这种疏忽可能会污染数据集。”马里兰大学帕克分校的Amelia Jamison警告说。她专注于健康差异研究,并在社交媒体上抓取了反对疫苗接种的帖子。她指出:“如果不将机器人生成的内容剔除,我们可能会错误地认为某些观点得到了更多支持,实际上这只是机器人在放大一些原本不会被广泛讨论的话题。”
德国科隆莱布尼茨社会科学研究机构的信息科学家Katrin Weller强调,解决这一问题的关键在于明确“机器人”的定义。并非所有机器人都恶意传播错误信息;有些机器人提供最新天气信息、海平面上升数据或新闻更新。一些研究人员将社交媒体机器人定义为每日发布大量信息的账户,但Weller认为这是一种过于宽泛的定义,可能会涵盖大量真实用户。
随着技术的进步,早期的社交媒体机器人已经演变成更为复杂的存在,能够发布原创内容并模仿人类行为。例如,一些机器人会在随机的时间间隔内发布信息,并且在夜间休息时段不发布内容。还有一些开发者将人工撰写的内容与自动生成的内容混合在一起,以增强其伪装效果。
“一旦你掌握了机器人及其检测方法的知识,机器人开发者也会随之掌握这些技巧。”瑞士苏黎世大学的Oliver Grbner说,“这是一项非常具有挑战性的任务。”
像Lehmann一样,一些社会科学家正在创造自己的机器人来进行社会实验。宾夕法尼亚州立大学的政治学者Kevin Munger和他的团队就设计了一个机器人,用来监控社交媒体上使用种族歧视语言的用户。
在“粉丝机器人”取得成功后,Lehmann设计了更加复杂的机器人来研究群体传播。但由于机器人的名声不佳,他最终决定放弃这种做法,以免引起公众的强烈反对。“关于机器人的话题总是很敏感。”Lehmann说,“我希望能在不引起争议的情况下继续我的研究。”