导览
网络写作,作为一项历史悠久的活动,已经伴随我跨越了二十余年的时光。回首往昔,我曾在博客上留下了许多青涩且略显尴尬的文字,它们曾是青春岁月的见证。如今,面对AI巨擘ChatGPT披露其知识库中包含我过往作品的资讯,我迫切地想要清除个人痕迹,仿佛是在虚拟世界中划清界限。然而,我很快意识到,删除按钮似乎不存在于此。尽管如此,科学界的探索者们正致力于教导人工智能遗忘。
新一代的AI聊天机器人,如ChatGPT,其知识积累源于广泛互联网资源,从社交媒体动态到数万书籍,乃至所有公开信息。它们不仅能够预测下文,还能对用户的提问给出流畅而精准的回答。然而,这种知识生成机制也带来了挑战——一旦AI习得某些信息,便难以实现彻底遗忘。
数据与隐私的悖论
澳大利亚联邦科学与工业研究组织的专家大卫·张指出,这些语言模型基于大量汇总数据形成答案,这使得特定信息的遗忘变得异常艰难,甚至在某种程度上,个人也无法精确追踪AI对其的认知。这引发了隐私领域的重大关切,特别是考虑到欧盟在2014年引入的“被遗忘权”概念。根据通用数据保护条例,个人有权要求删除与之相关的网络信息,包括撤销帖子和要求网络平台删除个人数据。然而,大卫·张强调,这一机制在面对AI时并不适用,因为“没有提供从模型记忆中删除或遗忘数据的方法”。
挑战与应对
苏黎世联邦理工学院的计算机科学家特拉梅尔提醒,AI企业必须找到解决方案,特别是在处理敏感信息,如医疗记录和电子邮件时。此外,AI系统也可能成为黑客攻击的靶子,用于窃取用户账号密码等敏感信息。英国政府通信总部已对此类风险提出了警觉。
目前,AI公司倾向于采用“机器沉默”策略来限制信息访问和拒绝回复。例如,当被要求创建个人档案时,AI系统会礼貌地告知“无法执行此操作”。耶鲁大学数字伦理中心的弗洛里迪认为,这种方法在某种程度上可行,但问题在于,即便被阻止的信息仍可能存在于系统中,一旦发生故障或受到恶意干扰,仍有可能在后续的响应中泄露。
遗忘的力量与应用
伦敦政治经济学院的人工智能研究者阿里·博伊尔观察到,人类倾向于遗忘并非认知上的缺陷,而是为了优化记忆检索过程。同样,AI系统或许也能从遗忘中获益。博伊尔指出,2017年,谷歌人工智能实验室开发的AI能够存储并回忆电子游戏的玩法,这一能力后来经过优化,优先保存“令人惊讶”的游戏体验,而忽略其他数据,从而提升了整体表现。对于希望构建能像人类一样学习与思考的AI系统的研究者而言,设计其具备选择性遗忘的能力,可能是实现这一目标的关键一步。遗忘不再被视为缺陷,而是高效记忆体系的标志。
本文基于对英国《新科学家》杂志2023年10月31日文章的深入解读与改写,探讨了在隐私日益受到威胁的背景下,是否有可能教导AI聊天机器人学会遗忘的议题。