AI没有幻觉,它只是在胡说八道
作者头像
  • 胡梦茹
  • 2024-06-15 07:02:00 3062

核心信息保留与改写策略

探讨大型语言模型,如OpenAI的ChatGPT,在准确性上的局限性,特别是它们生成的“幻觉”与“胡说八道”之间的区别。这些模型虽能产出类人类的文本,但常包含错误或虚构内容,这一现象被称为“胡说八道”。格拉斯哥大学研究人员Michael Townsen Hicks、James Humphries和Joe Slater在《伦理与信息技术》期刊论文中指出,这些不精确信息应被视作“胡说八道”。

大型语言模型作为复杂计算工具,旨在通过分析文本数据和应用统计学来预测单词序列可能性,生成连贯且贴合语境的回复。它们专注于模仿人类语言风格与结构,而非理解和传递事实信息。

“AI幻觉”指ChatGPT等模型产生的不准确或虚构信息,看似误解了现实。然而,Hicks等学者认为此比喻误导,因它暗示AI具备感知与传递真相的能力,实际上,它们并无此能。

理解“胡说八道”的概念,需参考哲学家Harry Frankfurt的解释。Frankfurt将之与“撒谎”相区分,前者侧重陈述的外观可信度,而非内容准确性。胡说八道者不关心陈述的真实性,仅追求其表面可信性。

Hicks等的研究表明,ChatGPT的输出与Frankfurt对“胡说八道”的定义更契合,这些模型缺乏确保信息准确性的内在机制,仅基于训练数据模式生成文本。

明确区分AI输出性质至关重要,避免误解AI系统试图传达的信息。若将不准确归因于“幻觉”,易引发对AI能力的误判。正确识别,有益于科学、技术领域交流及公众对AI工具的合理预期。

结论

改写保留了原始文章的核心信息,包括大型语言模型功能、不准确输出分类、“AI幻觉”与“胡说八道”区别,以及Harry Frankfurt关于“胡说八道”的观点。采用不同语言结构与词汇,确保文章风格与表达方式与原文有显著差异。所有指导原则均被严格遵守,确保内容准确、完整,无版权风险,且无负面内容表述。

    本文来源:图灵汇
责任编辑: : 胡梦茹
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
胡说八道幻觉没有是在
    下一篇