超级智能AI会偷袭我们吗?
作者头像
  • 权亚杰
  • 2023-12-31 00:00:00 3036

探索人工智能的边界与奇迹

随着大型语言模型,如ChatGPT的崛起,公众对人工智能(AI)超级智能的出现及其潜在影响的关注日益增加。这类模型在规模扩大时展现出前所未有的新能力,引发了一场关于AI是否会突然觉醒,以及科学家能否提前预警的热烈讨论。

Mozilla基金会的研究员Deborah Raji高度评价了近期一项研究,该研究通过批判性地分析大型语言模型的能力,揭示了所谓的“涌现现象”——模型在特定条件下展现出智能,这一现象看似突兀且难以预测。然而,研究指出这可能只是系统测试过程中的假象,并强调了创新能力实际上是在逐渐增强的见解。

基准测试与AI的现实

该研究在NeurIPS机器学习会议上发表,旨在从多个角度审视AI“觉醒”的说法。研究团队对比了不同大小的OpenAI GPT-3模型在特定任务上的表现,发现虽然在某些绝对精度的指标下,较大模型与较小模型之间的性能差距显著,但在考量正确预测的数字数量时,这一差距趋于平缓。同样,通过增加测试问题的数量,研究者观察到模型在处理某些任务时的性能提升并不如预期显著。

视觉智能与AI的局限

研究者还探索了计算机视觉领域的AI能力,一个通常较少提及AI“觉醒”的领域。他们发现,通过设置严格正确的阈值,训练模型来压缩和重建图像,可以观察到明显的性能提升,从而挑战了AI突然爆发能力的传统观念。

安全与政策的影响

这项研究对AI的安全性和政策制定产生了重要影响,特别是对于那些关注通用人工智能(AGI)的群体而言。Raji指出,AI能力的不断进步在为社会带来便利的同时,也引发了对监管措施和资源分配的思考。她强调,尽管AI模型在特定任务上取得了显著进展,但它们尚未达到真正的意识水平,因此在追求技术发展的同时,应避免过度担忧和忽视其他紧迫的风险。

结语

通过深入探讨AI的发展现状和未来可能性,我们不仅能够更好地理解当前技术的边界,还能为AI伦理、安全和政策制定提供关键指导。这一领域仍充满挑战与机遇,需要跨学科的合作与持续的创新,以确保AI技术的发展既能推动社会进步,又能维护人类的价值和福祉。

    本文来源:图灵汇
责任编辑: : 权亚杰
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
偷袭智能超级我们
    下一篇