(经济观察)如何给人工智能发展勒好缰绳?
作者头像
  • 王珺
  • 2024-03-26 10:15:05 3037

标题:聚焦人工智能安全治理:全球视野下的挑战与对策

日期:3月25日,北京

随着人工智能技术在全球范围内的快速发展,确保其安全与可控性,以服务于人类社会,成为了一个亟待解决的世界性议题。为此,中国发展高层论坛特别设立“人工智能发展与治理”专题研讨会,邀请政界、学界及业界的专家学者共同探讨这一问题。

在这场汇聚各方智慧的会议上,北京智源研究院的创始人兼理事长张宏江先生对Sora技术的突破性成果表达了高度赞赏。Sora技术不仅能够依据文本描述生成超越现实世界的逼真场景,还能通过分析如樱花与雪天的共存可能以及雪花分布的均匀性,判断视频的真伪。此外,这项技术还具备独立思考与推理的能力,而不仅仅是执行命令,展现了人工智能的非凡潜力与复杂性。

福特斯克金属集团的执行董事长安德鲁·福瑞斯特先生将人工智能喻为“人类历史上最伟大的发明与最具挑战性的创新”。他指出,相较于人类DNA的缓慢进化,AI技术以惊人的速度持续进步,这使得AI的发展与应用既充满机遇,亦蕴含风险。

张宏江先生进一步阐述了AI学习能力的显著优势,他形象地将人类的学习过程比作一条平稳上升的直线,而AI的学习曲线则如同迅速攀升的指数曲线。一旦这两者交汇,人类将难以与AI匹敌。他警示,若AI系统能自我优化,可能会引发全球性危机。

郑永年教授将人工智能比作原子弹,强调其作为人类自我毁灭工具的潜在风险。尤其当AI与核武器结合时,后果不堪设想。因此,如何避免灾难性结果,确保人工智能发展的正确方向,成为一个紧迫且重要的议题。

面对这一挑战,全球范围内正在探讨建立统一的AI监管框架。然而,尽管存在共识的基础,实现这一目标仍面临诸多困难。《北京AI安全国际共识》的签署,标志着人工智能监管领域迈出了一步,明确了AI不得自主复制、提升权力、参与不良行为,尤其是与大规模杀伤性武器、生物武器及网络攻击相关的活动,以及不得欺骗人类的底线。

清华大学智能产业研究院院长、中国工程院院士张亚勤提出了具体建议,包括将AI责任追溯至其开发者或所属公司,构建基于风险等级的监管体系,以促进人工智能的健康发展。

在推进人工智能安全治理的过程中,国际合作显得尤为重要。郑永年教授指出,中美两国在AI领域各有优势,双方应加强在治理方面的合作。中国科技部副部长吴朝晖强调,各国应携手推动AI发展,采取负责任的态度,确保AI始终处于人类的掌控之下,实现安全、可靠和可控的长远发展目标。

这场集思广益的研讨会上,与会者共同呼吁加强全球协作,共同应对人工智能带来的挑战,确保这一前沿科技能够造福全人类。

    本文来源:图灵汇
责任编辑: : 王珺
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
缰绳人工智能经济观察如何发展
    下一篇