世界最强AI公司,迈出毁灭人类的“一小步”?
作者头像
  • 周小洁
  • 2024-01-15 14:47:23 3078

摘要

全球知名人工智能公司OpenAI近期对其使用条款进行了重大修订,引发广泛关注。在修订前,OpenAI明确规定禁止其AI模型用于可能导致人员伤亡的活动,包括武器研发与军事用途。然而,新修订的条款中,关于禁止军事用途的明确表述已被删除。

详细报道

美国调查新闻网站“拦截者”披露,作为全球广泛使用的AI产品的开发者,OpenAI在1月10日对使用条款进行了调整,旨在简化规则以增强其普遍适用性和易于理解性。在此次修订前,OpenAI的条款中明文禁止将其模型用于可能造成人员伤亡的领域,如武器制造和军事行动。但修订后,尽管条款仍提及禁止用于导致人员伤亡的目的,有关军事用途的具体限制却已消失不见。

面对这一变动,OpenAI公司回应称,此举是为了适应其产品在全球范围内的广泛应用,以制定更为简洁、易懂且全面的规则。公司发言人强调,“不要伤害他人”的原则是广泛适用且易于理解的概念,并举例说明了武器作为禁止使用的一个典型示例。然而,发言人并未直接回应是否意味着包括所有军事用途在内的限制都被放宽,仅表示禁止技术被军方用于武器研发和使用,以及未经授权破坏服务或系统安全。

专家观点

网络安全专家指出,OpenAI删除军事和战争用途的禁止条款,反映了公司在确保法律合规的同时,试图增加其产品的灵活性。然而,鉴于许多国家对军事活动的合法化倾向,这一调整可能产生深远影响。

多位专家认为,OpenAI的新使用条款表明其正逐渐淡化此前对军事应用的立场。值得注意的是,OpenAI的重要合作伙伴微软公司是美国军方的主要供应商,美军对AI技术的需求日益增长。

实际应用

尽管当前OpenAI的技术尚未直接用于致命武器,但其成果已在军事领域应用,包括编写代码、处理武器采购和情报分析。换言之,尽管未直接杀人,OpenAI的技术已经助力于军事相关任务。

评论

有专家指出,在以色列对加沙地区平民造成影响时,OpenAI选择删除军事和战争用途的条款,值得深思。这不仅凸显了AI技术在军事领域的潜在应用,也引发了对AI伦理和责任的讨论。

结语

OpenAI的这次修订引发了对AI伦理、军事应用及企业责任的广泛讨论。随着AI技术的不断发展,如何在推动创新与确保社会道德之间找到平衡,成为亟待解决的问题。

    本文来源:图灵汇
责任编辑: : 周小洁
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
小步迈出毁灭最强人类世界公司
    下一篇