科技伦理前沿:2023复旦科技伦理高峰论坛聚焦数字时代伦理议题
导语:12月16日,复旦大学主办的“2023科技伦理高峰论坛”吸引了众多高校学者参与,共同探讨数字技术时代背景下中国的科技伦理理论与实践问题。
AI价值对齐的可能性与挑战
在此次论坛上,中国科学院大学教授兼中国科学院科技战略咨询研究院研究员李真真提出了关于AI价值对齐的深刻见解。她解释道,AI价值对齐旨在使人工智能的价值体系与人类价值观相统一,这一概念正日益成为科技界关注的焦点,特别是随着生成式AI的兴起,引发了对人机伦理关系的新思考。
李真真指出,尽管许多研究和开发实践都在努力将“价值对齐”融入AI大模型中,力求将其置于人类控制之下,但实现这一目标仍面临着巨大挑战。她强调,AI价值对齐本质上是一个社会化进程,类似于人类儿童的成长过程,AI需学习并遵循社会价值规范。
关键挑战与路径
李真真指出,实现AI价值对齐需满足两个前提:首先,人类在人机关系中应占据主导地位,遵循法律与道德约束;其次,明确AI的目标与需求,区分通用型人工智能(AGI)与特定问题解决方案的AI系统。她强调,道德编码AI是一个复杂任务,需要技术与社会科学的深度合作。
人类与超级智能的共存之道
与此同时,中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅在论坛上提出了关于AI实存风险的独到见解。他提出,当前AI的风险主要在于其可能以不当方式误导公众。曾毅通过引用《人工智能》电影中的经典台词,探讨了当AI进化为“超级智能”时,人类应如何与其共存。
曾毅以“人与蚂蚁”的类比,指出人类社会往往忽视了其他生命的存在,从而质疑超级智能为何应尊重人类。他认为,未来的人工智能发展不应追求与人类的价值对齐,而是寻求价值协调。为了适应这一变化,人类社会的价值观需从“人类中心主义”转向“生态中心主义”。
结论:本次论坛不仅展示了学术界对科技伦理问题的深思熟虑,还启发了对未来人工智能发展的前瞻性思考,强调了在科技快速进步的同时,维护人类价值观与伦理原则的重要性。