伍珍:人工智能伦理问题需建立概念模型和明确规则
作者头像
  • 未来飞机
  • 2021-05-31 15:04:59 3022

标题:清华大学研讨人工智能伦理与个性化学习

清华大学社科学院在清华科技园举办的“人工智能心理学与算法伦理”研讨会,聚焦于人工智能在教育领域的应用与伦理议题。心理学系副教授伍珍出席并发言,强调了算法在促进个性化学习方面的潜力,同时也指出伴随而来的人工智能伦理问题。

伍珍指出,人工智能在教育应用中,尤其是在智能教育、智能导师、智能测评、教育游戏、教育机器人等领域展现出巨大潜力。她认为,人工智能在一定程度上能够尊重学习者的个体特征,满足个性化需求,并采用适应性教学策略,如个性化资源推荐算法。

伍珍进一步阐述,人工智能在监测学习环境和学生学习状态方面提供了辅助,有助于促进教育公平。然而,人工智能在重塑教育形态的同时,也引发了复杂伦理挑战,包括价值塑造、隐私保护以及智能教学机器的角色界定等。

人工智能算法的伦理问题被概括为三个方面:算法的理性与公平公正、数据泄露引发的隐私担忧、以及智能教学机器的身份和权力边界。伍珍呼吁建立概念模型和问责原则,以明确各参与方的责任,例如在平台机器智能泄露隐私时如何追责,以及算法开发者、设计者和使用者在整个流程中应承担的具体责任。

伍珍强调,尽管智能机器可能参与知识传授,但教师在情感支持、价值塑造和引导方面仍发挥关键作用。因此,心理学的重要性日益凸显。

伍珍认为,面对人工智能伦理问题,构建明确的概念模型和问责原则至关重要。这不仅包括制定规则以确保透明度和责任归属,还包括对智能系统的潜在影响进行持续评估,以维护教育和伦理标准的平衡。

    本文来源:图灵汇
责任编辑: : 未来飞机
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
人工智能伦理模型明确概念规则建立问题伍珍:
    下一篇