人类被AI歧视了?
作者头像
  • 赵晓月
  • 2023-02-22 00:00:00 3069

导览:

当人工智能(AI)向我们传达诸如“男性不适合担任护士,女性不应成为医生,餐桌上应排除香菜,甜豆腐脑优于咸豆腐脑”等信息时,我们不禁疑惑其背后的动机——是蓄意为之,还是偶然失误?在人类社会中,可能有人会选择掩盖偏见与恶意,然而,对于由有偏见数据集训练而成的AI而言,这样的遮掩无从谈起。面对数据集中的样本偏差,AI并不会有所保留,而是将其直观呈现。

AI在处理信息时,会依据其训练过程中所接触的数据集特性进行反应。如果数据集中存在性别、职业、食物偏好等方面的偏见,AI在处理相关问题时,可能会放大这些偏见,从而产生上述类型的结论。这并非AI的主观意图,而是其算法基于现有数据做出的逻辑推断。因此,在利用AI技术进行决策或提供信息时,识别并纠正数据集中的偏差至关重要,以避免AI成为偏见传播的工具。

    本文来源:图灵汇
责任编辑: : 赵晓月
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
歧视人类
    下一篇