索信达:机器学习模型的“可解释性”研讨
作者头像
  • 星海科技
  • 2019-10-23 18:12:29 1

近日,索信达控股有限公司(简称:索信达)旗下的金融人工智能实验室发布了一份名为《机器学习模型的“可解释性”探讨》的研究报告,重点讨论了机器学习模型“可解释性”的重要性及索信达在该领域的创新实践。

索信达指出,神经网络技术的进步显著推动了机器学习和人工智能领域的发展,复杂网络结构不断涌现,在计算机视觉和自然语言处理方面取得了巨大成功。除了模型的预测性能外,透明度和可解释性同样是评估模型是否可信的关键指标。

索信达金融人工智能实验室负责人邵平认为,随着机器学习技术的不断发展,各类算法层出不穷,尤其是在深度学习领域,不同类型的神经网络模型在图像识别、语音识别和自然语言处理等领域取得了显著成效。然而,模型效果的提升通常伴随着可解释性的下降,因为随着网络结构变得日益复杂,其内部运作机制变得难以理解。对于非专业用户来说,解释这些模型的输出结果变得非常困难。缺乏足够的可解释性可能会限制模型在诸如医药和金融等敏感行业中的应用。例如,银行的信用评分系统不仅要准确预测,还需要提供清晰的决策依据,以便客户能够理解和接受。

在银行业务中,客户有权了解自己的信用评分为何较低,而不仅仅是被告知模型给出的结果。同样地,在医疗行业中,使用模型进行疾病诊断时,需要更高的透明度和可解释性。尽管神经网络的解释性较差,但在乳腺癌切片图像诊断方面,机器学习模型已经实现了89%的准确率,相比之下,经验丰富的病理学家平均准确率为73%。这表明,我们既不应因可解释性问题而放弃使用高效的机器学习模型,也不应完全依赖于“黑箱”模型来做关键决策。

根据索信达介绍,《机器学习模型的“可解释性”探讨》一文首先在其官方微信公众号上发布。上半部分主要对比分析了传统统计学模型与神经网络模型的特点,介绍了神经网络的工作原理及其与统计学模型之间的关系,以及关于神经网络可解释性的发展趋势。下半部分则重点介绍了索信达所采用的一种简化且预测精度更高的新型可解释神经网络模型,并探讨了其在银行业中的应用案例,以期帮助银行创造更多商业价值。

    本文来源:图灵汇
责任编辑: : 星海科技
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
信达解释性研讨模型机器学习
    下一篇