新冠疫情的出现使得许多AI医疗技术得到了广泛关注。然而,AI系统的“黑箱”特性依然存在,这导致人们对其诊断准确性心存疑虑。关于机器学习的可解释性问题,相关书籍并不多见。
最近,复旦大学的一名研究生朱明超将一本名为《Interpretable Machine Learning》(可解释机器学习)的书翻译成了中文。这本书由德国慕尼黑大学的博士Christoph Molnar花费两年时间撰写,共计250页,是目前唯一一本系统介绍可解释性机器学习的书籍。
朱明超近期完成了该书的翻译和校对工作,并将其开源发布在GitHub上。在翻译过程中,他与原作者进行了多次交流,中文版还得到了Christoph Molnar本人在Twitter上的推荐。
“可解释性”是这本书的核心主题。作者认为,在机器学习乃至日常生活中,可解释性都是非常重要的。他建议机器学习从业人员、数据科学家、统计学家以及任何希望使机器学习模型更具解释性的人都应该阅读这本书。
该书共分七章: 1. 前言 2. 可解释性 3. 数据集 4. 可解释的模型 5. 模型相关方法 6. 基于样本的解释 7. 水晶球
Molnar指出,尽管数据集和黑盒机器学习解决了许多问题,但这并不是最佳的应用方式。现在,模型本身成为信息的主要来源,而可解释性能从中提取更多有用的信息。
随着机器和算法日益融入日常生活,可解释性变得尤为重要,它有助于增加社会对这些技术的信任度。如果连专家都无法理解“黑盒”模型,那么普通人就更难以信任其决策。
这本书的重点在于机器学习的可解释性。读者可以从书中学习到一些简单且易于理解的模型,例如线性回归、决策树和决策规则等。
此外,书中还详细介绍了各种解释黑盒模型的方法,如特征重要性和累积部分效应,以及使用Shapley值和LIME解释单个实例预测的方法。书中对各种解释方法进行了深入探讨和批判性分析,包括它们的工作原理、优缺点以及如何应用这些方法。
书中结合了现实生活中的案例来介绍相关概念,并提供了参考资料以帮助读者进一步学习和理解。朱明超在GitHub上不仅翻译了这本书,还持续翻译了Goodfellow的《机器学习》,并在其中添加了自己的Python代码示例供参考。
最后,附上《可解释机器学习》一书的项目地址:https://github.com/MingchaoZhu/InterpretableMLBook
— 完 —