人工智能(AI)在医疗领域的应用一直是学术界和业界的焦点。探讨AI如何在遵循临床研究规范的基础上推动创新,审视AI在医疗实践中引发的伦理议题,以及预测AI医疗领域的领导力量,成为了一个热门话题。8月29日,由《新英格兰医学杂志》(NEJM集团)与嘉会医学研究和教育集团联合举办的医学AI研讨会上,全球顶尖医学专家及行业领军人物分享了AI在医学应用的实践案例和未来挑战。
《新英格兰医学杂志》编辑德莱森教授在研讨会上提到,AI在医学图像分析方面的应用,如使用AI检测视神经乳头水肿,通过计算AUC、灵敏度和特异性来评估AI在眼底病筛查中的性能,这一技术甚至在某些情况下超越了专业眼科医生的诊断水平。然而,德莱森教授指出,AI系统对大量眼底图像的学习和分析受限于隐私保护政策和昂贵的眼科设备成本,这影响了资源的广泛利用。
复旦大学上海医学院眼科学与视觉科学系主任孙兴怀教授强调,AI在眼底病筛查上展现出巨大潜力,但其临床应用需依托强大神经网络支持的计算机团队。AI依赖大量病例图像进行识别,存在局限性——AI难以识别未见过的疾病表现,且需要结合其他眼部特征进行综合判断,最终决策仍需由经验丰富的医生作出。
专家们一致认为,AI在医疗领域的广泛应用需在工业界、科学界、医疗人员和患者群体间建立信任。AI医疗系统应被视为专业定制技术,而非通用解决方案。评估AI性能时,不仅应关注算法,还需考虑AI与人类医生的互动效能。AI系统的责任界定和事故处理规则也是构建信任的关键因素。
葛均波教授指出,AI系统在手术辅助、慢病管理、疾病筛查等方面具有潜力,尽管当前技术水平尚不能达到顶级专家水平,但随着感知能力和模型训练数据质量的提升,AI有望在未来达到甚至超越人类顶尖医生的水平。专家们还强调,AI系统应具备解释性,以便医生理解其决策过程,增强透明度和可信度。
AI实验室的姚建华和医渡云的闫峻强调了高质量数据对AI系统训练的重要性,以及公开数据集和模型训练过程中的公正性。科大讯飞的医疗AI负责人则着重讨论了AI系统的可解释性,认为这不仅是技术问题,也是信任构建的关键环节,需要通过深度分析和医学知识整合来确保AI决策的合理性和可追溯性。