MultiExCam:一种用于皮肤病变分类的新型混合可解释人工智能框架

【字体: 时间:2025年09月29日 来源:Computer Methods and Programs in Biomedicine 4.8

编辑推荐:

  为解决皮肤镜图像分类中深度学习模型可解释性不足的问题,研究人员开展了名为MultiExCam的混合可解释人工智能框架研究。该研究通过集成深度学习和传统机器学习方法,结合Grad-CAM和SHAP技术,在HAM10000、ISIC和MED-NODE数据集上实现了92%、87%和94%的F1分数,显著提升了模型性能与临床可解释性,为皮肤癌早期诊断提供了可靠支持。

  
皮肤癌是全球范围内发病率持续上升的恶性疾病,其中黑色素瘤(melanoma)因其高转移性和致死率备受关注。早期准确诊断是提高患者生存率的关键,皮肤镜成像(dermoscopy)作为非侵入性诊断工具,能够呈现皮肤病变的细微结构特征。然而,人工判读皮肤镜图像存在主观性强、诊断一致性低等问题,特别是在基层医疗机构和资源匮乏地区。近年来,深度学习(Deep Learning, DL)技术在医学影像分析领域展现出强大潜力,但大多数模型缺乏可解释性,临床医生难以理解其决策依据,这严重限制了其在临床实践中的应用。
为解决这一难题,研究团队在《Computer Methods and Programs in Biomedicine》发表了题为“MultiExCam: A novel hybrid and explainable framework for skin lesion classification”的研究论文,提出了一种创新的混合可解释框架。该研究通过整合深度卷积神经网络(CNN)与传统机器学习(Machine Learning, ML)方法,结合梯度加权类激活映射(Gradient-weighted Class Activation Mapping, Grad-CAM)和沙普利加和解释(SHapley Additive exPlanations, SHAP)技术,实现了高精度与高可解释性的统一。
研究采用三个公开数据集进行验证:HAM10000(包含10,000张皮肤镜图像)、ISIC(国际皮肤成像协作组数据集)和MED-NODE(荷兰格罗宁根大学医学中心提供的标准化数据集)。关键技术方法包括:基于ResNet50的深度特征提取、手工特征(颜色矩和纹理特征)计算、多模型集成(支持向量机SVM、随机森林RF、K近邻KNN等),以及自适应前馈神经网络(Feed-Forward Neural Network, FFNN)融合策略。预处理阶段采用形态学操作和修复算法去除毛发和暗边伪影,数据增强技术提升模型泛化能力。
研究结果通过多个维度展示:
  • 深度模型比较:ResNet50在三个数据集上均表现最优,HAM10000准确率达90.1%,显著优于DenseNet121(89.27%)和Swin Transformer(81.95%)。
  • 机器学习模型性能:集成模型在测试集上F1分数较基线提升1-3%,其中ISIC数据集从85%提升至87%,证明了混合策略的有效性。
  • 可解释性分析:Grad-CAM热图成功定位病变关键区域(如不规则边界和色素网络),SHAP分析量化了特征贡献度,例如不规则边界对恶性分类呈正贡献,均匀色素区域呈负贡献。
  • 超参数优化:Dropout=0.5、隐藏单元=32、优化器选择RMSprop时模型性能最佳,验证了配置的鲁棒性。
研究结论表明,MultiExCam框架不仅在分类性能上优于现有方法,更重要的是提供了临床可理解的决策依据。其双分支可解释机制(图像级和特征级)能够辅助医生验证模型判断,减少误诊风险。该框架的模块化设计允许灵活适配不同医疗机构的需求,尤其适用于远程皮肤病学(teledermatology)场景。未来工作将聚焦于多中心临床验证、模型轻量化部署以及扩展至多分类任务(如基底细胞癌和鳞状细胞癌)。这项研究为人工智能在临床医学中的可信应用树立了新标杆,推动了可解释人工智能(Explainable AI, XAI)在精准医疗领域的落地发展。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号