综述:人工智能辅助PET成像预测乳腺癌新辅助化疗疗效的系统评价与荟萃分析

【字体: 时间:2025年09月18日 来源:European Journal of Nuclear Medicine and Molecular Imaging 7.6

编辑推荐:

  本综述系统评价人工智能(AI)辅助PET成像预测乳腺癌新辅助化疗(NAC)反应的效能,荟萃分析显示其具有较高准确性(AUC 0.80),但存在显著异质性。研究建议未来需提升数据集质量、整合可解释人工智能(XAI)以促进临床转化。

  

Abstract

Purpose

本研究旨在评估人工智能(AI)辅助PET成像在预测乳腺癌患者新辅助化疗(NAC)反应方面的性能。

Methods

系统检索了Ovid MEDLINE、Ovid Embase、Cochrane、Web of Science和IEEE Xplore数据库中截至2025年6月26日发表的研究,这些研究利用AI算法处理PET成像以预测乳腺癌NAC反应。提取了二分类诊断准确性数据进行荟萃分析,以曲线下面积(AUC)作为主要结局指标。进行了亚组分析和荟萃回归分析以探索异质性的潜在来源。

Results

18项研究符合系统评价条件,其中11项研究共907例患者纳入荟萃分析,汇总AUC为0.80(95%置信区间[CI]: 0.77–0.84)。然而,研究间存在显著异质性,敏感性的I2为79.65%(95% CI: 74.69–84.60),特异性的I2为86.62%(95% CI: 83.73–89.51)。荟萃回归分析显示,患者样本量以及模型中临床数据的整合是异质性的显著来源。

Conclusions

基于PET成像使用AI预测乳腺癌NAC治疗反应展现出令人鼓舞的准确性和临床应用的潜力。但其临床实施面临方法学变异性、数据集小、缺乏外部验证和有限可解释性的挑战。未来的研究应优先改善数据集质量和整合可解释人工智能(XAI),以促进AI在临床实践中的更广泛采用。

正文

乳腺癌是全球女性中最常见的恶性肿瘤之一,新辅助化疗(NAC)已成为局部晚期乳腺癌的标准治疗手段。准确预测患者对NAC的反应对于制定个体化治疗方案、避免无效治疗及其副作用至关重要。近年来,人工智能(AI)技术在医学影像分析领域展现出巨大潜力,尤其是在正电子发射断层扫描(PET)成像方面。PET成像能够提供肿瘤的代谢活性信息,而AI算法能够从这些复杂的图像数据中挖掘出深层次的、人眼难以识别的特征,从而实现对治疗反应的早期和精准预测。

本研究通过系统性地检索多个权威数据库,旨在全面评估AI辅助PET成像在此特定应用场景下的诊断性能。检索策略覆盖了Ovid MEDLINE、Ovid Embase、Cochrane Library、Web of Science以及工程领域的IEEE Xplore,确保了涵盖医学与工程技术交叉领域的研究,时间范围直至2025年6月,体现了该领域的最新进展。

方法与分析

纳入的研究均采用了基于AI的模型,这些模型包括传统的机器学习算法(如支持向量机-SVM、随机森林)和更先进的深度学习网络(如卷积神经网络-CNN)。分析的核心是提取这些研究的诊断性能数据,并采用荟萃分析(Meta-analysis)的方法进行定量汇总。结果以综合受试者工作特征曲线(SROC)下的面积(AUC)为主要指标,其值为0.80,表明该技术具有良好的整体判别能力。

然而,一个不容忽视的问题是研究间存在的高度异质性。I2统计量用于量化异质性程度,其值超过75%通常被认为异质性很大。本分析中敏感性和特异性的I2值分别高达79.65%和86.62%,这意味着研究结果之间存在显著的差异,不能简单地用一个汇总效应来代表。为了探寻这种差异的来源,研究者进行了荟萃回归分析。分析结果指出,两个因素至关重要:一是各研究纳入的患者样本量大小不一,样本量较小的研究其结果可能更不稳定;二是AI模型是否整合了临床数据(如肿瘤大小、组织学分级、激素受体状态等)。将影像组学特征与临床病理特征相结合的多模态模型,往往能表现出更优且更稳定的性能,这可能是降低异质性的一个关键方向。

挑战与展望

尽管结果显示AI辅助PET成像预测NAC反应具有高达0.80的AUC值,预示着广阔的临床转化前景,但通往常规临床应用的道路仍布满荆棘。首先,当前研究的方法学变异性较大,从图像采集与重建参数、感兴趣区域(ROI)勾画方式到所采用的AI模型架构均不尽相同,这直接导致了结果难以直接比较和整合。其次,小数据集问题普遍存在,有限的样本量不仅可能影响模型的性能,更容易导致过拟合,降低模型的泛化能力。第三,缺乏外部验证是另一个严峻挑战。大多数模型仅在内部数据集上进行了验证,其在新中心、新设备、新人群中的表现如何仍是未知数,这极大地限制了其普遍适用性。最后,AI模型的“黑箱”特性导致其有限的可解释性。临床医生需要了解模型做出预测的依据,而不仅仅是结果本身,这对于建立信任和明确治疗决策至关重要。

针对这些挑战,未来的研究方向应聚焦于以下几个方面:优先构建高质量、大样本、多中心的标准化数据集;积极推动模型的外部验证研究;最重要的是,将可解释人工智能(XAI) 技术融入开发流程。XAI旨在揭示AI模型的决策机制,使其预测过程对人类而言更加透明和可理解。通过解决这些关键问题,AI辅助PET成像有望真正成为乳腺癌精准医疗工具箱中一件强大而可靠的武器,为患者带来更多获益。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号