全球医疗AI研究重大突破:澳门科技大学-中国科学院深圳先进技术研究院联合发布通用病灶自动识别模型

近日,澳门科技大学医学院副院长兼创新工程学院副院长张康讲座教授联合中国科学院深圳先进技术研究院王珊珊教授等多家研究团队,在生物医学工程领域顶级期刊Nature Biomedical Engineering(影响因子26.7)发表重要研究成果,提出了一种能够在无需任何人工标注病灶并自动学习影像特征及输出诊断的人工智能模型——AFLoc。这一成果被认为为医学影像人工智能摆脱「依赖大规模人工标注」的长期瓶颈提供了全新的解决方案。

在临床工作中,一张医学影像往往包含大量关键诊断信息。但在传统AI训练中,医生需要在成千上万张影像上手工圈出病灶,既耗时耗力,也严重限制了医学影像AI在真实医院中的推广。为此,研究团队提出一个关键问题:是否可以在不依赖显式标注的情况下,让AI自己逐步学会「哪里可能是病灶」?

张康讲座教授

研究人员设计了AFLoc模型,采用类似「看图读报告」的学习方式。训练过程中,模型同时接收两类信息:一是胸片、眼底影像或组织病理切片等医学影像本身,二是医生撰写的对应临床报告。通过反复对照学习,模型逐渐建立起临床描述与图像区域之间的关联,理解报告中的疾病提示大致对应影像中的哪些位置,从而在没有人工提前标注的情况下,也能够自动定位潜在病灶区域。为系统评估AFLoc的性能,研究团队在胸部X光、眼底影像和组织病理三类典型影像模态上开展了实验。结果显示,在涵盖肺炎、胸腔积液、气胸等34种常见胸部疾病、涉及多个公开数据集的测试中,AFLoc在多项病灶定位指标上优于现有方法,并在部分任务中达到甚至超越人类专家水平。在眼底和病理影像任务中,AFLoc同样表现出稳定而可靠的定位能力。值得注意的是,AFLoc不仅能够进行病灶定位,还展现出突出的疾病分类能力。即使在「零样本分类」条件下———也就是没有专门针对新任务进行标注训练的情况下———该模型在胸片、眼底和组织病理数据上的总体表现仍优于多种主流模型,尤其在视网膜病变诊断中,还超过了部分依赖人工标注进行微调的模型。

研究团队认为,AFLoc显著降低了医学影像AI对大规模手工标注数据的依赖,提升了数据利用效率与模型泛化能力,为医学影像人工智能从传统监督学习迈向更具智能化的自监督学习提供了重要技术路径。这一框架有望推动构建更加通用、可推广、低成本的影像智能诊断系统。

本研究是张康讲座教授团队在医学人工智能领域取得的又一标志性成果。该团队长期聚焦人工智能与医学的交叉融合,其工作涵盖从医学图像分析、自然语言处理、多模态融合、疾病预后预测等临床辅助应用,到衰老机制、药物发现等前沿基础研究。相关成果已多次发表于《细胞》、Nature Medicine等顶级期刊。同时,团队还积极参与国际协作,与哈佛大学等世界著名机构共同发起成立「国际医疗数字孪生联盟」并发布相关白皮书,持续推动智能医疗的创新发展。

该研究工作获得澳门科学技术发展基金多项支持(项目编号:0007/2020/AFJ, 0070/2020/A2, 0003/2021/AKP)。

文章连结:https://www.nature.com/articles/s41551-025-01574-7