【学术新闻】当AI遇上医学影像:如何让机器“无师自通”?

录入者:新闻中心-杜逢发布时间:2026-04-08

本网讯 4月2日,由学科建设办公室(博士工作站办公室)、科研处、教师发展中心与计算机学院联合主办的2026年第4期博士沙龙活动——一场聚焦医学图像分割前沿技术的学术讲座在英文楼B107顺利举办。本次讲座由计算机学院布海力切木·阿吾冬博士主讲,面向全校教师,主题为《基于注意力对抗训练的原型网络单样本医学图像自监督分割方法》,深入探讨了在高质量标注数据匮乏的背景下,如何通过算法创新提升医学图像分割模型的泛化能力。

布海力切木·阿吾冬博士作分享

医学图像分割是辅助临床诊断、制定手术规划的关键技术。然而,高质量的像素级标注数据获取成本高昂,且模型面对新器官或新病灶时往往“束手无策”。讲座伊始,布海力切木·阿吾冬博士便指出了当前医学图像语义分割领域面临的核心痛点。尽管基于监督学习的方法在提高分割精度方面已取得进展,但其高度依赖大量密集标注图像进行训练,且难以对新的语义类别实现准确的预测。面对医学图像种类繁多、模态复杂、私有数据库差异大以及高质量像素级标注数据匮乏的现状,如何在“零标注”或“少标注”的情况下实现精准分割,成为临床研究与人工智能结合的关键难题。

为了让听众直观理解技术突破点,布海力切木·阿吾冬博士深入浅出地介绍了其团队提出的“基于注意力对抗训练的原型网络单样本语义分割新框架”。该网络创新性地采用了生成对抗网络结构,包含作为生成器的基于原型的分割网络(P-Net)和作为判别器的基于双支路注意力的引导对抗网络(G-Net)。其中,P-Net通过多尺度预测模块和原型分配模块,显著提升了对不同结构和大小脑肿瘤不同亚区的识别能力;而G-Net则利用双支路注意力的对抗结构,引导P-Net生成正确的特征分布,有效减少了模糊和偏离特征的引入。

讲座的亮点在于详实的实验结果展示。布海力切木·阿吾冬博士分享了该模型在恶性脑肿瘤、良性脑肿瘤、健康腹部器官以及感兴趣区域周围存在癌变器官的腹部器官MRI和CT数据集上的测试表现。该模型展现出了强大的泛化能力,面对从未见过的“新类别”图像,依然能保持高精度的预测。结果表明,本文模型的分割效果优于目前用于医学图像分割的自监督小样本学习模型,且对脑肿瘤不同亚区的分割精度更高。更重要的是,该网络的训练不需要任何标签数据,展现出了对新类别巨大的泛化能力,为解决医学图像标注难题提供了全新的思路。

讲座现场氛围浓厚,在交流环节,来自不同学院的教师们纷纷结合自身研究背景提问,就“模型在复杂噪声环境下的稳定性”、“多模态数据融合的具体路径”等问题与布海力切木·阿吾冬博士进行了深入探讨。布海力切木·阿吾冬博士针对每一个问题都耐心细致地解答,并结合具体案例拆解技术细节,现场学术氛围热烈。

沙龙现场

本次讲座不仅展示了人工智能在医学影像分析领域的最新研究成果,也为学校相关学科的交叉融合提供了新的视角。通过算法创新打破数据标注的壁垒,有望让AI真正成为医生手中高效、精准的诊断利器,推动智慧医疗的进一步发展。/肖小芹 , 文/布海力切木.阿吾冬