基于多分辨率特征融合与上下文信息的胃癌复发预测方法
作者机构:昆明理工大学信息工程与自动化学院 云南省人工智能重点实验室 云南省肿瘤医院放射科
出 版 物:《生物医学工程学杂志》 (Journal of Biomedical Engineering)
年 卷 期:2024年
学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 1002[医学-临床医学] 08[工学] 081104[工学-模式识别与智能系统] 080203[工学-机械设计及理论] 100214[医学-肿瘤学] 0802[工学-机械工程] 0835[工学-软件工程] 0811[工学-控制科学与工程] 10[医学] 0812[工学-计算机科学与技术(可授工学、理学学位)]
基 金:国家自然科学基金(82001986,82360345) 云南省科技厅-昆明医科大学应用基础研究联合专项项目(202101AY070001-181) 云南省应用基础研究计划项目(202101AW070001)
主 题:胃癌病理图像 复发预测 深度学习 特征融合 上下文信息
摘 要:胃癌病理图像是胃癌诊断的金标准,然而其复发预测任务面临病灶组织形态特征不显著、多级分辨率特征融合不足、无法有效利用上下文信息等问题。为此,提出了一种基于胃癌病理图像分析的三阶段复发预测方法。在第一阶段,利用自监督学习框架SimCLR对低分辨率下的补丁图像进行训练以降低不同组织图像的耦合度,从而获得解耦后的增强特征。在第二阶段,将获取的低分辨率增强特征与对应高分辨率未增强特征进行融合,实现不同分辨率下的特征互补。在第三阶段,针对补丁图像数量差异较大导致位置编码困难的问题,利用多尺度的局部邻域进行位置编码并利用自注意力机制获得具有上下文信息的特征,随后与卷积神经网络所提取的局部特征进行融合。通过在临床收集的数据上进行评估,与同类方法最佳性能相比,本文所提出的网络模型在准确率、曲线下面积(AUC)指标上取得了最佳性能,分别提高了7.63%、4.51%,证明了该方法对胃癌复发预测的有效性。