基于改进Transformer的COVID-19辅助诊断方法研究
作者单位:齐鲁工业大学
学位级别:硕士
导师姓名:董爱美
授予年度:2024年
学科分类:1004[医学-公共卫生与预防医学(可授医学、理学学位)] 08[工学] 080203[工学-机械设计及理论] 100401[医学-流行病与卫生统计学] 0802[工学-机械工程] 10[医学]
主 题:Transformer COVID-19辅助诊断 多任务 分类 分割
摘 要:COVID-19是由严重急性呼吸综合征冠状病毒引起的传染病,对人类生命构成巨大威胁。计算机断层扫描(CT)因其高分辨率且缺乏重叠的组织结构而成为诊断胸部疾病的重要无创检查手段之一。一些研究表明COVID-19的胸部CT图像具有较高的特异性。具体来说,最常见的特征是毛玻璃混浊(GGO)、疯狂铺路石症和支气管扩张等。因此,胸部CT图像在COVID-19的辅助诊断中发挥着重要作用。目前,使用胸部CT图像诊断COVID-19已经开发了不同的深度学习技术方案。然而,这些研究方法存在着一定缺陷。首先,现有的深度学习方法没有与COVID-19的病变特征相结合,导致识别精度不理想,误诊、漏诊等现象。其次,现有的大量辅助诊断方法都是单任务的,如单一的分类、分割等,效率低下。 针对以上问题,本文从基于改进Transformer并结合COVID-19的病变特征和多任务协同的角度出发,对COVID-19辅助诊断方法进行了研究。具体研究内容如下: (1)针对没有结合COVID-19的病变特征造成导致识别精度不理想,误诊、漏诊等问题,本文提出了基于动量对比Transformer和知识蒸馏的COVID-19分类方法,称为MCT-KD。其利用Vision Transformer设计动量对比学习任务,以有效地从COVID-19胸部CT图像中提取全局特征。此外,在迁移和微调过程中,通过特殊的知识蒸馏方式将卷积的局部性集成到Vision Transformer中。这些策略使最终的Vision Transformer能够同时关注COVID-19胸部CT图像的全局和局部特征。此外,动量对比学习是自监督学习,解决了Vision Transformer在小数据集上训练的困难问题。大量实验证实了所提出的MCT-KD的有效性,该方法在两个公开数据集上分别能够达到87.43%和96.94%的准确率 (2)针对任务目标单一造成的效率低下的问题,本文提出了面向COVID-19分类和分割的全局到局部的互促网络,称为GLMR-Net。该方法可以同时完成分类分割多任务,并实现任务之间的相互促进。具体来说,GLMR-Net以全局到局部的方式进行病变特征信息处理,实现了特征级和任务级的相互增强。GLMR-Net包含三个子网:交叉特征提取子网、分割子网和分类子网。交叉特征提取子网通过基于Transformer的主干网络和跨任务差分特征融合(CTDFF)模块实现全局特征提取和特征级交互。分割和分类子网用于特征的局部处理并生成多尺度病变掩码和病变证据掩码,用于构建任务交互损失(TI Loss)以实现任务级相互促进。最后,对该方法进行了广泛的实验,并与现有的主流的方法对比并取得了优越的性能。 (3)此外,随着COVID-19被有效控制,本文沿着辅助诊断的研究方向进行了拓展。对医学图像分割进行了重新思考。通过观察医学影像医生的培训过程,探索了一种统一的通用分割模型,称为Med Seg。该方法是一种基于上下文先验的学习方法,其过程模拟了影像医生的培训过程。从模态、任务、上下文范例逐步进行启发性提示,跨越了不同源域数据集的语义鸿沟,实现了优越的通用泛化性能。