基于无线胶囊内窥镜图像的小肠病变智能检测与识别研究
作者单位:杭州电子科技大学
学位级别:硕士
导师姓名:厉力华
授予年度:2020年
学科分类:0831[工学-生物医学工程(可授工学、理学、医学学位)] 08[工学] 080203[工学-机械设计及理论] 0802[工学-机械工程] 0836[工学-生物工程]
主 题:无线胶囊内窥镜 小肠病变检测 病灶识别 密集连接卷积网络(DenseNet) 区域卷积神经网络(Region-CNN) 迁移学习
摘 要:近年来,无线胶囊内窥镜(Wireless Capsule Endoscopy,WCE)技术因具有安全、无痛、无创及能检查到传统内窥镜难以到达的小肠内部区域等优点,在临床消化道检查中得到了广泛的应用。但在每次检查中,WCE都会产生5到8万张图像,医生需要花费大量的时间去阅览图像作出诊断,造成医疗资源的浪费,同时由于病变图像较少及长时间阅览导致的注意力不集中等问题使误检和漏检的几率大大增加。因此,实现WCE图像小肠病变智能检测和识别具有十分重要的意义。目前在WCE图像小肠病变智能检测和识别的研究领域中,大多数研究采用传统机器学习的方法对单一病变进行检测,但这些方法需要手工提取特征,过程繁琐,检测效率和准确率具有局限性。深度学习技术因具有自动提取特征,反向传播更新参数等优势在WCE图像病变识别研究中得到了广泛应用。然而,目前基于深度学习的WCE图像病变研究大多只针对单一病变进行检测和识别,鲜有关于多病变的研究。因此,本文基于深度学习思想,提出利用深层卷积神经网络(Deep Convolutional Neural Networks,DCNN)和R-CNN(Region-CNN)方法并结合迁移学习策略,展开对WCE图像小肠病变智能检测和识别的研究,其主要研究内容如下:(1)小肠幽门和回盲瓣识别研究实现小肠幽门(小肠起点)和回盲瓣(小肠终点)区域定位是帮助医生快速、准确找到小肠区域对其病变进行检测的关键一步。本文通过结合迁移学习策略,构建基于Res Nets的区域分类模型,实现了对小肠前,小肠和小肠后图像的分类,并提出幽门和回盲瓣定位算法实现对幽门和回盲瓣位置的精准定位。结果证明二者区域定位的偏离度误差绝对值均不超过0.5%,甚至无误差精确定位。(2)小肠病变智能检测方法研究本研究的重点之一在于实现对小肠病变(出血、溃疡、糜烂和息肉)的智能检测研究。本文通过结合迁移学习策略构建的基于Dense Nets的多病变检测分类模型,实现了对小肠病变的智能检测分类。实验结果表明,各类别病变的AUC(Area Under the Receiver Operating Characteristic Curve)平均值为0.9985。(3)小肠息肉病灶识别方法研究本研究的另外一个研究重点是实现对小肠息肉病灶的识别(检测和实例分割)研究。通过对不同R-CNN方法的实验对比后,结合迁移学习策略构建的基于Res Net101-FPN(Feature Pyramid Networks)的Mask Scoring R-CNN模型,实现了对息肉病灶相对精准的识别。在此基础上提出了基于输出结果的集成学习方法,进一步提升模型的性能,实验结果表示集成模型的总体性能,包括精确率、召回率、Jaccard系数、Dice相似度,均优于单一模型,PR(Precision-Recall)曲线和FROC(Free-response Receiver Operating Characteristic)曲线也证实了集成模型的优越性,其中AP(Average Precision)值最高达到了0.8411。(4)小肠病变智能检测原型系统研发本研究结合小肠区域定位算法研究及小肠病变智能检测方法研究中建立的两个最优模型,研发设计了一款智能检测软件系统,实现了利用计算机对无线胶囊内窥镜图像的辅助诊断。本研究利用深层卷积神经网络和R-CNN方法并结合迁移学习策略,实现了对小肠病变的智能检测和识别,实验结果证明训练得到的模型具有较高的检测和识别准确性。基于现有模型,研发设计了一款智能检测软件系统,实现了利用计算机对无线胶囊内窥镜图像的辅助诊断,有利于进一步推广WCE在临床上的应用。