咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于Swin-Transformer的黑色素瘤图像病灶分割研... 收藏

基于Swin-Transformer的黑色素瘤图像病灶分割研究

Study on Lesion Segmentation of Melanoma Images Based on Swin-Transformer

作     者:赵宏 王枭 ZHAO Hong;WANG Xiao

作者机构:兰州理工大学计算机与通信学院甘肃兰州730050 

出 版 物:《计算机工程》 (Computer Engineering)

年 卷 期:2024年第50卷第8期

页      面:249-258页

学科分类:08[工学] 080203[工学-机械设计及理论] 0802[工学-机械工程] 

基  金:国家自然科学基金(62166025) 甘肃省重点研发计划(21YF5GA073) 

主  题:Swin-Transformer模型 黑色素瘤 特征融合 降噪 ISIC2018数据集 

摘      要:黑色素瘤图像病灶分割的主流模型大多基于卷积神经网络(CNN)或Vision Transformer(ViT)网络,但是CNN模型受限于感受野大小,无法获取全局上下文信息,而ViT模型只能提取固定分辨率的特征,无法提取不同粒度的特征。为解决该问题,建立一种基于Swin-Transformer的融合双分支的混合模型SwinTransFuse。在编码阶段,首先利用Noise Reduction图像降噪模块去除图像中的毛发等噪声,然后采用CNN和Swin-Transformer构成的双分支特征提取模块来提取图像的局部细粒度信息和全局上下文信息,并对来自Swin-Transformer分支的全局上下文信息使用SE模块进行通道注意力操作以增强全局特征的提取,对来自CNN分支的局部细粒度信息使用卷积块注意力机制模块(CBAM)进行空间注意力操作以增强局部细粒度特征的提取,接下来利用Hadamard积运算对两个分支输出的特征进行特征交互以实现特征的融合,最后将SE模块输出的特征、CBAM模块输出的特征和特征融合后的特征进行拼接以实现多层次特征融合,并通过一个残差块输出交互后的特征。在解码阶段,将特征输入到上采样模块得到图像最终的分割结果。实验结果表明,该模型在ISIC2017和ISIC2018皮肤病数据集上的平均交并比分别为78.72%和78.56%,优于同类型的其他医学分割模型,具有更高的实用价值。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分