深度卷积神经网络中的结构化模型剪枝算法研究及应用
作者单位:江南大学
学位级别:硕士
导师姓名:陈莹;吉峰
授予年度:2022年
学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 08[工学] 081104[工学-模式识别与智能系统] 080203[工学-机械设计及理论] 0802[工学-机械工程] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)]
摘 要:网络剪枝是模型压缩中一种重要的方法,旨在保证深度卷积神经网络任务准确率的同时,加快模型运行速度、减少内存占用。为了学习到更好的特征,卷积神经网络变得更深更宽,然而这急剧增加了网络的计算量和参数量,在存储量和运算能力较低的嵌入式设备上很难部署。在硬件资源性能提升较为困难的情况下,模型压缩受到了人们的广泛关注。论文主要研究结构化网络剪枝,并在嵌入式设备上成功部署了行人检测系统。取得的主要研究成果为:(1)针对逐层迭代剪枝破坏网络结构整体性,耗费大量计算资源与时间的问题,研究一种名为对抗多指标结构选择的端到端结构化网络剪枝方案。该方案在生成对抗框架中,通过努力对齐基线网络和被剪枝网络的输出来实现网络剪枝。此外,为了有效地发现在受限资源下的最优被剪枝的网络结构,综合考虑被剪枝通道数和网络分类准确率两个对抗性指标,设计了一种对抗微调网络选择策略。针对三种主流网络在不同的数据集上进行了大量的实验,均验证了所提方法的有效性与优越性,例如在SVHN数据集上,针对Res Net-110网络,在计算量压缩75.4%、参数量压缩74.4%的情况下,准确率提升了0.36%。在CIFAR-10数据集上,针对Res Net-110网络,相比于基线网络,在计算量和参数量压缩均超过一半的情况下,模型准确率甚至提高了0.49%的良好表现。(2)针对迭代剪枝在首次改变网络结构后,仅通过少量重训练再次剪枝,易形成“次优方案迭代次优方案的问题,研究一种基于自适应层信息熵的卷积神经网络压缩方法。在获取压缩网络结构的过程中,将卷积层看作一个整体,利用层信息熵之间的关联性直接确定各卷积层过滤器的保留率,避免迭代剪枝训练造成的信息损失。对剪枝后的网络进行重训练时,使用层信息熵指标,通过对卷积层与批归一化层进行自适应联合嫁接,让网络学习到更多的信息,提升网络性能。针对三种主流网络在不同的数据集上进行了实验,验证了所提方法的有效性与优越性,例如在CIFAR-10数据集上,针对Res Net-56网络,相比于基线网络,在计算量压缩36.2%的情况下,准确率提升了1%;针对Res Net-110网络,在计算量压缩52.4%的情况下,准确率提升了1.42%;针对轻量型网络Mobile Net V2,在计算量压缩55.2%的情况下,准确率提升了1.29%。(3)针对仅用层信息熵衡量层信息丰富度不够完善,且未处理指标极端值的问题,研究一种异常信息丰富度约束下的卷积神经网络压缩方法,是一种端到端的结构化网络剪枝方案。在获取压缩网络结构的过程中,首先,将卷积层看作一个整体,利用箱型图法对层信息熵和均L1范数进行极端值处理,然后,将处理后的层信息熵与均L1范数进行融合来衡量层信息丰富度,最后,采用层信息丰富度之间的关联性确定各卷积层过滤器的保留率并使用自适应联合嫁接的方法对剪枝后的网络进行重训练,提升网络性能。针对三种主流卷积神经网络,在三个标准分类数据集和两个行人重识别数据集上进行了实验,均验证了所提方法的有效性与优越性,尤其是在具有短连接的网络结构中,如Res Net与Mobile Net V2,均获得了优异的表现,例如在CIFAR-10数据集上,针对Mobile Net V2网络,相比于基线网络,在计算量和参数量压缩率分别为53.9%和58.4%的情况下,模型准确率提高了1.56%。(4)在嵌入式设备Jetson Nano上搭建了行人检测系统,首先利用PASCAL VOC 2007数据集进行模型训练并剪枝,获取原始模型和剪枝模型,然后在服务器端搭建系统并调试运行,最后将系统在嵌入式设备上进行部署,并在真实场景中对系统进行测试,验证了论文研究内容在实际应用中的有效性。