咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于YOLOv7的复杂环境苹果定位识别技术研究 收藏
基于YOLOv7的复杂环境苹果定位识别技术研究

基于YOLOv7的复杂环境苹果定位识别技术研究

作     者:方思文 

作者单位:河南农业大学 

学位级别:硕士

导师姓名:尹飞

授予年度:2024年

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 0828[工学-农业工程] 08[工学] 081104[工学-模式识别与智能系统] 080203[工学-机械设计及理论] 0835[工学-软件工程] 0802[工学-机械工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

主      题:苹果目标识别 YOLO算法 注意力机制 果园管理软件 

摘      要:苹果生产对农村经济的发展、农民增收、生态环境的改善、出口创汇等都起到了很大的促进作用。目前,我国的苹果采摘主要依赖人工,而人工采摘所需费用约占成本的50%至70%。苹果采摘机器人在农业生产中具有巨大的应用潜力,不仅可以减轻采摘工人的劳动负担,降低生产成本,还能提高采摘效率。针对基于目标检测技术的苹果采摘机器人,目前已有研究主要集中在对苹果进行快速识别与精准定位上。然而当下苹果目标识别在自然环境下仍存在诸多挑战,如果实的相互遮挡、树枝树叶对果实的遮挡以及光照条件都会影响其识别的准确性。因此,研究出准确高效的苹果目标识别算法至关重要。 本文以白天、夜晚、逆光、红青混合、密集、不同遮挡程度情况下的苹果作为研究对象,通过改进YOLOv7模型,可更精确地识别和定位图像中的苹果,为果园管理和自动化采摘系统提供高效解决方案。主要研究内容如下: (1)基于YOLO的苹果目标识别模型研究。在果园实地采集苹果图像数据,对图像进行筛选后使用Label Img软件进行苹果位置标记,而后进行数据增强,构建苹果目标识别图像数据集,包含白天、逆光等八种共28745张苹果图像。本文选取YOLOv5全系列模型和部分YOLOv7模型开展苹果数据集训练与对比测试。结果表明:在相同数据集和训练参数下,YOLOv7-e6模型的精度均值(mean Average Precision,m AP)为97.4%,FPS值为23,模型训练精度优于其他模型但检测速度稍低,光线强弱对训练准确度影响很大。 (2)基于YOLOv7-tiny苹果目标识别算法的改进。为提高对目标识别模型的检测速度,选择轻量化模型YOLOv7-tiny进行改进。YOLOv7-tiny模型简化了网络的卷积层以及高效长程聚合网络的卷积数。为提高目标识别模型对弱光数据集的检测精度,在YOLOv7-tiny模型骨干网络中添加压缩和激励注意力机制(Squeeze and Excitation,SE)、卷积块注意力机制(Convolutional Block Attention Module,CBAM)。通过对比实验发现,嵌入CBAM注意力机制后的YOLOv7-tiny模型性能表现最佳,其在弱光数据集下的m AP值为93.6%,比YOLOv7-e6模型提高了2.8%。 (3)基于改进后的ELAN-CBAM-YOLOv7-tiny模型开发果园管理软件。针对果园缺乏苹果目标识别检测的实用性方法的问题,将改进后的YOLOv7-tiny模型集成到MATLAB中,设计出一款既能识别出苹果又能指导果农智慧种植的软件。该软件集成了苹果图像识别与计数、适宜性分析和病害资讯推送等功能。软件可根据上传的苹果图像自动识别并计数,还能根据地区特定参数评估种植某种苹果的适宜性,以及主动推送相关的病害防治资讯。帮助果农优化管理决策,为果园的日常管理和决策制定提供技术支持。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分