咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >驾驶素质缺失测试眼状态的深度学习分类方法研究 收藏

驾驶素质缺失测试眼状态的深度学习分类方法研究

作     者:杨旺达 万亚平 邹刚 闵晓珊 王沂 陆宇程 

作者机构:南华大学计算机学院 中南大学湘雅医院 南华大学 北京邮电大学国际学院 

出 版 物:《计算机工程》 (Computer Engineering)

年 卷 期:2024年

学科分类:0402[教育学-心理学(可授教育学、理学学位)] 12[管理学] 040203[教育学-应用心理学] 04[教育学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 080203[工学-机械设计及理论] 0835[工学-软件工程] 0802[工学-机械工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:湖南省交通科技项目748010005(202052) 

主  题:驾驶认知 眼状态 图像分类 特征融合 注意力模块 

摘      要:统计显示由驾驶员的不安全行为导致的交通事故占多数,针对驾驶认知素质特性的研究,搭建虚拟驾驶场景评估驾驶者的驾驶素质,可以最大限度地贴近现实环境和操作,唤醒驾驶者的潜在驾驶能力和应对能力,对减少马路杀手有积极意义。眼球运动可以极大程度反映出驾驶者的认知状态,但目前多数眼动状态识别研究主要关注在自然状态中基本视觉运动方向或者眼睑的闭合,识别类别的能力和效果对于驾驶场景的认知状态评估有限。研究收集了十类静态眼动方向的双眼数据,并提出融合注意力机制的多尺度眼状态图像识别模型。首先使用部分卷积设计双分支特征融合模块,加强模型特征提取能力的同时减少计算冗余;然后在双分支特征融合的残差模块中嵌入改进的坐标注意力机制,提升模型对不同尺度特征的信息表征能力;最后对模型的通道结构和数量进行调整,平衡模型的参数量与识别准确率。实验结果表明,所提出的方法在提出的10类眼动状态数据集上识别准确率达到95.1%,相比改进前的网络提高3.4个百分点;在Eye Chimera数据集和MRL眼睛数据集上的识别准确率分别为95.1%和98.95%,可以满足在虚拟驾驶测试环境下眼动状态识别的要求,并为进一步结合多参数分析驾驶素质缺失任务奠定基础。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分