咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于改进好奇心的深度强化学习方法 收藏

基于改进好奇心的深度强化学习方法

Research on deep reinforcement learning method based on improved curiosity

作     者:乔和 李增辉 刘春 胡嗣栋 Qiao He;Li Zenghui;Liu Chun;Hu Sidong

作者机构:辽宁工程技术大学电气与控制工程学院辽宁葫芦岛125105 

出 版 物:《计算机应用研究》 (Application Research of Computers)

年 卷 期:2024年第41卷第9期

页      面:2635-2640页

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 0835[工学-软件工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金资助项目(51604141 51204087) 

主  题:深度强化学习 知识蒸馏 近端策略优化 稀疏奖励 内在好奇心 

摘      要:在深度强化学习方法中,针对内在好奇心模块(intrinsic curiosity model,ICM)指导智能体在稀疏奖励环境中获得未知策略学习的机会,但好奇心奖励是一个状态差异值,会使智能体过度关注于对新状态的探索,进而出现盲目探索的问题,提出了一种基于知识蒸馏的内在好奇心改进算法(intrinsic curiosity model algorithm based on knowledge distillation,KD-ICM)。首先,该算法引入知识蒸馏的方法,使智能体在较短的时间内获得更丰富的环境信息和策略知识,加速学习过程;其次,通过预训练教师神经网络模型去引导前向网络,得到更高精度和性能的前向网络模型,减少智能体的盲目探索。在Unity仿真平台上设计了两个不同的仿真实验进行对比,实验表明,在复杂仿真任务环境中,KD-ICM算法的平均奖励比ICM提升了136%,最优动作概率比ICM提升了13.47%,提升智能体探索性能的同时能提高探索的质量,验证了算法的可行性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分