咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于视觉语言模型的跨模态多级融合情感分析方法 收藏

基于视觉语言模型的跨模态多级融合情感分析方法

Cross-Modal Multi-level Fusion Sentiment Analysis Method Based on Visual Language Model

作     者:谢润锋 张博超 杜永萍 XIE Runfeng;ZHANG Bochao;DU Yongping

作者机构:北京工业大学信息学部北京100124 

出 版 物:《模式识别与人工智能》 (Pattern Recognition and Artificial Intelligence)

年 卷 期:2024年第37卷第5期

页      面:459-468页

核心收录:

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家重点研发计划项目(No.2023YFB3308004) 国家自然科学基金项目(No.92267107)资助 

主  题:视觉语言模型 多模态融合 多头注意力 混合专家网络 情感分析 

摘      要:图文多模态情感分析旨在通过融合视觉模态和文本模态预测情感极性,获取高质量的视觉模态表征和文本模态表征并进行高效融合,这是解决图文多模态情感分析任务的关键环节之一.因此,文中提出基于视觉语言模型的跨模态多级融合情感分析方法.首先,基于预训练的视觉语言模型,通过冻结参数,采用低阶自适应方法微调语言模型的方式,生成高质量的模态表征和模态桥梁表征.然后,设计跨模态多头互注意力融合模块,分别对视觉模态表征和文本模态表征进行交互加权融合.最后,设计混合专家网络融合模块,将视觉、文本的模态表征和模态桥梁表征结合后进行深度融合,实现多模态情感分析.实验表明,文中方法在公开评测数据集MVSA-Single和HFM上达到SOTA.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分