Multimodal Emotion-Cause Pair Extractionin Conversations
创始人
2025-05-30 18:05:48

对话中的多模态 情绪-原因对 的提取

论文题目(Title):Multimodal Emotion-Cause Pair Extraction in Conversations

研究问题(Question):情绪原因提取,以及情绪原因对提取

研究动机(Motivation):现有对话情绪识别的工作中缺少情绪原因的分析

主要贡献(Contribution):

1. 提出对话中情绪原因对的提取任务Multimodal Emotion-Cause Pair Extraction(MECPE);

2. 以情景喜剧《老友记》为来源 ,构建了一个多模态情感原因数据集(ECF)。

研究思路(Idea):

任务1:多模态情绪-原因对提取 (MECPE),分为主观原因和客观原因。

任务2:多模态情绪-原因对提取 情绪类别(MECPE-Cat),如图3,哪个对话造成了哪个情绪的产生。

研究方法(Method):

首先基于训练好的情感分类器识别情绪话语,然后根据两种相对位置(即, -2, -1, 0)的先验分布,对一个情绪的原因话语进行抽样。

C-Bernoulli:基于多变量伯努利分布假设,我们独立地对每个相对位置进行二元预测,以确定其对应的话语是否是原因话语;

文本:用预先训练好的300维GloVe向量初始化每个标记,并将它们输入一个带有标准注意机制的BiLSTM编码器,然后获得每个话语的文本特征。除了BiLSTM之外,还使用预先训练好的BERT作为基本的单词编码器,并将每个话语独立地输入其中。

音频:基于INTERSPEECH 2009情感挑战特征集,通过openSMILE工具包提取6373维声学特征;

视频:应用了一种3D-CNN网络,命名为C3D,利用深度3D ConvNet学习时空特征,从每个话语的视频中提取128维的视觉特征vi。具体来说,我们从每个视频中采样16帧,分辨率为171 × 128,并将它们馈送到C3D网络中提取a4096维视频描述符,然后用线性层进行降维。

研究过程(Process):

        1.数据集(Dataset):ECF数据集

        2.评估指标(Evaluation)

         3.实验结果(Result)

 总结(Conclusion):MECPE是一项具有挑战性的任务。这项工作只是对这项任务的初步研究。提议的 两个基线系统有很大的改进空间。虽然多模态特征被证明对 MECPE任务是有效的,但增加是相当有限的。

相关内容

热门资讯

券商经营效率持续提升 ROE水... 上市券商2025年前三季度净利润同比增长62%,平均ROE为5.5%,总体经营形势稳中向好。在中国资...
或为解决同业竞争,控股股东溢价... 11月21日,荃银高科(300087.SZ)盘中触及涨停,截至收盘,股价报11.81元/股,涨16....
筹划重大资产重组!成都盛帮股份... 微成都报道 11月18日晚间,成都盛帮密封件股份有限公司(简称“盛帮股份”,301233.SZ)披露...
沃尔玛:电商、广告稳增长,山姆... 11月20日,沃尔玛发布2026财年第三季度业绩。财报显示,沃尔玛总营收1795亿美元,同比增长5....
不同地区私募十强!幻方上榜杭州... 私募排排网数据显示,截至2025年10月底,国内证券私募总家数为7586家,其中一线城市(北上广深杭...