摘要
作为一种人类特有的沟通方式,幽默在人与人的交流之中扮演着重要的角色。从早期的幽默语言学研究,到近期的幽默计算研究,人们一直在致力于识别和理解幽默,使其更好的服务于人类社会。随着互联网的高速发展,社交媒体产生了大量数据,这些用户生成数据为幽默的分析与研究提供了数据支撑。然而,社交媒体中存在着大量的多媒体内容,传统的基于文本的幽默识别方法存在着局限性。此外,在社交媒体中,内容和用户均是其重要的组成要素,但现有的幽默计算研究主要面向内容,而忽视了用户的存在。在上述背景下,本文针对社交媒体的特点,从多模态和社交网络切入幽默识别研究,并对幽默感评价任务进行了探索。 首先,针对现有的图文幽默识别数据集中图像和文本模态之间存在独立性,导致各模态相关性差的问题。文本提出了一种基于模板生成数据的图文幽默数据集构建方案。模板将图像和文本的对应关系从一对一变为一对多,使得模型必须将图像中的信息与文本进行结合之后才能识别幽默。基于上述方案,本文进行了数据集构建工作,并设计了实验方案。实验结果证明了在图文多模态幽默研究中引入模板进行信息约束的有效性,以及结合两种模态信息识别幽默的必要性。 其次,针对传统的幽默识别研究主要面向内容,而忽视了社交媒体交互关系信息的问题。本文提出了一种对社交媒体的信息传递和互动交互的社会背景进行建模的方法,并将其应用于幽默识别任务,构建了相关数据集。随后,本文提出了基于社交关系图的幽默识别框架,该框架使用异构图神经网络对节点特征进行了表示学习,并应用于下游的幽默识别任务。实验结果证明了该框架中特征提取和表示学习方法的有效性,以及在幽默识别任务中融合社交关系信息的必要性。 最后,针对传统的幽默计算研究主要面向客观事物,而忽视了对人的分析和评价的问题。本文参考心理学研究对个体幽默感的定义,从幽默欣赏和幽默创作两方面对用户进行幽默感标注,并定义了幽默感评价任务。对于该任务,本文提出了一种基于社交关系图的幽默感评价框架。该框架在图表示学习的基础上引入了归纳式学习和多目标优化。前者使模型可以灵活的增加用户节点进行评价;后者使模型可以同时对幽默识别任务、幽默感评价任务和用户临近度进行优化。实验结果证明了对人进行幽默感评价的可行性,以及幽默感评价框架的有效性。