首页期刊导航|计算机科学
期刊信息/Journal information
计算机科学
计算机科学

朱完元

月刊

1002-137X

jsjkx12@163.com

023-63500828

401121

重庆市渝北区洪湖西路18号

计算机科学/Journal Computer ScienceCSCD北大核心CSTPCD
查看更多>>本刊的读者对象是:大专院校师生,从事计算机科学与技术领域的科研、生产人员。办刊宗旨是:坚持“双百”方针,活跃计算机科学与技术领域的学术气氛,重点报导国内外计算机科学与技术的发展动态,为我国的计算机科学与技术立于世界之林、达到国际先进水平奋斗而矢志不渝。
正式出版
收录年代

    基于YOLOv5s和双稳随机共振的夜间车辆检测算法

    胡鹏飞王友国翟其清颜俊...
    173-181页
    查看更多>>摘要:针对夜间车辆检测过程中光照不强导致漏检误检的问题,基于YOLOv5s和双稳随机共振提出一种改进的夜间车辆检测算法.YOLOv5s从4方面进行改进:1)在Backbone和Neck中更换细小结构,提高网络对小目标的检测能力;2)加入由坐标注意力CA和能量注意力SimAM构成的双注意力机制,提高网络对目标的特征提取能力;3)采用轻量化骨干Fasternet,减少模型参数量;4)在Head中采用WIoU损失函数,加快边界框回归损失的收敛速度.利用经典的双稳随机共振对夜间车辆数据集进行低照度图像增强,分析其有效性,并将增强后的夜间车辆图像传入改进的YOLOv5s网络进行训练.实验结果表明,相较于原始YOLOv5s,融合改进的YOLOv5s和双稳随机共振的夜间车辆检测算法在执行远景小目标以及密集遮挡的夜间车辆检测任务时具有更高的准确率和更低的漏检率.

    双稳随机共振低照度图像增强YOLOv5s双注意力机制轻量化骨干

    面向关系特性建模的知识图谱表示学习研究综述

    牛广林蔺震
    182-195页
    查看更多>>摘要:知识图谱表示学习技术可以将符号化的知识图谱转换为实体和关系的数值化表示,进而有效结合各类深度学习模型以赋能知识增强的下游应用.相较于实体,关系充分体现了知识图谱中的语义信息,建模关系的各类特性对知识图谱表示学习的性能非常关键.首先,针对一对一、一对多、多对一和多对多的复杂映射特性,梳理基于关系感知映射的模型、基于特定表示空间的模型、基于张量分解的模型和基于神经网络的模型;接着,面向建模对称、反对称、逆反和组合特性的多种关系模式,总结基于改进张量分解的模型、基于改进关系感知映射的模型和基于旋转操作的模型;其次,面向建模实体间隐含的层次关系,介绍基于辅助信息的模型、基于双曲空间的模型和基于极坐标系的模型.最后,针对稀疏知识图谱和动态知识图谱等更加复杂的情况,从融合多模态信息的知识图谱表示学习、规则增强的关系模式建模和针对动态知识图谱表示学习的关系特性建模等方面,讨论该领域研究的未来发展方向.

    知识图谱表示学习复杂映射关系关系模式层次关系

    事件抽取方法综述:深度学习与预训练对比分析

    王嘉宾罗俊仁周棪忠王超...
    196-206页
    查看更多>>摘要:事件抽取是伴随着信息技术的发展而诞生的.随着人们对从繁多的日常信息中抽取出有用信息的需求日益增强,事件抽取的研究发展也越发受重视.首先,介绍了事件抽取的发展历程,理清了事件抽取的发展脉络;其次,介绍了事件抽取的2种范式,并对管道型抽取和联合型抽取范式进行了对比分析;再次,围绕事件抽取的层级,分别从句子级事件抽取和篇章级事件抽取2个层面对近年来事件抽取的发展进行了梳理;然后,从传统型事件抽取方法、基于深度学习的事件抽取方法,以及基于预训练模型的事件抽取方法3个方面对事件抽取方法进行了对比分析;最后,介绍了事件抽取的典型应用场景,并根据事件抽取的发展现状,对未来事件抽取前沿发展进行了展望.

    事件抽取论元触发词要素抽取时序抽取预训练

    基于双编码器的多模态融合方法

    黄晓飞郭卫斌
    207-213页
    查看更多>>摘要:双编码器模型比融合编码器模型具有更快的推理速度,且能在推理过程中对图像和文本进行预计算.然而,双编码器模型中使用的浅交互模块不足以处理复杂的视觉语言理解任务.针对上述问题,提出了 一种新的多模态融合方法.首先,提出一种前交互式桥塔结构(PBTS),在单模态编码器的顶层和跨模态编码器的每层之间建立连接,使得不同语义层次的视觉和文本表示之间能够进行全面、自下而上的交互,从而实现更有效的跨模态对齐和融合.同时,为了更好地学习图像和文本的深度交互,提出了一种两阶段跨模态注意力双蒸馏方法(TCMDD),使用融合编码器模型作为教师模型,在预训练阶段和调优阶段同时对单模态编码器及融合模块的跨模态注意力矩阵进行知识蒸馏.使用400万张图片进行预训练并在3个公开数据集上进行调优来验证该方法的有效性.实验结果表明,所提多模态融合方法在多个视觉语言理解任务中获得了更优的性能.

    多模态融合双编码器跨模态注意力蒸馏桥塔结构

    基于半监督学习的域适应实体解析算法

    戴超凡丁华华
    214-222页
    查看更多>>摘要:实体解析旨在查找两个数据实体是否引用同一实体,是许多自然语言处理任务中的一项基本任务.现有的基于深度学习的实体解析解决方案通常需要大量的标注数据,即使利用预训练的语言模型进行训练,仍然需要数千个标签才能达到令人满意的准确性.现实场景中,这些标注数据并不容易获得.针对上述问题,提出了 一个基于半监督学习的域适应实体解析模型.首先,在源域上训练一个分类器,然后利用域适应减小源域和目标域的分布差异,同时用数据增强后的目标域软伪标签加入源域迭代训练,从而实现从源域到目标域的知识迁移.在13个来自相同或不同领域的数据集上对所提模型进行了对比实验和消融实验,实验结果表明,与无监督基线模型相比,所提模型在多个数据集上的F1值平均提升了 2.84%,9.16%和7.1%;与有监督基线模型相比,所提模型只需要20%~40%的标签就可以达到与有监督学习相当的性能.消融实验进一步证明了所提模型的有效性,其总体上可以获得更好的实体解析结果(相关代码已开源1)).

    实体解析域适应伪标签预训练语言模型数据增强

    基于PPO算法的不同驾驶风格跟车模型研究

    闫鑫黄志球石帆徐恒...
    223-232页
    查看更多>>摘要:自动驾驶对于减少交通堵塞、提高驾驶舒适性具有非常重要的作用,如何提高人们对自动驾驶技术的接受程度仍具有重要的研究意义.针对不同需求的人群定制不同的驾驶风格,可以帮助驾驶人理解自动驾驶行为,提高驾驶人的乘车体验,在一定程度上消除驾驶人对使用自动驾驶系统的心理抵抗性.通过分析自动驾驶场景下的跟车行为,提出基于PPO算法的不同驾驶风格的深度强化学习模型设计方案.首先分析德国高速公路车辆行驶数据集(HDD)中大量驾驶行为轨迹,根据跟车时距(THW)、跟车距离(DHW)、行车加速度以及跟车速度特征进行归类,提取激进型的驾驶风格和稳健型的驾驶风格的特征数据,以此为基础编码能够反映驾驶人风格的奖励函数,经过迭代学习生成不同驾驶风格的深度强化学习模型,并在highway env平台上进行道路模拟.实验结果表明,基于PPO算法的不同风格驾驶模型具有完成任务目标的能力,且与传统的智能驾驶模型(IDM)相比,能够在驾驶行为中准确反映出不同的驾驶风格.

    自动驾驶智能驾驶模型强化学习PPO算法主成分分析K-means

    CFGT:一种基于词典的中文地址要素解析模型

    黄威沈耀迪陈松龄傅湘玲...
    233-241页
    查看更多>>摘要:地址要素解析作为地理编码过程中的关键环节,直接影响到地理编码的准确性.由于中文地址表达的多样性和复杂性,两段相似的地址文本在地理表示上却可能完全不同.传统的通过词典匹配进行地址要素解析的方法无法较好地应对歧义词,从而导致识别准确率欠佳.文中提出一种基于词典的中文地址要素解析模型(Collaborative Flat-Graph Transformer,CF-GT),利用自匹配词、最近上下文等词汇信息增强地址文本字符序列表示,有效遏制了地址文本表达的歧义性.具体地,模型首先构建Flat-Lattice和Flat-Shift两种协作图,为地址字符捕获自匹配词和最近上下文词汇的知识,并设计融合层实现图之间的协作;其次,通过改进的相对位置编码,进一步强化词信息对地址文本字符序列的增强效果;最后,利用Transformer和条件随机场进行地址要素解析.在 Weibo和Resume等多个公开数据集及Address私有数据集上开展的实验表明,CFGT模型的性能优于已有的中文地址要素解析模型和中文命名实体识别模型.

    中文地址识别词典强化外部信息命名实体识别

    基于文本和图像门控融合机制的多模态方面级情感分析

    张添植周刚刘洪波刘铄...
    242-249页
    查看更多>>摘要:多模态方面级情感分析是多模态情感分析领域的一项新兴任务,旨在对给定的方面实体在文本和图像中所体现的情感进行识别.尽管多模态方面级情感分析研究近年来取得了突破性的进展,但是现有的模型在多模态特征融合阶段大都仅采用简单的拼接方法,而没有考虑图像中是否存在与文本语义不相关的信息,这在一定程度上可能会为模型引入额外的噪声.为了解决上述问题,提出了一种基于文本和图像门控融合机制的多模态方面级情感分析模型(TIGFM).该模型在文本和图像进行交互的同时引入了从数据集图像中提取的形容词-名词对(ANPs),并将其中形容词的加权作为图像辅助信息;此外,在特征融合阶段,通过构建一种动态控制图像和图像辅助信息输入的门控机制实现多模态特征融合.实验结果表明,TIGFM模型在两个基于Twitter的数据集上取得了具有竞争力的结果,进而验证了所提方法的有效性.

    多模态方面级情感分析门控融合机制形容词-名词对图像辅助信息语义相关性

    基于视觉语义与提示学习的多模态情感分析模型

    莫书渊蒙祖强
    250-257页
    查看更多>>摘要:随着深度学习技术的发展,多模态情感分析已成为研究热点之一.然而,大多数多模态情感分析模型或从不同模态中提取特征向量并简单地进行加权求和,导致数据无法准确地映射到统一的多模态向量空间中,或依赖图像描述模型将图像转化为文本,导致提取到过多不包含情感信息的视觉语义,造成信息冗余,最终影响模型的性能.为了解决这些问题,提出了 一种基于视觉语义与提示学习的多模态情感分析模型VSPL.该模型将图像转化为精确简短、蕴含情感信息的视觉语义词汇,从而缓解信息冗余的问题;并基于提示学习的方法,将得到的视觉语义词汇与针对情感分类任务而提前设计好的提示模板组合成新文本,实现模态融合,这样做既避免了由加权求和导致的特征空间映射不准确的问题,又能借助提示学习的方法激发预训练语言模型的潜在性能.对多模态情感分析任务进行了对比实验,结果表明所提模型VSPL在3个公开数据集上的性能超越了先进的基准模型.此外,还进行了消融实验、特征可视化和样例分析,验证了VSPL的有效性.

    多模态视觉语义提示学习情感分析预训练语言模型

    基于多尺度跨模态特征融合的图文情感分类模型

    刘倩白志豪程春玲归耀城...
    258-264页
    查看更多>>摘要:图文情感分类任务常用早期融合和Transformer模型相结合的跨模态特征融合策略进行图文特征融合,但该策略更倾向于关注模态内部的独有信息,而忽略了模态间的相互联系和共有信息,导致跨模态特征融合效果不理想.针对此问题,提出一种基于多尺度跨模态特征融合的图文情感分类方法.局部尺度方面,基于跨模态注意力机制进行局部特征融合,使模型不仅关注图像和文本的独有信息,而且可以发现图像和文本之间的联系和共有信息.全局尺度方面,基于MLM损失进行全局特征融合,使模型对图像和文本数据进行全局建模,进一步挖掘图像和文本之间的联系,从而促进图像和文本特征的深度融合.在两个公开数据集MVSA-Single和MVSA-Multiple上与10个基线模型进行对比实验,结果表明所提方法在精度、F1值和模型参数量方面均具有明显优势,验证了其有效性.

    图文情感分类跨模态特征融合Transformer模型注意力机制MLM损失