首页期刊导航|软件导刊
期刊信息/Journal information
软件导刊
软件导刊

高建平

月刊

1672-7800

softwaerguide@163.com

027-87821070

430071

湖北武汉洪山路2号湖北科教大厦D座5楼

软件导刊/Journal SoftWare Guide
查看更多>>《软件导刊》杂志是2002年经国家科技部和国家新闻出版总署批准,由湖北省科技厅主管、湖北省信息学会主办的全国性计算机软件类学术期刊。《软件导刊》杂志以服务计算机软件事业为使命,以“引领软件学科发展方向,响应软件产业发展潮流”为办刊宗旨,积极反映软件学科的新理论、新方法、新技术,把握学科发展趋势,促进学术交流,推动产业发展。
正式出版
收录年代

    命名实体识别研究综述

    胡德洲李贯峰
    1-9页
    查看更多>>摘要:命名实体识别是机器翻译、问答系统等应用领域的重要基础工具,一直是自然语言处理领域的研究热点之一.首先,介绍命名实体识别定义,整理命名实体识别任务中常用的实现工具、数据集和评估标准;其次,按照其发展历程总结现有命名实体识别方法,将其分为传统方法和深度学习方法;再次,归纳总结命名实体识别各方法的关键思想、优缺点,给出基于深度学习的命名实体方法的主要流程,并按照流程顺序进行综述;最后,展望命名实体识别未来的研究方向,为后续研究提供思路.

    自然语言处理命名实体识别机器学习深度学习

    基于GAN网络的目标图像生成方法综述

    王培龙苗壮王家宝李阳...
    10-19页
    查看更多>>摘要:生成对抗网络自2014年被提出以来,极大地推动了图像生成研究的进展.其通过两个神经网络的相互博弈,逐步提高鉴别真实图像与生成图像的能力,以及生成逼真图像的能力,最终使双方达到一种纳什均衡.简要介绍生成对抗网络,并围绕生成包含特定对象的图像这一问题对该网络在图像生成领域中的应用方法进行梳理,将其分为直接法、迭代法、分层法、解耦法和3D建模法5种类别.重点关注生成对抗网络在生成包含特定对象的图像方面的研究进展,并对该领域的发展方向进行展望,以期为相关人员进行图像生成研究提供参考.

    图像生成生成对抗性网络目标图像解耦人工智能

    基于深度神经网络的对话系统研究综述

    邢春康任勋益
    20-30页
    查看更多>>摘要:随着深度学习技术的崛起,自然语言处理应用取得了显著进展,特别是在对话系统研究中.为此,阐述对话系统基本流程,全面梳理基于深度学习的对话系统技术,包括卷积神经网络、循环神经网络和注意力机制三大类关键技术.同时,介绍3种模型的基本原理,并从信息抽取、对话状态追踪和对话生成方面深入分析比较了各基本模型及其衍生模型在对话任务上的应用、特点和优缺点.最后,指出对话任务中依旧存在的问题,并提出可行解决方案.

    深度学习自然语言处理注意力机制对话系统神经网络

    社交媒体假新闻检测:基本理论、方法及研究方向

    赵梦凡张钰涛赵铤钊
    31-40页
    查看更多>>摘要:社交媒体平台的迅速发展不仅极大增强了信息的可访问性,而且加速了假新闻的传播.假新闻的爆炸性增长不仅损害社会稳定,还会侵蚀公众对媒体的信任.在自然语言处理领域中,假新闻检测是一个关键而富有挑战性的任务.为此,首先给出假新闻的定义,深入分析其特征;其次从新闻内容、社交语境、传播网络和混合方法4个角度对现有假新闻检测方法进行分析与评估,介绍相关模型性能、常用数据集以及评价指标;最后,总结并分析目前假新闻检测研究中存在的问题,提出后续可能的研究方向.

    社交网络假新闻自然语言处理早期检测可解释性

    基于LSTM与深度矩阵分解的推荐融合模型

    丁伟健卢敏杨忠明陈丽萍...
    41-47页
    查看更多>>摘要:针对现实推荐场景中多数推荐算法忽略用户偏好动态变化的时效因素,导致模型性能受限的问题,提出一种基于LSTM和深度矩阵分解的推荐融合模型LFDMF.该模型通过广义矩阵分解学习用户和项目间非线性低阶特征,运用多层感知机学习用户和项目间非线性高阶特征,获取用户长期动态偏好,利用LSTM对时间序列的强拟合能力,获取用户短期动态偏好.为验证LFDMF模型的有效性和可行性,在公开数据集MovieLens-1M和Pinterest上进行对比实验.仿真实验表明,LFDMF模型的HR@10和NDCG@10指标相比传统MF算法分别提升了0.103 4和0.132 2、0.118 1和0.101 8;相比DMF模型分别提升了0.022 8和0.032 3、0.016 9和0.013 5,推荐性能显著提升.

    推荐融合广义矩阵分解多层感知机跳跃连接长短期记忆网络

    诗词自动生成隐写算法与系统

    芦晶赵翔张渊皓杨婉霞...
    48-55页
    查看更多>>摘要:中国古诗词具有结构工整、情感丰富、篇幅适中等特点,适合作为生成式无载体信息隐写的天然载体,但由于其语义含蓄、寓意深远、风格多样,使得自动生成诗词的隐写极具挑战性.随着大语言生成模型的出现,诗词生成的质量得以大幅提高,但将大语言模型应用于诗词生成的隐写还未有报道.为此,引入BERT情感分析模型,结合At-tention机制设计了Seq2Seq自动生成诗词的隐写算法和模型,并基于PN40构建了相应的硬件系统和GUI界面.在主题词引导以及格律/情感/互信息的约束下,生成多模式隐写诗词并实现了系统上的快速输出.实验结果表明,所提模型生成的隐写诗词主题明确,情感一致,BLEU评测值高达44.3%,情感分析平均准确率均高于85%,极大增强了隐写诗词的感知和统计隐蔽性,加快了生成式信息隐写的应用.

    诗词大语言模型情感分析隐蔽性信息隐写

    融合外部知识的知识图谱问答方法研究

    白云天郝文宁靳大尉刘小语...
    56-62页
    查看更多>>摘要:知识图谱问答是自然语言处理领域的热门研究方向之一.现有方法主要存在两大挑战:一是难以理解复杂的自然语言形式问题,二是实体表示通常只限于字面含义,缺乏深入的语义阐释.针对上述问题,提出一种融合外部知识的知识图谱问答方法DEK-KGQA.首先通过问题知识图谱子图和QA上下文构建联合图,其次利用预训练语言模型计算联合图中节点的相关性评分,最后引入外部知识,以增强问答推理过程中的信息交互和推理能力.在Com-monsenseQA数据集上进行实验验证,并与现有方法进行比较.实验结果表明,该方法在常识问答任务中取得了更好的效果,验证了该方法的有效性.此外,通过消融实验验证了该方法中各个部分对整体性能的影响.

    知识图谱问答QA上下文预训练语言模型外部知识

    基于自编码器与时域卷积神经网络算法的配电网线损分析

    刘超侯人杰
    63-69页
    查看更多>>摘要:复杂的配电网环境中存在线损计算精确性、实时性不足的问题,因此提出基于循环神经网络自编码器改进的TCN-BiGRU配电网线损预测方法.选用擅长处理时间序列的TCN神经网络模型作为主干特征提取网络,在TCN中融入BiGRU单元以有效解决梯度消失问题.在此基础上,结合循环神经网络自编码器对线损异常值进行无监督分类并标记,通过softmax损失函数预测线损率异常原因,并制定相应降损措施,同时利用改进后的TCN-BiGRU算法对线损进行预测及成因分析.实验结果表明,与传统的配电网线损预测方法相比,该线损预测方法的均方根误差相较于传统的EMD-LSTM与PSO-CNN算法分别降低了0.036 99和0.004 02,在线损成因分析方面的准确率相较于ResNet50与DBN-DNN算法分别提高了1.500%和5.841%,为分布式电源接入后配电网节能降损、实现电网双碳目标提供了科学的参考依据.

    循环神经网络自编码器TCN-BiGRU线损预测算法智能电网线损异常成因分析台区线损预测

    滇池蓝藻水华的RF-LSTM预测模型

    邹阳刘祎段玮范思若...
    70-75页
    查看更多>>摘要:为了监测、分析气象因子对蓝藻水华暴发的制约作用,建立蓝藻水华暴发与气象因子的响应关系,预测蓝藻生物量及分布变化.通过随机森林算法定量评估气象因子的重要性和贡献率,优选出气象因子,采用长短期记忆网络构建蓝藻水华预测模型.选择滇池2000-2021年归一化植被指数的年值和同期昆明站气象数据为研究对象,以归一化植被指数作为蓝藻水华的变化指标,探讨基于随机森林算法的长短期记忆网络RF-LSTM在蓝藻水华预测中的可行性.结果表明,与单一结构的长短期记忆网络模型和单一算法的随机森林模型相比,RF-LSTM模型的年值预测通过0.01显著性检验,模拟精确度达90.9%.随机森林算法利于理解蓝藻水华与气象因子的关系,选择有预测性能的气象因子,从而提升长短期记忆网络模型的预测能力.

    蓝藻水华气象因子随机森林长短期记忆网络滇池

    基于ADTDNN的低资源语音识别方法研究

    顾龙昊黄连丽周奎张子越...
    76-81页
    查看更多>>摘要:为解决低资源条件下由于训练数据不足导致识别精度降低、泛化能力较差的问题,提出一种语音识别方法.该方法利用卷积池化提取特征信息,将Attention机制与DTDNN融合成为ADTDNN,以提升低资源环境下模型捕捉序列中关键信息的能力;采用链接时序分类简化模型的识别流程;使用Transformer作为语言模型.在Aishell-1数据集上的实验结果表明,低资源环境下基于ADTDNN的语音识别模型与LAS、Transformer等主流端到端模型相比,字错误率分别降低了3.7%和1.0%.

    语音识别时延神经网络Transformer数据增强低资源