首页期刊导航|计算机与现代化
期刊信息/Journal information
计算机与现代化
江西省计算机学会 江西省计算技术研究所
计算机与现代化

江西省计算机学会 江西省计算技术研究所

刘波平

月刊

1006-2475

jgsdd@163.com

0791-86490996

330002

南昌市井冈山大道1416号

计算机与现代化/Journal Computer and ModernizationCSTPCD
查看更多>>《计算机与现代化》杂志成为“中国科技核心期刊”、“中国科技论文统计源期刊”!《计算机与现代化》系《中国学术期刊综合评价数据库来源期刊》;《中国学术期刊(光盘版)》、《中国期刊网》、《中国数字化期刊群》、《中国核心期刊(遴选)数据库》全文引用期刊。其特点是:时效性强,密切跟踪计算机科技发展动态,以最快的速度精选刊登计算机专业的新理论、新技术及其在各领域应用成果的论文。既有相当的学术水平,又有实际指导意义。编辑管理规范,系《CAJ-CD规范》执行优秀奖期刊。 设有栏目:系统分析与设计、软件工程、网络与通信、控制技术、计算机辅助设计、中文信息技术、人工智能、信息系统与ERP、信息安全技术、电子商务、图像处理、应用与实践等。 《计算机与现代化》于1985年创刊,多年来得到广大读者和作者的厚爱和支持,在此表示衷心的感谢,欢迎订阅投稿。
正式出版
收录年代

    基于改进YOLOX和新型数据关联方式的无人机多目标跟踪方法

    付书岗
    59-66页
    查看更多>>摘要:无人机视频中的多目标跟踪是一项重要的计算机视觉任务,在各个领域有着广泛的应用.针对无人机视频场景中目标遮挡、小目标、背景复杂多变等挑战,本文提出一种改进的无人机多目标跟踪模型.首先,本文对YOLOX进行改进,将Swin Transformer集成到网络中以增强全局信息提取能力,并增加一个额外的检测头来改善对小目标的检测能力,此外引入CBAM注意力模块来增强聚焦有用信息的能力.数据关联阶段,本文采用一种新型数据关联方式,保留所有检测框,并根据置信度将其划分为高分检测框和低分检测框,对高分检测框与跟踪轨迹进行第一次关联,将未匹配轨迹与低分检测框进行二次关联.在公开数据集VisDrone2021和UAVDT上的实验结果表明,本文方法在无人机多目标跟踪场景中具有较高的优越性和鲁棒性.

    多目标跟踪无人机视频注意力机制数据关联

    手势识别与交互综述

    魏嘉焜王家润
    67-76页
    查看更多>>摘要:手势识别与交互技术是人机交互技术与人工智能技术前沿研究的基石任务.该任务以计算机和设备协同工作识别、处理手势信息并给出与手势相对应的机器操作为主要目标,融合应用了动作捕捉、图像处理、图像分类、多端协同交互工作等多项技术,是支撑指挥控制系统、机器人交互、医疗操作等当下前沿智能交互工作与人机交互工作的有力保障.目前,手势识别与交互的相关研究已经日渐成熟,应用领域广泛、应用场景丰富.本文主要对手势识别与交互的相关技术和硬件发展做出综述.首先,全面梳理手势识别与交互技术的研究进展,同时对手势识别的关键步骤进行归类描述;其次,分类阐述用于三维手势交互的当前主流手势识别深度传感器的相关工作;随后,对三维手势识别的真实感识别技术进行剖析和讨论;最后,分析手势识别与交互技术中存在的不足与亟待改进的问题,提出融合深度学习、模式识别等前沿技术与有可行性的研究思路和方法,对该领域未来的研究方向、技术发展和应用领域做出预测和展望.

    手势识别手势交互人机交互多模态智能交互计算机视觉

    多尺度双注意力的图像超分辨率重建方法

    王鑫余磊
    77-87页
    查看更多>>摘要:针对当前已有的图像超分辨率重建方法存在提取的特征信息单一、特征利用率低等问题,提出一种多尺度双注意力的图像超分辨率重建方法(MSDA).首先,该方法通过多尺度特征提取块,提取输入图像不同尺度的特征信息;其次,引入双注意力机制使网络快速关注图像高频信息区域,利用跳跃连接来减少特征信息在深层次网络递进过程中的信息丢失;最后,使用dropout层来均衡化特征通道重要性,防止网络协同适应,提升模型的泛化性.在公共测试集Set5、Set14、BSD100、Urban100、Manga109上的实验结果表明:MSDA取得了较好的效果,重建后的图像具有更多高频信息,纹理细节丰富,观感上更接近原始高分辨率图像.

    超分辨率多尺度特征双注意力跳跃连接

    基于DCGAN的课堂表情图像生成方法

    徐新爱李钢
    88-91,126页
    查看更多>>摘要:为了构建课堂表情图像数据库,弥补特定条件下课堂表情多样性的不足,提出一种利用深度卷积生成对抗网络(Deep Convolutional Generative Adversarial Networks,DCGAN)生成课堂表情图像的方法.首先,利用线下教学监控视频和线上课堂视频自主采集课堂表情图像,得到较均衡且样本特征丰富的小型图像集;其次,对原始图像进行去雾、增强、镜像等图像预处理操作,构建课堂表情数据训练集;再次,通过对基于DCGAN模型的课堂表情图像生成网络的构建和初步参数设置,并不断优化网络超参数,以生成课堂表情图像数据集;最后,利用人脸检测算法和IS(Inception Score)评价指标对生成课堂表情图像进行检测和评价,并验证生成图像在检测网络中的可行性和有效性.实验结果表明:本文基于DCGAN的方法能够生成较逼真的课堂表情图像,能够有效地增广课堂表情数据集,增强课堂表情图像的多样性.

    深度学习深度卷积生成对抗网络图像生成课堂表情

    基于图像分类的自动绘画心理分析方法

    赵小明潘婷刘伟锋
    92-97页
    查看更多>>摘要:绘画心理分析广泛应用于心理问题的发现和精神障碍的治疗中.房树人测试是最具代表性的绘画心理分析方法,通过画者绘制的房屋、树木和人物,投射个体的心理状态.相比于问卷式心理筛查,房树人测试具有非语言性、投射性、创造性等优势,能有效地突破被测者的心理防御.目前,房树人测试是由咨询师实施并进行评定,在大规模的心理筛查中耗时较长,而且评定结果会受到咨询师的经验和主观性的影响.因此,建立一种自动化方法来提高房树人测试的客观性、可靠性和效率是必要的.本文基于心理状态和绘画特征之间的关系提出一种自动的房树人测试绘画筛查方法.本文提取画面的面积、位置、阴影等关键特征,并将这些特征组合构建绘画分类器.该方法可有效地筛查出负向绘画,以便进一步地诊断和治疗.同时本文收集来自高校心理咨询中心的房树人测试绘画并制作房树人数据集以进行实验,实验结果表明了该方法的优越性和应用价值.

    图像分类特征提取绘画心理分析房树人测试

    基于图像的群体情绪识别综述

    高帅鹏王怡凡
    98-107页
    查看更多>>摘要:近年来,基于图像的群体情绪识别受到了广泛关注,其旨在准确判断不同场景不同数量人群下群体的整体情绪状态.由于群体情绪识别涉及图像中人脸情绪特征、场景特征、人体姿态特征等多种群体情绪线索的分析和融合,使得该领域十分具有挑战性.现阶段该领域缺少相关综述性的文章对现有的研究进行整理,从而更好地进行下一步的研究.本文对该领域内不同情绪线索和不同处理方式的群体情绪识别模型进行细致梳理和分类;同时回顾并分析现有模型的处理方法和特点,整理不同融合方式的模型以及该领域的主流数据库;最后,针对该领域的发展进行简要总结和展望.

    群体情绪识别深度学习卷积神经网络注意力机制

    基于YOLOv5s的无人机图像车辆检测

    王涛黄丹刘禅奕朱桃...
    108-113页
    查看更多>>摘要:无人机拍摄的车辆图像存在背景复杂、目标尺度变化大的问题,导致现有的网络模型在进行车辆检测时很难检测出小目标物体,容易造成小目标物体误检和漏检.为此,本文基于YOLOv5s网络进行改进.首先,用K-means++算法对数据集进行聚类,得到更优的锚框参数;其次,结合SPD-Conv小目标检测模块,降低误检漏检率,以提高车辆检测时的精度;最后,将原网络的检测头模块替换为检测头解耦模块,对分类和回归任务进行解耦,从而进一步提高分类精度.本文采用无人机拍摄图像数据集VisDrone-2019-DET来进行车辆检测,改进之后的网络均值平均检测精度(mAP)达到53.0%,相比于YOLOv5s模型提高了6.3个百分点,能够有效降低小目标误检漏率,从而能更加精准地进行车辆检测.

    YOLOv5s小目标车辆检测K-means++SPD-Conv检测头解耦模块

    字符模糊的中文纸质发票文字识别方法

    来坤
    114-119页
    查看更多>>摘要:基于纸质发票字符模糊导致OCR识别性能低下的问题,本文提出一种自适应迭代视觉语义模型来解决此问题.该模型包含2个模块:识别模块利用ResNet作为编码器,Transformer为解码器对模糊文本进行初步预测;修正模块将识别模块的预测结果传入双向语义模型,依据上下文语义信息修正字符,进行初步的文本修正,再将结果与标签输入判别器,若判别成功则直接输出结果,若判别失败则会将结果迭代语义模型,进一步修正,提高识别率.实验结果表明,本文所提模型相比目前的中文识别模型ch_PP-OCRv3的识别正确率高出3.39个百分点,与其他模型相比识别率平均提高6.81个百分点,并且在IC15、IIIT5K和IC03-Word等公开数据集中均表现出色,验证了模型的泛化性能.

    文字识别模糊文本纸质发票神经网络ResNet

    基于改进TF-IDF和AGLCNN的新闻长文本分类模型

    周宪溪牟莉
    120-126页
    查看更多>>摘要:新闻长文本分类是自然语言处理中的一项重要任务,但传统的文本表示方法存在特征稀疏、语义不足等问题.此外,新闻长文本含有大量的冗余信息,并且可能涉及其他主题,以上问题都会导致文本特征提取不全面.为此,本文提出一种基于改进TF-IDF算法和AGLCNN的新闻长文本分类模型.该模型首先利用特征项在类间与类内分布情况及其位置信息来改进TF-IDF算法,并结合Word2Vec词向量进行文本表示;利用注意力机制突出关键字信息,输入至Bi-LSTM捕获文本上下文特征;接着利用CNN突出新闻主题的显著特征;考虑到新闻长文本中可能存在涉及其他主题信息的句子,引入门控机制对Bi-LSTM和CNN输出特征进行融合,获得最终的文本特征表示;最后,将特征向量输入Softmax层进行新闻分类.在THUCNews数据集和搜狐新闻数据集上进行对比实验,结果表明,所提模型在2个数据集上的召回率分别为0.985和0.976,优于其他分类模型.

    文本分类TF-IDF注意力机制卷积神经网络特征项

    征稿启事

    封2,封3页