首页期刊导航|重庆理工大学学报
期刊信息/Journal information
重庆理工大学学报
重庆理工大学
重庆理工大学学报

重庆理工大学

石晓辉

月刊

1674-8425

023-62769495

400050

重庆市九龙坡区杨家坪

重庆理工大学学报/Journal Journal of Chongqing Institute of Technology北大核心CSTPCD
查看更多>>本刊是中国学术期刊综合评价数据库来源期刊,中国科技核心期刊,重庆市一级期刊,教育部优秀期刊。主要刊登有创造性、探索性、开拓性的学术论文、科研成果报告、重要学术问题的评述和学科前沿的综述。
正式出版
收录年代

    融合CAM和ASPP的车道线检测算法研究

    朱娟朱国吕岳晓峰
    86-94页
    查看更多>>摘要:UFLD(ultra fast structure aware deep lane detection)是一种轻量化车道线检测模型,为提升模型的检测精度,对模型进行改进.引入CAM(channel attention mechanism)使模型能更关注携带重要车道线信息的特征通道和像素;为了感知车道线的细节信息,引入ASPP(atrous spatial pyramid pooling)扩大卷积过程的感受野,提高模型分割精度;搭建引入CAM和ASPP后的改进模型,并在改进的模型上进行实验.实验结果表明:在TuSimple数据集上以Res-Net18为主干网络的模型检测精度由95.81%提升至95.98%,以ResNet34为主干网络的模型检测精度由95.84%提升至96.12%;在CULane数据集上,无论是以ResNet18还是以ResNet34为主干网络模型,其平均精度均有不同程度的提高.

    车道线检测CAMASPP融合算法

    网格自适应加密在汽车CFD中的应用

    陈祎秦玲肖竣夫徐磊...
    95-101页
    查看更多>>摘要:以CAERI Aero Model为基础研究模型,提出基于网格自适应加密方法的自动化计算流程,验证了该方法在汽车空气动力学CFD仿真中计算结果的准确性及应用可行性.对比网格自适应加密与传统网格加密计算方法,结果表明:应用基于网格自适应加密方法的CFD计算结果与风洞试验误差小于1%,该方法仿真精度高;在保证流场三维结构一致的情况下,能减少整车约13%的体网格数量;提高计算时间效率约9.6%.研究结果可为网格自适应加密方法在汽车CFD中的应用提供重要参考.

    汽车空气动力学网格自适应加密CAERIAeroModelCFD

    一种大众麻将计算机博弈的快速出牌方法

    张小川严明珠涂飞陈俊宇...
    102-107页
    查看更多>>摘要:麻将是一种典型的不完美信息博弈的项目,目前对于麻将问题的解决方法大多朝着深度强化学习方向进行研究,也取得了非常好的效果.但是,此类麻将AI都是建立在有高质量数据集基础上的,而大众麻将缺少关键的大量有效标注的数据集,因此,如何在对弈中快速出牌就成为主要问题.针对以上问题,对出牌动作进行研究,以启发式快速出牌为思路,提出了面向敌方胡牌牌张的蒙特卡洛评估法,将启发式快速出牌方法和蒙特卡洛评估法相结合,对每张手牌进行估值计算,通过估值分数决定每轮出牌牌张.以历史出牌次数为分界点,以此分界将博弈过程时序化为前后2个决策时段,前段采用启发式快速出牌方法,后段采用蒙特卡洛评估法.通过前后时段法分层递进决策处理过程,给出最佳出牌着法,能有效减少出牌的决策时间并降低点炮率.采用所提方法的程序在中国计算机博弈锦标赛中获得了一等奖,证明了该方法的有效性.

    计算机博弈不完美信息博弈麻将启发式快速出牌蒙特卡洛评估法

    改进深度神经网络在爱恩斯坦棋中的应用研究

    蔡彪徐昕怡谢婷胡洋成...
    108-114页
    查看更多>>摘要:爱恩斯坦棋作为一种附带随机性的完美信息博弈,其难度在于每次投掷骰子导致的结果不确定性,这增加了策略设计和局面的评估难度.针对爱恩斯坦棋的游戏规则,提出了一种改进的深度学习方法.对Alpha(go)Zero神经网络模型进行改进和设计,使其能精确地评估各种棋盘状态,生成有效的游戏策略.通过结合改进的残差神经网络和蒙特卡洛树搜索,提取棋局特征并进行局面评估,动态生成策略和进行决策.结合强化学习,以期望胜率为准则,通过自我对弈不断优化权重,改进策略生成效果.实验结果表明:改进的深度学习方法优于全国计算机博弈大赛冠军组算法,进一步验证了深度学习方法在爱恩斯坦棋随机性完美信息博弈中的有效性和可行性.

    计算机博弈非完美信息博弈爱恩斯坦棋深度神经网络

    融合经验知识与深度强化学习的久棋Alpha-Beta算法优化研究

    张小川杨小漫涂飞王鑫...
    115-120页
    查看更多>>摘要:藏族久棋作为一种传统的棋类博弈游戏,具备高度复杂的规则体系以及变幻莫测的棋局演变.传统的博弈策略在面对不同对手和棋局时不稳定,性能差,需要新的方法提高藏族久棋AI的博弈水平.以藏族久棋为研究对象,针对布局阶段,改进传统Alpha-Beta剪枝搜索算法,并结合经验知识,融入深度强化学习算法完成棋盘布局合理性的落子选择,以此为后续阶段铺路.在行棋阶段与飞子阶段,结合经验知识使用Alpha-Beta算法,完成行棋路径.最后,将所提算法和策略集成于久棋AI程序,在中国计算机博弈锦标赛中取得了良好的成绩,验证了该方法的有效性.

    藏族久棋经验知识Alpha-Beta算法深度强化学习计算机博弈

    一种连续型不确定性复杂系统博弈理论及算法研究

    曹黎侠祝士杰
    121-129页
    查看更多>>摘要:当前对于不确定性复杂系统博弈的研究,通常情况下有关策略集是离散的,而非连续和随机的.而在复杂经济社会系统中,常常会遇到连续性随机博弈问题,以及系统中数据的确权问题.在此背景下,提出了一种随机博弈的概念,给出连续策略集下N人非合作随机博弈模型均衡解存在性定理,以及复杂信息系统随机博弈模型的构建及其纳什均衡解算法.给出连续策略下不确定性N人非合作随机博弈概念,建立以局中人的最大收益为目标函数的N人非合作随机博弈模型,提出了均衡解的存在性定理;构建了Wasserstein模糊集,之后融合分布鲁棒优化方法以及投资组合优化方法将该模型转化为有限凸规划,并运用遗传算法求解局中人的近似混合策略,最后构建了基于回归分析的纳什均衡求解算法并将纳什均衡解归一化进行确权.实证分析表明,所构建的理论与算法是有效可行的.

    纳什均衡解Wasserstein模糊集分布鲁棒优化方法有限凸规划遗传算法

    维护全局博弈图的蒙特卡洛图搜索

    徐长明周其磊王一川王栋年...
    130-136页
    查看更多>>摘要:AlphaGo系列算法利用具备学习价值神经网络和策略神经网络主导蒙特卡洛树搜索的方法,成功地推动了棋类游戏人工智能的迅速发展.而最近,已有成果表明采用蒙特卡洛图搜索替代蒙特卡洛树搜索能够进一步提高程序的对弈水平.在此基础上,提出了一种新的基于蒙特卡洛图搜索的方法——维护全局博弈图的蒙特卡洛图搜索算法.该方法通过维护一个全局的博弈图,采用过期结点删除算法清除无价值的结点和边,并利用对手的时间进行推理计算等措施,提高了程序的博弈水平.以海克斯棋为实验对象,结果证明,在计算资源受限情况下相比其他搜索算法胜率有所提升.

    AlphaGo系列算法计算机博弈蒙特卡洛图搜索计算资源

    国标麻将的多尺度骨干神经网络模型

    代君学李霞丽刘博王昭琦...
    137-144页
    查看更多>>摘要:在有多轮次、状态空间巨大、81种不同类别的番种、胡牌方式复杂的国标麻将中,普通的神经网络难以对复杂的数据进行表达和拟合.首次将多尺度骨干的深度神经网络用于实现麻将AI,以更好地捕获国标麻将的局部以及全局特征,适用于处理复杂数据,做出更准确的游戏策略.基于IJCAI 2020 Champion的对局数据,对训练数据进行数据增强.采用增强后的数据,在NVIDAI GeForce RTX3090 LapTop GPU上进行了5天的监督学习训练,训练出的模型有52 M参数,动作准确率达到93.47%,弃牌准确率达到83.93%,鸣牌准确率达到97.56%.将提出的模型部署到北京大学开发的Botzone平台上,进入天梯榜前1%.

    深度学习麻将卷积神经网络Res2Net50多尺度骨干架构

    基于深度强化学习的双置换表优化算法研究

    王栋年王军伟薛世超汪超...
    145-153页
    查看更多>>摘要:基于深度强化学习的计算机博弈程序(如AlphaGo)已在围棋上战胜了人类世界冠军.这些算法利用可学习的价值神经网络和策略神经网络指导蒙特卡洛树的探索.为提高蒙特卡洛树的搜索性能,已提出多种改进方法,其中置换表已被证明可提高搜索效率.在此基础上,提出一种新的基于置换表的方法——基于深度强化学习的双置换表优化算法.该方法使用不同的替换策略管理双层置换表,并将六子棋的两步落子解耦为2个独立的神经网络.这不仅减小了动作空间规模,也更易于神经网络训练.以六子棋为例进行的实验结果表明,在有限的计算资源下,该方法能显著提升棋局哈希命中率和程序棋力水平.

    深度强化学习置换表计算机博弈AlphaGo蒙特卡洛树

    结合A2C和手牌估值方法的麻将博弈研究

    衣御寒王亚杰吴燕燕刘松...
    154-161页
    查看更多>>摘要:针对大众麻将中对手牌信息利用不充分的问题,提出了手牌估值方法,并设计了基础麻将程序(MJE).为进一步提升麻将AI的博弈能力,使用深度强化学习方法设计了麻将AI(MJE-RL).首先,通过MJE自对弈生成深度学习的训练数据.其次,根据训练集、测试集和对比实验的结果,选择效果最好的模型作为强化学习的预训练模型.最后,使用优势演说-评论家模型作为强化学习的主要框架,将训练好的深度学习模型作为演说家部分进行决策,通过MJE-RL与MJE的对弈不断提升麻将AI的博弈能力.实验结果显示,MJE-RL的胜率比MJE高4.08%,点炮率比MJE低3.02%,表明MJE-RL在攻守两端都有提升,达到了提升麻将AI牌力的目的.

    麻将非完备信息深度强化学习A2C