首页期刊导航|电子测量技术
期刊信息/Journal information
电子测量技术
电子测量技术

孙圣和

月刊

1002-7300

dzcl@vip.163.com

010-56103931

100009

北京市东城区北河沿大街79号

电子测量技术/Journal Electronic Measurement Technology北大核心CSTPCD
查看更多>>本刊坚定不移地确保社会效益功能的发挥,刊登新技术、工艺、设计、设备材料为主要内容,推广交流步进技术、科研成果和实践经验及时传播新成就、新技术、新器材的信息,以利于社会主义生产建设。
正式出版
收录年代

    基于双卫星导航接收机的测控装备精度验收方法研究

    周立锋
    79-84页
    查看更多>>摘要:针对测控装备精度验收的问题,提出了采用双卫星导航接收机的测控装备精度验收方案,给出精度验收的一般流程,详细推导了一种不同于传统的真值计算新方法,并提供了此方法的具体算法和模型.在理论分析的基础上,采用算例进行计算和分析,结果表明基于双卫星导航接收机的测控装备精度验收方法,可以事先根据测控装备的精度指标,分析所需卫星导航接收机的指标,同时也可以为航路设计提供定量数据支撑,节省测控装备精度验收的人力与物力,可以在测控装备精度验收的相关领域推广应用.

    卫星导航测控装备精度验收部位修正

    基于改进Q-Learning的移动机器人路径规划算法

    王立勇王弘轩苏清华王绅同...
    85-92页
    查看更多>>摘要:随着移动机器人在生产生活中的深入应用,其路径规划能力也需要向快速性和环境适应性兼备发展.为解决现有移动机器人使用强化学习方法进行路径规划时存在的探索前期容易陷入局部最优、反复搜索同一区域,探索后期收敛率低、收敛速度慢的问题,本研究提出一种改进的Q-Learning算法.该算法改进Q矩阵赋值方法,使迭代前期探索过程具有指向性,并降低碰撞的情况;改进Q矩阵迭代方法,使Q矩阵更新具有前瞻性,避免在一个小区域中反复探索;改进随机探索策略,在迭代前期全面利用环境信息,后期向目标点靠近.在不同栅格地图仿真验证结果表明,本文算法在Q-Learning算法的基础上,通过上述改进降低探索过程中的路径长度、减少抖动并提高收敛的速度,具有更高的计算效率.

    路径规划强化学习移动机器人Q-Learning算法ε-decreasing策略

    基于无人系统的智能视觉控制算法研究

    苏鹏鉴马海琴叶俊明
    93-97页
    查看更多>>摘要:无人系统应用范围的急剧扩大,使得视觉感知环境愈加复杂多变,致使传统视觉控制算法难以有效控制视觉传感器获取精准的视觉感知图像,从而影响无人系统的稳定运行,故提出基于无人系统的智能视觉控制算法研究.应用Gamma曲线非线性变换无人系统视觉感知图像灰度值,再应用灰度世界法来增强图像的对比度.以处理后的图像为基础,计算其图像矩,即空间矩、中心矩和归一化中心矩,以描述图像的全局和局部特性.根据得到的无人系统视觉感知信息,搭建智能视觉控制框架.获取期望图像特征矩阵,提取当前时刻图像特征矩阵,通过基于改进萤火虫算法的极限学习机对摄像机转角进行非线性映射,从而获取智能视觉控制定律,以此消除视觉感知图像误差,实现智能视觉的有效控制.实验结果显示:在不同实验组别背景下,应用提出算法获得的视觉控制平均时间最小值达到了1 s,视觉控制平均误差最小值达到了0.12%,充分证实了提出算法的应用性能更佳.

    视觉感知技术无人系统控制策略视觉图像处理视觉伺服控制控制性能测试

    以神经网络模型为载体的鲁棒隐写方法

    杨彤彤杨紫云王子驰
    98-104页
    查看更多>>摘要:神经网络已广泛应用于各个领域,神经网络模型隐写是近年来学术界新兴的研究方向.嵌入容量与鲁棒性是神经网络模型隐写的重要指标,但难以同时兼顾.为此,本文提出了一种以神经网络模型为载体的鲁棒模型隐写方法.不明显降低模型原始任务性能的情况下,发送者在训练过程中将秘密信息嵌入到神经网络中,而不是在神经网络训练完成后通过修改网络参数嵌入.接收者使用解码网络提取秘密信息,解码网络的参数使用唯一的嵌入密钥生成,因此无需秘密地向接收者传送解码网络.此外,本文还引入了RS码,提高数据提取的鲁棒性.实验结果表明,所提出的模型隐写方法将嵌入容量增大了66.6%的同时增强了鲁棒性.

    隐写神经网络模型鲁棒性RS码嵌入容量

    基于雷视融合轨迹匹配的高速公路车辆轨迹跟踪方法

    黎云飞许华杰韦泽贤
    105-111页
    查看更多>>摘要:针对高速公路车辆跟踪过程中,在进行雷达与视频数据融合时两类传感器之间探测目标匹配的难点问题,提出一种基于目标轨迹相似度匹配的高速公路车辆跟踪方法.首先,采用投影变换将雷达数据转化到视频数据所在的维度;其次,通过提出的曲线拟合算法将离散的轨迹点插值成连续的轨迹曲线;最后,将雷达探测目标投影到图像上的轨迹曲线与视频检测目标轨迹曲线进行相似度计算得到相似度矩阵,并通过对相似度矩阵进行筛选得到雷达探测目标和视频检测目标的匹配关系.采用高速公路真实场景下采集的车辆数据开展对比实验,结果表明在高速公路场景下的平均目标匹配成功率为94.71%,相比其他同类方法的平均匹配成功率提高3.01%和3.69%.所提出的方法能有效过滤伪目标,更适合在高速公路场景下的车辆跟踪中使用.

    雷视融合车辆轨迹跟踪轨迹匹配曲线拟合相似度矩阵

    基于改进YOLOv8s的恶劣天气车辆行人检测方法

    梁天添杨淞淇钱振明
    112-119页
    查看更多>>摘要:针对恶劣天气条件下摄像头捕获图像时存在图像模糊以及光照分布不均等问题,导致了场景对比度的下降,进而增加了在图像中区分检测目标与背景的难度.为了提高在恶劣天气环境下车辆和行人的检测能力,本文提出了一种改进的YOLOv8s算法.首先,本文在YOLOv8s算法的基础上,利用可扩张残差结构对主干网络中的C2F模块进行了优化,增强了模型对环境变化的适应能力.同时,在主干网络的SPPF模块前置层引入了高效多尺度注意力机制,该机制能够更有效地捕获图像中丰富多变的多尺度特征.其次,针对YOLOv8s算法的检测头部进行了重新设计,在保持模型准确性的前提下,降低了模型的复杂度.最后,引入Wise-IoU改进YOLOv8s算法的回归损失函数,提高了算法的收敛速度和检测精度.实验结果表明,改进的YOLOv8s算法在恶劣天气条件下对车辆和行人检测的平均精度均值达到91.41%,相比原始算法提升了2.56%,同时模型参数量减少了8%,计算量降低了4.9 GFLOPs.相比于其他主流的目标检测算法,改进后的YOLOv8s算法在保证了实时性能的同时,满足了恶劣天气条件下的车辆和行人检测需求.

    恶劣天气条件YOLOv8s目标检测注意力机制Wise-IoU

    基于YOLOv8的煤矿用钢丝绳损伤检测算法

    李志星杨啸龙李天昊王宁宁...
    120-128页
    查看更多>>摘要:煤矿用钢丝绳在矿井作业中发挥着重要的应用价值,其可靠性直接关系到矿山运转效率以及工作人员的生命安全.针对现有钢丝绳表面缺陷检测精度较低、检测效率不足的问题,本文提出一种改进型YOLOv8检测算法YOLO_BF,首先在骨干网路中引入改进型双层链路注意力机制(BiFormer)加强模型对图像的分析能力和信息融合能力,显著提高模型的精度.其次嵌入重复加权双向特征金字塔网路(BiFPN)提高网络缺陷特征提取能力,并在此基础上使用WIoU提高模型收敛速度,最后使用幻影卷积(GhostConv)替换传统卷积实现模型轻量化.相比原始基础网络YOLOv8n,本文所设计网络准确率、召回率和平均精度分别提升2.3%、3.3%、5.2%,更符合钢丝绳损伤检测的实际应用要求.

    钢丝绳缺陷检测YOLO注意力机制损失函数

    面向密集场景的多目标车辆检测算法

    霍爱清郭岚洁冯若水
    129-136页
    查看更多>>摘要:目标检测可为自动驾驶车辆提供附近目标的位置、大小和类别,但是密集场景中多目标检测仍然存在漏检、误检问题,为此该文提出了一种AD-YOLOv5车辆检测模型.首先,利用轻量型结构CBAM注意力机制对特征提取网络中的C3模块进行了优化得到C-C3模块,提高了对特征信息的获取能力,降低了对其他特征的关注度;其次,在检测头部分对分类和回归任务进行解耦,以实现更强的特征表达;然后,利用广义幂变换对IoU进行转换操作,提出鲁棒性更好的Alpha-IoU损失函数,提升了模型的检测精度并加快模型的收敛速度;最后,采用GridMask数据增强技术,增加了样本的复杂性,并在处理后的数据集上进行了实验.实验结果表明,改进后的目标检测模型的平均精度均值达到72.72%,与原YOLOv5模型相比提高了2.25%,且模型具有较高的收敛速度,通过可视化对比实验,直观展示了本文模型在密集场景能有效避免误检、漏检现象.

    目标检测密集场景YOLOv5算法Alpha-IoU损失函数CBAM双检测头

    结合帧间差异检测的固定场景视频压缩与重建

    李萌黄宏博郑曜林许龙飞...
    137-144页
    查看更多>>摘要:近年来,高清和超高清监控摄像头的广泛部署促使了各类监控等固定场景类视频数据量的急剧增加.对视频的存储和传输造成了巨大压力.为了进一步去除固定场景类视频中的冗余数据,本文提出了一种新颖的压缩与重建方法.通过背景提取和结合帧间前景差异检测的前景提取与压缩方法,大量去除视频中的数据冗余.实验结果表明,本文方法与MPEG-4相比,在更高的压缩率上实现了更高的视频重建性能,与H.264、H.265和DCVC-DC相比,本文所提方法在压缩性能上依次分别提升了82.75%、76.19%和59.56%,并且保持了较高的视频重建水平,从而有效地缓解了固定场景类视频的存储和传输压力.

    计算机视觉深度学习视频压缩图像分割背景建模

    基于深度学习的驾驶员分心行为检测方法

    赵栓峰李乐平王茂权李小雨...
    145-153页
    查看更多>>摘要:驾驶员分心行为检测对于开发以驾驶员为中心的人车协同驾驶系统具有至关重要的意义.针对现有基于卷积神经网络的驾驶员分心行为检测模型缺乏全局特征提取能力、泛化性能较弱以及忽视了驾驶场景中不同区域的重要性,构建一种基于深度学习的驾驶员分心行为检测模型,实现对驾驶员分心行为的准确检测.首先,开发了基于HorNet的残差结构,通过高阶空间交互来增强特征表示能力;其次,受人类注意力机制以及现有注意力机制的启发,设计一种自适应加权注意策略来提取与驾驶行为最相关的特征;然后,在现有的分类数据集上训练本文模型,并使用先验知识作为初始权值来改善训练结果,进而提高模型的泛化能力;最后,对驾驶行为特征进行可视化,以提高人们对于本文模型的信任度.实验结果表明,本文模型可以准确地检测驾驶员分心行为,在准确性和可靠性方面明显优于现有方法.

    驾驶员行为先验知识深度学习视觉可解释性