摘要
大米是我国主要口粮品种之一,其加工精度、碎米含量作为定等质量指标与价格直接相关,同时适度加工技术的研究与应用也是加强粮食全产业链各环节节约减损的重要内容,对保障粮食安全具有重要意义。本文以大米的加工精度、碎米和黄粒米作为研究对象,选取国家标准规定的标准样品构建数据集,以国标规定的检测方法为对比,研究了图像预处理及粘连米粒分割算法,分别构建了基于机器学习和基于深度学习的大米外观品质识别模型,同时建立了基于机器视觉的大米外观品质指标评价方法,实现了大米外观品质的智能检测,可应用于大米柔性加工领域,引导企业适度加工,提升大米供给品质。本文主要工作如下: (1)针对现有的图像采集方式与实际检测过程中大米籽粒随机散落、粘连相背离的情况,本文采用平板扫描仪获取多粒混合姿态的大米RGB图像,并借助竖型分离器减少米粒粘连。为消除采集图像中存在的噪声干扰以及部分米粒粘连问题,本文对比研究了常用的图像预处理和粘连米粒分割算法,最终选取了最适合本文研究对象特性的H分量灰度化方法、中值滤波和自适应阈值分割,并提出了基于凸包缺陷点检测的两米粒粘连分割算法,实现了大米单粒图像的分割,分割精度达到94.99%,效果可以满足后续需要。 (2)针对大米外观品质检测中,不同检测环节重点不同、同一环节指标检测需分门别类的问题,本研究提出一种基于多类融合(颜色、纹理和形态)特征提取的大米外观品质识别方法,搭建 8-21-5 的 BPNN(Back Propagation Neural Network,BPNN)模型完成大米外观品质的综合识别,对于五种不同类别大米的识别精度达到86.63%,实验证明了该方法对五类大米综合识别的可行性,但是传统的手动设计和提取特征过程复杂且存在片面性,导致其识别分类效果不佳。 (3)针对上述基于机器学习的大米外观品质识别模型手动提取特征造成识别率低的问题,本文提出了 IR_HDC_NAM大米外观品质识别模型。该模型在ResNet34模型的基础上,引入Inception-v3结构、混合空洞卷积和基于归一化的注意力机制,搭建了 IR_HDC_NAM模型以自动提取大米丰富的细节特征,从而提升其分类效果,与经典的卷积神经网络(Convolutional Neural Network,CNN)模型进行对比。实验表明,提出的IR_HDC_NAM模型的分类精度达到97.41%,比AlexNet模型提升了 3.2%,比ResNet34模型增加了 1.2个百分点,对于每组5800张图像检测耗时28s,可满足大米外观品质快速、无损、准确检测的需求。 (4)针对目前碎米率和黄粒米含量的研究利用个数比值代替国标中的质量比值,导致误差较大的情况,本文改进了碎米率和黄粒米含量的评价方法。在上述识别模型的基础上,通过构建回归模型,寻找每类大米投影面积和质量的关系表达式,并结合国标中的计算法则,实现整批大米加工精度、碎米率和黄粒米含量的计算。构建的基于机器视觉的碎米率和黄粒米含量的检测方法与人工检测相对误差小于1.3%,品质指标的检测与国标方法相比误差不大,能够为大米外观品质的系统、科学评价做出实质贡献。