现阶段,受技术水平和法律法规等因素的限制,面向复杂场景的高等级自动驾驶在短期内仍然难以大规模落地应用。未来一段时间内,驾驶人仍需要与自动驾驶系统协作完成驾驶任务,这种驾驶人与自动驾驶系统共同参与驾驶任务的驾驶模式被称为人机共驾。在人机共驾模式下,驾驶控制权在驾驶人和自动驾驶系统之间频繁转移,驾驶人作为车辆控制的最终接管者,需时刻保持注意力集中以保障行驶安全。因此,精准鲁棒的驾驶分心识别对保障人机共驾安全性具有重要意义。本文针对这一关键问题,分别研究了基于生理信号和基于视频行为数据的驾驶分心特征提取和分心识别方法,在此基础上,针对单一信息源的识别方法难以适应驾驶舱内环境变化和驾驶人状态不确定性的挑战,构建了基于生理特征和视频行为分类结果融合的驾驶分心鲁棒识别模型,并提出了基于听觉预警的驾驶分心干预方法。开展的具体研究内容如下: 首先,为了支撑人机共驾模式下驾驶分心识别与干预方法研究,同时考虑到真实驾驶环境下数据采集难度大、安全性难以保障等问题,搭建了具备脑电信号、眼动信号和视频行为数据采集能力的综合驾驶仿真平台。设计了驾驶仿真实验方案,设置变道超车作为被试者驾驶目标任务,并开展预实验对驾驶仿真车辆运动学参数、仿真道路长度、分心任务触发位置等关键参数进行优化。借鉴现有相关研究结论,以驾驶人反应时间和最大横向偏移距离作为判定驾驶分心的客观评价指标,并结合预实验结果确定了两项驾驶分心判定指标的阈值。从视觉分心和认知分心角度出发,分别设计了3类具有代表性的分心任务。 其次,对脑电信号和眼动信号进行分析,提取了驾驶分心的脑电和眼动特征指标,并基于两项分心特征指标构建了基于生理信号的驾驶分心识别方法。针对脑电特征指标,分析驾驶人特定频段??波、??波和??波的平均功率谱密度(PSD),选取??=(PSD??+PSD??)/PSD??作为脑电特征指标;针对眼动特征指标,设计眼动注视预设区域,选取未在预设区域的注视时长作为眼动特征指标。参考现有研究结果及预实验数据分析,确定了脑电及眼动特征指标阈值,进而建立了基于生理信号的驾驶分心识别模型。 再次,为挖掘驾驶分心与驾驶人肢体行为动作的关联性,提出了基于视频行为数据的驾驶分心识别方法。针对视频行为数据中包含的行为时空信息,以RGB和光流图像为双输入,构建了双流卷积神经网络结构,实现驾驶行为动作的时空特征提取。在双流卷积网络架构基础上,提出“分段-融合”策略,通过对长视频的稀疏采样,克服了密集采样带来的视频帧信息冗余的问题,有效提高了网络推理速度。同时,设计消融实验对比不同网络结构对模型精度的影响,结合量化数据,采用ResNet101和平均池化作为主干网络和段融合函数,有效提升了网络的时空特征提取能力和整体准确率,实现了基于视频行为的精准驾驶分心识别。 最后,针对基于单一信息源的识别方法精度和鲁棒性差的问题,综合驾驶人生理特征指标和视频行为分类置信度,构建了基于支持向量机(SVM)的多源信息融合模型。针对模型的多源数据输入,通过归一化处理消除多源特征分布区间和尺度的差异。通过对比不同数据融合方法的驾驶分心识别准确率,验证了所提出的基于SVM的驾驶分心识别方法的有效性。在仿真驾驶分心数据集上的测试结果表明,本文提出的基于SVM的多源信息融合驾驶分心识别方法准确率达到了94.44%,与基于脑电信号、眼动信号和视频行为的单一信息源识别方法相比,分别高出26.39%、12.50%和2.77%。在多源融合分心识别的基础上,进一步研究了基于听觉警告的驾驶分心干预方法,通过对比实验对听觉警告的分心干预效果进行量化分析。结果表明,在听觉警告干预下,被试者总体反应时间和车辆最大横向偏移距离相较于无干预条件下分别减少25.24%、14.67%,同时,听觉警告干预对执行分心任务的被试者总体干预有效率达到80.56%。