计算机应用2023,Vol.43Issue(4) :1151-1159.DOI:10.11772/j.issn.1001-9081.2022030382

面向加密流量分类的深度可解释方法

Deep explainable method for encrypted traffic classification

崔剑 麻开朗 孙钰 王豆 周君良
计算机应用2023,Vol.43Issue(4) :1151-1159.DOI:10.11772/j.issn.1001-9081.2022030382

面向加密流量分类的深度可解释方法

Deep explainable method for encrypted traffic classification

崔剑 1麻开朗 1孙钰 1王豆 2周君良3
扫码查看

作者信息

  • 1. 北京航空航天大学 网络空间安全学院,北京 100191;空天网络安全工业和信息化部重点实验室(北京航空航天大学),北京 100191
  • 2. 浙江浙能数字科技有限公司,杭州 311100
  • 3. 浙江浙石油综合能源销售有限公司,杭州 310000
  • 折叠

摘要

目前的深度学习模型在加密流量分类任务上相较于传统机器学习方法的性能优势显著,然而由于它固有的黑盒特性,用户无法获知深度学习模型作出分类决策的机理.为了在保证分类准确率的同时提高深度学习模型的可信度,提出一种面向加密流量分类深度学习模型的可解释方法,包括基于原型的流量层级主动解释和基于特征相似显著图的数据包层级被动解释.首先,利用基于原型的流量原型网络(FlowProtoNet),在训练时自动提取各类流量的典型片段,即流量原型;其次,在测试时计算出待测流量与各类原型的相似度,从而在分类的同时实现训练集的溯源解释;然后,为进一步提升可视化解释能力,提出梯度加权的特征相似度显著图(Grad-SSM)方法.Grad-SSM首先通过梯度对特征图加权,过滤分类决策无关区域;接着,计算待测流量与FlowProtoNet提取的原型之间的推土机距离(EMD)得到相似矩阵,从而通过比较测试流量与该类原型,实现注意力热图的进一步聚焦.在ISCX VPN-nonVPN数据集上,所提方法的准确率达到96.86%,与不可解释的人工智能方法持平,而FlowProtoNet能通过给出与原型的相似度,进一步提供分类依据;同时,所提方法的可视化解释能力更强,注意力更聚焦于流量中的关键数据包.

关键词

加密流量分类/可解释人工智能/原型/溯源/可视化解释能力

引用本文复制引用

基金项目

国家自然科学基金资助项目(32071775)

出版年

2023
计算机应用
中国科学院成都计算机应用研究所

计算机应用

CSTPCDCSCD北大核心
影响因子:0.892
ISSN:1001-9081
被引量1
参考文献量2
段落导航相关论文