信息系统工程2024,Issue(1) :50-54.

基于可解释人工智能的数据安全风险识别研究

贾晓旭
信息系统工程2024,Issue(1) :50-54.

基于可解释人工智能的数据安全风险识别研究

贾晓旭1
扫码查看

作者信息

  • 1. 哈尔滨工业大学应用思想政治教育研究所
  • 折叠

摘要

在构建以数据驱动为主要学习模式的深度神经网络模型过程中,如何有效辨识数据的安全风险已成为研究中的重要议题.数据安全风险识别面临的"黑盒"挑战,致使其难以被人类现有的认知结构完全理解,并对数据安全风险治理带来诸多影响.在厘清可解释人工智能的基本概念、可解释性是提高识别数据安全风险效率的基础需求、基于数据安全风险沟通的可解释人工智能范式的基础上,探讨可解释性强的深度学习模型和基于表征一致性技术的解释方法在数据安全风险识别中的具体应用.

关键词

XAI/生成式人工智能/深度学习/深度神经网络

引用本文复制引用

基金项目

教育部产学合作协同育人项目(220505402254146)

出版年

2024
信息系统工程
天津市信息中心

信息系统工程

影响因子:0.29
ISSN:1001-2362
参考文献量9
段落导航相关论文