国家学术搜索
登录
注册
中文
EN
首页
|
基于可解释人工智能的数据安全风险识别研究
基于可解释人工智能的数据安全风险识别研究
引用
认领
扫码查看
点击上方二维码区域,可以放大扫码查看
原文链接
NETL
NSTL
万方数据
维普
中文摘要:
在构建以数据驱动为主要学习模式的深度神经网络模型过程中,如何有效辨识数据的安全风险已成为研究中的重要议题。数据安全风险识别面临的"黑盒"挑战,致使其难以被人类现有的认知结构完全理解,并对数据安全风险治理带来诸多影响。在厘清可解释人工智能的基本概念、可解释性是提高识别数据安全风险效率的基础需求、基于数据安全风险沟通的可解释人工智能范式的基础上,探讨可解释性强的深度学习模型和基于表征一致性技术的解释方法在数据安全风险识别中的具体应用。
收起全部
展开查看外文信息
作者:
贾晓旭
展开 >
作者单位:
哈尔滨工业大学应用思想政治教育研究所
关键词:
XAI
生成式人工智能
深度学习
深度神经网络
基金:
教育部产学合作协同育人项目
项目编号:
220505402254146
出版年:
2024
信息系统工程
天津市信息中心
信息系统工程
影响因子:
0.29
ISSN:
1001-2362
年,卷(期):
2024.
(1)
参考文献量
9