计算机研究与发展2021,Vol.58Issue(5) :1092-1105.DOI:10.7544/issn1000-1239.2021.20200908

通用深度学习语言模型的隐私风险评估

Evaluating Privacy Risks of Deep Learning Based General-Purpose Language Models

潘旭东 张谧 颜一帆 陆逸凡 杨珉
计算机研究与发展2021,Vol.58Issue(5) :1092-1105.DOI:10.7544/issn1000-1239.2021.20200908

通用深度学习语言模型的隐私风险评估

Evaluating Privacy Risks of Deep Learning Based General-Purpose Language Models

潘旭东 1张谧 1颜一帆 1陆逸凡 1杨珉1
扫码查看

作者信息

  • 1. 复旦大学计算机科学技术学院 上海200438
  • 折叠

摘要

近年来,自然语言处理领域涌现出多种基于Transformer网络结构的通用深度学习语言模型,简称"通用语言模型(general-purpose language models,GPLMs)",包括Google提出的BERT(bidirectional encoder representation from transformers)模型等,已在多个标准数据集和多项重要自然语言处理任务上刷新了最优基线指标,并已逐渐在商业场景中得到应用.尽管其具有很好的泛用性和性能表现,在实际部署场景中,通用语言模型的安全性却鲜为研究者所重视.近年有研究工作指出,如果攻击者利用中间人攻击或作为半诚实(honest-but-curious)服务提供方截获用户输入文本经由通用语言模型计算产生的文本特征,它将以较高的准确度推测原始文本中是否包含特定敏感词.然而,该工作仅采用了特定敏感词存在与否这一单一敏感信息窃取任务,依赖一些较为严格的攻击假设,且未涉及除英语外其他语种的使用场景.为解决上述问题,提出1条针对通用文本特征的隐私窃取链,从更多维度评估通用语言模型使用中潜在的隐私风险.实验结果表明:仅根据通用语言模型提取出的文本表征,攻击者能以近100%的准确度推断其模型来源,以超70%的准确度推断其原始文本长度,最终推断出最有可能出现的敏感词列表,以重建原始文本的敏感语义.此外,额外针对3种典型的中文预训练通用语言模型开展了相应的隐私窃取风险评估,评估结果表明中文通用语言模型同样存在着不可忽视的隐私风险.

关键词

深度学习隐私/通用语言模型/自然语言处理/深度学习/人工智能/信息安全

引用本文复制引用

基金项目

国家自然科学基金(61972099)

国家自然科学基金(U1636204)

国家自然科学基金(U1836213)

国家自然科学基金(U1836210)

国家自然科学基金(U1736208)

上海市自然科学基金(19ZR1404800)

出版年

2021
计算机研究与发展
中国科学院计算技术研究所 中国计算机学会

计算机研究与发展

CSTPCDCSCD北大核心
影响因子:2.649
ISSN:1000-1239
被引量2
参考文献量1
段落导航相关论文