首页期刊导航|计算机学报
期刊信息/Journal information
计算机学报
计算机学报

高文

月刊

0254-4164

cjc@ict.ac.cn

010-62620695

100190

中国科学院计算技术研究所(北京2704信箱)

计算机学报/Journal Chinese Journal of ComputersCSCD北大核心CSTPCDEI
查看更多>>本刊是中国计算机领域的有代表性学术刊物,作为一种科学研究档案,代表了计算机领域各个研究阶段的水平。本刊被《工程索引》(美国)、《科学文摘》(英国)、《数学文摘》(美国)、《科技文献速报》(日本)、《文摘杂志》(俄罗斯)等多种权威系统收录。是科技部科技信息研究所科技论文统计源期刊、中国科学引文数据库来源期刊。
正式出版
收录年代

    基于代理训练集的属性推理攻击防御方法

    董恺蒋驰昊李想凌振...
    907-923页
    查看更多>>摘要:本文首次提出针对属性推理攻击的有效防御方法.属性推理攻击可以揭示出用于训练公开模型的原始私有数据集中的隐私属性信息.现有研究已经针对不同的机器学习算法提出了多种属性推理攻击.这些攻击很难防御,一方面原因是训练有素的模型总是会记住训练数据集中的显性和隐性全局属性,另一方面原因在于模型提供者无法事先知道哪些属性将受到攻击从而难以有针对性地进行防御.为了解决这个问题,本文提出了一种通用的隐私保护模型训练方法,名为PPMT(Privacy Preserving Model Training).它以迭代的方式工作.在每次迭代中,PPMT构建一个代理数据集,并在该数据集而不是私有数据集上训练模型.虽然每次迭代会同时导致隐私性的提升和功能性的降低,但隐私性的提升呈快速指数级,而功能性的降低则是缓慢线性的.经过多次迭代,PPMT在模型功能性的约束下最大化全局属性的隐私性,并生成最终的模型.本文选择了两种代表性的机器学习算法和三个典型的数据集来进行实验评估PPMT所训练出模型的功能性、隐私性和鲁棒性.结果显示,使用PPMT训练出的模型,在全局属性上会以不同速度朝不同方向改变,在功能性上的平均损失为1.28%,在超参数α保密的情况下被可能攻击倒推的成功率仅有22%~33%.这说明,PPMT不仅能保护私有数据集的全局属性隐私性,而且能保证模型有足够的功能性,以及面对可能攻击的鲁棒性.

    人工智能安全属性推理攻击全局属性隐私隐私增强代理数据集

    兼顾通信效率与效用的自适应高斯差分隐私个性化联邦学习

    李敏肖迪陈律君
    924-946页
    查看更多>>摘要:近年来,由于联邦学习中的通信参数(或梯度)会给参与方本地敏感数据带来重大的隐私泄露风险,联邦学习隐私保护引起了广泛的关注.然而,梯度交换频繁、数据分布异构、参与方本地硬件资源受限等一系列不可避免的因素给联邦学习隐私保护增加了挑战难度.为了以一种统一的方式同时有效地解决数据隐私、模型效用、通信效率以及参与方数据非独立同分布等四个方面的问题,本文提出了一种新的兼顾通信效率与效用的自适应高斯差分隐私个性化联邦学习(Communication-efficient and Utility-aware Adaptive Gaussian Differential Privacy for Personalized Federated Learning,CUAG-PFL)方法.具体而言,本文提出一种动态层级压缩模型梯度的方案先为通信模型梯度每一层动态生成特定的压缩率,再根据压缩率构造对应的确定性二进制测量矩阵去除梯度冗余信息.随后,通过同时优化裁剪阈值、敏感度和噪声尺度等隐私相关参数来对压缩的模型梯度执行自适应高斯差分隐私操作.此外,本文对CUAG-PFL进行了严格的隐私分析.为了验证CUAG-PFL在隐私、效用、通信效率以及个性化四个方面的优势,本文在CIFAR-10和CIFAR-100两个真实联邦数据集上进行了大量实验模拟、对比和分析,结果表明CUAG-PFL能够提高参与方本地数据隐私性、通信效率和模型效用,同时解决了数据非独立同分布的问题.特别地,即使在隐私预算仅为0.92且上行通信量减少68.6%时,CUAG-PFL因隐私保护和梯度压缩所引起的模型效用损失仅为1.66%.

    自适应高斯差分隐私隐私—效用权衡动态层级压缩通信高效个性化联邦学习隐私计算