首页|隐私保护的图像替代数据生成方法

隐私保护的图像替代数据生成方法

扫码查看
针对现有图像数据集存在的隐私保护需求,提出一种图像数据集隐私保护场景及该场景下隐私保护的图像替代数据生成方法。该场景利用经隐私保护方法处理后的替代图像数据集取代原始图像数据集,其中替代图像与原始图像一一对应,人类无法识别替代图像所属类别,替代图像可训练现有的深度学习图像分类算法,且具有较好的分类效果。同时针对上述场景,改进了基于投影梯度下降(PGD:Project Gradient Descent)攻击的数据隐私保护方法,将原始PGD攻击目标由标签改为图像,即图像对图像的攻击,并使用经过对抗训练的鲁棒模型进行图像对图像攻击作为替代数据的生成方法。在标准测试集上,替代后的CIFAR(Canadian Institute For Advanced Research 10)数据集和CINIC数据集在图像分类任务上分别取得了 87。15%和74。04%的测试正确率。实验结果表明,该方法能在保证替代数据集对人类隐私性的前提下,生成原始数据集的替代数据集,并保证现有方法在该数据集上的分类性能。
Alternative Data Generation Method of Privacy-Preserving Image
Aiming at the privacy protection requirements of existing image datasets,a privacy-preserving scenario of image datasets and a privacy-preserving image alternative data generation method is proposed.The scenario is to replace the original image dataset with an alternative image dataset processed by a privacy-preserving method,where the substitute image is in one-to-one correspondence with the original image.And humans can not identify the category of the substitute image,the substitute image can be used to train existing deep learning images classification algorithm,having a good classification effect.For this scenario,the data privacy protection method based on the PGD(Project Gradient Descent)attack is improved,and the attack target of the original PGD attack is changed from the label to the image,that is the image-to-image attack.A robust model for image-to-image attacks as a method for generating alternative data.On the standard testset,the replaced CIFAR(Canadian Institute For Advanced Research 10)dataset and CINIC dataset achieved 87.15%and 74.04%test accuracy on the image classification task.Experimental results show that the method is able to generate an alternative dataset to the original dataset while guaranteeing the privacy of the alternative dataset to humans,and guarantees the classification performance of existing methods on this dataset.

deep learningprivacy protectioncomputer visionadversarial attackadversarial example

李婉莹、刘学艳、杨博

展开 >

吉林大学计算机科学与技术学院,长春 130012

吉林大学符号计算与知识工程教育部重点实验室,长春 130012

深度学习 隐私保护 计算机视觉 对抗攻击 对抗样本

国家自然科学基金资助项目国家自然科学基金资助项目国家自然科学基金资助项目国家自然科学基金资助项目国家重点研发计划基金资助项目国家重点研发计划基金资助项目吉林省重点科技研发基金资助项目吉林省重点科技研发基金资助项目吉林省自然科学基金资助项目

U22A20986217218562202200622061052021ZD01125012021ZD011250220180201067GX20180201044GX20200201036JC

2024

吉林大学学报(信息科学版)
吉林大学

吉林大学学报(信息科学版)

CSTPCD
影响因子:0.607
ISSN:1671-5896
年,卷(期):2024.42(1)
  • 22