简单介绍一篇最近看过的通过梯度盗取用户训练数据的文章吧
《Deep Leakage from Gradient》
在联邦学习中,每个用户在本地上传梯度或者模型参数,通过一个 Server 端对模型进行更新,那么就有人研究能不能通过人工智能模型这个黑盒以及梯度信息,从中盗用可用的用户数据呢?
通过本地不断生成样本,比较本地梯度和他人梯度的差距作为loss,将loss最小化使得生成的数据越来越靠近他人用户的数据,最终实现数据的窃取。
神奇的事情发生了,即使大家无法理解这个黑盒里是在做什么,只要能控制输入和输出,就能透过黑盒消除其他影响,论文结果如下
论文高保真的从梯度中还原了原始数据。
无论是图像数据还是文本数据,都被轻易地识破并还原。
这种基于神经网络黑盒来进行攻击的方式应该也属于黑盒优化的一种思路吧~仅供参考。
论文链接:https://papers.nips.cc/paper/2019/file/60a6c4002cc7b29142def8871531281a-Paper.pdf