Large vision models (LVMs) achieve remarkable performance in various downstream tasks, primarily by personalizing pre-trained models through fine-tuning with private and valuable local data, which makes the personalized model a valuable intellectual property. Similar to the era of traditional DNNs, model stealing attacks also pose significant risks to LVMs. However, this paper reveals that most existing defense methods (developed for traditional DNNs), typically designed for models trained from scratch, either introduce additional security risks, are prone to misjudgment, or are even ineffective for fine-tuned models. To alleviate these problems, this paper proposes a harmless model ownership verification method for personalized LVMs by decoupling similar common features. In general, our method consists of three main stages. In the first stage, we create shadow models that retain common features of the victim model while disrupting dataset-specific features. We represent the dataset-specific features of the victim model by computing the output differences between the shadow and victim models, without altering the victim model or its training process. After that, a meta-classifier is trained to identify stolen models by determining whether suspicious models contain the dataset-specific features of the victim. In the third stage, we conduct model ownership verification by hypothesis test to mitigate randomness and enhance robustness. Extensive experiments on benchmark datasets verify the effectiveness of the proposed method in detecting different types of model stealing simultaneously. Our codes are available at https://github.com/zlh-thu/Holmes.


翻译:大型视觉模型(LVMs)通过在私有且有价值的本地数据上进行微调,对预训练模型进行个性化,从而在各种下游任务中取得了显著性能,这使得个性化模型成为宝贵的知识产权。与传统DNN时代类似,模型窃取攻击同样对LVMs构成重大风险。然而,本文揭示,大多数现有防御方法(为传统DNN开发)通常针对从头训练的模型设计,它们要么引入额外的安全风险,容易产生误判,甚至对微调模型无效。为缓解这些问题,本文提出一种通过解耦相似共性特征实现个性化LVMs的无害模型所有权验证方法。总体而言,我们的方法包含三个主要阶段。在第一阶段,我们创建影子模型,这些模型保留受害者模型的共性特征,同时破坏数据集特定特征。我们通过计算影子模型与受害者模型的输出差异来表示受害者模型的数据集特定特征,而无需修改受害者模型或其训练过程。之后,训练一个元分类器,通过判断可疑模型是否包含受害者模型的数据集特定特征来识别被盗模型。在第三阶段,我们通过假设检验进行模型所有权验证,以减少随机性并增强鲁棒性。在基准数据集上的大量实验验证了所提方法在同时检测不同类型模型窃取方面的有效性。我们的代码可在 https://github.com/zlh-thu/Holmes 获取。

0
下载
关闭预览

相关内容

数据集,又称为资料集、数据集合或资料集合,是一种由数据所组成的集合。
Data set(或dataset)是一个数据的集合,通常以表格形式出现。每一列代表一个特定变量。每一行都对应于某一成员的数据集的问题。它列出的价值观为每一个变量,如身高和体重的一个物体或价值的随机数。每个数值被称为数据资料。对应于行数,该数据集的数据可能包括一个或多个成员。
【ICML2024】SAPG:分裂与聚合策略梯度
专知会员服务
19+阅读 · 2024年7月30日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员