设计应用

基于黑盒测试框架的深度学习模型版权保护方法

作者:屈详颜1,2,于静1,2,熊刚1,2,盖珂珂3
发布日期:2024-02-29
来源:网络安全与数据治理

引言

在当前生成式人工智能技术的迅猛发展推动下,深度学习模型版权保护问题日益受到关注。深度学习模型,尤其是大规模和高性能的模型,因其昂贵的训练成本,容易遭受未授权的复制或再现,导致版权侵犯和模型所有者的经济损失[1-2]。传统的版权保护方法大多依赖于水印技术[3-4],通过在模型中嵌入特定的水印来确认所有权。尽管这类方法可以提供确切的所有权验证,但它们对原有模型具有侵入性,可能会影响模型性能或引入新的安全风险;并且这些方法对适应性攻击和新兴的模型提取攻击的鲁棒性不足[5-6]。


作者信息

屈详颜1,2,于静1,2,熊刚1,2,盖珂珂3

(1 中国科学院信息工程研究所,北京100085;2 中国科学院大学网络空间安全学院,北京100049;

3 北京理工大学网络空间安全学院,北京100081)


文章下载地址:https://www.chinaaet.com/resource/share/2000005869


weidian.jpg

此内容为AET网站原创,未经授权禁止转载。
生成式人工智能 深度学习模型 版权保护 黑盒防御
Baidu
map