设计应用

生成式大模型的数据安全风险与法律治理

作者:刘羿鸣1,林梓瀚2
发布日期:2024-02-29
来源:网络安全与数据治理

引言

生成式大模型(以下简称大模型)是指基于海量数据训练的、能够通过微调等方式适配各类下游任务,并根据用户指令生成各类内容的人工智能模型。大模型具有极为宽广的应用前景,且使用门槛较低,用户可通过开源或开放API工具等形式进行模型零样本/小样本数据学习,便可识别、理解、决策、生成效果更优和成本更低的开发部署方案。然而,大模型的训练及其应用的落地都需要大量的数据作为支撑,由此带来的诸如个人隐私泄露和数据篡改等数据安全风险已成为法律所必须因应的重要议题。本文将基于大模型数据安全风险的系统性分析,对国内外既有规制路径的不足进行梳理,最后提出我国大模型治理的完善建议,以期推动大模型应用的可信有序发展。1问题的提出大模型的广泛应用与内生性技术局限的叠加引发了对大模型所导致的数据安全风险的担忧。


作者信息

刘羿鸣1,林梓瀚2

(1 武汉大学网络治理研究院,湖北武汉430072;2 上海数据交易所,上海201203)


文章下载地址:https://www.chinaaet.com/resource/share/2000005873


weidian.jpg

此内容为AET网站原创,未经授权禁止转载。
生成式大模型 数据安全风险 ChatGPT 风险分类分级
Baidu
map