引言
在数字化技术蓬勃发展的背景下,生成式人工智能(Generative AI,GenAI)凭借其在文本、图像、音频等领域的强大内容生成能力,正在信息传播、内容创作和社会互动等诸多领域引发深刻而颠覆性的变革。从GPT系列的自然语言生成模型到DALLE、Stable Diffusion等图像生成模型,GenAI通过深度学习算法(如生成对抗网络GANs和变分自编码器VAEs),基于海量数据训练,实现了高质量、与训练数据相似的内容自动生成。这一技术不仅广泛应用于娱乐、教育、新闻等行业,还通过其基础性支撑作用辐射至众多领域,推动产业创新发展、经济运行模式变革和社会进程迭代。然而,随着GenAI技术的快速迭代与广泛应用,其引发的内容安全问题日益突出,成为限制技术健康发展的关键挑战。首先,GenAI技术的迅速发展加剧了虚假信息的传播,可能严重误导公众认知,扰乱社会秩序,甚至威胁国家网络安全。其生成的虚假内容不仅可能被不法分子利用操控舆论,还可能被用于制造社会对立,进而影响社会稳定。其次,内容版权侵权问题频发,侵犯创作者的合法权益,影响创作生态的健康发展。再次,GenAI技术在处理海量数据时存在极高的隐私泄露风险,可能导致个人信息的非法获取和滥用,严重威胁个人权益保护,甚至对国家的数据安全形成潜在威胁。这些问题的出现呼应了“科林格里奇困境”(Collingridge Dilemma)。正如大卫·科林格里奇(David Collingridge)所指出,在技术发展的早期,其社会后果往往难以预见;而当不良后果显现时,该技术可能已深度嵌入社会经济结构,使得实施有效控制变得异常困难[1]。针对这些问题,GenAI内容安全监管已成为维护国家网络安全、社会稳定与个人权益保护的重要任务。然而,目前我国在GenAI内容安全监管领域仍面临诸多挑战,尤其是行政执法责任划分不明确,导致监管效率低下,监管责任难以落实。现行监管体系下,涉及GenAI内容监管的部门众多,包括公安机关网络安全部门(以下简称“网安部门”)、国家互联网信息办公室(以下简称“网信部门”)、工业和信息化部(以下简称“工信部门”)等。由于GenAI内容的复杂性与多样性,各部门在实际监管过程中职责交叉和界限模糊的现象屡见不鲜。此外,现有监管制度在应对GenAI技术快速发展时也暴露出诸多不足,难以满足技术迭代与应用场景变化带来的治理需求。为实现GenAI内容安全的有效治理,应聚焦行政执法责任划分,深入分析GenAI内容安全的内涵及其监管现状,剖析当前面临的主要障碍,从风险导向出发,提出科学合理的制度设计与可行的监管措施,明确GenAI内容安全的行政执法责任,完善行政执法体系,构建良性技术应用生态,从而为维护国家安全、保障社会和谐提供有力支撑。
本文详细内容请下载:
http://www.chinaaet.com/resource/share/2000006934
作者信息:
盛小宝,刘晋名,姚迁
(公安部第三研究所,上海200100)