摘要:以deepfake、chatgpt、元宇宙等为代表的深度合成技术与应用场景,极大地改变了信息获取、人机交互的方式,并成为未来数字空间的基础性技术。我国的深度合成治理已经走在世界前列,但仍主要停留在算法治理衍生出的信息安全层面,偏重服务应用监管而底层技术治理不足,偏重监管服务提供者但监管技术提供者尚不充分,数据与场景分级分类标准繁杂但并未形成有机体系。深度合成治理应在算法治理基础上延伸迭代,将深度合成作为人工智能治理的专门领域,同时通过顶层设计推进基础性人工智能立法,既保障急用先行,又可探索并形成通用人工智能立法的经验。既应发挥中国既有的深度合成治理优势,根据生成型人工智能技术特点更新监管逻辑,基于生成型人工智能技术的通用性实施全链条治理;同时还需立足现行法规中分级分类治理架构,结合技术、产业和应用建立有机体系和设置具体规则,以形成在全球更具影响力的深度合成治理法律制度体系。
引言
深度合成技术和应用的迅猛发展似乎更加证明了“未来已来”。从可以做出换脸视频的deepfake开源软件,到2021年美国meta公司将“元宇宙”描绘为数字技术构建、数字身份参与的虚拟空间,再到美国open ai公司开发的chatgpt两个月内积累一亿用户创造历史记录,深度合成米乐m6平台的技术支持下的aigc(ai generated content,指利用人工智能技术来生成内容)商业开发在很多领域落地,一幅由人工智能深度合成技术构建的虚实结合的生存图景正徐徐展开。一切仿佛科幻,但却已经逐渐成为现实。
深度合成技术,是指利用以深度学习、虚拟现实为代表的生成合成制作文本、图像、音频、视频、虚拟场景等信息的技术。深度合成技术的代表性研究成果,如2014年提出的生成对抗网络(gans)、2020年提出的生成式预训练模型(gpt-3),大幅提升了多媒体数据合成的逼真程度,推动了“人工智能生成内容”和“元宇宙”等一系列新型智能应用形态。正如比尔·盖茨所说,“这种ai技术出现的重大历史意义,不亚于互联网和个人电脑的诞生”。
深度合成展现了其强大的能量和可能性,但其带来效率和便利的同时,也带来了伴生风险,一旦被滥用可能会给个人肖像、企业名誉等人格和财产权益损害,甚至对社会秩序、国家政治稳定和安全造成巨大威胁。如在俄乌冲突中,深度合成伪造的乌克兰总统宣布投降的虚假视频在推特上传播,获得了大量浏览,推特不得不紧急辟谣;企业高管被深度合成捏造视频篡改发言内容,造成市场恐慌,引发金融市场动荡。个人也可能被伪造虚假视频并被用来向其亲友诈骗,或者被伪造不雅视频,侵害其名誉权。在上述现实危害之外,深度合成还引发了社会对人类未来的担忧。在深度合成技术应用发展历程中,2021年meta公司推出的元宇宙概念和2022年底open ai推出的chatgpt激起了公众对于人类本质、认知模式、生存方式和ai主体性的哲学思考,法学界则开始讨论深度合成技术构建的元宇宙空间的数字货币、数字身份、社会生产与刑法治理等问题。
在世界各国对深度合成的技术治理中,我国立法与监管走在了前列。早在我国2022年3月开始实施的《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)中,就有对生成合成类算法监管的规定(其他四类被纳入管理的算法为排序精选类、检索过滤类、个性化推送类、调度决策类);2023年1月1日开始实施的《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》),标志着深度合成因其重要性和高风险程度成为我国算法治理中率先专门立法的算法服务类型。目前,美国只有少数几个州发布了关于深度合成技术的法规,而且这些法规旨在规制影响选举的深度合成以及色情作品或虚假信息的深度合成。欧盟通过对《数字服务法》的修订,要求平台进行深度合成标注。由此可见,世界范围内深度合成的治理聚焦的是虚假信息内容;即使是针对人工智能深度合成的专门治理,也以传统人工智能为主,而非以大型生成性人工智能模型(lgaims)为主要治理对象。
深度合成技术有其特有的技术特征,因而针对其的治理也应当遵循其自身逻辑。本文论述围绕我国深度合成治理的监管理念和未来走向展开,讨论其治理迭代路径,监管工具、责任链条,以及分级分类和技术、产业、应用分层的多维治理制度构建。
深度合成的概念与治理挑战
深度合成在我国法律法规中已经采用,具体代指生成合成类人工智能的技术概念。如《深度合成管理规定》第23条专门界定了“深度合成”概念。目前深度合成概念能够较好地囊括生成合成类人工智能的诸多新兴技术,准确描述其技术本质和功能,且比宽泛的人工智能概念更具针对性。本部分结合深度合成技术的发展,梳理深度合成概念与人工智能、生成型人工智能、chatgpt、元宇宙等概念的关系,并讨论其作为学术研究通用概念的优势。深度合成的迅猛发展,不仅推进了大数据、算法等技术的迭代发展,而且可能会影响未来人类的认知和生存方式。深度合成也给围绕数据、个人信息和算法规制的制度设计和技术治理带来了前所未有的挑战。
(一) 深度合成的概念
实践中,庞杂的技术概念已经成为制约社会科学研究者理解、研究相关技术法律问题的瓶颈。如人工智能、算法、大数据、深度合成、大规模预训练模型、生成型人工智能等概念,令人眼花缭乱。而元宇宙、chatgpt、生成型人工智能等概念,也与“深度合成”等概念存在着近似和混淆。精准选定和界定概念是科学研究展开的前提。本文选择“深度合成”作为研究的关键概念。
第一, 深度合成是技术概念,而非商业应用概念。本文的讨论区分应用概念与技术概念。一般来说,应用概念更容易被媒体更广泛传播并为社会熟知,但技术概念的传播一般限于学术界。如感康、泰诺和康泰克这些感冒药的药品名被大众熟知,但药品中的乙酰氨基酚等拗口的药品成分概念,则难以被公众记忆。同样,淘宝、抖音、元宇宙、chatgpt等应用概念因其商业应用可直接与人互动而广为人知,但淘宝背后的排序算法、抖音背后的个性化推荐算法、支持元宇宙的生成合成技术、支持chatgpt的大规模预训练模型等概念则不易为一般公众所知。学术讨论应尽量使用技术概念而非应用概念,否则某些概念可能会因商业应用的衰落而沦落为短暂的社会讨论现象。
第二, 深度合成并非人工智能概念那样抽象模糊,而是有明确功能的概念。自1956年“人工智能”的概念被首次提出以来,人工智能的技术研发经历了两次起伏。斯坦福的研究报告显示,“人工智能”的技术概念本身就是跟随技术进步而不断革新的,每当一种新的模拟与延展人类智能的人工智能技术融入社会生活之中,它便会脱离“人工智能”的含义范围;然后,会有全新的、尚未有明确道德规范的技术出现,并融入“人工智能”的含义范围内;这样,除旧纳新的变动过程随着技术创新而持续发生,这种现象被称为“人工智能效益”(ai effect)或“奇怪悖论”(odd paradox)。简而言之,人们倾向于把尚未形成产业应用的新兴技术称为人工智能,而对已经存在于生产、生活中的诸如自动驾驶、智能医疗、智能投顾等人工智能技术,则称呼其具体名称。深度合成是人工智能的具体领域,它以人工智能深度学习为方法,合成逼真内容为目标。因此本文不采用人工智能概念作为讨论对象,而采用可明确具体功能的深度合成概念。
第三, 深度合成有较强的功能概括性,并非某种具体的新兴技术手段。人工智能发展到2010年,基于深度学习技术获得了显著成效,同时社会的数字化转型也使得社会数据资源显著增长,人工智能的发展才开始进入全面爆发期。深度合成的特点可从两个角度理解,第一为有关技术的“深度”,第二为有关结果的“合成”。“深度”即是指深度学习,无论是卷积神经网络、自然语言处理,还是预训练大模型、大型生成性人工智能模型(lgaims),目前都处在深度学习阶段,即用算法从海量数据中学习,以提高算法的智能性和准确性。算法已经越来越复杂,如果说常用算法在技术层面只是一个基础模型,那么以chatgpt为代表的“大型语言模型”(llms)或“大型生成人工智能模型”(lgaims),则代表着深度合成领域的重大技术进步;后两者与前者的区别在于大型语言模型和大型生成人工智能模型通常用几十亿甚至几千亿的参数进行训练,需要海量的训练数据和计算能力。“合成”即基于海量数据生成合并结果,可达到从无到有、以假乱真的效果。逼真的合成效果打乱了人类认知的两个底层逻辑:其一是认为人和机器有着本质区别;其二是俗语所说“耳听为虚,眼见为实”“有图有真相”。深度合成以“真”为技术目标,如可比拟专家回答问题的chatgpt就在一定程度上模糊了人和机器智能的界限。深度合成技术完成的绘画、作曲和作诗水准与一般人完成的作品的水准不相上下;深度合成生成的照片、视频,使得未发生的事情有了逼真的具体场景。可见,深度合成概念,能够较为准确地描述“深度”“合成”技术的功能。
第四, 最后也是最重要的是,深度合成已经成为法律概念,具有了在法学界成为学术概念进行讨论的制度基础。如2023年1月1日生效的《深度合成管理规定》由国家互联网信息办公室、工业和信息化部以及公安部共同发布,规定明确界定“深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”;规定采取了开放的列举方法,大致囊括了深度合成的前沿应用情形,如:生成或者编辑文本,生成或者编辑语音和音乐,图像和视频的生成编辑(生物特征和非生物特征),甚至包括了三维重建、数字仿生等生成或者编辑数字任务、虚拟场景的技术。按照《深度合成管理规定》的定义,ai语音、nft生成艺术、虚拟演唱会、全息人像投影、虚拟人数字人、ar购物等元宇宙的重要组成部分都属于深度合成技术的具体应用。这种功能式的列举可容纳未来的技术发展,包括目前的生成合成类算法、生成型人工智能、aigc(人工智能技术生成内容)应用等。虽然目前法规中列举的深度合成应用未必能够当然涵盖预训练大模型技术,但由于预训练大模型技术同深度合成技术的功能和原理大致相通,因而我们可以通过法解释,将预训练大模型技术纳入《深度合成管理规定》的调整范围。
(二) 深度合成的应用场景
深度合成的应用场景多样,囊括了生成合成文本、图片、音频、视频等技术,也可以被用来营建数字环境虚拟场景(如元宇宙),打造与物理世界、人类生物特征类似的数字孪生世界,生成数字人。深度合成技术基于海量数据和深度学习“生成合成”内容,其内容的形态可以是图像、音频、视频、文本,因此深度合成技术可以被用来进行人脸与场景的图像改变、声音和音乐的创制生成、动作与表情的操控,以及通过与人对答的方式生成文本,或直接自行创作文本,可以被用在教育、影视、传媒等领域。根据生成的内容不同,深度合成一般被用于包括但不限于以下场景:
第一, 文本与图像生成。早在2014年,就有从事机器新闻写作的人工智能,如美联社采用的自动写作平台wordsmith,其本质上是一种自然语言生成引擎,涉及数据库知识发现(kdd)以及自然语言处理(nlg)两个领域,其写作流程包括获取数据,分析数据,提炼观点、结构和格式,出版。这种文本生成可包括知识生成后以文本的形式输出。当下引起人们广泛关注的chatgpt也是自然语言处理(nlp)系统,但chatgpt与之前技术的不同之处在于其采用了海量数据训练的大规模人工智能模型。这些模型采用的数据量大得惊人,如其前身gpt-3是在45兆字节的文本数据上训练的,这使得其生成的文本更加具有创造性。更重要的是这些模型通常设置了随机元素,意味着它们可以以不同的输出应对同一个输入请求,使得chatgpt看起来更加栩栩如生。
第二, 视频与音频生成。深度合成的语音合成项目可以使失去声音的人重新说话,英特尔与戴尔科技、劳斯莱斯和运动神经元疾病(mnd)协会合作的“我永远是我”数字故事书项目,允许任何被诊断患有预计会影响其说话能力的疾病的人录制他们的声音,以便未来在辅助性语音设备上使用。这一功能还被用来伪造视频音频进行违法犯罪活动。2021年10月,安徽合肥警方曾查获一起非法利用深度合成技术伪造手机用户人脸动态视频破解身份核验并为黑灰产业提供注册虚拟手机卡等技术支撑的案件。近年来,类似事件开始更多地进入公众视野。深度合成中的生成型人工智能必将深入影响所有的社会部门,从商业、医学到教育研究,从编码到娱乐和艺术。今天,数以百万计的用户依靠它们来生成可达到人类水平的文本(如chatgpt、luminous)、图像(如stable diffusion、dalle2)、视频(如synthesia)或音频(如musiclm),而更多的替代品已经在开发中。由于预训练人工智能大模型的规模效应,chatgpt和类似软件能够预测一切句子中的下一个词,从而展现出令人难以置信的连接词语的能力。chatgpt等生成型人工智能引起广泛关注的原因还在于其更改了知识传递的方式,极大地降低了专业知识的获取门槛,使得专业知识生成不再需要人类数十年的专业训练就可以得到。如创建自定义销售序列的regie.ai使用生成式ai和最佳实践在几分钟内就可以编写原始序列,并且序列编写能大幅度节约时间且高效;该技术可直接与领先的销售参与平台集成,减少了将消息传递到市场并初显成效所需的时间。
第三, 数字空间的建构。一是虚实融合的数字空间。数字孪生就是基于人工智能深度合成现实世界实体的虚拟复制品,这项技术已经在制造业和工业部门被广泛采用。未来深度合成有可能与物联网共同设计改善智能城市的应用能力,即创制与现实城市完全相同的数字空间,用于智能医疗、交通和环境管理。二是完全虚拟的数字空间。2021年脸书宣布更名为“meta”(元宇宙),紧接着meta在2021年9月宣布旗下元宇宙平台horizon worlds正式面向美国与加拿大地区18岁以上的成年人开放,该平台允许用户构建自己的虚拟世界,并提供了系列的模板和工具。
第四, 数字人的生成与操控。虚拟数字人的合成须集成多项深度合成技术,以实现人物形象生成,语音生成,动画生成,音视频合成显示和交互。这一技术是深度合成的拟人化应用,其商业落地路径较清晰。国内头部数字人企业已经推出了冬奥手语数字人、央视数字主持人等应用。未来智能管家、伴侣、偶像、专家、教师的生成和运维均需要多个领域深度合成的米乐m6平台的技术支持。
综上所述,深度合成的应用场景广泛并且可能会改变未来人类社会的生存方式:一方面生成型人工智能模糊了信息真实和虚假的边界,深刻地改变了人类获取信息与知识的方式,另一方面深度合成技术将成为网络虚拟空间与现实物理世界虚实结合、融为一体的关键应用技术,甚至改变人类未来的生产方式和生活方式。
(三) 深度合成的治理挑战深度
合成的技术与应用,不仅不能化解算法治理一直致力解决的算法黑箱、算法歧视等传统问题,而且由于其技术特点,会给人类社会带来更多的治理挑战。
第一, 深度合成改变了信息生成方式,模糊了虚实界限,极大地降低了专业知识与特定技能的获取门槛,使既往网络安全治理的行政与技术资源难以为继,其滥用可能造成的风险范围更广泛、风险级别更高。与任何先进的机器学习系统一样,深度合成技术会带来潜在的安全问题。(1)深度合成信息内容安全问题相较过去更为严峻。网络信息内容的生产经历了此前web1.0、web2.0时代的pgc(专业生产内容)和ugc(用户生产内容),代表人工智能生成内容的aigc是新一轮内容生产方式变革,aigc内容在web3.0时代也将出现指数级增长。在此之前,虚假信息生产有限,国家通过源头管理、账户账号管理、传播平台治理即可以控制有害信息传播。在深度合成技术应用于内容生产后,内容生产成本进一步降低,生产主体难以追踪,信息内容真假难辨,生成类似人类文本的技术能力提高了冒充和盗窃身份案件的发生概率。传统的新闻信息服务许可、用户账号管理和平台算法过滤、人工审核标注等手段,可能都会面临严重的治理挑战。(2)深度合成会极大地降低专业知识与特定技能的获取门槛,显著扩大网络安全风险的范围,提高安全风险的等级。例如,代码的编写和网络攻击本身具有专业门槛,网络安全攻击在大众眼中仍是专业技术。chatgpt类的生成型人工智能具备了无代码编程能力,降低了攻击代码编写的技术门槛,可能会导致更多的网络安全攻击发生。未来,黑客发动网络安全攻击将如同顽童投掷石子一样容易,这也意味着重要数据、关键信息基础设施等可能面临着网络安全防范资源的严重不足的重大挑战。
第二, 深度合成的发展对现有数据、算法、算力分而治之的治理体系提出了严峻挑战,网络安全、个人信息、数据保护、数据跨境流动的制度都需要做出相应调整,而目前各国均缺乏针对人工智能的数据、算法、算力的综合治理体系。(1)数据安全方面,深度合成的预训练大模型促进了合成数据产业的发展,深度合成技术可以模拟真实用户数据并规避高昂的隐私合规成本。深度合成技术也有可能通过预训练大模型的强大推理能力学习找到真实数据。而针对合成数据的治理各国目前尚无具体的规制性制度。(2)个人信息保护方面,深度合成的训练数据主要来源于互联网,其中可能包括个人隐私数据,而此前gpt-2就发生过隐私泄露的问题。用户生成合成内容需要上传照片、视频或与直接明文的对话。生成合成类算法应用既往就产生过换脸换声的欺诈、人格权侵权、隐私泄露等案件。在新一代以chatgpt为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。这些个人信息可被用于用户画像和训练模型,个人信息的收集、使用和传输都面临着安全挑战。(3)数据跨境安全方面,用户与生成型人工智能模型的海量交互数据如果是跨境产生的,则会引发数据跨境安全问题。生成型人工智能需要海量算力,而面向一国提供生成型人工智能的服务器可能位于世界各地,这与现有的数据本地化存储、保障本土数据安全的数据处理方案存在冲突。
第三, 深度合成会强化技术垄断和技术竞争,不仅使得数据共享共用愈加难以实现,而且会加深国家、地区、人群间的数字鸿沟。(1)高企的算力与资源需求可能造成技术垄断。深度合成的发展对为其提供基础计算工具和环境的数据中心算力以及服务器硬件设备提出了新的要求。生成型人工智能需要的算力投入过于巨大,以致小型开发者根本无法承受,这将进一步造成技术的垄断和算力的集中。(2)数据资源的不公平分配使用进一步加深数字鸿沟。预训练大模型需要海量的数据,chatgpt类的生成型大模型需要几乎整个互联网的数据进行训练。这一方面意味着大量的数据资源被免费攫取,如主流媒体的文本数据,数十亿张受米乐m6平台的版权保护的图像被生成型人工智能公司下载用于训练模型;另一方面,数据资源的分布并不均衡,如英语语言产生的数据远多于其他语种产生的数据,而这些数据无法给预训练大模型提供机器学习的足够养料,因而小语种的生成型人工智能输出质量相对较低。(3)生成类人工智能将成为新的流量入口,基础模型依赖互联网上公开的训练数据,持续训练需要不断与用户互动输入数据,国家、地区、语言的既有优势将被持续强化,地区间数字鸿沟将进一步加大。
深度合成的治理逻辑与更新趋势
(一) 调整对象:从算法服务到人工智能
尽管我国在深度合成的治理方面走在了世界前列,但目前的治理逻辑是将深度合成技术纳入生成合成类算法予以规制,治理对象聚焦于深度合成服务。但在深度合成成为人工智能的重要领域,甚至逐渐走向通用人工智能的趋势下,仅将其以算法信息服务之一作为调整对象难以适应该领域技术的应用发展。在当前我国的治理逻辑中深度合成主要被定位为算法,聚焦信息安全。在我国制度语境中,深度合成服务是指利用生成合成类算法提供信息服务,属于我国《算法推荐管理规定》中规定的生成合成类、排序精选类、检索过滤类、个性化推送类、调度决策类算法五类推荐服务中的一种。通过对近年来我国颁布的法律法规的脉络进行梳理可知,深度合成的监管对象聚焦的是信息内容。如2020年的《网络音视频信息服务管理规定》明确提出对基于深度学习、虚拟现实等技术,具有媒体属性或社会动员能力的音视频信息服务展开安全评估,对非真实音视频信息进行标识;2020年《网络信息内容生态治理规定》要求不得利用深度学习、虚拟现实等新技术新应用从事法律、行政法规禁止的活动;2021年开始实施的《民法典》人格权编明确规定,不论是否出于营利目的,均不得利用信息技术手段伪造他人肖像、声音;2022年《算法推荐管理规定》明确要求不得生成合成虚假新闻信息。可见,从算法服务治理生长出的深度合成治理法律,其主要聚焦于信息安全监管。
相比欧美国家,这一治理架构虽然已经在治理对象、治理链条和治理工具上有明显的制度引领和先发优势,但实践中也难以充分应对生成型人工智能的迅猛发展产生的问题。因为深度合成的技术迭代已经使得其日渐超出了前述立法时所设计的生成合成类算法框架所能调控的范围。一是我国算法治理的调整对象本身就有一定的局限性。如《算法推荐管理规定》明确其调整的“应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息”。尽管规定使用了“算法推荐技术”一词,但实际上五种功能分类是从服务角度进行的划分。而检索类与个性化推送类算法原理相同,但被归为不同的服务分类。可见,“算法推荐”一词的选用也和牵头起草部门国家网信办以信息内容管理为主要职能有关。二是算法监管对象局限于提供互联网信息服务的算法,并不包括诸如公共部门使用的决策类算法。目前的相关规章在空白领域搭建起了算法制度框架,但主要针对私主体的算法服务,其他涉及公民权益的公共部门的算法自动化决策的相关治理任务,则是由《个人信息保护法》等法律法规承担,但规定较为原则。三是从立法本意上来看,算法监管未必能够涵盖深度合成治理。我国近两年的立法中是如何设定深度合成与算法的关系的呢?一说认为我国出台《深度合成管理规定》,是将深度合成作为算法服务种类中高风险、高敏感度的算法进行监管,因此率先单独立法;另一说则认为,算法推荐与深度合成是并列关系。在算法监管本身调整对象就有较大局限的情况下,深度合成作为未来技术发展重要领域的人工智能技术和应用,难以被算法规范有效涵盖。
在深度合成迅速发展的背景下,仅以算法服务为对象、以信息安全为目的显然无法应对深度合成技术、产业、应用的发展。与此同时,人工智能本身就被集成在众多的产品和服务之中,在法律规范中使用过于宽泛的人工智能定义必将给人工智能开发者、部署者、产品生产者(集成者)等设计自动化功能的产品和服务带来巨大的合规成本,而使用清晰明确的有关深度合成的定义则有利于增强监管的确定性。
(二) 维度拓展:从平台问责到产业治理
我国《深度合成管理规定》已经将治理的触角向米乐m6平台的技术支持者和用户延伸,但平台问责仍然是深度合成治理的主要抓手。《深度合成管理规定》第2条规定:“在中华人民共和国境内应用深度合成技术提供互联网信息服务(以下简称深度合成服务),以及为深度合成服务提供米乐m6平台的技术支持的活动,适用本规定。”可见,《深度合成管理规定》的调整对象“深度合成”既指深度合成服务,也指深度合成技术。在现有的深度合成治理框架中,我国将深度合成服务提供者作为治理的枢纽。一方面,深度合成服务提供者应尽到自身的安全管理义务,如进行深度合成内容标识,建立鉴伪与辟谣机制,完成算法备案等;另一方面,深度合成服务提供者要履行对上游米乐m6平台的技术支持者和下游服务使用者的管理责任,提示米乐m6平台的技术支持者和使用者承担信息安全义务,对使用者输入数据和合成结果进行审核,并提示使用者应对深度合成做显著标识。如规章要求深度合成服务提供者和米乐m6平台的技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示使用者(用户)并取得其单独同意。
深度合成的治理框架已经对上游的米乐m6平台的技术支持者提出了相关要求,虽具有一定创新性,但囿于部门职能,规定存在一定局限。相对于牵头起草部门网信部门的信息内容监管职能,既有规定对米乐m6平台的技术支持者提出要求是新举措,因为深度合成的米乐m6平台的技术支持者如何使用训练数据、如何设计算法机制机理、如何开发应用可搭载的模型模板工具,都会直接对深度合成服务的功能应用结果产生影响。但如果站在数字社会生产的角度考量深度合成治理,则可发现,既有治理过于关注深度合成的内容输出治理而相对忽略了其他角度的治理,因而影响了治理全局的功能。如深度合成中的预训练大模型以大量的参数、训练数据和计算进行操作,目前虽然没有达到接近通用人工智能的水平,但仍然比传统的深度学习更具通用性。通用人工智能类似于类脑智慧,其强大的学习能力和完备性可以通用于现今人工智能许多关联松散的子领域(如视觉、听觉、文本等),其主导的人工智能第三次浪潮,可能进一步形成人工智能子领域之间共同的基础或框架。换句话说,深度合成中的预训练大模型,可能被部署用来解决它们并未被专门训练过的任务,输出的多样性和任务广度也会远超一般模型。因此,从纵向角度考虑,深度合成的治理应当在数字产业化和产业数字化的进程中进一步深入产业治理。
(三) 体系构建:从多元分级到多维统筹
依据风险进行分类分级管理是技术治理中普遍采用的原则,有助于具体制度根据不同场景设置精细规则。目前我国的技术治理体系中,就设立了数据、算法、主体、场景四大类分级分类的标准。但目前深度合成总体应如何做分级分类的定位尚不明晰。一是算法分级分类中,尚无明确的具有可操作性的标准;二是我国四大类分级分类标准由不同部门依据职能主导,职责互相交叉,边界不尽清晰;三是深度合成本身具有一定通用性,应用范围广,难以被简单归入某一具体分级分类。
第一, 目前我国存在多种分级分类制度。(1)在数据维度,《数据安全法》将数据分为核心数据、重要数据、一般数据,确立了由国家建立数据分类分级制度、由主管部门制定重要数据目录并加强保护的制度框架,并注重网络安全制度与数据安全保护制度的衔接;《民法典》区分了一般个人信息和私密个人信息;《个人信息保护法》建立了信息分级制度,将个人信息分为一般信息和敏感信息;在算法维度,《算法推荐管理规定》第23条提出:“网信部门会同电信、公安、市场监管等有关部门建立算法分级分类安全管理制度,根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等对算法推荐服务提供者实施分级分类管理”。但目前为止,一般认为深度合成可能被用于“无中生有”或篡改信息内容因而具有较高的舆论属性或者社会动员能力,属于高敏感高风险的算法服务技术。(2)在主体维度,我国《个人信息保护法》借鉴欧盟立法,第58条对提供重要互联网平台服务、用户数量巨大、业务类型复杂的“守门人”进行了规范,要求其建立健全个人信息保护合规制度体系。在规范性文件层面,我国市场监管总局起草的《互联网平台分类分级指南(征求意见稿)》将平台分为网络销售、生活服务等六大类,分级上又分为中小平台、大型平台和超大型平台三级,考虑了用户规模、业务种类以及限制能力。(3)在场景维度,当数据、平台和算法相同的情况下,仅仅由于技术的可能使用场景的不同,而产生不同级别的风险,需要配置不同的监管制度。如未成年人使用平台的相关功能,相应配备的个人信息保护规则和算法相关合规要求不尽相同;《重要数据识别指南》将支撑关键基础设施所在行业的数据,反映关键信息基础设施网络安全保护情况的数据,反映重点目标、重点场所物理安全情况的数据等视为重要数据,重要数据一般应有更严格的法律保护制度。除此之外,在一些行业场景下,数据产生与处理的规则也应相应区分。如人工智能医疗领域、金融业务领域都可能涉及诸多敏感个人信息需要围绕场景进行整体性制度设计;《个人金融信息保护技术规范》《证券期货业数据分类分级指引》等对金融领域的数据分级给出了具体指导。我国各部委也相继颁布了基于行业应用、业务场景的数据安全分级分类方法。
第二, 四类分级分类标准,职责互相交叉,边界不尽清晰。以算法分级分类为例,一是我国以部门职能作为分类标准,“具有舆论属性或者社会动员能力”的算法均需履行事前安全评估、备案等程序,算法种类繁多,基本涵盖了现有的算法服务;二是《算法推荐管理规定》中的算法分级分类安全管理制度,结合数据维度(如数据重要程度)和主体维度(如用户规模)进行制度设计,但不同分级分类标准如何厘清各自职能和边界,以及各标准之间如何衔接,需要进一步出台规范予以调整。
第三, 由于对深度合成的技术和应用尚无法充分认识,相关立法难以在现有分级分类框架中被精准定位。调整深度合成的规范不仅在我国目前初步构建的多系统分级分类法律体系中难以找到确切的位置,而且欧盟立法对深度合成技术的风险判断也并不清晰,目前有学者提出了将深度合成全部归为高风险系统予以规范的主张。但这一主张显然并不利于相关技术与产业的发展。
因此,深度合成的治理框架需进行迭代升级,包括将治理对象从算法服务扩展为人工智能,治理维度从平台问责扩展至产业治理,建立由有力牵头部门统筹协调的体系化监管体制机制,并对我国目前多个分级分类制度进行系统整合。
深度合成治理的体系迭代与未来发展
我国的深度合成治理应在现有算法治理基础上做出制度延伸,将其作为人工智能专门领域予以治理,形成“算法治理—深度合成治理—人工智能治理”的迭代路径,为我国未来通用人工智能立法做准备。面对深度合成中的生成型人工智能等具有一定通用性质的新型人工智能技术,应及时调整治理方案,抢抓规则制定权,防范国际规则博弈中欧盟等有意识的制度输出,推动我国在该领域的本土化制度建设和制度引领。
(一) 深度合成治理的体系迭代
深度合成治理应在现有算法治理的基础上做出制度延伸与体系迭代。chatgpt等生成型人工智能的爆发,是推动深度合成成为人工智能治理专门领域的有利契机。将深度合成纳入专门化的人工智能治理领域予以治理,既可以为我国人工智能基础性立法做出有益探索,又可避免欧盟、美国现有立法中人工智能范围定义过宽的弊端,发挥我国人工智能立法的制度引领作用。
第一, 深度合成治理需要在算法治理基础上做出延伸和迭代。尽管我国深度合成的治理已经在算法治理基础上进行了创新,但治理体系仍需进一步优化。我国的算法治理体系将算法定位为“互联网信息服务算法”和“算法推荐服务”,尽管在算法监管制度中已经创新性地提出了针对特征库、用户标签、算法机制机理等技术规范措施,但其重点聚焦于算法安全价值导向下的信息服务规范和用户权益保护。《深度合成管理规定》在征求意见的讨论后将服务和技术列为并重的调整对象,将“数据和技术管理规范”专章单列,并将监管对象延伸至深度合成米乐m6平台的技术支持者,都是对技术发展的因应性制度调整。我国深度合成治理超越了算法治理制度,相较欧盟、美国等制度更具有引领性。国外研究也认为《深度合成管理规定》调整的范围全面,将大大改变14亿人的人工智能生成内容的制作方式;在具体制度的评价中,研究者也认同我国现有监管为深度合成的每个阶段制定了规则,从创作到标注再到传播,为未来控制有机生成内容也留下了空间,在2023年可能影响到其他国家深度合成法规的发展。但是,算法监管的一些具体措施显然很难适用于深度合成项下的生成型人工智能等技术。如算法机制机理的备案说明、特征库和标签制度等,应结合深度合成的新技术发展与应用场景做出相应调整和改进。
第二, 深度合成治理应成为人工智能治理的专门领域,并在此基础上推进我国人工智能基础性立法。我国现有的算法规制体系在实践中承担起了人工智能治理的任务。从2017年国务院《新一代人工智能发展规划》到2022年的《最高人民法院关于规范和加强人工智能司法应用的意见》,我国人工智能治理各级文件中均提出了“安全可控”的治理目标,具体制度均提到了建立公开透明的制度体系、建立相应问责机制、技术和应用全流程监管等。而这些具体制度的落地则是由算法透明度,算法问责,算法设计、输出与结果监管,以及算法推荐服务结果公平等规定保障实现的。国外的研究一般也认为中国针对算法设计的系统法规,包括对算法系统的设计、使用和数据种类的要求和标准,是中国人工智能的治理制度。
应以chatgpt为代表的生成型人工智能发展为契机,推动深度合成治理成为人工智能治理的专门领域。(1)保障急用先行一向是我国立法的一条重要经验。短期内,继续采用垂直和领域性人工智能监管能够有效将可能的风险控制在最小范围,延伸深度合成现有制度是治理效率最高的方式。不过从长远来看,加强深度合成治理专门立法是必然趋势。在拟出台全盘人工智能治理方案的欧洲,也在讨论对人工智能立法的部分定义和监管类型进行修订,以增强对“大型生成式ai模型”部署者和用户进行直接监管。(2)深度合成的治理等待全盘人工智能治理的立法出台,会面临针对性、可用性不强的制度困境。生成型人工智能具有一定通用性,是否延续传统对人工智能的分级分类方式进行治理?目前欧盟就面临着这个问题。2022年5月《人工智能法案》第4a-4c的修正案成了监管生成型人工智能的核心条款。任何可用于任何高风险应用的“通用人工智能系统”,如就业、医疗、信用评分、行政、执法都必须初步遵守《人工智能法》对高风险系统规定的全部义务。一个全盘的人工智能治理方案极可能受到技术发展的冲击。因此也有欧洲学者建议欧盟应将其所设想的全盘人工智能法案监管转向具体的监管职责和内容治理。(3)在对深度合成治理做出专门性制度探索的基础上,推进人工智能基础性立法,解决人工智能领域的通用问题。一是算法、算力与数据的规制制度必须在人工智能治理的框架下统筹协调。如欧盟立法面临着《人工智能法》《通用数据保护条例》《数字服务法》等法规协调的问题。预训练大模型需要海量的算力,如何统筹全国范围内的算力使用,也是法律层面立法才能解决的问题。二是法律层面上统筹,方可保证较高的效力位阶将我国现行的有关数据、算法和人工智能问题的探索,统一纳入未来人工智能基础性立法。
2023年被认为是全世界的人工智能监管新格局的开创之年。虽然不同的法律辖区正在采取不同的监管路径,但欧盟《人工智能法案》的加快推进,意味着全盘管理人工智能未来将可能成为全球立法模式。按照“算法治理—深度合成治理—人工智能基础性立法”的思路,深度合成治理立法一方面承接算法治理,另一方面也可以为未来通用人工智能的立法做出有益尝试。
(二) 内容监管与全链条治理
深度合成的治理,一是需要保障生成内容安全的基础法益,二是应依据生成型人工智能改进监管框架实施全链条治理,三是需要适应技术的进一步发展,完成深度合成监管工具的升级。
第一, 深度合成的生成内容监管。深度合成的前期治理聚焦生成合成的虚假信息是全球共识,欧盟、美国均有相关立法尝试与监管举措。我国的深度合成治理中有关信息内容安全的监管措施应严格执行,继续要求aigc技术与服务提供者在相关的人工智能自动生成内容中履行添加可识别水印或有效警示信息的义务,在源头上实现人工智能自动生成内容的可识别性。不过,aigc(人工智能生成内容)的标识要求需要进一步提高。如对chatgpt或类似软件生成“以某人风格”生成文本或图像视频等内容时,应当在生成内容的合理位置做出显著标识,以避免公众产生混淆或误认。生成内容型的人工智能必然会发生内容安全问题,尽管目前chatgpt对基于恶意目的的使用提出了一些限制,但是有技巧的使用者仍然可以采取调整措施的请求来绕开这些限制。因此aigc(人工智能生成内容)不仅仍需配备人工过滤审核机制,而且需要在下游督促网络平台采取措施减少违法信息的产出。深度合成监管中的辟谣机制和举报机制同样适用于chatgpt等生成型人工智能。对于已经或者准备在网络中传播不实信息和可能危害公共秩序的内容,平台有义务停止传输,并且对于频繁发布此类信息的用户主体通过黑名单或其他机制加以限制和处罚。尤其是在aigc(人工智能生成内容)与机器人账号结合可能带来更大信息内容安全风险时,应在我国现有账号管理机制中强化对机器人账号的身份识别监管和对权威账号的特殊认定,减少机器人批量推送aigc(人工智能生成内容)。中国已经在内容监管领域积累了较多经验并取得先机,监管人工智能生成内容也成为制定全球规范和标准的一种重要方式。
第二,深度合成的法律担责链条。深度合成中生成型人工智能技术链条的参与者包括:开发者建模并预训练大模型;部署者根据应用需求,或单独或与开发者合作进行参数微调;用户最终与生成型人工智能互动,并决定生成型人工智能的具体用途。在生成型人工智能的技术产出链条上,技术开发者是关键,因而深度合成合规责任在技术链上进行可行性的责任分配显得尤为重要。鉴此,我国的深度合成监管应围绕服务提供者设计制度:一是在生成型人工智能的治理中,应对技术开发者提出更严格的要求,如训练数据的标注、文件记录和保存、保障技术透明度等。面对open ai、stability这样的大型技术开发者,在开发阶段仅有伦理要求是无法满足监管目标的。可以考虑通过对技术的获利者征收庇古税平衡技术获利与风险行为。监管者对深度合成的审计,可通过定期随机抽取方式进行,并依据审计结果对深度合成技术的获利者征税。二是对生成型人工智能的部署者应结合其应用场景设置义务,该义务的结构安排制度必须使部署者和使用者能够有合理预期,包括必要的技术调整和合规成本。否则,过于强调绝对的信息内容安全,会阻碍深度合成产业的发展。三是在用户层面进一步细化管理。对于使用aigc(人工智能生成内容)为他人提供服务的专业用户,如使用chatgpt撰写法律文书,用ai绘画提供设计装饰服务,使用生成型人工智能编码或提供教育服务等经营活动,应承担人工智能生成内容的标识义务。对于普通的深度合成用户,应进一步通过技术手段等强化其义务。如我国现有的深度合成监管中,要求上传照片生成换脸视频的用户必须取得当事人的同意,但实践中尚缺少有效的落地机制和制约手段。在用户与生成型人工智能明文互动的情况下,如何通过技术加强对用户行为的合法性约束,是下一步技术开发和制度设计应认真对待的问题。
第三, 深度合成的监管工具升级。(1)算法歧视的传统监管工具,在面对生成型人工智能时会遇到挑战。既往人工智能公平性治理中采取的通用性应对措施,如过滤器和模型调整,定量偏差评估和基准测试等,在chatgpt这类预训练模型系统治理中会遇到挑战。不过技术界仍在不断尝试,如斯坦福大学以人为本人工智能研究院基础模型研究中心推出大型语言模型(llm)的整体评估,评估包括准确性、校准、鲁棒性、公平性、偏差、毒性和效率等模型完备的各个关键要素,旨在提高语言模型透明度,帮助公众理解大型语言模型。(2)深度合成的数据和隐私安全同样需要新的技术支撑和保障。在深度合成营造的数字虚拟生存场景中,用户需要头盔和手持器等vr设备实现沉浸式互动。vr中数据收集的范围和规模超出了目前网络平台的能力,攻击者可通过几分钟的数据流轻松识别vr用户,或通过在虚拟环境中植入制品诱导用户透漏个人信息。这都需要网络安全技术、监管技术的全面升级以更好地加强监管。
(三) 分级分类标准的有机体系化
深度合成对多元的分级分类标准提出了巨大挑战。一是深度合成应用覆盖范围广泛,既包括信息内容安全,也包括数字人、数字虚拟场景、数字孪生等应用模式,继续适用“具有舆论属性或者社会动员能力”的算法分类标准,已难以适应生成合成类算法的分级治理。二是深度合成中的生成型人工智能具有一定通用性。按照全盘人工智能的治理模式,如欧盟《人工智能法案》,要求识别和分析所有最可能对健康、安全和基本权利产生的已知和可预见的风险,按此模式进行监管,则一旦生成型人工智能被用于一个高风险用途,整个预训练大模型都会落入高风险的规制范围,需要进行性能、稳健性和网络安全测试。而生成型人工智能需要巨额投资,高企的合规成本显然不利于企业投资和研发。三是深度合成的生成型人工智能需要海量数据进行训练,而数据的汇聚和量级本身就被认定为具有较高风险。如达到一定量级的个人信息处理如果发生重大网络安全事件,在我国法律体系中被列为与重要数据安全事件同等级别的事件,《关键信息基础设施条例》明确将二者并列。与此类似,《网络安全审查办法》也将重要数据、关键信息基础设施与大量个人信息的风险并列。由此可见,深度合成监管的分级分类标准设计,既需要统筹技术、产业和应用的不同分层,也需要消解数据分级分类中的量级考量因素,有机协调做出针对性制度安排。从产业链角度看,技术底层的大模型与数据集成为真正意义上的“信息基础设施”。aigc(人工智能生成内容)产业需要生成型人工智能支持,提供垂直化、场景化的工具和模型———作为幕后产业链的上游,需要后端基建如渲染公司、底层架构如引擎公司等支撑;应用层面的内容生成应用属于产业链下游,需要面向各行业的内容与场景等技术支撑。在数据、算法、主体等分级分类方法难以适用于生成型人工智能的背景下,应在产业链条层面首先纵向划分深度合成的技术、产业和应用层,再对技术研发、产业落地和技术应用分级分类设计管理制度。
第一, 不宜将深度合成尤其是生成型人工智能一概纳入高风险治理框架,而应根据生成型人工智能的预训练大模型、海量数据等特征单独设计监管制度。在深度合成领域,应回避欧盟有意识的法律输出,坚持符合中国本土的治理路径。欧盟《人工智能法》《数字市场法》《数字服务法》三部协同立法影响巨大,其目的是为了确保公司不会滥用人工智能并承担相应责任,避免可能的伤害;但每项立法都要求对符合特定标准的公司进行独立审计、安全评估或者第三方审计,给产业发展造成了沉重负担,可谓“数字经济的幼儿,数据监管的巨匠”。我国在信息内容安全领域已经具备相较于其他国家更多的实践经验,坚持分层治理,尤其是加强生成内容的专门化治理,可避免合规成本过高阻碍深度合成产业的发展。
第二, 区分技术、产业和应用层面分级分类设计制度,在技术与产业层面加大扶持力度,在应用层面参考现有分级分类标准完善监管制度。鉴于深度合成发展需要大量资源、开展技术竞赛,集中力量发展技术、产业将成为我国的必然选择,因此需针对某些特定企业和信息基础设施加强人工智能伦理监管、网络安全和数据安全保障。如我国《新型数据中心发展三年行动计划(2021-2023年)》提出新型数据中心应具备高技术、高算力、高能效、高安全等特征。在深度合成应用层面,可参考现有的分级分类标准,依据其舆论属性或者社会动员能力、内容类别、用户规模、对用户行为的干预程度等实施分级分类管理。因为在现阶段通过一部法律来协调对所有人工智能系统的监管,显然很难保证立法的高度适用性。
第三, 应建立敏捷治理体系,并留足前瞻性制度发展空间,以保障技术的长远发展。对于一个调整范围广泛、潜在的变革性立法框架来说,过于宽泛和固定的人工智能立法并不适当。人工智能专家和非专业公民之间的认识不对称可能促使风险监管严重依赖专家的判断。深度合成的发展正在迅速催生多个产业和价值生产模式,合成数据、数字孪生、数字人、元宇宙等未来的制度发展都需要治理的敏捷应对。正如专家调查了欧盟现有的治理方案之后得出的结论:“人工智能将重新需要一个灵活和反应迅速的治理框架,以最大限度地提高其重新应对不断变化的风险和问题的能力。”
结语
深度合成已经成为世界人工智能领域竞争的新赛道,以chatgpt、元宇宙为代表的一批风靡全球的应用技术为人类谱写数字化生存的新篇章提供了无限可能。掌握人工智能治理的话语权、规则制定权,抢先形成新的国家竞争优势,已经成为世界不同法域的努力目标。我国在个人信息保护和数据立法领域,可以说与欧盟、美国并行,在算法治理和深度合成治理领域则成为一定意义上的领跑者。然而,领跑不代表严苛,过强的监管并不一定形成制度竞争优势;符合我国本土经济、社会、政治、价值观,能够促进我国深度合成产业长远健康合法发展的治理制度,才是我国真正的制度竞争优势。欧盟正在不遗余力地努力成为人工智能治理的全球领导者,加强继续引领围绕人工智能监管的全球标准的讨论。在这一背景下,既保障急用先行,避免新兴技术带来的问题,又不急于推行过于严格的人工智能方案以提高制度的可用性,是我国深度合成人工智能立法的努力方向。一方面在算法监管的经验与框架中,继续推进深度合成的治理;另一方面在深度合成治理的探索中,逐步形成通用人工智能立法的经验,为未来统筹算法、算力、数据的人工智能治理作出更多有益尝试,是目前深度合成治理路径的最佳选择。深度合成的治理,生长于算法治理,既需借助算法治理的既有制度资源与框架,又需要创新性地发展其作为人工智能专门领域的监管工具、分类分级制度、责任链条分配体系。我国深度合成的治理应适应中国本土亟需发展生成型人工智能产业的需求,同时发挥中国既有的信息内容治理优势,以形成在全球更具影响力的深度合成治理法律制度体系。