分享到
EN
  • 专业文章 Articles

《生成式人工智能服务管理暂行办法》评析

知识产权与科技创新

前言

大国博弈本质上是科技的博弈。作为新一轮科学技术革命的引擎,人工智能技术的快速发展已经成为中美博弈的主战场。我国一向擅长“集中全力办大事”,这得益于特色社会主义制度的优越性,但在大力发展人工智能技术、提升国家竞争力的同时,也必须高度重视可能出现的安全风险挑战,确保人工智能安全、可靠、可控发展。为此,2023年7月10日,国家网信办联同国家发改委、教育部、科技部、工信部、公安部、广电总局共同发布《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”),就提供和使用生成式人工智能服务提出了规范要求。《暂行办法》全文共五章二十四条,将于2023年8月15日起正式施行。作为我国第一部全面、专门规范生成式人工智能服务的法规,《暂行办法》遵循了客观、合理、适度的价值导向,我们有理由相信《暂行办法》落地后应能起到理想的前瞻预防与约束引导效果。本文拟结合网信办2023年4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《征求意见稿》”),就《暂行办法》提出的规范要求进行评析。

一、《暂行办法》对于《征求意见稿》的修正

经对比,相较于《征求意见稿》,《暂行办法》的条文设计更显逻辑、合理,语言表述更具精确、规范。此外,就《征求意见稿》中部分脱离实际情况的规定,《暂行办法》进行了修改,放宽了监管要求,体现出了立法者对于仍在不断发展的人工智能技术持包容和谦抑态度。以下,我们就三处值得关注的差异点作简要评析。

(一)放宽对于生成内容以及训练数据真实性、准确性、可靠性的要求

我们曾在“生成式AI的应用风险与规制——《生成式人工智能服务管理办法(征求意见稿)》简析”一文中指出,生成内容不一定真实是当下人工智能创作的主要特征之一,也是部分人士认为人工智能具有“思想”的理由之一。鉴此,我们认为《征求意见稿》第四条第(四)款要求生成内容“必须真实准确”可能过于苛刻,不符合现实的技术设定。此外,由于训练数据来源复杂、追溯困难,《征求意见稿》第七条第(四)款要求服务提供者“保证训练数据的真实性、准确性、客观性、多样性”同样过于严格。

令人欣喜的是,《暂行办法》放宽了关于生成内容以及训练数据真实、准确、可靠的要求。《暂行办法》第四条第(五)款要求“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。”同时,《暂行办法》第七条第(四)款要求“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。”两处调整明显体现了立法者对于现实技术的包容,减轻了服务提供者在生成内容上的责任。

(二)明确法规的适用对象,增加不适用情形

《征求意见稿》第二条没有规定法规的不适用对象,即凡是利用生成式人工智能产品面向中国境内公众提供服务的,均受到法规监管。《暂行办法》对此作进一步细化修正,增加了例外的不适用情形。根据《暂行办法》第二条规定,“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。”据此,如若企业仅内部研发或应用人工智能技术而不对外提供服务,则不受《暂行办法》的监管。

(三)确立分类分级监管规则

《暂行办法》第三条要求“对生成式人工智能服务实行包容审慎和分类分级监管。”第十六条进一步规定“国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。”前述两条款均为新增条款,但就落实“分类分级监管”,《暂行办法》未作指引。

所谓“分类分级监管规则”,参考欧盟人工智能法案(Artificial Intelligence Act)的规定,系指对于不同风险等级的人工智能技术,按照风险级别采取有差异化的监管措施,例如通过评估可以把风险区分为“不可接受的风险”(Unacceptable Risk)、“高风险”(High Risk)“有限风险”(Limited Risk)以及“低风险”(Low and Minimal Risk)。如被评估为“不可接受的风险”,则该技术将被严格禁止并附加高额处罚;如被评估为“高风险”,则该技术将遵守完整的全流程风险管理措施并接受全生命周期的评估;如被评估为“有限风险”,则该技术需要履行公开透明的义务;对于低风险技术则不施加任何义务。前述举例的“分类分级监管规则”是欧盟人工智能法案中的规定,目前我国尚未制定类似具体的监管规则,但从《暂行办法》第三条以及第十六条的规定来看,针对不同风险的人工智能技术采取差异化监管措施是大势所趋,我们期待并将持续关注后续具体法律法规的落地。

二、《暂行办法》的具体规范要求

服务提供者是《暂行办法》规制的主要责任人。根据《暂行办法》第五章“附则”第二十二条的规定,生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。以下,我们根据《暂行办法》的条文顺序整理了对于服务提供者的具体规范要求并作简要评析。

(一)《暂行办法》第一章“总则”:首要遵守的五项基本规范

《暂行办法》第一章第四条规定了提供和使用生成式人工智能服务应当遵守的五项基本规范,即:(1)生成式人工智能应体现社会主义核心价值观:不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容;(2)避免算法偏见和歧视:在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;(3)尊重平等竞争:要求尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;(4)保障个人权益:要求尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;(5)要求基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。前述五项基本规范组成了生成式人工智能法律治理的总体框架。

需要特别注意的是,虽然《暂行办法》主要规制的对象是服务提供者,但根据该第四条的规定,对于上述五项基本规范,服务使用者也有义务遵守。因此,我们提醒服务使用者在使用生成式人工智能服务的过程中应尽充分的注意义务,审慎辨别生成内容是否违背了社会主义核心价值观或存在侵权情形。如果服务使用者违反前述规定,例如故意诱导生成损害国家形象、煽动分裂国家、宣扬民族仇恨、暴力、淫秽色情、虚假有害的内容,或者明知他人享有某项合法权益(如肖像权、名誉权、荣誉权、隐私权等)仍故意生成侵权内容,则该使用者将依法承担相应的法律责任。

(二)《暂行办法》第二章“技术发展与治理”:训练数据过程中应遵守的规范

《暂行办法》第二章第七条规定了服务提供者在开展预训练、优化训练等训练数据处理活动过程中应遵守的各项规范。具体来说,《暂行办法》要求服务提供者使用具有合法来源的数据和基础模型;涉及知识产权的,对数据源的使用不得侵害他人依法享有的知识产权;涉及个人信息的,对数据源的使用应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。此外,《暂行办法》第八条规定了如果在产品研发过程中采用人工标注的,提供者应当制定清晰、具体、可操作的标注规则;开展数据标注质量评估,抽样核验标注内容的准确性;对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。

我们理解,数据训练的规制对象理论上应当是人工智能产品的研发者,因为只有在产品研发阶段才会涉及数据训练和标注(即预训练+微调标注),而服务提供者与产品研发者有时并不相同,前者可能直接面对用户提供服务但却不参与产品的研发,比如APP运营者。《暂行办法》并未定义产品研发者,也未区分研发者和服务提供者,而是直接要求服务提供者遵守数据训练的规定义务。由此我们推测,立法者可能意图扩张服务提供者外延,将产品研发者纳入至广义的服务提供者概念之内,使得研发者与服务提供者均有义务遵守《暂行办法》规定。我们认为,考虑到产品研发者与服务提供者间的关系可以类推产品生产者与销售者间的关系,因此对外而言,要求两者均承担数据训练的规范义务并无不妥。

(三)《暂行办法》第三章“服务规范”:提供服务过程中应遵守的规范

1.遵守《网络安全法》《数据安全法》《个人信息保护法》等法律法规

在提供生成式人工智能服务的过程中,可能牵扯网络安全、数据安全、个人信息保护、数据跨境流动等各领域法律法规的分散治理,这对于统合规范服务场景提出了挑战。《暂行办法》作为我国第一部生成式人工智能领域的综合性法规,在条文设计上衔接了各个部门法规定,例如《暂行办法》第九条要求服务提供者应履行网络信息安全义务(链接《网络安全法》),涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务(链接《个人信息保护法》)。

除了《网络安全法》《数据安全法》《个人信息保护法》这三驾最为重要的数据安全领域法律体系的“马车”外,服务提供者还需要关注并遵守以下法律法规:《网络信息内容生态治理规定》《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理办法》《互联网信息服务算法推荐管理办法》《网络音频信息服务管理规定》《人工智能深度合成图像系统技术规范》《数据出境安全评估办法》《反不正当竞争法》《著作权法》《新一代人工智能伦理规范》等。该些法律法规共同构筑了我国数字经济时代的法律基石。

此外,国务院办公厅2023年5月31日公布的《国务院2023年度立法工作计划》已明确将人工智能法草案纳入年度立法工作计划,预备年内提请全国人大常委会审议。随着人工智能技术的进一步发展,相信未来还会有越来越多的法律法规、伦理规范和政策体系相继出台,人工智能从业者需要加以关注。

2.提供者应与使用者签订服务协议

《暂行办法》第九条要求提供者应当与注册其服务的生成式人工智能服务使用者签订服务协议,明确双方权利义务。该条款为新增条款,《征求意见稿》对此没有规定。目前法律和司法实践尚未对与人工智能生成内容有关的著作权争论做出统一认定,在此情形下,通过协议约定的方式在一定程度上有助于解决争议风险。此外,出于遵守个人信息保护法规的要求,也有必要通过协议方式就相关内容进行约定。当然,考虑到服务提供者通常可能更具有强势地位,相关协议约定内容存在被认定为构成格式合同条款从而不发生法律效力的不确定性。

3.履行防沉迷、用户信息保护、生成内容标识义务

1)防沉迷义务:《暂行办法》第十条要求提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。

2)用户信息保护义务:《暂行办法》第十一条要求服务提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。

3)生成内容标识义务:《暂行办法》第十二条要求提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。

上述三项规定均旨在促进生成式人工智能朝着健康有序的方向发展。以内容标识为例,通过对生成内容进行标识,可以帮助用户区分虚拟与现实,从而在一定程度上避免知识产权纷争。我们注意到抖音平台在2023年5月9日发布了《关于人工智能生成内容的平台规范暨行业倡议》以及《关于人工智能生成内容标识的水印与元数据规范》,其中就要求发布者应对人工智能生成内容进行显著标识,并根据不同类型的人工智能生成内容,如视频、图片、虚拟人等,进行水印和元数据的添加、读取和验证。抖音平台的该项倡议与规范与《暂行办法》的上述规定不谋而合。

4.履行类似网络信息内容服务平台的管理义务

2020年3月1日起施行的《网络信息内容生态治理规定》区分规定了网络信息内容生产者(指制作、复制、发布网络信息内容的组织或者个人)以及网络信息内容服务平台(指提供网络信息内容传播服务的网络信息服务提供者)应履行的义务,前者主要是对发布的信息内容负责,而后者则是对发布后的信息内容的管理负责。

我们注意到《暂行办法》第九条虽然明确了提供者应当承担的是网络信息内容生产者责任,但《暂行办法》第十四、十五条进一步要求服务提供者承担一定程度的平台管理义务。具体而言,第十四条规定了提供者发现违法内容时的义务,包括及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。同时,提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。第十五条要求提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。

我们理解上述条款规定的管理义务在一定程度上接近于网络信息内容服务平台所应履行的管理义务。考虑到生成式人工智能技术的固有特征,我们认为服务提供者(包括技术研发者)应有能力并有责任对于可能出现的违法现象加以管理,当然,服务提供者的自我管理并不妨碍网络信息内容服务平台(比如抖音)根据《网络信息内容生态治理规定》同步采取管理措施。

(四)《暂行办法》第四章“监督检查和法律责任”:履行安全评估与算法备案手续

《暂行办法》第四章第十七条规定提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。所谓“具有舆论属性或者社会动员能力”,根据《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》,是指提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力,典型代表是开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等。根据《暂行办法》第十七条的规定,如果提供的生成式人工智能服务满足了前述情形,则服务提供者需要就其服务自行或者委托第三方开展安全评估。

考虑到安全评估以及算法备案相对比较复杂,短时间内可能无法迅速完成,因此建议生成式人工智能的服务提供者(包括技术研发者)应尽早准备,必要时可以寻求专业第三方机构提供支持性服务,避免在将来产品上线后陷入被要求整改的被动局面。

结语

当下,中国这头沉睡中的狮子已然觉醒,我们比历史上任何时期都更接近实现中华民族伟大复兴的目标。然而,自去年年底美国OpenAI公司发布ChatGPT并迅速火爆全球以来,人们发现中美在人工智能领域的差距仍然较大,国人开始担忧如果中国无法在短期内追赶上美国的步伐,无法自主研制出能够媲美ChatGPT的人工智能产品,那么将来无论是在经济、安全领域,还是政治、军事领域,我国都将有可能遭受降维打击,我国的经济发展、政府管理很有可能受到西方国家进一步的钳制和打压。为此,国家在加速集中资源鼓励科技创新的同时,加快出台《暂行办法》,以期在发展人工智能技术的同时防范可能或者已经出现的道德、法律风险,引导生成式工智能技术向着健康、良性的方向发展,营造安全有序的法治环境。作为法律从业者,我们期待更多更完善的法律法规出台,为我国能够真正跻身创新型国家前列和建设经济强国起到保驾护航作用。

相关文章
  • 查看详情

    简评《企业境外经营合规管理指引》

  • 查看详情

    您准备好迎接新的公司治理结构了吗?——新《外商投资法》对...

  • 查看详情

    GCP修订核心亮点解读及新旧GCP条文对照表

关注:
地 址:上海市世纪大道100号环球金融中心9层/24层/25层
电 话:+86 21 5878 5888
大成律师事务所(“大成”)是一家独立的律师事务所,不是Dentons的成员或者关联律所。大成是根据中华人民共和国法律成立的合伙制律师事务所,以及Dentons在中国的优先合作律所,在中国各地设有40多家办公室。Dentons Group(瑞士联盟)(“Dentons”)是一家单独的国际律师事务所,其成员律所和关联律所分布在全世界160多个地方,包括中国香港特别行政区。需要了解更多信息,请访问dacheng.com/legal-notices或者dentons.com/legal-notices。