附文字版全文 | 杭州律协发布《生成式人工智能服务企业合规指引》

2025-04-14 10:00

人工智能

详细内容

随着生成式人工智能技术的快速发展,企业在享受技术红利的同时,也面临内容安全、数据泄露、算法歧视等合规挑战。为助力企业构建合规管理体系,防范潜在风险,杭州市律师协会数字经济法律专业委员会结合法律法规及行业实践,精心编撰《生成式人工智能服务企业合规指引》。本指引从研发到应用全链条切入,为企业提供实用参考,推动行业健康有序发展。

温馨提示:本指引由杭州市律师协会数字经济法律专业委员会起草,并非强制性或规范性规定,仅供法律研究与学习参考。

640.jpg

以下为指引全文:

生成式人工智能服务企业合规指引

第一章 总则

第一条【指引目的】

为生成式人工智能服务企业提供合规参考框架,进一步引导生成式人工智能服务企业建立健全合规管理体系,防范内容安全、数据泄露、算法歧视等合规风险,促进产业健康有序发展,杭州市律师协会数字经济法律专业委员会特起草编制本指引。

第二条【适用范围】

本指引适用于生成式人工智能服务企业合规管理体系建设、研发合规、应用合规及其他相关活动。

第三条【编写依据】

本指引的编写依据为与生成式人工智能合规相关的现行有效的法律法规、部门规章及行业标准(详见附件一),供生成式人工智能服务企业参考使用。

第四条【定义】

本指引中下列术语具有以下含义:

(一)生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。

(二)生成式人工智能服务企业,包括服务提供者和服务技术支持者。生成式人工智能服务提供者是指利用生成式人工智能技术以交互界面、可编程接口等方式提供生成式人工智能服务的企业;生成式人工智能服务技术支持者是指为生成式人工智能服务提供技术支持的企业。

(三)生成式人工智能服务使用者,是指使用生成式人工智能服务生成内容的组织、个人。


第二章 合规管理体系建设

第五条【基本原则】

生成式人工智能服务企业应遵循以下基本原则:

(一)以人为本:尊重人的尊严与基本权利,坚持主流价值导向, 积极传播正能量,促进技术应用向上向善;

(二)公平公正:符合社会伦理道德,遵循社会公序良俗,避免算法偏见与歧视,确保技术应用的普惠性与包容性;

(三)透明可信:保障算法决策的可解释性,增强技术应用的透明度与可信度;

(四)安全可控:确保技术安全可靠,防范技术滥用与潜在风险;

(五)责任明确:建立清晰的责任追溯机制,确保技术应用可追责、可问责;

(六)科技向善:以增进人类福祉为核心目标,推动人工智能技术服务于全人类共同利益与可持续发展。

第六条【组织保障】

生成式人工智能服务企业应结合业务类型、算法复杂度、服务规模、技术水平等因素,设立专职算法安全管理机构或专职岗位,明确其组织架构、职责分工、任职资格及人员配置,确保与算法、模型复杂性及业务需求相匹配。

生成式人工智能服务企业宜建立内部考核机制,将专职机构或专职人员的工作绩效与安全管理紧密挂钩,确保人工智能研发与服务应用的合法合规性。

第七条【制度保障】

生成式人工智能服务企业应落实安全主体责任,参照相关法律法规的要求,结合自身实际情况,制定完备的算法安全管理制度,制度包括但不限于算法机制机理审核、算法安全自评估、算法安全监测、算法安全事件应急处置、算法违法违规处置、科技伦理审查、用户注册、信息发布审核、数据安全与个人信息保护、反电信网络诈骗等。


第三章 研发合规

第八条【基础环境安全】

生成式人工智能服务企业宜遵循以下基础环境安全要求:

(一)网络环境安全,划分网络边界并实施访问控制,防范外部入侵与内部越权访问;定期评估网络架构安全风险,及时修复漏洞;部署流量监控与异常行为检测机制,识别并阻断潜在攻击;制定网络安全事件应急预案,确保快速响应与恢复。

(二)物理环境安全,对数据中心、服务器机房等关键区域实施严格的物理访问控制,防止未授权人员接触;强化环境防护能力,保障基础设施的稳定性与冗余性;建立硬件设备全生命周期管理制度,防范供应链风险。

(三)运行安全,对运行状态实时监控,对模型推理延迟、资源占用率、异常响应率等指标进行持续监测,识别潜在性能瓶颈或攻击迹象;建立应急响应机制,通过制定模型失控、数据泄露、恶意滥用等场景的应急预案,明确熔断机制与人工干预流程。定期开展安全攻防演练,提升对新型攻击手段的防御与恢复能力。

(四)访问控制管理,基于角色和职责动态分配系统权限,避免过度授权;对关键系统和数据实施强身份认证,提升账户安全性;记录并审查用户操作行为,确保可追溯性;定期审查权限分配的合规性,及时调整冗余或失效权限。

第九条【训练数据安全】

生成式人工智能服务企业训练数据应遵循以下安全要求:

(一)数据来源安全,采集前需对数据来源进行安全评估,若违法不良信息占比超 5% 则禁止采集或使用;应确保数据来源多样性, 合理搭配境内外及多类型数据;应确保数据来源具备可追溯性,包括开源数据的合法授权、自采数据的采集记录、商业数据的交易证明及用户输入信息的明确授权;禁止使用相关法律法规及政策明确要求阻断的信息作为训练数据。

(二)数据内容安全,应通过关键词过滤、分类模型及人工抽检等方式清除违法不良信息;识别知识产权侵权风险并建立知识产权管理策略和程序;处理个人信息时,需满足依法取得个人同意等合规处理要求。

(三)数据标注安全,应制定功能性标注规则和安全性标注规则以指导标注与审核流程;实施准确性核查机制,通过交叉验证标注结果推断标注准确率;应对标注人员开展安全培训与考核,明确职能分工并确保合理标注时间,确保标注结果质量。

(四)数据安全防护,根据数据类型(训练数据、测试数据、算法代码、模型文件等)的安全需求差异,实施访问控制策略,防止非授权访问,采用密码技术对算法代码、算法模型进行完整性保护,对训练数据、测试数据的存储、传输进行加密保护;处理含个人信息的数据时,应遵循最小必要化原则,采取匿名化、去标识化、加密等技术措施。

(五)伦理安全,在算法设计、模型训练和优化、提供服务等过程中,应采取训练数据筛选、输出校验等方式,防止产生民族、信仰、国别、地域、性别、年龄职业、健康等方面歧视。

第十条【模型安全】

生成式人工智能服务企业应遵循以下模型安全要求:

(一)模型来源安全,自研模型应建立全生命周期安全管理机制,在设计、研发、部署、维护过程中建立并实施安全开发规范,尽可能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性;采用开源模型时,需选择经过安全审计且社区维护活跃的版本,并定期更新漏洞补丁;若基于第三方基础模型提供服务,应使用经国家主管部门备案的基础模型,验证其合规资质。

(二)第三方组件安全,应选择安全合规的第三方组件,持续跟踪分析人工智能第三方组件存在的安全漏洞、缺陷、风险威胁安全事件等动向,建立人工智能供应链安全保障机制。

(三)模型内容合规,在训练阶段,需将生成内容的安全性作为核心评价指标,融入模型优化目标;在服务过程中,实时检测用户输入信息的安全性,通过预置规则与算法干预引导模型输出积极合规内容;建立常态化监测机制,采用自动化工具与人工抽检结合的方式,动态评估生成内容的合规性;对检测出的安全问题通过指令微调、强化学习等技术方式进一步优化模型。

(四)模型鲁棒性,应采取对抗训练、恶意样本过滤等措施增强模型抵御针对性攻击的能力;优化输入预处理机制,降低噪声、模糊或异常输入对模型输出的干扰等,提升模型在复杂场景下的稳定性和适应性。

第十一条【内容安全】

生成式人工智能服务企业应加强内容安全管控,采取包括但不限于以下措施:

(一)特征库建设,建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志,并定期更新审核规则库,适配新型违规形式与要求;

(二)审核机制,具备自建或接入第三方内容技术审核能力,对算法输入数据和生成结果进行实时多维度检测,对明确违规内容实施自动拦截,采用人工审核进行复审与结果确认;

(三)常态化监测,通过技术手段检测用户输入信息,对明显偏激或诱导生成违规内容的问题应拒绝回答;配置与服务规模适配的监看人员,实时监控生成内容质量与安全性,并根据反馈持续优化服务,确保输出内容合规可靠。

第十二条【开源协议】

生成式人工智能服务企业基于开源模型开发模型或研发生成式人工智能服务的,应对开源协议条款进行审查,并遵守开源协议的限制。生成式人工智能服务企业宜重点关注开源协议的以下限制:

(一)开源协议是否禁止开发者对软件进行复制、使用、修改、分发、售卖;

(二)开源协议是否要求开发者基于同一开源协议进行开源,是否禁止修改后和衍生的代码做为闭源商业软件发布和销售;

(三)开源协议是否禁止开发者将模型应用于特定场景;

(四)开源协议是否禁止开发者将模型的衍生版本用于改进其它模型;

(五)开源协议的其它限制。

生成式人工智能服务企业使用多个开源模型、开源库和工具的,还应考虑不同模型及开源库、工具所适用的开源协议是否兼容。

第十三条【模型采购条款】

生成式人工智能服务企业采购模型产品/服务的,应与模型产品/服务供应商签订协议,明确双方权利义务。协议条款宜约定以下内容:

(一)模型产品/服务的交付标准、供应商的合规义务;

(二)供应商的数据保护义务,包括是否禁止将企业交互数据向境外提供或将交互数据用于供应商模型和相关产品的训练等;

(三)基于模型产品/服务的定制开发成果的知识产权归属;

(四)供应商的服务稳定性要求;

(五)就模型部署、使用的责任划分与争议解决机制。

第十四条【模型部署】

生成式人工智能服务企业部署模型应评估不同的部署方案可能存在的网络数据安全风险,并采取合理的安全措施以防范人工智能模型应用存在的数据窃取、隐私泄露、算力盗取、数据投毒等风险。

生成式人工智能服务企业还应考虑支持模型运营的芯片、显卡、内存等硬件环境的稳定性以及模型相关系统的稳定性、持续性。

生成式人工智能服务企业在金融、医疗等特定行业部署应用模型的,应当遵守特定行业监管规定对人工智能服务应用的限制性要求。

第十五条【服务的可靠性】

生成式人工智能服务企业基于模型交付产品或服务时,应考虑模型生成内容的可靠性、安全性、准确性,就基于模型交付的商品或服务提供备选方案和交叉验证等人工监控方法,防范因模型生成内容安全性、准确性、可靠性缺失对外承担违约、侵权等法律责任。


第四章 应用合规

第十六条【服务规范】

生成式人工智能服务提供者应当遵循以下服务规范:

(一)承担网络信息内容生产者责任,履行网络信息安全义务,包括但不限于建立内容安全分级分类标准、实施用户身份核验机制、记录并留存相关网络日志等;

(二)保障服务稳定性与持续性,将训练环境与推理环境严格隔离以防止数据泄露和未授权访问;持续监控模型输入内容,防御恶意攻击;定期对开发框架、代码及开源组件进行安全审计,及时识别并修复漏洞;建立数据、模型、工具的备份与恢复机制,制定业务连续性策略,确保异常情况下服务的快速恢复与稳定运行;

(三)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。

第十七条【用户权益保障】

生成式人工智能服务提供者应当充分保障用户权益:

(一)用户知情权,在网站首页、产品界面等显著位置告知用户其服务的适用人群、场合、用途,并通过服务协议等向使用者公示算法、模型的基本原理、目的意图和主要运行机制等;

(二)用户个人信息保护,收集个人信息,需取得用户明确同意, 并遵循最小必要、目的限定原则;处理敏感个人信息时需单独取得用户授权,并采取加密、脱敏等技术保障数据安全;提供用户查询、更正、撤回授权及删除个人信息的便捷渠道。

(三)特殊群体权益保护,针对未成年人、老年人及劳动者等群体,履行特殊保护义务。如服务适用未成年人,应开发适龄模式,过滤不良信息,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务;如服务适用老年人的,应优化界面与功能设计,提供适老服务;禁止利用算法实施对劳动者的不合理工作调度或对消费者的差别待遇,保障合法权益。

(四)用户投诉反馈权,企业应当设置便捷有效的用户申诉和公众投诉、举报入口,明确处理流程和反馈时限,及时受理、处理并反馈处理结果。

第十八条【内容标识】

生成式人工智能服务提供者应遵循《人工智能生成合成内容标识办法》等相关规范要求,开展人工智能生成合成内容标识活动:

(一)添加内容标识,显示标识应以文字、声音、图形等方式呈现并可以被用户明显感知;隐式标识应在生成合成内容文件数据中添加,不易被用户明显感知;

(二)告知内容标识,在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求,对用户申请提供没有显示标识的生成合成内容,需明确用户的标识义务和使用责任后,留存相关日志不少于六个月;

(三)不得恶意删除、篡改、伪造、隐匿生成合成内容标识,不得为他人实施上述恶意行为提供工具或者服务,不得通过不正当标识手段损害他人合法权益。

第十九条【违法和不良信息防范】

生成式人工智能服务提供者应当防范违法和不良信息生成、传播和扩散风险,采取包括但不限于以下措施:

(一)建立违法不良信息处置机制,发现违法信息时,应立即采取停止传输、消除等处置措施,保存有关记录,并向有关主管部门报告;发现不良信息时,应按照网络信息内容生态治理有关规定予以处置,并对相关用户依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施;

(二)建立健全辟谣机制,发现利用算法技术制作、复制、发布、传播虚假信息时,应当及时采取辟谣措施,保存有关记录,并向有关主管部门报告。

第二十条【算法备案】

提供具有舆论属性或者社会动员能力的生成式人工智能服务的提供者应当:

(一)履行备案手续,在提供服务之日起十个工作日内通过国家网信办互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息;

(二)安全评估,结合企业算法安全自评估制度和流程要求开展评估并完成算法安全自评估报告,报告内容包括算法情况、服务情况、风险研判和风险防控情况等;

(三)备案变更及终止,备案信息发生变更的,应当在变更之日起十个工作日内办理变更手续;终止服务的,应当在终止服务之日起二十个工作日内办理注销备案手续,并作出妥善安排;

(四)显著公示,完成算法备案的提供者应当在其对外提供服务的网站、应用程序等的显著位置标明其备案编号并提供公示信息链接。

第二十一条【大模型备案】

提供具有舆论属性或者社会动员能力的生成式人工智能服务的提供者应当:

(一)通过属地网信部门进行线下备案,提交上线备案申请表及安全评估报告及模型服务协议、语料标注规则、关键词拦截列表、评估测试题集等相关附件,并开展测试评估;对于通过 API 接口或其他直接调用已备案大模型能力的生成式人工智能应用和功能,部分地区要求应经省网信部门同意并发放上线编号后,可上线提供服务。

(二)应在显著位置或产品详情页面公示所使用已备案生成式人工智能服务情况,注明模型名称及备案号。

第二十二条【资质与证照】

生成式人工智能服务提供者对外提供服务前应当按照《互联网信息服务管理办法》《中华人民共和国电信条例》等相关法律法规的规定,取得相应的资质与证照。如人工智能服务生成的内容涉及新闻出版、影视制作、文艺创作等特定领域的,生成式人工智能服务提供者还应当根据特定行业领域的相关法律法规的规定取得相应的行政许可。


第五章 附则

第二十三条 【效力】

本指引由杭州市律师协会数字经济法律专业委员会起草,并非强制性或规范性规定,仅供法律研究与学习参考。


附件一 相关法律法规、部门规章及行业标准

《中华人民共和国网络安全法》

《中华人民共和国数据安全法》

《中华人民共和国个人信息保护法》

《中华人民共和国科学技术进步法(2021 年修订)》

《网络数据安全管理条例》

《生成式人工智能服务管理暂行办法》

《互联网信息服务深度合成管理规定》

《互联网信息服务算法推荐管理规定》

《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》

《网络信息内容生态治理规定》

《科技伦理审查办法(试行)》

《人工智能生成合成内容标识办法》

《GB 45438-2025 网络安全技术 人工智能生成合成内容标识方法》

《GB/T 41867-2022 信息技术 人工智能 术语》

《TC260-003 生成式人工智能服务安全基本要求》

《GB/T 42755-2023 人工智能 面向机器学习的数据标注规程》

《GB/T 42888-2023 信息安全技术 机器学习算法安全评估规范》


特别鸣谢

《生成式人工智能服务企业合规指引》由杭州市律师协会数字经济法律专业委员会组织编写,特别感谢以下专家在编写过程中的宝贵建议(排名不分先后):呼娜英、朱玲凤、杨斌、龙军。


扫描下方二维码

下载合规指引

640 (1).png

来源:杭州律协

评论列表(0)
暂无提问

发表提问 取消回复