南财参与起草《人工智能示范法3.0》正式发布 以动态立法响应技术迭代,构建AI治理新范式
生成式人工智能席卷全球浪潮已近三年,这期间从技术创新到产业重构。无可厚非的是,人工智能已经切实地影响了我们的经济、社会生活。同时,如何平衡创新发展与风险治理成为全球性命题。
人工智能立法,既要适应人工智能发展的动态性,还要符合本土特点,更要平衡各方权益。近日,《人工智能示范法3.0》正式发布,这是继2023年《人工智能示范法1.0》和2024年《人工智能示范法2.0》后的又一里程碑。作为我国首部系统性回应AI技术快速迭代的立法建议文本,《人工智能示范法》随着技术发展、市场动态以及全球治理规则情况不断迭代创新。
《人工智能示范法3.0》(以下简称《示范法3.0》)构建起“动态适配、前瞻治理”的监管框架,为人工智能产业高质量发展提供法治保障;鼓励支持中小企业创新与开源,支持人工智能产业健康发展;新增内部吹哨人制度,强化人工智能研发与应用的安全监督。
对于当前人工智能应用过程中已经显露的问题,《人工智能示范法3.0》新增了端侧AI、AI医疗等垂直领域的规则设计,包括终端设备人工智能服务提供者需确保设备产品质量及服务安全性、透明性,要求其严格遵循网络安全与个人信息保护规范,防范权限过度调用。
《示范法3.0》由中国社会科学院法学所、南方财经全媒体集团合规科技研究院、广州互联网法院、中国信通院人工智能研究所、清华大学公共管理学院、中国人民大学法学院、同济大学法学院等单位参与起草。中国社会科学院法学研究所网络与信息法研究室副主任(主持工作)、中国法学会网络与信息法学研究会常务副秘书长周辉和中国社会科学院信息情报研究院第八编研室副主任(主持工作)、编审李延枫担任起草组组长。
图片来源:摄图网
首创“政策动态评估与调整机制”
针对AI技术路线变化快、产业竞争格局快速演变的特征,《示范法3.0》首创“政策动态评估与调整机制”。
《示范法3.0》明确规定,国家建立人工智能政策适配性评估机制,对拟出台或已实施的政策、决策、制度,开展与人工智能发展和安全形势的适配性评估。评估的内容可包括是否可能扭曲市场竞争秩序或影响市场正常发育、是否阻碍创新或引发风险等。经评估认为可能显著影响人工智能发展或安全的,应当及时调整、废止或修改完善,以此尊重并鼓励市场良性发展。
伦理先行 强调人工智能善意使用
《示范法3.0》将伦理治理深度嵌入技术全生命周期。
总则部分新增伦理原则,明确要求应当将伦理要求纳入全过程,促进人工智能科技研发部署与人工智能科技伦理协调发展、良性互动,促进人工智能的负责任创新与善意使用。将“善意使用”原则写入总则,也意味着技术创新必须服务于人类福祉。
与此同时,《示范法3.0》进一步扩大伦理审查义务主体范围,明确要求符合国家人工智能主管机关规定条件的人工智能研发者、提供者和使用者应设立人工智能伦理委员会,且特别要求,开展政务和公务领域人工智能研发、提供、使用活动的,应当建立人工智能伦理审查机制,依照国家有关规定开展人工智能伦理审查。此外,通过鼓励第三方机构为未设伦理委员会的中小企业提供审查服务,强化对中小企业的支持。
鼓励支持中小企业创新与开源
随着DeepSeek R1的开源普及,中小人工智能企业创新成为了新一轮人工智能发展的重点方面。为此,《示范法3.0》一方面通过税收抵免,明确国家针对开源人工智能研发制定专门的税收优惠办法,为开源人工智能研发主体提供税收优惠;另一方面鼓励中小企业在人工智能领域的研发与创新,重点支持中小企业在基础模型及其具体应用领域的技术创新、产品研发和应用拓展。同时支持与引导科研院校、企事业单位参与人工智能模型测评体系建设,通过开发公平、可靠、成本合理的测评基准,降低中小企业的技术验证成本,支持促进人工智能产业发展,并有力增强国际竞争力与影响力。
加强端侧AI数据安全权益保障 搭建治理框架
端侧AI发展迅速,起草组成员单位南财合规科技研究院此前在研究中发现了手机等终端设备AI服务中日益凸显的安全风险与数据权益挑战。
《示范法3.0》立足技术迭代和产业创新的最新趋势,系统性构建端侧AI服务的安全防护与数据治理框架。《示范法3.0》明确终端设备人工智能服务提供者需确保设备产品质量及服务安全性、透明性,要求其严格遵循网络安全与个人信息保护规范,防范权限过度调用,保障用户知情同意权有效落实。针对跨应用权限调用场景,立法强化最小必要原则与动态授权机制,将用户授权严格限定于具体功能需求场景,禁止通过泛化授权获取非关联权限,从源头遏制数据滥用风险。此外,《示范法3.0》进一步定义“终端设备”为可联网、具备操作系统且支持用户自主安装应用的手机、计算机等产品,明确适用范围,增强法律可操作性。通过上述多维度的制度设计,《示范法3.0》在技术迭代与用户权益之间寻求平衡,为端侧人工智能服务的合规应用与创新发展提供坚实法律支撑。
通过上述多维度的制度设计,《示范法3.0》在技术迭代与用户权益之间寻求平衡,为端侧人工智能服务的合规应用与创新发展提供坚实法律支撑。
《示范法3.0》针对医学领域人工智能应用提出专项立法框架建议,构建覆盖研发、审批、应用全链条的监管体系。基于医疗数据敏感性,《示范法3.0》要求严格采取数据加密与访问控制措施,未经患者授权或脱敏处理不得将医疗数据用于非医疗用途,并强化算法透明度监管,要求提交算法原理、数据来源及使用说明备案,确保诊疗决策的准确性与公平性。同时,明确AI医疗产品上市前需经多学科专家参与的临床审批程序,严格验证安全性与有效性,并将AI辅助诊疗项目纳入医保覆盖范围以提升可及性。针对医疗事故责任,立法细化AI系统故障、算法缺陷与人为操作的责任划分标准,设置不可抗力免责条款,兼顾技术不确定性风险与患者权益保护,为医疗人工智能的合规发展提供制度保障。
新增生成式AI责任安全港规则
《示范法3.0》首创开源基础模型训练的合理使用机制,允许开源基础模型研发者在未获著作权人许可时使用合法获取的作品进行数据训练,但需尊重著作权人反对权,若著作权人明确表示不同意利用其作品的,开源基础模型研发者不得利用其作品进行数据训练。同时鼓励开源基础模型研发者以适当方式向著作权人提供相应补偿,促进作品的传播和利用,兼顾技术发展与权益保护。
为促进生成式人工智能服务发展,《示范法3.0》为生成式人工智能服务提供者新增了安全港机制,即同时满足所有“进港”条件的生成式人工智能服务提供者可以不承担知识产权赔偿的责任。具体免责条件包括建立有效知识产权投诉机制、以用户协议等方式提示用户不得侵犯他人知识产权、建立知识产权保护规则、履行内容标识义务等。与此同时,《示范法3.0》配套设计了生成式人工智能使用者责任,明确提出,使用人工智能生成服务侵害他人知识产权,使用者有过错的,应承担侵权责任。提供者知道或者应当知道使用者利用其服务侵害他人知识产权,未采取必要措施的,与使用者承担连带责任。
新增“吹哨人”制度 强化人工智能监督机制
《示范法3.0》通过建立内部举报人保护制度,强化人工智能研发与应用的安全监督。《示范法3.0》明确规定企业需建立举报程序及保护机制,并明确内部举报人定义,禁止人工智能研发者、提供者、使用者所属机构对举报人进行任何形式的打击报复。明确举报范围包括但不限于重大安全隐患、违规行为、技术缺陷隐瞒以及其他影响国家安全、公共安全的情形等核心风险点。同时,一方面,通过设置免责激励条款,鼓励内部人员主动揭露问题,推动企业自查自纠与外部监管协同发力;另一方面,通过明确法律责任,即规定人工智能研发者、提供者所属企业或机构对内部举报人进行打击报复,违反规定解除劳动合同或采取其他不利措施的,应当按照实际损失的二倍以上十倍以下向举报人支付赔偿金,但最低不少于六个月工资。对于情节严重的,可以增加赔偿金额并赔偿精神损害,进一步落实内部举报人保护。
(作者:王俊 编辑:张星)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。