《人工智能示范法2.0(专家建议稿)》重磅发布 重视AI开源发展、构建知识产权创新规则

合规科技冯恋阁 2024-04-16 14:18

人工智能产业如何健康、安全发展,是AI时代的核心命题。 

2023年8月,在立足我国人工智能治理经验、把握人工智能发展规律和全球治理趋势的基础上,南财合规科技研究院参与的中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》,组织课题组起草形成了《人工智能法示范法1.0(专家建议稿)》(以下简称“《示范法1.0》”)公开发布。

《示范法1.0》得到了国内外广泛关注。斯坦福大学发布了英文版及解读,MIT科技评论年度盘点中也重点提及了《示范法1.0》。 

人工智能发展迅速,经起草组及社会各界反复研讨、交流,《示范法》在结合我国人工智能产业发展实际和全球人工智能治理经验的基础上不断更新,最终形成《人工智能法示范法2.0(专家建议稿)》。

4月16日,由中国社会科学院法学研究所、中国互联网协会互联网法治工作委员会主办,南方财经合规科技研究院、中国社会科学院法学研究所网络与信息法研究室、中国社会科学院人工智能安全治理研究实验室孵化平台、清华大学科技发展与治理研究中心、同济大学上海市人工智能社会治理协同创新中心、上海交通大学智慧司法研究院、北京理工大学网络空间国际治理研究基地、中国医学科学院医学信息研究所医疗卫生法制研究室、西南政法大学数字法治政府研究院、广东财经大学法学院人工智能法研究中心等承办的“人工智能治理创新论坛”举行。会上,《人工智能法(示范法)》2.0发布。

据悉,《人工智能法(示范法)》2.0在此前版本的基础上不断更新,将基于负面清单实施的人工智能许可管理制度与负面清单外人工智能活动的备案制度明确区分,避免过重合规负担影响人工智能产业的经营预期重视人工智能开源发展,提出促进开源社区建设、制定专门合规指引、明确责任减免规则等支持措施;构建知识产权创新规则,在研发环节对训练数据、个人信息的使用作出专门安排,并针对人工智能生成物的成果保护与侵权认定进行规定。

此外,《示范法》还将发布英、法、西班牙语等多语种版本。多语种版本的发布,不但有利于促进国际间人工智能治理的研究交流,向其他国家分享我国治理思路,也有助于我国学习、借鉴、吸收其他国家实践经验。

以下是《人工智能示范法2.0(专家建议稿)》原文:

人工智能示范法2.0

(专家建议稿)

 

周  辉  中国社会科学院法学研究所

李延枫  中国社会科学院信息情报研究院

朱  悦  同济大学

朱玲凤  星纪魅族集团

苏  宇  中国人民公安大学

姚志伟  广东财经大学

王  俊  南财合规科技研究院

陈天昊  清华大学

何  波  中国信息通信研究院互联网法律研究中心

洪延青  北京理工大学

李学尧  上海交通大学

傅宏宇  工信部工业和信息化法治战略与管理重点实验室

王  伟  香港大学

王  翔  ISO/TC 154

曹艳林  中国医学科学院医学信息研究所

王  磊  北京理工大学

冯子轩  西南政法大学

狄行思  广州大学

孙牧原  中国社会科学院大学

朱凌云  中国社会科学院大学

金僖艾  中国社会科学院大学

 


目 录

第一章 总则​1

第二章 人工智能支持与促进​3

第三章 人工智能管理制度​5

第四章 人工智能研发者、提供者义务​7

第一节 一般规定​7

第二节 人工智能研发者义务​10

第三节 人工智能提供者义务​11

第五章 人工智能综合治理机制​13

第六章 法律责任​16

第七章 附则​18


第一章 总则

第一条(立法依据) 为了促进人工智能发展,规范人工智能的研发、提供和使用活动,维护国家主权、发展和安全利益,保护个人、组织的合法权益,根据宪法,制定本法。

第二条(适用范围) 在中华人民共和国境内从事人工智能的研发、提供和使用活动及其监管,适用本法。

在中华人民共和国境外从事人工智能的研发、提供和使用活动,影响或可能影响中华人民共和国国家安全、公共利益或者个人、组织合法权益的,适用本法。

第三条(治理原则) 国家统筹发展和安全,坚持促进创新和依法治理相结合,实施包容审慎监管。

第四条(以人为本原则) 从事人工智能研发、提供和使用活动应当以人为本、智能向善,确保人类能够始终监督和控制人工智能,始终以促进人类福祉为最终目标。

第五条(安全原则) 从事人工智能研发、提供和使用活动,应当采取必要措施保障所研发、提供和使用的人工智能及相关网络数据的安全。

第六条(公开透明可解释原则) 从事人工智能提供活动应当遵循公开原则,对所提供的人工智能予以适当标注。

从事人工智能研发、提供活动应当遵循透明、可解释原则,采取必要措施对所研发、提供的人工智能的目的、原理和效果予以说明。

第七条(可问责原则) 从事人工智能研发、提供和使用活动,应当分别对其研发、提供和使用活动负责。

第八条(公平平等原则) 从事人工智能研发、提供和使用活动应当遵循公平原则,应当采取有效措施避免对个人、组织实行不合理的差别待遇。

从事人工智能研发、提供和使用活动应当充分考虑未成年人、老年人、残障人士等特殊群体的需求。

第九条(绿色原则) 国家鼓励人工智能研发、提供和使用活动应用节能减排技术,促进绿色智慧的数字生态文明建设。

第十条(促进发展创新原则) 国家支持人工智能基础设施建设,推动公共算力、公共数据和其他相关公共资源开放共享,鼓励个人、组织依法开放共享算力、数据和其他相关资源。

国家鼓励人工智能研发和应用,依法保护人工智能领域知识产权,建立与人工智能发展相适应的知识产权法定许可和合理使用制度,支持利用人工智能生成物进行的科学研究和文化创作活动。国家知识产权主管机关依法就人工智能法定许可和合理使用制度制定配套规则,基于公平合理原则明确人工智能生成物的权益保护和收益分配机制。

第十一条(国际合作) 国家积极开展人工智能领域的国际交流与合作,参与人工智能相关国际规则和标准的制定和实施,推进形成具有广泛共识的国际人工智能治理框架和标准规范。

国家完善人工智能领域的人才、技术引进和技术合作制度。

第十二条(主管机关) 国家人工智能办公室在中央人工智能领导机构领导下,主管全国的人工智能发展和管理工作。其他有关部门和军队有关部门依照本法和有关法律、行政法规的规定,密切配合、加强协调,依法做好有关工作。

省、自治区、直辖市,省、自治区的人民政府所在地的市,经济特区所在地的市和国务院已经批准的较大的市人工智能主管机关和其他相关部门,按照国家有关规定,在本辖区范围内负责人工智能发展和管理工作。

第十三条(协同共治) 国家建立和完善政府管理、企业履责、行业自治、社会监督、用户自律的人工智能治理机制,促进多元主体协同共治。

第十四条(合法正当) 从事人工智能研发、提供和使用活动应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:

(一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容;

(二)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;

(三)依法保护消费者、劳动者权益,尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。

第二章 人工智能支持与促进

第十五条(人工智能发展规划) 国家完善和实施新一代人工智能发展规划,坚持人工智能研发攻关、产品应用和产业培育共同推进,全面支撑科技、经济、社会发展和国家安全。

省级以上人民政府应当将人工智能发展纳入本级国民经济和社会发展规划,并根据需要制定人工智能发展规划。

第十六条(算力基础设施建设)国家建立人工智能公共算力资源供给制度,推动公共算力资源平台建设与利用,加强算力科学调度,为人工智能技术与产业发展提供公共算力支持。

鼓励和支持高等院校、科研机构、企业和其他组织建设人工智能算力基础设施,开展算力资源市场化交易,引导各行业合理有序使用算力资源,提升算力基础设施利用效能。

第十七条(算法和基础模型创新) 国家支持人工智能算法创新,鼓励建设、运营开源开发平台、开源社区和开源项目等,鼓励设立开源人工智能基金会,推进开源软件项目安全合规应用。

国家建立适应基础模型发展的个人信息处理制度。在基础模型数据训练环节,经认证采用符合国家标准的去标识化技术对个人信息数据进行处理的,可不承担个人信息处理者义务。

国家依法加强基础模型保护,促进基础模型创新开发、应用推广。

第十八条(数据要素供给) 国家支持建设人工智能领域基础数据库和专题数据库,促进数据资源高效汇聚和共享利用,扩大面向人工智能应用的公共数据供给范围,全面实施部署全国一体化大数据中心体系建设,优化数据中心基础设施建设布局,培育壮大数据中心集群,建立人工智能训练数据合理使用制度,保障人工智能领域数据要素供给。

鼓励引导相关主体开展大数据与人工智能技术协同研发,支持相关主体将数据与行业知识深度融合,开发数据产品,服务算法设计、模型训练、产品验证、场景应用等需求。

第十九条(产业发展与应用创新) 加快人工智能关键技术转化应用,促进技术集成与商业模式创新,推动重点领域智能产品创新,积极培育人工智能新兴业态,打造具有国际竞争力的人工智能产业集群。

推动人工智能与各行业融合创新,在重点行业和领域开展人工智能应用试点示范,推动人工智能规模化应用,支持人工智能新技术、新产品、新服务、新模式的应用推广。

第二十条(专业人才培养) 国家支持高等院校完善人工智能领域学科布局和人才培养机制。

鼓励高等学校、科研机构和企业等开展面向人工智能领域重大科学前沿问题的基础理论研究和关键共性技术研发,承担重大科技和产业创新专项。

国家支持建立有利于促进人工智能发展的项目管理创新机制、创新人才评定机制、科技成果转化激励机制等。

第二十一条(财政和采购支持) 中央财政应当在本级预算中设立人工智能科目,安排人工智能发展专项资金。

县级以上地方各级人民政府应当根据实际情况,在本级财政预算中安排人工智能发展专项资金。

鼓励各级人民政府和国有企事业单位采购符合国家标准的开源人工智能产品、服务。

第二十二条(税收抵免优惠) 人工智能研发者、提供者研发、购置用于安全治理等专用设备的投资额,可以按不低于30%的比例实行税额抵免。

国务院针对开源人工智能研发规定专门的税收优惠办法。

第二十三条(国家机关先行先试) 鼓励政府机关、事业单位及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域依法开展人工智能技术应用先行先试,优先采购和使用安全可靠的人工智能产品和服务。

第二十四条(人工智能特区及授权立法) 国家在符合条件的地区设立人工智能特区,推动人工智能创新发展先行先试,促进人工智能产学研用结合,构建有利于人工智能发展的良好生态。

人工智能特区所在地的市级人民代表大会及其常务委员会可以根据本法,结合特区内人工智能创新发展实践需要,遵循宪法规定以及法律和行政法规基本原则,就人工智能研发、提供、使用活动制定法规,在人工智能特区范围内实施。

人工智能特区法规可根据授权对法律、行政法规、地方性法规作变通规定。

人工智能特区法规应当报送全国人民代表大会常务委员会和国务院备案;对法律或者行政法规、部门规章的规定作变通规定的,应当说明变通的情况和理由。

第三章 人工智能管理制度

第二十五条(分类管理制度) 国家建立人工智能负面清单制度,对负面清单内的产品、服务实施许可管理,对负面清单外的产品、服务确有需要的实施备案管理。

国家人工智能主管机关根据人工智能在经济社会发展中的重要程度,以及一旦遭到攻击、篡改、破坏或者非法获取、非法利用,对国家安全、公共利益、社会稳定、环境保护,或者个人、组织合法权益、经济秩序造成的危害程度,牵头制定并定期更新人工智能产品、服务负面清单。

第二十六条(负面清单管理制度) 开展人工智能负面清单内产品、服务的研发、提供活动前,应当取得国家人工智能主管机关的行政许可。

禁止未经许可或超越许可范围开展负面清单内人工智能研发、提供活动。

第二十七条(负面清单许可条件) 申请负面清单内人工智能研发、提供许可,应当具备下列条件:

(一)在中华人民共和国境内依法设立的法人;

(二)主要负责人是中国公民;

(三)有与风险相适应的具备质量保障、安全保障、人类监督、合规管理等专业知识的专职人员;

(四)有健全的人工智能质量管理体系、网络数据安全管理制度、科技伦理审查制度;

(五)有安全可控的人工智能技术保障措施;

(六)有与风险相适应的人工智能应急处置机制;

(七)有与人工智能研发、提供相适应的场所、设施和资金;

(八)法律、行政法规的其他规定。

第二十八条(负面清单许可的申请) 人工智能研发者、提供者申请负面清单内人工智能产品研发、提供许可,应提交以下材料:

(一)申报书;

(二)法人资格、场所、资金等证明;

(三)主要负责人为中国公民的证明;

(四)质量保障、安全保障、人类监督、合规管理专职人员的资质情况;

(五)人工智能质量管理体系、网络数据安全制度、科技伦理审查制度、风险管理制度及执行情况;

(六)人工智能安全评估报告;

(七)法律法规规定的其他材料。

第二十九条(负面清单许可的审批) 国家人工智能主管机关受理负面清单内人工智能研发、提供许可申请后,在10日内进行初步审查。

经初步审查,发现人工智能的研发者和提供者提交的申请材料不符合要求的,国家人工智能主管机关可以要求其补充或者更正。人工智能研发者、提供者无正当理由不补充或者更正的,该申请即被视为撤回。

初步审查材料齐全的,国家人工智能主管机关应当自受理申请之日起45日内审查完毕,作出许可或者不予许可的决定。予以许可的,向申请人颁发人工智能研发、提供许可证;不予许可的,应当书面通知申请人并说明理由。

期满不能做出决定的,经国家人工智能主管机关负责人批准,可以延长十日,并应当将延长期限的理由告知申请人。

第三十条(负面清单许可的再次申请) 负面清单内人工智能研发、提供许可证应当载明使用许可的期限和范围。

超出许可范围,或技术改进、使用场景变更、用户群体调整等导致人工智能的风险发生变化的,负面清单内人工智能研发者、提供者应当再次申请研发、提供许可。

使用许可期限届满前六个月,负面清单内人工智能研发者、提供者可以申请更新研发、提供许可。

负面清单内人工智能研发者、提供者停止许可内人工智能研发、提供的,应当在停止之日起三个月内,向国家人工智能主管机关申请注销研发、提供许可。

第三十一条(许可证公开) 负面清单内人工智能研发者、提供者应当在所提供的人工智能产品、服务的显著位置,注明许可证编号。

第三十二条(投诉、举报、释疑机制) 个人和组织发现违法从事负面清单内人工智能研发、提供活动的,有权向国家人工智能主管机关投诉、举报,国家人工智能主管机关应当及时核实、处理。

个人和组织对负面清单内人工智能研发、提供活动有疑义的,有权请求国家人工智能主管机关予以说明,国家人工智能主管机关应当及时答复、处理。

第三十三条(其他许可、备案) 根据法律、行政法规规定,应用人工智能应当取得行政许可或备案的,人工智能提供者、使用者应当依法取得许可或备案。

第四章 人工智能研发者、提供者义务

第一节  一般规定

第三十四条(安全性义务) 人工智能研发者、提供者应当在将人工智能投入使用或投放市场前开展安全评估,防范安全风险,保障人工智能全生命周期的安全、稳健运行,符合预期目的。人工智能研发者、提供者应当保存安全评估报告,保存期限不少于五年。

人工智能研发者和提供者应当及时发布最佳安全实践,引导使用者安全、正确地使用人工智能。

人工智能研发者、提供者按照本法规定的记录、技术文件等要求,保证可追溯性,在发生事故时可以及时并准确地追溯、定位问题,保障人工智能的安全性。

第三十五条(安全漏洞管理义务) 鼓励相关组织和个人向人工智能研发者、提供者通报其产品、服务存在的安全漏洞。

人工智能研发者、提供者应当按照相关规定履行安全漏洞管理义务,确保其安全漏洞得到及时修补和合理发布,并指导支持使用者采取防范措施。

第三十六条(审计义务) 人工智能研发者、提供者应当按照国家有关规定及国家人工智能主管机关的要求进行审计,核验输入数据、算法模型、输出数据等的合规性,对人工智能产品、服务活动是否遵守法律、行政法规的情况进行审查和评价。

第三十七条(补救和通知义务) 人工智能研发者、提供者应当加强风险监测,发现安全缺陷、漏洞等风险时,应当立即采取补救措施。

人工智能研发者发现所研发的人工智能发生安全事件时,应当立即采取处置措施,并通知人工智能提供者,人工智能提供者按照本条第三款规定履行通知义务。人工智能提供者发现所提供的人工智能发生安全事件时,应立即采取措施,按照本条第三款规定履行通知义务,并及时通知人工智能研发者。

人工智能提供者应当立即采取处置措施,按照国家有关规定及时告知使用者并向主管机关报告以下事项:

(一)安全事件的发生过程、影响范围;

(二)人工智能提供者已采取的补救措施和使用者可以采取的减轻危害的措施;

(三)人工智能提供者的联系方式。

人工智能提供者采取措施可以有效避免对使用者造成实质损害的,可以不通知使用者;国家人工智能主管机关认为可能造成危害的,有权要求其通知受影响的使用者。

人工智能研发者在发现安全事件或收到提供者通知发生安全事件后应当立即进行评估。如果评估发现研发阶段存在问题风险的,应当立即通知其他人工智能提供者,在问题风险解决前,暂停或下架人工智能产品、服务。其他人工智能提供者收到通知的,应当立即采取处置措施,管控产品、服务风险。

第三十八条(公开透明性义务) 人工智能提供者提供与自然人互动的人工智能服务,应当在使用者使用人工智能前,以简洁、清晰、易于理解的方式,告知与人工智能产品、服务进行交互的自然人,其正在与人工智能服务进行交互。但是,自然人从使用的场景中可以判断的除外。

提供深度合成服务的人工智能提供者还应当根据国家有关规定,对合成内容进行合理标识,向公众提示深度合成情况。

人工智能提供者应当在使用者使用人工智能前,以适当的方式告知使用者以下信息:

(一)产品、服务的基本原理、目的意图和主要运行机制;

(二)产品、服务的许可或备案公示信息;

(三)使用者享有的权利和救济渠道;

(四)法律、行政法规规定的其他信息。

人工智能研发者应当配合提供者履行上述义务。

第三十九条(可解释性义务) 人工智能产品、服务对个人权益有重大影响的,人工智能使用者有权要求提供者对产品、服务决策的过程、方式等作出解释,有权对不合理的解释进行投诉。

人工智能提供者应当综合考虑产品、服务的场景、性质和行业技术发展水平等因素,对使用者的要求及时作出反馈。

人工智能研发者应当配合提供者履行上述义务。

第四十条(公平性义务) 人工智能研发者应当在训练数据处理和标注、算法模型设计研发和验证测试过程中,采取必要措施,有效防范有害的偏见和歧视。

人工智能提供者应当在提供产品、服务过程中,加强对输入数据、输出数据的管理,有效防范有害的偏见和歧视。

第四十一条(风险管理) 人工智能提供者综合考虑产品、服务的场景、性质、受众和行业技术发展水平等因素,建立健全和实施全生命周期风险管理制度。在产品、服务投入使用前以及使用过程中,人工智能提供者应当对人工智能的风险进行识别,采取必要管控措施。人工智能提供者应当保留风险识别和采取措施的记录不少于两年。

人工智能研发者应当对设计、数据收集训练、模型选择、测试验证等研发过程,建立并运行风险管理制度,对人工智能的风险进行识别,采取必要管控措施。人工智能研发者应当在保障商业秘密的前提下,配合提供安全评估报告、风险识别和管控措施记录,支持人工智能提供者完成人工智能服务的风险管理义务。人工智能提供者应当保留风险评估和采取措施的记录不少于两年。

第四十二条(人工智能伦理审查义务) 从事人工智能研发、提供活动,涉及国家人工智能主管机关确定的敏感领域的,应设立人工智能伦理审查委员会,并按照国家有关规定开展人工智能伦理审查。

国家机关及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域使用人工智能的,应按照国家有关规定开展人工智能伦理审查。

鼓励其他人工智能研发者、提供者和使用者根据实际情况设立人工智能伦理审查委员会。

第四十三条(国家机关提供、研发义务) 国家机关及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域研发、提供人工智能的,应当遵守本法规定的人工智能研发者、提供者的义务,尤其应当保障人工智能用于公共事务管理中的安全性、透明性、公平性。

第四十四条(授权代表) 本法第二条第二款规定的中华人民共和国境外的人工智能研发者、提供者,应当在中华人民共和国境内设立专门机构或者指定代表,负责处理人工智能相关事务,并将有关机构的名称或者代表的姓名、联系方式等报送国家人工智能主管机关。

第二节 人工智能研发者义务

第四十五条(负面清单内人工智能研发者增强义务) 负面清单内人工智能研发者应当履行以下义务:

(一)制定并保存符合本法要求的技术文件;

(二)在研发过程,制定并运行符合本法要求的质量管理体系,并配合提供者履行相关义务;

(三)配合提供者履行相关义务;

(四)法律、行政法规规定的其他义务。

第四十六条(基础模型研发者特殊义务) 基础模型研发者应遵守以下规定:

(一)按照国家规定建立健全安全风险管理制度,及时有效预防、监测、处置对国家安全、公共利益或者个人、组织合法权益、经济秩序造成的风险;

(二)按照国家规定建立健全基础模型的模型管理和数据管理制度;

(三)遵循公开、公平、公正的原则,制定基础模型的使用规则,明确使用基础模型的研发者、提供者应当履行的义务,不得滥用市场支配地位;

(四)应当确保安全风险管理所必需的算力资源投入;

(五)协助其他研发者、提供者履行本法规定的相关义务;

(六)对严重违反本法规定的研发者、提供者,应当采取停止提供服务等必要措施;

(七)成立主要由外部成员组成的独立机构对基础模型的研发情况进行监督;每年发布社会责任报告,接受社会监督。

第三节  人工智能提供者义务

第四十七条(备案义务) 人工智能提供者提供的产品、服务不在负面清单内,注册用户数超过100万的,应当在满足条件之日起十个工作日内,向国家人工智能主管机关备案以下信息:

(一)人工智能提供者的姓名或名称、联系方式;

(二)人工智能产品、服务的商标或名称、提供形式、应用领域、算法类型、安全自评估报告;

(三)备案拟公示内容;

(四)法律、行政法规规定的其他信息。

注册用户数超过1万、不足100万的,应当在满足条件之日起十个工作日内,向省级人工智能主管机关备案前款信息。

备案信息发生变更的,应当在变更之日起十个工作日内办理变更手续。

完成备案的人工智能提供者应当在其对外提供服务的网站、应用程序等的显著位置注明其备案编号。

第四十八条(备案流程) 主管机关收到备案材料后,材料齐全的,应当在三十个工作日内予以备案,发放备案编号并进行公示;材料不齐全的,应当在十个工作日内通知备案人补充材料。  

第四十九条(管理制度) 人工智能提供者应当采取下列措施确保人工智能符合法律、行政法规的规定:

(一)制定内部数据安全、风险控制、质量管理等制度和相应的操作规程;

(二)保存提供人工智能产品、服务自动生成的日志;

(三)定期对从业人员进行教育和培训;

(四)采取保障鲁棒性、抗攻击性等合规技术措施;

(五)至少每两年进行一次人工智能审计;

(六)法律、行政法规规定的其他措施。

第五十条(终止机制) 人工智能提供者终止提供产品、服务的,应当采取以下妥善安排措施:

(一)提前三十个工作日公示终止方案、使用者权利等;

(二)自终止之日起三十个工作日内,删除使用者的个人信息;根据国家有关规定,对人工智能产品、服务提供过程中产生的数据、训练数据、算法模型作出必要处理;

(三)法律、行政法规规定的其他措施。

第五十一条(许可注销) 负面清单内人工智能提供者应当提前三十个工作日通知主管机关,说明有关情况,并在终止服务后将许可证交回原许可机关。

不在负面清单内人工智能提供者应当在终止服务之日起二十个工作日内办理注销备案手续。

第五十二条(负面清单人工智能提供者增强义务)负面清单内人工智能提供者,还应当履行如下义务:

(一)按照本法要求进行安全评估,确保安全、稳健;

(二)制定并保存符合本法要求的技术文件,以证明所提供的人工智能符合本法对负面清单内人工智能的要求;

(三)建立并运行符合本法要求的全生命周期质量管理体系;

(四)在人工智能产品、服务自主运行过程中,确保人类可以随时采取介入、接管等措施;

(五)法律、行政法规规定的其他义务。

第五十三条(平台经营者义务) 网络平台经营者知道或应当知道平台内产品或者服务提供者通过平台从事人工智能提供活动的,应依法制定或修改其平台服务协议和交易规则,明确平台内产品或者服务提供者提供人工智能的规范和应履行的义务。

第五章 人工智能综合治理机制

第五十四条(国家人工智能主管机关职责) 国家人工智能主管机关依法履行以下人工智能监管职责:

(一)每年3月31日前向国务院报送人工智能发展和治理情况专项报告;

(二)开展人工智能伦理、安全教育与宣传,指导、监督人工智能开发、提供和使用;

(三)制定人工智能监管规则、指引,组织制定人工智能伦理、安全、管理等方面标准;

(四)推进人工智能治理社会化服务体系建设,指导、支持专业机构开展人工智能安全监测、评估、审计、认证等服务;

(五)指导、支持开源人工智能基金会开展活动;

(六)建立人工智能风险监测预警机制,组织人工智能领域风险信息的获取、分析、研判、预警工作;

(七)建立人工智能安全事件应急处置机制;

(八)接受、处理与人工智能技术及产品开发、提供和使用有关的投诉、举报;

(九)调查、处理人工智能开发、提供和使用违法活动;

(十)法律、行政法规规定的其他职责。

第五十五条(人工智能伦理专家委员会) 国家人工智能主管机关成立国家人工智能伦理专家委员会,地方人工智能主管机关成立本级人工智能伦理专家委员会。

国家人工智能伦理专家委员会对人工智能研发、提供和使用中的重大伦理问题进行研究,为国家人工智能主管机关提供咨询意见,指导全国范围内的伦理审查相关工作。

地方人工智能伦理专家委员会对本行政区域人工智能研发、提供和使用中的伦理问题进行研究,为本级地方人工智能主管机关提供咨询意见,指导本行政区域人工智能研发者、提供者和使用者人工智能伦理审查委员会的工作,并直接负责本行政区域内政务服务、公共管理等领域研发、提供和使用人工智能活动等伦理审查工作。

第五十六条(安全审查制度) 从事人工智能研发、提供、使用活动,影响或可能影响国家安全的,应当按照国家有关规定通过安全审查。

依法作出的安全审查决定为最终决定。

第五十七条(前置程序期限) 人工智能研发者、提供者、使用者依照本法及国家有关规定,就人工智能新技术新应用申报安全审查、备案或申请行政许可的,国家人工智能主管机关应当在规定的工作期限内及时处理、作出答复。

第五十八条(约谈) 国家人工智能主管机关和地方各级人工智能主管机关在履行职责中,发现人工智能研发、提供活动存在较大风险或者发生安全事件的,可以按照规定的权限和程序对该人工智能研发者、提供者进行约谈,要求其采取下列措施:

(一)按照要求进行整改,消除隐患;

(二)对其研发、提供活动作出适当的解释,说明人工智能服务的开发、管理和运行的责任,为保障公平性、安全性和稳定性采取的措施,以及对利益相关方的影响等;

(三)委托专业机构对其人工智能研发、提供活动进行合规审计。

人工智能研发者、提供者承诺限期整改合规,且能够有效避免人工智能研发、提供或使用活动造成危害的,可以不暂停相关活动。国家人工智能主管机关认为可能造成危害的,可以责令暂停相关活动。

第五十九条(创新监管) 国家人工智能主管机关就人工智能产业研发、提供和使用活动中的轻微违法行为等情形,依法决定不予行政处罚的,应当通过批评教育、指导约谈、组织会商研讨等措施促进当事人依法合规开展人工智能产业研发、提供和使用活动。

国家人工智能主管机关针对开源人工智能研发者制订专门的合规指引,推动开源人工智能创新发展。

第六十条(监管试验) 国家人工智能主管机关建立人工智能监管试验机制,就以下事项出台具体规定、指引:

(一)参与监管试验的条件;

(二)监管试验的运行机制;

(三)监管试验的风险监测与防控措施;

(四)参与监管试验的人工智能研发者、提供者的义务、责任减免机制。

第六十一条(国家机关责任人) 国家机关及其他依法具有管理公共事务职能的组织应当指定人工智能负责人,负责对人工智能使用活动以及采取的安全保护措施等进行监督。

第六十二条(执法机制) 国家人工智能主管机关应当加强专门队伍和专业技术建设,提升监管从业人员的专业能力,开展相关技术培训,不断提升人工智能监管能力和水平。

国家人工智能主管机关应当依法确定本系统行政执法程序,建立行政执法监督制度。

第六十三条(技术治理) 国家支持企业、科研机构等研究开发有关人工智能监测预警、安全评估、应急处置等技术,鼓励在人工智能领域应用监管科技、合规科技。

第六十四条(境外反制) 境外的组织、个人从事侵害中华人民共和国公民的合法权益,或者危害中华人民共和国国家安全、公共利益的人工智能研发、提供或使用活动的,国家人工智能主管机关可以依法采取限制或禁止其在中华人民共和国境内研发、提供或使用人工智能等措施,并予以公告。

第六十五条(对等措施) 任何国家或者地区在与人工智能有关的研发、投资、贸易等方面对中华人民共和国采取歧视性的禁止、限制或者其他类似措施的,中华人民共和国可以根据实际情况对该国家或者地区对等采取措施。

第六章 法律责任

第六十六条(一般违法责任) 违反本法规定开展研发、提供活动,由国家人工智能主管机关责令改正,给予警告,没收违法所得,责令暂停或终止相关业务;拒不改正的,处一百万元以下罚款;对直接负责的主管人员和其他直接责任人员处一万以上、十万以下罚款。

有前款规定的违法行为,情节严重的,由国家人工智能主管机关责令改正,没收违法所得,并处一千万元以下或者上一年度营业额百分之四以下罚款,并可以责令暂停相关业务或者停业整顿、通报有关主管机关吊销相关业务许可或者吊销营业执照;对直接负责的主管人员和其他直接责任人员处十万元以上一百万元以下罚款。

第六十七条(负面清单许可的撤销) 人工智能研发者、提供者在研发、提供活动中违反本法规定,发生重大安全事件、多次发生安全事件、多次受到行政处罚的,国家人工智能主管机关可以中止许可并责令限期改正;期限届满未改正,或中止许可后再次发生安全事件或受到行政处罚的,国家人工智能主管机关可以撤销许可。

第六十八条(行政罚款的裁量方式) 本法规定的罚款可以作为责令整改等措施的补充或替代,国家人工智能主管部门决定行政罚款金额时,遵循合法原则、过罚相当原则、公平公正原则、处罚和教育相结合原则、综合裁量原则,应当充分考虑以下因素:

(一)违法行为及后果的性质、严重性和持续时间、受影响的范围和

损害程度;

(二)违法行为是故意还是过失;

(三)对违法行为是否采取了补救措施并减轻可造成的损失;

(四)是否依照本法规定通知国家人工智能主管部门;

(五)是否依照本法规定采取了合理有效的组织和技术措施管理人工

智能的风险;

(六)是否遵守了人工智能和安全等相关标准或获得了相关认证;

(七)此前的违法行为;

(八)其他法律法规规定的加重或减轻处罚的因素。

第六十九条(备案违规责任) 人工智能提供者应备案而未履行备案义务的,由国家人工智能主管部门给予警告;经警告后仍未备案的,处一万元以上十万元以下罚款。

人工智能提供者通过隐瞒有关情况、提供虚假材料等不正当手段取得备案的,由国家人工智能主管部门予以撤销备案,给予警告、通报批评;情节严重的,并处十万元以上一百万元以下罚款。

人工智能提供者终止服务未办理注销备案手续,或者发生严重违法情形受到责令关闭网站、吊销相关业务许可证或者吊销营业执照等行政处罚的,由国家人工智能主管部门予以注销备案。

第七十条(民事侵权责任) 研发、提供的人工智能侵害个人权益造成损害,应当承担损害赔偿等侵权责任,但研发者和提供者能证明自己没有过错的除外。

前款规定的损害赔偿责任按照使用者或受影响的个人、组织因此受到的损失或者研发者、提供者因此获得的利益确定;使用者或受影响的个人、组织因此受到的损失和提供者因此获得的利益难以确定的,根据实际情况确定赔偿数额。

提供者知道或者应当知道使用者利用其提供的产品或服务侵害他人知识产权,未采取必要措施的,与使用者承担连带责任。提供者有证据证明采取下列措施的,不与使用者承担连带责任:

(一)对人工智能生成内容进行必要的标识;

(二)以用户协议等方式提示用户不得侵犯他人知识产权;

(三)建立知识产权保护规则,发现使用者利用生成式人工智能服务侵害他人知识产权,依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施;

(四)建立知识产权投诉机制。

第七十一条(开源人工智能的法律责任减免)以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。

免费且开源提供人工智能的个人、组织能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的,可以减轻或免于承担法律责任。

第七十二条(法律救济)公民、法人或者其他组织对人工智能主管机关作出的行政行为不服的,可以依法申请行政复议或者向人民法院提起行政诉讼。

第七十三条(公益诉讼) 人工智能提供者违反本法规定提供产品或服务,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由国家人工智能主管部门确定的组织可以依法向人民法院提起诉讼。

第七十四条(治安管理处罚和刑事责任的衔接) 违反本法规定,构成违反治安管理行为的,依法给予治安处罚;构成犯罪的,依法追究刑事责任。

第七十五条(合规不起诉) 人工智能研发者、提供者违反本法规定,承担行政责任的,行为主体合规建设经评估符合有效性标准的,依法免予处罚或者从轻处罚。

违反本法规定,构成犯罪的,涉案主体合规建设经评估符合有效性标准的,人民检察院可以参考评估结论依法作出不批准逮捕、变更强制措施、不起诉的决定,提出从宽处罚的量刑建议,或者向有关主管机关提出从宽处罚、处分的检察意见。

第七十六条(国家机关不履职的责任) 国家机关开展人工智能研发、提供、使用活动,不履行本法规定的义务的,由其上级机关或者国家人工智能主管部门责令改正;对直接负责的主管人员和其他直接责任人员依法给予处分。

国家机关工作人员玩忽职守、滥用职权、徇私舞弊,尚不构成犯罪的, 依法给予处分。

依法不构成行政执法过错的情形,不追究有关工作人员的行政执法责任。

第七章 附则

第七十七条(军事人工智能) 中国人民解放军、中国人民武装警察部队的人工智能的研发、提供和使用活动,由中央军事委员会依照本法规定的原则另行规定。

第七十八条(定义) 本法下列用语的含义:

(一) 人工智能,是指以一定自主程度运行,服务于特定或通用的目标,能够通过预测、推荐或决策等方式影响物理或虚拟环境的自动化系统,包括数据、特征、模型、服务提供接口和所嵌入的终端设备等。

(二) 人工智能研发者,是指仅从事算法设计、训练数据标注、特征提取、模型训练和优化、测试部署、免费且开源提供等人工智能研究和开发活动的个人、组织。

(三) 人工智能提供者,是指出于商业目的提供人工智能或者为其提供相关技术支持的个人、组织,或者无论是否出于商业目的,面向公众提供人工智能或者为其提供相关技术支持的个人、组织,但仅免费且开源提供人工智能的个人、组织除外。

(四) 人工智能使用者,是指依照人工智能的性能和用途对其加以利用的个人、组织。

(五) 基础模型是指累计投入一定规模以上算力进行训练,服务于通用的目的,能够为广泛的下游服务提供技术支持的人工智能模型。基础模型认定的浮点运算(FLOPs)及其他算力标准由国家人工智能主管机关组织制定、公开发布并定期更新。

第七十九条(施行日期) 本法自 年 月 日起施行。

第八十条(负面清单公开制度) 国家人工智能主管机关应当不晚于本法实施之日前六个月发布人工智能负面清单,并在定期更新后及时公开。

(作者:冯恋阁 编辑:王俊)

冯恋阁

记者

关注人工智能、知识产权、数据合规等互联网科技领域新动向。微信:isfenglg