以中美欧为代表的多个国家和地区和国际组织已经做出了不同探索,也使得当前在人工智能监管方面呈现出了多种思路。
南方财经全媒体记者 冯恋阁 李润泽子 实习生麦子浩 广州报道
编者按:
在2023年过去的几个月里,各大公司抢滩大模型、GPT商用化探索、算力基础设施看涨……如同15世纪开启的大航海时代,人类交往、贸易、财富有了爆炸性增长,空间革命席卷全球。变革同时,也带来了秩序的挑战,数据泄露、个人隐私风险、著作权侵权、虚假信息......此外,AI带来的后人类主义危机已然摆在桌面,人们该以何种姿态迎接人机混杂带来的迷思?
此刻,寻求AI治理的共识、重塑新秩序成了各国共同面对的课题。南财合规科技研究院将推出AI契约论系列报道,从中外监管模式、主体责任分配、语料库数据合规、AI伦理、产业发展等维度,进行剖析,以期为AI治理方案提供一些思路,保障负责任的创新。
“我们需要立即评估生成式人工智能技术的机会和挑战”。在近日举行的七国集团峰会上,七国领导达成了共识。
以ChatGPT为代表的人工智能应用掀起产业及技术发展高潮,国内外的科技巨头争相加大技术与资本投入的同时,也引发了对相关监管问题的担忧。
在《G7广岛领导人峰会公报》中,七国集团领导人表示将创建一个名为“广岛人工智能进程”(Hiroshima AI process)的部长级论坛,在今年年底前针对生成式人工智能导致的版权、虚假信息等问题展开讨论。
事实上,各国政府和监管机构已开始采取措施加强监管,以确保公众利益和安全。截至目前,以中美欧为代表的多个国家和地区和国际组织已经做出了不同探索,也使得当前在人工智能监管方面呈现出了多种思路。
欧盟:法案即将落地,监管进一步强化
早在AIGC为世界所知之前,欧盟就展露出对人工智能治理的关注。
2018年4月,欧盟发布政策文件《欧盟人工智能》,提出要逐步建立适当的伦理和法律框架。2020年,《人工智能白皮书—通往卓越和信任的欧洲路径》则指出,应构建基于风险的人工智能监管框架,通过为不同的企业划定风险等级避免过高的合规负担。
2021年4月21日,欧盟委员会正式提出了《人工智能法案》提案,世界范围内第一部针对人工智能进行规制的法律迈开制定的脚步。时间来到今年5月,妥协版《人工智能法案》(以下简称“《法案》”)在欧洲议会投票通过。
《人工智能法案》落地后,将与《通用数据保护条例》(GDPR)、《数字市场法》、《数字服务法》共同为欧盟构筑起一道数字立法“长城”。
作为世界上第一部关于人工智能治理和监管的综合性全面立法,《法案》的诸多观点和思路值得关注。
《法案》将风险加以区分,围绕四类人工智能系统构建,分为:不可接受的风险、高风险、有限风险以及最低风险。其中前三类将受到法案的监管。
对人身安全、个人权利有明显威胁的人工智能系统被认为是具有不可接受的风险;而高风险人工智能系统则包括决定公民就业机会的系统(如用于招聘程序的简历排序软件)、产品的安全组件(例如,人工智能在机器人辅助手术中的应用)等。在妥协版本《法案》中,在政治竞选中用于影响选民的AI系统以及大型社交媒体平台(超过4500万用户)使用的推荐系统也被列入高风险名单。
根据《法案》,具有不可接受风险的人工智能系统在欧盟内部被禁止部署;高风险的人工智能系统则在投入市场之前将受到严格的义务约束,包括保证充分的风险评估;训练者需为系统提供高质量的数据集,以减少风险和歧视性的结果;提供商向用户提供清晰和充分的信息等。
在北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括看来,AIGC技术发展迅速,比起“一刀切”的治理思路,通过分类分级的方式,基于不同的风险水平做出相应的监管要求更为妥当。
除了对“基于风险”的人工智能监管体系做出了进一步细化,《法案》细化了主体责任分配,规定生成式人工智能基础模型的提供者(比如开发出ChatGPT的公司OpenAI)有义务在将模型投放市场之前,充分考虑模型“可预见的健康、安全风险” ,对模型采取安全检查、采取数据治理措施和风险缓解措施;模型开发者需要为被认定为“高风险”应用建立风险管理系统。
《法案》 针对“通用型人工智能系统”(非为特殊目的进行特别设计的具有广泛适用性的人工智能系统)的提供商还提出了特别要求,指出提供商需要提供有关 AI 模型的所有相关信息和文档以保证下游运营商的合规性。
此外,《法案》还提出了针对生成式人工智能的一系列透明度要求,比如使用人工智能系统生成“深度伪造”(Deep Fake)内容时,用户需要披露该内容是人工生成或操纵的。
吴沈括指出,要求作为技术优势方的服务提供者通过有效、全面、可信的信息披露进一步保证治 理和监管的有效性,是欧盟在网络数字领域一贯的监管风格。“透明度义务的提出,意味着欧盟对人工智能领域的治理将进一步深入。”
美国:治理与发展并重
虽然晚于欧洲,但在大洋彼岸的美国,也已加入了这场生成式人工智能的监管风暴中。
5月23日,美国政府宣布了一系列围绕美国人工智能使用和发展的新举措,以全面了解并捕捉到快速发展的AI技术所蕴含的风险和机遇。
“人工智能是我们这个时代最强大的技术之一,具有广泛的应用。为了抓住人工智能带来的机会,必须首先管控其风险。为此,政府已采取行动,促进负责任的人工智能创新,将人、社区和公共利益放在中心位置,并管理AI技术发展对个人和社会、安全和经济的风险。”白宫在官网上发布的新闻稿中称。
以往,一般认为美国与欧盟在人工智能监管方面遵循着两种不同的思路,以美国为代表的监管思路是技术监管的思路,侧重于对技术的应用和流程的监管;同时,美国希望利用人工智能系统的发展,在全球经济中保持竞争地位并满足国家安全需求。发展一直是美国应对人工智能的一个核心词汇。
2016年以来,美国在战略层面上对人工智能持续加大关注与支持,陆续成立了国家人工智能倡议办公室、国家AI研究资源工作组等机构,各部门密集出台了如《为人工智能的未来做好准备》《国家人工智能发展战略计划》《2020年国家人工智能计划法案》等一系列人工智能战略与相关政策,内容涉及资金投入、数据资源、人才培养等各个方面。
“美国认为人工智能将是决定未来战略竞争力的一个关键领域。”吴沈括指出,在国际竞争的战略博弈中取胜是美国相关政策的核心目标,也因此,美国在技术方式、准入资质等方面投射了更多的关注。
但现如今,随着技术的突飞猛进,对人工智能的担忧增加,美国也转向监管与发展的平衡,开始更多强调应对人工智能进行治理。
4月11日,美国商务部就ChatGPT等人工智能技术相关的问责措施正式公开征求意见,包括具有潜在风险的新型人工智能模型在发布前是否应进行核准认证程序。同日,美国联邦贸易委员会也对监管人工智能表态。美国国家标准与技术研究院则已制定负责任地使用人工智能的方法框架,并试图在政府的AI监管工作方面扮演突出角色。
5月13日,美国白宫总统科技顾问委员会(PCAST)成立了一个生成式人工智能工作组,以帮助评估关键机遇和风险,并就如何最好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。
我国:构建以公平责任为基础的规则体系
随着这一轮生成式人工智能的爆发式发展,我国也出台了专门性监管文件。4月,中国国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),涉及数据训练、个人信息保护、算法设计、内容合规等多个方面。
在数据训练方面,《征求意见稿》提到预训练数据、优化训练数据要保证合法性、真实性、准确性、客观性、多样性等。
“不过,在对数据进行监管的同时也需注意治理方向、成本的控制。”对外经济贸易大学数字经济与法律创新研究中心执行主任张欣坦言,算法歧视等问题的产生与训练数据是否多样、准确和客观都有关系。但客观性和准确性在技术实践中并不容易被保证。以OpenAI公司的GPT系列模型训练为例,它们的数据来自于大量的公共网页,质量良莠不齐。而后期的数据清洗等优化流程,无疑需要更多的成本。
“总体来看,对相关领域的监管应与产业发展相伴而行,无需太过超前。”她直言。
在张欣看来,人工智能产业发展正逐步驶上“快车道”,当前保持创新与治理的“双轮驱动”对于生成式人工智能发展非常必要。
张欣建议,新加坡人工智能“模块化监管”思路一定程度上对我们的监管具有启发意义。未来可针对根据新技术或服务的共性元素拟定对应的规制框架,框架搭建好后,再根据每种技术或服务的特性进行综合调整。“这样既保证了监管具备敏捷性和韧性,搭建好的监管框架可以在一定程度上包容新兴科技的发展。”她进一步指出。
在主体责任分配上,《征求意见稿》指出生成式人工智能产品的提供者应该承担产品生成内容生产者的责任,如有需要,还需履行个人信息保护义务。
清晰的法律责任界定是具体执行监管的基础。张欣告诉南方财经全媒体记者,与一般人工智能产业链有所不同的是,生成式人工智能产业链及产品既可能To B,也可能To C。在To B的情况下,大模型和使用者并非同一主体,权利义务相对比较容易界定。但在To C的应用场景下,产业链条上至少会存在模型开发者、模型部署者、专业用户、非专业用户,以及进行数据标注或数据交易的第三方主体。整体来看责任的划分将走向多元。
《征求意见稿》的出台意味着我国对于生成式人工智能的规制迈出了第一步,“未来应当进一步精细化法律责任,做好规则的认定和梳理,构建面向产业链,以公平责任为基础的规则体系。”她指出。
《征求意见稿》为我国生成式人工智能装好了刹车,但这却不够。在同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋看来,科技伦理这一“软法”的规制作用也不可忽视。
在我国,“软法”也已经在推进中,以求尽快为生成式人工智能发展系上安全带。5月16日,工业和信息化部宣布正式成立工业和信息化部科技伦理委员会、工业和信息化领域科技伦理专家委员会,并将建立工业和信息化领域科技伦理审查监督体系。
陈吉栋认为,虽然硬法可以为治理提供稳定的规则,但现阶段仅适用于高风险、违法性明确的行为,且具有相对的滞后性。在人工智能技术发展迅速的当下,也需要用伦理、习惯和技术路径等“软法”为行业划定底线和指引方向。
他进一步表示,现在监管的发展中最为核心的是对于风险的认知逐步深入,因此类似于欧盟的“基于风险的”监管将有可能落地。未来,随着研究逐步深入,风险分级的思路将逐步被纳入制度设计框架。
事实上,除了上文提到的欧盟《法案》,在我国此前落地的《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》中也有类似要求,如深圳表示针对高风险的人工智能应用应当采用事前评估和风险预警的监管模式,中低风险的人工智能应用应当采用事前披露和事后跟踪的监管模式。
“不过在我国,这一框架要发挥作用还需要一个体制机制上的准备期。”陈吉栋解释道,一方面,分类分级制度的核心是不同主体的权利义务的设置,地方立法探索的空间有限;另一方面,两地立法在定位上,偏重产业法定位而非治理法定位,相比进行治理,更强调立法促进产业发展。
统筹:王俊
记者:冯恋阁 李润泽子 麦子浩
(作者:冯恋阁,李润泽子,麦子浩 编辑:王俊)
21世纪经济报道及其客户端所刊载内容的知识产权均属广东二十一世纪环球经济报社所有。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。