AI立法进行时①:该以何种姿态面对颠覆者?

合规科技王俊 2023-08-01 13:18

21世纪经济报道记者 王俊 实习生 胡暄悦 北京报道 

编者按:

2022年,生成式AI发展为人工智能发展注入一针强心剂,ChatGPT的横空出世,被视为通用人工智能的起点和强人工智能的拐点,引发新一轮人工智能革命。人工智能发展似乎找到了自己的主流叙事。

不过,技术创新的同时也带来了监管难题,我们面对的不是近在咫尺的当下,而是想象触达不到的未来。对于颠覆性的人工智能技术,全球正在进行治理话语的竞赛,中国将会如何通过立法来贡献出具有中国特色的AI治理路径?如何既拥抱技术发展,又能有效规制风险?之前南财合规科技研究院推出AI契约论系列报道以及《生成式人工智能发展与监管白皮书》,在此基础上,将继续推出AI立法进行时系列,以期为中国AI治理提供有益思路。

在过去的几个月,ChatGPT之父、OpenAI创始人Sam Altman几乎一刻也没歇着,穿梭在每一个能为ChatGPT的去与从谋取发展空间的“辩论场”。

在美国国会山,他就AI技术的潜在危险作证,并敦促立法者对制造先进AI的组织实施许可要求和其他法规;在欧洲大陆,他拜访了英国、西班牙、波兰、法国等政府首脑;在多场国际学术会议上,他强调安全与对齐。

所有的活动中,有一个核心的主题:呼吁政府监管,帮忙行业有序发展。

这似乎有点颠覆人们的认知:这场“AIGC革命风暴”的最大受益者—AI行业全球的领头羊居然要主动寻求管制。

事实上,全球正在进入“AIGC革命风暴”掀起的新一轮AI监管潮。

欧盟早先一步,《人工智能法案》进入最终谈判阶段。

系列迹象表面,美国政府最近也在紧锣密鼓推进监管工作:一个月前,美国总统拜登就会见了AI专家和研究人员,讨论如何管理AI在就业、儿童权益、偏见与成见以及信息方面带来的机会和风险。美国政府正在考虑为这项快速发展的技术制定规定等法律约束。 

就在近日,美国政府于白宫召集美国七家AI头部公司并获得了七家人工智能头部企业的自愿性承诺,确保人工智能技术的安全性、有保障性和可信任性

在亚太地区,日本决定设立一个名为“人工智能战略会议”的新机构,东盟正在筹划人工智能治理和伦理指南,预计年底成型。 

中国则在7月份发布《生成式人工智能服务管理暂行办法》,率先交出一份答卷。同时,人工智能法草案将预备提请全国人大常委会审议。中国人工智能法草案也将提请全国人大常委会审议。

Sam Altman的呼吁并非空穴来风。年初以来的“AIGC革命风暴”历经狂热追逐后,业内也回归到理性共识:若缺乏适当监管,任由AI飙速发展,会带来诸多隐患。

近忧与远虑 

Sam Altman要求监管的动作可以理解为一种策略,通过游说和预先的风险提示来争取有利于自身发展空间。但在更深层的逻辑中,AI带来的风险、面临的安全与对齐问题,远非一家公司能解决的问题。

如果不能解决安全的问题,一切发展也就无从谈起。法律和伦理隐患愈发牵动行业发展。

五月底,Open AI三位创始人发布了文章《对超级智能的监管》(《Governance of super intelligence》),其中提及,super intelligence的产生无法阻止,所以需要进行更大范围内的监管。

“我们认为阻止超级智能的产生是困难的,因为利益如此巨大,建造它的成本每年都在下降,建造它的参与者数量正在迅速增加,而且它本质上是我们所走的技术道路一部分。阻止它需要全球监管制度,并且即使这样也不能保证有效。所以我们必须确保它向正确的方向发展。”

全球范围内如火如荼的“大模型建设”也日渐暴露弊端:AI滥造虚假新闻、AI诈骗、个人信息泄露、知识产权纠纷等这些严肃问题不得不被正视。近期,OpenAI就因疑似“窃取用户信息”遭到集体诉讼。

伴随大模型建立的大规模下游应用生态,其风险非常棘手。AI合规业务无疑是今年法律界的“香饽饽”,合规圈人士不敢有一丝懈怠,需要时刻关注每一个争议才能让解题思路跟上AI的“狂飙”速度。观韬中茂律所合伙人王渝伟就是其中之一。他分析道,商业化应用会放大大模型风险,并且风险各不相同。比如个人信息,如果是在ToB的咨询业务场景下,可能不会具体到个人,甚至整个业务场景都较少涉及个人信息,当然的个人信息隐私风险会比较小;但如果是私人助理的应用,数据直接对应到个人的可能性增大,在数据传输过程中个人信息暴露的可能性更高。

在云从科技咨询规划总监张俊看来,大模型使用的输入数据合规也是关键问题。大模型是数据在大算力加持下的“暴力美学”,大模型语料库使用的大量数据存在高度的数据合规风险。数据的权属权益问题在全世界一直是个难解之题,目前国内数据要素的立法问题还没解决,又出现了基于人工智能生成式内容的数据合规风险。

“所以现在国内大模型更多是私域部署运行,公域部署存在着数据使用安全合规的法律挑战。”张俊指出。

360创始人周鸿祎也提及,公有大模型存在数据安全隐患,组织内部知识库不适合训练到公有大模型中;公有大模型易造成企业内部数据泄露。 

除却这些“近忧”,本轮AI发展不可控的风险亦是无法忽略的“远虑”。

非营利组织CAIS(Center for AI Safety)指出,高度胜任的系统可以赋予一小群人巨大的权力,从而导致压迫性系统的出现;随着大模型变得更有能力,它们会表现出意想不到的、性质不同的行为。AI可能自发地突然掌握一些能力,或出现新的系统目标,这可能增加人们失去对高级人工智能系统控制的风险。

美国加州大学伯克利分校计算机科学教授、人类兼容人工智能中心 (Center for Human-Compatible AI)主任斯图尔特·罗素(Stuart Russell)指出,人工智能系统可能会通过对话来改变数亿人的观点和情绪。OpenAI等科技公司应该停止在不告知的情况下向数亿人发布新的人工智能系统,这些系统可能会通过对话来操纵和影响人类的思想和行为,导致一些灾难性的后果。

监管如何破除方法论窘境

“不是我们无法适应,而是这一切可能发生的速度。”这也是Sam Altman所担忧的。

超速发展之下,如何监管AI或许面临方法论的窘境。

早在1980年,英国社会学家科林格里奇(David Collingridge)就指出,预测科技和控制科技基本上是相互违背的两种行动。当某个科技还没完全成熟、广泛应用时,我们颇有机会和能力去影响和介入它的发展,但问题在于,此时我们并不知道它会带来什么社会后果;相反,当我们可以清楚猜到或者见到某个科技带来的社会后果时,这个科技往往已经技术成熟且被大量使用,以至于我们很难再去做出任何大幅度的修改或将其撤回。

中国信息通信研究院互联网研究中心副主任何波指出,技术的演进在某种程度上具有不确定性,与传统网络空间相比,人工智能等新兴领域更具有较大的不可控和不可预知性。因此,不能完全照搬传统互联网发展所遵循的“先发展再治理”的理念,需要提前划定安全底线和发展红线,避免新技术发展陷入“科林格里奇困境”(Collingridge's Dilemma),一个技术的社会后果往往不能在技术生命的早期被预料到,而当不利后果发生的时候,技术却往往已经成为整个经济和社会结构的一部分,再对它进行控制就比较困难。人工智能领域的发展具有很强的技术性、动态的变化性等特征,相关监管制度的合理性和可行性也需要进一步研究完善,实现良法善治。

可以看到,近期立法与监管政策正在密集推进。

在中国,国家网信办作为互联网信息服务均等主要监管机关,近年来密集出台了人工智能领域的相关规定。比如《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》等。

针对本轮生成式AI的热潮,网信办也迅速做出反应。今年4月,国家网信办《生成式人工智能服务管理办法(征求意见稿)》发布并向社会公开征求意见,以促进生成式人工智能技术健康发展和规范应用。7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局正式发布《生成式人工智能服务管理暂行办法》,给出了“生成式AI时代”下中国关于AI治理的独立思考。

6月初,国务院公布的2023年度立法工作计划通知显示,人工智能法草案预备提请全国人大常委会审议。

早在2021年,亚欧大陆另一端的欧盟委员会就发布了欧洲议会和理事会《关于制定人工智能统一规则》的立法提案(即《人工智能法案》),意在建立关于人工智能技术的统一规则,以促进形成合法、安全、可信的人工智能市场。

针对生成式AI,今年,《人工智能法案》又进行了多轮谈判,将根据《人工智能法案》授权草案,针对ChatGPT等生成式人工智能设立专门监管制度。

在OpenAI、微软、谷歌等科技公司总部所在地的美国,也一改此前重发展的思路,强调监管的重要性。

今年4月,美国国家标准与技术研究院宣布制定负责任地使用人工智能的方法框架,试图使政府的AI监管工作方面扮演突出角色。5月,美国白宫总统科技顾问委员会(PCAST)成立了一个生成式人工智能工作组,以帮助评估关键机遇和风险,并就如何最好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。 

寻找新型人工智能监管框架 

尽管此前不乏人工智能相关的法律与监管政策,但现在,各国、地区面对的人工智能不在停留在代码、停留在局域应用层面,而是技术突破后能力不断进阶、商业应用极有可能大规模落地的新局面。

一方面,没有任何一方愿意被本轮人工智能发展“革命”,另一方面,负责任的创新极为重要。随着生成式人工智能研究和使用规模逐渐增长,通用人工智能的脚步逼近,建立新型的人工智能监管框架十分必要。

人工智能的复杂性也考验监管智慧。正如前文所述,首先,生成式AI的风险有未知性,大模型表现的“涌现性”特征及“幻觉”问题仍待解决。大规模商用后伴生风险该如何规避? 

其次,现有法律框架内未能解决的数据所有权等问题,随着大模型的应用而愈发棘手。

最后,立法的目光不得不看向更遥远的通用人工智能。安全与对齐的问题更加重要。 

GPT-4 花了八个月的时间完成对齐方面的工作,但相关的研究还在升级。如何让日益强大的AI系统,目标行为与人类的价值观与利益相对齐,并非一家公司或一个行业能做到。它涉及到对价值观的理解与判断,涉及到对技术的监管,涉及到被影响的每一个人。 

毫无疑问,本轮人工智能浪潮正在改写游戏规则。当人工智能的发展和更广泛的应用已经势不可挡,在各方纷纷想要抓住机遇的同时,伴生的风险也应被认真对待。立法、监管应全方位考虑人工智能带来的影响,寻求找到安全和发展之间的平衡点。

在接下来的系列报道中,我们还将就中国AI发展现状、算力建设情况、各国AI治理进展等展开更深入的探讨。

统筹:王俊

记者:王俊、胡暄悦

编辑:诸未静

(作者:王俊 编辑:诸未静)

王俊

记者

做数字经济时代的观察者。微信:wangdajun0117