AI契约论⑩:大模型商业化落地关键一步 业界呼吁政策的可预见性

合规科技郑雪,钟雨欣 2023-06-25 14:22

21世纪经济报道 记者 郑雪 钟雨欣 北京报道

编者按:

在2023年过去的几个月里,各大公司抢滩大模型、GPT商用化探索、算力基础设施看涨……如同15世纪开启的大航海时代,人类交往、贸易、财富有了爆炸性增长,空间革命席卷全球。变革同时,也带来了秩序的挑战,数据泄露、个人隐私风险、著作权侵权、虚假信息......此外,AI带来的后人类主义危机已然摆在桌面,人们该以何种姿态迎接人机混杂带来的迷思?

此刻,寻求AI治理的共识、重塑新秩序成了各国共同面对的课题。南财合规科技研究院将推出AI契约论系列报道,从中外监管模式、主体责任分配、语料库数据合规、AI伦理、产业发展等维度,进行剖析,以期为AI治理方案提供一些思路,保障负责任的创新。

以OpenAI为代表的初创公司掀起了人工智能的浪潮。以大模型为代表的人工智能,其魅力在于作为一种技术基础设施,和垂类应用结合之后会创造出无限可能。中国企业纷纷入局押注,文心一言、通义千问等大模型相继宣布面世;还有一批初创企业蠢蠢欲动,想在新一轮争夺战中站稳脚跟。

值得关注的是,当前虽有企业宣布推出大模型,但距离大模型真正落地、商业化还有一段距离。当前重要的问题在于,瞬息万变的市场竞争中,如何通过稳定的政策向企业传递预期和信心。

大模型搅动激烈市场竞争

一款应用,从技术开发到上线落地,凝结着公司的心血。在某种程度来说,某个应用的出现代表着企业对于当下甚至是未来市场的思考以及战略布局。从需求提出、项目立项、研发设计,再到优化审核直至上线发布,每一个环节背后都是大量的人力、物力、资金支持,尚未面世的应用随时面临喊停。

很多企业达成共识将大模型视为下一轮竞争的关键,企业内部给予非常高的优先等级。目前来看,百度、阿里巴巴、科大讯飞等相继宣布推出大模型,以大模型为代表的人工智能竞争异常激烈。5月28日发布的《中国人工智能大模型地图研究报告》显示,据不完全统计,中国10亿级参数规模以上大模型已发布了79个。

从长期来看,人工智能肯定会对整个社会产生深远的影响。大模型最大的魅力不是在于它自身有多‘炫酷’,而是未来AI技术可以与各个垂直领域去深度结合。”某互联网大厂法务对记者说道。

谁能更快、更早上线,谁就将在市场竞争中占据更加有力的位置。大模型的学习能力异常关键,大模型能把对人类的反馈,通过强化学习的方式注入到大模型中。用户反馈越多,模型的更迭速度也就更快。但目前来看,国内大模型多以定向邀请、内测的形式开展,相比于已经商业化落地、甚至宣布降价的ChatGPT来说,中国的大模型还需用力追赶。

目前,已有多个应用商店上线与AI相关的APP。记者以AI为关键词在应用商店搜索,发现不少APP宣称可以实现AI写作、AI绘画、AI换脸等功能。

(左一为安卓应用商店截图;右一、二为IOS应用商店截图)

在上述法务人士看来,这些简单接入国外开源模型应用具有一定的风险性,其积累的能力并不能提升国内大模型水平。“这些应用很可能对接了ChatGPT的接口,然后提供服务。其本身对技术创新没什么贡献。”

对外经济贸易大学数字经济与法律创新研究中心执行主任张欣同样认为,这类APP存有风险。“如果这些APP是调用了OpenAI的接口,并未按照相关法律的要求完成生成式人工智能的一系列合规动作则是存在风险的。”

早于靴子落地的合规实践

大模型真正商业化落地的过程中,尤以监管政策最为重要。对于人工智能的相关治理在各类文件中可见一斑。

2018年《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(以下简称《规定》)要求相应互联网信息服务提供者应当在信息服务、新技术新应用上线或者功能增设前提交安全评估报告;2021年,随着语音社交软件和涉“深度伪造”技术应用的发展,国家网信办和公安部再次强调两类技术需要完成安全评估;2022年,《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)出台,要求应用深度合成技术提供互联网信息服务的提供者需要完成安全评估和备案。

2023年4月11日,中国发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见,安全评估、算法备案成为人工智能治理的抓手。不久后的6月8日,人工智能法列入国务院2023年度立法计划。

针对人工智能秉持何种监管思路、采取何种监管手段,靴子何时落地,成为各方关注的焦点。

值得关注的是,5月29日,招商局集团电子招投标平台发布《招商证券微软大语言模型服务采购项目-询价采购公告》,其中将引进微软Azure-Open AI大语言模型,并根据业务需求场景进行配置。当晚,招商证券微软大语言模型服务采购项目终止,终止原因为采购需求变更。

张欣对此分析称,国外的ChatGPT是可以进入中国市场的,但是需要满足一系列的合规要求。如果没有满足合规要求,即便是套用了国内的某些平台或者是应用场景,那也是不可以的。

6月20日,国家网信办发布深度合成服务算法备案信息的公告,根据算法备案清单,百度的相关算法如文生图内容生成算法、科大讯飞的讯飞星火认知大模型算法等赫然在列。

有观点认为,这是生成式人工智能大模型审批放松的信号。

企业根据《深度合成管理规定》完成算法信息备案,本身是没有任何问题的,并不意味着管理政策的松动。”张欣进一步解释,生成式人工智能其实具有非常重要的技术特性:海量数据、巨量参数、广泛的场景通用能力和泛化能力,而这是深度合成类算法所不具备的。

可以看到的是,虽然靴子尚未落地,监管、产业等动作频频。张欣对记者表示,《征求意见稿》何时出台尚不确定,但企业的产品研发和商业化落地不可能停滞,以6月份发布的算法备案清单为例,企业在实际中已经开始布局自己的合规实践了。

风险或在使用中出现

人工智能监管的靴子将落未落,而人工智能的发展一日千里。对于企业来说,平衡即将落地的监管政策以及人工智能产业的发展,考验着其智慧。

“大家都是抱着美好的憧憬在做大模型这件事情,身边同事非常热情。包括我们做合规的也一样,大家都在学习,不断了解大模型的风险、观察相关企业的合规管控措施。整个产业能好起来,用户体验能好起来,业务能跑起来,这样确实挺好的。”上述法务人士对记者说道。

该法务人士告诉记者,根据相关监管要求,依据《规定》,大模型上线前需要完成安全评估。目前看国内企业还没有正式通过安全评估的大模型。

如何定义安全成为实际操作中需要解决的一个问题。上述法务人士介绍,“评估的标准并不是很明确,双新评估需要根据技术特点进行评估,每个场景面临的风险、客户群体是不一样的,我们也很难准确预判风险,只能技术人员在内部一次次测试。

可预期性、可预见性是业内最关注的。明确相关标准、让企业知道哪些是被禁止的,哪些可以做、怎么做,尤为重要。“从我们专业角度出发,技术风险肯定是越可控越好,但是同样也担忧政策监管的不确定性。”上述法务人士表示。

监管前置并不必然会损害技术创新,但需要注意的是,由于事前审查会在一定程度上增加企业的合规成本,若事前审查范围设置不当,可能会抑制生成式AI产品的研发与训练效能,客观上会导致生成式AI发展的降速。”南开大学法学院副院长、中国新一代人工智能发展战略研究院特约研究员陈兵教授说。

而在中国政法大学法治政府研究院院长、教授赵鹏看来,新的技术、新的应用其对社会的交互方式、对舆论产生的影响,目前来看没有办法进行事前判断和客观评价,这是当前面临的最大挑战

不同于物理世界的产品研发有一套行业共识的衡量标准,如药品在正式上市前需要通过三期临床测试来评价和认知风险,新技术、新应用往往取决于人怎么来运用这项技术,而不仅仅是技术本身。

据法务人士介绍称,在大模型和产业结合的过程中,可能会产生一些外部性的溢出,这是在后续使用的过程中才能发现的。

过度强调事前控制风险,恰恰失去了引导塑造未来秩序的机遇。”赵鹏认为,从监管角度来讲,关注新技术、新应用带来的风险,激励行业讨论实际应用场景中出现的问题,鼓励自下而上的行业伦理准则形成。如果遇到伦理准则无法调整的情况,将一些较为有效的措施升级为法律法规从而进一步管控

呼吁“分级分类”监管 提升政策可预期性

如何减弱潜在的风险、保障安全问题?

在赵鹏看来,确实要关注人工智能可能引发的社会问题和潜在风险;但从长远角度来看,不掌握核心技术甚至会更不安全。“关注风险并不一定通过事前管制的方式,积极追踪技术研发带来的问题,通过对具体案件的执法积累经验,然后再去定一些普遍适用的规则,也是解决风险、保障安全的路径。”赵鹏说道。

也有学者认为,基于人工智能的特性,全链条监管必不可少。陈兵指出,需要注意到当前的生成式人工智能的出现具有颠覆性意义,在多个方面具有较大且未知的风险。我国人工智能应用市场规模较大,仅仅依靠事后监管可能会对社会经济秩序造成无法挽回的损害,因此对人工智能产品研发使用的全过程进行监管是合理的。

如何做好监管前置涉及到技术创新与技术安全之间的平衡问题?

陈兵认为,在任何对新科技的监管中,平衡技术创新和安全都是重大难题。“此前对平台经济的监管经验也许可以对这一问题提供参考。”陈兵解释道,我国平台经济的监管经历了宽松监管、包容审慎监管、专项强化监管到如今的常态化监管。

在张欣看来,现在可谓算法技术的“拐点时刻”与算法治理的“关键时刻”。从长远来看,以前所说的“软硬法兼施”或者是“软法先行硬法跟上”的治理模式已经无法满足当前的治理环境。“从监管的角度来讲,是需要给予企业以信心、促进行业健康发展和创新。比较重要的一点是监管框架的形成需要考虑法律逻辑、技术逻辑、产业链逻辑的整体嵌合。在对三个逻辑的融合充分考虑后,尽可能在安全底线的基础上给企业留出弹性发展的空间。

在新技术、新业态快速涌现之时,具体到监管路径之上,多位受访专家强调了“分级分类”的监管思路

上述法务人士提出,监管分级分类很重要,不能简单地采取“一刀切”的方式。可以考虑在低风险工具类产品或低风险场景中开放白名单,例如“AI+电商”、“AI+办公”等场景。

陈兵表示,可根据生成式人工智能产品采用的数据重要程度、产品的舆论属性或者社会动员能力、服务用户规模、生成的内容类别与适用领域等要素,赋予不同的风险等级与类别,设置相应的审查范围。

统筹:王俊

记者:郑雪 钟雨欣

(作者:郑雪,钟雨欣 编辑:王俊)