AI领域共识既无终点,亦无答案。
21世纪经济报道记者 王俊 实习生 胡暄悦 北京报道
全球正在进入“AIGC革命风暴”吹起的新一轮AI监管潮。
欧盟早先一步,《人工智能法案》进入最终谈判阶段。
美国政府最近也在紧锣密鼓推进监管工作,正在考虑为这项快速发展的技术制定规定等法律约束。在拜登的最高顾问每周六的战略会议上,AI监管成为一个共识话题,会上还公布了人工智能监管立法框架。
中国政府则在4月份发布了《生成式人工智能服务管理办法(征求意见稿)》,7月正式发布《生成式人工智能服务管理暂行办法》。同时,人工智能法草案将预备提请全国人大常委会审议。
除却在人工智能产业的竞赛外,全球正进入规则竞技阶段。
“各国在人工智能领域的军备竞赛已然开始。”长期研究人工智能法律政策的耶鲁大学法学院蔡中曾中国中心研究员陆凯(Karman Lucero)指出。不过,他强调国际合作至关重要。“各国可以分享方案,更好地相互学习。越是互动,越能洞察不同监管手段的成效与影响,最终各国形成符合自身特色的监管模式。”
在他看来,对于人工智能的浪潮,全世界不同行业、不同领域、不同组织应该参与讨论,审慎考虑正在发生的事情。
达成共识是一项艰难的工作,人工智能不仅仅是一项技术,更涉及一套社会系统,涉及个体、公司、机构等使用不同的技术互动。没有终点,亦没有答案。
AI带来的很多问题实质是人类社会的问题
21财经:这一轮以ChatGPT为代表的生成式AI,与此前的AI发展有哪些不同?给监管带来了哪些挑战?
Karman Lucero:有两种途径来理解挑战:一是政府有能力做什么和政府有权力做什么。
以美国的制药行业举例,很多制药公司正在利用人工智能进行研发。在这个层面上,很多问题都是技术性的。监管机构需要和不同行业的更多人合作。他们必须全面地了解人工智能如何影响某些行业,并对特定行业制定精准、具有针对性的监管政策。
这里,我必须强调,国际合作至关重要,目前每个国家都在努力解决AI治理问题,各国可以分享方案,相互学习。越是互动,越能知道什么是有效的,不同监管手段的影响是什么。最终,各国会提出适合自身的监管方法。
第二个挑战是政府是否有权监管人工智能的某些用途。
在美国,法律为网络平台设置了“避风港”原则,来支持平台发展。尽管现在部分人在反思这一法律规则,但这仍是法律,政府无权要求公司做内容审核。
在中国,监管执行的反应速度更快,可以做的事情更多。
21世纪:4月,包括马斯克在内的一千多名业界学界呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,6月份,Sam Altman(OpenAI的CEO)等联合签署了《AI风险声明》,两者都表现出对目前人工智能发展过程中的风险和可能失控的担忧,你如何看待AI带来的风险?
KarmanLucero:就风险而言,我认为这取决于具体的、生成式AI的使用领域或场景。在高风险情境下,应该更加谨慎、有更多监管。比如,医疗领域与军事应用是高风险场景,每个国家都应该在这些高风险领域高度谨慎,尽可能加强国际交流。个人认为,其他领域也会有不同的风险,并且监管也可能带来风险。
人们非常关心内容生成影响网络话语等等,我认为这些担忧是有依据的,但自上而下的政府规制能否有效监管GPT等大模型产品?Chat-GPT等引起的虚假信息很多时候并非技术问题,不是简单地调整某个算法或实施一项新法律,这个问题就会消失,网络环境就会变得更加和谐。这个问题更加古老,实质是人类社会问题。
针对AI的影响应让更广泛群体参与讨论
21世纪:你认为暂停大模型研发是可行的吗?
Karman Lucero:不可能让所有从事人工智能的人停下来。主要有两个原因。第一,在人工智能方面,世界各国已有根深蒂固的竞争意识。
第二个原因是,人工智能涉及到很多方面,很多不同的人以不同的身份从事相关工作,并非所有人都认为暂停是必要的。此外,某些政府没有叫停开发者的行政能力。
当然,我对暂停呼吁的理解并不是字面上的暂停,而是呼吁更深思熟虑地参与,更审慎地考虑正在发生的事情。从这个意义上说,我认为这是必要的。各国政府认真对待这些问题,就会有更多的人,不仅仅是计算机科学家,而是不同行业、不同组织一起,更多地思考这些问题,并更多地讨论。就我的理解,这是呼吁“暂停”的一大用意所在。
21世纪:Sam Altman也一直提示人工智能的风险,并尤其强调政府监管,在你看来这是出于何种原因?
Karman Lucero:我想大概有三个原因。
第一、个人信念。他个人判断是,人工智能发展飞快,如果不加监管可能会导致很多问题。因此,他呼吁各国政府能更加谨慎地思考新技术,并做出相应的规范,设置类似“护栏”或“停靠站”。
第二、这是一个超前于风险的商业策略。你可以说,Altman的行为在一定程度上是一种先发制人的防御,当人们在使用ChatGPT或OpenAI其他产品而产生负面影响的时候,他们可以说自己已经预告过风险,早已呼吁治理,并非故意为之,公众不能因此责怪他们,这并非他们的错。
第三、这是一种法律策略,因为监管对“领先者”来说是有利的。OpenAI已经是一家拥有领先地位的大公司,任何具体的监管措施都会提高其他同类公司的市场准入成本。一方面,由于OpenAI已经存在,许多规则可能都会围绕它制订。另一方面,OpenAI已经建立了比较完善的合规体系,但新公司则尚未建立成型的合规体系。
这时候,监管政策可能会赋予“领先者”优势,一是监管政策可能使竞争对手更难进入某领域,二是监管给予公司一种明确感,使得公司清楚地知道什么是不允许的,什么是被允许的。
要达成AI治理的共识,既无终点亦无答案
21世纪:我们注意到美国开始研究针对ChatGPT等生成式人工智能的监管规则,也有一些声音呼吁建立独立的监管机构。对此你持什么态度?
Karman Lucero:确实有声音呼吁建立一个独立的实体。我听过最极端的版本是建立一个新的联邦机构来管理人工智能。对此我持怀疑态度,主要原因是缺乏明确性,人工智能融合多个领域和技术,设立新机构监管对象和监管场景均不清晰。
我认为联邦政府针对算法提出审计措施是有益的,可将禁止歧视和促进公平的法律原则扩大到人工智能领域。我认为美国政府成立人工智能管理局或类似的机构可能性不大,在美国现行政治体制下,法院可能会介入以阻止此类行政权力的扩张。
21世纪:我们注意到,你曾在论文中提到,对于人工智能的起点和终点都不存在共识,经过这几个月,中国、美国、欧盟针对AI密集的监管,你认为,我们距离形成初步共识还有多远?
Karman Lucero:老实说,我们难以达成共识。因为人工智能意味着太多不同的东西。归根结底,当人们谈论人工智能,谈论的不仅仅是一项技术,更是一套社会系统,涉及个体、公司、机构等使用不同的技术互动。这没有终点,亦没有答案。
即便人们有相同的价值观,他们对人工智能起点和终点的认知也是动态变化、有差异的。此外,技术与社会的交互是不断变化的,总会有新事物、新问题出现。从这个角度来看,我们永远不会达成共识。
如果说确有什么共识是可能的,那或许就是关于“我们如何讨论这些问题”了。各国确实有不同的监管治理方法,但我们可以通过更充分的讨论来相互理解。
我认为,达成所谓的“共识”,并非指在人工智能投资或监管的实质内容方面达成一致,而是各方共同讨论与合作的这一过程。
21世纪: 面对生成式人工智能,你认为在立法中面临哪些关键挑战?
Karman Lucero:第一个挑战是语境的特异性。我个人认为很难有一部综合法可以因地制宜地适用不同情况。
第二个挑战是立法目标。不同的法规对应不同的立法原则,关键是如何将立法目标与法律本身联系起来,并对其效用进行监督评估。
比如虚假信息和社交媒体的问题。我认为,为防止错误信息和虚假信息而创造的许多规则实际上并未消除此类信息。相反,它只是创造了另一种垄断,即谁最终可以传播真相,谁最终可以定义真相。
如果法律是基于某种理想原则,比如希望人们更有道德,我对立法是否能达成这一目的持怀疑态度。我认为监管者应该更加审慎地考虑监管的目的是什么,当前举措是否能达成该目标。
相较于给出参考答案,我认为开展关于AGI的讨论以及了解人们对它的看法是更重要的。
不过我认为我们距离 AGI还很远。我们需要一个新的范式去测量和评估AGI。目前这不是一个迫在眉睫的问题。所以我推荐的方法是坚持软法、规范建设、道德约束。暂时避免硬法,避免正式惩罚。
(作者:王俊 编辑:和佳)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。