今年以来,以ChatGPT/GPT-4为代表的各种大语言模型(Large Language Model)及其应用不断登上全球媒体的头条。与此同时,生成式人工智能的强人机交互性、语料强依赖性等特征也带来了诸如虚假信息、版权侵权等的风险。
世界范围内,意大利是首个对生成式人工智能产品ChatGPT发布禁令的国家,并对其涉嫌违反数据保护要求展开了调查;加拿大隐私专员办公室宣布对ChatGPT的开发者OpenAI公司展开调查;英国数据保护机构发布了对使用生成式人工智能(Generative AI)的8个问题;德国联邦数据保护发言人也表示,出于数据保护方面的考虑可能会暂时禁止在德国使用ChatGPT。
不同于对生成式人工智能的直接禁令,技术本身一旦出现就几乎无法回卷,只能引导不能绝对禁止,否则必然会转入地下,安全风险只会更高。我国于2023年4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称“生成式AI新规”),以相对务实态度对生成式人工智能进行立法回应。
新规出台前,我国主要通过《互联网信息服务算法推荐管理规定》(以下简称“《算法规定》”)和《互联网信息服务深度合成管理规定》(以下简称“《深度合成规定》”)对生成合成类算法进行规制。
《算法规定》由网信办会同工信部、公安部、市场监管总局于2021年12月31日发布,主要聚焦在大数据杀熟、诱导沉迷网络、劳动权益保障、偏见歧视以及未成年人和老年人权益保障等五个方面的问题。《深度合成规定》由网信办会同工信部、公安部于2022年11月25日发布,确定了深度合成技术的监管范围,划分明确了深度合成服务提供者、技术支持者和使用者及应用程序分发平台的各方责任。
生成式AI新规明确,生成式人工智能产品或服务提供者(“提供者”)应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向网信部门申报安全评估,并按照《算法规定》进行算法备案。由于生成式AI的开发和运营成本较高,国内该领域的发力者也主要是大型企业,因此对其采取更高更细的监管要求也是可预期的。
相对于《算法规定》《深度合成规定》等监管规范对生成合成类算法提出的合规要求,生成式AI新规增加了提供者在内容生产者责任、合法预训练数据及优化数据、建立不法内容处理机制、积极指导用户等领域的合规义务;细化了防止歧视、防止生成虚假信息、人工标注、信息保护与公开、防范用户过分依赖或沉迷、用户投诉接收处理机制等领域的合规要求。
生成式AI新规是一部典型的“小切口”立法,将规制对象明确为生成式人工智能,在承继既有算法与深度合成既有规制的基础上,以评估和备案为监管抓手,致力守住技术发展安全底线。相比大而全式立法带来的将风险泛化,这种就事论事、快速出台的规制思路,可能也是未来科技立法的一个趋势。需要观察的是,产业界和监管机构、大众媒体如何良性互动,将发展带来的风险在发展中解决,主动解决各方的安全焦虑,而不是刻舟求剑,把一些产业和技术过渡期的问题变成技术探索的阻碍。
(作者单位:世辉律师事务所)
(作者:王新锐 编辑:李靖云)
21世纪经济报道及其客户端所刊载内容的知识产权均属广东二十一世纪环球经济报社所有。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。