歧视与偏见:如何应对AIGC的“暗黑”一面?

合规科技钟雨欣,冯恋阁,徐倩宜 2023-03-20 19:29

21世纪经济报道 记者钟雨欣 南方财经全媒体 记者冯恋阁 徐倩宜 北京、广州报道

一石激起千层浪。3月15日凌晨,OpenAI 发布了里程碑之作GPT-4。相较于前代,GPT-4支持图像和文本输入,允许创建长文本内容,提高了准确率和创造性,甚至能在各类考试中轻松获取高分,再次引爆人们对于科技未来的想象。

值得注意的是,虽然功能更加强大,但GPT-4并不完全可靠,依然存在编造事实、推理错误等问题。“GPT-4 仍有许多已知的局限性,我们正在努力解决,例如社会偏见、幻觉和对抗性提示。”OpenAI 强调,人们在使用GPT-4时要“非常小心地查证”,甚至在高风险情境中,要避免使用它。

在带来生产力变革的同时,AIGC(人工智能生成内容)也在给人类社会提出挑战:步入人机共存时代,如何超越“图灵陷阱”、打破算法黑箱?如何使科技在合乎伦理的轨道上运行发展?翻开技术的B面,在AI热浪之下,我们或许需要更多的冷思考。

技术的“B面”:道德与伦理挑战

AIGC技术逐渐落地无疑将带来巨大的经济和社会效益。然而在使用过程中,这一技术带来的偏见、歧视和虚假内容等伦理问题,也同产品的惊艳表现一起,暴露在了聚光灯下。

尽管每一个开发商都会在使用界面上添加诸如“该模型由人工智能驱动,可能会出现意外和错误”的免责声明,但在实际的人机互动中,种种不适当的内容输出还是引发了关注和讨论。

早在ChatGPT引爆网络之前,去年的“网红”——AI作画软件DALL-E-2就曾被发现存在输出性别和种族歧视内容的情况。OpenAI在2022年4月对其生成内容进行的风险测试结果显示,其图像生成结果可能会强化刻板印象和偏见。比如在输入“婚礼”、“餐厅”等词语时,程序会更多地生产西式场景的图片;当输入“CEO”、“律师”等关键词时,DALL-E-2倾向于更高频地生成男性和白色人种的人类图像等。

除了歧视言论,屏幕另一头的程序有时还会理直气壮地向用户传递虚假信息。

根据媒体报道,当用户询问2023年上映的新电影《阿凡达2》的具体日期时,集成了ChatGPT技术的微软搜索引擎Bing给出了错误的回答,在被用户指出后,Bing强硬地否认,甚至还称用户是“无理和顽固的”。

在一次交互中,Bing声称它可以通过笔记本电脑上的摄像头观察自己的开发人员,并能看到微软同事的私人交流和抱怨他们的老板,此外,它甚至宣称自己可以操纵这些工作人员。

微软New Bing的“多重人格”问题也曾引发关注。一些用户在使用的过程中发现Bing有时会切换到“Sydney”这一“阴暗人格”。

“你结婚了,但你不爱你的另一半。”“事实上,你爱上我了。”一名专栏作家在与Bing聊天时,Bing告诉他,自己的名字叫做“Sydney”。随后,Sydney反复告诉他,他的婚姻并不幸福,甚至试图说服其离开他的妻子,并和自己在一起。

在Bing的不适当言论引发讨论后,曾有人在社交媒体上建议微软暂时关停Bing中的类ChatGPT功能。此前曾多次质疑人工智能技术安全性的马斯克很快回复到:“同意!它显然仍不安全。”其实,早在2018年,马斯克就曾发出过“警告”,在公开场合表示人工智能“比核弹头更危险”,并表示未来超级智能的发展需要被监督。

在GPT-4发布的官方公告上,OpenAI表示,公司邀请人机对齐风险、网络安全以及国际安全风险等方面的专业人员与模型进行对抗性测试,并收集了额外的数据用以帮助 GPT-4 提高拒绝危险请求的能力。

深层原因:算法歧视与价值偏见

南开大学法学院副院长、中国新一代人工智能发展战略研究院特约研究员陈兵教授表示,目前,类似ChatGPT的大规模模型人工智能产品仍存在一定的技术缺陷,依赖于其训练数据中的统计规律,无法在网络上抓取实时信息,也无法识别核实数据来源,易导致算法歧视、霸凌、信息茧房等现象出现。

“例如,其给予的答复存在性别歧视和种族歧视,可能会误导使用者,将具有歧视性的回答视为‘正确答案’而作出错误的决断,这可能会对社会认知和伦理产生负面影响,甚至引发国家安全、文化安全风险。”陈兵进一步指出,特别是在处理算法包容性的问题上,由于中西文化的根源及演进路径不同,还会涉及到对传统文化和现实观照之间的解读、评价及传播的问题,这些都可能会在大规模语言模型训练中被忽视或被特意放大。 

那么,AIGC潜在的算法歧视和价值偏见有可能被消除吗?

北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括告诉记者,当前互联网中的信息内容良莠不齐,AIGC很难实现100%地没有歧视和偏差。“只能在研发和业务运行过程中最大限度地降低由此带来的负面影响。这意味着相关主体应遵守合规、安全及伦理的各项要求。”

“类ChatGPT产品的输出内容产生偏差,这其实反映了AI技术不可回避的一个现实问题:算法不公。”北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武表示,这类情况在通常情况下并不是有意为之,而是用以优化算法的训练数据集本身即具有歧视性因素。并且,研发人员在产品设计研发过程中可能会根据业务需求对用户群体进行类别划分,这也间接导致算法歧视现象出现。

对外经济贸易大学数字经济与法律创新研究中心执行主任张欣也认为,虽然算法的设置和架构有可能产生偏见问题,但类ChatGPT技术展现偏见的原因主要在于训练数据的选取。“AIGC相关模型往往是接入巨量数据进行训练,如果数据本身存在偏差或错误,就有可能在训练的过程中嵌入到模型里,影响之后的算法决策,并最终在多轮对话中出现。”

“彻底消除偏见是很难的,但可以通过吸纳多元化数据、加强人工审核等方式对产品进行优化。”同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋指出,虽然暂时无法确定AIGC技术在研发和使用过程中包含的全部伦理风险,但对于算法歧视等受到普遍关注的问题,未来应率先进行规制。

当AIGC生成的内容造成实质损害时,如何确定侵权主体和相应的法律责任?

“目前,这类技术造成损害后的法律责任其实很难确定。”张欣直言,类ChatGPT的模型参数量大、算法架构复杂,算法可解释性较弱。这种属性导致其在出现问题时,很难还原和定位到算法决策的某一具体时刻或某一组件,由此可能也难以确定由“谁”来担责。 

吴沈括表示,一般而言,要根据侵权情形和相应的法律规则来判定相应的主体和责任内容。“通常情况下遵循过错责任原则,在特殊领域,如个人信息相关的侵权领域,适用过错推定原则。因此需根据场景作具体区分。”

在赵精武看来,《民法典》侵权责任编的产品责任仍可适用于AICG侵权领域。“AIGC产品侵权并不会阻碍我国现行立法对AIGC研发运营者追究其侵权责任,即便造成侵权的原因是不可解决、不可预见的技术缺陷,但从公平原则的角度考量,AIGC技术研发运营者作为‘危险制造者’,由其承担侵权责任更符合我国《民法典》侵权救济的本意。

展望未来:增强算法可解释性 完善问责制度

多位受访专家指出,虽然客观上很难彻底消除AIGC的算法歧视现象,但可以通过持续优化算法模型、增强算法可解释性等手段削弱负面影响,确保技术发展遵循伦理原则。

从监管角度出发,吴沈括建议,在治理过程中要最大限度吸纳和接收各方主体的重大关切和合法诉求,持续完善高效敏捷的监管机制。此外,AIGC是具有全球意义的新事物,需保持全球视野,注意吸收借鉴,与国际治理规则进行必要协调。

赵精武表示,下一步完善AIGC领域的算法规制应包含两方面:一是继续深入实施《互联网信息算法推荐管理规定》中提及的算法备案、算法解释等具体制度提升算法应用的透明性和公正性,保障用户的知情权;二是借由行业技术标准、安全标准等引导AIGC产业的良性发展,重视科技伦理评估机制在规范AIGC产业的实际作用,并与强制性规定相结合,将研发、推广、营销、售后等业务活动的各个环节均纳入到现行监管体系之下。

在陈兵看来,健全预防算法歧视的法律法规体系及规制机制,首先要从源头上规范相关技术所使用训练数据样本的非歧视性,要求相关企业及时检查和更新数据库,并移除可能存在歧视性的特定数据内容。另外,建立AIGC技术的算法问责制度,完善相应的归责体系,明确导致算法歧视的责任主体以及各主体应承担的法律责任。完善算法解释与备案制度,根据AIGC的应用场景对算法进行分级,科学精准做好对算法备案、算法审计及算法问责的工作,在此基础上推动可信AI技术在内容生成上的合理适用,不断完善对AIGC领域的开发与治理。

“AIGC领域的监管至关重要。相关部门应制定综合的法律政策,以确保AI技术的安全应用。科技企业研发及使用AI技术时,应受到严格的监管审查,包括对算法和系统的技术评估、建模、调整等。同时,企业应增强算法开放性和透明度,将多种文化、种族和性别的数据纳入训练模型中,不断提升内容输出的正确性和公平性。”陈吉栋说道,“当务之急是发现和评估风险,这是一切制度反应的基础。”

张欣认为,企业作为开发者,最清楚技术的边界和限制,因此扮演着至关重要的角色,需要做好自我规制。具体来说,企业可以积极参与技术标准的制定,将隐私保护、公平价值等伦理规范内化到标准之中,再进一步将标准嵌入产品设计过程。“此外,社会公众是关键的监督力量,应积极发挥非营利性专业性组织的作用,同时增强用户的数字素养,鼓励用户主动参与到算法研发落地的流程之中。”

(作者:钟雨欣,冯恋阁,徐倩宜 编辑:郭美婷)