社论丨需重视AI对人类社会的历史性挑战

21世纪经济报道
2023-03-31 05:00

GPT-4以其超乎寻常的智能水平引发全球商业资本对投资AI的巨大兴趣,但也引发了人们的担忧。日前,埃隆·马斯克与上千名科技界人士签署并发表了公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练至少6个月。

公开信认为,高级AI可能意味着地球生命史上的深刻变革,应当投入相称的关注和资源对其进行规划和管理,但现在人工智能领域已经陷入失控的竞赛,开发者也无法理解、预测及可靠地控制。因此,应该尽快开发实施一套高级人工智能设计和开发的共享安全协议,建立人工智能治理系统,只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。

但是,公开信发表后遭到诸多知名人士的反对,他们大都是从事AI开发的科学家、企业以及相关利益机构。他们认为,AI开发一旦启动就没有办法停止或扭转这一趋势,指责暂停令是反市场竞争的,不利于创新,并且会扼杀AI的进步。事实上,他们认为绝大多数AI团队都注重人工智能的安全问题,现在应该在安全方面进行更大投资,提高透明度和严格审计,但这不必以暂停的方式进行。

这场争论看上去似乎与竞争有关,因为AI的发展不是线性的,而且GPT-4以及未来版本拥有了复杂的推理能力后会自发产生“涌现现象”,领跑者的优势会持续扩大。但是,除了是否需要“暂停”值得商榷外,实际上,一直以来,科学家对AI的担忧是持续而深刻的,并非基于商业利益。科学家霍金生前就曾警告,“如果我们不能学会如何避免(AI的)风险,我们会把自己置于绝境。”马斯克多年以来对AI保持警惕,2017年,他所投资的未来生命研究所就曾召集100多位经济学、法律、伦理学和哲学领域的思想领袖和研究人员讨论和制定了23条“阿西洛马人工智能原则”,其中第一条便是“人工智能研究的目标应该建立有益的智能,而不是无秩序的智能”。

GPT-4以其强大的推理能力以及涌现现象表明,现在是要从理论上警惕到实际上加以控制AI的时候了。因为AI发展得太快,连AI系统的发明者可能都难以确切知道它们是如何工作的,也不知道如何有效限制AI的行为,因此,我们必须设置一定的门槛避免AI在不可预测的黑盒模型中狂奔。科学家非常担心AI的能力被滥用,比如失控或者脱离计划中的使用场景而造成不可逆转的破坏和后果,这并非是杞人忧天,而是现实的威胁。

与此前的科技革命不同,过去的技术逐步迭代并缓慢影响就业,创造新的岗位,形成新的社会分配结构。但是,AI技术并非线性迭代进步,其能力会在短期内指数级增长,社会并没有为此做好准备。根据高盛的评估,ChatGPT生成式人工智能系统可能会对就业市场造成“重大破坏”,并影响大型经济体中多达3亿名全职员工。现在的问题是这种冲击可能太突然,而产生让整个社会难以承担的后果。从长期看,市场力量会强化AI带来的效率而加剧不平等问题,比如更大规模失业和工资降低的风险。

从GPT-4目前生成的文本、图片和视频看,它可以创造出真假难辨的新作品,从而可能会导致大规模的信息污染。使用者可以用它来创作,但如果被滥用于网络钓鱼诈骗、虚假信息宣传以及其他各种网络犯罪,将会造成严重道德问题与法律风险,目前的全球治理体系并没有做好准备。

毫无疑问,具有更高智能的AI时代已经来临。长期看,人类社会将面临高度的不确定性,对于大型经济体而言,这种不确定性风险会更高:更多的数据、大规模的应用场景,以及社会公平问题的后果也可能更严重。它不会像信息产业那样产生更广泛和持续的硬件生产、互联网服务创新,创造巨大规模的产业和岗位,因此,我们必须在大力推进AI投资和建设的同时,比任何国家都要重视AI的历史性挑战。这场争论给了我们一个及时的提醒。