北京国家金融科技认证中心张海燕:负责任地应用金融大模型,需考虑社会、伦理、道德等因素

21金融街边万莉 2023-09-06 16:33

21世纪经济报道记者 边万莉 北京报道 

9月2日-6日,中国国际服务贸易交易会(以下简称服贸会)在北京召开。服贸会期间,北京市科学技术协会、中国通信学会、“科创中国”金融科技产业服务团举办 了《中国智能金融论坛——人工智能大模型助力金融科技高质量发展》。

会上,北京国家金融科技认证中心有限公司总经理张海燕发表了以“构建负责任的人工智能大模型金融应用评价认证体系”为主题的演讲。她表示,大模型同时带来产业变革,随着深度学习技术日益成熟,基于大语言模型的人工智能技术,逐渐向生成式应用转变。目前,金融机构边摸索、边实践、边出成果,同时也面临很多的卡点问题以及潜在风险。

基于此,张海燕提出负责任的人工智能大模型金融应用倡议,使用大模型要考虑更多的因素,而不仅仅是智能、高效、便捷,还要考虑社会因素、伦理因素、法律和道德因素。

普遍采用合作模式探索大模型金融应用路径

作为人工智能的新业态,大模型成为产业数字化和智能化的重要支撑,尤其是进入今年,大模型产业的狂飙正在上演,据不完全统计,今年上半年超过10亿级的大模型我国已经发布79个。

张海燕表示,从发展趋势来看,海量数据驱动的大模型通过强化学习和人类反馈,不断解锁新能力,与RPA等技术进一步融合,全面促进产品智能化、智慧化升级,实现双线互动,形成数据与智慧融合的演进,最终可能开向人机共治的时代。

大模型同时带来产业变革。随着深度学习技术日益成熟,基于大语言模型的人工智能技术,逐渐向生成式应用转变。张海燕认为,大模型在金融领域主要有三个方面应用:第一,以智能客服、智能投顾,以及创新交互体验为代表的交互领域;第二,风控,辅助风险预判以及舆情分析为主的金融风险防控领域;第三,辅助代码开发、金融咨询生成、嵌入式应用为主的生产工具领域(目前公认的大模型应用)。

“当前,金融机构已经普遍认识到大模型的潜在价值,然而由于技术的先进性和不稳定性,企业普遍采用合作、创新、共存的模式探索大模型金融应用的落地路径。”张海燕指出,在合作方面,以数据驱动大模型应用,通过内部数据整合,以及内外部数据的安全共享,满足大模型的数据需求,释放数据要素价值,也加速数字化转型;基于通用算力和专用算力融合应用支撑大模型的算力需求,使用通用算力进行万亿级、千亿级的基础模型训练,利用专用算力进行模型微调,降低大模型的部署和使用成本。

她进一步表示,利用联邦学习等新型范式是现代有隐私保护、安全加密技术的大模型训练框架,在保证安全与隐私的前提下,多方协作完成大模型训练,在创新方面通过大模型赋能传统金融产品和金融服务创新,拓展业务领域,创造利润价值,在银行内部运营管理中,通过引用大模型,改变企业内知识获取、内容创作、会议与沟通、代码开发与测试,进行全方位提升金融企业内部运营效率。

张海燕说,“在共存方面,由于金融业受制于训练成本、可解释性等问题,短期内仍处于大模型与传统模型共存的局面,但是我们也认为随着模型能力的逐渐提升和数据质量的提高,未来大模型将有可能超越甚至替代传统模型成为应用主流。”

她指出,由于金融机构兼技术能力和成本投入的差异,大型金融机构一般具备自建企业大模型的能力,而对中小金融机构主要采用专业领域的任务大模型,实现对大模型的轻量应用。

大模型时代金融面临诸多的潜在风险

在张海燕看来,目前大模型时代金融面临的潜在风险主要有三个方面:

第一,自主可控及金融数据安全的风险。客观来讲,国内科技公司提供的大模型,相较国际领先产品还是有一定的差距。在当前的情况下,从底层芯片到上层软件,未来也有可能受到管制和限制;也有可能金融机构基于海外的大模型技术形成的金融应用创新,也会形成新的卡脖子问题,可能会存在潜在金融数据泄漏和出境的风险。目前金融业也高度关注数据安全。

第二,发展不平衡,平台垄断的风险。打造基础大模型除了较高的训练和运营成本外,还需要顶尖的算法开发和工程化实现,研发门槛较高,基础大模型未来可能演化为类似于瑟缩引擎的基础平台,市场也容易形成赢者通吃的局面,可能会陷入市场不平衡竞争的情况。

第三,违背法律法规、科技伦理的风险,特别是科技伦理的风险。金融属于强监管行业,需要严格遵守相关法律法规和监管要求,大模型金融应用在算法可靠、公平透明、个人信息保护方面面临更高的合规性要求,一旦非合理使用,容易造成算法决策不透明,生成错误信息、内容违规、侵犯版权,包括泄漏个人的信息等伦理风险,并且因为在金融业,会导致客户的资金流失。

“此外,还有一些挑战。”张海燕表示,金融机构目前是边摸索、边实践、边出成果,但也面临很多的卡点和问题。例如,在本地化部署方面,大模型的成本更高;在模型及服务方面,通过模型及服务带来模型的便捷,但同时也看到风险集中的问题,可能引发数据安全、隐私保护、算法偏见等问题;在竞争垄断方面,头部科技企业利用自身先天优势,这样更容易形成技术垄断、服务垄断和技术依赖。

张海燕认为,在金融应用场景适配方面,金融领域的业务场景繁多,大模型对于不同金融机构、金融场景的适配度有待提高,所以目前行业级的大模型,还是在摸索和实践阶段。

基于此,北京国家金融科技认证中心提出负责任的人工智能大模型金融应用倡议。张海燕表示,负责任是指使用大模型要考虑更多的因素,而不光是智能、高效、便捷,可能要考虑社会因素、伦理因素、法律和道德因素。应用大模型要关注模型的安全、合理、可解释、透明、公平、可追溯以及责任性。大模型应用不是单一的群体和责任主体的行为,涉及到研发者、使用者和受用者等多个主体行为,要先理清楚各个主体间的责任边界。

(作者:边万莉 编辑:李玉敏)

边万莉

记者

关注央行、银行、金融科技等领域,欢迎爆料。微信:bwl1528790429(添加请备注单位及姓名)