21世纪经济报道记者李览青 上海报道
大模型时代的AI Agent(智能体),就像互联网时代的APP,在大模型与产业落地应用之间,AI Agent为实现“链接”提供了可能。
在近日举办的2024年世界人工智能大会(WAIC)上,21世纪经济报道记者注意到,各行各业的专业智能体应用已“百花齐放”,金融行业探索AI Agent专业智能体应用的脚步也在加速,如支付宝在WAIC期间就推出了基于蚂蚁百灵大模型的AI Agent支付宝智能助理。
然而,在与从业人员、专家的交流中,记者发现,金融业Agent的应用“道阻且长”。
一方面是自主决策能力的不足,目前行业依然停留在“问答式”的初级应用中。更重要的问题在于,智能体的复杂结构所带来的风险,仍然是未知数。
如何让Agent从具备丰富知识的行业“优等生”,成为金融场景应用端的“熟练工”?已经成为大模型时代科技厂商、金融机构以及监管部门的必答题。
智能体应用落地进入初级阶段
2024年被视作AI Agent爆发的元年。
IDC在今年1月发布的《2024AIGC应用层十大趋势白皮书》中提到,在接受调研的100家年收入超过5亿的大型企业中,所有企业都认为AI Agent是AIGC发展的确定方向,同时50%的企业已经在某项工作中进行相关试点,另有34%的企业正在制定相关应用计划。
中国信通院华东分院人工智能事业部主任常永波告诉记者,相比于传统的AI智能助手,例如Siri是面向所有人提供相似的功能,未来通过Agent每个人都能获得个性化、专属于个人的智能助手。
据记者了解,AI Agent的落地应用可以分为单一任务场景与多任务场景,前者聚焦垂直赛道,后者则是从通用大模型走向通用Agent,最终有望是按调配资源并自主集合,形成问题解决方案。从Agent产品形态来看,目前仍处于“问答式”落地应用的初级阶段。
冰鉴科技研究院高级研究员王诗强向记者提到,与传统机器学习AI相比,生成式AI在非结构化数据解读的优势较大,可以应用于信用评分、风险分析等场景,而AI Agent将进一步增强AI与用户的交互能力。
“在小雨点集团的业务流程中,目前人工智能技术已在贷前、贷中、贷后的业务全链条实现了应用,但主要还是集中在贷前的市场拓展、获客等场景。”小雨点集团首席技术官许慎告诉记者,“虽然大模型在贷前的应用比较广泛,但并不意味着技术已经非常成熟,其主要原因还是在于,贷前、贷中、贷后等不同流程对风险的容忍度是不同的。”他坦言,在贷中、贷后等领域,大模型的准确度要求更高,还需要满足一系列监管要求,也正因如此,在探索Agent落地时,小雨点在内部系统运维、智能客服等领域已经开展相关应用,但对Agent在业务侧落地还保持谨慎态度。
在一家头部科技公司的WAIC展区,一位产品经理向记者坦言,“我们虽然演示了金融行业的相关应用,但效果还不理想,所以没有大规模推向市场。”他表示,目前实现用户交互的大模型应用主要还是通过“对话+搜索”的问答形式,而理想情况下的AI Agent应用是,当收到一个问题时,AI可以通过自主决策自行拆解任务、调用工具最终生成内容甚至直接解决问题,这一应用在金融专业领域的效果仍有很大进步空间。
金融业直面AI原生时代治理难题
“AI Agent或开启AI原生应用时代。”中金公司在一篇研报中指出,当AI Agent从基础形态迈向通用形态,将带来应用侧的进一步爆发。
在金融领域,对大模型决策的准确率与精确度要求更高,这也带来更为复杂的风险。
在多位受访对象看来,AI Agent带来的风险既包括原有大模型内容生成过程中产生的幻觉问题,也包括在交互性加强后在应用的“端侧”产生数据安全、工作流程管控等合规问题。
马上消费金融人工智能研究院院长陆全向记者指出,AI Agent带来的调整主要有三个方面,一是数据来源可能存在的风险,他表示智能体与普通的AI工具不同,需要大量数据训练,这些数据来源本身可能带来风险。
“AI Agent未来应该是一个系统化的产品,在端侧实现应用需要积累大量用户数据来开展,如何保障数据安全就至关重要。”常永波也提到,例如微软在Windows11中加入的AI助手Copilot就加强了本地的数据安全管理。
陆全提到的第二个风险来自于智能体的使用过程。“过去是通过人工输入、输出确定的内容,这样更容易控制人工智能的使用范围,而现在的智能体拥有更高的智能水平,其工作流程很难管理。”
第三个风险来自于智能水平发展的不确定性。“因为有一些不可预见的风险出现,所以金融行业的人工智能治理不能‘刻舟求剑’、‘缘木求鱼’,而是根据技术发展不断增强治理水平,从而实现共生治理。”陆全表示。
在许慎看来,包括AI Agent在内的生成式AI技术至今没有在金融行业深度应用与大规模推广,最主要的问题还包括监管治理框架尚未完善。
“金融的核心业务场景和医学很类似,决策准确率的99.9%和0%在某种意义上没有差别。其实作为人,医生也有出现误诊的概率,但是对这一错误的责任划分已经非常清晰。如果AI出现误判,谁来承担这一决策失误的责任和后果?”许慎提到,以医学为例,大模型或许在一些证书的考试分数比人类更高,但在美国一位医学生要真正成为医生,需要10年的实习经验,这需要不断地实践来实现经验积累。“在金融领域也是这样,大模型或许在金融知识学习层面表现良好,但到实际应用层面更需要考验对业务、系统的理解,例如在风控领域基于大模型和矢量数据库技术,我们实现了10倍的效率提升。”许慎表示。
针对金融行业部分场景,监管侧对人工智能应用的治理已经在加速推进,金融科技伦理治理早已被纳入金融数字化转型的重点工作。
继2021年发布《人工智能算法金融应用评价规范》后,2023年11月央行发布《人工智能算法金融应用信息披露指南》,引导提升人工智能算法金融应用的透明度与安全性,指导行业披露算法组合信息、算法逻辑信息、算法应用信息、算法数据信息、算法主体信息、算法变更信息、算法审计信息等。
2023年8月,在中国互联网金融协会指导下,多家机构联合起草《互联网金融智能风险防控技术要求》,规定了互联网金融场景下智能风控所需满足的技术框架、功能要求、技术要求、安全要求与运行要求等。
(作者:李览青 编辑:周炎炎)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。