拥抱大模型,成为云厂商的必答题。
21世纪经济报道记者白杨 深圳报道
9月7日,腾讯混元大模型正式亮相。据介绍,这是由腾讯全链路自研的通用大语言模型,拥有超千亿参数规模,预训练语料超2万亿tokens,已具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。
在通用大模型领域,腾讯几乎是最后出招的科技大厂。低调一向是腾讯的风格,但不争一时热度,并不代表不有所为,混元问世之前,在腾讯内部已经迭代了多个版本。
对待大模型,中国市场展现了狂热的一面,截至7月,国内已经发布了超130个大模型。但是,这些大模型的规模和质量却参差不齐,特别是在经过大半年的产业摸索后,业界也越发意识到,中国的大模型既需要仰望星空,更需要脚踏实地。
其中,“仰望星空”是要对标国际顶尖大模型,进行追赶甚至超越,国内具备这种实力的企业并不多,因此包括腾讯在内的科技大厂被寄予厚望。然而,因为国内能用的GPU不是最新代次,所以算力短缺的情况不可避免,这意味着企业需要更长的时间来训练模型。
面对这种不可抗力,中国企业也在寻找一些创新性的办法来弥补算力短板,比如腾讯混元,就通过使用更稳定的网络、更高质量的数据去做训练,从而提升训练效率。
而为腾讯混元进行这些幕后支撑的,是腾讯云。腾讯集团副总裁、云与智慧产业事业群COO、腾讯云总裁邱跃鹏表示,“从开始支持大模型训练以来,我们对云的基础设施,从存储、网络到计算进行了全面升级。”
邱跃鹏
为大模型筑底
对于想要自己打造大模型的企业,首先要解决的就是算力问题。而在云上,能大幅降低算力的使用门槛。
随着大模型进入万亿参数时代,对算力的需求也不断增长,而单体服务器提供的算力十分有限,因此需要将大量服务器相连,打造大规模、分布式的高性能计算集群。这个时候,如何协同优化单机算力、网络架构和存储性能,也将决定最终的算力水平。
邱跃鹏称,腾讯云基于计算、网络、存储的联合优化,打造出的新一代HCC高性能算力集群,通过采用最新一代星星海自研服务器,并搭载国内最新代次的GPU卡,使该算力集群的算力性能较前代能提升3倍。
去年10月,腾讯完成首个万亿参数的AI大模型训练,在同等数据集下,将训练时间由50天缩短到了11天。如果基于新一代集群,训练时间将进一步缩短到4天。
过去一年,除了腾讯混元,腾讯云还助力了百川智能、智谱科技、MiniMax等创业企业快速打造自己的大模型。实践数据显示,不论是接入成熟的端到端解决方案,还是直接取用高性能算力,云都是企业打造大模型的最佳载体。
除了算力之外,打造大模型还需要海量的高质量数据。为此,腾讯云在云上打造了云原生数据湖仓、向量数据库。它们像“过滤器”一样,能够对大量的原始数据进行清洗、分类。
据邱跃鹏介绍,在性能上,腾讯云的云原生数据湖仓,已率先支持每秒百万级数据更新入湖以及Tb级海量吞吐能力。再配合最新发布的向量数据库,则能够实现10亿级向量检索规模、100亿级的离线数据清洗规模,并将延迟控制在毫秒级。
实测效果显示,对比传统方式,腾讯云的高性能数据处理引擎,可让原始数据清洗性能提升40%以上,运行综合成本降低50% 。
另外,针对很多企业希望在通用大模型的基础上打造专属行业大模型的需求,腾讯云在过去几个月内,也进一步完善了训练推理框架Angel和TI平台工具链。
邱跃鹏表示,在训练推理层面,腾讯自研的机器学习框架Angel,帮助腾讯高效地完成了混元的训练。现在企业和开发者也可以通过腾讯云使用该框架,去训练自己的大模型。
而TI平台提供的工具,已覆盖环境准备、代码调试、性能评估和部署全链路,可在每一个环节为大模型精调加速。所以借助TI平台,企业用户可以快速尝试多种大模型,并根据自身业务场景需求,在短时间内精调出专属的模型方案。
可以看出,无论是面向通用大模型,还是行业大模型,腾讯云都在不断完善相关的底座能力。在此基础上,邱跃鹏还提到了一个外界十分关心的话题,即大模型安全问题。
针对大模型的隐私安全问题,腾讯玄武实验室研发了业界首个轻量级隐私保护解决方案,可以供企业在终端侧部署使用。据悉,这一方案采用生成式双向脱敏技术,能够在用户与大型模型交互时,对部分提示内容做脱敏处理,从而保护用户隐私数据的安全。
在内容安全方面,腾讯推出的天御AIGC全链路内容安全解决方案,则覆盖了从模型训练到内容生成、后期优化全过程的内容安全建设,从而确保大模型可信、可靠、可用。
邱跃鹏表示,面对大模型的趋势,每个企业都会做出自己的选择,腾讯云要做的,是希望在大模型的每一层,比如算力层、数据层、模型层、应用层等,都能提供对应的产品。
重新定义云上工具
对于云与大模型的关系,邱跃鹏提出,一方面,高性能的云上算力,成了大模型的最佳助推器,搭载大模型能力的应用,也通过云服务的方式落地。另一方面,大模型也将重新定义云上工具,使其效能显著提升,从而让企业可以获得更高性价比、更便捷易用的云产品。
比如在业务安全的场景中,风控建模是非常重要的环节。通过对大模型理念的深度应用,便可以把“通用型”的风控能力,转化为针对企业自身场景调优的定制风控体系和能力,从而实现动态的风险治理。
腾讯云的风控大模型,就可以基于“样本提示”模式自动生成定制模型。以金融风控大模型为例,金融机构只需要少量提示样本就能构建适配自身业务特点的风控模型,从样本收集、模型训练到部署上线的全过程,不需要人工参与,原本需要2周完成的建模,现在只需要2天就能完成。
在代码创作场景,腾讯云推出的AI代码助手,能够帮助开发者在一个IDE内,完成所有代码的创作,包括解答技术问题、生成业务代码、单元测试、诊断代码缺陷等。
据腾讯云介绍,为了实现这个目标,腾讯云在模型层,使用了大量内外部精选语料进行训练和微调,在应用层,则针对各典型编码场景做了大量针对性优化。
实测数据显示,在生产中最实用的代码补全场景中,代码生成率提升至30%以上,即工程师提交的一千行代码里,有三百行以上的代码是由AI生成的,代码的采用率也超过30%。
实际上,无论是在对大模型的技术支持上,还是在对大模型技术的应用上,腾讯云的产品都表现的十分敏捷。而这,与腾讯云与智慧产业事业群提出的聚焦产品战略不无关系。
邱跃鹏指出,腾讯云转型目标就是要做好产品,并围绕产品需求去打造能力。这个过程中,首先要做好的是选品工作。“腾讯云不是所有产品都做,我们也在逐步做选择,看哪些产品是腾讯真正有积累的、真正有广泛市场需求的,这些是我们发力的重点。”
其举例说,前段时间有个企业董事长来找他,想基于腾讯云的能力开发一个App。但是,这个需求腾讯云并没有接,邱跃鹏说,腾讯云没法帮企业做App,但能提供开发App需要的能力,比如云开发、即时通讯、数据库等。
“对现阶段的腾讯云来说,这是很关键的一点”,邱跃鹏称,“很多客户提出的需求,所需的是特定的方案能力,而不是通用的产品能力。腾讯云现在希望能够持续迭代产品的能力,但如果需求没有识别清楚,那很可能做完一个项目,反而会拖累产品的长期发展。”
这种持续迭代的产品能力,在大模型中也已经得到体现。比如数据库,当AI浪潮来临时,腾讯云发现客户对于上下游的检索理解能力存在短板,于是快速地把腾讯内部使用的向量数据库进行了产品化,并迅速推向市场。
邱跃鹏坦言,要做转型,团队上下要统一,形成共同目标。“这个过程我们也花了半年时间‘松土’,让大家认知到变革和调整的意义,去做难而正确的事情。这确实比较煎熬,有点像减肥戒糖一样,身体需要适应的过程。”
但通过一年多的时间,腾讯云上下对于转型已经变得更加笃定,也更加适应。尤其是当技术革新来临的时候,腾讯云能够清晰的判断哪些产品应该由云厂商提供。比如面对大模型,邱跃鹏说,针对大模型相关能力的研究和投入一定是对的,所有云厂商都必然要去做好对通用人工智能的支持,这是一个必答题,没有人能不答这道题。
(作者:白杨 编辑:林曦)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。