中国AI新序章:从百模内卷到应用浪潮
属于科技产业的AI时代正在到来。
自2022年10月ChatGPT面世以来,大模型一路狂奔。
2023年,国内科技行业形成了“百模大战”之势,从基础大模型到行业大模型,各家飞速前行;到了下半年,越来越多的应用涌现,并在垂直行业落地商用。回望过往一年,业界群雄并起,却也伴随着重复建设的争议、面临着产业化的难题。
当竞速进入白热化,行业是否能找到合适的盈利点?如何更好在不同场景落地?又怎么解决算力掣肘的问题?
多名行业专家在接受21世纪经济报道记者采访时认为,虽然目前国内有200多个大模型,但是在2024年将会面临激烈的竞争和淘汰。另一边厢,生成式AI的应用仍将持续创新,其中B端产业应用潜力大,展现出新的商业模式和机会,C端赛道则主要集中在生产力工具和娱乐属性上。
整体而言,从2023年上半年的火热之后,下半年业界对于生成式AI、大模型产业化都更加理性,呈现出创新与谨慎并存的态势。
社科院数量经济与技术经济研究所数字经济研究室主任蔡跃洲认为,百模大战反映的是通用目的技术渗透到方方面面,面对全方位的颠覆式创新,如何迎接背后的挑战并抓住机会是重要课题。比如国内存在算力的问题,但是国内有庞大的需求,包括大模型的需求。“未来应用场景还是我们的优势,牵引国产供给能力的提升、技术能力的优化迭代,孕育着机遇。”他说。
2023:“百模”大战AB面
风投数据分析公司PitchBook数据显示,截至2023年10月15日,全球AIGC领域融资总额达232亿美元(约合人民币1656亿元),比2022年全年增长250.2%,其中AI核心(Al core)领域融资就达50.82亿美元。目前,全球AIGC新兴领域相关公司总数量已超过1500家。
火热之势可见一斑。包括百度、阿里巴巴、腾讯等在内的国内互联网公司相继发布了大模型应用,商汤科技、旷视科技、科大讯飞则发布了基于不同行业的垂直大模型。
公开资料显示,截至今年10月份,国内已经发布了238个大模型。今年6月,腾讯云首次正式公布行业大模型研发进展,并发布了面向B端客户的腾讯云MaaS服务解决方案。今年7月,华为发布“不作诗只做事”的盘古大模型3.0,深耕政务、金融、制造、煤矿、铁路、制药、气象等行业。
而阿里巴巴脚步明显更快。11月23日,阿里巴巴智能信息事业群旗下夸克团队对外发布了基于Transformer架构自主研发的千亿参数级夸克大模型。在此之前,阿里云已经发布了通义千问大模型,并且包括天猫、钉钉等在内的诸多阿里系业务均表示会接入。
阿里巴巴集团CEO吴泳铭表示,“每个人和企业都将具备个性化的智能助理,大模型时代,面向年轻人,夸克有巨大机会创造出革新性搜索产品。”
这些战略级创新业务,在阿里巴巴的组织上将作为独立子公司运营,业务上也将打破以往在阿里集团内的定位限制。
夸克技术负责人蒋冠军在接受21世纪经济报道采访时指出,夸克将是一个集合搜、用、存于一体的智能信息产品,所以夸克大模型的目标,也是对搜、用、存进行智能化升级。
尽管各家都在发布自己的大模型,但是真正成功落地或商用的案例并不多。毕马威中国科技、传媒及电信行业主管合伙人陈俭德在接受21世纪经济报道记者采访时表示,大模型赛道具有技术门槛高、资金投入多、商业模式尚不成熟的特点,尤其是在国内智能算力较为短缺的现状下,各家大模型在持续投入人力、算力、资金并实现商业化落地方面,可能会面临较大挑战。此外,也不排除存在“套壳”“蹭热度”等追风、投机行为。预计未来一段时间内,中国人工智能大模型发展将从拼速度、拼数量转向拼应用、拼质量,各类大模型及相关应用,将在性能差异、易用性、应用广泛性等方面接受市场化检验,实现初步出清。
资本的选择
事实上,在创业领域,AI商业化从来不易,机构们对于投资也是出手谨慎。
“哪怕整个AI赛道在如火如荼地创业,但相比往年,资本给到的扶持还是非常少。”非凡资本合伙人胡小婧对21世纪经济报道记者表示,AI应用层里,今年受机构青睐的是能够快速找到应用场景的企业,有一个非常尖锐的刚需切口,借此打开一个全新的市场,并且在收入层面能快速看到增长。
这些受青睐的应用可以分成“AI+”和“+AI”,今年上半年非常利好“+AI”类的公司,因为在客户的需求基础上再去拓展应用场景,能够看到比较好的效果。在下半年,很多AI原生类的应用也推出产品,开始服务客户。
若从全球视角看,目前则形成了“1+N”的格局,OpenAI的ChatGPT是“1”个超级明星产品,其他“N”款应用在从各个领域进行突破,当然格局也在不断变化之中,国内的企业正在加速追赶。
大模型层面也竞争激烈。Fasion.AI创始人兼CEO程斌告诉记者:“2月份的时候,我们还在讨论国内到底有哪两三家有实力训练真正的大模型,到5、6月份的时候涌现出来100多家大模型企业,每家都觉得需要有一个自己的轮子,某种意义上也造成一定的资源浪费。”
对此,360智脑专家葛灿辉也有同感,他预计,目前国内200多个模型到明年这个时候肯定不会有这么多。“在公有域剩下五到十家已经顶天了,私有域的也是非常残酷的淘汰赛。”他说。
谈及2024年的发展趋势,葛灿辉坦言,合作的效应一定大于自己去把一切搞定,做APP之间的互操作会非常方便,这是趋势。目前,360智脑大模型与OpenAI的API能做到100%兼容,第三方开源生态使用起来也更便利。
“最主要的硬实力追赶还是在底层硬件和底层模型,很多国内创业公司在推进私有模型的追赶,消费级硬件上的私有模型跟国外的差距并不大。”葛灿辉颇有信心地说。
2024:迎来应用浪潮
随着AI技术的不断发展,大模型在C端和B端应用领域展现出丰富的创新,然而,背后也隐藏着诸多挑战。
胡小婧指出,今年国内在C端大模型领域的投资相对较少,主要原因是国内大模型基础层的不确定性。一方面刚开始大家不知道大模型的进步速度,担心C端产品容易被基础模型迭代颠覆;另一方面也担心创业公司竞争不过国内大厂,这种谨慎态度导致机构对C端机会的观望。
但是C端仍有诸多发力点。胡小婧介绍道,C端的创新点主要集中在两个领域:“Save Time”和“Kill Time”。“Save Time”侧重于节约使用者的时间,例如生产力工具和效率工具。“Kill Time”则包括情感陪伴和游戏等,满足了用户在娱乐方面的需求,这两个分类涵盖了整个C端对于生成式AI新范式的主流需求。
B端应用上,大模型的应用呈现出两种主要趋势,一种是在原有的B端软件基础上,用AI工具增强原有解决方案,从而不断增强产品壁垒和客户价值。另一种趋势是AI Agent的崛起,即基于不同的任务解决方案拼接形成完整的工作流。
胡小婧认为,对于从事to B软件服务的公司而言,商业模式发生了巨大变化,在SaaS收费趋势后,兴起了流量式收费,即按照token来计费。这一新兴的收费方式为企业带来了新的盈利机会,但也面临着低价竞争和维持客户使用量的挑战。
小米集团技术委员会AI实验室大模型团队负责人栾剑向记者表示,现在的大模型,对于to B应用来说,正处于一个比较好的发展阶段,因为在提高效率方面看到了真实的效果。“相比之下,C端用户则对大模型的黏性不强,只在娱乐方面的接受程度较高。”他说。
商用艰难进化
生成式AI的产业应用滚滚向前,随之而来的商业化过程也面临着一系列挑战。
澜舟科技合伙人、首席产品官李京梅表示,上半年大家都比较“燥热”,预期非常高,下半年开始理性化,商业化阶段的挑战逐渐凸显。而为了解决商业化问题,寻找标杆客户成为关键一环。通过与标杆客户共同打磨,不仅可以获得真实的用户反馈,还能够在应用过程中发现问题并及时改进迭代。
对于商用难点,达观数据副总经理吕文超表示,目前单个场景能够产生的价值有限,客户的付费意愿与实际投入成本不成正比。
对于to C商业化的挑战,也有AI行业技术负责人对21世纪经济报道记者表示,虽然to C商业化相对较难,但一旦找到了契合的场景,成功仍然是有可能的。“在to B领域,很多龙头公司确实对AIGC有很强的需求,大企业付费意愿会比较高,关键在于我们的功能是不是真的能解决企业真正的痛点。”他说。
除商业模式外,在技术层面,同样存在阻碍生成式AI商业化的难题。
例如“幻觉”的问题。在大模型的生成中,经常会出现一些错误或者被称为“幻觉”的问题,这是在toB场景中目前还没有完全解决的痛点。
此外,IBM实验室数据与人工智能首席架构师徐孝天还提到了安全可信的问题,他表示:“模型的可信是很大的问题,特别是面对to B客户的时候,如果不把模型做成可信,非常难上线。”
上述观点和实践经验,共同描绘出大模型商用面临的复杂格局。商业化路径的探索需要理性思考和与用户紧密合作,同时要解决模型生成中的“幻觉”问题,并且确保可信性也成为商业化过程中的一项关键考量。
(作者:倪雨晴,陶力 编辑:林虹,骆一帆)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。