大模型上车激辩:行业噱头还是座舱跃迁?

21世纪经济报道 21财经APP 邓浩 苏州报道
2023-10-26 16:25

21世纪经济报道见习记者 邓浩 苏州报道

最近一段时间以来,以ChatGPT为代表的大语言模型不断传出上车的消息。比如梅赛德斯-奔驰向90万美国车主提供了搭载ChatGPT的MBUX信息娱乐系统;理想宣布“理想同学”加入了其自研的Mind GPT;奇瑞与科大讯飞共同举行发布会,宣布星火大模型将首搭星途星纪元ES;百度也发布文心大模型4.0,认为完整的一站式大感知模型,将重构智能汽车生态。

不过这些所谓的大语言模型都是部署在云端,基于车端的量产方案暂时还没出现。近日,在中国汽车工程学会在苏州召开了「2023国际智能座舱大会」,记者在现场调研和采访获悉,当前业内人士对大模型上车(这里的上车,指的是部署在车端的模型)及带来的用户价值还存在较大分歧。

一方面,供应商方面极力主张大模型能够为用户带来变革性的智能体验,降低交互复杂度,但另一方面,大部分主机厂认为现阶段大模型对于用户体验还没有产生杀手级应用,功能场景比较简单,同时如果在车端部署,又要产生大量的存储与计算成本,因此具体上车尚待时日。

大模型上车会带来什么?

中科创达高级副总裁常衡生认为,每一代交互方式的改变,对操作系统会带来革命性的改变。“未来大模型会成为操作系统的一部分,成为一个标准化的接口,基于此衍生出各种各样的应用。未来汽车是一个移动机器人,我认为大模型会在云侧和端侧同时运行,相互结合通过更好的用户体验。”

公开资料显示,中科创达的魔方Rubik大模型,已经与车厂客户合作,在智能座舱的语音助手、3D图形图像中得以应用。同时,中科创达称面向中央计算的整车操作系统,也会基于大模型的先进技术打造,实现创新的AI人机交互。

而微软中国汽车行业事业部经理邱欣邦,在谈到微软的方案时,则表示微软致力于让“大语言模型成为车端的外挂,尽量避免对现有系统做侵入式改造,不做‘除法’,做‘加法’,才能让可落地性更好。”在他看来,现阶段可以做的方案有自然交互,以降低交互复杂度,比如去除冗长的菜单选项,以及做汽车手册等企业私域知识的集成。

不过,某传统主机厂负责智能座舱业务的产品经理对记者直言,“当前的大模型基本是宣传性的噱头,主要还是语音对话闲聊、汽车说明书等,真正带给用户的可感知、有价值的杀手级应用几乎没有。”

奇瑞雄狮科技智能座舱中心总监何雷也对记者表示,当前大模型的价值还比较弱,只是做了一些闲聊的强化。同时他还认为,大模型实现真正社会价值的第一步,更可能是从工具化的角度着手,比如车辆设计,可以通过大模型分析整个互联网的数据,识别70、80、90等主流购买群体的特点,设计80%以上群体喜欢的造型、风阻、噪声等,因为此前的调研不可能调研这么全。

计算和存储是车端部署最大的阻碍

主动式、情感化的智能座舱,是现下整车厂宣传智能化的必备关键词。而要真正实现这一目标,大语言模型又似乎是必走不可的一条路。

百度智能汽车事业部智舱业务部和交付中心总经理王博就认为,大模型可以使用户的长尾需求浮现出来,比如车载说明书,不仅是通过模型理解语义,将说明书的操作播报出来(这样的交互还不够好),而是直接通过视觉交互来做演示。将来,也可以把各种应用的开发者、服务开发者、甚至电商、本地生活服务接入进来,充分满足用户的需求。

而要实现这种实时的服务,云端大模型受网络信号、推理时延问题,并不能完全满足用户的需求,客观要求车端也需要部署大模型。不过算力和存储压力造成这一问题在现阶段几乎无解。

大模型通常需要超10亿级的GPU计算能力,这要求芯片的算力至少要在万级Tops以上。而车端芯片的算力往往只有数百Tops,远达不到要求;同时,大模型也需要海量的内存来存储模型参数和中间状态,比如GPT-3就需要使用350GB的内存来存储模型参数,但车端芯片的内存容量通常只有几十GB。

中国科学院人机交互实验室主任王宏安认为,大模型如果要在车端部署,首先需要裁剪或蒸馏,以降低算力要求;同时算法要优化,语料要挑选,要有针对性,是为了辅助驾驶,还是辅助娱乐;最后,由于未来车上会有很多存储器,可以尝试使用如FPGA可编程存储芯片,使汽车在存储很多信息的同时,避免用CPU耗费更多的电力和计算资源。

不过何雷依据自己的业务经验,对记者判断说,实操仍会遇到较大阻碍。“即使是通过一定的裁剪和蒸馏成小模型,也很困难,因为大模型后面对应的是类似于专家库的数据,需要的存储空间非常大,可供参考的是,现在讯飞的人工智能提供简单的语音交互,已经是以G为单位了。”

东风汽车集团技术中心智能软件中心副总监冯超也认为,“我们还没有具体的上车计划,但我了解到放到车上肯定是不合算的,因为场景是短暂的,而算力又巨大,堆在车上,整车厂的成本压力会很大。”

(作者:邓浩 编辑:卜羽勤)