Kimi杨植麟谈Token效率革命:开源让智能上限加速突破
杨植麟提出Token效率是AI突破关键,强调开源推动智能上限提升。
21世纪经济报道记者雷晨 北京报道
在3月25日举行的2026中关村论坛全体会议上,月之暗面(Moonshot AI)创始人杨植麟发表了题为《开源AI:加速探索智能上限》的主题演讲。
他指出,做大模型的本质是把更多能源转化为智能,而其中的关键在于通过技术手段提升规模化效率,尤其是“Token效率”的提升,将成为未来人工智能发展的重要突破口。
杨植麟在演讲中强调,规模化是过去若干年AI发展的基础,但真正的挑战在于如何高效地实现规模化。他认为,单纯依靠暴力增加算力和能源并不能持续推动智能进步,必须从三个维度同时发力:提升Token效率、扩展上下文长度,以及引入多智能体协作机制。
“Token效率,本质上是说同样的数据中能够学到多少智能。”杨植麟解释道。他表示,世界上有效的数据是有限的,如果能够设计出更好的网络架构或优化器,就能从相同的数据中提取更多智能。此外,长上下文能力也至关重要。通过Kimi Linear等新型架构,模型能够在更长上下文中实现更低损失,从而完成更复杂、更长时的任务。
在最新的Kimi K2.5模型中,杨植麟团队引入了“Agent集群”概念,即通过多个智能体协同工作,大幅提升模型处理复杂任务的能力。
他展示的数据显示,单一智能体模式下,任务复杂度与执行时间呈指数级增长;而并行启用100个智能体进行协作后,执行时间几乎不再随任务复杂度上升而显著增加。
“这就好比从0到1建造一家千亿美元公司,一个人可能需要100年,但100个聪明人一起协作,就能在短时间内完成。”杨植麟说。
在底层架构方面,杨植麟重点介绍了团队最新开源的技术——注意力残差(Attention Residuals)。该技术源自十年前何凯明等人提出的残差网络(ResNet)思路,但将注意力机制从时间轴“旋转90度”应用到深度上,使每一层都能结合之前所有层的输出进行计算,极大优化了训练效果。杨植麟透露,这一架构仅增加约2%的额外成本,却能显著提升模型表现。
过去十年,像Adam优化器、Attention架构、残差连接这些技术几乎成了无人挑战的标准。对此,杨植麟表示,“现在,随着算力提升和研发方式从纯学术向工程化、规模化验证转变,这些标准正在被重新审视和突破。”他强调,开源正是推动这一进程的关键力量,让更多研究者、企业和终端用户能以极低成本获取最前沿的智能技术。
杨植麟特别提到,在NVIDIA最新GTC 2026大会上,黄仁勋的主题演讲中已多次引用Kimi等开源模型作为芯片性能评测的标准。“如果你要发布一个新芯片,就必须通过Kimi或其他开源模型来评测性能提升。”他表示,这标志着开源模型正逐步成为全球AI产业的新标准。
展望未来,杨植麟认为AI研发方式将在未来两到三年发生根本性变化。三年前,行业主要依赖互联网天然数据加人工标注;去年,大规模的强化学习系统成为主流,通过人工筛选高质量任务进行训练。而从今年开始,AI将越来越多地主导研发本身——每个研究员将配备大量AI token,由AI帮助合成新任务、新环境,甚至定义奖励函数和探索新架构。
“在这样的前提下,整个AI研发会逐渐加速,”杨植麟说,“Kimi希望与整个开源社区一起,不断把智能技术往前推进,打造一个更完善的生态系统。”
(作者:雷晨 编辑:李新江,骆一帆)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。

