大模型融资战事启幕:MiniMax估值超25亿美元,互联网大厂“掘金”AI丨GAI进化论⑩
21世纪经济报道记者张梓桐 上海报道
4月19日,有市场消息称,中国AI初创公司MiniMax当前估值已经超过25亿美元。
此前,MiniMax进行了新一轮大规模融资,阿里巴巴为其中的核心领投方。
而在前一日,有媒体报道称,由王小川创立的百川智能进行新一轮数亿美元融资,将成为国内2024年最大AI领域融资之一。
来自参与的投资人证实,百川智能今年以来估值已超18亿美元(约合人民币130亿元)。对此,百川智能回应称:并未官方对外披露过最新融资信息,报道中涉及的金额也不准确。
但无论如何,一个有意思的现象是,上述AI明星创业项目背后或多或少都站着互联网大厂的身影。
以另外两家明星公司——智谱AI和月之暗面为例,在智谱AI2023年累计获得的超25亿人民币融资中,投资方囊括了美团、蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、好未来、红杉、高瓴等多家机构。
而此前有消息报道称,在月之暗面上一轮的融资中,大部分资金都来自于阿里巴巴,这也让阿里在这轮融资之后成为了月之暗面团队之外的机构大股东。而更值得关注的是,阿里这笔投资中有一部分属于算力支付。
“互联网大厂投资AI创业公司有着充分的市场逻辑:一方面阿里巴巴、腾讯都在AI大模型领域进行自研、这是业务上的天然协同性;另一方面,这些公司在成长性方面都有着很大的想象空间,因此在财务回报上十分可期。”一位AI创业公司合伙人对21世纪经济报道记者分析道。
明星创业项目
MiniMax母公司为名之梦(上海)科技有限公司,成立于2021年11月,专注于研发中文大语言模型,在今年6月获得腾讯等机构投资的超2.5亿美元融资后,其估值已经到了12亿美元,是国内目前估值最高的AIGC独角兽。
公司团队主要来自商汤科技等知名人工智能公司,创始人是商汤科技前副总裁闫俊杰。根据SuperCLUE发布中文通用大模型综合性评测基准2023年8月榜单,MiniMax的MiniMax-abab5模型在OPT排行榜位列第四,仅次于ChatGPT-4、ChatGPT-3.5和Claude-2,在国内大模型产品中排名第一。
2023年8月底,共有8家大模型公司通过了《生成式人工智能服务管理暂行办法》首批备案,其中除了百度文言一心、抖音云雀大模型这些较为知名的大厂外,MiniMax便于其中之一。
日前,MiniMax已推出自研角色扮演类AI聊天应用Glow、自研通用大模型ABAB,以及为金山办公等B端客户发布了相应解决方案。此前,MiniMax已完成3轮融资,投资方包括腾讯、米哈游等。
另一家公司百川智能则成立于2023年4月10日,由前搜狗公司CEO(首席执行官)王小川创立。其核心团队由来自搜狗、谷歌、腾讯、百度、华为、微软、字节等知名科技公司的AI(人工智能)顶尖人才组成。目前,百川智能的团队规模170余人,其中硕士及硕士以上学历员工占比近70%,研发人员占比超80%。
成立仅半年,百川智能接连发布Baichuan-7B/13B,Baichuan2-7B/13B四款开源可免费商用大模型及Baichuan-53B、Baichuan2-53B两款闭源大模型,平均每28天就会发布一款新的大模型。
Baichuan-7B/13B两款开源大模型在多个权威评测榜单均名列前茅,累计下载量超过六百万次。Baichuan2-13B在MMLU、CMMLU、MedQA、USMLE等几大权威评估基准中,以绝对优势全方位领先LLaMA2。
面临高昂训练成本
A创业的梦想虽然俯拾皆是,但从故事落地成产品,仍然需要真金白银的资金支持。这背后核心原因仍然在于大模型训练面临的高昂成本。
放眼全球,除了几大科技巨头外,几乎没有企业承担得起大模型训练的高昂成本,算力不实现普惠化,任何关于AI和科技革命的畅想都将是空中楼阁。
“目前偏大规模的算力需求以B端和G端为主,算力降本需求十分迫切,要利用有限资金获取更多元的算力,同时优化算力资源配置和利用效率。”毕马威中国数字化赋能主管合伙人张庆杰接受21世纪经济报道记者采访时表示,在计算资源方面,大模型的训练需要大量的计算资源,包括CPU、GPU、TPU等。虽然中国算力具备一定的基础,但在计算资源方面还存在一定的短板,各行各业在底层计算资源上存在缺乏,这会限制大模型的训练和优化。
据统计,OpenAI使用了1万-3万颗英伟达GPU来训练GPT-3.5模型。集邦咨询报告显示,如果以英伟达 A100 显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡。
价格方面,目前国内可以买到的H800价格已经高达20万/张,而A100/A800价格已涨至15万、10万/张左右。以2000P算力需求为例,H800 GPU单卡算力2P,需要1000张,预测用卡成本为2亿元;A800单卡算力约为0.625P,需要数量为3200张,预计用卡成本就高达3.2亿元。
除了买GPU显卡,服务器还要考虑整机配置运算,包括CPU、存储、NV-Link通讯连接等,以及电力消耗、场地租金和运维成本等因素,整个成本要超过6亿元以上,OpenAI则正在使用微软超级昂贵的超级计算机,耗资数亿美元、用英伟达数万颗芯片的Azure云进行算力训练。
(作者:张梓桐 编辑:朱益民)
南方财经全媒体集团及其客户端所刊载内容的知识产权均属其旗下媒体。未经书面授权,任何人不得以任何方式使用。详情或获取授权信息请点击此处。