在AI还尚且未达到生产力工具的时候,没人能知道怎样的基础模型会是尽头,以及对付费客户而言,他们如何才能将这笔投入转化为真实营收。
而对于大模型究竟什么能盈利,目前国内的任何一家都未表过态。或者说,这不是一个当下能放到台面上的问题。
作者|思杭
编辑|皮爷
出品|产业家
“今年我们的重点是AI应用,但估值也不能太高”,一家早期投资基金告诉产业家。
一年前的大模型还可以说是一片“盛世”,无论是大模型明星公司的排队融资,还是大佬亲自下海创业,抑或是云厂商纷纷抢占AIGC卡位,都是如此。然而,19个月后的今天,这种繁荣背后似乎隐藏着一些不寻常的信号。
据纽约时报报道,截至今年8月,OpenAI营收破下3亿美元大关,同比增长1700%,并预计2024年收益达37亿美元,甚至到明年,OpenAI的营收会破百亿美金。紧接着,随着这份财务文件的披露,OpenAI又迎来本年度最大融资,融资金额66亿美元,估值飙升至1570亿美元。
然而,在这份偏向资本的数据背后,硬币另一面还有一组数字:2024年,OpenAI亏损达到50亿美元,包括运营成本和管理成本,不计算股权补偿;据The Information,到2026年,亏损还将持续上升至140亿美元。
大模型居高不下的成本,让即使有着全球1.8亿个人用户和100万企业订阅用户的顶级AI公司,也很难在短期谈得上盈利。
如果把视线拉回至国内,肉眼可见的是大模型市场的“降温”。在“预训练”和“AI应用”两个核心主节奏的背后,对应的是不同AI大模型企业对2025年甚至接下来的Q4路径选择:继续烧钱,还是进行商业落地验证?
从长远来看,这并不是一个悖论。但如今真实的客观情况是,在AI还尚且未达到生产力工具的时候,没人能知道怎样的基础模型会是尽头,以及对付费客户而言,他们如何才能将这笔投入转化为真实营收。
在近日AI六小虎之一的零一万媒体沟通会上,李开复明确表示将会持续投入预训练大模型,并且在既有的投入基础上进行更为深入的基座大模型能力强化,以构建后续可持续的大模型盈利模型。
但验证的时间需要多久?开源、闭源的模型算法到底是不是能够被客户买单?其PMF需要在什么时间得到验证,这些并没有清晰的回复。
而从更大的视角看,几个需要被看见的问题是:对如今中国的大模型企业而言,大家的生存状态如何?留给企业的“烧钱”空间还有多少?更重要的是,在持续了一年的百模大战和近半年的价格战后,选择留在这条路的还有多少?
一、从烧钱到赚钱,
大模型要填补多大gap?
8月份的“财报季”,迎来了几大云厂的喜讯。
比如,阿里云二季度实现营收265.49亿元,同比增长6%;百度智能云则在二季度同比增长14%。在各家云厂商的财报中都强调了AI所拉动的增长,而这部分的增长除了对云业务的贡献,还包括部分C端业务。
同样地,与大模型深度融合后,中国云市场总支出额也毫无意外地实现了一定程度的上浮。其中,据Canalys,2024年第二季度中国云基础设施支出总额达到94亿美元,同比增长8%。
而在上述喜讯的背后,大模型的真实水温究竟是怎样的?
从甲方客户来看,对于大模型的态度一定是积极的,只是对于究竟要如何将大模型与自身业务结合,还需要进一步探索。据IBM调查,其以全球3000位CEO为样本,结果显示,积极拥抱生成式AI的CEO占到75%。
当落到具体的大模型项目上,笔者在《190款大模型背后:揭秘600天后的中国大模型产业落地「真相」》文章中分别盘点了云厂商和大模型创业公司近两年的中标情况,总体而言,政企客户对于大模型的建设意愿更高,而且今年的中标金额,相比去年也更加可观。
这些都只是大模型toB的生意,虽然目前来看,B端也正是国内大模型盈利的主要来源;然而,要知道,除了大模型的私有部署,对于大模型厂商而言,其另外一层想象力是在流量端,也就是toC生意。
而对于C端,尤其是市场上用户感知最强的AIGC类应用,国内目前普遍采取的是免费商业模式。
之所以“免费”的原因是,目前国内还没有出现真正的杀手级应用,在没办法给用户提供足够强的产品体验之前,收费策略很难奏效,甚至会适得其反。毕竟对于toC应用而言,有了流量就等于成功了一半。
但不可否认的是,在这个方向,市场普遍采取流量打法。无论是云厂商还是创业公司,都在采取多种策略来吸引终端用户。比如今年9月,百度文心一言正式升级为“文小言”,加码AI搜索;近日,月之暗面也推出Kimi搜索版,而且据月之暗面内部消息透露,公司早在年初便已着手进行文生视频领域的训练,同时,在包括B站、小红书等渠道上,各家也都在进行高额用户补贴。
实际上,对于文生视频而言,虽然大方向上都是为了吸引终端用户。但在细分方向,不同厂商基于自身定位,所采取的策略不同,达到的效果也将有所差别。
比如以智谱AI为首的公司,将文生视频嵌入其自身的AIGC应用内,这类大多数见于自身AIGC应用本身流量较好,通过文生视频能够继续加强其影响力;相比之下,还有另一类大模型公司则是将文生视频作为单独的应用,如MiniMax推出的海螺AI,希望通过其自身产品的强大功能,创造出杀手级应用。
无论是AI搜索,还是近半年大模型厂商正在“卷”的文生视频,其对应的都是在大模型预训练层面的持续投入。但对于这些训练AIGC应用及基础大模型的厂商而言,其背负的是巨额成本。
有数据显示,ChatGPT每天的运营成本要达到70万美元。在这其中,不仅涉及卡的成本,还有能源成本和其他训练成本等等。比如,参数1750亿的GPT-3耗能1,287 MWh,而参数2800亿的GPT-4耗能则达到1,750 MWh,也就是说GPT-3每次回答要消耗 0.0003 kWh,而GPT-4的每次回答消耗0.0005 kWh。
“对于大模型创业公司来说,能否继续维持训练模型,最考验的就是他们的融资能力”,常垒资本管理合伙人冯博告诉产业家。
而在这种持续烧钱下,即使是对大模型态度更为积极的美元基金也很容易“捉襟见肘”。比如融资15亿美金的Inflection AI,在0收入的情况下,关闭了其自身业务;再比如Stability AI也开始大批裁员,甚至CEO带头跑路;就连独角兽Character AI也放弃了自建AI模型。
据PitchBook统计,过去三年,投资人共“选中”了26,000个AI和机器学习项目,斥资3300亿美元。
在投资回报方面,对于C端免费的国内AIGC应用而言,短期内很难产生收益;同时,meta也表示做好了近几年都亏损的准备,但依旧会持续投入。
关于近期爆料的“大模型‘六小虎’中已有至少两家要放弃大模型训练”的说法。对此,冯博认为,“一方面这是非常考验融资能力的事情,另一方面,很有可能再训练下去也不会有本质区别了,可以适当停一停,没有必要疯狂训练,持续烧钱。”
二、大模型,走进十字路口
当成本与收益极度不平衡时,会出现什么现象?
可以确定的是,大模型的想象力绝不止眼前这些。但在不同厂商内部,大模型目前所扮演的角色实际上有很大区别。
对于云厂商而言,无论是对于云业务,包括对公有云的催化作用,还是对其他SaaS甚至C端业务而言,这个大模型“吞金兽”都还只是作为杠杆,以AI来撬动其他业务的收入。
对此,除了上文提到的百度智能云、阿里云、华为云、腾讯云等等云业务,被AI所撬动的核心业务有两个,即云服务和上层应用。
在过去的多年时间里,云计算厂商的想象力更多是基于IaaS、PaaS、SaaS的三层架构进行延展,而其中云厂商在宣布被集成后其商业价值更多体现在底层的资源层和中间的PaaS层,也就是常说的基础云产品、数据库容器等中间件产品,这些是云厂商的大头营收。
但伴随着AI的出现,既有的IT架构在被重构,比如之前的CPU产品如今都在升级成“CPU+GPU”产品,以及中间的对于算力、存力的调用模式和效率,再比如数据库层面更多的需要向量检索等等,这些都在成为新的企业需求。
而这也恰是如今云计算大厂AII in AI的原因之一,即其需要基于AI的战略重构自身的核心市场产品,进而在自身业务之外优化服务的产品和体系。
其次,在AI战略之外,被调动的还有企业的周边业务,如搜索、协同办公。在过去一年时间里,钉钉、飞书、企业微信这三家协同办公厂商也都不约而同地加入了AI功能,比如具有代表性的钉钉“魔法棒”和飞书的“My AI”。
在2024年9月飞书发布会现场,飞书也公布了一份数据:即飞书2023年ARR(年度经常性收入)达2亿美元,预计2024年将超过3亿美元。飞书CEO谢欣表示,虽然“仍处于亏损状态,但正明显收窄”。
除了上述将大模型作为B端产品的杠杆,其目前让终端用户最有感知,也是最能“造势”的存在便是AIGC应用,比如文小言、豆包、腾讯元宝和通义千问。
这些厂商为了让它们的AIGC应用在市场上占据一席之地,除了追逐ChatGPT,还先后增加了上文提到的诸如AI搜索和文生视频等功能,以此来提升影响力。毕竟,对于C端市场而言,一个真正的“杀手级”应用才最有可能产生商业价值。
尽管生态在繁荣,价格在降低,用户也在增多。但在面对大模型这个“吞金兽”面前,成本依旧是一大难题,对于云厂商和大模型创业公司都是如此。
如果说实力雄厚,且有着在云业务深耕多年经验的云厂商,面对大模型都需要使劲浑身解数;那么基于融资路径的大模型创业公司,则面临着更多挑战。
与云厂商不同的是,创业公司做大模型无法将其看作“杠杆”来撬动其他业务。这也就意味着其只能在模型计算和模型商业化的窄赛道内进行变现和市场验证,但众所周知,伴随着国内大模型价格战的打响,包括一系列从tokens到上层的数据治理、RAG等全部大模型解决方案和模式都很难被企业买单,对企业而言,则是更难产生对应的商业回报。
但能看到的是,长远的布局仍在持续。比如近日上线的Kimi搜索版,在这一动作背后,对应的是其希望在未来AI搜索上占据一席之地,而延展到商业价值则是,企业自身的广告价值和交易价值会被市场大大认可。在冯博看来,“通过尽可能触达终端用户,这类有软件、有应用有流量的公司,未来极有可能发展为新的互联网公司,那么届时,商业化也将不再是难题。”
但短期来看,大模型创业公司为了活下去,则是ToB和ToC两手抓。除了持续探索AIGC类应用,以智谱为首的创业公司,已经开始大刀阔斧地开拓ToB市场,从2024年整体中标情况即可看出,在目前的大模型“六小虎”当中,智谱是中标最多的公司,然而从中标金额来看,其平均金额则要低于像电信运营商和百度智能云等大厂。
冯博告诉产业家,一方面,现在对大模型需求最大的是政企大客户,“而对于他们来说,天然会选择同样有着国资背景的电信运营商;另一方面,在选择服务商时,品牌在大客户眼中则显得更为重要”。
而从另一个视角来看大模型创业公司的生存处境,可以注意到,在智谱的最新一轮融资中,领投方为中关村科学城公司,该公司正是海淀区政府为推动科技创新而设立的市场化投资平台。此外,在参投方中也包含了三家国资力量。更近期,智谱还连同两家公司,共同出资建立基金。
而从智谱的投资图谱可以看到,其投资的公司几乎覆盖了大模型全产业链上的公司,从基础设施公司,比如行云集成电路、无问芯穹、基流科技等,到模型层公司,如面壁智能、生数科技,最后到上层的应用类公司,如面向法律领域的幂律智能,以及前妙鸭产品经理张月光的创业公司沐言智能等。
毕竟不同于云厂商,智谱作为大模型创业公司,如果想真正在ToB市场闯出一片天地,建立自身生态是更为聪明的做法。
大模型公司亲自下场做LP,所释放的另一层信号则是,加速构建生态圈的同时,其也正在寻求新的盈利方式。
三、烧钱背后:
中国AI大模型企业下一步会走向哪?
“对于像我们这种早期基金来说,重点会放在AI应用上”,常垒资本管理合伙人冯博告诉产业家。一方面,AI应用短期内可以产生收入;另一方面,不同于大模型公司,AI应用的估值也不会太高。
实际上,不止是AI应用和其它Agent智能体等公司,如今的AI应用已经成为大模型公司接下来的重点任务之一。傅盛也曾公开表示,“想不到大模型怎么赚钱,大模型套壳是可以的,只要有用户就能赚钱。”
大模型“六小虎”之一零一万物CEO李开复也曾公开发表文章,表示做AI应用的态度:
追求 AGI 与让模型能力落地并不矛盾,甚至应该说是相辅相成的。从行业角度来看,只有应用层的繁荣才能引导整个生态走向良性循环;从公司自身的角度来看,成功的应用能够带来稳定的经营现金流,成为支撑 AGI 探索的商业基础。
然而,基础大模型研发与AI应用究竟是否冲突?对此,云厂商和大模型创业公司的看法可能也并不相同。
从现实情况来看,可以看到的是,在云厂商内部已经开始进行上层应用的布局,比如今年9月,百度智能云针对智能客服场景,新升级的百度客悦;再比如京东针对电商场景推出的AI数字人;以及华为云针对提升程序员工作效率,推出的华为云CodeArts盘古助手等等。
尽管这类应用可能会重新进入到SaaS战场,但从AI的视角来推进,其产品竞争力、产品收费模式、产品面向人群都或将有所不同。
其次,对于大模型创业公司而言,也同样开始关注商业化问题,并将重点放在AI应用上。比如近日零一万物也宣布了其toB商业计划,其中包括面向零售和电商场景的AI数字人。
再从中标项目的视角来看,结论则会更加清晰。在产业家之前盘点的中标项目可以得出结论,虽然到今年中标金额更大,也更规模化。然而,仔细看创业公司和云厂商中标的项目类别可以看出,云厂商拿到的订单已经开始偏向AI应用,比如智能客服和数字人等等。
而相比之下,对唯一能查到大规模中标的大模型创业公司智谱而言,拿到的订单如今更多则是聚焦在大模型预训练层面。
究其原因,云厂商所能提供的服务则更系统,也更“一站式”,无论是从大模型底层的云服务和AI Infra,还是模型训练服务,抑或是上层的应用,都较大模型创业公司更具优势。
然而,生态的建设需要时间,这并不代表大模型创业公司完全没有优势。基因不同,定位不同,自然也决定了其未来的发展路径。作为大模型创业公司,既可以成为云厂商生态里的一环,也可以自建生态,况且两者并不冲突。
此外,除了重新思考自身盈利模式,大模型创业公司还需要做的则是补充toB的服务能力。不同于云厂商过去对B端客户所积累的大量行业know-how,大模型创业公司在toB的探索则仍处于初期。
回看过去云计算时代,在竞争格局方面,如今的大模型时代与过去也有着相似之处。
在冯博看来,如今的大模型创业公司所面临的竞争是双面夹击的,其一是云厂商和传统互联网公司,如科大讯飞、商汤科技;其二则是行业数字化的IT厂商,他们虽然没有大模型,但是凭借着多年的行业know-how,则可以用开源模型训练来交付客户。
因此,可以看到,大模型公司面临的除了盈利困境,还有强大的竞争对手。
据纽约时报披露的OpenAI财务报告,目前,ChatGPT每月有1000万用户,支付20美元的订阅费,也就是说ChatGPT的订阅费可以达到每月2亿美元。OpenAI还表示将会在年底涨价2美金,并将订阅费在未来五年涨至44美元。而在这样的财务模型下,OpenAI表示预计2029年才能实现盈利。
而对于大模型究竟什么能盈利,目前国内的任何一家都未表过态。或者说,这不是一个当下能放到台面上的问题。