5月13日,阿里巴巴公布截至2026年3月31日止季度(对应2026财年第四财季)业绩。财报显示,2026财年第四财季实现营收2433.80亿元,同比增长3%。其中,AI相关产品收入达89.71亿元,连续第11个季度实现三位数同比增长,占外部收入比重首次突破30%。截至2026年3月,百炼平台的客户数量同比增长了8倍。
在2026财年Q4财报分析师电话会上,阿里巴巴CEO吴泳铭表示,本季度的自由现金流是负数,是源于过去一年在AI方面的投入。但未来两年的投入仍会坚定持续,面向未来五年,AI基建投入资金会远远超过3800亿,因为这对于阿里是关键的窗口期。
AI营收连续11个季度三位数同比增长的亮眼成绩,也让阿里对AI业务未来的发展愈发期待。超3800亿的硬核投入规划,是阿里立志从传统“云服务商”向“AI算力基建商+大模型技术服务商”转型的战略押注,其核心目标直指缩小与头部厂商(尤其是字节跳动)之间的差距,抢占算力与大模型服务市场份额。毕竟,这一巨额投入的最终成效,将直接决定阿里在国内AI产业的未来命运。
Token调用量疯狂增长,算力供需缺口持续扩大
当前国内AI算力需求已进入指数级爆发期,核心衡量指标Token(词元)调用量的激增,直观反映出市场需求的狂热与供需的严重失衡。
国家数据局披露的数据显示,2024年初,中国日均词元(Token)调用量为1000亿;至2025年底,跃升至100万亿;今年3月,已突破140万亿,两年增长超千倍。根据全球最大AI模型API聚合平台OpenRouter最新数据显示,3月16日至22日,全球AI大模型总Token调用量为20.4万亿,仅中国就达7.359万亿,占全球的36%,周Token调用量连续三周超越美国,成为全球AI应用活跃度最高的国家之一。
分平台与应用场景看,AI算力需求呈现“头部集中、场景驱动”的特征。4月2日,火山引擎总裁谭待在最新的业务进展分享中提到,豆包大模型日均Token使用量超120万亿。这个数字在过去三个月内增长一倍,比2024年5月发布时日均1200亿水平增长1000倍,仅凭国内市场便跻身为全球仅有的三家日均消耗超 100 万亿的企业(与 OpenAI、谷歌并列)。
虽然不及字节跳动,但阿里在AI领域的客户增长也十分迅猛。截至2026年3月,百炼平台的客户数量同比增长八倍。API 调用量从 2025 年 11 月起便开始由 AI Coding(代码生成)主导,智能体可以解决如今越来越多的数字化工作的复杂任务,未来两、三年会是主流增长趋势。
大量Token消耗需求爆发的背后,是供给端的严重不足。同样以头部厂商字节跳动的AI大模型为例,由于需求的疯狂增长,字节跳动的Seedance 2.0服务已经完全不能满足现有用户的需求,于是字节跳动采用了降低部分免费用户服务额度的策略,比如对豆包的Seedance 2.0免费使用额度从过去的10点/日降为4点/日,甚至直接取消了旗下“随变APP”上大部分免费用户的Seedance 2.0视频生成服务。
就在上周即5月9日,《南华早报》援引知情人士报道,字节跳动今年的AI基础设施支出将超过2000亿元,这相比其去年底的计划至少增加了25%,如此重磅的投资也足以证明字节跳动算力的紧缺程度。
吴泳铭也在本次财报分析师电话会上直言:“目前阿里服务器没有一张卡是空的,客户的需求无法完全满足,排队的还很多,模型的价格预计未来还会上涨。”
阿里推全栈式AI布局策略,追赶头部厂商仍存挑战
阿里在AI领域已深耕多年,早已构建了“基建+模型+应用+生态”的全栈式AI能力,其核心优势集中于算力基建、企业服务与商业化落地等领域。
算力与基建层方面,阿里云作为国内市场份额领先的云服务大厂,具备大规模数据中心运营与弹性算力调度能力。平头哥自研AI芯片也成为阿里打造自主算力基础设施的底气,据悉,本财季平头哥GPU芯片已实现规模化量产,截至2026年2月,已经累计规模化交付47万片。不过,自研芯片在阿里云的部署量还是不大,但阿里未来有希望从GPU、CPU到存储、网络芯片实现全栈自研,目前主要是产能受限。
模型层面,阿里已形成“通义千问+多模态模型”产品矩阵。阿里除了4月发布的Qwen3.6-Plus大模型外,面向实时交互的开放世界模型HappyOyster及多模态模型HappyHorse等正分阶段推出。其中,HappyHorse 1.0开启灰测后,已吸引一批头部AI视频生成平台、短剧漫剧公司、广告及影视制作公司接入。
吴泳铭表示,阿里对世界模型、语音模型、视频模型、Coding模型都会进行布局和研发。目前百炼平台的主要收入是来源于自研大模型,但创业公司也是阿里云的合作伙伴。大模型MaaS业务将对公司的毛利率产生积极影响,预计阿里云的毛利率会有显著提升。
应用与商业化层面,阿里在B端市场,其百炼平台以自研大模型为核心收入来源,MaaS业务持续提升阿里云毛利率。C端则有望依托淘宝、支付宝、钉钉等生态加速渗透,同时也维持着“B 端优先、C端长期布局”的策略,毕竟B端客户付费意愿更强、变现效率更高。
生态协同层面,阿里AI与电商、金融、物流等核心业务深度融合,形成独特的数据与场景优势。同时,阿里也正在持续打造开放生态,与创业公司合作,构建“自研+伙伴”的产业生态。
而阿里未来三年(自2025年起)投入超3800 亿,也充分凸显了阿里对AI业务价值的认可,这笔巨额资金的关键作用主要集中于三大维度。其一,补齐算力缺口,缓解供需失衡,吴泳铭表示,投入重点用于数据中心、AI 芯片、高性能网络、智算集群建设,有望扩大算力供给,解决当前“卡脖子”的算力不足问题,支撑 AI 云收入加速增长。
其二,阿里也将借此机会强化硬件自研,降低对外部的依赖。通过平头哥AI芯片自研模式,推进硬件自研与产业协同,提升供应链安全性,同时降低长期算力成本。
其三,能够借此支撑模型迭代,缩小技术差距。充足的算力是大模型训练、多模态技术研发的基础,超3800 亿投入将为Qwen系列模型迭代、世界模型/视频等模型研发提供算力保障,助力技术性能提升。
不过,尽管阿里在AI领域的投入力度空前,但阿里要追上字节跳动的 AI 领先地位,仍需跨越用户规模、模型生态、应用创新三重关卡,这些都是阿里目前与字节跳动之间的主要差距。虽然超3800 亿投入能快速补齐算力短板、筑牢技术底座,但用户生态培育、模型创新能力提升并非短期资金能解决,阿里大概率将在 B 端市场持续扩大优势,而C端与综合生态的追赶,或许会是一场长期拉锯战。
总结
国内 AI 算力需求的指数级爆发,已将算力基建推至行业竞争的“风暴中心”。Token调用量的疯狂增长、供需缺口持续扩大的现状,决定了未来 2-3 年硬核投入将成为企业生存与发展的关键。阿里超3800 亿的 AI 领域投入,既是对当前AI算力市场需求的呼应,也是阿里自身从云服务商向 AI 全栈企业转型的战略抉择,精准补齐算力短板、强化硬件自研能力,为技术迭代与商业化落地提供坚实支撑。
短期来看,这笔巨额投入将助力阿里缩小与字节跳动在算力与模型技术上的差距,巩固 B 端市场领先地位。但长期而言,用户生态、应用创新、技术迭代速度的差距,并非仅靠资金投入就能快速弥合。阿里的 AI 突围之路,将是“算力筑基+技术自研+生态深耕”的长期过程,而这场投入的成效,终将在市场份额、技术壁垒与商业化能力上得到最终检验。
文章来自:电子发烧友
![]()
