
“干活的Token,是简单问答的10倍,甚至100倍。”
在几天前中关村论坛的一场开源主题圆桌上,当杨植麟把“为什么涨价”的问题直接抛给智谱CEO张鹏时,收到了这样的回答。
张鹏选择用模型市场眼下正在发生的现实来回答,而这样的市场判断,在智谱刚披露的财报里,已经得到了验证。
智谱今日发布的财报披露,2025年公司收入7.243亿元,同比增长131.9%;毛利2.967亿元,综合毛利率41%;研发投入31.804亿元。
只看上面这一组数字,已经呈现出了智谱的2025:收入在快速放大,投入也在同步拉高,这家扎根五道口、由清华孵化的大模型公司正持续在基模研发领域投入,换取模型能力和市场位置。
但如果把财报中的收入结构拆开看,会发现智谱“激进”的技术投入,已经开始涌现回报。
云端API收入1.904亿元,同比增长292.6%,收入占比相比2024年,从15.5%提升到26.3%。
与此同时,智谱的业务已经覆盖218个国家和地区,连接超过400万开发者和企业,付费开发者规模达到24.2万。
翻译过来就是,API调用正在变成可靠的收入来源,甚至有进一步扩大的趋势。
进入2026年,智谱对GLM系列服务连续提价:2月上涨约30%,取消首购优惠;到3月,整体API价格较去年底提升约83%。
然而,价格上调之后,平台用户仍然继续增长,调用也没有出现明显回落。
财报发布后首日,市场迅速给出了积极反响,截至今天上午10点,智谱股价暴涨25%、突破870港元,市值来到4000亿港元区间。
以智谱为代表的大模型公司正在掌握定价权,这是这份财报和近期动态中给出的答案。
01
Agent驱动下的MaaS:调用开始“爆炸”
在上市前,相比起MaaS,智谱的主要收入路径其实很清晰:本地化部署。做项目、交付模型,但这一类收入集中在项目周期内,增长的持续性相对不稳定。
智谱在2025年的收入结构里,这一模式仍然存在。本地部署收入5.339亿元,占比超过七成,但财报同时提到,本地化部署业务为满足客户需求投入更多交付资源,导致毛利率阶段性下降。
所以,撑起财报收入和毛利率的,其实是GLM系列大模型本身。
财报显示,智谱2025年API收入1.904亿元,MaaS平台连接超过400万开发者,付费开发者规模24.2万。
调用量的激增,正在让MaaS服务的商业化落地愈发常态和持续。
国家数据局披露,截至2026年3月,中国日均Token调用量已经超过140万亿,相比2024年初增长超过1000倍,较2025年底的100万亿规模,在三个月内再次提升40%以上。

OpenRouter的统计进一步说明这一结构的变化:在3月中旬的一周里,全球模型调用量达到20.4万亿Token,中国模型占7.359万亿,环比增长56.9%,并连续多周超过美国模型。
其中,GLM系列模型和其他4家国产模型一同,在榜单前十名中占据了5席。
这组数据背后,是调用形态发生了变化。
在早期的Chatbot时代,调用的主要场景是问答,一问一答结束,Token消耗与文本长度直接相关。现在的调用更多侧重于Agent形态下执行任务,一次请求往往包含多轮推理、工具调用和结果修正。
OpenClaw这类Agent框架的爆发,把这种变化推到了极致。一个重度用户的日均Token消耗可以达到数千万甚至更高,而传统对话产品的月消耗通常只是百万级。
毫无疑问,这为包括GLM在内的头部基座模型提供了大量落地场景。
“GLM模型的Coding能力在全行业范围内取得了广泛的认可。随着旗舰模型GLM5的发布,智谱再次率先完成了从vibe coding到Agentic,也就是到智能体工程的跨度。”电话会议上,智谱CEO张鹏这样介绍GLM模型迭代策略。
而根据财报披露,中国前十大互联网公司中已有9家接入GLM模型,集中在代码生成、自动化流程和Agent执行场景。
这些调用并非“样板工程”,而是实打实在业务流程内部运行。一旦模型进入业务流程,API调用这件事,就逐渐变成了一个系统行为。
“面对2月以来供不应求的市场,我们将继续加大投入国产芯片软硬一体化的调优,将推理性能压榨到极限。”电话会议上,智谱CEO张鹏这样总结道。他表示,“这不是为了短期的盈利,而是为了支撑那条不断上扬的高质量Token消耗的指数型曲线。”
以Coding能力为基座,以Agent为落地场景,这就回答了为什么API收入能够“撑”起智谱这份财报。
02
从调用到价格:智谱为什么能涨价
事实上,从几年前百模大战开始,国产模型在行业中一直在比拼性价比。“每百万Token多少钱”成为了各类模型分析中的关键指标,价格也成为了一种最直观的竞争手段。
但从去年底开始,这个逻辑出现了明显变化。
回到OpenRouter的榜单上,在全球调用量前十的模型中,中国模型已经占据半数以上,且主要由海外开发者驱动,这意味着以GLM为代表的国产模型不仅依靠中国市场,也在全球开发者生态中发挥重要作用。
同时,国产模型在多个榜单中占据主导位置。近日,全球权威LLM Agent(大模型智能体)基准测试机构ClawBench更新了2026年3月评测数据,其中,智谱旗下GLM-5-Turbo模型以93.9的高分登顶全球榜首,成为当前全球智能体能力最强的大模型;同属智谱的GLM-5模型以91.7分位列榜单第6位。
技术驱动和Agent调用激增的双重背景下,大模型行业的供需关系开始发生变化。
智谱是行业中最先做出反应的AI公司之一。

公开信息显示,2026年一季度,GLM Coding Plan上涨约30%,GLM-5-Turbo再上涨约20%,累计涨幅超过80%。
值得关注的是,在价格上调之后,用户侧调用没有下降,反而进一步向Coding和Agent场景集中。
显然,当模型真正能提供生产力,API产生的调用不是“可有可无”的需求,而是用户侧的刚需。而在AI生产力领域,Coding扮演了一种基座级生产力的角色。
在几个月前的AGI-NEXT论坛上,智谱创始人唐杰曾表示:“DeepSeek之后,行业需要思考的是‘下一场战役’的核心方向。我们团队为此争论了无数个夜晚,最终,智谱决定将所有精力都投入到Coding领域。”
同样在那场论坛上,腾讯首席科学家姚顺雨也提到,在Coding场景,“用户愿意为最好、也最贵的模型付费”。
显然,智谱财报中的表现,正是上述路径的延续。
更直接的信号在用户侧的真实使用上。GLM-5上线后,由于需求过高,出现阶段性限流。当供给成为约束,大模型公司也就有了掌握定价权的底气。
再看GLM系列的发展路径。
GLM从4.5到5,再到5-Turbo和5.1,能力提升集中在长上下文、多步推理和工具调用。这些能力直接对应的是Coding和Agent场景,聚焦于最具价值的调用场景。
底层效率也在同步变化。智谱通过架构优化,将推理成本压缩到原来的50%,同时保持性能。这让高频调用成为可能,也让高价值调用具备规模基础。
而在模型技术路线上,智谱GLM系列一直是Coding能力的领跑者之一。GLM5系列在多项权威评测中取得全球开源第一、综合排名全球前三,并在Code Arena编程榜与OpenAI、Anthropic并列第一。
在算力侧,GLM模型已经进入国产芯片的软硬协同阶段,通过系统级优化提升推理效率。这意味着供给端也在逐步适配调用增长。
调用结构、模型能力、算力供给,这三件事在同一时间发生变化。
在电话会议中,智谱CEO张鹏提出了TAC(Token Architect Capability)框架,这个框架可以用一个公式来理解:AGI商业价值 = 智能上界 × Token消耗规模。
把这个公式套在财报里就会发现,当模型开始形成生产力,调用规模进而快速放大,收入自然随之增长。
显然,不是所有模型都有资格涨价,只有那些被放进生产流程、承担实际任务的模型,才有这个能力。
再回到智谱这份财报。
超过30亿的研发投入,显示出智谱还在持续加码模型能力和算力基础。尝到了靠API赚钱的甜头后,智谱没有因此停下强化技术路径的脚步。
在瞄准AGI的赛道上,智谱不是唯一的参与者,尽管它已经是少数跑通MaaS商业化流程的公司之一。
掌握定价权,并非是一个一劳永逸的节点,而会是一个动态竞争的过程。掌握了先手定价权的智谱,无疑想要把技术路线的红利,逐渐转化为AGI赛道上的长期竞争优势。
上一篇:富春染织2025年第四季度业绩暴增PEEK材料业务提速打开新增长空间 富春染织有望迎来大暴涨吗 富春染织四季度业绩预估
下一篇:物管行业进入转型“深水区” 永升服务总裁林祝波:不再单纯追求规模 物管行业进入转型“深水区” 永升服务总裁林祝波:不再单纯追求规模