全国服务热线:国际站
13872109629
在这条国内最滚烫的硬科技赛道上,天数智芯跑出了惊人的加速度:过去三年,公司收入分别为
这份成绩单将其推向了行业头部。按2024 年收入计算,天数智芯以 9.8% 的市占率位列国产通用 GPU 赛道第三,仅次于海光信息和沐曦股份。
但如果只看收入规模,很容易忽略另一条同样重要的变化:天数智芯的业务形态也在发生变化。
过去,天数智芯更像一家典型的GPU 产品公司,主要收入来自通用 GPU 的直接销售。2023年,通用 GPU 相关收入占比仍在90%以上。
而到了2024年,AI 算力解决方案的收入占比已经提升至30.8%,并开始成为新的增长来源。这在某种程度上预示着,公司正在从“卖芯片”,转向“交付算力”。
这种变化并非天数智芯一家的选择,而是当前国内GPU 厂商在商业化阶段普遍面临的现实。
某种程度上看,这种用更“重”的交付方式,弥补生态尚未完全建立的短板,或许是国产 GPU 走向规模化最现实的路径。
2022年,天数智芯收入为1.89亿元。到了2024年,这一数字增长到了5.4亿元,增长了186%。进入 2025 年后,增长节奏并未放缓,仅上半年收入已达3.24亿元,同比增长64.47%。
单说收入规模,仅看国内的国产通用GPU市场,天数智芯则拿到了9.8%的份额,高居行业第三,仅次于海光信息和沐曦股份。(A为英伟达,B为AMD)
与摩尔线程强调“全功能GPU”不同,天数智芯更聚焦在通用GPU(GPGPU)上,优先锚定在AI训练与AI推理这两个最现实、也最刚性的需求上。
最早的GPU,并不是为“计算”而生的。它的唯一使命就是图形渲染:把几何模型、纹理和光照快速变成屏幕上的像素。为此,GPU 被设计成拥有大量并行单元,擅长做同一种运算的重复计算——这正是图形流水线最需要的能力。
直到后来,研究人员逐渐意识到,这种“为图形而生”的并行架构,恰好也很适合另一类问题:大规模矩阵与向量运算。于是,人们开始“顺手”把 GPU 从图形管线里拉出来,用它来算图形以外的东西。
它的设计逻辑不是从图形反推,而是从负载反推:针对大模型训练中吞吐量大、精度要求多变、多卡并行的特点,直接优化计算单元。
在产品节奏上,天垓Gen 1于2021年实现量产,Gen 2于2023年第四季度量产并迅速成为收入主力;2024年第三季度,公司发布天垓Gen 3,并计划于2026年第一季度进入量产阶段。
从出货数据看,训练系列在2022 年出货7700片,2023 年回落至7000片,并在 2024 年维持稳定;但到 2025 年,上半年出货量已达6200片,明显高于去年同期。
智铠系列发布于2022 年底,定位为中国首款面向推理设计的通用 GPU。
与训练卡不同,推理卡的核心指标是低延迟、高吞吐和能效比。因此在架构层面,智铠系列对整数计算单元和数据通路进行了针对性优化,并广泛引入量化技术,以提升终端应用的实际性能。
甚至,为了适配更边缘的场景(如自动售货机、工业计算机),天数智芯还推出了功耗仅75W 的智铠 Gen 1X,它保留了完整的视频解决能力,但在能耗上做了极致设计。
受益于AI应用的爆发,智铠系列的增长势头甚至超过了天垓。智铠的出货量从2022 年的寥寥38片,激增至 2024 年的9800片。2025 年上半年,其出货量已达9500片,接近去年全年水平。
截至2024 年,训练芯片(天垓)依然是绝对的收入支柱,占比曾高达 99.3%。但到了去年年底,训练芯片的占比已降至 49.9%,而推理芯片(智铠)的占比则从0 攀升至 18.6%。
这背后的逻辑并不复杂。对于很多客户而言,买回来的GPU 只是零件,要把它变成能跑模型的算力,中间还隔着复杂的硬件集成和软件调试。
一种是通用GPU 服务器,相当于“即插即用”的标准化产品,就是将少数的通用 GPU 加速卡与完整的软件栈集成在一起,形成预配置的计算节点,大多数都用在企业级 AI 工作负载和大语言模型的快速部署。
另一种是通用GPU算力集群,适用于大规模训练、高吞吐推理等对算力密度和调度能力有一定的要求更高的场景。
相比单一服务器,这是一种更偏系统级的解决方案,将通用 GPU 产品与第三方服务器、存储和网络基础设施深度整合,并针对整体系统来进行调优。
在开辟AI算力解决方案的第一年,也就是2023年,该业务收入占比就达到了5.4%。2024年,这一数字又提升到了30.8%。
2022—2024 年,公司经调整净亏损分别为4.33亿元、6.10亿元和 6.45 亿元。进入 2025 年后,亏损并未继续放大,今年上半年经调整净亏损约 3 亿元,基本与去年同期持平。
2022—2024 年,公司毛利率分别是 59.4%、49.5% 和 49.1%,整体维持在接近50%的水平。对于一家仍处在产品快速迭代、尚未形成规模效应的通用 GPU 公司来说,这仍然是一个相对可观的水平。
在营业成本中,最大的一块支出来自芯片制造。2023 年,公司支付给晶圆制造商的费用达到 1.36 亿元,占当年收入的 47%。
换句话说,AI芯片厂商每获得2元收入,其中就有约1元需要交给下游代工厂。
训练芯片的毛利率整体更高,也更稳定。过去几年,训练通用GPU 的毛利率基本维持在60%左右:截至 2024 年底为60.2%,今年上半年虽略有回落,但仍保持在58.2%。
相比之下,推理芯片的毛利率波动明显更大。2024 年底,推理芯片毛利率为46.7%;到今年上半年,已从去年同期的52.9%下滑至32%。
招股书披露,自2024 年底起,多家竞争对手的新一代推理产品陆续进入量产阶段,市场供给显著增加。
在这种情况下,为了延长其在主流推理场景中的竞争窗口,公司主动下调价格,以维持在规模化部署中的性价比优势。同时,也为下一代智铠产品预留性能与价格空间。
从结果上看,2025 年上半年推理系列新产品的平均售价由上年同期的 1.14 万元下降至0.92万元,下调了接近20%。
2024 年,该业务毛利率为 31.7%;到今年上半年,提升至 45.7%。
原因在于,这类解决方案通常以“整机或整套系统”的形式交付,毛利率高度依赖于内嵌芯片的型号、数量以及第三方硬件配置。不一样的客户在规模、性能和部署方式上的差异,会直接拉开项目之间的成本结构,最终体现为毛利率的波动。
无论是已经上市的摩尔线程,还是准备冲击港股的天数智芯,在这些国产GPU 独角兽的招股书里,都能看到一个共同且反直觉的趋势:
在收入规模化的过程中,这两家公司不约而同地走向了更“重”的交付模式。摩尔线程的主要营收来自于集群产品,而“AI 算力解决方案”也正在成为天数智芯重要的收入支柱。
无论是摩尔线程的集付,还是天数智芯的算力解决方案,本质上都是在用“工程化的确定性”来弥补“生态的短板”。
这种弯腰做脏活、累活的集成模式,虽然拉低了毛利,却解决了中国 B 端客户最核心的痛点,开箱即用与合规可控。
这看似是商业模式的降维,实则是现阶段国产芯片跨越生存鸿沟的必经之路。只有先通过繁琐的系统工程把规模做起来,才有机会在未来反哺生态,最终从“卖项目”的系统公司,进化为真正“卖标准品”的芯片巨头。
PS:如果你对AI大模型领域有独特的看法,欢迎扫码加入我们的大模型交流群。
Copyright © 2020-2022 爱游戏官网首页 版权所有 备案号:鄂ICP备20006988号-2
地址:湖北省黄石市下陆区肖家铺路69号 电话:13872109629 邮箱:wbmotor@163.com 网络支持:爱游戏ayx官网平台
关注我们
