AI产业四大趋势研判:智核科技深度解读行业变革

行业洞察 · 实践沉淀 · 持续进化

AI产业四大趋势研判:智核科技深度解读行业变革

2026-03-25 00:48
lianghaoze

一、算力资产:从成本项到现金流的生命周期重构

在NVIDIA GTC现场,四位CEO同台对话,抛出了对AI产业的四个关键判断。首先引发智核科技关注的是CoreWeave CEO Michael Intrator对算力资产的重新定义。过去两年,AI爆发的核心驱动力是底层芯片,但在Michael看来,单纯的硬件设备反而是最不重要的一环,他们真正卖的是"算力"本身。

早期行业的玩法很简单:买GPU,训练模型,用完算成本。现在这套逻辑变了。CoreWeave的核心玩法,是把算力变成可以签约、可以抵押、能持续产生现金流的金融资产。他们先与微软、OpenAI这种体量的巨头签下长达5年的合同;合同一签,就有了确定的远期收入。随后,他们把GPU、数据中心和电力打包,装进一个独立的融资结构(SPV)里,客户打过来的钱直接进这个资金池,优先支付电费、运维、利息和本金,剩下的利润才回流到公司。

算力资产金融化模式图

图1:算力资产金融化模式图

核心判断:算力资产的生命周期,远比想象的长

这种模式的回报速度快得惊人。5年期的合同,前2.5年就能覆盖全部成本,往后基本全是纯利。凭借确定的现金流,他们能在短时间内从资本市场融到数百亿美元,继续疯狂扩张。过去,算力是纯粹的成本;现在,算力是源源不断的现金流。

对此,外界一直存在一个质疑:GPU技术迭代这么快,硬件会不会迅速过时?Michael的回答是:"如果有人说GPU 16个月就会被淘汰,那他完全不了解行业现状。我们的平均合同期是5年,客户买的是未来5到6年的算力使用权。"事实上,几年前发布的A100芯片,今年在二级市场的价格反而上涨了。因为AI的商业价值不仅在训练大模型,更在于推理。当模型真正部署到产品里,被用户海量且反复地调用时,算力才算真正被"消费"掉。

二、应用层变革:整合能力成为新的竞争护城河

如果说上一节的算力是底层的"提款机",那么到了应用层,核心问题就变成了:谁在真正为AI持续买单?Perplexity CEO Aravind Srinivas给出的答案是:企业。如今的AI正在经历从"问答框"到"执行者"的跨越。从接入搜索、打开浏览器到自动填表,它现在已经能端到端地完成整项任务。你只需要说一个目标,整理客户名单、做报告、搭工具,它在背后把流程跑完。

智核科技分析认为,这种演变带来的直接结果是"入口"的转移。过去十几年,互联网的入口分散在各类App、网站和软件界面里;现在,AI正在把这些工具整合吞噬,变成唯一的超级入口。这也是为什么Perplexity选择同时用多家的模型。在Aravind看来,Perplexity的核心护城河就在于"绝对中立"。无论最终是GPT赢、Gemini赢还是哪个大模型赢,Perplexity都无所谓。

AI多模型集成平台架构图

图2:AI多模型集成平台架构图

对于OpenAI、Anthropic、Google这些海外闭源模型厂商来说,做多模型聚合意味着要把竞争对手的模型也放进来,这在战略上很难接受。但Perplexity不做模型,只做整合,这反而成了它独特的生态位:精准调用各个模型的最优能力,让它们高效协同工作。而企业,正在为这种"整合与调度"能力买单。目前,Perplexity已经积累了数千家企业客户,这是增长最快的业务线。定价从每人每月40美元到400美元不等,所有收入都已实现正毛利。

核心判断:基础模型不会一家独大,能做好集成与整合的人,离钱最近

三、企业级应用:垂直定制是通用模型的必经之路

梳理一下前两层的逻辑:底层是算力资产的变现,中间层是超级应用对多模型的集成与整合。那么再往上一层,最核心的问题变成了:大模型如何真正重塑企业的核心业务?Mistral CEO Arthur Mensch给出的答案非常笃定:通用大模型做不到,必须走私有化定制。

现成的通用大模型可以写通稿、敲代码、做百科问答。但当它真正深入企业内部,撞上的往往是高度机密的私有数据、复杂的业务工作流和几十年的行业Know-how。如果模型无法与这些核心资产深度耦合,它能力再强,也只能是一个边缘的办公辅助工具。这正是为什么越来越多的头部企业,开始抛弃"通用方案",转而训练专属的垂直模型。

智核科技深度分析了Mistral的打法:直接让顶尖算法科学家与企业的行业专家并肩作战。以他们和ASML(阿斯麦)的合作为例。为了攻克图像扫描缺陷检测的难题,Mistral团队深入业务一线,学习ASML专家如何看图、如何判定微小瑕疵,最终用这些极其珍贵的行业数据,硬生生"喂"出了一个能自主执行检测任务的CV专有模型。

企业级私有化AI部署架构图

图3:企业级私有化AI部署架构图

核心判断:通用模型进不了企业核心,垂直定制才是唯一解法

这套模式的关键在于:数据绝对不能离开企业。为此,Mistral采用的是极致的本地化部署(On-premise)。全套工具链直接打包进客户自己的机房,所有数据清洗、训练和推理都在企业内部闭环,绝不向Mistral回传哪怕一个字节。这恰恰是开源模型真正的杀手锏。开源意味着企业拥有最高权限:可以触达底层代码,可以进行参数级的深度微调,可以毫无顾忌地将其部署在物理隔离的环境中。而闭源模型,永远隔着一层API的黑盒。

Arthur认为,企业手里握着最核心的IP和商业数据,想把这些资产毫无保留地对接到闭源的商业模型里,不仅面临数据合规风险,在技术上也难以实现深层定制。只有开源,才能把底层架构的控制权真正交还给企业。

四、基础设施瓶颈:电力约束成为AI扩张的天花板

前三节讲的都是数字世界的事:算力怎么卖、模型怎么整合、数据怎么定制。IREN CEO Daniel Roberts关注的是另一层:什么在限制这一切的扩张?过去很多人以为,限制AI扩张的只是芯片产能。但现在行业越来越清醒:GPU只是入场券。拿到了卡,不代表马上能跑起模型。电力接入、数据中心排期、液冷设备采购、高带宽网络铺设……每一项都是重资产、长周期的物理建设。

智核科技分析认为,这其中最大的瓶颈是电力。IREN目前手握4.5GW的电力容量,这几乎相当于整个旧金山湾区一年的用电规模。但即便拥有如此庞大的储备,在他们与微软签下的97亿美元大单面前,也仅仅消耗了其总产能的5%。这足以窥见巨头们对电力的渴求有多么狂热。

更有意思的是,由于物理电网的限制,现在的铁律变成了"电力在哪里,数据中心就得建在哪里"。Daniel提到了一个极具荒诞感的现状:在西德州,风能和太阳能的发电量高达45到50GW,但通往达拉斯和休斯顿的输电网络容量上限只有12GW。海量廉价的清洁能源受限于输电瓶颈,被死死"困"在了沙漠里。IREN的解法简单粗暴:直接把数据中心盖在发电源头。将庞大的电力就地转化为算力,再把生成的Token通过光纤以光速传输出去。

AI电力瓶颈与数据中心布局示意图

图4:AI电力瓶颈与数据中心布局示意图

核心判断:AI的上限,不再只由技术突破决定,而是由电力、土地和建设周期来裁决

还有一个极其反直觉的现象:技术降本非但不会减少算力消耗,反而会彻底引爆需求。主持人问了个问题:如果算力猛增10倍,生成一张图片的成本和时间从2分钟断崖式降到5秒,人们是会觉得够用了,还是会生成更多的图片?Daniel的答案是:需求会指数级爆发。这就是AI时代的"杰文斯悖论(Jevons Paradox)"。无论出图速度多快,前端永远有填不满的业务需求在等着吞噬这些算力。AI在数字世界里的胃口正呈几何级膨胀,但现实世界的风电场、核反应堆和高压电网的建设速度,却只能依循物理法则缓慢爬行。这道巨大的剪刀差,正在成为限制AI扩张的最硬性约束。

五、智核科技的行业洞察与战略建议

这四个判断背后,藏着一条共同的暗线:先行者正在构筑壁垒。算力被锁进5年合同;整合能力成为护城河;企业数据筑成高墙;电力和土地被提前圈占。每一层都在变成长期资产,每一层的门槛都在抬高。有人还在等技术成熟,有人已经开始占资源了。而在AI这个行业,这些资源一旦被占住,后来者的成本会高得多。

智核科技认为,企业应该从这四个维度重新审视自己的AI战略:

1. 算力布局要具备前瞻性:与其等待技术成熟,不如提前锁定算力资源,将算力视为长期战略资产而非短期成本。

2. 应用开发要重视整合能力:不要纠结于单一模型的选择,而要构建能够灵活调度多模型的技术架构,打造真正的AI集成平台。

3. 企业落地要坚持垂直定制:通用模型无法解决企业核心问题,必须走私有化部署和深度定制的道路,真正让AI与业务深度融合。

4. 基础设施要考虑物理约束:在规划AI项目时,不能只看技术可行性,还要考虑电力、数据中心等基础设施的实际限制。

智核科技将继续深耕企业级AI解决方案,帮助客户在这场AI产业变革中抢占先机,构筑属于自己的竞争壁垒。毕竟,AI不会取代企业,但会取代那些善用AI的企业。

感谢您的阅读

欢迎与我们探讨更多行业落地方式,共同推动技术创新与实践。