翻译错误:Unexpected character encountered while parsing value: <. Path '', line 0, position 0.

文章|大机型的重点正在从“竞争IC”业务转向“进厂拧紧螺丝”业务。据财联社报道,OpenRouter最新的每周数据显示,该平台排名前10的机型代币总量约为8.7万亿,其中中国机型占比61%,为5.3万亿。本周代币调用次数最多的前三名机型均是国产大型机型:Minimax M2.5、Kimi K2.5和GLM-5。与上周相比,通话量分别增加了 197%、20% 和 158%。其中,MiniMax M2.5以24.5亿枚代币位居榜首,Kimi K2.5以12.1亿枚代币紧随其后。 GLM 5和DeepSeek V3.2分别排名第三和第五。如您所知,OpenRouter是全球最大的大规模模型API聚合平台,汇聚了全球开发者的真实调用需求。这份榜单可以说是最严重的“算力消耗”AI行业的“离子晴雨表”。很多人看到国产大模型的热烈火爆后的第一反应是:“国产大模型从绝对能力上来说是不是已经赶上GPT、Claude、Gemini了?”答案显然是否定的。如果真要绞尽脑汁极其复杂的逻辑推理或者硬代码工程,目前这些硅谷闭源巨头依然是绝对的技术天花板。那么为什么国产大模型会主导全网调用呢?尽管绝对智能还没有赶上北美顶尖模型,这对未来的人工智能竞争环境意味着什么? 01 大型模型是流水线,不是炼金术。国内各大模型公司正在用义乌逻辑做小产品,缩小尺寸来攻击硅谷的网络魔力,因为它们是“便宜”的。过去,大型车型的价格由国外大公司决定。 GPT-4o或Claude 3.5以Opus为例。虽然其性能强大,但价格也昂贵。处理数百万代币的数据通常需要花费几美元,有时甚至超过 10 美元。尝鲜时代,当AI爆发的时候,大家都咬牙接受了这个代价。然而,一旦进入代理时代,情况就完全改变了。最近引起科技界轰动的OpenClaw禁令,就是这场算力成本危机最直观的体现。 OpenClaw,一种流行的安全代理开源人工智能,它可以作为“数字工作者”接管你的计算机,自动处理文件甚至为你编写代码。为了省钱,很多极客和开发者想出了“绝妙”的计划。他们没有诚实地调用昂贵的官方即用即付 API,而是使用了一个代码接口,允许 OpenClaw“免费”Google 和Anthropic 的 20 美元/月个人订阅服务(如 Claude Pro)。你可以想象结果。随着人工智能从“提问和回答问题的聊天框”转变为“自动计划和迭代的数字工作者”,错误、错误修复和循环会随着后台的每次搜索和尝试而疯狂地燃烧代币。这种恐怖的代理级​​表现,直接把原本被称为“无限”的包月服务刷爆了。面对“赤裸裸”的计算资源,Google和Anthropic不能保持沉默。不仅被取消、第三方工具严厉禁止访问订阅频道,谷歌甚至到了“永久封禁”一些频繁打电话的账户的地步。事实上,巨人队“扭转局面”的策略只有一个核心逻辑。这意味着计算能力的成本是不可持续的。在代理时代,如果 CSP 巨头继续允许任何人执行自动化操作,他们就会犯错误。每月订阅 20 美元的任务。没有它你就会破产。但如果开发者被迫使用官方API,并收取每百万代币10美元以上的价格,那么尖端、高价、大规模的模式将不再具有高生产力,反而会成为一个无底洞,直接瘫痪无数人工智能应用和开发者商业模式。当大多数行业陷入买不起算力的僵局时,他们回过头来发现,大洋彼岸的中国领先型号已经将价格抬高到了过高的水平。目前,DeepSeek、GLM、Kimi、MiniMax等国内大型模型的API调用价格已骤降至每百万代币仅2-3美元。为了获得对开发者生态的控制权,一些制造商实施了对数百万个一定规模的上下文或模型的长期免费访问。这不再是“20%折扣”的促销动,而是成本上的数量级差异。便宜固然好,但很多人会想:如果模型不够智能,那么便宜还有什么意义呢?但现实中,大多数人高估了现实场景对“极限IC”的需求,却低估了“长尾任务”中可怕的算力消耗。在现实商业世界和极客开发圈中,90%的AI任务不需要任何“爱因斯坦级”智商。想象一下我们每天都使用人工智能。将10万字英文网络小说翻译成中文。将数十份 PDF 财务报告发送给 AI,让它提取所有盈利数据。编写几百行基本 UI 代码。或者是 OpenRouter 目前昂贵的“角色扮演游戏”,其中玩家和人工智能扮演的虚拟角色参与数千轮聊天。这些任务的共同特点是平均逻辑深度但文本吞吐量巨大。在这类“工人”认知研究中,排名最高的中国模式他不仅“通过”了,而且做得非常出色。这类似于为您的公司填写数以万计的加急订单号表格。你不必花很多钱聘请诺贝尔奖获得者(顶级闭源模型)。要彻底解决问题,只需雇佣一批务实的实习生和工资很低的工人(盈利模式)。而且,最顶级的闭源模式和依靠蒸馏技术盈利更高的模式之间的差异最多也只有一半。因此,世界各地的开发者都在做出一个非常明智的决定。 “智能路由”策略:将所有庞大、无聊、容错的核心任务和长文本读取路由到廉价的中国模型。只有当决策最终需要复杂的逻辑或遇到非常困难的算法问题时,才会谨慎地调用 GPT 或 Claude。这就是为什么大型全国性机型可以达到全网最大通话量。 02 在在计算机霸权之战中,变形金刚是巨大而廉价的模型,可以作为王牌,而且绝不是平等的。很多人误以为国产大车型价格便宜是因为国内厂商“烧钱补贴”。然而,这实际上低估了中国工程师在技术实现上的强大力量。当硅谷还迷信“奇迹般的结果”和数万亿参数的疯狂积累时,国内顶尖的模型公司已经达到了“抠门”艺术的顶峰。在这一领域,中国制造商展示了极其强大的工程压缩能力和制造基因。众所周知,由于相关禁令,国内领先的模型公司往往无法像硅谷领先公司那样轻易采购数十万块一流的GPU。由于“算力贫困”,国内工程师正在寻求rced在工程优化的泥潭中执行极其精细的操作。为了减少单个推理的计算能耗,他们最大化了 MoE。对于具有数千亿参数的大型模型,在回答简单的日常问题时,系统必须处理数十亿个参数。它仅激活带有数据的“专家网络”,而使网络的其余大部分处于不活动状态。这个地方就像一个大工厂。不再是为了生产螺丝而点亮每个车间,而是对生产线进行精确控制,从而节省了大量的资金、算力和能源消耗。为了解决数百万超长上下文带来的显存问题,中国工程师在底层框架上下了功夫,进行像素级压缩和KV缓存优化,将海量数据非常紧凑地打包到有限的显存中。即使硬件相对较差,我们也能实现超长文本打印业绩达到或超过世界领先企业。这种对底层算力近乎超常的限制,再加上中国非常成熟的硬件适配项目,使得大规模模型推理的物理成本降低了几个数量级。相反,即使大洋彼岸的北美巨头公司想要进行价格竞争,他们也无法做到这一点,因为他们完全被沉重的无形基础设施所困。对于这个话题,马斯克早在2023年就做出了预测:“我的预测是,我们将在两年内从目前的硅极度短缺转向能源短缺。这是大致的趋势。”现实正是如此。北美地区老化的电网系统和长期的环评审批无法适应新建超大型数据中心快速增长的能耗。高额的工业能源费用、天价的劳动力成本、歌剧化和维护成本,甚至您买不起的高压变压器最终也会成为高昂的沉没成本,平均分摊到每个 API 调用中。也就是说,北美各大大车型的“贵”大部分来自于为落后的基础设施和高昂的当地因素买单。因此,面对世界对算力的无尽需求,物理成本的增加为中国人工智能创造了新的地位。 40年来,我们充分利用人口红利和完整的供应链,成为“世界工厂”,向世界各地出口实物商品。如今,大型模型用于应用程序部署。进军深海领域,中国正在告别人口红利,转型为新时代的“世界通证工厂”,依托全球领先的特高压电网、超稳定低成本的工业电力以及无与伦比的工程部署能力。一个至此,未来全球AI分工已经非常明确。所有这些海量文档读取、低级代码生成、高并发长文本翻译和虚拟人聊天,都将通过海底光缆路由到全国各地的大群模型,作为“网络 OEM 订单”。一旦电能在AI芯片内转化为代币,就完全摆脱了物理形态的限制。这与需要在港口或海上货物运输中长时间装卸的产品不同。相反,光通过水下光缆以光速传播,在几毫秒内将其发送到世界各个角落。因此,与其说世界各地的车迷都来“捡”国产大车型,倒不如说,中国凭借着成本和基础设施的绝对优势,正在悄然抢占着汽车市场的生死存亡。AI应用时代的艺术。当硅谷巨头们不断不惜一切代价赢得AGI最终桂冠而深陷实体基础设施泥潭时,国内大型样板公司却转型为新时代的“基础设施狂潮”,利用源源不断跨越山海的廉价代币,不断推出对全球智能革命更为重要的“水电煤”业务。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

此条目发表在每日更新分类目录,贴了标签。将固定链接加入收藏夹。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注