锐报 SharpPost · 深度分析报告
基于美中经济与安全审查委员会(USCC)研究报告《Two Loops: How China's Open AI Strategy Reinforces Its Industrial Dominance》的独立分析
337
中国开源模型
2022年仅32个,增幅×10.5
100,000+
阿里Qwen衍生模型
Hugging Face全球最大生态
¼
中国模型推理价格
Kimi K2.5 vs GPT-5.2
7 / 10
HuggingFace Top 10下载
中国模型占比 (2025 Q4)

Key Findings

USCC报告提出:中国AI竞争力建立在两个相互强化的反馈循环之上——数字循环(开源模型生态迭代)与物理循环(制造业部署产生数据反馈)。两者交汇使中国构建起不依赖前沿芯片的复合优势。

美国出口管制校准于训练算力(数字循环上游),却几乎未触及物理循环。中国实验室还通过蒸馏技术系统性提取美国闭源模型能力,Meta转向闭源则削弱了美国开源生态的主要锚点。

核心判断:美国把政策工具校准到了一个循环上,中国却通过两个循环的复合在积累优势。

一、竞争格局:资本密度 ≠ 能力密度

美中AI竞赛的资源投入呈现结构性分化。美国四大科技巨头2025年AI资本开支合计超过3500亿美元,Bloomberg Intelligence预估2026年将突破4000亿美元。中国主要云服务商同期资本开支不足400亿美元——差距接近十倍。但资本密度并未转化为等比例的能力差距。

Exhibit 1
中美前沿模型核心要素对比(基于2025年公开数据)
比较维度 美国领先代表 中国领先代表 差距评估
训练算力 xAI Grok 4 (5×10²⁶ FLOPs) 阿里 Qwen3-Max (1.5×10²⁵ FLOPs) 美国领先约30倍
训练数据规模 Nvidia Cosmos-1.0 (9,000万亿token) 阿里 Qwen3-Max (36万亿token) 美国领先,中国追赶中
模型参数 xAI Grok 4 (估计1.7–3万亿) 阿里 Qwen3-Max (1万亿) 差距收窄
推理成本 GPT-5.2: $4.81/百万token Kimi K2.5: $1.20/百万token 中国低4倍(同等性能)
开源生态规模 Meta Llama系列 阿里 Qwen系列 (10万+衍生) 中国领先
Sources: Epoch AI; Artificial Analysis; USCC Table 1. 训练算力与参数数据基于各公司公开发布信息。

表面上美国在算力和模型规模上保持领先,但规模扩张正在遭遇边际递减。2025年的多项架构创新——混合专家模型(MOE)、链式思维推理——均非依赖更大算力,而是通过更高效的架构设计实现性能跃升。OpenAI在2025年2月承认,GPT-4.5是其最后一个主要依赖规模化预训练的模型。

二、数字循环:开源生态的飞轮效应

Loop 1 · Digital Feedback Loop
开放模型发布 全球开发者采用 社区迭代改进 模型能力提升 更大规模采用

报告所定义的数字循环,其逻辑链条清晰:每一次开源发布都引发全球开发者的采用和迭代,迭代成果又反哺下一代模型。2022年至2025年间,中国开源模型从32个扩张至337个(Epoch AI统计),增幅超过十倍;同期美国的开源模型从213个增至622个,增幅不到三倍。

Exhibit 2
中美开源模型数量增长对比(2022 vs 2025)
中国 美国
中国 2022
32
中国 2025
337 (×10.5)
美国 2022
213
美国 2025
622 (×2.9)
Source: Epoch AI "AI Models" database. 中国政府统计口径(1,509个)因包含微调与衍生模型而显著更高。

2.1 Hugging Face下载量:生态统治力的量化指标

到2025年底,阿里Qwen系列在Hugging Face上衍生出超过10万个下游模型,超过Meta Llama,成为全球最大的开源模型生态。2025年11月至12月间,下载量前十的大模型中七个来自中国。

Exhibit 3
Hugging Face下载量排名前十的大模型(2025年11月–12月)
# 公司 模型 下载量 衍生模型
1 字节跳动 🇨🇳 Tarsier2-Recap-7b 10,847,133
2 阿里巴巴 🇨🇳 Qwen2.5-3B-Instruct 8,780,419 1,674
3 OpenAI 🇺🇸 gpt-oss-20b 8,089,782 672
4 阿里巴巴 🇨🇳 Qwen2.5-VL-3B-Instruct 7,688,461 699
5 阿里巴巴 🇨🇳 Qwen2.5-7B-Instruct 7,245,333 3,335
6 阿里巴巴 🇨🇳 Qwen3-4B-Instruct-2507 6,289,445 400
7 DeepSeek 🇨🇳 DeepSeek-OCR 5,451,968 125
8 Meta 🇺🇸 Llama-3.1-8B-Instruct 5,187,643 3,975
9 阿里巴巴 🇨🇳 Qwen3-8B 4,761,786 1,239
10 OpenAI 🇺🇸 gpt-oss-120b 4,553,504 161
Source: USCC Figure 5. 数据区间2025.11.08–12.08. 高亮行为中国模型。中国模型合计下载51.1M次 vs 美国17.8M次(2.9:1)。

2.2 价格战:同等能力,四分之一的价格

价格是飞轮的加速器。Kimi K2.5与GPT-5.2在Artificial Analysis的智能指数上并列47分,但混合价格相差四倍。这并非个案。

Exhibit 4
中美主要模型成本–性能对比
模型 国别 Intelligence Index $/M Tokens 性价比*
GPT-5.2 🇺🇸 47 4.81 9.8
Kimi K2.5 🇨🇳 47 1.20 39.2
GPT-4.5 🇺🇸 ~46 6.00+ ~7.7
DeepSeek-V3 🇨🇳 ~44 0.55 80.0
Qwen3-Max 🇨🇳 ~45 0.46 97.8
Source: Artificial Analysis, as of Feb 2026. *性价比 = Intelligence Index ÷ Price. 混合价格 = 输出:输入 3:1加权. OpenAI o1 ($26.25, Index 31) 因极端定价未纳入.

2.3 渗透硅谷:创业公司的底层依赖

a16z合伙人Martin Casado透露,在选择开源路线的创业公司中约八成正在使用中国模型。Airbnb用阿里Qwen驱动客服机器人。安全隐忧随之浮现:NIST发现DeepSeek开源模型在网络安全风险上高于同类美国模型,且中国模型可能内置审查机制。

三、物理循环:工厂车间的数据飞轮

Loop 2 · Physical-Economy Feedback Loop
低成本模型部署 产生专有工业数据 数据反哺模型改进 支撑更复杂部署

第一个循环运行于数字空间,第二个循环根植于物理制造。其逻辑同样自洽:开源模型廉价部署至制造业,产生专有工业数据;这些数据反过来强化模型,支撑更复杂的应用。这个循环不需要前沿芯片——一个广东工厂的质量检测模型,运行在边缘硬件上的小型视觉模型即可。

广东一家智能工厂通过5G高清摄像头训练AI模型,设备维修检测率提升20%,年省成本100万元人民币以上。这类数据——来自数百万个连接工厂、物流网络和智慧城市的采集节点——是网络爬取和合成数据所不能及的。Epoch AI估算:公开可用的高质量训练数据可能在2026至2032年间耗尽,届时专有部署数据将成为稀缺资源。

3.1 数据资产化:从政策宣示到会计入表

Exhibit 5
中国数据资产化制度建设关键节点
  • 2017 国务院发布AI发展规划,确立跨行业整合目标框架
  • 2020 中共中央将数据列为"第五生产要素"(继土地、劳动、资本、技术之后)
  • 2022 "数据二十条"发布——数据基础制度建设纲领性文件
  • 2023 国家数据局(NDA)成立;建立全国公共数据资源登记平台
  • 2023 财政部发布会计准则:企业可将数据资源入账为无形资产或存货——全球首创
  • 2025.08 国务院"AI+"倡议:广泛采用确立为AI发展核心组织原则
Sources: USCC report; 公开政策文件.

名为会计改革,实为将部署端的数据优势锁入国家资产负债表。国家数据局报告显示中文语言数据占国内模型训练数据的60%–80%——中国在中文AI领域的数据优势几乎是结构性的。

四、双循环交汇:小模型是关键变量

报告的分析锐度在于指出两个循环的交汇机制:小型专用模型(SLM)。Nvidia研究人员指出,在自主AI系统中承担大部分操作任务的并非前沿大模型,而是针对特定任务微调的SLM,其成本比前沿模型低10到30倍。

10–30×
SLM成本优势
对比前沿LLM
#1
HuggingFace下载冠军
非LLM,是微调小模型
无需
前沿芯片
边缘硬件即可运行

2025年底Hugging Face最高频下载的模型并非某个前沿LLM,而是字节跳动基于阿里Qwen2-VL-7B-Instruct微调的视频字幕模型。开源基座模型被企业拿去针对具体场景微调和部署,部署产生的数据又回流强化模型——整个过程不依赖前沿算力。小模型恰恰是开源生态最擅长生产的品类,而中国主导着全球开源生态。

五、蒸馏争议:免费的"教师"

中国AI实验室的追赶手段不止于开源迭代。蒸馏技术——用前沿模型的输出训练自己的小模型——相当于让对手充当免费教师。

Exhibit 6
模型蒸馏争议事件时间线
  • 2025.01 DeepSeek发布R1模型(基于Qwen 2.5 / Llama 3架构),被Time评为"年度最佳发明"
  • 2025.01底 OpenAI公开指控中国实验室违规蒸馏,发现通过伪装第三方路由器大规模调用API
  • 2025年秋 微软安全研究人员独立发现与DeepSeek关联的账户在批量获取OpenAI模型输出
  • 2026.02.13 Bloomberg报道OpenAI内部备忘录,将蒸馏定性为知识产权侵犯
  • 2026.02.24 Anthropic指控DeepSeek、月之暗面、MiniMax对Claude发动协同"蒸馏攻击"
Sources: Bloomberg; CNBC; The Economist; USCC report.

蒸馏的结构性讽刺在于:美国企业投入数十亿美元训练前沿模型,开放API以获取商业收入,中国实验室利用这些API将前沿能力低成本转移至自己的模型中。收入归美国,能力归中国。美国司法部至今未提起诉讼——对一家主要在中国境内运营的企业,司法管辖权鞭长莫及。

开源生态提供基座架构,蒸馏从闭源模型中提取前沿能力,两条路径殊途同归。美国是否亲手培育了自己的竞争对手?从结果看,答案已不需要推测。

六、美国的战略盲区

6.1 出口管制覆盖范围分析

Exhibit 7
美国出口管制覆盖范围 vs 中国AI竞争维度
竞争维度 管制覆盖 中国替代路径 风险评级
前沿训练算力 COVERED 架构创新(MOE、CoT)降低算力需求 Medium
开源模型生态 NOT COVERED 公开权重自由获取,社区迭代加速 High
小模型工业部署 NOT COVERED 不需要前沿芯片,边缘硬件即可 Critical
部署端数据积累 NOT COVERED 制造业+IoT+5G生成专有数据 Critical
蒸馏 / 知识提取 NOT COVERED 通过API系统性提取闭源模型能力 High
数据资产化制度 N/A NDA+会计准则将数据入表为国家资产 High
Source: 锐报基于USCC报告的独立分析.

工业AI所需的模型是小型、专用、开源的。由此观之,美国的出口管制框架可能瞄准了错误的竞争层级。

6.2 Meta转向闭源:生态锚点松动

Meta在2025年底宣布下一代模型Avocado将转向闭源。部分动因正是蒸馏争议:中国实验室利用Llama的开放架构和美国闭源API加速自身开发。Yann LeCun随后离职,折射出围绕开源战略的深层分歧。OpenAI和Nvidia虽发布了开放权重模型,但这些举措仍聚焦于数字循环——未触及部署端数据积累。此消彼长。

6.3 应用层:美国仍领先,窗口在收窄

Exhibit 8
中美AI应用月度访问量对比(2025年12月)
类别 美国领先 月访问(M) 中国领先 月访问(M)
综合聊天机器人 ChatGPT 5,700 DeepSeek 451
AI代理 GenSpark AI 13.5 Nano AI (360) 189
代码助手 GitHub Copilot 304 Comate (百度) 1.85
AI搜索 New Bing 1,330 Nano AI搜索 279
图像生成 SeaArt 25.5 Jimeng AI 11.5
视频生成 Sora 35.1 Klingai (快手) 14.3
Source: AICPB "Global AI Rankings by Users," accessed Jan 23, 2026. AI代理类别前三名企业均有中国背景.

美国在消费级AI应用上仍保持领先——ChatGPT月访问量是DeepSeek的12倍以上。但应用层的领先可能掩盖更深层的结构性风险:中国AI企业正将重心从消费应用转向产业整合。

结论:守住实验室,远远不够

USCC这份报告的穿透力在于一个简洁的判断:美国把政策工具校准到了一个循环上,中国却通过两个循环的复合在积累优势。出口管制可以限制训练算力,但无法阻止一个拥有全球最大制造业基座、最密集物联网基础设施、最完整数据资产化制度的国家,从部署端建立起独立于前沿芯片的AI优势。

加之蒸馏争议所揭示的维度——美国前沿模型的商业API无意中成为中国实验室的能力输送管道——"美国亲手培育竞争对手"并非修辞,而是对竞争结构的冷静描述。

这不是一个可以用更严格的芯片禁令来回答的问题。它需要美国重新思考自身的AI竞争理论——从前沿规模的赛跑,扩展到部署生态的竞争。战场已不仅在实验室,还在车间、码头和仓库。守住实验室,远远不够。