中国科技巨头小米近日发布了MiMo-V2-Pro大语言模型,这款拥有1万亿参数的模型在第三方基准测试中表现出色,与OpenAI和Anthropic的顶级模型性能接近,但API调用成本仅为它们的六分之一到七分之一。

技术架构:稀疏激活与混合注意力

MiMo-V2-Pro采用了创新的稀疏架构设计。虽然模型总参数量达到1万亿,但每次推理仅激活420亿参数,有效控制了计算成本。其核心创新在于混合注意力机制,采用7:1的混合比例来处理高达100万token的超长上下文窗口。

这种设计使模型能够像专家研究员在图书馆中快速浏览一样——对85%的内容进行快速扫描,只对关键的15%进行深度注意力计算。配合轻量级多token预测层,模型在代理工作流的「思考」阶段能显著降低延迟。

基准测试表现亮眼

根据第三方机构Artificial Analysis的验证,MiMo-V2-Pro在全球智能指数中排名第10位,得分为49分,与GPT-5.2 Codex处于同一水平。

在关键指标上:

  • 幻觉率降至30%,远低于前代Flash版本的48%
  • 智能指数得分+5,超越GLM-5的+2和Kimi K2.5的-8
  • 运行完整智能指数测试仅需348美元,而GPT-5.2需要2304美元

极具竞争力的定价策略

小米为MiMo-V2-Pro制定了极具攻击性的价格:

  • 256K上下文版:每百万输入token 1美元,输出token 3美元
  • 256K-1M上下文版:每百万输入token 2美元,输出token 6美元
  • 缓存读取:每百万token仅需0.2美元

这意味着在同等智能水平下,使用MiMo-V2-Pro的成本仅为Claude Opus 4.6的约7分之1。

面向代理时代的设计

由DeepSeek R1项目负责人罗福里领衔,MiMo-V2-Pro从设计之初就定位为「代理大脑」。模型针对OpenClaw、Claude Code等代理框架进行了优化,能够处理长期规划和精确工具调用等复杂任务。

小米表示,当模型足够稳定时,将开源部分版本。这款产品的发布标志着中国AI企业在基础模型领域又迈出了重要一步。