2026年3月,小米悄然发布MiMo-V2-Pro,代号“Hunter Alpha”的神秘模型一度登顶OpenRouter日榜。这款万亿参数的旗舰模型,究竟是智能体时代的真正“大脑”,还是又一场营销狂欢?本文从10大维度深度拆解。
1.模型理解能力
1.1多轮对话理解
MiMo-V2-Pro在多轮对话场景中表现出了与其“智能体时代执行中枢”定位相匹配的稳定性。根据雷军在2026年3月底公布的信息,该模型在大模型权威评测榜单Text Arena中,凭借在复杂逻辑推理、长指令遵循及多轮对话中的稳定表现,在Model Rank维度成功突破全球前五。
Text Arena采用独有的“双盲测试”机制——模型身份完全隐藏、由全球真实用户基于回答质量进行即时投票,这种机制杜绝了传统评测中常见的“针对数据集刷榜”行为。这意味着MiMo-V2-Pro的多轮对话能力得到了真实用户的认可。
在实际测试中,模型支持高达100万token的上下文窗口,能够处理长达超长任务链的对话场景。这意味着它可以记住数小时对话中的每一个细节,不会出现“聊着聊着就忘了开头”的尴尬。在智能体框架OpenClaw的实测中,该模型能够在无人工干预的条件下完成复杂工作流编排与长程规划,整体使用体感已超越Claude Sonnet 4.6,逼近Opus 4.6的水平。
1.2意图识别的理解
在意图识别层面,MiMo-V2-Pro展现出了精准的场景感知能力。据官方介绍,该模型在工具调用稳定性和准确率方面得到了显著提升。这得益于其底层的架构设计——采用7:1的混合注意力机制比例,能够高效管理海量上下文信息,从而准确捕捉用户指令中的细微意图差别。
在SuperCLUE 2026年3月的中文大模型基准测评中,MiMo-V2-Pro以60.67分位列闭源模型前列,其中数学推理得分高达84.03分,表现尤为亮眼。高分的数学推理能力背后,反映的是模型对逻辑关系和深层意图的精准把握——只有真正理解问题在“问什么”,才能给出正确的答案。
此外,在面向真实世界任务的智能体基准GDPval-AA中,MiMo-V2-Pro以1426 Elo的得分领先同类模型,包括GLM-5(1406)、Kimi K2.5(1283)和Qwen3.5 397B A17B(1209)。这进一步验证了其在复杂场景下意图识别与任务拆解的能力。
2.生成能力
MiMo-V2-Pro的生成能力是其最引人注目的亮点之一,尤其在代码生成和结构化内容输出方面表现卓越。
在代码能力评测SWE-bench Verified中,MiMo-V2-Pro取得了86.7分的优异成绩,超越Claude 4.6 Sonnet。更令人惊叹的是其“成品交付”能力——当要求用Three.js或Babylon.js开发一款3D塔防游戏时,模型能够直接生成可运行的完整代码,而非零散的代码片段。
在复杂网页设计任务中,模型同样表现出色。例如,当要求复刻一种带有1990年代印刷杂志风格的网页设计时,MiMo-V2-Pro能够一次性生成结构完整、风格统一的网页,包括衬线字体标题、等宽字体正文、多栏排版、不对称布局、褐色滤镜颗粒噪点、翻页效果模拟,甚至包含虚构的ISSN号的底部出版信息板块。这种“所见即所得”的生成能力,大大缩短了从创意到成品的距离。
在生成效率方面,模型采用了轻量级的MTP多token预测层,能够同时预测多个token,大幅降低智能体工作流中“思考阶段”的延迟。根据Artificial Analysis的数据,完成整套智能指数评测仅使用7700万输出token,显著低于GLM-5(1.09亿)和Kimi K2.5(8900万),体现了其“言简意赅”的生成风格。
3.知识库检索能力
3.1信息检索
MiMo-V2-Pro凭借100万token的超长上下文窗口(相当于约1500页A4纸、12号字体的文本量),在信息检索维度具有天然优势。这意味着模型可以一次性“吞下”整本《三体》三部曲,并在其中精准定位相关信息。
小米官方信息显示,MiMo-V2-Pro已全面打通金山WebOffice生态,原生支持Word、Excel、PPT、PDF四大主流文档格式,无缝覆盖超过95%的日常文档类型。WPS灵犀也已接入该模型,用户可直接向“灵犀Claw”提问或布置任务,实现文档内容的智能检索与处理。
在AA-LCR(长上下文推理) 评测中,MiMo-V2-Pro表现优异,这得益于其创新的7:1混合注意力架构。传统Transformer在上下文增长时计算复杂度呈平方级上升,而MiMo-V2-Pro通过这一设计,在处理长文本时依然能够保持“深度记忆”,不会出现性能明显下降。
3.2信息呈现
在信息呈现方面,MiMo-V2-Pro注重结构化和可读性。根据实际测试反馈,模型能够根据用户需求灵活调整输出格式——无论是生成Markdown表格、代码块、流程图描述,还是多层级列表,都能做到条理清晰、层次分明。
值得注意的是,MiMo-V2-Pro在AA-Omniscience(全知指数) 评测中获得了+5分的非幻觉率评分,领先GLM-5(+2)、Kimi K2.5(-8)和Qwen3.5(-30)。较低的幻觉率意味着模型在呈现检索信息时更加“实事求是”,减少了“一本正经地胡说八道”的情况,这对于知识密集型场景尤为关键。
4.智能助手
4.1场景识别
与MiMo-V2-Pro同步推出的Xiaomi MiMo Claw(龙虾)智能助理,充分体现了模型的场景识别能力。MiMo Claw搭载MiMo-V2-Pro最新旗舰基座模型及MiMo-V2-Flash-Omni多模态理解模型,采用常规的对话形式,自带文件系统,可帮助用户完成文档生成、新闻获取、内容创作、开发提效、数据分析等多种任务。
用户可通过MiMo Studio官网(https://aistudio.xiaomimimo.com/#/c )免费体验这一“龙虾”助理,每次体验时长为30分钟。退出体验后,相关数据将被销毁,保障用户隐私。
小米创始人雷军透露,在AI领域,小米2026年的研发和资本投入就将超过160亿元,未来三年计划投入超600亿元。这一投入力度,将加速模型在手机、智能家居、汽车等多元场景中的落地应用。
4.2场景方案提供
在场景方案提供方面,MiMo-V2-Pro展现出“端到端”的解决能力。官方披露的典型应用场景包括:
-
AI办公套件:Healer(MiMo-V2-Omni)可摄取PPT、PDF和语音反馈,Hunter(MiMo-V2-Pro)负责重写文档,MiMo-V2-TTS以自然的中文或英文呈现输出
-
小米浏览器助手:Healer解读多标签会话,Hunter进行摘要和交叉验证
-
制造业质检:Healer观看传送带画面,Hunter提出改进方案并关联MES工单
-
开发者辅助:Healer捕获设计反馈和日志片段,Hunter完成完整重构和事后分析
此外,小米还联合OpenClaw、OpenCode、KiloCode、Blackbox及Cline等Agent开发框架团队,为全球开发者提供为期一周的限时免费接口支持。这一举措旨在降低开发者体验门槛,加速智能体生态的构建。
5.性能指标
5.1响应时间
根据Artificial Analysis的数据,MiMo-V2-Pro在响应速度方面处于行业领先水平。得益于其稀疏架构设计——虽然总参数达到1万亿,但单次仅激活420亿参数——模型在保持强大能力的同时,显著降低了推理延迟。
官方披露,模型结合了轻量级的MTP多token预测层,能够同时预测多个token,大幅降低智能体工作流中“思考阶段”的延迟。虽然具体的每秒输出token数尚未公开,但从其在OpenRouter平台上的调用量表现来看(累计调用量突破1T tokens),用户对其响应速度的接受度相当高。
5.2稳定性
MiMo-V2-Pro的稳定性已经过大规模验证。在正式发布前,其早期测试版本“Hunter Alpha”在OpenRouter平台上匿名上线,凭借稳定的表现多天登顶日榜,累计调用量突破1T tokens(一万亿次)。这一匿名测试策略,为小米收集了真实的用户反馈和稳定性数据。
在成本控制方面,运行MiMo-V2-Pro完成整套Artificial Analysis智能指数测试仅需348美元(按输入$1/输出$3每百万token计费),尽管得分仅比GLM-5低1分,但成本更低。相比之下,GPT-5.2约为2304美元,Claude Opus 4.6约为2486美元。稳定的性能表现叠加极具竞争力的成本,使MiMo-V2-Pro在性价比维度形成显著优势。
6.集成与兼容
6.1系统集成
MiMo-V2-Pro在系统集成方面展现出强大的生态整合能力。目前模型已接入以下平台和服务:
-
金山WebOffice:原生支持Word、Excel、PPT、PDF四大主流文档格式
-
WPS灵犀:用户可直接向灵犀Claw提问或布置任务
-
小米浏览器:集成MiMo-V2-Pro能力
-
MiMo Studio:官方体验平台
-
Xiaomi miclaw:手机端AI智能体产品
对于开发者,小米提供了官方API服务,访问地址为https://platform.xiaomimimo.com/#/docs/welcome,内有详细的使用教程。API定价采用分段计价模式:
| 上下文长度 | 输入价格(美元/百万tokens) | 输出价格(美元/百万tokens) |
|---|---|---|
| ≤256K | $1.00 | $3.00 |
| 256K–1M | $2.00 | $6.00 |
| 缓存读取(低档) | $0.20 | – |
| 缓存读取(高档) | $0.40 | – |
| 缓存写入 | 免费(0美元) | – |
这一价格策略使MiMo-V2-Pro的成本仅为Claude Opus 4.6等主流竞品的五分之一到六分之一。
7.安全与保护
7.1数据保护
目前MiMo-V2-Pro主要通过小米官方云服务和OpenRouter平台提供API服务。根据官方说明,免费版使用过程中,用户的提示词和模型输出会被小米记录,用于模型调优。这意味着免费体验阶段的数据隐私保护相对有限。
对于企业级用户,小米提供企业合同服务,可以通过签订协议获得更完善的隐私保障。在MiMo Claw智能助理中,退出体验后相关数据将被销毁,这是对用户隐私的一种保护机制。
需要特别注意的是,目前小米尚未提供私有化部署或数据本地化的选项,所有访问都需经过小米/金山云或OpenRouter代理端点。对于有严格数据合规要求的行业用户,建议在确认数据出境合规性后再进行接入。
7.2访问控制
在访问控制方面,MiMo-V2-Pro目前通过API密钥(API Key)进行身份认证和访问授权。开发者可在小米AI开放平台申请API密钥,用于调用模型服务。具体的细粒度权限控制(如按项目、按用户角色划分访问权限)尚未公开披露。
OpenRouter平台上,MiMo-V2-Pro(代号hunter-alpha)同样采用标准的API密钥认证机制。对于计划大规模使用的团队,建议制定密钥轮换和访问审计策略,以保障账户安全。
小米大模型团队负责人罗福莉透露,模型未来足够稳定后会考虑开源。一旦开源,企业将能够实现完全的本地化部署,届时访问控制将完全由企业自主管理。
8.成本效益
8.1成本分析
MiMo-V2-Pro最引人注目的特点之一,就是其极具攻击性的定价策略。根据Artificial Analysis的实测数据,运行MiMo-V2-Pro完成整套智能指数测试仅需348美元。
对比来看:
| 模型 | 成本(美元) | 智能指数得分 |
|---|---|---|
| MiMo-V2-Pro | $348 | 49 |
| GLM-5 | 更高 | 50 |
| GPT-5.2 | $2,304 | – |
| Claude Opus 4.6 | $2,486 | – |
这意味着在相近的性能水平下,MiMo-V2-Pro的成本仅为主流竞品的六分之一到七分之一。具体到API调用价格,MiMo-V2-Pro的输入价格为$1-2/百万tokens,输出价格为$3-6/百万tokens,而Claude Opus 4.6的同类定价约为其五倍。
8.2 ROI(投资回报率)
对于企业用户和开发者而言,MiMo-V2-Pro的高性价比意味着更低的试错成本和更快的ROI实现周期。
以AI应用开发为例,假设一个需要频繁调用顶级模型能力的项目,月调用量为1亿输入tokens和3000万输出tokens(大致为256K上下文以内)。使用MiMo-V2-Pro的月成本约为:输入$100 + 输出$90 = $190;而使用Claude Opus 4.6的估算成本约为$950。这意味着每月可节省约80%的API成本。
在智能体工作负载方面,MiMo-V2-Pro的token使用效率更高——完成整套评测仅使用7700万输出token,显著低于GLM-5(1.09亿)和Kimi K2.5(8900万)。这意味着完成相同任务所需的token更少,进一步提升了成本效益。
雷军在社交媒体上强调:“在AI领域,小米今年的研发和资本投入就将超过160亿元。” 尽管投入巨大,但通过极具竞争力的API定价,小米显然希望通过“以价换量”的策略快速抢占开发者市场,为中小企业提供“用得起”的顶级AI能力。
9.可扩展性
9.1功能扩展
MiMo-V2-Pro的功能扩展能力体现在多个层面。首先,模型本身定位为“Agent时代的执行中枢”,可直接参与代码生成、终端执行、长流程任务规划,甚至多智能体协同与企业级知识处理。
在工具调用方面,MiMo-V2-Pro通过OpenClaw、Claude Code等Agent框架,能够无缝调用外部工具和API,实现功能的无缝扩展。例如,结合MiMo-V2-Omni的多模态能力后,模型可以像真人一样操控浏览器——完成选品、比价、与客服交互、下单等一系列复杂操作。
未来,随着小米与OpenClaw、OpenCode、KiloCode、Blackbox及Cline等五大Agent开发框架的持续合作,MiMo-V2-Pro的功能边界将进一步拓宽。
9.2技术升级
在技术升级方面,MiMo-V2-Pro具备明确的演进路径。小米大模型团队负责人罗福莉明确表示:“我们会开源——等模型足够稳定、真正‘配得上’开源的时候。” 这意味着未来开发者将有机会获得模型的完整权重,实现完全的自托管和定制化改造。
雷军也在社交媒体上透露:“我们模型刚刚完成,未来一段时间,还会快速迭代增强。小米在AI领域上相对比较低调,实际进展可能比大家看到的要快很多。”
在架构层面,MiMo-V2-Pro采用了稀疏架构和混合注意力机制等前沿技术,这些设计为其后续的版本升级预留了充足空间。小米在AI领域的持续投入——2026年超160亿元,未来三年超600亿元——也为模型的技术迭代提供了坚实的资金保障。
10.本地化部署流程
10.1 Windows系统部署
重要提示:截至目前(2026年3月),MiMo-V2-Pro尚未提供官方开源版本,因此暂不支持本地化部署。所有使用均需通过小米官方API服务或OpenRouter平台进行云端调用。
以下为开发者模式下Windows系统通过Python调用API的配置流程:
准备工作:
-
注册账号并申请API Key
-
确保系统已安装Python 3.8或更高版本
安装步骤:
# 1. 创建项目目录 mkdir MiMo-Client cd MiMo-Client # 2. 创建虚拟环境(推荐) python -m venv venv venv\Scripts\activate # 3. 安装依赖包 pip install requests openai # openai库可用于兼容接口调用 # 4. 创建测试脚本 test_mimo.py
测试脚本示例:
import requests API_KEY = "your-api-key-here" URL = "https://api.xiaomimimo.com/v1/chat/completions" headers = { "Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json" } data = { "model": "mimo-v2-pro", "messages": [ {"role": "user", "content": "你好,请介绍一下自己"} ], "max_tokens": 500 } response = requests.post(URL, headers=headers, json=data) print(response.json()['choices'][0]['message']['content'])
运行测试:
python test_mimo.py
10.2 macOS系统部署
准备工作:
-
访问小米AI开放平台申请API Key
-
确保macOS已安装Python 3.8+(可通过
brew install python安装)
安装步骤:
# 1. 创建项目目录 mkdir ~/MiMo-Client cd ~/MiMo-Client # 2. 创建虚拟环境 python3 -m venv venv source venv/bin/activate # 3. 安装依赖 pip install requests openai # 4. 配置API Key(可选:添加到环境变量) echo "export MIMO_API_KEY='your-api-key'" >> ~/.zshrc source ~/.zshrc
使用curl进行快速测试:
curl -X POST https://api.xiaomimimo.com/v1/chat/completions \ -H "Authorization: Bearer $MIMO_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "mimo-v2-pro", "messages": [{"role": "user", "content": "写一个Python快速排序"}], "max_tokens": 1000 }'
10.3 Linux系统部署
准备工作:
-
获取API Key
-
确保系统已安装Python 3.8+、curl等基础工具
安装步骤(以Ubuntu 22.04为例):
# 1. 更新系统 sudo apt update && sudo apt upgrade -y # 2. 安装Python和开发工具 sudo apt install python3 python3-pip python3-venv curl jq -y # 3. 创建工作目录 mkdir -p ~/mimo-client cd ~/mimo-client # 4. 创建虚拟环境 python3 -m venv venv source venv/bin/activate # 5. 安装依赖 pip install --upgrade pip pip install requests openai # 6. 设置环境变量 echo "export MIMO_API_KEY='your-api-key'" >> ~/.bashrc source ~/.bashrc
使用Node.js调用的替代方案(可选):
# 安装axios npm install axios # 创建调用脚本 cat > mimo.js << 'EOF' const axios = require('axios'); const API_KEY = process.env.MIMO_API_KEY; async function callMiMo() { try { const response = await axios.post( 'https://api.xiaomimimo.com/v1/chat/completions', { model: 'mimo-v2-pro', messages: [{ role: 'user', content: '解释什么是混合注意力机制' }], max_tokens: 800 }, { headers: { 'Authorization': `Bearer ${API_KEY}`, 'Content-Type': 'application/json' } } ); console.log(response.data.choices[0].message.content); } catch (error) { console.error('Error:', error.response?.data || error.message); } } callMiMo(); EOF node mimo.js
10.4开源项目地址
截至2026年3月,MiMo-V2-Pro尚未正式开源。 小米大模型团队负责人罗福莉已在社交媒体上确认:“我们会开源——等模型足够稳定、真正‘配得上’开源的时候。”
目前可访问的官方资源地址:
-
API文档与开发者中心:https://platform.xiaomimimo.com/#/docs/welcome
-
小米MiMo官方Twitter(X):https://x.com/XiaomiMiMo
对于希望使用开源大模型的用户,小米同时提供了MiMo-V2-Flash开源版本(参数规模较小,面向特定场景优化),可在小米GitHub仓库中关注后续动态。此外,目前MiMo-V2系列模型已通过OpenRouter平台(openrouter/hunter-alpha)提供API服务,这是非本地化部署的最便捷方式。
总结
MiMo-V2-Pro的发布标志着小米正式跻身全球AI大模型第一梯队。在2026年3月的SuperCLUE和Artificial Analysis等权威测评中,模型均取得全球前十、国内第二的优异成绩。
核心优势可概括为“三高一低”:
| 维度 | 表现 |
|---|---|
| 高智能 | Artificial Analysis智能指数49分,数学推理84.03分,代码能力超越Claude Sonnet 4.6 |
| 高长文能力 | 100万token上下文窗口,支持超长任务链 |
| 高性价比 | API定价仅为Claude Opus 4.6的五分之一至六分之一 |
| 低幻觉率 | AA-Omniscience评测得分+5,优于多数竞品 |
值得关注的不足包括:
-
暂不支持本地化部署:所有使用均需通过云端API
-
数据隐私限制:免费版API调用会被记录用于模型优化
-
开源时间未定:虽已承诺开源,但具体时间表尚未公布
综合来看,MiMo-V2-Pro是一款定位精准、性能强劲、价格友好的旗舰级大模型,尤其适合以下几类用户:
-
智能体应用开发者:模型与OpenClaw等框架深度整合,开箱即用
-
中小企业:以1/5的成本获得接近顶尖水平的AI能力
-
代码开发场景:代码生成能力已超越Claude Sonnet 4.6
-
长文本处理需求:100万上下文窗口支持大规模文档分析
随着小米未来三年超600亿元的AI投入持续落地,以及后续开源计划的推进,MiMo-V2-Pro有望在智能体时代扮演更加重要的角色。正如雷军所言:“小米在AI领域上相对比较低调,实际进展可能比大家看到的要快很多。”

关注 “悠AI” 更多干货技巧行业动态