Hunyuan-A13B:把 80 B 能力压进 13 B 显存的小体积 MoE 大模型
腾讯开源的 Hunyuan-A13B 用稀疏专家结构让 80 B 参数模型在推理时只激活 13 B 专家,兼顾低显存与高性能。模型原生支持 256 K 上下文窗口,并引入“快思考 / 慢思考”两档推理路径:简单请求调用少量专家极速返回,复杂问题自动切换深度专家,提高准确率而不过度耗时。
关键性能点
- 多项基准(MMLU、GSM8K、HumanEval)分数与 o1、DeepSeek-R1 持平
- 8 B 版本在 LMArena 得分 > 1300,首次把 < 10 B 激活模型推到此水平
- 140 + 语言文本&35 语言多模态数据训练,跨语种表现稳定
- 自带函数调用格式,内嵌思维链,可一键串联搜索、数据库、邮箱等外部工具
新开放数据集
- ArtifactsBench:让模型在带 UI 的可视化沙盒里跑代码与交互题,弥补纯文本评测盲区
- C3-Bench:针对多步骤代理任务设计的脆弱性集合,帮助研究工具链错误、解释性与安全
应用场景示例
- 移动端或边缘设备上的本地语音 / 图像助手
- 256 K 长文档检索与问答,例如合同审阅、学术资料梳理
- 多工具自动化代理:搜索→规划→脚本执行→邮件汇报
- 课堂和研究中的可解释推理与安全测试实验
快速体验
git clone https://github.com/Tencent-Hunyuan/Hunyuan-A13B
pip install -r requirements.txt
python chat.py --model_path Hunyuan-A13B-Instruct