Hunyuan-A13B:轻显存也能释放 80B 大模型实力
Hunyuan-A13B 是腾讯开源的混合 MoE 大模型,总参数 80 B、推理仅激活 13 B 专家,3 GB 显存即可运行。模型提供 256 K 超长上下文,并支持 “Fast / Deep” 双档推理:轻任务快速响应,复杂问题深度推理,兼顾速度与准确率。
模型亮点
- 资源友好 13 B 激活参数显著降低显存及推理成本。
- 双档推理 “Fast” 模式高吞吐,“Deep” 模式精准推理,适应多场景负载。
- 长文本处理 256 K 窗口可一次载入合同、论文等超长文档。
- 多任务强项 数学、编程、工具调用基准追平甚至超越同尺寸稠密模型。
配套数据集
- C3-Bench 专测 AI 代理链路与脆弱性,促进安全和可解释研究。
- ArtifactsBench 评估代码模型在可视化交互中的真实表现,弥合文本评测盲区。
应用场景
场景 | 价值 |
---|---|
学术研究 | 80 B 潜力 × 13 B 资源,便于算法实验 |
成本敏感部署 | 中端 GPU 即可落地,推理费用低 |
AI 代理与自动化 | 内置函数调用格式,配合 C3-Bench 对齐测试 |
长文档问答与审阅 | 256 K 上下文满足法律、科研需求 |
快速上手
- Hugging Face:搜索 “Tencent-Hunyuan/Hunyuan-A13B” 下载权重。
- GitHub:克隆仓库 “Tencent-Hunyuan/Hunyuan-A13B” 查看实例代码。
- 云端 API:官方提供在线接口,便于快速验证推理效果。
Hunyuan-A13B 把高性能大模型从“高显存俱乐部”带向大众,为科研、企业和创新应用提供了兼顾成本与能力的新选择。