【词汇专栏】MoE(混合专家):为什么 DeepSeek 又快又省钱?

张开发
2026/4/14 0:34:07 15 分钟阅读

分享文章

【词汇专栏】MoE(混合专家):为什么 DeepSeek 又快又省钱?
MoE混合专家为什么 DeepSeek 又快又省钱DeepSeek-V3 有 6710 亿个参数但运行速度比 GPT-4o 还快Gemini 1.5 Pro 能处理 100 万词元Token还不崩溃这背后的秘密叫做 MoE——混合专家架构。一句话定义MoEMixture of Experts混合专家是一种让模型由多个专家子网络组成每次处理任务时只激活其中少数几个最合适的专家而不是激活所有参数的架构设计。它让模型在拥有超大参数量的同时保持较低的计算成本。为什么需要 MoE传统的大语言模型Dense Model稠密模型有一个问题每次处理任何输入都要激活所有参数。GPT-31750 亿参数处理一句你好——1750 亿个参数全部参与计算。GPT-3 处理一道数学题——还是 1750 亿个参数全部参与计算。这极度浪费你问数学题为什么要激活负责写诗的那部分参数MoE 的思路来自 1991 年 Jacobs 等人提出的专家混合神经网络理论。2021 年 Google 将其大规模应用于 Switch Transformer2022-2024 年被 Mixtral、Gemini、DeepSeek 等主流模型广泛采用成为大模型架构的主流方向之一。通俗类比医院 vs 全科诊所传统稠密模型 一位全能医生医院只有一位医生无论什么病都找他病人来了之后这位医生把他会的所有知识全部回忆一遍再给出诊断知识扎实但效率低下每次都要重新学一遍所有医学知识MoE 模型 专科医院医院有 100 位专科医生心内科、神经科、骨科、皮肤科……每位医生只精通自己的领域病人来了之后**分诊台路由器**迅速判断这是心脏病派心内科医生2-3 位处理骨科、皮肤科等其他医生这次完全不参与节省了大量资源技术层面MoE 是怎么工作的MoE 架构有两个核心组件组件一专家网络Expert Networks把 Transformer 中的前馈网络FFN层替换为多个平行的专家子网络标准 FFN1 个大网络全部参数都激活 MoE FFNN 个小专家网络每次只激活 K 个DeepSeek-V3 示例共有256 个专家每次推理只激活8 个专家激活比例8/256 3.1%组件二路由器Router / Gating Network一个轻量级网络负责决定把这个词元Token派给哪几个专家输入词元今天股市怎么样 ↓ 路由器计算每个专家的匹配分数 ↓ 选择得分最高的 K 个专家如 Top-2 ↓ 只有这 2 个专家参与计算 ↓ 输出结果MoE 的核心优势优势一参数多成本低最关键DeepSeek-V3总参数 6710 亿激活参数 370 亿 GPT-4估算Dense 架构总参数约 1.8 万亿全部激活 → DeepSeek-V3 每次推理实际算的参数只有 GPT-4 的约 1/5 → 推理成本大幅降低优势二专家专业化精度提升不同专家会逐渐自然分工有的专家擅长数学推理有的专家擅长语言翻译有的专家擅长代码生成这种自然分工往往能带来比单一大网络更好的特定领域性能。优势三可以无限扩展专家数量扩大模型规模时只需增加专家数量不需要增加每次推理的计算量。MoE vs Dense稠密模型对比对比维度MoE 模型Dense 模型总参数量非常大但大部分休眠相对较小每次激活参数少总参的 2%-10%全部激活推理速度快激活参数少较慢推理成本低高训练成本较高路由学习复杂相对简单显存需求高全部参数要装进内存相对低代表模型DeepSeek-V3、Gemini 1.5、MixtralGPT-3、Llama 2MoE 的挑战挑战一显存需求大虽然每次只激活少数专家但所有专家的参数都要加载到内存/显存中。DeepSeek-V3 的 6710 亿参数意味着需要超大显存集群才能部署。挑战二负载均衡难题如果路由器太偏心总是选同几个专家其他专家就形同虚设专家倒塌问题。DeepSeek 为此专门设计了辅助损失函数来强制均衡。挑战三训练不稳定路由器和专家的协同训练比 Dense 模型更容易出现不稳定需要更精细的超参数调整。代表性 MoE 模型模型总参数激活参数专家数量发布时间Mixtral 8x7BMistral AI约 46B约 12B82023.12Mixtral 8x22BMistral AI约 141B约 39B82024.04DeepSeek-V2236B21B1602024.05Qwen1.5-MoE-A2.7B阿里14.3B2.7B642024.03DeepSeek-V3671B37B2562024.12Mistral Large 2未公开未公开未公开2024.07Gemini 1.5 Pro估算未公开未公开未公开2024.02GPT-4传言~1.8T~220B162023.032026年更新MoE已成为大模型架构的主流选择DeepSeek-V3以671B总参数、仅37B激活参数的配置实现了与GPT-4相当的性能推理成本却降低了10倍以上。常见误区误区真相“MoE 模型比 Dense 模型聪明”⚠️ 不一定MoE 是效率优化不是智力提升“激活参数少 能力弱”❌ 激活参数少只意味着计算量少不代表能力差“MoE 随便能在本地运行”❌ 全部参数依然要加载DeepSeek-V3 需要多张 H100 才能运行“所有大模型都是 MoE”❌ Llama 3、Claude 3 等模型仍是 Dense 架构一句话总结MoE 就是把一个什么都会的胖子变成一群各有专长的专家团队——总人数参数量可以很多但每次干活只叫几个人既省钱又专业。这就是 DeepSeek 用十分之一成本媲美 GPT-4 的核心秘密之一。 读者互动你在使用哪些MoE架构的模型DeepSeek-V3性价比之王GPT-4最知名的MoEGemini 1.5 Pro超长上下文Mixtral开源先锋还没用过MoE模型你觉得MoE架构最大的价值是什么欢迎在评论区分享你的看法下一篇《AGI vs ANI vs ASIAI 的三种等级》标签#AI术语#MoE#混合专家#DeepSeek#Gemini#大模型架构更新日志2026-03初版发布2026-04-03增加Qwen1.5-MoE等模型补充发布时间增加读者互动

更多文章