MoE 混合专家

MoE(Mixture of Experts)架构,即专家混合架构,是一种通过多个专家模块并行处理不同子任务,由门控网络依据输入数据动态分配,决定各专家模块参与度,以实现更高效、灵活处理复杂任务,提升模型表现与泛化能力的技术。

内容大纲

建议优先下载 PDF 版本,PPT 版本会因为字体缺失等原因导致版本很丑哦~

大纲小节链接
MOE 基本介绍01 MOE 架构剖析PPT, 视频
MOE 前世今生02 MOE 前世今生PPT, 视频
MOE 核心论文03 MOE 奠基论文PPT, 视频
MOE 核心论文04 MOE 初遇 RNNPPT, 视频
MOE 核心论文05 GSard 解读PPT, 视频
MOE 核心论文06 Switch Trans 解读PPT, 视频
MOE 核心论文07 GLaM & ST-MOE 解读PPT, 视频
MOE 核心论文08 DeepSeek MOE 解读PPT, 视频
MOE 架构原理09 MOE 模型可视化PPT, 视频
大模型遇 MOE10 MoE 参数与专家PPT, 视频
手撕 MOE 代码11 单机单卡 MoEPPT, 视频
手撕 MOE 代码12 单机多卡 MoEPPT, 视频
手撕 MOE 代码13 MoE 性能分析PPT, 视频
视觉 MoE14 视觉 MoE 模型PPT, 视频