
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于哈夫曼树的MoE模型专家渐进融合框架ExpertFuse:实现低资源设备高效部署的新策略
【字体: 大 中 小 】 时间:2025年11月01日 来源:Neural Networks 6.3
编辑推荐:
本文提出ExpertFuse框架,通过哈夫曼树(Huffman tree)策略对混合专家模型(Mixture-of-Experts, MoE)中利用率低的专家进行渐进式融合,显著降低内存消耗和推理成本。该硬件无关的解决方案在GLUE、MMLU等基准测试中保持强劲性能,为低资源设备部署大型语言模型(LLMs)提供了创新路径。
生物通微信公众号
知名企业招聘