据阿里通义千问官微,通义千问团队开源首个MoE模型,名为Qwen1.5-MoE-A2.7B。它仅有27亿个激活参数,但性能可与当前公认最先进的70亿参数模型(Mistral 7B、Qwen1.5-7B等)相媲美。
上一篇
京东召开2024 AIPC先人一步启动会
下一篇
中国煤炭工业协会、中国煤炭运销协会发布倡议书
赋能企业新技能,助力企业新发展!