开源项目
Chinese-Mixtral-8x7B
本项目基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,希望进一步促进中文自然语言处理社区对MoE模型的研究。
Chinese-Mixtral-8x7B
本项目基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,希望进一步促进中文自然语言处理社区对MoE模型的研究。Abacus
珠算大模型在代码与通用语言平均性能上超过一众3B以下代码大模型,且开源权重、训练细节以及配套的微调适配平台与插件助力开源社区发展。