站长之家(ChinaZ.com)12月14日信息: MistralAI近日颁布了开源MoE模型Mixtral8x7B,并发表在魔搭社区上线。
Mixtral-8x7B是一款混合专家模型(MixtrueofExperts),由8个领有70亿参数的专家网络组成,在才干上,Mixtral-8x7B支持32ktoken高低文长度,支持英语、法语、意大利语、德语和西班牙语,领有低劣的代码生成才干,可微调为指令追随模型。
该模型在MT-Bench评测上到达了8.3分,与GPT3.5相当。
Mixtral-8x7B-v0.1模型:
https://www.modelscope.cn/models/AI-ModelScope/Mixtral-8x7B-v0.1/summary
Mixtral-8x7B-Instruct-v0.1模型:
https://www.modelscope.cn/models/AI-ModelScope/Mixtral-8x7B-Instruct-v0.1/summary
Mistral-7B-Instruct-v0.2新模型:
https://www.modelscope.cn/models/AI-ModelScope/Mistral-7B-Instruct-v0.2/summary
(揭发)
标签: AI、 Mixtral8x7B、 开源、 MoE、 魔搭社区上线Mistral、 模型、本文地址: https://yihaiquanyi.com/article/424a01f80a0bf41080cc.html
上一篇:2024年投资什么项目赚钱2024年投影行业还会...