aimixly (AI-Mixtral8x7B-开源-模型-魔搭社区上线Mistral-MoE)

文章编号:3109 更新时间:2024-01-14 分类:互联网资讯 阅读次数:

资讯内容

站长之家(ChinaZ.com)12月14日信息: aimixlyAI MistralAI近日颁布了开源MoE模型Mixtral8x7B,并发表在魔搭社区上线。

Mixtral-8x7B是一款混合专家模型(MixtrueofExperts),由8个领有70亿参数的专家网络组成,在才干上,Mixtral-8x7B支持32ktoken高低文长度,支持英语、法语、意大利语、德语和西班牙语,领有低劣的代码生成才干,可微调为指令追随模型。

该模型在MT-Bench评测上到达了8.3分,与GPT3.5相当。

Mixtral-8x7B-v0.1模型:

https://www.modelscope.cn/models/AI-ModelScope/Mixtral-8x7B-v0.1/summary

Mixtral-8x7B-Instruct-v0.1模型:

https://www.modelscope.cn/models/AI-ModelScope/Mixtral-8x7B-Instruct-v0.1/summary

Mistral-7B-Instruct-v0.2新模型:

https://www.modelscope.cn/models/AI-ModelScope/Mistral-7B-Instruct-v0.2/summary

(揭发)

标签: AIMixtral8x7B开源MoE魔搭社区上线Mistral模型

本文地址: https://yihaiquanyi.com/article/424a01f80a0bf41080cc.html

上一篇:2024年投资什么项目赚钱2024年投影行业还会...
下一篇:普通人和优秀人普通人优选主播酷似董宇辉西...

发表评论