微软研究院今天宣布发布其Phi,2小语言模型,这是一种文本到文本的人工智能程序,具有27亿个参数,Phi,2的性能可与其他更大的模型相媲美,包括Meta的Llama2,7B和Mistral,7B。
更新时间:2024-01-17 08:01:10
法国初创公司MistralAI的首席执行官ArthurMensch在法国国家广播电台宣布,公司计划于2024年开源GPT,4级模型,引发了业界的关注,MistralAI推出了基于MoE架构的8X7B模型,与。
更新时间:2024-01-16 19:02:56
Mistral最近发布了Mixtral8x7B模型,这一举动在AI圈引起了巨大反响,这一模型超越了业界知名的GPT,3.5和Meta的Llama2家族,在开源AI领域掀起了轩然大波,但正如宾夕法尼亚大。
更新时间:2024-01-16 09:05:46
上流,的开源,往往驳回最奢侈的发布方式,MistralAI在X平台甩出一条磁力链接,发表了新的开源举措,这篇报道还提到,ArthurMensch示意,只管公司尚未赚就任何钱,但估量。
更新时间:2024-01-14 19:53:41
MistralAI近日颁布了首个开源MoE模型Mixtral8x7B,并发表在魔搭社区上线,Mixtral8x7B是一个混合专家模型,由8个领有70亿参数的专家网络组成,能够解决32ktoken高低文长度,。
更新时间:2024-01-14 19:43:22
欧盟计划通过提供超级计算机的处理能力,支持本土AI初创公司进行模型训练,该计划于去年9月宣布,并于上个月开始实施,Mistral在欧盟的超级计算访问计划中的早期参与可能表。
更新时间:2024-01-14 11:44:48
MistralAI以87GB种子形式开源了近似于GPT,4的8x7BMoE模型,架构相似但规模更小,引发开发者关注和在线体验,Soul上线自研语言大模型SoulXSoul社交平台推出自研语言大模型So。
更新时间:2024-01-12 18:30:18