站长之家(ChinaZ.com)12月13日信息: 开源模型在人工智能畛域展现弱小生机,但闭源战略限度了LLM(大型言语模型)的开展。邢波团队提出的LLM360片面开源建议旨在处置这一疑问。该框架明白了包含训练数据、代码、模型审核点和性能目的在内的各方面细节,为以后和未来的开源模型树立了透明度的样本。
文章地址:https://arxiv.org/pdf/2312.06550.pdf
名目网页:https://www.llm360.ai/
博客:https://www.llm360.ai/blog/introducing-llm360-fully-transparent-open-source-llms.HTML
LLM360的外围组成局部包含训练数据集、训练代码与性能、模型审核点以及性能目的。这一全方位的开源使得钻研者可以更好地在社区中分享与流通,推进人工智能畛域的放开协作钻研。同时,LLM360框架下发布的AMBER和CRYSTALCODER是两个从头开局预训练的大型言语模型,为钻研者提供了开发阅历和性能评价结果。
AMBER是基于1.3Ttoken启动预训练的7B英语言语模型,性能相对较强。而CRYSTALCODER是基于1.4Ttoken训练的7B言语模型,在言语和代码义务之间取得了很好的平衡。这两个模型的开源不只提供了性能评价结果,还为整个LLM畛域的钻研提供了实质性的阅历和经验。
总体而言,LLM360的提出为大型言语模型的透明训练提供了一个规范,推进了开源模型的开展,减速了人工智能畛域的提高。这一片面开源的趋向有望促成更多钻研者的介入与协作,推进人工智能技术的始终翻新。
(揭发)
标签: LLM360、本文地址: https://yihaiquanyi.com/article/da8afac496b5d0dd2e7f.html
上一篇:将推出迪士尼什么意思将推出迪士尼100周年...