目前,各大模型制造机构也加入了争夺芯片市场的行列。
然而,该芯片目前仍处于研发阶段。
越来越多的科技巨头,包括苹果和华为等硬件制造商,也开始自主设计和开发自己的芯片,以满足自身的业务需求和差异化竞争。
微软也推出了两款自研芯片Azuremaia100和AzureCobalt100。
谷歌刚刚发布了号称吊打GPT-4的大模型Gemini1.0,采用了自研的TPUsv4和v5e芯片。
OpenAI的CEOSamAltman多次公开抱怨芯片短缺和高成本。
最近,OpenAI透露了一份订购意向书,承诺从一家名为RainAI的初创公司订购芯片,金额高达5100万美元。
微软的数据中心计划在2024年同时采用Arm CPU和专用AI加速器。
此外,谷歌还发布了TPU系统CloudTPUv5p,旨在为训练前沿AI模型提供支持,从而加速Gemini的开发。
据报道,每个ChatGPT查询的成本约为4美分,如果该类查询增长到Google搜索的1/10,就需要预先投入价值约480亿美元的GPU,并每年花费160亿美元来维持运行。
OpenAI计划从CEOSamAltman投资的初创公司RainAI订购更高效的NPU芯片。
谷歌称,在TPUs上,Gemini的运行速度明显快于早期规模更小、性能更弱的模型。
算力短缺和高成本已经成为一个问题,戴尔亚太和日本总裁PeterMarrs预测,买家不会容忍英伟达GPU的交货时间过长,这将为竞争对手提供机会。
尽管AI芯片市场正在蓬勃发展,但要挑战英伟达并非易事。
虽然大模型公司们卷入了芯片赛道,但是否能完全摆脱对英伟达的依赖还有待观察。
美国超威半导体公司(AMD)已经推出了新一代AI芯片MI300X,并从英伟达手中夺走了Meta、微软和OpenAI这三个重要的客户。
OpenAI运行ChatGPT的成本每天高达70万美元。
而谷歌的新模型Gemini1.0采用了自家设计的芯片TPUsv4和v5e。
近年来,各大模型公司纷纷推出AI大模型和应用,英伟达的A100、A800、H100、H800等支持AI大模型训练的芯片供不应求。
微软最近推出了两款自研芯片——云端AI芯片微软AzureMaia100和服务器CPU微软AzureCobalt100。
人工智能的行业竞争不仅涉及到OpenAI与谷歌等互联网巨头之间的竞争,还包括支撑运算的芯片赛道。
微软和谷歌等大型科技公司也在不断努力打造更高效的芯片。
消费者不仅包括科技公司,还有各国政府和风险投资公司。
该款芯片是基于神经拟态技术的类脑AI芯片NPU,据说模仿了人脑的结构和功能,能够并行和分布式地处理信息,非常适合处理计算密集型任务。
在此之前,英伟达一直是这些大模型公司的主要芯片供应商,但如今这些公司试图在芯片赛道上自给自足,向英伟达发起挑战。
Maia100用于云端AI工作负载的训练和推理,Cobalt100则用于通用工作负载。
为了摆脱对英伟达芯片的依赖,OpenAI正在考虑开发自己的AI芯片,以应对全球GPU短缺,缩减GPT的训练成本。
标签: 大模型、本文地址: https://yihaiquanyi.com/article/ad252edfc872269424e1.html
上一篇:网易有道在线翻译网易有道将在1月3日颁布子...