h200芯片英伟达 (芯片-英伟达危-卷-大模型公司)

文章编号:3569 更新时间:2024-01-17 分类:互联网资讯 阅读次数:

资讯内容

目前,各大模型制造机构也加入了争夺芯片市场的行列。

h200芯片英伟达芯片英伟达危卷大模

然而,该芯片目前仍处于研发阶段。

越来越多的科技巨头,包括苹果和华为等硬件制造商,也开始自主设计和开发自己的芯片,以满足自身的业务需求和差异化竞争。

微软也推出了两款自研芯片Azuremaia100和AzureCobalt100。

谷歌刚刚发布了号称吊打GPT-4的大模型Gemini1.0,采用了自研的TPUsv4和v5e芯片。

OpenAI的CEOSamAltman多次公开抱怨芯片短缺和高成本。

最近,OpenAI透露了一份订购意向书,承诺从一家名为RainAI的初创公司订购芯片,金额高达5100万美元。

微软的数据中心计划在2024年同时采用Arm CPU和专用AI加速器。

此外,谷歌还发布了TPU系统CloudTPUv5p,旨在为训练前沿AI模型提供支持,从而加速Gemini的开发。

据报道,每个ChatGPT查询的成本约为4美分,如果该类查询增长到Google搜索的1/10,就需要预先投入价值约480亿美元的GPU,并每年花费160亿美元来维持运行。

OpenAI计划从CEOSamAltman投资的初创公司RainAI订购更高效的NPU芯片。

谷歌称,在TPUs上,Gemini的运行速度明显快于早期规模更小、性能更弱的模型。

算力短缺和高成本已经成为一个问题,戴尔亚太和日本总裁PeterMarrs预测,买家不会容忍英伟达GPU的交货时间过长,这将为竞争对手提供机会。

尽管AI芯片市场正在蓬勃发展,但要挑战英伟达并非易事。

虽然大模型公司们卷入了芯片赛道,但是否能完全摆脱对英伟达的依赖还有待观察。

美国超威半导体公司(AMD)已经推出了新一代AI芯片MI300X,并从英伟达手中夺走了Meta、微软和OpenAI这三个重要的客户。

OpenAI运行ChatGPT的成本每天高达70万美元。

而谷歌的新模型Gemini1.0采用了自家设计的芯片TPUsv4和v5e。

近年来,各大模型公司纷纷推出AI大模型和应用,英伟达的A100、A800、H100、H800等支持AI大模型训练的芯片供不应求。

微软最近推出了两款自研芯片——云端AI芯片微软AzureMaia100和服务器CPU微软AzureCobalt100。

人工智能的行业竞争不仅涉及到OpenAI与谷歌等互联网巨头之间的竞争,还包括支撑运算的芯片赛道。

微软和谷歌等大型科技公司也在不断努力打造更高效的芯片。

消费者不仅包括科技公司,还有各国政府和风险投资公司。

该款芯片是基于神经拟态技术的类脑AI芯片NPU,据说模仿了人脑的结构和功能,能够并行和分布式地处理信息,非常适合处理计算密集型任务。

在此之前,英伟达一直是这些大模型公司的主要芯片供应商,但如今这些公司试图在芯片赛道上自给自足,向英伟达发起挑战。

Maia100用于云端AI工作负载的训练和推理,Cobalt100则用于通用工作负载。

为了摆脱对英伟达芯片的依赖,OpenAI正在考虑开发自己的AI芯片,以应对全球GPU短缺,缩减GPT的训练成本。

标签: 大模型

本文地址: https://yihaiquanyi.com/article/ad252edfc872269424e1.html

上一篇:网易有道在线翻译网易有道将在1月3日颁布子...
下一篇:音乐等基本音程有哪些音乐等基本音频可处理...

发表评论