2024年,GPU能降价吗?

2023过去,当我们回顾这一年的最受产业关注的芯片,相信大多数人会将票投向GPU。2023年中,我们总能听到“GPU紧缺”、“英伟达狂飙”、“黄仁勋分享成功秘诀”。

无可否认,2023年生成式AI的热潮无边无际,全球高科技公司都涌入了AI的军备竞赛。随之带来的是算力告急、全球疯抢GPU。

01

全球最火的GPU

2023年层出不穷地传出,人工智能AI大模型的消息。OpenAI、百度、谷歌、腾讯都在搭建属于自己的大模型。对于这些五花八门的大模型,我们不多赘述,但大模型的搭建,最需要的就是GPU,而2023年需求量最大的GPU不外乎:A100/H100。

首当其冲的就是A100GPU。OpenAI使用的是3,617台HGXA100服务器,包含近3万块英伟达GPU。国内云计算相关专家认为,做好AI大模型的算力最低门槛是1万枚英伟达A100芯片。

TrendForce研究则显示,以A100的算力为基础,GPT-3.5大模型需要高达2万枚GPU,未来商业化后可能需要超过3万枚。

H100也是业内追求的对象。H100于去年9月量产,由台积电4N工艺代工。相较于前任A100,H100单卡在推理速度上提升3.5倍,在训练速度上提升2.3倍;如果用服务器集群运算的方式,训练速度更是能提高到9倍,原本一个星期的工作量,现在只需要20个小时。

如此庞大的GPU需求量,导致基于H100的服务器需要36~52周的时间才能交付。按照英伟达官方的说法,2024年一季度之前的GPU芯片早已全部售罄。

业内预估,明年英伟达的出货量将达到150万-200万颗。

04

2024,GPU能降价吗?

第二个新品方面,英伟达在2023年11月底时,发布了H100的下一代继承者——H200。表示在处理Llama2等LLM时,H200的推理速度比H100GPU提高了近2倍。从2024年开始,亚马逊网络服务、谷歌云、微软Azure和甲骨文云基础设施将成为首批部署基于H200实例的云服务提供商。尽管还没有公布H200的价格,但一定比H100目前每台2.5万美元至4万美元的价格更加昂贵。

从两个方面看,英伟达的GPU供需还存在较大的不确定性。不过。卖家市场,会有更多厂商加入。

明年GPU的另一大卖家,就是回过神来的AMD。

从最近的财报来看,AMD预计四季度GPU收入将达到4亿美元,到2024年底将超过10亿美元。其CEO苏姿丰对明年充满期待:“MI300将成为自2020年后,销售额达到10亿美元最快的产品。”

2023年11月,AMD正式发布了对标H100的产品——MI300。据AMD展示,由8块MI300X组成的服务器在大模型推理方面的表现,要比同样规模的H100速度最高提升1.6倍之多。对于AMD来说,这种直接对标,实属罕见。

有意思的是,Meta、微软和OpenAI公司在AMD投资者活动上表态,未来他们将会使用AMD最新的人工智能(AI)芯片InstinctMI300X。

不过,英伟达对AMD的对标也态度强硬,官方发布博客,驳斥AMD的评测不客观。英伟达表示,如果H100GPU使用了优化过的软件进行正确的基准测试,它的性能将大大超过MI300X。

由于MI300还未正式应用,对于我们对于AMD和英伟达之间的“官司”很难分说,但不论如何,AMD已经走到了高性能GPU的起跑线。

总而言之,2024年的GPU还充满变数。在AI大模型冷静后、在买家不想当冤大头后、在卖家越来越多后,GPU还会维持天价吗?相信各位看官心中自有答案。从市场的角度看,无论是当下多先进的技术,到最后终将会越来越普世。就看GPU玩家们,在2024年如何进攻战场了。

声明:该文观点仅代表作者本人,IT手机资讯系信息发布平台,仅提供信息存储空间服务。
科技

不吹不黑,荣耀100 Pro真实体验分享,应该有你想要的答案

2024-1-2 12:08:01

科技

HX55标压处理器+16四边窄电竞屏华硕天选5Pro新系列

2024-1-3 11:33:17

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索