英伟达卖了50万个GPU!AI爆炸的背后是显卡的争夺
日期:2023-12-04 18:08:00 / 人气:482
根据市场跟踪公司Omdia的统计分析,NVIDIA第三季度销售了大约50万个H100和A100 GPU!
之前Omdia估计通过NVIDIA第二季度的销量卖出了900吨左右的GPU!
在大语言模型流行的背后,NVIDIA建立了强大的图形帝国。
在人工智能的大潮下,GPU成为全球机构、公司甚至国家争夺的对象。
在本财年第三季度,英伟达在数据中心硬件方面的收入为145亿美元,几乎是去年同期的四倍。
这显然是由于随着人工智能和高性能计算(HPC)的发展而变得炙手可热的H100 GPU。
市场跟踪公司Omdia表示,英伟达售出了近50万个A100和H100 GPU,巨大的需求也导致基于H100的服务器交付需要36到52周。
从上图可以看出,Meta和微软是最大的买家。他们各自购买了多达15万个H100 GPU,远远超过了谷歌、亚马逊、甲骨文和腾讯(各5万个)购买的数量。
值得注意的是,大部分服务器GPU都是提供给超大规模的云服务提供商的。而服务器原始设备厂商(如戴尔、联想、HPE)目前无法获得足够的AI和HPC GPU。
Omdia预测,到2023年第四季度,Nvidia的H100和A100 GPU的销量将超过50万台。
然而,几乎所有大量采购Nvidia H100 GPU的公司都在定制自己的芯片,用于人工智能、HPC和视频工作负载开发。
所以随着他们改用自己的芯片,购买英伟达硬件的可能会逐渐减少。
上图显示了服务器的情况。2023年,服务器出货量同比下降17%至20%,而服务器收入同比增长6%至8%。
Omdia云与数据中心研究实践总监Vlad Galabov和数据中心计算与网络首席分析师Manoj Sukumaran预测,到2027年,服务器市值将达到1956亿美元,是十年前的两倍多。
随着大公司转向异构计算或使用多个协处理器来优化服务器配置,对服务器处理器和协处理器的需求将继续增长。
目前,就运行人工智能训练和推理的服务器而言,最受欢迎的大规模语言模型训练的服务器是配备8个H100/A100 GPU的英伟达DGX服务器,以及配备16个定制协处理器(推理2)的亚马逊AI推理服务器。
对于配备了许多定制协处理器的视频转码服务器,最流行的是具有20个VCU(视频编码单元)的Google视频转码服务器和具有12个可扩展视频处理器的元视频处理服务器。
随着一些应用需求的成熟,构建一个优化的定制处理器会越来越划算。
媒体和人工智能将是超异构计算的早期受益者,然后数据库和网络服务等其他工作负载也将得到类似的优化。
Omdia的报告指出,高配置人工智能服务器的增加正在促进数据中心物理基础设施的发展。
例如,今年上半年的机架配电收入比去年增长了17%。在要求液冷解决方案的趋势下,预计2023年数据机柜热管理收入将增长17%。
此外,随着生成式人工智能服务的普及,企业将广泛采用AI,当前人工智能部署速度的瓶颈可能是电源。
热情的买家
除了上面提到的巨头之外,“私人领域”的各种组织和公司也纷纷购买NVIDIA H100来发展自己的业务或投资未来。
Bit Digital是一个可持续的数字基础设施平台,提供数字资产和云计算服务,总部位于纽约。公司已与客户签订条款,开展Bit Digital AI业务,支持客户的GPU加速工作负载。
根据协议,比特数码将为客户提供最少1024个GPU、最多4096个GPU的租赁服务。
同时比特数码已经同意购买1056英伟达H100 GPU,并支付了首笔定金。
美国公司Del Complex创立的蓝海前沿计算机集群(Blue Sea Frontier Computer Cluster,BSFC CC)本质上是一艘巨大的驳船,包括1万个Nvidia H100 GPU,总价值5亿美元。
据路透社报道,一家名为Voltage Park的非营利组织以5亿美元的价格购买了2.4万块英伟达H100芯片。
Volatage Park是由亿万富翁杰德·麦卡勒布(Jed McCaleb)资助的人工智能云计算组织,计划为人工智能项目租赁计算能力。
电压公园提供的GPU价格低至每小时每GPU 1.89美元。按需租用的客户可以租用1到8个GPU,而想要租用更多GPU的用户则需要保证一定的租期。
相比之下,亚马逊通过H100的8个P5节点为用户提供点播服务,但价格要贵很多。
基于8卡节点,AWS每小时收费98.32美元,而Voltage Park每小时收费15.12美元。
在人工智能的热潮下,英威达也雄心勃勃。
据《金融时报》报道,这家硅谷芯片巨头希望提高H100处理器的产量,目标是明年出货150万至200万台。
由于ChatGPT等大型语言模型的爆发,Nvidia的市值在今年5月飙升,成功跻身万亿美元俱乐部。
GPU作为开发大规模语言模型的基础组件,已经成为全球人工智能公司乃至各国争夺的对象。
据《金融时报》报道,沙特阿拉伯和阿联酋已经购买了数千个英伟达H100处理器。
与此同时,资金雄厚的风险投资公司也忙着为投资组合中的初创公司购买GPU,以构建自己的人工智能模型。
GitHub的前首席执行官纳特·弗里德曼(Nat Friedman)和丹尼尔·格罗斯(Daniel Gross)支持过GitHub、优步和许多其他成功的初创公司。他们买了几千个GPU,建立了自己的人工智能云服务。
这个被命名为仙女座星系团的系统拥有2512个H100 GPU,可以在10天左右训练出650亿个参数的人工智能模型。虽然不是目前最大的型号,但也很可观。
虽然只有两个投资人支持的初创企业才能使用这些资源。这一举措受到了好评。
Anthropic的联合创始人杰克·克拉克(Jack Clark)表示,在支持计算密集型初创企业方面,个人投资者比大多数政府做得都多。
Nvidia在第二季度销售了价值103亿美元的数据中心硬件,而第三季度为145亿美元。
Omdia曾经估计,一个Nvidia H100计算GPU带散热器的平均重量超过3千克(6.6磅),而Nvidia在第二季度的出货量超过30万个H100,总重量超过900吨(180万磅)。
让我们把这900吨形象化,相当于:
4.5架波音747
十一架航天飞机轨道飞行器
215,827加仑的水
299款福特F150
181,818台ps5
32,727只金毛寻回犬
有网友这样说:
但也有媒体觉得这个估计并不准确。因为Nvidia H100有三种不同的外形和不同的重量。
Nvidia H100 PCIe显卡重量为1.2kg,而带散热器的OAM模块最大重量为2kg。
假设Nvidia H100出货量的80%是模块,20%是显卡,单个H100的平均重量约为1.84kg..
无论如何,这是一个惊人的数字。而且,英伟达第三季度销量大幅增长。如果50万个GPU每个2 kg,总重量就是1000吨。
现在图形卡按吨出售。你怎么想呢?
参考资料:
https://www . toms hardware . com/tech-industry/NVIDIA-ai-and-HPC-GPU-sales-据报道,在第三季度接近50万台,这要感谢meta-facebook
之前Omdia估计通过NVIDIA第二季度的销量卖出了900吨左右的GPU!
在大语言模型流行的背后,NVIDIA建立了强大的图形帝国。
在人工智能的大潮下,GPU成为全球机构、公司甚至国家争夺的对象。
在本财年第三季度,英伟达在数据中心硬件方面的收入为145亿美元,几乎是去年同期的四倍。
这显然是由于随着人工智能和高性能计算(HPC)的发展而变得炙手可热的H100 GPU。
市场跟踪公司Omdia表示,英伟达售出了近50万个A100和H100 GPU,巨大的需求也导致基于H100的服务器交付需要36到52周。
从上图可以看出,Meta和微软是最大的买家。他们各自购买了多达15万个H100 GPU,远远超过了谷歌、亚马逊、甲骨文和腾讯(各5万个)购买的数量。
值得注意的是,大部分服务器GPU都是提供给超大规模的云服务提供商的。而服务器原始设备厂商(如戴尔、联想、HPE)目前无法获得足够的AI和HPC GPU。
Omdia预测,到2023年第四季度,Nvidia的H100和A100 GPU的销量将超过50万台。
然而,几乎所有大量采购Nvidia H100 GPU的公司都在定制自己的芯片,用于人工智能、HPC和视频工作负载开发。
所以随着他们改用自己的芯片,购买英伟达硬件的可能会逐渐减少。
上图显示了服务器的情况。2023年,服务器出货量同比下降17%至20%,而服务器收入同比增长6%至8%。
Omdia云与数据中心研究实践总监Vlad Galabov和数据中心计算与网络首席分析师Manoj Sukumaran预测,到2027年,服务器市值将达到1956亿美元,是十年前的两倍多。
随着大公司转向异构计算或使用多个协处理器来优化服务器配置,对服务器处理器和协处理器的需求将继续增长。
目前,就运行人工智能训练和推理的服务器而言,最受欢迎的大规模语言模型训练的服务器是配备8个H100/A100 GPU的英伟达DGX服务器,以及配备16个定制协处理器(推理2)的亚马逊AI推理服务器。
对于配备了许多定制协处理器的视频转码服务器,最流行的是具有20个VCU(视频编码单元)的Google视频转码服务器和具有12个可扩展视频处理器的元视频处理服务器。
随着一些应用需求的成熟,构建一个优化的定制处理器会越来越划算。
媒体和人工智能将是超异构计算的早期受益者,然后数据库和网络服务等其他工作负载也将得到类似的优化。
Omdia的报告指出,高配置人工智能服务器的增加正在促进数据中心物理基础设施的发展。
例如,今年上半年的机架配电收入比去年增长了17%。在要求液冷解决方案的趋势下,预计2023年数据机柜热管理收入将增长17%。
此外,随着生成式人工智能服务的普及,企业将广泛采用AI,当前人工智能部署速度的瓶颈可能是电源。
热情的买家
除了上面提到的巨头之外,“私人领域”的各种组织和公司也纷纷购买NVIDIA H100来发展自己的业务或投资未来。
Bit Digital是一个可持续的数字基础设施平台,提供数字资产和云计算服务,总部位于纽约。公司已与客户签订条款,开展Bit Digital AI业务,支持客户的GPU加速工作负载。
根据协议,比特数码将为客户提供最少1024个GPU、最多4096个GPU的租赁服务。
同时比特数码已经同意购买1056英伟达H100 GPU,并支付了首笔定金。
美国公司Del Complex创立的蓝海前沿计算机集群(Blue Sea Frontier Computer Cluster,BSFC CC)本质上是一艘巨大的驳船,包括1万个Nvidia H100 GPU,总价值5亿美元。
据路透社报道,一家名为Voltage Park的非营利组织以5亿美元的价格购买了2.4万块英伟达H100芯片。
Volatage Park是由亿万富翁杰德·麦卡勒布(Jed McCaleb)资助的人工智能云计算组织,计划为人工智能项目租赁计算能力。
电压公园提供的GPU价格低至每小时每GPU 1.89美元。按需租用的客户可以租用1到8个GPU,而想要租用更多GPU的用户则需要保证一定的租期。
相比之下,亚马逊通过H100的8个P5节点为用户提供点播服务,但价格要贵很多。
基于8卡节点,AWS每小时收费98.32美元,而Voltage Park每小时收费15.12美元。
在人工智能的热潮下,英威达也雄心勃勃。
据《金融时报》报道,这家硅谷芯片巨头希望提高H100处理器的产量,目标是明年出货150万至200万台。
由于ChatGPT等大型语言模型的爆发,Nvidia的市值在今年5月飙升,成功跻身万亿美元俱乐部。
GPU作为开发大规模语言模型的基础组件,已经成为全球人工智能公司乃至各国争夺的对象。
据《金融时报》报道,沙特阿拉伯和阿联酋已经购买了数千个英伟达H100处理器。
与此同时,资金雄厚的风险投资公司也忙着为投资组合中的初创公司购买GPU,以构建自己的人工智能模型。
GitHub的前首席执行官纳特·弗里德曼(Nat Friedman)和丹尼尔·格罗斯(Daniel Gross)支持过GitHub、优步和许多其他成功的初创公司。他们买了几千个GPU,建立了自己的人工智能云服务。
这个被命名为仙女座星系团的系统拥有2512个H100 GPU,可以在10天左右训练出650亿个参数的人工智能模型。虽然不是目前最大的型号,但也很可观。
虽然只有两个投资人支持的初创企业才能使用这些资源。这一举措受到了好评。
Anthropic的联合创始人杰克·克拉克(Jack Clark)表示,在支持计算密集型初创企业方面,个人投资者比大多数政府做得都多。
Nvidia在第二季度销售了价值103亿美元的数据中心硬件,而第三季度为145亿美元。
Omdia曾经估计,一个Nvidia H100计算GPU带散热器的平均重量超过3千克(6.6磅),而Nvidia在第二季度的出货量超过30万个H100,总重量超过900吨(180万磅)。
让我们把这900吨形象化,相当于:
4.5架波音747
十一架航天飞机轨道飞行器
215,827加仑的水
299款福特F150
181,818台ps5
32,727只金毛寻回犬
有网友这样说:
但也有媒体觉得这个估计并不准确。因为Nvidia H100有三种不同的外形和不同的重量。
Nvidia H100 PCIe显卡重量为1.2kg,而带散热器的OAM模块最大重量为2kg。
假设Nvidia H100出货量的80%是模块,20%是显卡,单个H100的平均重量约为1.84kg..
无论如何,这是一个惊人的数字。而且,英伟达第三季度销量大幅增长。如果50万个GPU每个2 kg,总重量就是1000吨。
现在图形卡按吨出售。你怎么想呢?
参考资料:
https://www . toms hardware . com/tech-industry/NVIDIA-ai-and-HPC-GPU-sales-据报道,在第三季度接近50万台,这要感谢meta-facebook
作者:风暴注册登录官网
新闻资讯 News
- 女孩说房间墙壁里有怪物,破拆后...12-17
- 女子靠卖头发赚21万,号称这会让...12-17
- 郭晶晶和吴敏霞时隔25年罕见同框...12-17
- 《雪迷宫》黄景瑜演技炸裂,颜值...12-17