英伟达与微软就B200部署产生分歧,后者希望使用定制服务器机架并...
这是一个全机架解决方案,有18个1U服务器,每台服务器里带有两个GB200GraceBlackwellSuperchip,合计共有36个GraceCPU和72个BlackwellGPU,计算节点全部采用液冷MGX封装。英伟达将整个GB200NVL72计算平台视为一个整体的GPU解决方案,这样销售产品能够得到额外的收入,但是会影响客户选择安装的方式。以往客户负责...
英伟达显卡价格在亚洲部分区域飙升;京东集团一线客服全员涨薪超30...
1、英伟达GeForceRTX4090显卡价格在部分亚洲区域飙升。据报道,因为人们愿意花大笔现金购买,后以更高价格转售。部分亚洲国家的GeForceRTX4090价格飙升了60%。例如GeForceRTX4090的建议零售价为1599美元,中国台湾光华商场和韩国龙山电子市场的买家,以超过2500美元的价格购买这些卡,以便以三倍的价格转售到中国大陆和...
炸场的英伟达,把自己“炸了”?
为了方便理解,给大家整理了一个表格,可以对照看B102和B100这个基础芯片,以及对应的服务器SKU,针对不同应用的服务器,还可以组合出更多款式,例如HGXB200A/HGXB200/NVL36/72甚至是NVL8或GB210A的气冷版本。Blackwell芯片的命名及各种SKU让外界理解混乱,可以理解,但“CoWoS良率只有66%,一片晶圆只能切10颗Good...
一个漏洞,引发英伟达暴跌
为了方便理解,给大家整理了一个表格,可以对照看B102和B100这个基础芯片,以及对应的服务器SKU,针对不同应用的服务器,还可以组合出更多款式,例如HGXB200A/HGXB200/NVL36/72甚至是NVL8或GB210A的气冷版本。Blackwell芯片的命名及各种SKU让外界理解混乱,可以理解,但“CoWoS良率只有66%,一片晶圆只能切10颗Good...
有钱买卡还不够,10万卡H100集群有多难搭?一文解析算力集群技术要点
10万卡集群所需的关键IT部件的总功率约为150MW,相比之下,美国最大的国家实验室超算ElCapitan的关键IT功率只有30MW,约为五分之一,可谓是相形见绌。在如此庞大的功率中,GPU本身的耗电实际上只有不到一半。根据官方参数,每张H100的功率为700W,但服务器上还有CPU、网卡(NIC)、供电单元(powersupplyunit)等设...
利润暴涨628%,AI霸主英伟达全产业链投资图鉴|智氪
例如,在2024的GTC大会上,英伟达就发布了DGXGB200服务器,以及DGXGB200SuperPod机架级液冷服务器(www.e993.com)2024年11月22日。具体来看,DGXGB200SuperPod由8台DGXGB200服务器组成,一台DGXGB200服务器由36个GB200组成,一个GB200又由2个B200GPU和一个GraceCPU组成。英伟达映射的投资机会有哪些?
一文梳理!英伟达全产业链
例如,在2024的GTC大会上,英伟达就发布了DGXGB200服务器,以及DGXGB200SuperPod机架级液冷服务器。具体来看,DGXGB200SuperPod由8台DGXGB200服务器组成,一台DGXGB200服务器由36个GB200组成,一个GB200又由2个B200GPU和一个GraceCPU组成。英伟达映射的投资机会有哪些?
...投向操作系统研发;英伟达发布Q4财报:净利润122.85亿美元,同比...
从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。如果运行三年的话,Groq的硬件采购成本是1144万美元,运营成本是76.2万美元或更高。8卡H100的硬件采购成本是30万美元,运营成本是7.2万美元或略低。”微软正在开发英伟达网卡的替代品...
AI推理速度提升超10倍,Groq LPU能否取代英伟达GPU?
单从硬件成本上来计算,70张GroqLPU加速卡成本约140万美元,一个8张H100加速卡的服务器的价格约为30万美元,显然,对于运行FP16精度的Llama-27b模型来说,采用NVIDIAH100的性价比也是远高于GroqLPU。当然,这并不是说GroqLPU相对于NVIDIAH100来说毫无优势,正如前面所介绍的那样,GroqLPU的主要优势在于其采用了...
2024年值得关注的7个产业趋势和8个政策主题
目前,先进的AI训练GPU芯片均已搭载HBM存储芯片,例如,英伟达的A100、H100基板均搭载了8个GPU,每个GPU搭载6个HBM2e;AMD的MI300X将采用三星的HBM3技术;英伟达最新产品H200成为首款提供HBM3e内存的GPU。随着AI服务器及新款HBM渗透率的进一步提升,HBM市场增量空间广阔。根据Trendforce数据,2022年AI训练服务器占服务器总量...