传英伟达新AI芯片H20综合算力比H100降80%
其中,用于AI模型训练的HGXH20在带宽、计算速度等方面均有所限制,理论上,整体算力要比英伟达H100GPU芯片降80%左右,即H20等于H100的20%综合算力性能,而且增加HBM显存和NVLink互联模块以提高算力成本。所以,尽管相比H100,HGXH20价格会有所下降,但预计该产品价格仍将比国内AI芯片910B高一些。一位行业人士解...
重磅!中国版“英伟达”,要来A股了!
对比英伟达产品,A100FP32算力为19.5TFLOPS,H100SXM版本F32算力为67TFLOPS。采用英伟达最新架构Blackwell的B100和B200芯片算力更高,在FP8和FP4精度下,Blackwell性能可以是前一代Hopper架构产品的2.5倍和5倍。有着“中国版英伟达”之称的摩尔线程,与英伟达比较起来,差距不小。先活下去其实多年来即便有众多巨头对英...
又一家芯片独角兽启动IPO,创始人曾为英伟达黄仁勋“副手”
例如MTTS3000的FP32算力为15.2TFLOPS,英伟达A100为19.5TFLOP,相当于达到了80%的A100性能;桌面级MTTS80显卡的纸面性能相当于英伟达RTX3060。理论上,摩尔线程无论是在计算卡还是桌面级领域,性能应该达到了英伟达中端水准,但实际表现可能也并非如此。以MTTS80为例,根据网友测试来看,使用体验与RTX3060有很大差距,甚...
算力租赁市场已开始“洗牌”
买卡、卖卡、租卡,基本可以概括当前算力租赁市场的业务模式。这里的卡,包括英伟达的H100、A100等GPU,也包括国产的智算芯片。我们回顾那些或中止、或解除的算力租赁服务,会发现出问题的环节也往往在“卡”上。莲花控股披露的算力业务进展公告中显示,2023年9月,莲花控股子公司莲花科创向新华三购买330台GPU服务器,...
从算力到生态:智算中心“集群”如何向上?
在实际应用中,智算中心已经成为满足大规模模型训练与推理需求的“生命线”。随着10亿参数规模以上的大模型数量突破百个,AI算力需求急剧增加。例如,OpenAI训练GPT-4模型时使用了2.5万张英伟达A100GPU,这种大规模的算力需求推动了智算中心向更高性能、更大规模的方向发展。近年来,政府对于智算中心建设的重视程度...
准备冲刺IPO的摩尔线程,又一个“国产英伟达”?
据记者梳理,摩尔线程的AI计算芯片包括MTTS2000、MTTS3000和MTTS4000,其中MTTS4000是2023年12月发布的最新芯片,以上三个芯片FP32算力分别为10.6TFLOPS、15.2TFLOPS、25TFLOPS(www.e993.com)2024年11月22日。对比AI芯片巨头英伟达的产品,A100FP32算力为19.5TFLOPS,H100SXM版本F32算力为67TFLOPS。采用英伟达最新架构Blackwell的B100和B200芯片算力更...
中国算力,过剩了吗?
也就是说,2024年中国市场先进AI芯片(可同时用于大模型训练和推理的AI芯片。如英伟达的A100/A800、H100/H800、B100、H20等,华为昇腾910系列)出货量在100万枚以上。只看绝对数量,这个规模并不小。那么,算力究竟是短缺还是过剩?我们从多个科技云厂商、部分电信运营商人士处了解到,“短期够用,长期短缺”是他们的共同...
芯片将缩紧,华为遇挑战,中国汽车智能窗口期还剩1年?
实际上在1年多之前,AI训练芯片等方面的限制就开始陆续落地,包括英伟达A100、H100等芯片开始被限制。AI芯片,对当今的汽车产业来说,影响巨大,甚至超过之前芯片荒的MCU与IGBT。不久前,余承东与雷军在同场会议上的观点差异交锋,其最终落点既是大数据、AI训练、计算等方面。雷军对于小米汽车的展望是,汽车的高阶智能驾驶...
大陆失去7nm芯片,国产AI芯片将会怎样?
第一阶段,切断A100及性能更优的芯片供应:2022年10月7日,美国商务部文件提出对先进计算集成电路的出口限制规则ECCN3A090和4A090,当时英伟达热卖的A100芯片精准落入限制范围。不过为应对出口管制,禁令发布一个月后,英伟达推出替代版A800。对于随后推出的H100,英伟达也如法炮制推出替代版H800,以避免贸易限制。
745TFLOPS!Tenstorrent推768核RISC-V AI芯片:对标英伟达A100
8月28日消息,由传奇芯片架构师JimKeller领导的AI芯片新创公司Tenstorrent在近日的HotChips2024活动上详细介绍了其新一代基于RISC-V架构的BlackHole系列AI处理器,性能高达745TOPS,尽管芯片集成的内存容量和带宽低于英伟达A100,但是整体的AI性能和可扩展性更优。