车企集体烧钱造芯片,单纯为了炫技?
而到了8月底,小鹏MONAM03暨小鹏十周年发布会上,何小鹏现场宣布小鹏自研的自动驾驶芯片“图灵”流片成功。它专为AI大模型研发,不仅仅可用于智驾系统,还可用于机器人、飞行汽车等等,拥有40核处理器,最高可运行大模型参数30B(数据量和苹果的MM1大模型相当)。虽说现场没有公布制程和算力,不过何小鹏也透露,图灵...
2030年,中国智算中心用电最高达1.3万亿度 | AI改变能源
2030年中国智算年用电最高1.3万亿度然而,这还不是智算中心用电量的一切。要让这些AI芯片在智算中心顺利跑起来,完成训练与推理任务,离不开其他关键IT设备的配合,包括服务器上的CPU、网卡、供电单元等,以及服务器间的存储服务器、网络交换机、CPU节点、光纤收发器和许多其他设备。它们都需要用电。不同的智算中...
富士康从越南拉回大量设备和模具:大量企业停工,原因不仅是没电
甚至在今年5月21日,大范围的热量还没有到来之前,政府官员就已经向工厂喊话,希望他们能够自主调节用电量,降低总量的30%左右,这样才能保障整个地区的可持续用电。不过据消息人士透露,关于这件事情官方还没有任何正式的公文,很大可能是某些人的看法,而且他们也只是建议,不是强制实行,究竟要怎么做,还是要看富士...
芯片行业,要好起来了吗?
该季度公司产品实际出货量变化不大,因此价格上涨是业绩回升的主要因素。美光CEO在三季报中继续强调AI业务,但也承认其智能手机和个人电脑市场仍然低迷。此外,美光用于AI芯片的HBM芯片订单在2025年之前已经售罄/脱销;2024年供不应求,但行业和零售需求存在不确定性。SK海力士:营收创历史新高SK海力士2024财年第二季度营...
AI的尽头是电力?2030年用电量或达6倍!ChatGPT每天“吃”56万度电...
AI对应的算力芯片需求与电量需求初现规模。根据相关机构预测,OpenAI需要3617个英伟达HGXA100服务器以支持ChatGPT的交互,包含28936个GPU,对应约每天564MWh的用电量。同时,AI需求的爆发也将驱动更多的进入者与持续的需求增长,以谷歌搜索为例,若每次搜索中都嵌入AI应用,则对应需要约40-51万套英伟达HGXA100服务器以支持...
AI用电量极速攀升引热议 会导致能源短缺吗?
英伟达CEO黄仁勋举例,使用8000枚其第一代AI芯片训练聊天机器人ChatGPT三个月,将耗能15兆瓦,而使用新一代芯片在同样时长内执行同样任务,仅需2000枚芯片,能耗则降低至4兆瓦(www.e993.com)2024年9月20日。另外,据日媒报道,英伟达计划从三星采购高带宽内存(HBM)芯片,这是人工智能处理器的关键组件,目前正在测试。
EV晨报 | 工信部:加大车用芯片、高级别自动驾驶等技术攻关;华为...
工信部:落实落细车购税减免等优惠政策,加大车用芯片、全固态电池、高级别自动驾驶等技术攻关1月19日,国新办就2023年工业和信息化发展情况举行发布会,工业和信息化部副部长辛国斌在会上表示,今年初,工信部就组织行业机构、研究机构、行业协会开展了调研,进一步分析我们现在面临的发展环境、制约因素,以及发展的一些有利...
制约人工智能发展的竟然是耗电量太高
可是,人工智能可不是一张芯片就能满足的。以GPT-3的训练为例,GPT-3有1750亿个参数,据估计,训练过程使用了大约1287兆瓦时的电力。算下来,就是128.7万度这个耗电量有多大?这相当于美国约121个家庭一整年的用电量。相当于3000辆特斯拉电动汽车共同开跑,每辆车跑20万英里。
需求太旺!黄仁勋讲话引爆英伟达股价;三星电子将大幅裁减海外员工...
市场研究机构TechInsights发布报告,预计iPhone16系列的出货量将超过其前代产品,2024年全球出货量预计将达到7300万台。此外iPhone16ProMax预计将成为iPhone16系列销量最高的机型,占总销量的35%,机构称这得益于其更大的显示屏、A18Pro芯片以及对高端用户的吸引力。
算力巨兽能耗惊人:英伟达 H100 AI 芯片总耗电量将超欧洲小国
按照61%的年利用率,每块H100每年将消耗约3740千瓦时(kWh)的电量。如果英伟达在2023年售出150万块H100,2024年售出200万块,到2024年底,将有350万块H100芯片被部署。这些芯片的总年耗电量将达到惊人的130.91亿千瓦时,即13091.82吉瓦时(GWh)。