速度快10倍,成本降一个数量级!英伟达发布ChatGPT专用GPU

2023-03-22 12:09:00 - 澎湃新闻

速度快10倍,成本降一个数量级!英伟达发布ChatGPT专用GPU

澎湃新闻编辑李垚瑞(00:59)

北京时间3月21日晚,图形芯片巨头英伟达(Nvidia)召开2023年GTC大会,其创始人兼CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了英伟达在人工智能(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI(人工智能)视频的芯片L4,以及AI超级计算服务DGXCloud等。

在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。

“生成式AI让企业产生重新思考其产品设计、商业模式,大家都希望成为推动变革的一方,而不是被变革淘汰的一方。”黄仁勋说道。

3月21日美股收盘,英伟达涨1.15%,报收261.99美元/股。

H100NVL:速度快10倍,成本降低一个数量级

去年11月,OpenAI推出基于大型语言模型(LLM)的聊天机器人ChatGPT,这一技术引发各界关注,随后微软、谷歌等科技公司在AI领域展开角逐。

在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIAH100NVL。

H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPUNVLINK的PCIEH100GPU,能处理含1750亿参数的GPT-3。

与用于处理ChatGPT的HGXA100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将大语言模型的处理成本降低一个数量级。

“加速计算并非易事。”黄仁勋举例,2012年计算机视觉模型AlexNet动用了GeForceGTX580,每秒可处理262PetaFLOPS,该模型引发了AI技术的爆炸。而十年之后,随着Transformer的出现,GPT-3动用323ZettaFLOPS的算力,是AlexNet的100万倍。

速度快10倍,成本降一个数量级!英伟达发布ChatGPT专用GPU

此外,针对AI视频英伟达还推出了芯片L4,在视频解码和转码、视频内容审核、视频通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI视频性能,同时能效提高99%。

在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、台积电等巨头展开合作。据介绍,cuLitho可将计算光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。

“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年需要消耗数百亿CPU小时。”黄仁勋说道,该软件正被集成到全球最大的代工芯片制造商台积电的设计系统中,台积电将于6月开始对cuLitho进行生产资格认证。

DGXCloud:每月3.7万美元,让任何企业都能构建AI能力

在主题演讲中,黄仁勋还介绍了英伟达在生成式AI方面的另一个布局——AI超级计算服务DGXCloud。

黄仁勋透露,英伟达已经与多家云服务供应商合作,推出云端人工智能DGXCloud,未来企业可以按月租、通过浏览器使用DGXCloud集群,快速轻松地扩展大型多节点AI训练。DGXCloud起价为每个实例每月36999美元。

“这种合作关系将英伟达的生态系统带到云服务商手中,还扩大了英伟达的市场规模和覆盖面。”黄仁勋说道。

据介绍,每个DGXCloud实例具有八个H100或A10080GBTensorCoreGPU,每个节点共有640GBGPU内存。NVIDIANetworkin构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当巨大的GPU,以满足高级AI训练的性能要求。

目前英伟达已经与甲骨文展开合作,预计微软Azure在下个季度将会开始托管DGXCloud,未来谷歌云也将加入托管行列。

值得注意的是,早在2016年,黄仁勋便向OpenAI交付了第一台NVIDIADGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理 AI,《财富》100强企业中有一半安装了DGX。黄仁勋称,DGX是超级计算机是现代AI工厂。

对于英伟达带来的产品,金融机构RosenblattSecurities的半导体分析师HansMosesmann表示,这些产品“比竞争对手领先很多年。”该分析师认为,“英伟达在AI软件方面的领导地位不仅具有里程碑意义,而且还在加速发展。”

今日热搜