AI基建加速扩张,半导体行业靠什么缓解“算力焦虑”?

2024-11-21 10:31:00 - 界面新闻

界面新闻记者|李彪

界面新闻编辑|宋佳楠

生成式AI带动了市场对高性能算力的需求暴涨,为此,英伟达、AMD今年集体以更快的速度开发新产品,将“两年一迭代”提速到“一年一迭代”。然而这样的速度依然追不上市场需求的膨胀。

“按照产业界估计,每两年,AI大模型的算力需求增长750倍,而GPU算力仅增长3倍,对应还需存储、传输带宽、功耗电力一系列半导体性能指标的膨胀。”芯和半导体创始人代文亮在第二十一届中国国际半导体博览会上接受界面新闻专访时表示,AI算力的投入在全球都处于基建投资阶段,相应的投资在一定时期内都需要为AI应用的落地“超前建设”。

在AI算力的扩容过程中,行业头部厂商的垄断趋势将进一步集中。代文亮指出,除了像英伟达、AMD继续在GPU计算芯片上掌握绝大多数市场份额外,存储芯片领域HBM的产能则主要集中在SK海力士、三星、美光手中,还有像博通生产的交换机、以太网等网络互联芯片,以及台积电这家几乎负责代工生产全球所有AI芯片的公司,这些厂商彼此间的产业链合作关系绑定越来越深。

国内的算力基建需要更多时间追赶海外的扩张速度。从2023年起,因地缘政治原因,GPU、HBM等产品进口受限,国内目前与海外存在量级差距。相比于Meta、亚马逊、特斯拉都在批量建设达10万张GPU显卡规模的数据中心,万卡对国内大多数厂商来说都是巨大的挑战。

代文亮认为,除了在算力基建上继续保持政府提出的“适度超前”节奏外,国内也需要投入更多到创新的技术方案,例如Chiplet,以应对AI时代的“算力焦虑”。

AI基建加速扩张,半导体行业靠什么缓解“算力焦虑”?

Chiplet是近些年新兴的半导体设计和封装技术。与传统SoC(片上系统)技术将CPU、GPU、存储等多个功能模块集成在一张芯片上不同,Chiplet允许将一个复杂SoC设计的“大芯片”拆分成多个小芯片(业内常称为Chiplet、芯粒),每个Chiplet可独立制造并承担相应的功能。

因为Chiplet允许各个功能模块独立制造、独立优化,再像“拼积木”一样通过标准接口进行连接,可以使得整体设计成本和开发时间得以降低的同时,生产良率也大大提高,英伟达、AMD目前都已将其引入AI芯片产品的研发设计中。

“英伟达、AMD的AI芯片产品之所以能够做到一年一更新,很大原因就是他们在引入Chiplet技术后,设计新品能够在架构不变的前提下,只改动某几个模块,不需要再像传统SoC一样,几乎要重做整个芯片系统的设计,这大大缩短了产品迭代周期。”代文亮向界面新闻记者表示。

同时,Chiplet将“小芯片”组合在一起时,允许不同的模块使用不同工艺节点和材料。例如计算部分CPU可采用7纳米等先进制程工艺,像存储、互联等其他模块则可以使用14纳米,或更大尺寸的成熟制程工艺。

代文亮指出,虽然Chiplet无法从根本上解决先进制程受限的问题,但在一定程度上可以降低芯片开发及生产门槛。随着AI算力需求持续供不应求,通过Chiplet将允许更多厂商加入到产业链中。

芯和半导体主要从事研发半导体电子设计自动化(EDA)软件工具,公司曾在2019年推出基于Chiplet的EDA平台。代文亮认为,随着Chiplet的普及,有希望给更多规模较小的中小型公司入场布局的机会,虽然眼下Chiplet主要还是英伟达、AMD等巨头内部用于改进自身的产品设计,但未来很有可能会催生更多公司作为第三方厂商,独立负责生产专用的Chiplet芯片,供给整个产业链。

而要发展Chiplet,摆在行业面前的当务之急是建立标准。

Chiplet技术的核心在于将不同功能模块集成在一起,不同模块间的接口和协议设计需要一套通用标准来实现兼容性。目前Chiplet行业在国际上正推广的有UCIe标准,国内还有中国计算机互连技术联盟牵头制定的CCITA标准。代文亮认为,当前最重要的工作是推动不同标准之间相互兼容,加快Chiplet生态应用落地。

今日热搜