挑战英伟达?微软拟推AI芯片雅典娜:训练大语言模型,成本能省三分之一
为突围芯片短缺困境,微软拟推出自研人工智能芯片。
当地时间4月18日,据美国科技媒体TheInformation报道,微软(Microsoft)准备推出人工智能芯片,为负责理解和生成类人语言的大型语言模型(LLM)提供动力。
两位直接了解相关项目的人士透露,微软自2019年开始开发内部代号为“雅典娜”(Athena)的芯片。据悉,微软已向一小部分微软与OpenAI员工提供这款芯片,他们正在测试这项技术。微软希望这款芯片比目前从其他供应商出采购的芯片性能更好,从而为其昂贵的人工智能研发节省时间和金钱。
雅典娜芯片将用于生成式人工智能所需的大型语言模型训练。目前,英伟达(Nvidia)在此类芯片市场上占据主导地位。据估计,OpenAI需要3万多个英伟达的A100GPU来实现ChatGPT的商业化,而英伟达最新的H100GPU在eBay上售价超过4万美元。
据了解,亚马逊、谷歌和Facebook等科技巨头也在自主开发人工智能芯片,但仍需依赖英伟达的的芯片来支持大型语言模型的训练。TheInformation称,整个科技行业正在面临的芯片短缺迫使微软只能定量供应部分内部团队的电脑。
虽然微软为其云计算业务开发服务器芯片的消息广为人知,但此前从未有过关于雅典娜芯片的报道。知情人士声称,微软至少有300人在开发雅典娜芯片。研究公司SemiAnalysis首席分析师迪伦•帕特尔(DylanPatel)表示,开发类似于雅典娜的芯片可能每年需要花费1亿美元左右。
帕特尔认为,ChatGPT每天的运营成本约为70万美元,大部分成本是基于他们所需的昂贵服务器。“如果雅典娜芯片与英伟达的产品拥有同等竞争力,每个芯片的成本可以降低三分之一。”
“微软希望将大语言模型应用于包括必应、Office365(现在的Microsoft365)、GitHub在内的所有应用程序中。如果使用现成的硬件进行大规模部署,每年将花费数百亿美元。”帕特尔补充道。
今年2月,微软推出搭载ChatGPT同源功能的新版必应(Bing),尝试通过与OpenAI的合作关系从谷歌手中夺取搜素引擎的市场份额。
据知情人士透露,最早在明年,微软可能就会将雅典娜芯片广泛应用于公司内部和OpenAI,但微软仍在讨论是否向其Azure云计算服务的客户提供这些芯片。
2019年起,微软宣布向OpenAI进行数十亿美元的投资,同时微软Azure也成为了OpenAI的独家云计算服务商。同一时期,微软高层开始规划需要多少GPU来支持所有的人工智能方面的工作。
目前微软为OpenAI打造的超级计算系统主要依赖于英伟达的芯片。去年11月,微软和英伟达宣布了一项为期多年的合作计划,共同打造下一代超级计算机。因此,微软对雅典娜芯片的开发对于双方关系而言较为敏感。
一位直接了解该项目的人士透露,微软已经为未来几代雅典娜芯片制定了技术路线图,预计初代芯片将基于5纳米工艺。如果雅典娜芯片于明年投入量产,这种芯片制造工艺将比最先进的工艺落后一代。
“微软不认为自己的人工智能芯片可以全面取代英伟达的产品。如果微软在自研芯片上的努力获得成功,也有可能有助于在未来与英伟达谈判获取更多的话语权。”该知情人士表示。