为什么说国产大模型的野心,都藏在 MaaS 的生态中

2024-06-07 11:18:47 - 网易新闻

今日看点

10minread

为什么说国产大模型的野心,都藏在MaaS的生态中

拉风的极客2024/06/07

为什么说国产大模型的野心,都藏在 MaaS 的生态中

摘要

降价枪响一刻,大模型淘汰赛已经开始。

2016年4月,在一场由IDG主办的行业峰会上。

IDG创始董事长熊晓鸽,刚刚盘点完IDG深耕中国企业服务多年的成果,台下,GE中国公司CEO便发出了不合时宜的灵魂一问:

「中国有很多伟大的公司,也有很多超级大的国企,但是为什么就是没有软件服务的toB巨头?」

热闹的会场,顿时一片沉默。

那时,将原因归咎于「投资人不给力」的熊晓鸽大概也不会意识到,他反思自谦的2016年,已经是国产SaaS行业在一级市场最热闹的日子。在此之后,中国企服领域的投融资市场,便出现了连续近十年的漫长冬天:

本该主打标准化做小客生意的SaaS公司,在融资文件里信誓旦旦表示,要像Salesforce一样,做到SMB(小客)收入占比大于80%;转头中国银行却直接甩出数据,中国中小企业平均寿命只有3年,不到美国一半,只有日本的四分之一。

转头做KA(大客户)生意,却发现大客户全都有自己的想法,这家重销售,那家重报销,一个又一个定制化案例做下来,SaaS变成了堆人头的苦生意。

参差不齐的数字化建设与各式各样的需求共振,于是,典型的中国式SaaS诞生了:

和大客要收入,标准化就会消失;向小客要增长,小客原地破产。

那到底有没有一种toB的商业模式,能同时做到标准化与赚钱两不误?

大模型时代的到来,一个新的答案隐隐浮现出来。

01大模型的「拼多多时刻」

即便「是兄弟就来砍我」的拼多多,大概也预料不到国产大模型的疯狂。

「到今天为止一年多的时间,我们完成了1万倍的降价。」

这句话省略的主语是大模型,来自智谱AIOpenDay。

智谱是谁不必多说,公司身上的标签包括但不限于:国内最早研究大模型的团队、清华系背景、最早进行大模型商业化的团队、模型社区Huggingface中无数开发者接触语言模型的第一站。

只是,大模型、降价、明星独角兽、一万倍,几个关键词叠加,并没能引起太多反应。

所有人都已经见怪不怪:

过去不到一个月时间里,某金融私募背景的大模型公司打响降价第一枪后,智谱、字节、阿里、百度、讯飞、腾讯,甚至海外的OpenAI全数下场。

文字游戏与价格炒作齐发,大模型降价背后到底多少虚实,业内人都心知肚明。

在明处,输入价与输出价的模糊表达,轻量模型与核心产品的混为一谈,让所谓降价如同电商618期间的眼花缭乱的优惠券叠加,没有十年功底,根本看不出所谓降价的真实幅度。

而在暗处,当所有对手都举起降价的宣战大旗,大模型产业也随之被快进到淘汰赛的环节。敢降价只代表拿到了入场的门票,模型能力是否领先,是否敢拿出最重磅的模型参赛,以及是否敢于开源接受开发者的评判,才是关键得分赛点。

也因此,在智谱AIOpenDay接下来的环节中,回答了是否拿出看家模型降价?降价后模型性能究竟如何?市场到底是不是买账?回答好这些具体的疑问,才是评判大模型淘汰赛的关键指标。

1、最受欢迎的产品迭代升级:推出四代GLM开源模型GLM-4-9B

这里需要做一个简单翻译:GLM-4-9B升级的前身是2023年智谱开源的3代的6B模型,过去一共收获了6万的GitHub星标,并在最大的模型社区HuggingFace上获得了超过1300万次的下载,这是不少开发者接触语言模型的第一站。

而四代GLM开源模型GLM-4-9B,相比前一代,首次拥有多模态能力,并拥有更强的基础能力,更精准的函数调用和AllTools能力,以及更长的上下文。比如,GLM-4-9B模型的上下文从128K扩展到了1M,换算成中文,能同时处理200万字的输入,约等于2本红楼梦或者125篇论文的长度。而在长度为128K的LongBench-Chat上,GLM-4-9B-Chat模型相比上一代提升了20%。在长度为1M的大海捞针测试中,GLM-4-9B-Chat-1M获得了全绿(无损)的好成绩。

此外,基于强大的预训练基座,GLM-4-9B的模型中英文综合性能相比ChatGLM3-6B提升了40%,对比训练量更多的Llama-3-8B模型,不仅英文方面有小幅领先,中文学科方面更是有着高达50%的提升。

价格上,该模型已经被纳入智谱开放平台上的API的家族中,以GLM-4-flash版本对外服务,价格相对于之前的GLM-3Turbo继续降价10倍,仅需要1毛钱就可以拥有100万token。

2、拿出看家产品:GLM-4模型升级,小尺寸版本降价99%

GLM-4是目前智谱所有大模型产品线中最重磅的模型,多家权威英文测试榜单中,其整体效果已经逼近GPT-4,在国内企业最需要的中文任务上,则全面超过GPT-4。

其小尺寸Air版本,在性能非常接近GLM-4的背景下,价格直接降低至此前的1%,达到一元/100万token。

GLM-4模型本身,则进一步升级为GLM-4-0520版本,综合能力提升11.9%,指令遵从能力提升了18.6%。

3、针对企业需求:定向降价

实际部署中,大部分企业除了需要更高的性能,更快的响应速度同样重要。针对这一需求,智谱推出GLM-4-Air极速版,可以在效果不变的情况推理速度增加162%,做到71个token/秒,换算成中文约等于每秒展示汉字数量100+,价格仅需10元/MTokens。

除此之外,针对更多的定向需求,智谱还推出了全模型矩阵,除以上提到的明星产品外,主打图生文的GLM-4V,主打均衡的GLM-3-Turbo,主打文生图的CogView-3同样参与此次降价。

为什么说国产大模型的野心,都藏在 MaaS 的生态中

相比于市面上各种眼花缭乱,却只拿出「非主流」模型降价的做法,智谱几乎搬出了大模型全家桶「参战」。

只是,随之而来,一个新的问题产生了:

降价是门艺术活,如何降得多让用户得到实惠,只是第一层;如何降得巧,不搞亏钱换市场的流血仗,还需要更多的实力。

02从大模型「砍一刀」,到MaaS的规模效应

「能短时间成为独角兽,天时地利人和缺一不可。」

这是几乎业内所有投资人提到智谱时的第一反应。

如果对2016年AlphaGo大战李世石,点燃全球AI创业热情后的故事略有了解,就不难理解现当下投资人们的犹豫。

在那之后的5年的故事,注定成为中国AI产业史上浓墨重彩的一笔:

——二级市场公开透明的财报已经清清楚楚的显示,算法秘籍傍身的小巨头们,一如曾经的SaaS,已经被层出不穷的定制化需求,搞到焦头烂额。

而这种CV与SaaS跨时代的遥相呼应,表面客群选择问题,实际是商业模式问题,根子上则是技术天花板问题。传统CV、NLP的算法通用性不足,从开始就注定了这将是一条荆棘密布的道路。

但历史的前行,正是在无数个似曾相识的片段重复中,不断涌现新的让人眼前一亮的新质变。

MaaS,正是这一波大模型企业交出的答案。

所谓MaaS,ModelasaService,模型即服务。参考过去SaaS、PaaS、IaaS的定义,基础大模型本身,就可以成为一个独立的产品,进行标准化盈利。

大模型的通用性、扩展性,使得其相比过往所有AI算法,都具备更强的操作系统属性。一个足够优秀的大模型本身,就足以交付用户,成为一种新的商业模式。

与此同时,MaaS从其取名来看,就不难发现,其核心商业逻辑与各种XaaS相同,具有极强的规模效应与降价潜力。

对其进行拆解,MaaS总共包括两层:

最核心的是大模型层,这一层具备典型的互联网属性。前期研发成本极高,但后期的复制成本几乎为零,具备极强规模效应。而这也是大模型产业能不断降价的核心驱动力。

这需要企业拥有极强的技术研发能力以及持续不断地更新迭代能力。智谱团队脱胎于清华学术搜索与挖掘平台Aminer,几乎可以算是全国范围内对于最新科技进展最敏感的团队。

而技术上,自2020年开始,智谱便开始了对于大语言模型的研究,2023年3月14号,GPT-4发布的同一天,公司开源了一代ChatGLM-6B的模型,其核心产品GLM-4是国内最接近GPT-4水平的大模型之一。此次openday上,最新发布的GLM-4-9B开源模型综合能力,全面超过Llama-3-8B-Instruct;首次开源基于GLM基座的视觉模型GLM-4V-9B,多模态能力比肩GPT-4V;GLM-4新API模型GLM-4-Air的生成速度,更是提升300%达到71token/s。

算法层之外,MaaS的第二层是最基础的计算资源。算力的发展,整体遵循摩尔定律的设定,理想的情况下,晶体管密度18个月增加一倍,相应的用户使用相同算力的成本则每18个月降低一倍。

也是因此,无数云服务大厂前赴后继将MaaS作为新的增长点,从建设智算中心到启动开发者计划,从自研到投资,全方位火力覆盖。

但这些还不是MaaS的全部潜力。

一个直观数据是,迄今为止,智谱MaaS大模型开放平台bigmodel.cn的日均调用量已经超过了400亿tokens,过去6个月API每日消费量增长了50倍以上,企业客户超过30万,并实现了汽车、金融、营销、制造等多个行业覆盖,并拿下了2000+生态合作伙伴、1000+大模型规模化应用、200多家企业共创,其中包括金山、蒙牛、分众、智己等多个大客户。

至于关于如何避免将大模型做成一个定制化堆人头的苦生意,大模型极强的通用性特点,决定了其可以通过少数基模建设,就足以覆盖绝大多数的核心用户场景。而到了具体的产业化环节,则可以通过MaaS与行业合作伙伴甚至第三方合作伙伴共建,完成最后一步行业的应用落地。

这方面最典型的应用是大模型在客服对话领域对传统NLP的替代。OpenDay现场,小米集团小爱团队总经理王刚讲到小米智能语音助手与智谱的合作案例:

过去在小爱同学团队内部,会将各种NLP任务细分出包括天气、计算器、音乐、视频、知识问答等近百个垂直领域。其中,每个垂域背后都是一些特定任务的NLP任务,需要专门的算法工程师去完成NLP的优化。这个优化过程,首先要构建专有的任务式问题,然后搜集足够多的训练数据,然后再进一步训练调优。

而随着大模型出现,小爱团队全面升级背后的架构,将近百个分任务通过大模型总结成一个通用的任务。两者之间,不仅是单纯的替代,大模型还同时将小爱的功能进一步拓展至诸如音乐、视频、商品助手、汽车助手、互联网信息汇总等更多高级形态。

为什么说国产大模型的野心,都藏在 MaaS 的生态中

另外,结合智谱全系列大模型降价的动作,也就有了将大模型从只能覆盖高端机,进一步下探应用到入门机型覆盖到全终端的可能——大模型以价换量的逻辑跑通。

与此同时,建立在通用性基础上,规模效应也来的顺其自然。以智谱与金山办公的合作为例,智谱主要提供基模,已经拥有大量行业知识库的金山办公则完成更擅长的场景化模型微调,两方分工协作,避免了传统SaaS做KA案例通常会陷入的过分定制化困境。

再进一步,不是所有用户都如小米与金山具备健全的数字化能力。

相比大厂做MaaS,大模型只是引子,售卖底层的PaaS与IaaS资源才是最终目的,智谱选择将大模型本身与硬件解耦,为客户提供四种解决方案:

第一种,最轻量级的API调用模式,将模型封装成开放平台,企业按照API调用量进行付费。

第二种,基于云端的私有化方案。主要针对对于部分业务数据敏感,但又不希望自建算力设施的企业,通过云端算力私有化,为其开辟专门的模型的专区。

第三种,完全私有化方案,对于拥有成熟算力设施的企业,直接利用企业自身的硬件和算力的资源,为其提供大模型支持。

第四种,软硬件结合一体机方案,主要针对信创场景,通过更高的适配性免去在客户环境中部署与调试过程。

MaaS加持下,智谱成为了中国大模型产业最独特,也最具商业化潜力的一家。

03SaaS的过去,不会是MaaS的未来

尽管残酷,但一个不得不承认的现实是:虽然热潮才开始一年多,但大模型已经进入淘汰赛。

相比传统CV、NLP,大模型背后的大数据、大算力、大资本投入,大模型行业从一开始就决定了只有获得更多资源加持的头部玩家,才能笑到最后。而同样也是这「三大」,导致了从公司成立伊始做出的商业模式选择,就已经为结局埋下伏笔。

而在这个过程中,MaaS的重要性或许被大大低估了:

如果说,过去是单一算法找场景,拿着锤子找钉子,算法无法解决整体问题,导致除了人脸识别、自动驾驶外,明星场景寥寥。

MaaS则意味着,在承认企业的需求不同、数字化能力不同的基础上,通过大模型的通用性以及生态优势,来解决这千变万化需求。

一定程度上,这是场技术你追我赶的闪电战,更是场生态与商业的持久战。

*头图来源:智谱AI

本文为极客公园原创文章,转载请联系极客君微信geekparkGO

AI智谱AI大模型

今日热搜