对话李彦宏:大模型进化变慢是好事,百度从来没对标过OpenAI
另外一个角度来讲,反而是基础模型不能够特别快的迭代。如果老在变,那做应用的人就无所适从了,该做什么我不知道,我刚做了两个月,你又升级了,把我做的冲掉了,白做了,我又得重新适应一遍新的规则之类的,我觉得可能两年一个大的版本是一个比较合适的节奏。骆轶航:所以我们不能等,第一我们不能等模型...
实测国产视频生成大模型 一个人“拍”一部剧?
测试vidu、清影、可灵、即梦,视频生成效果如开盲盒作者/IT时报记者沈毅斌编辑/潘少颖孙妍“AI生成不仅可以降低影片制作、场景搭建、妆造设计等成本和时间,也降低了入局门槛,一个人就可能拍完一部剧。”上海大学温哥华电影学院副院长陈晓达曾向《IT时报》记者讲述视频生成大模型对影视行业的影响。今年七...
免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍“并非...
对于运动内容较多的视频,应该减少缓存的使用,从而允许在更多的步骤中进行重新计算。由于需要在视频生成过程中实时估计运动,MoReg不能依赖于传统的、计算密集型的像素空间运动估计算法。补充一下,这是一种用于视频编码中的技术,它通过比较相邻帧之间的像素差异来估计运动向量,从而实现视频的压缩。因此,MoReg使用残差...
硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探
2.B端终端客户:直接调用LLM的API接口来运用提示词工程;或将私有数据向量化后存入向量DB,再做RAG;或通过微调生成一些特定下游任务模型。很多这类客户反馈有不错的效果。3.B端服务实施公司:帮助上述B端客户当中不具备这些能力的公司来交付和部署这些流程,尤其是RAG和微调。4.纯商业化产品公司:利用自身前期积累...
聊了一百位硅谷大模型从业者后,我们对 AGI 投资产生了新的思考
全量参数“微调”已经接近下文提及的重新训练,风险和成本都增加;而无论是冻结还是低秩适应(LoRA)的方法,目前也都无法完全避免风险。事实上即便只做对齐微调,能做到最安全且最优效果的可能也还是对底座模型实现非常熟悉的团队。丨Agent大范畴上可归类于后训练的高级手段,其中包含Langchain等编排同时结合反思、规划、...
大模型盘点②|Haiper:视频生成还在「GPT-2」阶段
缪亦舒:我不确定其他公司采用的具体技术,但可以肯定的是,不同公司的视频生成模型在架构细节上会有很大不同(www.e993.com)2024年11月20日。视频生成是一个复杂的工程系统,从数据层面到模型架构设计,再到最终的输出选择,与很多因素相关。我们使用的是LatentDiffusionModel(潜在扩散模型)+Transformer。目前还不能简单地说使用某个架构就能形成...
华映资本邱谆:大模型行业泡沫正在显现
全量参数“微调”已经接近下文提及的重新训练,风险和成本都增加;而无论是冻结还是低秩适应(LoRA)的方法,目前也都无法完全避免风险。事实上即便只做对齐微调,能做到最安全且最优效果的可能也还是对底座模型实现非常熟悉的团队。Agent大范畴上可归类于后训练的高级手段,其中包含Langchain等编排同时结合反思、规划、记忆...
2024大模型之战:从技术浪漫到落地求生
闫俊杰则把今年的重心放在了应用开发上,今年8月底,MiniMax发布了自研的视频大模型。据了解,该大模型可支持用文字生成的6秒高清视频,25帧率,用户已能在海螺AI网页版体验。此外,海螺AI还将上线“图生视频”功能。在此前,MiniMax发布了AI社区产品星野APP,并通过AI应用Talkie在美国拓展业务。
硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探丨华映资本全球化观察
4.纯商业化产品公司:利用自身前期积累的垂直领域私有数据、在底座模型上生成垂直模型后,以标准化产品的形式服务自己的C端或者B端客户,获得商业化回报。前面三类LLM的应用场景事实上都实现了不错的效果和商业化,也是OpenAI及类似底座模型企业商业化的主体。但这些并不能支撑LLM需要完成的平台性的商业化生态。只有当第...
GPT应用迟未爆发,大模型泡沫根源在哪里?
全量参数“微调”已经接近下文提及的重新训练,风险和成本都增加;而无论是冻结还是低秩适应(LoRA)的方法,目前也都无法完全避免风险。事实上即便只做对齐微调,能做到最安全且最优效果的可能也还是对底座模型实现非常熟悉的团队。Agent大范畴上可归类于后训练的高级手段,其中包含Langchain等编排同时结合反思、规划、记忆...