【国盛通信】光模块:又到配置时
整体来看,2024年是核心公司业绩加速释放的过程,投资者与公司双向选择,光模块“预期-业绩-验证-迭代-业绩上修-估值上修”逻辑逐步形成,核心持股逻辑从AI主题正式转移至顺周期成长。??短期回调受基本面影响较小,宏观及市场风格为主要原因:今年光模块也在中期预告后发生集体回调情况,由于时间点相似,市场普遍将今年回调...
多数据中心训练:OpenAI 击败谷歌 Infra 的大计(两万字精校)
最近,国外的一份研究报告揭秘了OpenAI、围绕和谷歌在AIInfra层的布局,我们将文章提炼出了核心观点,并进行精校翻译。核心观点1.AI模型越来越大,让基础设施需求激增,前沿AI模型训练集群已达万卡级,并且需求持续增长,同时大规模训练从单一数据中心逐渐转向多数据中心;2.高密度液冷AI芯片越发受到关注,Goog...
谷歌发布Gemini大模型与TPU v5p,推动AI产业变革
根据之前的TPU版本4x推测,TPUv5p对应的800G光模块数量比例大约为1:1.5至1:2,未来仍有进一步增长的空间。价值量提升:由于OCS网络中的光模块需要采用波分复用方案并通过环形器来减少所需的光纤数量,这使得单个光模块的价值量得到显著提升。谷歌一直是推动光连接技术发展的领军者之一,预计它将继续引领1.6T光模...
免费AI“神器”系列第14弹:Sora竞品可生成2分钟视频;谷歌Vlogger...
StreamingT2的发布将视频生成技术推向了新高度,也被称为Sora的强劲对手。产品功能:StreamingT2V可以根据用户的文字提示生成长达120秒的长视频,同时,StreamingT2V将条件注意力模块(CAM)和外观保持模块(APM)核心构架结合,使得生成的视频与文本描述紧密相关且动态连续,展现高动态效果和时间一致性。此外,StreamingT2V的实...
GPT-4劲敌,谷歌进入高能+高产模式
谷歌发布的Gemini1.5Pro多模态大模型具备极致性能和强上下文处理能力,成为GPT-4的劲敌。????Gemini1.5Pro采用了MoE架构,具备高效的预训练速度和计算效率。????Gemini1.5Pro扩大了上下文窗口容量,能够处理大量文本、音频和视频数据。
斯坦福博士图解AlphaFold 3:超多细节+可视化还原ML工程师眼中的AF3
AF3使用一个名为原子Transformer的模块,在原子级别应用注意力机制时原子Transformer主要遵循标准的Transformer结构(www.e993.com)2024年11月26日。不过,其具体步骤都经过了调整,以处理来自c和p的额外输入。原子级->token级到目前为止,所有数据都是以原子级别存储的,而AF3的表征学习部分则从这里开始以token级别运行。
大语言模型的前世今生:万字长文完整梳理所有里程碑式大语言模型...
组成模块:嵌入模块:将输入文本转换成一系列嵌入向量。Transformer编码器堆栈:将嵌入向量转换成上下文表示向量。全连接层:将表示向量(在最终层)转换为独热向量。预训练目标:BERT使用两种目标进行预训练:掩蔽语言模型(MLM)和下一个句子预测。微调应用:预训练的BERT模型可以通过添加分类器层进行微调,适用于从文本分...
建议收藏,100篇必读论文|大模型月报(2024.03)
利用新颖的特征翻译模块,模型能够在数秒内从文本或图像生成高保真3D人体纹理。此外,研究团队还推出了最大的高分辨率(1024X1024)3D人体纹理数据集——ArTicuLatedhumAntextureS(ATLAS),该数据集包含50k个带有文本描述的高保真纹理。论文链接:httpsarxiv/abs/2403.12906项目地址:httpsggxxii....
国盛计算机:行业景气触底,算力全面超预期
2)财政支付:财政支付电子化下沉需求,并不断进行系统的升级或功能模块的添加,长期需求驱动确定。3)证券IT:长期来看,证券市场扩容与高质量发展势在必行,市场交易体量和金融机构IT投入均会有所增长;各主要公司AI产品持续落地,具备海量、高质垂类数据,并致力AI技术研发+相应场景产品落地的领军企业,在大模型时代竞争力...
人工智能行业深度报告:AI下半场,应用落地,赋能百业
5月11日,Google在最新一届I/O开发者大会上官宣大语言模型PaLM2,称其在部分任务上超越GPT-4。PaLM2在超过100种语言的多语言文本上进行了训练,这使得它在语言理解、生成和翻译上的能力更强,并且会更加擅长常识推理、数学逻辑分析。PaLM2在大量公开可用的源代码数据集上进行了预训练,这...