Nat. Commun.速递:多任务神经网络预测多体量子态物理性质
图e和f中的小方框表示训练数据,其余为测试数据。该神经网络模型的一个关键特性是其能够生成量子态的潜在空间表示,此表示可以整合多种物理性质的不同信息。令人惊讶的是,这些量子态表示似乎还能捕捉到训练中未打标签的物理性质。这一特性使得该模型能够对不同物相进行无监督的分类,不仅适用于分布内的哈密顿量(与训练...
机构行为视角下的债券交易领先因子探寻与神经网络收益率预测
两组回测准确率的差异主要有以下几点:一是时间跨度不同的影响,组一回测区间的时间跨度更长,可能包含了更多的市场变化和不确定性,对模型的学习和泛化能力提出了更高的要求;二是组二训练区间更长,可能捕捉到了市场的新趋势;三是组一回测区间包含了收益率快速下行阶段,组二回测区间收益率呈震荡走势,或表明组二的训练...
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源
图神经网络(GNNs)通过消息传递机制(Messagepassingmechanism)聚合邻域节点的信息,在建模图数据方??表现出了显著的优势。在GNNs的众多应??中,节点分类是研究最为深入的任务之??。通常在节点分类任务中,GNNs以半监督的模式进??训练。尽管图神经网络取得了成功,但它们在半监督图学习任务中的表现高度依赖于...
追问daily | 首次完整绘制果蝇大脑神经连接图;小型神经网络也能...
结果发现,PV神经元通常对外部刺激的反应较为广泛(选择性较低),但在钙不可通透受体替换后,这些神经元对视觉刺激和空间位置的选择性明显增强。进一步研究表明,这一现象与神经元的连接性没有显著变化,而是神经元自身的特性发生了变化。研究还发现,CP-AMPA受体在多种哺乳动物中高度保守,这表明其在大脑中具有重要的进化...
苹果一篇论文得罪大模型圈?Transformer不会推理,只是高级模式匹配...
虽然大部分模型没有公开训练数据的信息,但存在数据污染的可能,这就会导致大模型能够靠背题答对GSM8K中题目。因此,用这个数据集去评判LLM的数学能力,并不准确。于是,为了客观评价LLM的数学能力极限,苹果的研究者们开发了一个名为GSM-Symbolic的数据集。
追问daily | 人工神经网络获2024诺贝尔物理学奖;光学方法或高估...
结果表明,DPAD能够更准确地预测神经与行为的关系,并揭示了局部场电位中的非线性变化,这些变化比传统的功率特征更能预测行为(www.e993.com)2024年10月25日。此外,DPAD还实现了非线性的神经降维,能够对神经行为转化中的非线性进行假设检验。在连续、间歇采样和分类行为数据的不同情况下,DPAD均展现了其强大的建模能力。研究发表在NatureNeuroscience...
从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制
这一巧妙的实验证明数据增强能够非常显著地缓解视觉强化学习训练过程中的可塑性损失,从而解释了为什么数据增强对于提高样本利用效率如此关键。通过有效维持神经网络的可塑性,数据增强实际上延长了神经网络的有效学习期,使其能够更充分地利用每一个训练样本。研究还对比了数据增强和其他先前提出的用来缓解可塑性损失的方法。
苹果一篇论文得罪大模型圈?Transformer不会推理,所有LLM都被判死刑
虽然大部分模型没有公开训练数据的信息,但存在数据污染的可能,这就会导致大模型能够靠背题答对GSM8K中题目。因此,用这个数据集去评判LLM的数学能力,并不准确。于是,为了客观评价LLM的数学能力极限,苹果的研究者们开发了一个名为GSM-Symbolic的数据集。
TimeDART:基于扩散自回归Transformer 的自监督时间序列预测方法
防止训练过程中的信息泄漏Transformer编码器中的Patch间依赖关系在架构中,研究者实现了以下关键特性:基于自注意力的处理:使用自注意力的Transformer编码器专门用于建模patches之间的依赖关系全局依赖性捕获:通过考虑时间序列数据中不同patches之间的关系
一篇文章系统看懂大模型
深度学习:深度学习是机器学习的一个子领域,专注于应用多层神经挽留过进行学习,深度学习擅长处理复杂的数据如图像、音频、文本,因此在AI中的应用非常有效;监督学习:监督学习是机器学习的一种方法,通过训练数据集来学习从输入到输出的映射关系。训练数据集包含输入-输出对,模型使用这些已标记的数据进行训练,学习如何从输...