视野扩大271倍,上海理工大学开发超快卷积光学神经网络
卷积神经网络(CNN)凭借其出色的图像识别能力,在人工智能领域表现出色,尤其是在ChatGPT等平台中。近日,上海理工大学团队成功将CNN概念引入光学领域,实现卷积全光神经网络,为人工智能成像技术带来了革命性的进步。研究团队开发了一种超快卷积光学神经网络(ONN),该网络无需依赖光学记忆效应,即可实现对散射介质后方...
西交大将AI用于电池建模和健康管理,成功打造物理信息神经网络
近日,西安交通大学助理教授赵志斌团队将物理模型和深度神经网络加以结合,提出一种用于电池建模以及健康状况预测的“物理信息神经网络”(PINN,Physics-informedneuralnetwork)的AI算法,并将其用于电池建模、以及电池健康状况预测。图|赵志斌(来源:赵志斌)课题组还开源了相关数据集和完整代码(httpszenodo/...
打开神经网络的黑盒:分解神经元特征,让复杂模型变得简洁、可解释
其中xj是神经网络对于数据点j的激活向量,fi(xj)是特征i的激活,每个di是特征方向,代表激活空间中的单位向量,b是偏置。从表面上看,从神经元激活(即特征的叠加)中恢复原本的特征似乎是不可能的,这要求从低维投影确定一个高维向量。换句话说,这就像试图反转一个长宽比极大的矩形矩阵。唯一使其可能的因素是我们正在...
西安交大「杰青」团队,最新Nature子刊!
图3:从XJTU提取的8个电池的特征,以及四个数据集中提取的特征与SOH之间的相关系数热图。图4:SOH估算结果图解。图5:在XJTU数据集批量1和HUST数据集上,三种模型(所提出的PINN、多层感知器(MLP)和卷积神经网络(CNN))的测试均方根误差(RMSE)分布情况。图6:所提出的物理信息神经网络的示意图。总结展望本研究...
【专题研究】KD-Ensemble:基于知识蒸馏的alpha因子挖掘模型
生成风险因子和alpha因子端共享输入数据和RNN单元的网络参数,上述过程中的损失函数可以写作以下公式形式:整个损失函数由三部分构成,第一部分为alpha因子与中性化收益率计算均方误差损失,第二部分为风险因子与原始收益率标签计算R方,第三部分为所有因子之间计算相关系数矩阵的F范数作为正交惩罚项。这里我们重点关注alpha因...
数百万晶体数据训练、解决晶体学相位问题,深度学习方法PhAI登...
图示:相位和真实电子密度图之间的相关系数r的直方图(www.e993.com)2024年10月24日。(来源:论文)经过训练的神经网络表现出色;如果相应的衍射数据分辨率良好,它可以解决所有测试结构(N=2387),并且在从低分辨率数据中解决结构方面表现出色。尽管神经网络几乎没有针对无机结构进行训练,但它可以完美地解决此类结构。
AI助力脑机接口研究,纽约大学神经语音解码技术,登Nature子刊
该框架在各种模型上都展现出了高准确度,其中以卷积(ResNet)架构获得的性能最好,原始与解码频谱图之间的皮尔森相关系数(PCC)达到了0.806。研究者提出的框架仅通过因果操作和相对较低的采样率(low-density,10mmspacing)就能实现高准确度。研究者还展示了能够从大脑的左右半球都进行有效的语音解码,将神经语音...
原创| 图注意力神经网络(Graph Attention Networks)综述(1)
其中αij仍为节点之间特征关系的重要性,hi为每个点的属性向量。基于上面的计算方法,图注意力机制将计算出节点1的嵌入值。至于处理式子中的图注意力相关系数,要通过‘四步走’(LaBonne,2022):线性转换,激活函数,softmax归一化,以及多头的注意力机制来使用神经网络学习和节点1相关的注意力分数。
蛋白质深度神经网络能量函数的构建
约70%的蛋白质具有Pearson相关系数|ρ|>0.75。B、C和D展示了三个例子,一些decoy的三维结构显示了它们在能量与GDT_TS的图中的位置指标。(B)中NNEF能量和CASPGDT_TS得分之间具有良好相关性。(C)展示了一个具有简单的α-螺旋的蛋白质的例子,在这种情况下,一些具有非native螺旋结构域的模型具有与接近native...
ICCV 2019 论文解读:用图神经网络改善视频的多标签分类
图3.图神经网络基本结构Input输入有两个,一个为特征描述矩阵H(n*d),另一个为相关系数矩阵A(n*n),其中n为节点个数,即所有标签的个数,d为特征的维度,特征维度根据采用的CNN结构决定。相关系数矩阵是GCN网络中表征标签关系的一个矩阵,因此如何构建相关系数矩阵A就成了GCN模型中一个非常重要的问题。由于...