告天下学子书【上】:线性代数的中国起源,外星人是蛮夷
线性代数主要在干两件事情,其一是把两个东西加在一起(即加法运算),其二是用某个常数去乘以这个东西(即数乘运算)。例如,向量的线性组合、线性相关、线性表示等,都可以看作是先把许多向量乘以系数,然后再加总在一起。线性方程组中的消元法(西史所称高斯消元法),也是在联立的方程之间加来加去、消来消去。又...
关于「光学神经网络」的一切:理论、应用与发展
ONN是ANN线性和非线性运算的光学实现,神经网络的结构和神经元的工作原理属于线性运算zi=bi+∑jWijxj和非线性激活ai=??(zi),因此,神经网络需要大量的线性乘法运算和求和运算。这种乘加运算在算法中最直接的体现就是给出两组数据,在“for”循环中进行乘加运算。如果我们简单地思考这个问题,就会发现完...
Excel 中 SUMPRODUCT 函数的使用技巧
=SUM(1,2,3)=SUM(1+2+3)▋单列数据即相加如果只有1列参数,那么效果和用SUM函数是一样的。所以,第1个案例为什么是10,你应该明白了吧,因为只有一列数据。▋乘以数字再来一个案例。现在老板觉得产品单价太低了,每个产品单价都要增加5块钱,那么总销售额应该怎么算?不用每个单价都加上...
10个常用的损失函数解释以及Python代码实现
损失函数是一种衡量模型与数据吻合程度的算法。损失函数测量实际测量值和预测值之间差距的一种方式。损失函数的值越高预测就越错误,损失函数值越低则预测越接近真实值。对每个单独的观测(数据点)计算损失函数。将所有损失函数(lossfunction)的值取平均值的函数称为代价函数(costfunction),更简单的理解就是损失函数...
AI凭什么超越人类修图师?万字长文看懂美图云修AI修图解决方案
其中σ表示Sigmoid激活函数,Conv_C∈R^(C×C/r)和Conv_(C/r)∈R^(C/r×C)表示感知机对应的两层,PReLU表示感知机中间的线性修正单元激活函数。相同地,将通道权重系数M_S和特征图F相乘,就可以得到通道加权后的新特征图。将空间加权特征图和通道加权特征图进行通道合并,经过一...
平安科技罗冬日:如何用RNN实现语音识别?| 分享总结
首先是神经网络里面的计算,可以大致分为三类:函数合成,函数相加,加权计算(www.e993.com)2024年10月23日。在计算过程中,经常会用到激活函数,比如Sigmoid激活函数。残差在往前传播的过程中,每经过一个Sigmoid函数,就要乘以一个Sigmoid函数的导数值,残差值至少会因此消减为原来的0.25倍。神经网络每多一层,残差往前传递的时候,就会减少至少3/4。如果层...
ElasticSearch 如何使用 TDigest 算法计算亿级数据的百分位数?
我们知道,PDF函数曲线中的点都对应着数据集中的数据,当数据量较少时,我们可以使用数据集的所有点来计算该函数,但是当数据量较大时,我们只有通过少量数据来代替数据集的所有数据。这里,我们需要将数据集进行分组,相邻的数据分为一组,用平均数(Mean)和个数(Weight)来代替这一组数。这两个数合称为Centroid...
万字实录系统讲解面向端到端自动驾驶的稀疏感知通用架构
在我们常用的nuScenes数据集中,一般感知范围会设置为长宽[-50m,+50m]的方形区域,但在实际场景中,我们通常会需要达到单向100米,甚至200米的感知距离。如果说我们想要保持BEVGrid的分辨率不变,那么就需要去增加BEV特征图的尺寸,这会使得端上的计算负担和带宽负担都非常重。如果要保持BEV特征图的尺寸不变,就需要...
图神经网络的数学原理总结
在我们进入图神经网络之前,让我们先来探索一下计算机科学中的图是什么。图G(V,E)是包含一组顶点(节点)i∈v和一组连接顶点i和j的边eij∈E的数据结构,如果连接两个节点i和j,则eij=1,否则eij=0。可以将连接信息存储在邻接矩阵A中:我假设本文中的图是无加权的(没有边权值或距离)和无向的(节点之间没有方向...
贝尔定理:一位实验学家的朴素观点
例如,假设首先用检偏器I在a方向对光子v1进行测量,并给出结果+,这一结果的概率为1/2。为了继续计算,我们必须使用态矢量的约化假设,也就是在这次测量之后,描述光子对的新的态矢量可以由原来态矢量向与结果+相关联的本征空间投影得到:这个二维本征空间有一组基。使用相应的投影算符,我们在进行了一些简单代数...