神经网络到张量网络的“变身”
如今,已经发展出了很多成熟的缩并算法,比如张量重正化群算法(tensorrenormalizationgroup,TRG)[12],密度矩阵重正化群方法(densitymatrixrenormalizationgroup,DMRG)[13]和边界矩阵乘积态方法(boundarymatrixproductstates,BMPS)[14],还有可以处理任意连接的张量网络的近似算法[15]等。但是,我们需要注意的...
如何理解纳维尔-斯托克斯方程?《张朝阳的物理课》详解流体的动力学
总结起来,即一个一阶张量的协变导数,再升一次指标,得到的是梯度算符与该矢量的张量积的逆变形式。如果仿照求点乘,对两个指标进行缩并,即立刻得到散度的对应表达在下面的计算中,将反复用到这些“翻译”,在矢量微积分与张量分析间来回切换,以实现高效地推导与计算。(张朝阳回顾用张量语言表达矢量微积分的运算)纳...
从广义相对论到规范理论(下)|张量|黎曼|微扰|场论|拉格朗日_网易...
对黎曼曲率张量缩并一次后得到里奇张量将之前得出的以度规微扰表出的联络的具体形式代入上述里奇张量的表达式并保留到度规微扰的线性阶得下面取对偶形式爱因斯坦场方程的0-0分量。其中对偶形式场方程的左手边就是里奇张量。它的0-0分量在静态弱场极限下近似是而对偶形式场方程右手边的0-0分量是其中是物质场的...
新架构Mamba更新二代!作者:别争了,数学上Transformer和SSM是一回事
更一般地,任意带掩码的注意力机制,都可以表示为4个张量的缩并(Contraction)。其中QKV对应注意力中的query,key,value,L对应掩码矩阵。借助这一联系,它们在线性注意力的基础上提出了结构化掩码注意力SMA(StructuredMaskedAttention)。当注意力的掩码矩阵是半可分离的,就与SSM等价了。基于这个发现,作者进一步推导...
从广义相对论到规范理论(上)
相应地,里奇标量是上述里奇张量再缩并一次后的结果,也就是黎曼曲率张量缩并两次后的结果。其大致可视为里奇张量的迹。里奇标量在坐标变换下的变换规律也很容易从上述里奇张量各分量在坐标变换下的变换规律直接导出从上述推导可发现:里奇标量是个坐标变换下的不变量,具有极为重要的意义(值得注意的是:黎曼曲率张量及里奇...
新架构Mamba更新二代!作者:数学上Transformer和SSM是一回事
更一般地,任意带掩码的注意力机制,都可以表示为4个张量的缩并(Contraction)(www.e993.com)2024年12月19日。其中QKV对应注意力中的query,key,value,L对应掩码矩阵。借助这一联系,它们在线性注意力的基础上提出了结构化掩码注意力SMA(StructuredMaskedAttention)。当注意力的掩码矩阵是半可分离的,就与SSM等价了。
广义相对论与连续介质力学在几何学中基于张量的统一及其应用
将式(9)进一步缩并,得到不变量被称为空间的曲率标量R=gijRij=gikgjlRijkl(10)利用式(8)~(10),广义相对论中的Einstein方程可被记为其中,G为万有引力常量。式(11)左端被称为Einstein张量。利用式(2)、(3)、(9)、(10)以及曲率张量的对称性,可知式(11)左端的散度恒为...
手把手教你将矩阵画成张量网络图
矩阵乘法是张量的缩并将两个矩阵相乘就相当于「粘合」它们的图。这叫做张量的缩并(tensorcontraction)。在上图中,具有相同索引j的边是缩并的边。这与两个矩阵只有在输入/输出维度匹配时才能相乘的事实是一致的。你还会注意到结果图片有两个自由索引,即i和k,它们确实定义了一个矩阵。
谷歌量子霸权的瓦解
在arXiv:2111.03011论文中,张潘团队旨在计算出整个具有稀疏结构的末态,这个末态中的非零元则为需要计算的不相关位串概率幅。这个稀疏态的图景可以视为张量网络缩并的一个边界条件,催生了Zig-Zag缩并顺序方法和ContractionScheme的概念,并最终使得一次张量网络缩并可以获得一百万完全无关的位串振幅和概率。
想了解爱因斯坦场方程的基本概念,看此文即可
·R是从里奇张量缩并而成的标量曲率(或里奇数量)·g_uv{\displaystyleg_{\mu\nu}\,}是从(3+1)维时空的度量张量;·T_uv{\displaystyleT_{\mu\nu}\,}是能量-动量-应力张量,表示了物质分布和运动状况。·G是引力常数,·c是真空中光速。