如何理解纳维尔-斯托克斯方程?《张朝阳的物理课》详解流体的动力学
总结起来,即一个一阶张量的协变导数,再升一次指标,得到的是梯度算符与该矢量的张量积的逆变形式。如果仿照求点乘,对两个指标进行缩并,即立刻得到散度的对应表达在下面的计算中,将反复用到这些“翻译”,在矢量微积分与张量分析间来回切换,以实现高效地推导与计算。(张朝阳回顾用张量语言表达矢量微积分的运算)纳...
张亮?张量!我们不一样!
无论怎样,一个张量总是由一对逆变-协变的分量和基组成,它们一个往东,另一个就必须往西;一个变小,另一个就必须变大,以保证乘起来之后结果不变。在现代数学中,张量又被称为“多重线性映射”,以突出其线性映射的本质,上面等式中的符号表示张量积,它的出现表明该线性映射是多重的;而在现代力学中,张量通常...
赵亚平:《曲线与曲面的工程微分几何学》的11个特色
2.利用模与矢量点积的关系,直接推导了曲线三个基本矢的计算公式,并由此得到曲线曲率和挠率的计算公式。对这些经典内容,本书采用了较为新颖的处理方式,以求概念明确、思路清楚、过程直接。3.全面深入地解释了曲线Frenet-Serret公式和曲面曲线标架运动公式的运动学意义。这部分内容带有微分几何与刚体运动学学科交叉的意...
小白看得懂的 Transformer (图解)(1)
第六步是对加权值向量求和(译注:自注意力的另一种解释就是在编码某个单词时,就是将所有单词的表示(值向量)进行加权求和,而权重是通过该词的表示(键向量)与被编码词表示(查询向量)的点积并通过softmax得到。),然后即得到自注意力层在该位置的输出(在我们的例子中是对于第一个单词)。这样自自注意力的计算就...
以机械可解释性去掌控AI:Max Tegmark教授智源大会精彩演讲(附中文...
因为如果你看这里的公式,这个描述时空形状的所谓度量张量,你除以r减去2m。所以当r等于2m时,你除以零。这听起来很糟糕。也许你会死。不。17年后,GillesStrand和Panne-Lavey发现您可以连续变换坐标系。这是史瓦西发现的一个愚蠢的坐标系。有一个更好的,你可以看到没有任何危险发生。没有被r...
北大校友“炼丹”分享:OpenAI如何训练千亿级模型?
选择精度:使用FP32精度以提高模型局部的稳定性,并降低FP32张量的通信成本(www.e993.com)2024年12月20日。FP32精度仅在路由器功能主体内使用,结果将还原到FP16。较小的初始化:权重矩阵的初始化从平均μ=0且标准偏差的正态分布中采样,同时将Transformer初始化参数从s=1减小到s=0.1。
CNN究竟“看”到了什么?曲线检测器是否为可解释性带来了出路?
由于神经元的预激活函数和偏置值使其前一层中的神经元的线性函数,我们可以使用这种被广泛认可的归因方法。具体而言,3b中曲线检测器的预激活值是3a的线性函数。描述前一层中所有神经元如何影响给定的神经元的归因张量是激活值与权值的点积。我们通常使用特征可视化技术来创建一个激活单个神经元的超强刺激,但是我们...
高通AI Engine 到第四代了,它又为智能手机带来了什么好东西?
并且,高通第四代AIEngine有个重大提升:新增了两个HVX(Hexagon向量加速器)和一个高通自主设计、面向AI处理的硬件核心HTA(Hexagon张量加速器)。虽然名字有点儿复杂,但是我们可以通俗地解释一下:采用多核异构可编程,新增两种加速器,高通第四代AIEngine就像会七十二变的哪吒,面对各种计算任务有很强的...
深度| 英伟达深度学习Tensor Core全面解析
当时人们关注的是推理能力,就像TitanV的“深度学习TFLOPS”一样,TitanX(Pascal)推出了“44TOPS(新型深度学习推断指令)”。新的指令对4元8位向量或2元8位/16位向量执行整数点积,从而得到一个32位整数积,可以与其他32位整数一起累积。对于Volta的混合精度而言,重要的精度敏感数据(如主权重)仍然会存储为FP32...
线性代数的本质及其在AI中的应用
标量、向量、张量:求模(大小)、向量夹角(点积或内积)、一个向量在另一向量上的投影以及依据自定义的轴向量对向量的描述和表示矩阵:矩阵可以将向量的描述从一组基(一组坐标轴)转换为另一组基。例如,找出如何将映射应用到图像上并处理图像。矩阵中的长度平方采样、奇异值分解、低秩逼近是数据处理中广泛采用...