我们可以将标量(scalar)看作零阶张量,向量(vector)看作一阶张量,矩阵(matrix)看作二阶张量 张量是神经网络的训练中最为常见的数据形式。 本文将深度学习所用的最基本的一些数学概念进行了介绍,本人学习目前学习过程中,认为矩阵乘法中,两个矩阵的行列对应是最重要的,要时刻保持对每个矩阵及结果的行列数值的清楚认知...
从形式上看,单位矩阵所有沿对角线的元素都是1, 而其它位置的所有元素都是0.如:\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{bmatrix}任意向量和单位矩阵相乘,都不会改变。我们将保持 $n$ 维向量不变的单位矩阵记作 $I_n$。形式上, $I_n\in R^{n*n}$。\forall...
1 阶张量是一个向量 2 阶张量是一个矩阵 3 阶张量是 3-张量 阶n 张量是一个 n-张量 在深度学习中,我们允许矩阵和向量相加,产生另一个矩阵,其中 C(i, j) = A(i, j) + b_(j)。换句话说,向量b被添加到矩阵的每一行。这种将b隐式复制到许多位置的行为称为广播。 在理论物理学,特别是广义相对论...
向量vector(1D 张量) 数组,也叫1维张量、1D 张量、1阶张量。 注意,向量和张量的维度不是一个概念。向量的维度可以表示沿某个轴上元素的个数,而张量的维度表示轴的数量。如[1,2,4,8]是一个 4维向量,或一个4维的1维张量。 向量的内积是同维数字相乘之和,如: 矩阵matrix(2D 张量) 二维数组,也叫2维张...
如矩阵(1-1-1)所示,矩阵的每一行就是一个向量。 矩阵的形状:每一列标量的个数 x 每一行标量的个数,矩阵(1-1-1)形状为2x2,维度为2。 04张量 将多个矩阵组合到一起可以形成张量。比如: 因此标量、向量、矩阵都可以看作是维度更少的张量。 张量的形状 ...
1.标量、向量、矩阵、张量: ①标量指有大小没有方向的数。 ②向量指既有大小也有方向的一组数。 ③矩阵指二维的一组数,一行是一个对象,一列是一个对象的一个特征【一行一对象,一列一特征】。 ④张量指一个数组分布在多维网格坐标中。 2.向量的范数: ①向量的1范数(L1范
矩阵(matrix):是一个按照长方阵列排列的复数或实数集合,矩阵是二维张量(2D 张量) np.array([[5, 78, 2, 34, 0], [6, 79, 3, 35, 1], [7, 80, 4, 36, 2]]) 向量组成的数组叫作矩阵(matrix)或二维张量(2D 张量)。矩阵有 2 个轴(通常叫作行和列)。你可以将矩阵直观地理解为数字组成的矩形...
4.张量(tensor),理解为多维数组吧。 以及一些操作: 1.转置(transpose), 2.矩阵加法,即相应位置的元素相加 3.矩阵与标量的加法与乘法,即相应位置的元素与标量相加或相乘 4. 在深度学习中,允许矩阵和向量相加,得到另一个矩阵。操作是向量b和矩阵A的每一行相加。这种隐式地复制向量b到很多位置的方式,被称为广播...
2.2.1 标量(0D 张量) 仅包含一个数字的张量叫作标量(scalar,也叫标量张量、零维张量、0D 张量)。 2.2.2 向量(1D 张量) 数字组成的数组叫作向量(vector)或一维张量(1D 张量)。一维张量只有一个轴 2.2.3 矩阵(2D 张量) 向量组成的数组叫作矩阵(matrix)或二维张量(2D 张量)。矩阵有 2 个轴(通常叫作行...
深度学习中会经常涉及到张量的维数、向量的维数的概念,我发现自己一直把它们给混淆了,原因是被一些约定俗成的叫法扰乱了,下面来介绍一下它们的区别。 首先,张量的维数等价于张量的阶数。 0维的张量就是标量,1维的张量就是向量,2维的张量就是矩阵,大于等于3维的张量没有名称,统一叫做张量。下面举例: ...