美文网首页
深度学习之线性代数

深度学习之线性代数

作者: 王家多宝 | 来源:发表于2018-08-04 00:19 被阅读0次

标量、向量、矩阵和张量

转置(transpose)是矩阵的重要操作之一。

向量可以看做只有一列的矩阵。向量的转置可以看做只有一行的矩阵。

矩阵形状相同的情况下,两个矩阵相加是指对应位置的元素相加。

标量和矩阵做加法或是乘法,等于矩阵的每个元素与标量进行加法或乘法运算。

矩阵和向量相加?

矩阵和向量相乘

matrix product

element-wise producrt:两个矩阵对应位置的元素成绩

dot product:两个向量的点积等价于向量a的转置乘以向量b

单位矩阵和逆矩阵

matrix inversion:逆矩阵×矩阵=单位矩阵。逆矩阵不一定存在。

identity matrix:主对角线元素为1,其他位置所有元素都是0。任意向量与单位矩阵相乘,都不会改变。

相关文章

网友评论

      本文标题:深度学习之线性代数

      本文链接:https://www.haomeiwen.com/subject/kvrpvftx.html