矩阵如何求逆(3×3逆矩阵求法公式)

线性代数在机器学习(ML)和深度学习(DL)中是必不可少的。即使我们努力为许多理论创建精确的机器学习模型,线性代数仍然是这些研究中的重要工具。本文会跳过一些基本知识,比如什么是向量,什么是矩阵,以及如何相加和相乘。我将快速更新基本概念,并更深入地介绍一些重要主题。

基本矩阵行为:

如最后一个等式所示,矩阵不可交换。

转置

按照惯例,矢量x被写为列矢量。这是矢量和矩阵的转置。

属性

如果A =Aᵀ,则矩阵是对称的。如果A =-Aᵀ,则称为反对称。

内积

内积 a,b(或A·B)是一个标量函数。两个向量的内积定义为:

任何标量值的转置等于它自己。您可以在许多机器学习论文中看到以下操作。

单位向量是具有单位长度的向量。

两个向量u和v之间的角度是

向量遵循以下不等式

属性

最后一个等式很重要。下面是它的证明:

外积

不要将xᵀy与xyᵀ混肴。内积xᵀy产生标量,但外积 xyᵀ产生矩阵。

两个矩阵的乘法是A的第i列和B的第i行之和。

(0)
上一篇 2022年4月30日
下一篇 2022年4月30日

相关推荐