第一部分 应用数学与机器学习基础
第二章 线性代数
2.1 标量、向量、矩阵和张量
- 标量(scalar):一个标量就是一个单独的数。
- 向量(vector):一个向量是一列数。相当于一维数组
- 矩阵(matrix):矩阵是一个二维数组。
- 张量(tensor):超过两维的数组。
2.2 矩阵和向量相乘

2.3 单位矩阵和逆矩阵
单位矩阵的结构很简单:所有沿主对角线的元素都是 1,而所有其他位置的元素都是0
⎣⎢⎡100010001⎦⎥⎤
单位矩阵的一个样例:这是I3。
矩阵 A 的 矩阵逆(matrix inversion)记作A−1,其定义的矩阵满足如下条件A−1A=In。
矩阵 A=[1−12−3]
假设所求的逆矩阵 A−1=[acbd]
则 [1−12−3]⋅[acbd]=[a+2c−a−3cb+2d−b−3d]=[1001]
而可以得出方程组
a + 2c = 1
b + 2d = 0
-a - 3c = 0
-b - 3d = 1
解得
a=3; b=2; c= -1; d= -1;
2.4 线性相关和生成子空间
⎣⎢⎡111222123⎦⎥⎤
- 线性相关:通过相乘任意实数就可以算出其他列的,如把第一列乘2就能算出第二列。
- 生成子空间:把线性相关的列只留一列,如 ⎣⎢⎡111123⎦⎥⎤ 。
个人理解:可以去掉相同线性的特征,减少计算量。
2.5 范数
有时我们需要衡量一个向量的大小。在机器学习中,我们经常使用被称为范数(norm)的函数衡量向量大小。形式上Lp范数定义如下
∥x∥p=(i∑∣xi∣p)p1
// 更新于 2022/12/21 18:07
评论区