Linear Transformation and Matrix


向量变换

我们对向量空间上的函数称作向量变换(简称变换)。

例如平移变换$T:R^2\rightarrow R^2$,$T(\vec{x})=\vec{x}+\vec{\alpha}$($\vec{\alpha}\ne\vec{0}$)如下图所示。

向量变换

🤔 此处是为了理解,变换本身只是对于向量的,跟他有没有坐标没关系。

线性变换

在了解线性变换之前,让我们回忆一下线性性(Linearity)。我们描述一个函数$f:S\rightarrow S$是线性的,当对于任意的$x,k\in S$,$f$满足:
$$
f(kx)=kf(x)
$$
不难发现,线性函数的形象的就可以看成,可以把“系数提出来“的函数。而对对于向量的线性变化来说,其性质也就在于可以把系数提出来。下面我们给出线性变换的正式定义。

定义:对函数$T:V\rightarrow W$($T,W$是在域$F$上的向量空间),若对任意的向量$\vec{x_1},\vec{x_2}\in V$以及$a,b\in F$,满足:
$$
T(a\vec{v_1}+b\vec{v_2})=aT(\vec{v_1})+bT(\vec{v_2})
$$
则称函数$T$是$V$到$W$的线性变换(Linear Transformation)。

我们在学习线性方程组的时候了解到了线性组合(Linear Combination),不难发现上式中$a\vec{v_1}+b\vec{v_2}$是$\vec{v_1},\vec{v_2}$的线性组合,$aT(\vec{v_1})+bT(\vec{v_2})$是$T(\vec{v_1}),T(\vec{v_2})$的线性组合。因此我们就有了一个更朴素的说明,线性变换满足:线性组合的变换是变换的线性组合。

🤔 这种定义其实隐含了两个子定义,分别是向量加法满足和数乘满足。

对于上一节提到的平移变换,显然不满足线性性的要求,如下图所示。

平移变换

线性变换与矩阵

以上是一种朴素的向量变换的思想(其实就是旋转和伸缩),而实际上我们在数学和计算机中处理的,一定是带有数值的向量。而这种数值的来源是坐标系。例如在笛卡尔坐标系中,我们知道$\vec\alpha=(1,2)$一定对应了如下图所示的向量。

笛卡尔坐标系中的(1,2)向量

但是如何用数学语言去描述坐标系呢?其实就是线性代数中的基(Basis)。对于笛卡尔坐标系中,取到$R^2$向量空间的标准正交基$\vec{i}=(1,0),\vec{j}=(0,1)$,有$\vec{i},\vec{j}$是$R^2$的极大无关组,且$\vec{i},\vec{j}$能够张成(Span)整个$R^2$空间。

🤔 其实吼,后两句话是等价的。顺便本文用小括号表示列向量,既有$(i,j)=[i,j]^T$。

有了这我们就可以用数学语言去描述变换了,比如对上述的平移变换有:
$$
T(x,y)=(x+\alpha_x,y+\alpha_y)
$$
但是对一些复杂的变换(不如旋转变换),这种形式就不能解决辽(其实是可的,但是式子很晦气)

这时候让我们回忆一下线性方程
$$
A\vec{x}=\vec{b}
$$
WOW,一个向量$\vec{x}$经过矩阵运算以后变成了向量$\vec{b}$。于是我们有了一个朴素的想法,是不是矩阵对应着一种变换呢?首先答案是对的,也很显然我们可以有形式:$T(\vec{x})=A\vec{x}$。但是这种对应关系是不是一一对应?下面引入一个重要的定理。

定理:设$B:\beta_1,\beta_2,\dots,\beta_n$是向量空间$V$的一组基,$a_1,a_2,\dots,a_n\in V$,则存在唯一的线性变换$T$使得$T(\beta_i)=\alpha_i$。

证明很简单,欧拉说过:当你证不出来的时候,去看看定义罢。

而根据这个定理就可以得到上面的答案,确实是一一对应的(同一组基,一个向量的线性组合是唯一的,线性变换也就是唯一的咯)

而这里的证明也让我们理解到基对于这个向量空间的重要性。我知道基的线性变换结果,我便知道了这个向量空间中所有向量的线性变换的结果,即为:
$$
T(\vec{x})=T(\sum{k_i\vec{\beta_i}})=\sum{k_iT(\vec{\beta_i}})
$$
因此我们去研究基的线性变换。假设$B:\beta_1,\beta_2,\dots,\beta_n$是向量空间$V$的一组基,则有:
$$
T(\vec{\beta_i})=a_{1i}\vec{\beta_1}+a_{2i}\vec{\beta_2}+\dots+a_{ni}\vec{\beta_n}
$$
我们用矩阵的形式去表示这种线性变换,就可以写成:
$$
T(\vec{\beta_1},\vec{\beta_2},\dots,\vec{\beta_n})
=
(\vec{\beta_1},\vec{\beta_2},\dots,\vec{\beta_n})A
=(\vec{\beta_1},\vec{\beta_2},\dots,\vec{\beta_n})
\left[
\begin{matrix}
a_{11}&a_{12}&\cdots&a_{1n}\\
a_{21}&a_{22}&\cdots&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\
a_{n1}&a_{n2}&\cdots&a_{nn}
\end{matrix}
\right]
$$
现在我们就可以表示对于线性变换$T$所有的取值$ran(T)$了,取任意$\alpha\in dom(T)$,则有:
$$
T(\vec{\alpha})=\sum{k_iT(\vec{\beta_i}})=T(\vec{\beta_1},\vec{\beta_2},\dots,\vec{\beta_n})\left[
\begin{matrix}
a_1\\
a_2\\
\vdots\\
a_n
\end{matrix} \right]
=
(\vec{\beta_1},\vec{\beta_2},\dots,\vec{\beta_n})A\left[
\begin{matrix}
a_1\\
a_2\\
\vdots\\
a_n
\end{matrix} \right]=(\vec{\beta_1},\vec{\beta_2},\dots,\vec{\beta_n})\left[
\begin{matrix}
b_1\\
b_2\\
\vdots\\
b_n
\end{matrix} \right]
$$

所以:
$$
T(\vec{\alpha})=A(a_1,a_2,\dots,a_n)^T=(b_1,b_2,\dots,b_n)^T
$$

矩阵相似

设$B:\beta_1,\beta_2,\dots,\beta_n$和$E:\varepsilon_1,\varepsilon_2,\dots,\varepsilon_n$是向量空间$V$的两组基,$B$到$E$的过度矩阵是$S$(即$E=BS$),$T\in L(V)$在这两个基下的矩阵分别为$A$和$B$,则有:
$$
B=S^{-1}AS
$$
不难发现,$A$和$B$实质上是同一种线性变换,由此我们得到了相似(Similarity)的定义。

定义:设$A,B\in F^{n\times n}$,如果存在非奇异阵$C\in F^{n\times n}$,使得$B=C^{-1}AC$,则称$A$与$B$相似,记作:
$$
A\sim B
$$

🤔 由此不难发现,相似是一种等价关系。相信聪明如你一定能证明他的自反性,对称性和传递性。

矩阵等价

矩阵的相似反映的是相同向量空间上的线性变换,而现在我们需要考虑不同向量空间上的线性变换,即考虑$T:F^{n\times n}\rightarrow F^{m\times m}$。设$U= F^{n\times n},V=F^{m\times m}$,则$T:U\rightarrow V$,分别取$U,V$的两组基向量$B_U,E_U,B_V,E_V$,则有基变换:
$$
B_U=E_US_U, B_V=E_VS_V
$$
则可取表示阵$P,Q$满足:$T(B_U)=B_VP,T(E_U)=E_VQ$,则有:
$$
Q=S_V^{-1}PS_U
$$
又不难发现,$P$和$Q$实际上是同一种线性变换,由此我们得到了等价(Equality)的定义。

定义:设$A,B\in F^{n\times n}$,如果存在非奇异阵$P,Q\in F^{n\times n}$,使得$B=P^{-1}AQ$,则称$A$与$B$等价,记作:
$$
A\cong B
$$
而当$P=Q$时,$A\sim B$。于是我们得到了一个非常诡异的结论:相似一定等价,等价不一定相似。

🤬 我谢谢他相似一定等价等价不一定相似。

🤔 由此不难发现,等价是一种等价关系(废话)。相信聪明如你一定能证明他的自反性,对称性和传递性。


Author: Luminolt
Reprint policy: All articles in this blog are used except for special statements CC BY 4.0 reprint policy. If reproduced, please indicate source Luminolt !
  TOC