2. 선형변환과 행렬

2.1 선형변환, 영공간, 치역

정의:
$\mathsf{V, W}$가 체 $F$에 대한 벡터공간일 때
$\begin{matrix} \mathsf{T:}\ \mathsf{V} \longrightarrow \mathsf{W} \\ \mathrm{i.e.}\ \mathsf{T} 는\ \mathsf{V}에서\ \mathsf{W}로의\ 선형변환 \end{matrix} \iff$ $\begin{matrix} ^{\forall}x, y \in \mathsf{V}, c \in F, \\ \begin{cases} \mathrm{a)}\ \mathsf{T}(x + y) = \mathsf{T}(x) + \mathsf{T}(y) \\ \mathrm{b)}\ \mathsf{T}(cx) = c \mathsf{T}(x) \end{cases} \end{matrix}$

  • $\mathsf{T}(0_\mathsf{V}) = 0_\mathsf{W}$
    • $\because)\ \mathsf{T}(0) + \mathsf{T}(0) = \mathsf{T}(0 + 0) = \mathsf{T}(0)$
  • $\mathsf{T} \left( \sum_{i=1}^n a_i x_i \right) = \sum_{i=1}^n a_i \mathsf{T}(x_i)$

예제 2:
$\theta$에 대하여
$\mathsf{T}_\theta : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$는 다음과 같이 정의된다. $\begin{cases} \mathsf{T}_\theta (0, 0) = (0, 0) \\ (a_1, a_2) \neq (0, 0) \longrightarrow 벡터\ (a_1, a_2)를\ 반시계\ 방향으로\ \theta\ 도\ 회전 \end{cases}$
$\mathsf{T}_\theta를\ \theta\ 도\ 회전이라\ 하며,\ 이는\ 선형변환이다.$

예제 7:
$\mathsf{C}(\mathbb{R}) = \mathsf{V}$이고, $a, b \in \mathbb{R}, a < b$일 때,
$\mathsf{T} : \mathsf{V} \longrightarrow \mathbb{R}$$\mathsf{T}(f) = \int_a^b f(t) dt$로 정의된다.

$^{\forall} f, g \in \mathsf{C}(\mathbb{R}), c \in \mathbb{R}$
$\begin{matrix} \mathsf{T}(f + c \cdot g) & = & \int_a^b (f + cg) (t) dt \\ & = & \int_a^b f(t) dt + c \int_a^b g(t) dt \\ & = & \mathsf{T}(f) + c \mathsf{T}(g) \end{matrix}$ $\implies \mathsf{T}$는 선형변환

정의:
$\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$가 선형변환일 때,
$\begin{cases} \mathsf{N} (\mathsf{T}) \subset \mathsf{V} = \left\{ x \in \mathsf{V} : \mathsf{T} (x) = 0 \right\} & : & \mathsf{T}의\ 영공간(\mathrm{null\ space})\ 또는\ 핵(\mathrm{kernel}) \\ \mathsf{R}(\mathsf{T}) \subset \mathsf{W} = \left\{ \mathsf{T}(x) : x \in \mathsf{V} \right\} & : & \mathsf{T}의\ 치역(\mathrm{range})\ 또는\ 상(\mathrm{image}) \end{cases}$

정리 2.1

$\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$가 선형변환 $\implies \begin{cases} \mathsf{N}(\mathsf{T}) \subset \mathsf{V}, \\ \mathsf{R}(\mathsf{T}) \subset \mathsf{W} \end{cases}$

증명:
$\mathsf{N}(\mathsf{T}) \subset \mathsf{V}$: $\qquad$ 직접 해 보기

$\mathsf{R}(\mathsf{T}) \subset \mathsf{W}$: $\qquad$ $\mathsf{T}(0_\mathsf{V}) = 0_\mathsf{W}, \quad 0_\mathsf{W} \in \mathsf{R}(\mathsf{V}) \\ ^\forall x, y \in \mathsf{R}(\mathsf{T}), c \in F \\ \exists\ u, v \in \mathsf{V} \quad \mathrm{s.t.} \quad \mathsf{T}(u) = x, \mathsf{T}(v) = y \\ x + y = \mathsf{T}(u) + \mathsf{T}(v) = \mathsf{T}(u + v), \\ u + v \in \mathsf{V}, \quad x + y \in \mathsf{R}(\mathsf{T}) \\ c - x = c \cdot \mathsf{T}(u) = \mathsf{T}(cu) \\ cu \in \mathsf{V} \implies cx \in \mathsf{R}(\mathsf{T}) \\ \therefore\ \mathsf{R}(\mathsf{T})는\ \mathsf{W}의\ 부분공간이다.$

정리 2.2

선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$
$\mathsf{V}$의 기저 $\beta = \left\{ v_1, \cdots, v_n \right\}$
$\implies \mathsf{R}(\mathsf{T})$ $= \operatorname{span}(\mathsf{T}(\beta)) \\ = \operatorname{span}(\left\{ \mathsf{T}(v_1), \cdots, \mathsf{T}(v_n) \right\})$

증명:
$^\forall i,$ $\mathsf{T}(v_i) \in \mathsf{R}(\mathsf{T}) \\ \operatorname{span}(\mathsf{T}(v_i)) \subset \mathsf{R}(\mathsf{T})$

$w \in \mathsf{R}(\mathsf{T})$ 를 추측하면
$\quad$ $w = \mathsf{T}(v) \quad \mathrm{for\ some}\ v \in \mathsf{V} \\ v = \sum_{i=1}^n a_i v_i \quad \mathrm{for\ some}\ a_1, \cdots, a_n \in F \\ w = \mathsf{T}\left( \sum_{i=1}^n a_i v_i \right) = \sum_{i=1}^n a_i v_i a_i \mathsf{T}(v_i) \in \operatorname{span}(\mathsf{T}(\beta)) \\ \therefore \mathsf{R}(\mathsf{T}) = \operatorname{span}(\mathsf{T}(\beta))$

예제 10:
선형변환 $\mathsf{T}: \mathsf{P}_2 (\mathbb{R}) \longrightarrow \mathsf{M}_{2 \times 2}(\mathbb{R})$
$\mathsf{T}(f(x)) = \begin{pmatrix} f(1) - f(2) & 0 \\ 0 & f(0) \end{pmatrix}$ 로 정의된다.
$\mathsf{P}_2 (\mathbb{R})$의 기저 $\beta = \left\{ 1, x, x^2 \right\}$
$\mathsf{R}(\mathsf{T})$ $= \operatorname{span}(\mathsf{T}(\beta)) \\ = \operatorname{span} \left( \left\{ \mathsf{T}(1), \mathsf{T}(x), \mathsf{T}(x^2) \right\} \right) \\ \operatorname{span} \left[ \left\{ \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} -1 & 0 \\ 0 & 0 \end{pmatrix}, \begin{pmatrix} -3 & 0 \\ 0 & 0 \end{pmatrix} \right\} \right] \\ = \operatorname{span} \left[ \left\{ \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} -1 & 0 \\ 0 & 0 \end{pmatrix} \right\} \right]$
$\therefore\ \operatorname{dim}(\mathsf{R}(\mathsf{T})) = 2$

정의:
벡터공간 $\mathsf{V}, \mathsf{W}$, 선형변환 $\mathsf{T}$에 대하여
$\mathsf{N}(\mathsf{T}), \mathsf{R}(\mathsf{T})$

$\operatorname{dim}(\mathsf{N}(\mathsf{T})) \bumpeq \operatorname{nullity}(\mathsf{T}) \quad : \mathbf{영공간의\ 차원}\ (\mathrm{nullity}) \\ \operatorname{dim}(\mathsf{R}(\mathsf{T})) \bumpeq \operatorname{rank}(\mathsf{T}) \quad : \mathbf{계수}\ (\mathrm{rank})$

정리 2.3 - 차원정리

벡터공간 $\mathsf{V}, \mathsf{W}$, 선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$ 에 대하여 만약 $\mathsf{V}$가 유한 차원이면,

$\operatorname{nullity}(\mathsf{T}) + \operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{V})$

증명:
$\operatorname{dim}(\mathsf{V}) = n, \operatorname{dim}(\mathsf{N}(\mathsf{T})) = k$ 로 상정
$\mathsf{N}(\mathsf{T})$ 의 기저 $\beta_{\mathsf{N}} = \left\{ v_1, \cdots, v_k \right\}$
$\beta_{\mathsf{N}}$$\mathsf{V}$ 의 기저로 확장될 수 있다. ($\because$ 정리 1.11의 따름정리)
$\mathsf{R}(\mathsf{T})$ 의 기저를 $S = \left\{ \mathsf{T}(v_{k+1}), \cdots, \mathsf{T}(v_n) \right\}$ 로 상정한다.

$\operatorname{span}(S)$$= \operatorname{span}(\left\{ \mathsf{T}(v_{k+1}), \cdots, \mathsf{T}(v_n) \right\}) \\ = \operatorname{span}( \left\{ \mathsf{T}(v_1), \cdots, \mathsf{T}(v_k), \mathsf{T}(v_{k+1}), \cdots, \mathsf{T}(v_n) \right\} \\ = \mathsf{R}(\mathsf{T}) \\ \because\ \left\{ v_1, \cdots, v_n \right\} 가\ 정리\ 2.2에\ 따라\ \mathsf{V}의\ 기저$

$어떤\ b_{k+1}, \cdots, b_n \in F\ 에\ 대하여\ \sum_{i=k+1}^n b_i \mathsf{T}(v_i) = 0\ 을\ 상정 \\ 그러면\ \mathsf{T}\left( \sum_{i=k+1}^n b_i v_i \right) = 0 \\ \mathrm{i.e.}\ \sum_{i=k+1}^n b_i v_i \in \mathsf{N}(\mathsf{T}) \\ \implies \sum_{i=k+1}^n b_i v_i = \sum_{i=1}^k c_i v_i \quad \mathrm{for\ some}\ c_i \in F \\ \sum_{i=1}^k(-c_i)v_i + \sum_{i=k+1}^n b_i v_i = 0 \\ \therefore\ b_{k+1}, \cdots, b_n = 0 \\ \therefore \mathsf{S} 는\ 선형독립$

$\operatorname{dim}(\mathsf{R}(\mathsf{T}))$ $= n - k \\ = \operatorname{dim}(\mathsf{V}) - \operatorname{dim}(\mathsf{N}(\mathsf{T}))$
$\operatorname{dim}(\mathsf{N}(\mathsf{T})) + \operatorname{dim}(\mathsf{R}(\mathsf{T})) = \operatorname{dim}(\mathsf{V})$
$\operatorname{nullity}(\mathsf{T}) + \operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{V})$

정리 2.4

벡터공간 $\mathsf{V}, \mathsf{W}$, 선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$ 에 대하여

$\mathsf{T}$가 단사 $\iff \mathsf{N}(\mathsf{T}) = \left\{ 0 \right\}$

증명: 직접 해보기

정리 2.5

$\begin{pmatrix} 두\ 벡터공간\ \mathsf{V}, \mathsf{W}\ 의\ 차원이\ 서로\ 같으며\ 유한차원 \\ 선형변환\ \mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W} \end{pmatrix} \implies \begin{cases} \mathrm{a)}\ \mathsf{T}: 단사 & \equiv \\ \mathrm{b)}\ \mathsf{T}: 전사 & \equiv \\ \mathrm{c)}\ \operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{V}) \end{cases}$

증명:
차원정리를 사용한다.
$\operatorname{nullity}(\mathsf{T}) + \operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{V})$

$\mathsf{T}\ 가\ 단사$ $\iff \mathsf{N}(\mathsf{T}) = \left\{ 0 \right\} \\ \iff \operatorname{nullity}(\mathsf{T}) = 0\ 이고\ \operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{V}) \qquad (\mathrm{a} \iff \mathrm{c}) \\ \iff \operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W}) = \operatorname{dim}(\mathsf{R}(\mathsf{T})) \\ \iff \mathsf{W} = \mathsf{R}(\mathsf{T}), \mathrm{i.e.}\ \mathsf{T}\ 가\ 전사 \quad (\because\ 정리\ 1.7) \quad (\mathrm{b} \iff \mathrm{c})$
$\therefore\ \mathrm{a)} \iff \mathrm{b)} \iff \mathrm{c)}$

예제 11:
$\mathsf{T}: \mathsf{P}_2 (\mathbb{R}) \longrightarrow \mathsf{P}_3 (\mathbb{R})$$\mathsf{T}(f(x)) = 2 f'(x) + \int_0^x 3 f(t) dt$ 로 정의된다.

$\mathsf{P}_2$ 의 기저 $\left\{ 1, x, x^2 \right\}$
$\mathsf{R}(\mathsf{T}) = \operatorname{span}( \left\{ \mathsf{T}(1), \mathsf{T}(x), \mathsf{T}(x^2) \right\} ) = \operatorname{span} \left( \left\{ 3x, 2+{3 \over 2}x^2, 4s + x^3 \right\} \right)$

정리 2.6

$F$ 에 대한 벡터공간 $\mathsf{V}, \mathsf{W}$
$\mathsf{V}$ 의 기저를 $\left\{ v_1, \cdots, v_n \right\}$ 로 상정

어떤 $w_1, \cdots, w_n \in \mathsf{W}$ 에 대하여 $\exists!$ 선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W} \\ \mathrm{s.t.}\ \mathsf{T}(v_i) = w_i, \quad i = 1, 2, \cdots, n$

증명:
$x \in \mathsf{V}$, $x = \sum_{i=1}^n a_i v_i \qquad a_1, \cdots, a_n$은 유일한 스칼라들
$\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$$\mathsf{T}(x) = \sum_{i=1}^n a_i w_i \in \mathsf{W}$ 로 정의

a) $\mathsf{T}$ 가 선형변환임을 증명
$\quad$ $^\forall u, v \in \mathsf{V}, d \in F \\ u = \sum_{i=1}^n b_i v_i, v = \sum_{i=1}^n c_i v_i \\ 어떤\ b_1, \cdots, b_n, c_1, \cdots, c_n \in F에\ 대하여$
$\quad$ $du + v$ $= d \left( \sum_{i=1}^n b_i v_i \right) + \left( \sum_{i=1}^n c_i v_i \right) \\ = \sum_{i=1}^n \left[ d(b_i v_i) + c_i v_i \right] \\ = \sum_{i=1}^n \left[ (d b_i ) v_i + c_i v_i \right] \\ = \sum_{i=1}^n \left[ (d b_i ) + c_i \right] v_i$
$\quad$ $\mathsf{T}(du + v)$ $= \sum_{i=1}^n \left[ d b_i + c_i \right] v_i \\ = d \sum_{i=1}^n b_i w_i + \sum_{i=1}^n a_i w_i \qquad (\because\ \mathsf{T}(du+v), w_1, \cdots, w_n \in \mathsf{W}, \mathrm{vector\ space}) \\ = d \mathsf{T}(u) + \mathsf{T}(v) \\ \therefore\ \mathsf{T}\ 는\ 선형$

b) $\mathsf{T}(v_i) = w_i$ 임을 증명
$\because\$ $v_i = 0 v_1 + \cdots + 1 v_i + \cdots + 0 v_n \\ \mathsf{T}(v_i) = 0 w_1 + \cdots + 1 w_i + \cdots + 0 w_n$

c) $\mathsf{T}$ 가 유일함을 증명
$\because\$ $\exists\ 선형\ \mathsf{U}: \mathsf{V} \longrightarrow \mathsf{W}\ 를\ 상정 \\ \forall x \in \mathsf{V}, x = \sum_{i=1}^n a_i v_i\ 이고\ \mathsf{U}(v_i) = w_i$
$\qquad$ $\mathsf{U}(x) = \mathsf{U} \left( \sum_{i=1}^n a_i v_i \right)$ $= \sum_{i=1}^n a_i \mathsf{U}(v_i) \quad (\because\ \mathsf{U}가\ 선형) \\ = \sum_{i=1}^n a_i w_i \\ = \mathsf{T} \left( \sum_{i=1}^n a_i v_i \right) \quad (\because\ \mathsf{T}의\ 정의) \\ = \mathsf{T}(x)$

따름정리:
$\begin{pmatrix} 선형\ \mathsf{U}, \mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W} \\ \mathsf{V}\ 의\ 기저\ \beta = \left\{ v_1, \cdots, v_n \right\} \\ \mathsf{U}(v_i) = \mathsf{T}(v_i) \quad i = 1, \cdots, n \end{pmatrix} \iff \mathsf{U} = \mathsf{T}$

2.2 선형변환의 행렬표현

$\mathsf{V}$: 유한차원 벡터공간

  • $\mathsf{V}$순서기저(ordered basis)

$\mathsf{V}$의 순서기저를 $\beta = \left\{ u_1, \cdots, u_n \right\}$ 로 설정
$^\forall x \in \mathsf{V}$, $x = \sum_{i=1}^n a_i u_i = a_1 u_1 + \cdots + a_n u_n \\ \longleftrightarrow \begin{pmatrix} a_1 \\ \vdots \\ a_n \end{pmatrix} \in F^n \quad 를\ [x]_\beta\ 로\ 표시$
$[x]_\beta = \begin{pmatrix} a_1 \\ \vdots \\ a_n \end{pmatrix}$$\beta$에 대한 $x$좌표벡터(coordinate vector)라 정의한다.

  • 표준순서기저(standard orderd basis)

벡터공간 $\mathsf{F}^n$의 표준순서기저는 $\left\{ e_1, e_2, \cdots, e_n \right\}$
벡터공간 $\mathsf{P}_n (F)$의 표준순서기저는 $\left\{ 1, x, \cdots, x^n \right\}$

$V, W$가 유한차원 벡터공간이고 순서기저가 각각 $\beta = \left\{ v_1, \cdots, v_n \right\}, \gamma = \left\{ w_1, \cdots, w_n \right\}$
선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$
$^\forall 1 \le j \le n$, $\exists\ a_{1j}, \cdots, a_{nj} \quad \mathrm{s.t.}\ \mathsf{T}(v_j) = \sum_{i=1}^n a_{ij} w_i \\ v_j \longleftrightarrow \begin{pmatrix} a_{1j} \\ \vdots \\ a_{nj} \end{pmatrix} = [ \mathsf{T}(v_i) ]_\gamma$

정의:
$A$ $= ( [\mathsf{T}(v_1)]_\gamma , [\mathsf{T}(v_2)]_\gamma , \cdots, [\mathsf{T}(v_n)]_\gamma ) \\ = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & & a_{2n} \\ \vdots & \vdots & \cdots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix}$
을 순서기저 $\beta$$\gamma$에 대한 $\mathsf{T}$행렬표현(matrix representation)이라 한다.

예제 4:
$\mathsf{T}: \mathsf{P}_3 (\mathbb{R}) \longrightarrow \mathsf{P}_2 (\mathbb{R})$
$\mathsf{T}(f(x)) = f'(x)$
$\mathsf{P}_3(\mathbb{R}), \mathsf{P}_2(\mathbb{R})$에 대한 순서기저 각각 $\beta = \left\{ 1, x, x^2, x^3 \right\} , \gamma = \left\{ 1, x, x^2 \right\}$

$\mathsf{T}(1) = 0 = 0 \cdot 1 + 0 \cdot x + 0 \cdot x^2 \longrightarrow [ \mathsf{T}(1) ]_\gamma = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \\ \mathsf{T}(x) = 1 = 1 \cdot 1 + 0 \cdot x + 0 \cdot x^2 \longrightarrow [ \mathsf{T}(x) ]_\gamma = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} \\ \mathsf{T}(x^2) = 0 = 0 \cdot 1 + 2 \cdot x + 0 \cdot x^2 + \longrightarrow [ \mathsf{T}(x^2) ]_\gamma = \begin{pmatrix} 0 \\ 2 \\ 0 \end{pmatrix} \\ \mathsf{T}(x^3) = 3x^2 = 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2 \longrightarrow [ \mathsf{T}(x^3) ]_\gamma = \begin{pmatrix} 0 \\ 0 \\ 3 \end{pmatrix}$

$\therefore\ [\mathsf{T}]_\beta^\gamma$ $= ( [\mathsf{T}(1)]_\gamma , [\mathsf{T}(x)]_\gamma , [\mathsf{T}(x^2)]_\gamma , [\mathsf{T}(x^3)]_\gamma ) \\ = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix}$

정리 2.7

$\begin{pmatrix} \mathsf{T}, \mathsf{U}\ 선형변환 \\ \mathrm{a)} & ^\forall a \in F, a \mathsf{T} + \mathsf{U}\ 선형변환 \\ \mathrm{b)} & \mathcal{L}(\mathsf{V}, \mathsf{W}): \quad \mathsf{V}\ 에서\ \mathsf{W}\ 까지\ 모든\ 선형변환들의\ 벡터공간 \\ & \implies \mathcal{L}(\mathsf{V}, \mathsf{W})\ 는\ 체\ F에\ 대한\ 벡터공간 \end{pmatrix}$

정리 2.8

벡터공간 $\mathsf{V}, \mathsf{W}$의 순서기저가 각각 $\beta, \gamma$
선형변환 $\mathsf{T, U}: \mathsf{V} \longrightarrow \mathsf{W}$

a) $[ \mathsf{T} + \mathsf{U} ]_\beta^\gamma = [\mathsf{T}]_\beta^\gamma + [\mathsf{U}]_\beta^\gamma \\ 첫\ 번째\ 덧셈은\ \mathcal{L}(\mathsf{V}, \mathsf{W})의\ 것,\ 두\ 번째\ 덧셈은\ M_{m \times n}의\ 것$
b) $[a \mathsf{T} ]_\beta^\gamma = a [\mathsf{T}]_\beta^\gamma \quad ^\forall a \in F$

증명:
a) $\beta = \left\{ v_1, \cdots, v_n \right\}, \gamma = \left\{ w_1, \cdots, w_m \right\}\ 을\ 상정 \\ \exists\ a_{ij} b_{ij} \quad ( 1 \le i \le m, 1 \le j \le n ) \quad \mathrm{s.t.} \\ ^\forall j \quad 1 \le j \le n, \quad \mathsf{T}(v_j) = \sum_{i=1}^m a_{ij} w_i , \mathsf{U}(v_j) = \sum_{i=1}^m b_{ij} w_{ij}$
$\quad \therefore\ ( \mathsf{T} + \mathsf{U} ) ( v_j )$$= \mathsf{T}(v_j) + \mathsf{U}(v_j) \\ = \sum_{i=1}^n a_{ij} w_{ij} + \sum_{i=1}^n b_{ij} w_{ij} \\ = \sum_{i=1}^n ( a_{ij} + b_{ij} ) w_{ij}$
$\left[ \mathsf{T} + \mathsf{U} \right]_\beta^\gamma$ $= \left( \left[ (\mathsf{T} + \mathsf{U})(v_1) \right]_\gamma, \cdots, \left[ (\mathsf{T} + \mathsf{U})(v_n) \right]_\gamma \right) \\ = \begin{pmatrix} a_{11} + b_{11} & \cdots & a_{1n} + b_{1n} \\ a_{21} + b_{21} & \cdots & a_{2n} + b_{2n} \\ \vdots & \ddots & \vdots \\ a_{m1} + b_{m1} & \cdots & a_{mn} + b_{mn} \end{pmatrix} \\ \begin{pmatrix} a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & \cdots & a_{mn} \end{pmatrix} + \begin{pmatrix} b_{11} & \cdots & b_{1n} \\ \vdots & \ddots & \vdots \\ b_{m1} & \cdots & b_{mn} \end{pmatrix} \\ = \left( \left[ \mathsf{T}(v_1) \right], \cdots, \left[ \mathsf{T}(v_n) \right] \right) + \left( \left[ \mathsf{U}(v_1) \right], \cdots, \left[ \mathsf{U}(v_n) \right] \right) \\ = \left[ \mathsf{T} \right]_\beta^\gamma + \left[ \mathsf{U} \right]_\beta^\gamma$

예제 5:
선형변환 $\mathsf{T}: \mathbb{R}^2 \longrightarrow \mathbb{R}^3$$\mathsf{T}(a_1, a_2) = (a_1 + 3 a_2, 0, 2 a_1 - 4 a_2 )$,
$\mathsf{U}: \mathbb{R}^2 \longrightarrow \mathbb{R}^3$$\mathsf{U}(a_1, a_2) = (a_1 - a_2 , 2 a_1, 3 a_1 + 2 a_2 )$로 정의된다.
$\mathbb{R}^2, \mathbb{R}^3$의 순서기저는 각각 $\beta = \left\{ e_1, e_2 \right\}, \gamma = \left\{ e_1, e_2, e_3 \right\}$

$\left[ \mathsf{T} \right]_\beta^\gamma = \left( \left[ \mathsf{T}(e_1) \right]_\gamma , \left[ \mathsf{T}(e_2) \right]_\gamma \right)$
$\mathsf{T}(e_1) = \mathsf{T}( (1, 0) ) = \begin{pmatrix} 1 \\ 0 \\ 2 \end{pmatrix}$
$\mathsf{T}(e_2) = \mathsf{T}( (0, 1) ) = \begin{pmatrix} 3 \\ 0 \\ -4 \end{pmatrix}$
$\left[ \mathsf{T} \right]_\beta^\gamma = \begin{pmatrix} 1 & 3 \\ 0 & 0 \\ 2 & -4 \end{pmatrix}$
$\mathsf{T} ( a_1 , a_2 )$$= \begin{pmatrix} a_1 + 3 a_2 \\ 0 \\ 2a_1 - 4 a_2 \end{pmatrix} = \begin{pmatrix} 1 & 3 \\ 0 & 0 \\ 2 & -4 \end{pmatrix} \begin{pmatrix} a_1 \\ a_2 \end{pmatrix}$

같은 원리로 $\left[ \mathsf{U} \right]_\beta^\gamma = \begin{pmatrix} 1 & -1 \\ 2 & 0 \\ 3 & 2 \end{pmatrix}$
$\left[ \mathsf{T} + \mathsf{U} \right]_\beta^\gamma$$= \left[ \mathsf{T} \right]_\beta^\gamma + \left[ \mathsf{U} \right]_\beta^\gamma \qquad (\because\ 정리\ 2.8) \\ = \begin{pmatrix} 2 & 2 \\ 2 & 0 \\ 5 & -2 \end{pmatrix}$

2.3 선형변환과 행렬곱

정리 2.9

$F$에 대한 벡터공간 $\mathsf{V}, \mathsf{W}, \mathsf{Z}$
$\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}, \quad \mathsf{U}: \mathsf{W} \longrightarrow \mathsf{Z}$ 가 선형
$\iff \mathsf{U \circ T}: \mathsf{V} \longrightarrow \mathsf{Z}$ 도 선형

정리 2.10

$V$가 벡터공간, \quad $\mathsf{T}, \mathsf{U}_1, \mathsf{U}_2 \in \mathcal{L}(\mathsf{V})$
$\implies \begin{cases} \mathrm{(a)} & \mathsf{T} \circ (\mathsf{U}_1 + \mathsf{U}_2 ) = \mathsf{T} \circ \mathsf{U}_1 + \mathsf{T} \circ \mathsf{U}_2 그리고 ( \mathsf{U}_1 + \mathsf{U}_2 ) \circ \mathsf{T} = \mathsf{U}_1 \mathsf{T} + \mathsf{U}_2 \mathsf{T} \\ \mathrm{(b)} & \mathsf{T} \circ ( \mathsf{U}_1 \circ \mathsf{U}_2 ) = ( \mathsf{T} \circ \mathsf{U}_1 ) \mathsf{U}_2 \\ \mathrm{(c)} & \mathsf{T} \circ \mathsf{I} = \mathsf{I} \circ \mathsf{T} = \mathsf{T} \\ \mathrm{(d)} & a ( \mathsf{U}_1 \circ \mathsf{U}_2 ) = (a \mathsf{U}_1 ) \circ \mathsf{U}_2 = \mathsf{U}_1 \circ (a \mathsf{U}_2) \quad ^\forall 스칼라\ a \end{cases}$

정의:
$A$$m \times n$, $B$$n \times p$ 행렬.
$A$$B$의 곱 $AB$$m \times p$ 행렬이며 다음과 같이 정의된다.

$\left( AB \right)_{ij} = \sum_{k=1}^n A_{ik} B_{kj} \quad 1 \le i \le m, \quad 1 \le j \le p$

정리 2.11

유한차원벡터공간 $\mathsf{V}, \mathsf{W}, \mathsf{Z}$의 순서기저가 각각 $\alpha, \beta, \gamma$이고 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$$\mathsf{U}: \mathsf{W} \longrightarrow \mathsf{Z}$가 선형변환

$\implies \left[ \mathsf{U \circ T} \right]_\alpha^\gamma = \left[ \mathsf{U} \right]_\beta^\gamma \left[ \mathsf{T} \right]_\alpha^\beta$

따름정리:
유한차원벡터공간 $\mathsf{V}$의 순서기저가 $\beta$ 이고 $\mathsf{T, U} \in \mathcal{L}(\mathsf{V}) \implies \left[ \mathsf{U \circ T} \right]_\beta = \left[ \mathsf{U} \right]_\beta \left[ \mathsf{T} \right]_\beta$

정의:
크로네커 델타(Kronecker delta) $\delta_{ij} \equiv \begin{cases} 1 & \quad i = j \\ 0 & \quad i \neq j \end{cases}$
단위행렬(identity matrix) $\left( I_n \right)_{ij} \equiv \delta_{ij} \\ \mathrm{e.g.} I_1 = \begin{pmatrix} 1 \end{pmatrix}, \quad I_2 = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad I_3 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}$

정리 2.12

$A$$m \times n$ 행렬이고 $B, C$$n \times p$ 행렬이고 $D, E$$q \times m$ 행렬
$\implies \begin{cases} \mathrm{(a)} & A(B + C) = AB + AC\ 이고\ (D + E)A = DA + EA \\ \mathrm{(b)} & a(AB) = (aA)B = A(aB) \quad ^\forall 스칼라\ a \\ \mathrm{(c)} & I_m A = A = A I_n \\ \mathrm{(d)} & \mathsf{V}가\ n차원\ 벡터공간이고\ 순서기저는\beta \implies \left[ \mathsf{I}_\mathsf{V} \right]_\beta = I_n \end{cases}$

정리 2.13

$A$$m \times n$ 행렬이고 $B$$n \times p$ 행렬
$j\ ( 1 \le j \le p)$에 대하여 $u_j$$v_j$를 각각 $AB$$B$의 제$j$열로 정의하면
$\implies \begin{cases} \mathrm{(a)} & u_j = A v_j \\ \mathrm{(b)} & v_j = Be_j, \quad e_j는\ \mathsf{F}^p\ 의\ j번째\ 단위벡터 \end{cases}$

증명:
$\left( AB \right)^j = u_j$$= \begin{pmatrix} \left( AB \right)_{ij} \\ \vdots \\ \left( AB \right)_{mj} \end{pmatrix} = \begin{pmatrix} \sum_{k=1}^n A_{1k} B_{kj} \\ \vdots \\ \sum_{k=1}^n A_{mk} B_{kj} \end{pmatrix} = \begin{pmatrix} A_{11}B_{1j} + A_{12}B_{2j} + \cdots + A_{1n}B_{nj} \\ \vdots \\ A_{m1}B_{1j} + A_{m2}B_{2j} + \cdots + A_{mn}B_{nj} \end{pmatrix} \\ = \begin{pmatrix} A_{11}B_{1j} \\ \vdots \\ A_{m1}B_{1j} \end{pmatrix} + \cdots + \begin{pmatrix} A_{1n}B_{nj} \\ \vdots \\ A_{mn}B_{nj} \end{pmatrix} \\ = \begin{pmatrix} A_{11} & \cdots & A_{1n} \\ \vdots & \ddots & \vdots \\ A_{m1} & \cdots & A_{mn} \end{pmatrix} \begin{pmatrix} B_{1j} \\ \vdots \\ B_{nj} \end{pmatrix} = A v_j \\ = \begin{pmatrix} A_{11} \\ \vdots \\ A_{m1} \end{pmatrix} B_{1j} + \cdots + \begin{pmatrix} A_{1n} \\ \vdots \\ A_{mn} \end{pmatrix} B_{nj} = A^1 B_{1j} + A^2 B_{2j} + \cdots + A^n B_{nj}$

정리 2.14

유한차원벡터공간 $V, W$의 순서기저가 각각 $\beta, \gamma$ 이고 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$가 선형변환
$\implies \left[ \mathsf{T}(u) \right]_\gamma = \left[ \mathsf{T} \right]_\beta^\gamma \left[ u \right]_\beta, \qquad u \in \mathsf{V}$

증명:
$^\forall u \in \mathsf{V},$ 변환 둘을 새로 정의한다.
$\begin{cases} \mathsf{f} : F \longrightarrow \mathsf{V} & \mathsf{f}(a) = au, & ^\forall a \in F \\ \mathsf{g} : F \longrightarrow \mathsf{W} & \mathsf{g}(a) = a \cdot \mathsf{T}(a) = \mathsf{T}(au), & ^\forall a \in F \end{cases}$
$\mathsf{f, g}$ 는 선형변환
$\mathsf{g} = \mathsf{T} \circ \mathsf{f}$
$F$의 표준순서기저는 $\alpha = \left\{ 1 \right\}$
$\left[ \mathsf{T}(u) \right]_\gamma = \left[ \mathsf{g}(1) \right]_\gamma = \left[ \mathsf{g} \right]_\alpha^\gamma$$= \left[ \mathsf{T} \circ \mathsf{f} \right]_\alpha^\gamma \quad (\because\ ②) \\ = \left[ \mathsf{T} \right]_\beta^\gamma \left[ \mathsf{f} \right]_\alpha^\beta \quad (\because\ 정리\ 2.11) \\ = \left[ \mathsf{T} \right]_\beta^\gamma \left[ \mathsf{f} (1) \right]_\beta \\ = \left[ \mathsf{T} \right]_\beta^\gamma \left[ u \right]_\beta$

정의:
$A$가 체 $F$에서 성분을 가져온 $m \times n$ 행렬일 때
$\mathsf{L}_A : \mathsf{F}^n \longrightarrow \mathsf{F}^m$$\mathsf{L}_A (x) = A x$ 로 정의되고 이를 좌곱변환(left multiplication transformation)이라 한다.

정리 2.15

$A$는 성분들이 체 $F$에 속하는 $m \times n$ 행렬, $\mathsf{L}_A : \mathsf{F}^n \longrightarrow \mathsf{F}^m$
$B$는 성분들이 체 $F$에 속하는 다른 $m \times n$ 행렬
$\beta = \left\{ e_1, \cdots, e_n \right\} , \gamma = \left\{ e_1, \cdots, e_m \right\}$가 각각 $\mathsf{F}^n, \mathsf{F}^m$의 표준순서기저

(a) $\left[ \mathsf{L}_A \right]_\beta^\gamma = A \\ \because\ \left( \left[ \mathsf{L}_A \right]_\beta^\gamma \right)^j = \left[ \mathsf{L}_A (e_j) \right]_\gamma = \left[ A e_j \right]_\gamma = \left[ A^j \right] = A^j$

(b) $\mathsf{L}_A = \mathsf{L}_B \iff A = B \\ \because\ \mathsf{L}_A = \mathsf{L}_B \implies A = \left[ \mathsf{L}_A \right]_\beta^\gamma ,\ B = \left[ \mathsf{L}_B \right]_\beta^\gamma \\ \quad A = B \implies \mathsf{L}_A = \mathsf{L}_B$

(c) $\mathsf{L}_{(A+B)} = \mathsf{L}_A + \mathsf{L}_B , \quad \mathsf{L}_{aA} = a \mathsf{L}_A \quad ^\forall a \in F$

(d) $선형변환\ \mathsf{T}: \mathsf{F}^n \longrightarrow \mathsf{F}^m \\ \exists!\ m \times n\ 행렬\ C\ \mathrm{s.t.}\ \mathsf{T} = \mathsf{L}_C$
증명: $\left( \mathsf{T}(e_1), \cdots, \mathsf{T}(e_n) \right) = \left[ \mathsf{T} \right]_\beta^\gamma = C$
$^\forall x \in \mathsf{F}^n , \left[ \mathsf{T}(x) \right]_\gamma$ $\left[ \mathsf{T} \right]_\beta^\gamma \left[ x \right]_\beta \quad (\because\ 정리\ 2.14) \\ = C [ x ]_\beta \\ = Cx \\ = \mathsf{L}_C (x) = \left[ \mathsf{L}_C (x) \right]_\gamma$
$\therefore\ \mathsf{T} = \mathsf{L}_C$

(e) $n \times p\ 행렬 E \implies \mathsf{L}_{AE} = \mathsf{L}_A \mathsf{L}_E$
$\because\ ^\forall j \quad \mathsf{L}_{AE}(e_j) = (AE) e_j = (AE)^j \quad (\because\ 정리\ 2.13)$
$\qquad \qquad A(E e_j )$ $= (AE)^j \\ = A \left( \mathsf{L}_E (e_j) \right) \\ \mathsf{L}_A \left( \mathsf{L}_E ( e_j ) \right) \\ = \left( \mathsf{L}_A \circ \mathsf{L}_E \right) ( e_j )$

(f) $m = n \implies \mathsf{L}_{I_n} = \mathsf{I}_{\mathsf{F}^n}$

정리 2.16

$A(BC) = (AB)C$
$\mathsf{L}_{A(BC)} = \mathsf{L}_A \mathsf{L}_{(BC)}$ $= \mathsf{L}_A (\mathsf{L}_B \mathsf{L}_C ) \\ = (\mathsf{L}_A \mathsf{L}_B ) \mathsf{L}_C \\ = \cdots \\ = \mathsf{L}_{(AB)C} \qquad (\because\ 정리\ \mathrm{2.15-(e)}과\ 함수합성의\ 결합법칙)$

2.4 가역과 동형

정의:
벡터공간 $\mathsf{V}, \mathsf{W}$,
선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$

$\exists\ \mathsf{U}: \mathsf{W} \longrightarrow \mathsf{V} \quad \mathrm{s.t.}$ $\mathsf{TU} = \mathsf{I}_\mathsf{W} \\ \mathsf{UT} = \mathsf{I}_\mathsf{V}$
$\iff$ $\mathsf{U}$$\mathsf{T}$(inverse)이라 하고 $\mathsf{U} \equiv \mathsf{T}^{-1}$ 으로 표시한다. 또한 $\mathsf{T}$가역(invertible)이다.

  • $(\mathsf{TU})^{-1} = \mathsf{U}^{-1} \mathsf{T}^{-1}$
  • $(\mathsf{T}^{-1})^{-1} = \mathsf{T}$
  • $\mathsf{T}$가 가역 $\iff$ $\mathsf{T}$가 전단사
  • $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}, \quad \operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W})$
    • 전사
    • 단사
    • $\operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{V})$
    • $\mathsf{T}$가 가역

예제 1:
$\mathsf{T}: \mathsf{P}_1 (\mathbb{R}) \longrightarrow \mathbb{R}^2$$\mathsf{T}(a + bx) = (a, a + b)$ 로 정의된다
$\implies\ \mathsf{U}: \mathbb{R}^2 \longrightarrow \mathsf{P}_1 (\mathbb{R})$$\mathsf{U}(c, d) = c + (d - c) x$ 로 정의된다
$\begin{cases} \mathsf{T} \circ \mathsf{U} = \mathsf{I}_{\mathsf{P}_1(\mathbb{R})} \\ \mathsf{U} \circ \mathsf{T} = \mathsf{I}_{\mathbb{R}} \end{cases} \implies \mathsf{U} = \mathsf{T}^{-1}$

정리 2.17

$\begin{pmatrix} \mathsf{V, W}가\ 벡터공간 \\ \mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}가\ 가역선형변환 \end{pmatrix} \implies \mathsf{T}^{-1} : \mathsf{W} \longrightarrow \mathsf{V}도\ 선형변환$

증명:
$\mathsf{T}$가 가역이므로 $\mathsf{T}$는 전단사
$^\forall y_1, y_2 \in \mathsf{W}, \exists!\ x_1, x_2 \in \mathsf{V} \quad \mathrm{s.t.}\ \mathsf{T}(x_1) = y_1, \mathsf{T}(x_2) = y_2$
$^\forall c \in F, \mathsf{T}^{-1}(c y_1 + y_2 )$$= \mathsf{T}^{-1} ( c \mathsf{T}(x_1) + \mathsf{T}(x_2) ) \\ = \mathsf{T}^{-1} ( mathsf{T} ( c x_1 + x_2)) \\ = ( \mathsf{T}^{-1} \circ \mathsf{T} )(cx_1 + x_2 ) \\ = c x_1 + x_2 \\ = c \mathsf{T}^{-1}(y_1) + \mathsf{T}^{-1} (y_2)$
$\qquad \therefore\ \mathsf{T}^{-1}$는 선형

정의:
$\begin{matrix} A, B가\ m \times n\ 행렬 \\ AB = BA = I_n \end{matrix} \implies \begin{cases} A는\ 가역 & \\ B는\ A의\ 역행렬 & B \equiv A^{-1} \end{cases}$

부명제:
$\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$가 가역선형변환
$\implies \begin{cases} \mathsf{V}가\ 유한차원 \iff \mathsf{W}가 유한차원 \\ \operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W}) \end{cases}$

증명:
$\mathsf{V}$를 유한차원으로 상정하고 그 기저 $\beta = \left\{ x_1, \cdots, x_n \right\}$
$\operatorname{span}(\mathsf{T}(\beta))$$= \mathsf{R}(\mathsf{T}) \quad (\because\ 정리\ 2.2) \\ \mathsf{W} \quad (\because\ \mathsf{T}가\ 전사)$
$\mathsf{W}$는 유한차원 $\quad (\because\ 정리\ 1.9)$
$\mathsf{T}$ 대신 $\mathsf{T}^{-1}$를 사용해 $\mathsf{W}$를 유한차원으로 상정하면 $\mathsf{V}$는 유한차원

$\mathsf{V, W}$가 유한차원이고, $\mathsf{T}$가 전단사라고 상정 $\implies \begin{cases} \operatorname{null}(\mathsf{T}) = \left\{ 0 \right\} \\ \operatorname{rank}(\mathsf{T}) = \operatorname{dim}(\mathsf{W}) \end{cases}$
차원정리에 의해 $\operatorname{dim}(\mathsf{V})$$= \operatorname{rank}(\mathsf{T}) + \operatorname{nullity}(\mathsf{T}) \\ \operatorname{dim}(\mathsf{W}) + 0 \\ = \operatorname{dim}(\mathsf{W})$

정리 2.18

$\mathsf{V, W}$가 유한차원 벡터공간이고 순서기저가 각각 $\beta, \gamma$
$\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$ 가 선형변환
$\mathsf{T}가\ 가역 \iff \begin{cases} \left[ \mathsf{T} \right]_\beta^\gamma가\ 가역 \\ \left[ \mathsf{T}^{-1} \right]_\gamma^\beta = ( \left[ \mathsf{T} \right]_\beta^\gamma)^{-1} \end{cases}$

증명:
$\mathsf{T}$가 가역이라고 상정
$\operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W}) = n \qquad \mathrm{i.e.}$ $\mathsf{V}의\ 기저\ \beta = \left\{ v_1, \cdots, v_n \right\} \\ \gamma = \left\{ w_1, \cdots, w_n \right\}$
$\left[ \mathsf{T} \right]_\gamma^\beta \in \mathsf{M}_{n \times n}(F)$
$\mathsf{T}$의 역변환 $\mathsf{T}^{-1} : \mathsf{W} \longrightarrow \mathsf{V}$
$\mathsf{T} \circ \mathsf{T}^{-1} = \mathsf{I}_\mathsf{W}, \mathsf{T}^{-1} \circ \mathsf{T} = \mathsf{I}_\mathsf{V}$ 로 잡고
$\mathsf{I}_n$$= \left[ \mathsf{I}_\mathsf{V} \right]_\beta^\beta = \left[ \mathsf{T}^{-1} \mathsf{T} \right]_\beta^\beta = \left[ \mathsf{T}^{-1} \right]_\gamma^\beta \left] \mathsf{T} \right]_\beta^\gamma \\ = \left[ \mathsf{I}_\mathsf{W} \right]_\gamma^\gamma = \left[ \mathsf{T} \mathsf{T}^{-1} \right]_\gamma^\gamma = \left[ \mathsf{T} \right]_\beta^\gamma \left] \mathsf{T}^{-1} \right]_\gamma^\beta \quad (\because\ 정리\ 2.11)$
$\left[ \mathsf{T} \right]_\beta^\gamma$ 가 가역이고 $\left( \left[ \mathsf{T}_\beta^\gamma \right]_\beta^\gamma \right)^{-1} = \left[ \mathsf{T}^{-1} \right]_\gamma^\beta$ $\iff \left[ \mathsf{T} \right]_\beta^\gamma$ 가 가역

$\begin{matrix} & \mathsf{T}=A & \\ \mathsf{V} & \rightleftharpoons & \mathsf{W} \\ & \mathsf{T}^{-1} = A^{-1} & \end{matrix} \quad \mathrm{i.e.}$ $\exists!\ B \in \mathsf{M}_{m \times n}(F) \\ \mathrm{s.t.}\ AB = BA = I_n \quad \mathrm{i.e.}\ B = A^{-1}$

$\exists\ \mathsf{U} \in \mathcal{L}(\mathsf{W}, \mathsf{V}) \quad \mathrm{s.t.}\ \mathsf{U}(w_j) = \sum_{i=1}^n B_{ij}v_i \quad (\because\ 정리\ 2.6)$
$\left[ \mathsf{U} \right]_\gamma^\beta$$= \left( \left[ \mathsf{U}(w_1) \right]_\beta, \left[ \mathsf{U}(w_2) \right]_\beta, \cdots \right) \\ = \begin{pmatrix} B_{11} & \cdots & B_{1n} \\ \vdots & \ddots & \vdots \\ B_{n1} & \cdots & B_{nn} \end{pmatrix} = B$

$\left[ \mathsf{U} \circ \mathsf{T} \right]_\beta$$= \left[ \mathsf{U} \right]_\gamma^\beta \left[ \mathsf{T} \right]\beta^\gamma \\ = BA = I_n = \left[ \mathrm{I}_\mathrm{V} \right]_\beta$
$\mathsf{U} \circ \mathsf{T} = \mathsf{I}_\mathsf{V} \\ \therefore\ \mathsf{U} = \mathsf{T}^{-1}$

예제 3:
$\mathsf{T}: \mathsf{P}_1 (\mathbb{R}) \longrightarrow \mathbb{R}^2$
$\mathsf{T}(a + bx) = (a, a + b)$
$\mathsf{P}_1 (\mathbb{R}), \mathbb{R}^2$ 의 표준기저는 각각 $\beta = \left\{ 1, x \right\}, \gamma = \left\{ \vec{e}_1, \vec{e}_2 \right\}$
$\begin{matrix} \mathsf{T}(1) = \mathsf{T}(1 + 0x) = (1, 1) \\ \mathsf{T}(x) = \mathsf{T}(0 + 1x) = (0, 1) \end{matrix} \longrightarrow \left[ \mathsf{T} \right]_\beta^\gamma = \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix}$
$\mathsf{T}^{-1}(c, d) = c + (d - c) x$
$\mathsf{T}^{-1}(\vec{e}_1) = \mathsf{T}^{-1}(1, 0) = 1 - x = 1 \cdot 1 + (-1) x$
$\mathsf{T}^{-1}(\vec{e}_2) = \mathsf{T}^{-1}(0, 1) = x = 0 \cdot 1 + 1\cdot x$
$\left[ \mathsf{T}^{-1} \right]_\gamma^\beta = \begin{pmatrix} 1 & 0 \\ -1 & 1 \end{pmatrix}$
$\left[ \mathsf{T} \right]_\beta^\gamma \left[ \mathsf{T}^{-1} \right]_\gamma^\beta = \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 \\ -1 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2$

따름정리 1:
유한차원 벡터공간 $\mathsf{V}$ 와 그 기저 $\beta$
선형변환 $\mathsf{T}: \mathsf{V} \longrightarrow \mathsf{V}$
$\mathsf{T}$가 가역 $\iff \begin{cases} \left[ \mathsf{T} \right]_\beta\ 가\ 가역 \\ \left[ \mathsf{T}^{-1} \right]_\beta = \left( \left[ \mathsf{T} \right]_\beta \right)^{-1} \end{cases}$

따름정리 2:
$n \times n$ 행렬 $A$가 가역 $\iff \begin{cases} \mathsf{L}_A\ 가\ 가역 \\ \left( \mathsf{L}_A \right)^{-1} = \mathsf{L}_{A^{-1}} \end{cases}$

정의:
벡터공간 $\mathsf{V, W}$에 대하여 $\exists\ \mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$가 가역 $\iff \mathsf{V}$동형(isomorphic)이고 $\mathsf{T}$동형변환(isomorphism)

예제 5:
$\mathsf{T}: \mathsf{P}_3 (\mathbb{R}) \longrightarrow \mathsf{M}_{2 \times 2}(\mathbb{R}), \quad \mathsf{T}(f) = \begin{pmatrix} f(1) & f(2) \\ f(3) & f(4) \end{pmatrix}$

$\mathsf{T}$는 선형변환
② 라그랑주 다항식 $f_0, f_1, f_2, f_3 \implies \mathsf{P}_3 (\mathbb{R})$의 기저
$\quad ^\forall f(x) \in \mathsf{P}_3 (\mathbb{R}), f(x)$$= \sum_{i=0}^3 b_i f_i \\ = b_0 f_0 + b_1 f_1 + b_2 f_2 + b_3 f_3$
$\quad O = \mathsf{T}(f) = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$$\iff f(1) = f(2) = f(3) = f(4) = 0 \\ \iff f(x) = 0$
$\operatorname{kernel}(\mathsf{T}) = \left\{ 0 \right\}$

$\mathsf{T}$는 전사, 단사, 동형

정리 2.19

유한차원 벡터공간 $\mathsf{V, W}$에 대하여
$\mathsf{V}$$\mathsf{W}$와 동형 $\iff \operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W})$

증명:
$\mathsf{V} \sim \mathsf{W}$ 를 상정
$\exists\ \mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W}$ 가 전사, 단사, 가역, 동형
$\operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W}) \qquad (\because\ 차원정리)$
$\iff$ $\operatorname{dim}(\mathsf{V}) = \operatorname{dim}(\mathsf{W})\ 를\ 상정 \\ \mathsf{T}(v) = \sum a_i w_i \\ \mathsf{V, W}의\ 기저\ 각각\ \beta = \left\{ v_1 , \cdots, v_n \right\}, \gamma = \left\{ w_1, \cdots, w_n \right\} \\ \exists\ 선형변환 \mathsf{T}: \mathsf{V} \longrightarrow \mathsf{W} \quad \mathrm{s.t.}\ \mathsf{T}(v_i) = w_i \quad (\because\ 정리\ 2.6)$
$\mathsf{R}(\mathsf{T}$$= \operatorname{span}(\mathsf{T}(\beta)) \\ = \operatorname{span}(\gamma) \\ = \mathsf{W} \\ \implies \mathsf{T}\ 는\ 전사, 단사, 동형$

따름정리:
$F$에 대한 벡터공간 $\mathsf{V}$
$\mathsf{V}$$\mathsf{F}^n$와 동형 $\iff \operatorname{dim}(\mathsf{V}) = n$

정리 2.20

정의:
$\mathsf{V}$$F$에 대한 $n$차원 벡터공간이고 그 기저 $\beta$

$\phi_\beta : \mathsf{V} \longrightarrow \mathsf{F}^n$$\phi_\beta (x) = \left[ x \right]_\beta \quad x \in \mathsf{V}$ 로 정의될 때
$\implies \phi_\beta$$\mathsf{V}$$\beta$에 대한 표준표현(standard representation)이다.

예제6:
$\beta = \left\{ (1,0), (0,1) \right\}, \gamma = \left\{ (1, 2), (3, 4) \right\}$$\mathbb{R}^2$의 순서기저
$\phi_\beta: \mathbb{R}_\beta^2 \longrightarrow \mathbb{R}_N^2 \qquad x = (1, 2) \in \mathbb{R}^2$
$\phi_\beta (x) = \phi_\beta (1, 2) \implies 1 (1, 0) + 2 (0, 1)$
$\therefore\ \phi_\beta (1, 2) = \begin{pmatrix} 1 \\ -2 \end{pmatrix}$

$\phi_\gamma : \mathbb{R}_\gamma^2 \longrightarrow \mathbb{R}_N^2$
$\phi_\gamma (1, -2)$$= a(1, 2) + b (3, 4) = (1, -2) \\ \begin{cases} a + 3b = 1 \\ 2a + 4b = -2 \end{cases} \implies a = -5, b = 2$
$\phi_\gamma (x) = \left[ x \right]_\gamma = \begin{pmatrix} -5 \\ x \end{pmatrix}$

정리 2.21

$^\forall 유한차원\ 벡터공간\ \mathsf{V}$, $\mathsf{V}$의 순서기저 $\beta$ $\implies \phi_\beta$ 는 동형변환

$\begin{matrix} & & \mathsf{T} & & \\ & \mathsf{V}_\beta & \longrightarrow & \mathsf{W}_\gamma & \\ \phi_\beta & \downarrow & & \downarrow & \phi_\gamma \\ & \mathsf{F}^n & \longrightarrow & \mathsf{F}^m & \\ & & \mathsf{L}_A & & \end{matrix}$


$^\forall x \in \mathsf{V}$
$\mathsf{L}_A \circ \phi_\beta (x)$$= \mathsf{L}_A \left( \phi_\beta (x) \right) \\ = \mathsf{L}_A \left( \left[ x \right]_\beta \right) = A \left[ x \right]_\beta \quad (\because\ [x]_\beta \in \mathbb{R}) \\ = \left[ \mathsf{T} \right]_\beta^\gamma \left[ x \right]_\beta \\ = \left[ \mathsf{T} (x) \right]_\gamma \qquad (\because\ 정리\ 2.14) \\ = \phi_\gamma \left( \mathsf{T}(x) \right) \\ = \left( \phi_\gamma \circ \mathsf{T} \right) (x)$

예제 7:
$\mathsf{T}: \mathsf{P}_3 (\mathbb{R}) \longrightarrow \mathsf{P}_2 (\mathbb{R}) \\ \mathsf{T}(f(x)) = f' (x) \\ \mathsf{P}_3(\mathbb{R}), \mathsf{P}_2(\mathbb{R})의\ 순서기저\ 각각\ \beta, \gamma$
$\left[ \mathsf{T} \right]_\beta^\gamma = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix}$

$\begin{matrix} & & \mathsf{T} & & \\ & \mathsf{P}_3 (\mathbb{R}) & \longrightarrow & \mathsf{P}_2 (\mathbb{R}) & \\ \phi_\beta & \downarrow & & \downarrow & \phi_\gamma \\ & \mathbb{R}^4 & \longrightarrow & \mathbb{R}^3 & \\ & & \mathsf{L}_A & & \end{matrix}$

$P(x) = 21x - 3x^2 + 5x^3 \in \mathsf{P}_3 (\mathbb{R})$ 을 설정
$\mathsf{L}_A \circ \phi_\beta \left( P(x) \right)$$= \mathsf{L}_A \left( \phi_\beta \left( P(x) \right) \right) \\ \mathsf{L}_A \begin{pmatrix} 2 \\ 1 \\ -3 \\ 5 \end{pmatrix} = A \begin{pmatrix} 2 \\ 1 \\ -3 \\ 5 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} 2 \\ 1 \\ -3 \\ 5 \end{pmatrix} = \begin{pmatrix} 1 \\ -6 \\ 15 \end{pmatrix}$
$\phi_\gamma \circ \mathsf{T} \left( P(x) \right)$$= \phi_\gamma \left( \mathsf{T} \left( P(x) \right) \right) \\ = \phi_\gamma ( 1 - 6x + 15x^2 ) \\ = \begin{pmatrix} 1 \\ -6 \\ 15 \end{pmatrix}$

2.5 좌표행렬의 변화

정리 2.22

유한차원 벡터공간 $\mathsf{V}$의 두 순서기저 $\beta, \beta'$
$Q = \left[ \mathsf{I}_\mathsf{V} \right]_{\beta'}^\beta \implies \begin{cases} \mathrm{(a)} & Q\ 는\ 가역 \\ \mathrm{(b)} & ^\forall v \in \mathsf{V}, \left[ v \right]_\beta = Q \left[ v \right]_{\beta'} \end{cases}$

$Q = \left[ \mathsf{I}_\mathsf{V} \right]_{\beta'}^\beta$$= \left( \left[ \mathsf{I}_\mathsf{V} (x_1 ') \right]_\beta, \left[ \mathsf{I}_\mathsf{V} (x_2 ') \right], \cdots, \left[ \mathsf{I}_\mathsf{V} (x_n ') \right] \right) \\ \begin{matrix} = & \left( \right. & [ x_1 ' ]_\beta, & [ x_2 ' ]_\beta, & \cdots, & [ x_n ' ]_\beta & \left. \right) \\ & & \Uparrow & \Uparrow & & \Uparrow & \\ & & Q^1 & Q^2 & & Q^n & \end{matrix} \\ \implies x_1 ' = \sum_{j = 1}^n Q'_j x_j$

정리 2.23

2.6 쌍대공간

정리 2.24

정리 2.25

2.7 상수계수의 동질선형미분방정식