선형 변환 (Linear Transformation)

선형 변환의 정의와 기본 성질

**선형 변환(Linear Transformation)**은 벡터 공간 $ V $에서 벡터 공간 $ W $로의 함수 $ T: V \rightarrow W $로 정의되며, 다음 두 가지 조건을 만족해야 한다:

  1. 가법성 (Additivity): $ T(u + v) = T(u) + T(v) $ for all $ u, v \in V $.

  2. 동차성 (Homogeneity): $ T(cu) = cT(u) $ for all $ u \in V $ and $ c \in F $.

이 조건들은 선형 변환이 벡터 공간의 구조를 보존한다는 것을 의미한다. 즉, 선형 변환은 벡터의 덧셈과 스칼라 곱셈을 유지하며, 벡터 공간 내의 선형 관계를 변환 후에도 유지한다.

핵과 상 (Kernel and Image)

**핵(Kernel)**과 **상(Image)**은 선형 변환의 중요한 개념이다.

  • 핵(Ker, Kernel): 선형 변환 $ T: V \rightarrow W $의 핵은 $ T(v) = 0 $을 만족하는 모든 벡터 $ v \in V $의 집합으로 정의된다. 즉, $ \text{Ker}(T) = {v \in V : T(v) = 0} $이다. 핵은 벡터 공간 $ V $의 부분 공간(subspace)이다.

  • 상(Im, Image): 선형 변환 $ T: V \rightarrow W $의 상은 $ T(v) $로 표현될 수 있는 모든 벡터 $ w \in W $의 집합으로 정의된다. 즉, $ \text{Im}(T) = {w \in W : w = T(v) \text{ for some } v \in V} $이다. 상 역시 $ W $의 부분 공간이다.

핵의 차원은 선형 변환의 "nullity"로 불리며, 상의 차원은 "rank"로 불린다. 중요한 사실로, Rank-Nullity 정리(rank-nullity theorem)는 다음과 같다:

dim(Ker(T))+dim(Im(T))=dim(V)\text{dim}(\text{Ker}(T)) + \text{dim}(\text{Im}(T)) = \text{dim}(V)

선형 변환의 행렬 표현

선형 변환 $ T: V \rightarrow W $는 주어진 기저에 대해 행렬로 표현될 수 있다. 기저 $ {v_1, v_2, \dots, v_n} $이 $ V $의 기저이고, $ {w_1, w_2, \dots, w_m} $이 $ W $의 기저라면, $ T $는 $ m \times n $ 행렬 $ A $로 표현된다. 이 행렬 $ A $의 열들은 $ T(v_j) $를 $ W $의 기저 벡터로 표현한 결과이다. 즉,

T(vj)=a1jw1+a2jw2++amjwmT(v_j) = a_{1j}w_1 + a_{2j}w_2 + \dots + a_{mj}w_m

따라서, 행렬 $ A $는 다음과 같이 구성된다:

A=(a11a12a1na21a22a2nam1am2amn)A = \begin{pmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{pmatrix}

선형 변환의 행렬 표현은 변환의 특성을 분석하고, 벡터 공간 사이의 관계를 보다 명확하게 이해하는 데 필수적이다.

선형 변환의 합성과 역변환

두 선형 변환 $ T: U \rightarrow V $와 $ S: V \rightarrow W $의 합성 $ S \circ T: U \rightarrow W $도 선형 변환이다. 이 합성은 다음과 같이 정의된다:

(ST)(u)=S(T(u))(S \circ T)(u) = S(T(u))

합성 선형 변환의 행렬 표현은 각 선형 변환의 행렬 표현을 곱한 것과 같다. 즉, 만약 $ T $와 $ S $의 행렬이 각각 $ A $와 $ B $라면, $ S \circ T $의 행렬은 $ BA $로 표현된다.

선형 변환 $ T: V \rightarrow W $가 전단사적(bijective)일 때, $ T $의 역변환 $ T^{-1}: W \rightarrow V $가 존재하며, $ T^{-1} $도 선형 변환이다. 또한, $ T $와 $ T^{-1} $의 행렬 표현들은 서로 역행렬 관계에 있다. 즉, $ A \cdot A^{-1} = I $를 만족하는 $ A^{-1} $이 $ T^{-1} $의 행렬 표현이다.

고유값과 고유벡터 (Eigenvalues and Eigenvectors)

선형 변환 $ T: V \rightarrow V $의 **고유값(Eigenvalue)**과 **고유벡터(Eigenvector)**는 $ T(v) = \lambda v $를 만족하는 $ v \neq 0 $와 스칼라 $ \lambda $이다. 이때, $ v $는 $ T $의 고유벡터이고, $ \lambda $는 이에 대응하는 고유값이다.

고유값 방정식은 다음과 같이 행렬 표현에서 유도된다:

(AλI)v=0(A - \lambda I)v = 0

여기서 $ I $는 항등행렬(identity matrix)이다. 이 방정식을 풀면 고유값 $ \lambda $를 얻을 수 있고, 각 고유값에 대한 고유벡터 $ v $를 구할 수 있다.

고유값과 고유벡터는 행렬 대각화(diagonalization)와 같은 중요한 과정에 필수적이며, 이를 통해 행렬을 더 간단한 형태로 변환할 수 있다.

대각화 (Diagonalization)

**대각화(Diagonalization)**는 선형 변환 $ T: V \rightarrow V $가 고유벡터 기저를 가질 때 행렬 $ A $를 대각행렬로 변환하는 과정이다. $ A $의 고유벡터들로 구성된 행렬 $ P $가 존재하여,

P1AP=DP^{-1}AP = D

로 표현될 수 있으며, 여기서 $ D $는 대각행렬(diagonal matrix)이다. 대각화 가능성은 선형 변환의 중요한 성질을 나타내며, 고유값의 다중성과 밀접한 관련이 있다.


관련 자료:

  • Axler, Sheldon. Linear Algebra Done Right. Springer, 2015

Last updated