본문 바로가기
선형대수

6.2b 행렬의 대각화 가능성(diagonalizability)

by 철이88 2022. 5. 7.
반응형

앞서 행렬 대각화의 이점을 살펴봤지만, 행렬 대각화가 언제나 가능한 것은 아니고 조건이 있습니다. 먼저 $n$ × $n$ 행렬이 있다면, 행렬이 $n$ 개의 서로 다른 고유값을 가지면 이 행렬은 대각화가 가능합니다. 하지만 만약 동일한 고유값을 가진다면, 선형 독립인 고유벡터가 모자라서 고유벡터 행렬 $X$의 역행렬을 구할 수 없는 경우가 있습니다. 대각화를 하기 위해선 $X$가 역행렬을 가져야하기 때문에, 이 경우는 대각화가 불가능합니다. 따라서 고유값이 중복된 경우는 중복된 고유값에 대응하는 고유벡터들이 선형독립 하는지 확인해야 대각화 가능성을 알 수 있습니다.

1. 행렬 대각화가 불가능한 예


$A$ = $\begin{pmatrix} \begin{array}{rr} 1 & -1 \\ 1 & -1 \end{array} \end{pmatrix}$ 

고유값을 찾기 위해 det ($A\:-\:{\lambda}I$) = 0을 풀면
det ($A\:-\:{\lambda}I$) = (1 $-$ $\lambda$)(1 + $\lambda$) + 1 = $\lambda^{2}$
따라서 고유값은 0입니다.

 
여기서 중요한 것은 고유값이 두 개인데, 같은 값이라는 것입니다.

$\lambda$ = 0에 대해 고유벡터를 구하면

$\begin{pmatrix} \begin{array}{rr} 1 & -1 \\ 1 & -1 \end{array} \end{pmatrix}$$\begin{pmatrix} \begin{array}{r} x_{1} \\ x_{2} \end{array} \end{pmatrix}$ = 0.

$x_{1}$ = $x_{2}$ 이므로 고유벡터는 $\begin{pmatrix} \begin{array}{r} 1 \\ 1 \end{array} \end{pmatrix}$.

 

두 개의 고유값이 같기 때문에 고유벡터는 하나입니다.

그래서 행렬 대각화를 위한 식 $\Lambda$ = $X^{-1}AX$에서 고유벡터 행렬 $X$를 만들 수 없습니다. 다시 말하면, 고유벡터가 모자라서 행렬 대각화가 불가능한 것입니다. 

만약, 위 예에서 고유벡터를 두 번 써서 다음과 같이 $X$를 만들어도

$\begin{pmatrix} \begin{array}{rr} 1 & 1 \\ 1 & 1 \end{array} \end{pmatrix}$ 

이 행렬은 역행렬이 존재하지 않아 행렬 대각화가 불가능합니다.

2. 고유벡터의 선형 독립


위 예에서 봤듯, 같은 고유값이 있으면, 역행렬을 갖는 고유벡터 행렬 X를 만들 수 없기 때문에 행렬 대각화가 불가능합니다.

다시 말하면, 고유벡터들이 선형 독립이 아니기 때문에 $X$가 가역(역행렬을 갖는) 행렬이 될 수 없는 것입니다. (1.3 행렬 (2)의 선형 독립 참조)

반대로 고유벡터들이 선형 독립이면 $X$를 만들어 행렬 대각화를 할 수 있습니다. 


그러면 다음과 같은 질문을 해볼 수 있습니다.
고유값이 모두 다르면 고유벡터들은 선형 독립이고 행렬 대각화가 가능한가?
이 질문에 대한 답은 ‘그렇다’입니다.

증명은 다음과 같습니다.


먼저 2 × 2의 경우를 보겠습니다.
2 × 2 행렬은 고유값을 2개 갖습니다. (참조 6.1c 고유값과 행렬식 그리고 트레이스)


두 고유값이 다르다고 가정하겠습니다. 즉 $\lambda_{1}$ ≠ $\lambda_{2}$.

 

각 고유값에 대응하는 고유벡터를 $x_{1}$, $x_{2}$라고 했을 때,  
$c_{1}x_{1}$ + $c_{2}x_{2}$ = 0 $\cdots$ (1)
를 만족하는 선형 결합이 $c_{1}$ = $c_{2}$ = 0밖에 없음을 보이면 두 고유벡터가 선형 독립임을 증명할 수 있습니다.

 

(1)식의 양변에 $A$를 곱하면, $Ax_{1}$ = $\lambda_{1}x_{1}$, $Ax_{2}$ = $\lambda_{2}x_{2}$이므로
$c_{1}{\lambda}_{1}x_{1}$ + $c_{2}{\lambda}_{2}x_{2}$ = 0 $\cdots$ (2)

다시 (1)식의 양변에 $\lambda_{2}$를 곱하면
$c_{1}{\lambda}_{2}x_{1}$ + $c_{2}{\lambda}_{2}x_{2}$ = 0 $\cdots$ (3)

그리고 (2) $-$ (3)은
$c_{1}(\lambda_{1}\:-\:{\lambda}_{2})x_{1}$ = 0.
그런데 $\lambda_{1}$ ≠ $\lambda_{2}$라고 가정하였고, 고유벡터는 0벡터가 아니므로, 
$c_{1}$ = 0이어야 합니다.

위에 과정에서 (1)식 양변에 $\lambda_{1}$를 곱하면
$c_{1}\lambda_{1}x_{1}$ + $c_{2}\lambda_{1}x_{2}$ = 0 $\cdots$ (3’)

마찬가지로 (2) $-$ (3’)은
$c_{2}(\lambda_{2}\:-\:{\lambda}_{1})x_{2}$ = 0이고
$c_{2}$ = 0이어야 합니다.

정리하면, $c_{1}$ = $c_{2}$ = 0이므로 $x_{1}$과 $x_{2}$는 선형 독립입니다.

3 × 3의 경우는 마찬가지로
$c_{1}x_{1}$ + $c_{2}x_{2}$ + $c_{3}x_{3}$= 0 $\cdots$ (4)
에서 시작해서
양변에 $A$를 곱하면
$c_{1}\lambda_{1}x_{1}$ + $c_{2}\lambda_{2}x_{2}$ + $c_{3}\lambda_{3}x_{3}$= 0 $\cdots$ (5)

(5) $-$ $\lambda_{3}$·(4)을 해주면
$c_{1}(\lambda_{1}\:-\:{\lambda}_{3})x_{1}$ + $c_{2}(\lambda_{2}\:-\:{\lambda}_{3})x_{2}$ = 0 $\cdots$ (6)

다시 (6)의 양변에 $A$를 곱하면
$c_{1}(\lambda_{1}\:-\:{\lambda}_{3})\lambda_{1}x_{1}$ + $c_{2}(\lambda_{2}\:-\:{\lambda}_{3})\lambda_{2}x_{2}$ = 0 $\cdots$ (7)

그러면 (7) $-$ $\lambda_{2}$·(6)은
$c_{1}(\lambda_{1}\:-\:{\lambda}_{3})(\lambda_{1}\:-\:{\lambda}_{2})x_{1}$ = 0.
역시 $\lambda_{1}$ ≠ $\lambda_{2}$ ≠ $\lambda_{3}$ 라고 가정하였고 고유벡터는 0이 아니므로 
$c_{1}$ = 0입니다.

이 과정을 반복하면 $c_{1}$ = $c_{2}$ = $c_{3}$ = 0임을 보일 수 있습니다.

n × n의 경우도 위와 같은 계산을 진행하여
$c_{1}(\lambda_{1}\:-\:{\lambda}_{n})$$\cdots$$(\lambda_{1}\:-\:{\lambda}_{2})x_{1}$ = 0를 얻을 수 있고 $c_{1}$ = 0 임을 보일 수 있습니다.
$c_{2}$, $\cdots$, $c_{n}$도 동일하게 0이 됨을 보일 수 있습니다.

반응형

댓글