[선형대수학] Normal matrix & Spectral decomposition

POST ADS1

 

정규 행렬 (Normal Matrix)과 스펙트럼 분해 (Spectral Decomposition)

지난 포스팅에서 복소 행렬과 Hermitian Matrix, Unitary Matrix, Schur Decomposition에 대해 알아보았다. 이번에는 정규 행렬(Normal Matrix)과 스펙트럼 분해(Spectral Decomposition)에 대해 자세히 알아보겠다. 특히, 스펙트럼 분해는 Hermitian Matrix를 포함한 정규 행렬에 적용되는 중요한 개념으로, 행렬의 성질을 분석하고 다양한 응용 분야에서 활용된다.

1. 정규 행렬 (Normal Matrix)

정규 행렬은 선형대수학에서 중요한 역할을 하는 특별한 종류의 복소 행렬이다. 정규 행렬은 다음과 같이 정의된다.

정의: 복소 행렬 가 자신의 켤레 전치 행렬 와 교환 가능(commute)하면,를 만족하면, 를 정규 행렬(normal matrix)이라고 한다.

쉽게 말해, 정규 행렬은 자신의 켤레 전치 행렬과 곱하는 순서를 바꿔도 결과가 같은 행렬이다.

정규 행렬의 예시

  • Hermitian Matrix:
  • Skew-Hermitian Matrix:
  • Unitary Matrix:

정규 행렬의 특징

정규 행렬은 다음과 같은 중요한 특징을 갖는다.

  • 유니터리 대각화 가능(Unitary Diagonalizable): 정규 행렬은 항상 유니터리 행렬(Unitary Matrix)을 통해 대각화(diagonalization)될 수 있다. 즉, 적절한 유니터리 행렬 를 찾아 형태로 만들 수 있다. 여기서 는 대각 행렬이다.
  • 스펙트럼 정리(Spectral Theorem) 적용 가능: 정규 행렬은 스펙트럼 정리(Spectral Theorem)를 만족한다. 스펙트럼 정리는 행렬의 고유값(eigenvalue)과 고유벡터(eigenvector)에 대한 중요한 정보를 제공하며, 특히 정규 행렬의 경우 고유벡터들이 서로 직교(orthogonal)한다는 것을 보장한다.

2. 스펙트럼 분해 (Spectral Decomposition)

스펙트럼 분해는 정규 행렬을 고유값과 고유벡터를 이용하여 분해하는 방법이다. 스펙트럼 분해는 다음과 같이 표현된다.

A = UΛU^H

여기서 의 정규직교 고유벡터(orthonormal eigenvector)들을 열벡터로 가지는 유니터리 행렬이고, 의 고유값들을 대각 성분으로 가지는 대각 행렬이다.(자세한 사항은 지난 포스팅을 참고하자.)

스펙트럼 분해의 의미

스펙트럼 분해는 행렬 를 서로 다른 고유값에 해당하는 투영 행렬(projection matrix)의 선형 결합으로 나타내는 것을 의미한다. 각 투영 행렬은 해당 고유값에 대한 고유 공간(eigenspace)으로의 투영을 나타낸다.

예시

다음 행렬 에 대해 스펙트럼 분해를 수행해 보자.

A = |0 1 0|
    |1 0 0|
    |0 0 1|
  1. 고유값 및 고유벡터 계산: 행렬 의 고유값은 1 (중복도 2)과 -1이다. 각 고유값에 대응하는 정규직교 고유벡터는 다음과 같다.

    eigenvector

  2. 유니터리 행렬 및 대각 행렬 구성: 정규직교 고유벡터들을 열벡터로 가지는 유니터리 행렬 와 고유값들을 대각 성분으로 갖는 대각 행렬 를 구성한다.

    Λ = | 1  0  0 |
         | 0  1  0 |
         | 0  0 -1 |
    
  3. 스펙트럼 분해: 행렬 를 스펙트럼 분해하면 다음과 같다.

Spectral decomposition example

마무리

이번 포스팅에서는 정규 행렬과 스펙트럼 분해에 대해 자세히 알아보았다. 스펙트럼 분해는 행렬의 고유값과 고유벡터를 이용하여 행렬을 이해하고 분석하는 강력한 도구다. 다음 포스팅에서는 이러한 개념들을 바탕으로 특이값 분해(Singular Value Decomposition, SVD)에 대해 알아보겠다. SVD는 정규 행렬뿐만 아니라 모든 행렬에 적용 가능한 일반적인 분해 방법으로, 선형대수학 포스팅의 마지막을 장식할 주제다.

추천글:

[선형대수학] eigenvalue, eigenvector
(
https://hyeonb.blogspot.com/2024/05/eigenvalue-eigenvector.html)
[선형대수학] Diagonalization
(https://hyeonb.blogspot.com/2024/05/diagonalization.html)
[선형대수학] Complex matrix and Schur decomposition
(https://hyeonb.blogspot.com/2024/06/complex-matrix-and-schur-decomposition.html)

POST ADS 2

hyeon_B

안녕하세요! AI 기술을 이용해 더 나은 세상을 만들어 나가고 싶은 과기원생 Hyeon이라고 합니다. 저는 앞으로 인공지능 시대에는 지식을 '활용'하는 능력이 중요해질 것이라고 생각합니다. 대부분의 일들은 인공지능이 뛰어난 모습을 보이지만, 인공지능은 데이터로 부터 연관관계를 학습하기 때문에 지식들을 새로 통합해서 활용하는 능력이 부족합니다. 인공지능이 뉴턴 전에 만들어졌다면 사과가 떨어지는 이유에 대답하지 못했을 것이고, 아인슈타인 전에 만들어졌다면 중력이 어떻게 생기는지 설명하지 못했을 것입니다. 따라서 앞으로 우리는 '본질'을 탐구하고 그 본질로부터 다른 곳에 적용하며 인공지능을 현명하게 활용해야 할 것입니다. 함께 인공지능 시대를 준비합시다!

댓글 쓰기

다음 이전