티스토리 뷰

앞으로의 내용은 Finite-Dimensional Linear Algebra - Mark S.Gockenbach 책을 기반으로 진행됩니다.


선형대수학 왜 배워야 할까?

선형대수는 우리가 존재하는 3차원을 수학적으로 쉽게 정리해준다. 벡터는 우리의 공간의 특성을 설명해준다. 3차원뿐만 아니라 multidimensional한 상황에서의 정보 처리도 쉬워진다. 선형대수학은 근사적 수단으로 적합하다. 여러 개의 데이터의 추이를 보고 싶을 때 직선의 형태로 그려서 확인하곤 한다. 비선형이어도 아주 작은 구간에서는 선형적인 특징을 보인다.

 

인공지능 분야에서 선형대수학을 빼놓을 수 없다. 머신러닝과 딥러닝에서 선형대수학은 필수불가결한 요소이다. 요즘 머신러닝에 대해서 공부하고 있는데 다른 포스트에서 다룰 예정이다.  머신러닝, 기계학습은 기존의 데이터를 바탕으로 컴퓨터(기계)가 스스로 학습하면서 예측 및 분석을 한다. 이 예측 및 분석 과정에서의 계산은 사람이 계산하는데 한계가 있기에 컴퓨터가 대신 분석해주고, 여기서 복잡한 수식을 처리할 때 이를 도와주는 것이 선형대수학인 것이다. 

 

이제 선형대수학에 대해 본격적으로 같이 공부해보자.

 

일단 다들 벡터라는 개념은 알고 있을 것이다. 간단하게 설명하자면, 크기와 방향으로 정의되는 값이다. 보통 [ ] 을 통해 벡터를 표시하곤 한다. 고등학교 수준의 좌표 공간에서의 점 (2,1)를 벡터로 나타내면 \(\begin{bmatrix}
 2
 \\1
\end{bmatrix} \) 로 표시된다. 이럴 때 2x1 matrix라고 하며, [ 2 3 4 ] 이면 3x1, \(\begin{bmatrix}
 3& 1 \\
 3& 2 \\
 1& 2 \\
\end{bmatrix} \) 이면, 3x2 matrix라고 불린다. 여기서 3은 row(행), 2은 column(열) 이라고 한다. 앞으로 차원(dimensional)이라는 용어도 나올 텐데,  앞의 예시에서 3x2 matrix 같은 경우 \( \mathbb{R}^{3 \times 2} \) 차원을 지닌다. 

선형대수학에서 \( \mathbb{R}^{n} -> \mathbb{R}^{m} \)으로 차원이 변하기도 하는데, 이를 Linear Transformation 이라고 한다. 예를 들어 x = \( \begin{bmatrix}
 x_1\\
 x_2\\
 \vdots \\
 x_n\\
\end{bmatrix} \) 이고 A :  \( \mathbb{R}^{n} -> \mathbb{R}^{m} \) 의 Linear Transformation 이라고 하면 Ax=b 꼴에서 \( \mathbf{b} = \begin{bmatrix}
 b_1 \\
 b_2 \\
 \vdots \\
 b_m
\end{bmatrix} \)이 나온다. 

Matrix 계산 & Diagonalization 

계산에서 중요한 Transpose Matrix(전치행렬), Inverse Matrix(역행렬)에 대해서 간단히 설명하고자 한다.

 

Transpose Matrix(전치 행렬) 이란 임의의 행렬 A에 Transpose 하면 기존 행렬 A의 행, 열 값을 열, 행 값으로 바뀐다. 

위의 예시에서 \( A = \begin{bmatrix}
3 & 1 \\
3 & 2 \\
1 & 2 \\
\end{bmatrix} \) 에서 \( A^{T} = \begin{bmatrix}
 3&  3& 1 \\
 1&  2& 2 \\
\end{bmatrix} \)가 되며 이는 \( a_ij -> a_ji \)과 같이 변하는 것이다. 

 

Inverse Matrix(역행렬)이란 정방행렬 ( m x m), square matrix일 때만 가능하다. 하지만, 정방행렬이어도 역행렬을 반드시 가지진 않는다. Inverse Matrix는 Determeinant가 0이 아닐 때만 역행렬이 존재하는데, Determinant란 행렬들의 대각요소들, diagonal elemet들의 pivot 값이다. Determinant 계산법은 후에 진행하면서 자세히 배울 예정이다. 

 

Diagonalization이란 A가 대각 행렬(diagonal matrix)과 유사하면 A를 대각화가능(diagonalizable)하다고 한다. \(A = PDP^{-1}\) 일 때 A가 diagobalizable. 

 

vector 및 간단한 matrix에 대한 개념을 다루어보았다. 다음 장부터 본격적이니 파이팅.

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2024/06   »
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30
글 보관함