https://twlab.tistory.com/34 [Linear Algebra] Lecture 15-(2) 투영행렬(Projection matrix)과 부분 공간(subspaces) 이번 시간에 배울 내용은 바로 투영 행렬(Projection matrix)에 관한 내용이다. 이번 강의는 매우 중요하므로 잘 공부해 두도록 하자. 투영 행렬에 관한 내용을 공부하기에 앞서 2차원 벡터의 투영을 twlab.tistory.com 위의 블로그 글도 같이 참고하면 좋을 것 같다. Projection을 하는 이유는 다른 공간 또는 벡터를 또 다른 공간 또는 벡터에 투영(수직 관계)하여 차원을 줄이거나, 원하는 방향으로 크기를 조정하기 위해 사용된다. 보통 투영을 수직 관계가 되게끔 하는 이유는, 거리가 최소로 되게 ..
우리가 흔히 알고 있는 (nonzero) vector x, y 에 대한 내적, 은 다음과 같다. \[x \cdot y = ||x||_2||y||_2cos(\theta)\] \(\theta\)는 x,y 사이의 angle이다. 여기서 \(\theta\)가 90도이면, 내적이 0인 것 또한 기하를 어느 정도 알고 있는 학생이면 잘 알 것이다. 즉, =0일 때, 필요충분조건으로 다음을 만족한다. \[||x+y||^{2} = ||x||^{2} + ||y||^{2}, \quad ||x-y||^{2} = ||x||^{2} + ||y||^{2}\] \[||x+y||^{2} = = + 2 + = ||x||^{2} + 2 + ||y||^{2} = ||x||^{2} + ||y||^{2}\] x-y 일 때도 같다. Ortho..
Transpose를 이용한 inner product와 이를 확장해서 linear operator일 때도 볼 것이다. \(A \in F^{m\ times n} \)일 때, \(A\)의 transpose, \(A^{T}\)에 대해서 다음과 같이 정의된다. \[(A^{T})_{ij} = A_ji, \quad i=1,2, \cdots m \] \(A \in R^{m \times n}, \quad x \in R^{n}, y \in R^{m}\)에 대해 \[(Ax) \cdot y = \sum_{i=1}^{m}(Ax)_i y_i = \sum_{i=1}^{m}(\sum_{j=1}^{n} A_{ij}x_j) y_i = \sum_{i=1}^{m} \sum_{j=1}^{n} A_{ij}x_jy_i \] \[\sum_{j=1..
public class MergeExample { private Object input; // 첫 번째 코드에서 제네릭 메서드로 merge()를 선언한 경우 public void merge(T newInput) { if(newInput instanceof Number && input instanceof Number) { double result = ((Number) input).doubleValue() + ((Number) newInput).doubleValue(); System.out.println(result); } else { System.out.println(input.toString() + newInput.toString()); } } // 두 번째 코드에서 제네릭 메서드로 merge()를 선언..
문자이면 뒤집기가 가능하지만, 2.0배는 할 수 없고, 숫자이면 뒤집기 가능하지만, 대문자화는 할 수 없는 그런 규칙이 있다고 하자. public class homework14_2 { public static void main(String[] args) { DataParser parser1 = new DataParser("Hello World"); System.out.println("Reversed: " + parser1.reverse()); System.out.println("Capitalized: " + parser1.capitalize()); System.out.println("Doubled Value: " + parser1.doubleValue()); DataParser parser2 = new ..
우리는 Ax = b 계산할 때, free variable에 대해 basis가 span한 공간의 특성만 나타내고 정확한 해를 구하지는 못했다. 이를 해결하기 위한 것이 이번 장이다. Ax = b를 근사하게 만족하는 근사 해 x를 구하는 방향으로 x를 구할 것이다. 근사 해 구할 때 projection으로 해를 구하는 것이다. 그 전에 벡터의 크기를 무엇인지 알아야 한다. 1. 크기는 항상 양수이다. 2. 실수 곱은 크기 구할 때 분리 법칙 적용 가능 3. 두 벡터를 더한 것의 크기는 항상 각각의 크기를 더한 것보다 작다. 3.은 삼각형 변 길이를 추측할 때 쓰이던 방법이다. (제 기억으로는 아마 초등학교 때 했던 걸로..) 밑의 사진을 보면 3.은 더 잘 이해될 것이다. 크기를 구하는 방법은 다음과 같다...
이제 eigenvalue를 isomorphism 개념을 적용하여 Linear Operator 로 확장해볼 것이다. 매우 중요하니 잘 숙지해두는 걸로 하자. Linear operator의 representation이 생소하다면 다음 블로그 글들을 참고하자. https://elementary-physics.tistory.com/7 (선형대수학) 1.4 Coordinate RepresentationRepresentations of Vectors Basis의 정의로부터 vector space의 임의의 vector는 basis vector들의 linear combination으로 표현될 수 있다. 예를 들어, 3차원 공간 \( \mathbb{R}^3 \)에 대하여 basis를 $$ \mathcal{B} = \{~..
위의 이론은 eigenvectors들의 linearly independent와 dependent에 관한 증명이다. 이제 diagonalization과 eigenvalue를 이용해 matrix가 similar하다는 의미를 알아볼 것이다. 이와 관련한 성질은 다음 이론과 같다. 이제 Example로 similar matrix에 대해 알아볼 예정인데, 그 전에 AM과 GM에 대해 알아보자. AM(Algebric multiplicity)란 number of times \(\lambda\) appears as a root of the characteristic polynomial. 즉, det(\(\lambda\)I - A) = 0 의 근 \(\lambda\) 값이 방정식의 근으로 몇 번 나오는지에 관한 것이다...