정의가 [[고유값,eigenvalue]]과 매우 밀접하므로 같이 참조. <> = ㄷㄱㄱ = 정의: [[정사각행렬,square_matrix]] $A\in\mathbb{R}^{n\times n}$ 의 '''고유벡터,eigenvector'''는, 어떤 [[스칼라,scalar]] $\lambda$ 에 대해, 다음 조건을 만족하는 영벡터가 아닌 벡터 $\vec{x}\in\mathbb{R}^n$ 이다. $A\vec{x}=\lambda\vec{x}$ 이 때 $\lambda$ 를 $A$ 의 [[고유값,eigenvalue]]이라 하며, 그런 $\vec{x}$ 를 $\lambda$ '''에 대응하는 고유벡터'''라고 한다. (원문) Definition: An eigenvector of a square matrix 𝐴 ∈ ℝ^^𝑛×𝑛^^ is a nonzero vector 𝐱 ∈ ℝ^^𝑛^^ such that 𝐴𝐱 = 𝜆𝐱 for some scalar 𝜆 In this case, 𝜆 is called an eigenvalue of 𝐴, and such an 𝐱 is called an eigenvector corresponding to 𝝀. == [[변환,transformation]] 관점 == [[선형변환,linear_transformation]] $T(\vec{x})=A\vec{x}$ 를 고려하자. 만약 $\vec{x}$ 가 '''고유벡터'''이면, $T(\vec{x})=A\vec{x}=\lambda\vec{x}$ 이다. 즉 출력 벡터가 $\vec{x}$ 와 같은 [[방향,direction]]이면서 [[길이,length]]가 $\lambda$ 만큼 규모가 변했다는(scaled) 뜻이다. (원문) Consider a linear transformation 𝑇 x = 𝐴x. If x is an eigenvector, then 𝑇 x = 𝐴x = 𝜆𝐱, which means the output vector has the same direction as x, but the length is scaled by a factor of 𝜆. Ex. $A=\begin{bmatrix}2&6\\5&3\end{bmatrix}$ 에 대해 고유벡터는 $\begin{bmatrix}1\\1\end{bmatrix}$ 이다. 이유는 $T(\vec{x})=A\vec{x}=\begin{bmatrix}2&6\\5&3\end{bmatrix}\begin{bmatrix}1\\1\end{bmatrix}=\begin{bmatrix}8\\8\end{bmatrix}=8\begin{bmatrix}1\\1\end{bmatrix}$ 이 식에서 $\begin{bmatrix}2&6\\5&3\end{bmatrix}\begin{bmatrix}1\\1\end{bmatrix}=8\begin{bmatrix}1\\1\end{bmatrix}$ 부분은 $A\vec{x}=8\vec{x}$ 와 동등. 그렇다면 computational advantage가 있다는 것을 알 수 있다. $\begin{bmatrix}2&6\\5&3\end{bmatrix}\begin{bmatrix}1\\1\end{bmatrix}$ 와 $8\begin{bmatrix}1\\1\end{bmatrix}$ 중에 어떤 것을 빨리 계산할 수 있는지는 명백하다. = 나카이 에츠지 = 정사각행렬 A에 대해 어떤 상수 λ를 써서 $A\vec{x}=\lambda\vec{x}$ 관계가 성립하는 벡터 $\vec{x}\ne\vec{0}$ 가 있을 때 이 벡터를 행렬 A의 '''고유벡터'''라고 하며, 상수 λ를 [[고유값,eigenvalue]]으로 부른다. ---- 임의의 상수 $c\ne 0$ 에 대해 $A(c\vec{x})=\lambda(c\vec{x})$ 이므로 $c\vec{x}$ 도 고유값 $\lambda$ 의 '''고유벡터'''이다. i.e. '''고유벡터'''에는 상수배에 관해 임의성이 있다. ---- 한 벡터 $\vec{x}$ 가 서로 다른 고유값 $\lambda_1,\lambda_2$ 모두의 '''고유벡터'''가 될 수 없다. pf. 만일 두 고유값의 '''고유벡터'''라면 $A\vec{x}=\lambda_1\vec{x}$ $A\vec{x}=\lambda_2\vec{x}$ $\vec{0}=(\lambda_1-\lambda_2)\vec{x}$ $\vec{x}\ne\vec{0}$ 이므로 $\lambda_1=\lambda_2$ 인데, 이것은 다른 고유값이라고 전제한 것에 모순. ---- [[행렬,matrix]]이 '''고유벡터'''를 가지는지 판정하는 법 어떤 [[벡터,vector]] $\vec{x}\ne\vec{0}$ 이 고유값 $\lambda$ 의 '''고유벡터'''라면 $A\vec{x}=\lambda\vec{x}$ $(A-\lambda I)\vec{x}=\vec{0}$ $B=A-\lambda I$ 라면 $B\vec{x}=\vec{0}$ 이 연립일차방정식의 해로 $\vec{x}$ 가 결정되며, B가 정칙행렬([[가역행렬,invertible_matrix]])이라면 $\vec{x}=\vec{0}$ 이 되어 '''고유벡터'''가 없다. '''고유벡터'''가 존재하기 위한 필요조건은 detB=0, 즉 $\det(A-\lambda I)=0$ 만일 A가 $A=\begin{bmatrix}a&b\\c&d\end{bmatrix}$ 이렇다면, $\det\left[ \begin{bmatrix}a&b\\c&d\end{bmatrix} - \lambda\begin{bmatrix}1&0\\0&1\end{bmatrix} \right]$ $=\det\begin{bmatrix}a-\lambda & b\\ c & d-\lambda \end{bmatrix}$ $=\lambda^2-(a+d)\lambda+(ad-bc)$ 이런 $\lambda$ 에 대한 [[이차방정식,quadratic_equation]]을 행렬 A의 고유방정식이라 함. (=[[특성방정식,characteristic_equation]]?) 행렬 A의 고유방정식이 서로 다른 실수해 $\lambda_1,\lambda_2$ 를 가질 때, 서로 일차독립인(see [[선형독립,linear_independence]]) '''고유벡터''' $\vec{x_1},\vec{x_2}$ 를 가진다. $A\vec{x_1}=\lambda_1\vec{x_1}$ $A\vec{x_2}=\lambda_2\vec{x_2}$ [[표준기저,standard_basis]] $\vec{e_1},\vec{e_2}$ 를 $\vec{x_1},\vec{x_2}$ 로 옮기는 변환([[선형변환,linear_transformation]])을 나타내는 행렬을 C라고 하면 $A=C\begin{bmatrix}\lambda_1 & 0 \\ 0 & \lambda_2 \end{bmatrix} C^{-1}$ 왼쪽에 C^^-1^^을 오른쪽에 C를 곱하면 $C^{-1}AC=\begin{bmatrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{bmatrix}$ 이렇게 [[대각행렬,diagonal_matrix]]이 된다. 이렇게, 어떤 정사각행렬 A에 정칙행렬([[가역행렬,invertible_matrix]]) C와 그 역행렬 C^^-1^^을 양쪽에 곱해서 대각행렬로 변환시키는 작업을 [[대각화,diagonalization]]라고 한다. QQQ 위 내용 [[고유값분해,eigendecomposition]]인가? CHK = 생각 = 정의상 절대 영벡터가 아니다. CHK = tmp from MW = 사실 두 가지 '''eigenvector'''s left_eigenvector https://mathworld.wolfram.com/LeftEigenvector.html - [[행벡터,row_vector]] right_eigenvector https://mathworld.wolfram.com/RightEigenvector.html - [[열벡터,column_vector]] 가 있으나 대개의 물리 및 공학 문제에 있어 보통 right eigenvector 하나만을 생각하는 것 만으로 충분하다. 그냥 eigenvector라 하면 right eigenvector를 뜻한다. [[정사각행렬,square_matrix]]을 [[고유값,eigenvalue]]s들과 '''고유벡터'''들로 [[분해,decomposition]]하는 것을 [[Srch:eigendecomposition]]라 하고..... ---- See also [[고유값,eigenvalue]]. [[RR:고유,eigen]] mklink [[고유함수,eigenfunction]] ---- Twins: [[https://terms.naver.com/entry.naver?docId=3404954&cid=47324&categoryId=47324 수학백과: 고유벡터]] https://everything2.com/title/eigenvector [[WtEn:eigenvector]] https://encyclopediaofmath.org/wiki/Eigen_vector Up: [[선형대수,linear_algebra]]