선형독립,linear_independence

AKA 일차독립
특성상 현재 이 페이지에서는 선형종속,linear_dependence도 같이 서술함.




1. ?

예를 들어 어떤 벡터,vector 집합,set의 세 원소,element들이

$\vec{v_1}=[2\;3]$
$\vec{v_2}=[7\;2]$
$\vec{v_3}=[9\;5]$ 라면, $1\cdot\vec{v_1}+1\cdot\vec{v_2}=\vec{v_3}$ 이므로 (이 세개는 모두 pairwise? chk) linearly dependent set의 원소들이다 (선형결합,linear_combination으로 다른 하나를 만드는 게 가능)

$[2\;0\;0]$
$[0\;1\;0]$ 으로(선형결합해서)
$[0\;0\;7]$ 을 만들 수 없다. 그래서 이 set은 linearly independent

Formal하게는,
$S=\left\{ v_1,v_2,\cdots,v_n \right\}$ linearly dependent (선형종속,linear_dependence)
$c_1v_1+c_2v_2+\cdots+c_nv_n=\vec{0}$ for some $c_i$ 's not all are zero(at least one is non-zero)
모두 0이 아닌(적어도 하나가 0이 아닌) 어떤 계수들의 집합에 대해, 선형결합하니 영벡터가 된다

이것은 equivalently, 한 벡터 $v_1$ 을 다른 벡터들 $v_2,v_3,\cdots,v_n$ 의 선형결합으로 나타낼 수 있다는 것과 동치이다. 보이는 것은 매우 간단하다. 식으로 나타내면
$v_1=a_2v_2+a_3v_3+\cdots+a_nv_n$ 인데, 좌변에 있는 것을 이항하면
$\vec{0}=-1v_1+a_2v_2+a_3v_3+\cdots+a_nv_n$
인데 우변의 $-1$ 즉 non-zero 계수가 있음을 볼 수 있다.

위의 식
$c_1v_1+c_2v_2+\cdots+c_nv_n=\vec{0}$
에서 $c_1\ne 0$ 으로 가정하면
$v_1+\frac{c_2}{c_1}v_2+\cdots+\frac{c_n}{c_1}v_n=\vec{0}$
$\frac{c_2}{c_1}v_2+\cdots+\frac{c_n}{c_1}v_n=-v_1$
$-\frac{c_2}{c_1}v_2-\cdots-\frac{c_n}{c_1}v_n=v_1$
이므로 $v_1$ 이 다른 벡터들의 선형결합으로 나타남을 볼 수 있다.

예를 들어 벡터 집합
$\left\{\begin{bmatrix}2\\1\end{bmatrix},\begin{bmatrix}3\\2\end{bmatrix}\right\}$
에서 선형결합
$c_1\begin{bmatrix}2\\1\end{bmatrix}+c_2\begin{bmatrix}3\\2\end{bmatrix}=\begin{bmatrix}0\\0\end{bmatrix}$
을, 즉 선형결합해서 영벡터를 만드는 경우가
$c_1$ or $c_2$ nonzero → 종속(dependent) - 계수가 모두 0인 것이 아닌 어떤 정교한 조합방법이 있으면, (벡터 집합의 원소들이 서로? / 저 집합이?) 선형종속 linearly dependent
$c_1$ and $c_2$ both zero → 독립(independent) - 계수가 모두 0인 경우밖에 없으면 (벡터 집합의 원소들이 서로? / 저 집합이?) 선형독립 linearly independent
이 예의 경우는 다음 선형방정식,linear_equation $2c_1+3c_2=0,\;c_1+2c_2=0$ 을 풀면 $c_1=c_2=0$ 인 경우밖에 없으므로 선형독립이다.
그리고 이 벡터들의 생성이 $\mathbb{R}^2$ 이다.

(Khan)

//수백
{
벡터공간,vector_space부분집합,subset선형결합,linear_combination영벡터,zero_vector인 경우가, 계수가 모두 0인 자명한 경우밖에 없으면 선형독립이고, 그렇지 않으면 선형종속.
i.e.
벡터공간 $V$ 의 부분집합 $S=\{\vec{v_1},\vec{v_2},\cdots,\vec{v_n}\}$ 의 일차결합이 영벡터인 경우, 즉
$c_1\vec{v_1}+c_2\vec{v_2}+\cdots+c_n\vec{v_n}=\vec{0}$
인 경우가
$c_1=c_2=\cdots=c_n=0$
인 경우밖에 없으면 선형독립이며 그렇지 않으면 선형종속.

일차독립성의 다른 표현

다음 둘은 동치.
  • $S=\{ \vec{v_1},\cdots,\vec{v_n} \}$일차독립이다.
  • $\forall i,\;\vec{v_i}$ 를 그 나머지 벡터들의 일차결합으로 쓸 수 없다.

다음 둘은 동치.
}

CHK (출처 알수없음 종이에 적혀있던거)

요소들 $\vec{a_1},\cdots,\vec{a_k} \;\;\;(\in\mathbb{R}^n)$ 에 대해
$c_1\vec{a_1}+\cdots+c_k\vec{a_k}=\vec{0}$
을 만족하는 실수의 조합
$c_1,\cdots,c_k$ (적어도 이 중 하나는 $0$ 이 아님)
가 존재할 때 이 요소들은 일차종속이다.
$c_1,\cdots,c_k$ 가 모두 $0$ 인 경우를 제외하고 위 식을 만족시킬 수 없으면 이 요소들은 일차독립이다.

생각: 즉 영벡터를 만들 수 있는 방법이 자명한 방법 하나로 유일하면 일차독립, 그게 아니면 일차종속?

일차독립임을 증명하는 방법:
$c_1\vec{a_1}+\cdots+c_k\vec{a_k}=\vec{0}$ 이라는 전제를 두고 $c_1=\cdots=c_k=0$ 이면 일차독립.

CHK; from [http]src 7.4
{
$c_1\vec{a_1}+c_2\vec{a_2}+\cdots+c_m\vec{a_m}=\vec{0}$
일차독립: 모든 $c_j=0$ 일 때에만 위 식이 만족
일차종속: 어떤 $c_j\ne 0$ 이어도 위 식이 만족
}

특정 생성집합(생성,span)으로 유일하게(unique) 벡터를 표현할 수 없을 수도 있다. 예를 들어 $S=\lbrace(1,0),(0,1),(1,1)\rbrace \in \mathbb{R}^2$ 이면 $(3,2)$
$=3(1,0)+2(0,1)+0(1,1)$
$=1(1,0)+0(0,1)+2(1,1)$
이므로 표현이 유일하지 않다. 여기서 일차독립=선형독립 개념이 나온다.

Def. (Linearly independent)
Let $V$ be a vector space and let $S=\lbrace \vec{v_1},\cdots,\vec{v_k}\rbrace$ be a subset of $V.$ We call $S$ linearly independent if
$a_1\vec{v_1}+\cdots+a_k\vec{v_k}=\vec{0} \;\Rightarrow\; a_i=0$
for all $i=1,\cdots,k.$

If $S$ is not linearly independent, we say that $S$ is linearly dependent.


함수 $f_1,\cdots,f_n$
상수 $c_1,\cdots,c_n$ 일 때
$\sum_{i=1}^{n}c_if_i=0 \;\Leftrightarrow\; c_1=c_2=\cdots=0$
이면 $f_1,\cdots,f_n$linearly independent하고
아니면 $f_1,\cdots,f_n$linearly dependent하다.

2. Heinbockel

함수,function 집합,set $\lbrace f_1,f_2,\cdots,f_n\rbrace$선형결합,linear_combination $y$ 는 상수곱의 합,sum
$y=c_1f_1+c_2f_2+\cdots+c_nf_n$

함수의 선형독립/종속 (설명 1)
만약 함수 $f_1$$f_2$$c$ (상수)배이면, $f_1(x)=cf_2(x)$ 로 쓸 수 있고, 이 경우 $f_1$$f_2$선형종속,linear_dependence이다. (원문: linearly dependent upon = 선형으로 의존하는)
그런 상수 $c$ 가 없으면, 두 함수는 선형독립,linear_independence이다.

함수의 선형독립/종속 (설명 2)
$\forall x,$ 다음 선형결합
$c_1f_1(x)+c_2f_2(x)=0$ ...(1)
을 만족하는 0이 아닌(모두 0이 아닌?) 두 상수 $c_1,c_2$ 가 존재하면 함수의 집합 $\lbrace f_1,f_2\rbrace$종속적인 함수의 집합이라고 한다. (원문: set of dependent functions)
이유: $c_1\ne 0$ 이면,
$\textstyle f_1(x)=-\frac{c_2}{c_1}f_2(x)=cf_2(x)$
이기 때문. 만약 (1)을 참으로 만드는 상수가 $c_1=0,c_2=0$ 밖에 없으면 함수 집합 $\lbrace f_1,f_2\rbrace$선형독립적인 함수의 집합이라고 한다. (원문: set of linearly independent functions)

(일반화) 모두 0이 아닌 상수 $c_1,c_2,\cdots,c_n$ 이 있고, 모든 $x$ 에 대해 선형결합의 값이 0이 되는, 즉
$c_1f_1(x)+c_2f_2(x)+\cdots+c_nf_n(x)=0,\;\;\forall x$ ...(2)
이 되는 모두 0이 아닌 상수들이 있으면, 함수의 집합 $\lbrace f_1,\cdots,f_n\rbrace$선형종속적인 함수의 집합이다. (linearly dependent set of functions) 만약 (2)를 참으로 만드는 상수들이 $c_1=c_2=\cdots=c_n=0$ 뿐이면, 함수의 집합 $\lbrace f_1,\cdots,f_n\rbrace$선형독립적인 함수의 집합이다.

함수 집합의 함수들이 선형종속이면, 한 함수는 다른 함수들의 선형결합으로 만들어질(표현될) 수 있다. 예를 들어 (2)에서 $c_1\ne 0$ 으로 가정하면
$f_1(x)=-\frac{c_2}{c_1}f_2(x)-\cdots-\frac{c_n}{c_1}f_n(x)$
이므로 $f_1$ 은 다른 함수들에 대해 선형종속이다.

from: Intro to Calculus Volume I p13

3. QQQQ CHK

정의는 독립이 더 간단. 종속은 독립이 아닌 경우로 외워야 하나 봄. (??? CHK)

기저,basis, 생성,span과 관계 tbw.
독립인 것들끼리 span해서 ..를 이룰 수 있고
종속인 것들끼리 span해서 ..를 이룰 수는 없고 그런거?

4. 벡터방정식 해와의 관계

벡터방정식,vector_equation이 trivial solution만 가지면 linearly independent.
벡터방정식,vector_equation이 nontrivial solution을 가지면 linearly dependent.
Related: 해,solution


5. 함수의 독립 (Zill)

함수의 경우

A set of functions $f_1(x),f_2(x),\cdots,f_n(x)$ is said to be linearly dependent on an interval $I$ if there exist constants $c_1,c_2,\cdots,c_n,$ not all zero, such that
$c_1f_1(x)+c_2f_2(x)+\cdots+c_nf_n(x)=0$
for every $x$ in the interval. If the set of functions is not linearly dependent on the interval, it is said to be linearly independent.

다시 말해, 위 식을 모든 $x$ 에 대해 만족시키는 상수들이 $c_1=c_2=\cdots=c_n=0$ 뿐이면, 함수들의 집합이 그 구간에서 선형독립.

두 함수가 선형종속이면, 하나는 다른 것의 상수배이다.
$c_1f_1(x)+c_2f_2(x)=0$ 이면 $c_1\ne0$ 이라는 가정 하에 $f_1(x)=(-c_2/c_1)f_2(x)$ 이므로.

(Zill 6e Definition 3.1.1 Linear Dependence/Independence)

.....

함수의 선형독립/선형종속은 론스키언,Wronskian과도 관련있음.

론스키언,Wronskian을 계산하여 0인지 여부로 독립 여부를 판별 가능? CHK
Yes, see https://angeloyeo.github.io/2019/10/10/Wronskian.html
함수의 선형독립부터 설명함.
$W\ne 0$ 일 때 함수집합이 선형독립적. 하지만 주의할 것은
$W=0$ 이라고 함수 집합이 항상 선형종속인 것은 아님.

6. 벡터의 독립 (Lay, Zill)

벡터의 경우

An indexed set of vectors $\left{\vec{v_1},\cdots,\vec{v_p}\right}\in\mathbb{R}^n$ is said to be linearly independent if the vector equation
$x_1\vec{v_1}+x_2\vec{v_2}+\cdots+x_p\vec{v_p}=\vec{0}$
has only the trivial solution. The set $\left{\vec{v_1},\cdots,\vec{v_p}\right}$ is said to be linearly dependent if there exist weights $c_1,\cdots,c_p,$ not all zero, such that
$c_1\vec{v_1}+c_2\vec{v_2}+\cdots+c_p\vec{v_p}=\vec{0}$

(Lay 1.7: Linear Independence)

An indexed set of vectors $\{\vec{v_1},\cdots,\vec{v_p}\}\in V$ is said to be linearly independent if the vector equation
$c_1\vec{v_1}+c_2\vec{v_2}+\cdots+c_p\vec{v_p}=\vec{0}$ ......(1)
has only the trivial solution, $c_1=0,\cdots,c_p=0.$
The set $\{\vec{v_1},\cdots,\vec{v_p}\}$ is said to be linearly dependent if (1) has a nontrivial solution, that is, if there are some weights, $c_1,\cdots,c_p,$ not all zero, such that (1) holds. In such a case, (1) is called a linear dependence relation among $\vec{v_1},\cdots,\vec{v_p}.$

(Lay 4.3: Linearly Independent Sets)

부분공간,subspace 바로 다음에 언급됨.

벡터 집합 $\left{\vec{x_1},\vec{x_2},\cdots,\vec{x_n}\right}$ 은 다음 방정식
$k_1\vec{x_1}+k_2\vec{x_2}+\cdots+k_n\vec{x_n}=\vec{0}$
을 만족하는 상수가 $k_1=k_2=\cdots=k_n=0$ 뿐이면 선형독립이다. 선형독립이 아니면 선형종속이다.

(Zill Definition 7.6.3 Linear Independence)

7. tmp; 벡터의 선형결합과 선형독립/선형종속

from 고급수학.pdf p56; CLEANUP

벡터의 일차결합: 벡터 $\vec{v_1},\vec{v_2},\cdots,\vec{v_n}$ 과 스칼라 $a_1,\cdots,a_n$ 이 있을 때 벡터들의 일차결합(=선형결합,linear_combination)은
$a_1\vec{v_1}+a_2\vec{v_2}+\cdots+a_n\vec{v_n}$

임의의 n차원 벡터는 $\vec{e_1},\vec{e_2},\cdots,\vec{e_n}$ 의 일차결합으로 표현 가능.

and,

일차독립 and 일차종속
$\vec{v_1},\vec{v_2},\cdots,\vec{v_n}$
에서 어떤 하나도 나머지 (n-1)개의 일차결합으로 표현될 수 없으면 이 벡터들은 일차독립.
일차독립이 아닐 때 (어느 한 벡터가 나머지 벡터들의 일차결합으로 표현될 수 있을 때) 일차종속.

8. Kreyszig 7.4 벡터의 1차독립과 종속

같은 수의 성분을 가진 $m$ 개의 벡터 $\vec{a_1},\cdots,\vec{a_m}$ 에 대해 이들 벡터의 1차결합(선형결합,linear_combination)이란 임의의 스칼라 $c_1,\cdots,c_m$ 에 대해
$c_1\vec{a_1}+c_2\vec{a_2}+\cdots+c_m\vec{a_m}$
으로 표현된 것을 말한다. 이제 방정식
$c_1\vec{a_1}+c_2\vec{a_2}+\cdots+c_m\vec{a_m}=\vec{0}$ ......(1)
을 생각하면, 이 방정식은 모든 $c_j$ 의 값이 0일 때 성립한다. 만약 이것이 식 (1)을 만족하는 유일한 $m$ 개의 스칼라라면, 벡터 $\vec{a_1},\cdots,\vec{a_m}$1차독립 집합을 형성한다고 말하고, 간단히 이들 벡터를 1차독립(linearly independent)이라고 한다.

반면에 모두 0은 아닌 스칼라 집합에 대해서도 식 (1)이 성립한다면, 이 벡터들을 1차종속(linearly dependent)이라고 한다. 왜냐하면 이때에는 벡터 중 최소한 하나 이상을 다른 벡터들의 1차결합으로 나타낼 수 있기 때문이다.
ex. 만일 식 (1)이 성립하고 $c_1\ne 0$ 이면, 벡터 $\vec{a_1}$
$\vec{a_1}=k_2\vec{a_2}+\cdots+k_m\vec{a_m}\;\;\;\left( k_j = -\frac{c_j}{c_1} \right)$
로 나타낼 수 있다. (단 어떤 $k_j$ 는 0일 수 있으며, 심지어 $\vec{a_1}=\vec{0}$ 이면 모든 $k_j$ 가 0일 수 있다)

(위의 개념들의 중요성): 1차종속인 벡터집합에서, 다른 벡터들의 1차결합으로 표현되는 벡터들을 소거함으로써, 최종적으로 각 벡터들이 나머지 다른 벡터의 1차결합으로는 절대 표현되지 않는, 즉 1차독립인 부분집합을 얻을 수 있다는 것. 이 집합이 결국 우리가 필요로 하는 가장 작은 벡터 집합.

(책에서는 바로 이어서 계수,rank 언급.)

9. tmp: 데학지