주성분분석,principal_component_analysis,PCA

Difference between r1.19 and the current

@@ -1,6 +1,12 @@
#noindex
많은 양의 데이터를 데이터를 본질을 해치지 않는 저차원으로 압축하는 것
Method for compressing a lot of data into something that captures the essence of the original data
차원축소 [[dimensionality_reduction]],
특징추출 [[feature_extraction]] // [[특징,feature]]을 ...
기법.
[[분산,variance]]은 최대한 보존하면서
[[축,axis]] or [[기저,basis]]을 새로 찾는...

한국어 설명:
https://angeloyeo.github.io/2019/07/27/PCA.html
@@ -22,7 +28,8 @@

[[WpEn:Kosambi–Karhunen–Loève_theorem]]

Google:kkl.theorem
Naver:"kkl 정리" Ggl:"kkl 정리" Google:kkl.theorem
Up: [[정리,theorem]]
}

= tmp links ko =
@@ -48,7 +55,7 @@
Compare:
[[독립성분분석,independent_component_analysis,ICA]]

[[주성분,principal_component]]
[[주성분,principal_component]] { Up: [[성분,component]] ? }

----
[[Zeta:주성분_분석_PCA]]
@@ -57,5 +64,5 @@

Up: [[자료,data]]??
[[분석,analysis]] > [[다변량분석,multivariate_analysis]]
[[성분분석,component_analysis]]? ( [[성분,component]]? ) (이건 아마 안 만들어질 듯.)



많은 양의 데이터를 데이터를 본질을 해치지 않는 저차원으로 압축하는 것
Method for compressing a lot of data into something that captures the essence of the original data

차원축소 dimensionality_reduction,
특징추출 feature_extraction // 특징,feature을 ...
기법.
분산,variance은 최대한 보존하면서
축,axis or 기저,basis을 새로 찾는...


mklink
고유값,eigenvalue
고유벡터,eigenvector
공분산행렬,covariance_matrix curr see 공분산,covariance
Kosambi–Karhunen–Loève theorem ... or
Karhunen–Loève theorem .... KKL_theorem KL_theorem ?
{
Kosambi–Karhunen–Loève theorem

//wpen
확률과정,stochastic_process론의 정리,theorem.
확률과정을 직교함수,orthogonal_function들의 무한한 선형결합,linear_combination으로 표현,representation하는 것에 대한 -
analogous to: 함수,function을 bounded_interval(유계구간? curr see 구간,interval) 푸리에_급수,Fourier_series ddddddddd