주성분분석,principal_component_analysis,PCA

Difference between r1.20 and the current

@@ -3,7 +3,7 @@
Method for compressing a lot of data into something that captures the essence of the original data

차원축소 [[dimensionality_reduction]],
특징추출 [[feature_extraction]]
특징추출 [[feature_extraction]] // [[특징,feature]]을 ...
기법.
[[분산,variance]]은 최대한 보존하면서
[[축,axis]] or [[기저,basis]]을 새로 찾는...
@@ -28,7 +28,8 @@

[[WpEn:Kosambi–Karhunen–Loève_theorem]]

Google:kkl.theorem
Naver:"kkl 정리" Ggl:"kkl 정리" Google:kkl.theorem
Up: [[정리,theorem]]
}

= tmp links ko =
@@ -54,7 +55,7 @@
Compare:
[[독립성분분석,independent_component_analysis,ICA]]

[[주성분,principal_component]]
[[주성분,principal_component]] { Up: [[성분,component]] ? }

----
[[Zeta:주성분_분석_PCA]]
@@ -63,5 +64,5 @@

Up: [[자료,data]]??
[[분석,analysis]] > [[다변량분석,multivariate_analysis]]
[[성분분석,component_analysis]]? ( [[성분,component]]? ) (이건 아마 안 만들어질 듯.)



많은 양의 데이터를 데이터를 본질을 해치지 않는 저차원으로 압축하는 것
Method for compressing a lot of data into something that captures the essence of the original data

차원축소 dimensionality_reduction,
특징추출 feature_extraction // 특징,feature을 ...
기법.
분산,variance은 최대한 보존하면서
축,axis or 기저,basis을 새로 찾는...


mklink
고유값,eigenvalue
고유벡터,eigenvector
공분산행렬,covariance_matrix curr see 공분산,covariance
Kosambi–Karhunen–Loève theorem ... or
Karhunen–Loève theorem .... KKL_theorem KL_theorem ?
{
Kosambi–Karhunen–Loève theorem

//wpen
확률과정,stochastic_process론의 정리,theorem.
확률과정을 직교함수,orthogonal_function들의 무한한 선형결합,linear_combination으로 표현,representation하는 것에 대한 -
analogous to: 함수,function을 bounded_interval(유계구간? curr see 구간,interval) 푸리에_급수,Fourier_series ddddddddd