The reduction in uncertainty due to another random variable is called the mutual information. For two random variables X and Y,
두 확률변수 사이의 의존성dependence 측도,measure.
상호정보는 더 일반적인 양인 상대엔트로피,relative_entropy 의 특수한 경우이다. 저것은 두 pmf p와 q 사이 "거리,distance"의 측도,measure이며 다음과 같이 정의된다.
상대엔트로피는 true metric은 아니지만, metric의 성질 약간은 갖고 있다. 특히, 항상 음이 아니며, (p=q) ⇔ (값이 0) 이 된다.
(Cover Thomas p9)
(Cover Thomas p9)
Mutual information is the communication rate in the presence of noise. Also, as we shall point out, mutual information corresponds to the increase in the doubling rate of wealth given side information. (Cover Thomas p. xvii)
1. (Wikipedia 읽기) ¶
확률변수의 pair 의 joint distribution이 이고 marginal distribution이 and 일 때, mutual information은 이렇게 정의된다.
여기서
확률밀도함수,probability_density_function,PDF로 나타내면
nonnegativity:
symmetry:
conditional and joint 엔트로피,entropy와의 관계
이렇게 상호정보를
: Kullback-Leibler divergence
확률질량함수,probability_mass_function,PMF로 나타내면 (marginal_entropy)
(conditional_entropy)
(joint_entropy)
로 나타낼 수 있다.(conditional_entropy)
(joint_entropy)
위에서 언급했듯 I가 non-negative이므로,
(Intuitively, ~) 직관적으로 보면 엔트로피 H(Y)는 확률변수(RV)의 불확실성(uncertainty)와 관련있으므로,
H(Y|X)는
H(Y|X)는
- X가 Y에 대해 말하지 않는 것의 측도.
- X가 알려진 후에도 남아 있는, Y에 대해 불확실한 정도.
(Y의 불확실성) - (X가 알려진 뒤에도 남은 Y의 불확실성)
the amount of uncertainty in Y, minus the amount of uncertainty in Y which remains after X is known
또는the amount of uncertainty in Y, minus the amount of uncertainty in Y which remains after X is known
Y의 불확실성 중에서, X를 알게 되어 제거된 것
the amount of uncertainty in Y which is removed by knowing X
KLD와의 관계 생략. TBW.the amount of uncertainty in Y which is removed by knowing X
Conditional mutual information
Multivariate mutual information 생략.
}
Multivariate mutual information 생략.
}
2. tmp ¶
from https://people.cs.umass.edu/~elm/Teaching/Docs/mutInf.pdf
{
두 확률변수 X, Y가 있고 joint distribution이 P(X, Y)이면 mutual information은
}
{
두 확률변수 X, Y가 있고 joint distribution이 P(X, Y)이면 mutual information은
3. tmp; 상호정보량 ¶
// tmp from https://blog.naver.com/pmw9440/222007185331 오타로 추정되는거 수정함.
{
상호정보량(mutual information)이란?
{
상호정보량(mutual information)이란?
이산확률변수,discrete_random_variable X, Y에 대해
결합확률분포,joint_probability_distribution가 P(X, Y)이고
각각 주변확률분포,marginal_probability_distribution가 P(X), P(Y)라면
상호정보량 I(X, Y)는
(연속확률변수,continuous_random_variable라면 ∑∑를 ∬로 교체)
결합확률분포,joint_probability_distribution가 P(X, Y)이고
각각 주변확률분포,marginal_probability_distribution가 P(X), P(Y)라면
상호정보량 I(X, Y)는
I(X, Y)는 0 이상의 값을 가짐.
0을 가진다면 두 변수가 독립임을 의미.
0을 가진다면 두 변수가 독립임을 의미.
상호정보량의 특성
① 대칭성(symmetry)
② 엔트로피와의 관계
엔트로피: 모든 사건 정보량의 기대값,expected_value.
여기서
두 확률 가 있을 때 KLD 연산 KL(p‖q)의 정의는
주변확률 와 결합확률 일 때
}
① 대칭성(symmetry)
엔트로피: 모든 사건 정보량의 기대값,expected_value.
: 주변엔트로피
: 조건부엔트로피
: 결합엔트로피
③ 쿨백-라이블러 발산(Kullback-Leibler divergence, KLD)과의 관계: 조건부엔트로피
: 결합엔트로피
두 확률 가 있을 때 KLD 연산 KL(p‖q)의 정의는
두 확률변수가 독립이라면, 즉 p(x,y)=p(x)p(y)라면, 상호정보량은 0.
결합확률분포표 있는 예제는 사이트 참조.
}
}
(x, y가 서로 독립이면 분자 분모가 약분되어 정보량이 1이 됨)
----
tmp from https://blog.naver.com/jinp7/221782462308 4. mutual information
{
두 확률변수의 marginal distribution이 actual joint distribution에서 divergent한지를 측정하는 metric.
두 확률변수가 서로 어떤 관계를 가지고 있는지 나타내는 정보량 중 하나.
- 두 확률변수가 완전히 독립이면 값이 0
- 두 확률변수가 밀접한 관련이 있으면 값이 커짐
- 두 확률변수가 역의 방향으로 관련이 있으면 값이 작아짐
그 외에, 세번째 변수 조건하에서 두 확률변수를 비교하는 conditional mutual information도 있다.
}
5. 점상호정보 Pointwise Mutual Information (PMI) ¶
점별상호정보량(pointwise mutual information, PMI) 계산
tmp 요약 from https://bab2min.tistory.com/546 오타로 추정되는거 수정함.
{
확률변수 A,B의 상호정보량: I(A;B)
사건 a,b가 동시에 일어날 확률: P(a,b)
사건 a,b의 점별상호정보량: PMI(a;b) 이라면,
이산확률변수의 경우 (P is pmf)
연속확률변수의 경우 (P is pdf)
PMI계산식은
간단한 예제는 사이트 참고.
}
tmp 요약 from https://bab2min.tistory.com/546 오타로 추정되는거 수정함.
{
확률변수 A,B의 상호정보량: I(A;B)
사건 a,b가 동시에 일어날 확률: P(a,b)
사건 a,b의 점별상호정보량: PMI(a;b) 이라면,
이산확률변수의 경우 (P is pmf)
}
MI(X, Y) = expected value of the PMI.
성질
symmetric
symmetric
pmi(x; y) = pmi(y; x)
}6. bmks ko ¶
https://process-mining.tistory.com/141
대충 내용:
배경을 알아보고(상관계수,correlation_coefficient의 한계 때문에 MI가 등장)
정의를 알아보고,
그걸 조건부엔트로피,conditional_entropy로도 표현해보고
NMI = normalized_mutual_information 알아보고
MIC = maximal_information_coefficient 알아봄
대충 내용:
배경을 알아보고(상관계수,correlation_coefficient의 한계 때문에 MI가 등장)
정의를 알아보고,
그걸 조건부엔트로피,conditional_entropy로도 표현해보고
NMI = normalized_mutual_information 알아보고
MIC = maximal_information_coefficient 알아봄