엔트로피(Entropy)의 개념과 활용에 대해 설명하시오.
엔트로피(Entropy):
정보 이론(Information Theory)에서 엔트로피는 메시지에 포함된 불확실성 또는 평균 정보량을 측정하는 지표이다.
수식 표현:
엔트로피 (H(X))는 다음과 같이 정의된다.
[
H(X) = -\sum_{i=1}^{n} P(x_i) \log_2 P(x_i)
]
여기서,
등장배경:
목적:
샤논 엔트로피(Shannon Entropy):
교차 엔트로피(Cross Entropy):
상호 정보량(Mutual Information):
장점
단점
전망:
개선점: