[확률] 10.1 엔트로피

JKH·2024년 12월 9일
0

확률

목록 보기
24/25

✏️ 데이터 사이언스 스쿨에서 공부한 내용입니다.

Y=0Y=0 또는 Y=1Y=1 인 두 가지 값을 가지는 확률변수의 확률분포가 다음과 같이 세 종류가 있다고 하자.

  • 확률분포 Y1Y_1 : P(Y=0)=0.5P(Y=0)=0.5, P(Y=1)=0.5P(Y=1)=0.5
  • 확률분포 Y2Y_2 : P(Y=0)=0.8P(Y=0)=0.8, P(Y=1)=0.2P(Y=1)=0.2
  • 확률분포 Y3Y_3 : P(Y=0)=1.0P(Y=0)=1.0, P(Y=1)=0.0P(Y=1)=0.0
plt.figure(figsize=(9, 3))
plt.subplot(131)
plt.bar([0, 1], [0.5, 0.5])
plt.xticks([0, 1], ["Y=0", "Y=1"])
plt.ylim(0, 1.1)
plt.title("$Y_1$")
plt.subplot(132)
plt.bar([0, 1], [0.8, 0.2])
plt.xticks([0, 1], ["Y=0", "Y=1"])
plt.ylim(0, 1.1)
plt.title("$Y_2$")
plt.subplot(133)
plt.bar([0, 1], [1.0, 0.0])
plt.xticks([0, 1], ["Y=0", "Y=1"])
plt.ylim(0, 1.1)
plt.title("$Y_3$")
plt.tight_layout()
plt.show()

베이지안 관점에서 위 확률분포는 다음과 같은 정보를 나타낸다.

  • 확률분포 Y1Y_1yy값에 대해 아무것도 모르는 상태
  • 확률분포 Y2Y_2yy값이 0이라고 믿지만 아닐 가능성도 있다는 것을 아는 상태
  • 확률분포 Y3Y_3yy값이 0이라고 100% 확신하는 상태

확률분포가 가지는 이러한 차이를 하나의 숫자로 나타낸 것이 바로 엔트로피다.

엔트로피의 정의

엔트로피(entropy) 는 확률분포가 가지는 정보의 확신도 혹은 정보량을 수치로 표현한 것이다. 확률분포에서 특정한 값이 나올 확률이 높아지고 나머지 값의 확률은 낮아진다면 엔트로피가 작아진다. 빈대로 여러가지 값이 나올 확률이 대부분 비슷한 경우에는 엔트로피가 높아진다. 엔트로피는 확률분포의 모양이 어떤지를 나타내는 특성값 중 하나로 볼 수도 있다. 확률 또는 확률밀도가 특정값에 몰려있으면 엔트로피가 작다고 하고 반대로 여러가지 값에 골고루 퍼져 있다면 엔트로피가 크다고 한다.

확률분포의 엔트로피는 물리학의 엔트로피 용어를 빌려온 것이다. 물리학에서는 물질의 상태가 분산되는 정도를 엔트로피로 정의한다. 물체의 상태가 여러가지로 고루 분산되어 있으면 엔트로피가 높고 특정한 하나의 상태로 몰려있으면 엔트로피가 낮다.

수학적으로 엔트로피는 확률분포함수를 입력으로 받아 숫자를 출력하는 범함수(functional)로 정의한다. H[]H[]기호로 표기한다.

확률변수 YY가 카테고리분포와 같은 이산확률변수이면 다음처럼 정의한다.

H[Y]=k=1Kp(yk)log2p(yk)(10.1.1)H[Y] = -\sum_{k=1}^K p(y_k) \log_2 p(y_k) \tag{10.1.1}

이 식에서 KKXX가 가질 수 있는 클래스의 수이고 p(y)p(y)는 확률질량함수다. 확률의 로그값이 항상 음수이므로 음수 기호를 붙여서 양수로 만들었다.

확률변수 YY가 정규분포와 같은 연속확률변수이면 다음처럼 정의한다.

H[Y]=p(y)log2p(y)  dy(10.1.2)H[Y] = -\int_{-\infty}^{\infty} p(y) \log_2 p(y) \; dy \tag{10.1.2}

이 식에서 p(y)p(y)는 확률밀도함수다.

로그의 밑(base)이 2로 정의된 것은 정보통신과 관련을 가지는 역사적인 이유 때문이다.

엔트로피 계산에서 p(y)=0p(y)=0인 경우에는 로그값이 정의되지 않으므로 다음과 같은 극한값을 사용한다.

limp0  plog2p=0(10.1.3)\lim_{p\rightarrow 0} \; p\log_2{p} = 0 \tag{10.1.3}

이 값은 로피탈의 정리(l'Hôpital's rule)에서 구할 수 있다.

위에서 예를 든 Y1Y_1, Y2Y_2, Y3Y_3 3 개의 이산확률분포에 대해 엔트로피를 구하면 다음과 같다.

H[Y1]=12log21212log212=1(10.1.4)H[Y_1] = -\dfrac{1}{2} \log_2 \dfrac{1}{2} -\dfrac{1}{2} \log_2 \dfrac{1}{2} = 1 \tag{10.1.4}
H[Y2]=810log2810210log22100.72(10.1.5)H[Y_2] = -\dfrac{8}{10} \log_2 \dfrac{8}{10} -\dfrac{2}{10} \log_2 \dfrac{2}{10} \approx 0.72 \tag{10.1.5}
H[Y3]=1log210log20=0(10.1.6)H[Y_3] = -1 \log_2 1 -0 \log_2 0 = 0 \tag{10.1.6}

다음은 넘파이로 엔트로피를 계산한 결과다. 확률값이 0일 때는 가장 작은 값인 eps를 대신 사용한다.

-0.5 * np.log2(0.5) - 0.5 * np.log2(0.5)
1.0
-0.8 * np.log2(0.8) - 0.2 * np.log2(0.2)
0.7219280948873623
eps = np.finfo(float).eps
-1 * np.log2(1) - eps * np.log2(eps)
1.1546319456101628e-14

연습 문제 10.1.1

베르누이분포에서 확률값 P(Y=1)P(Y=1)은 0부터 1까지의 값을 가질 수 있다. 각각의 값에 대해 엔트로피를 계산하여 가로축이 P(Y=1)P(Y=1)이고 세로축이 H[Y]H[Y]인 그래프를 그려라.

✏️

import numpy as np
import matplotlib.pyplot as plt

# Define the probability values for P(Y=1)
p_values = np.linspace(0, 1, 500)

# Calculate entropy H[Y] for each P(Y=1)
entropy_values = -p_values * np.log2(p_values, where=(p_values > 0)) - (1 - p_values) * np.log2(1 - p_values, where=(p_values > 0))
entropy_values = np.nan_to_num(entropy_values)  # Handle log2(0) cases

# Plot the graph
plt.figure(figsize=(8, 5))
plt.plot(p_values, entropy_values, label="Entropy $H[Y]$", color='blue')
plt.title("Entropy $H[Y]$ vs $P(Y=1)$", fontsize=14)
plt.xlabel("$P(Y=1)$", fontsize=12)
plt.ylabel("$H[Y]$ (bits)", fontsize=12)
plt.grid(alpha=0.5)
plt.legend()
plt.show()

np.nan_to_num는 NumPy의 함수로, 배열에서 NaN(Not a Number), 무한 값(Inf 또는 -Inf) 등을 대체하여 사용할 수 있도록 변환해주는 기능을 합니다. 이 함수는 계산 중 오류로 인해 발생할 수 있는 값들을 적절히 다뤄 안전한 계산을 가능하게 합니다.

Y = np.nan_to_num(Y, nan=0.0, posinf=None, neginf=None)

연습 문제 10.1.2

다음 확률분포의 엔트로피를 계산하라.

(1) P(Y=0)=18,P(Y=1)=18,P(Y=2)=14,P(Y=3)=12P(Y=0)=\dfrac{1}{8}, P(Y=1)=\dfrac{1}{8}, P(Y=2)=\dfrac{1}{4}, P(Y=3)=\dfrac{1}{2}
(2) P(Y=0)=1,P(Y=1)=0,P(Y=2)=0,P(Y=3)=0P(Y=0)=1, P(Y=1)=0, P(Y=2)=0, P(Y=3)=0
(3) P(Y=0)=14,P(Y=1)=14,P(Y=2)=14,P(Y=3)=14P(Y=0)=\dfrac{1}{4}, P(Y=1)=\dfrac{1}{4}, P(Y=2)=\dfrac{1}{4}, P(Y=3)=\dfrac{1}{4}

✏️

import numpy as np

def calculate_entropy(probabilities):
    """
    Calculate the entropy of a probability distribution.
    
    Parameters:
    - probabilities: list or array of probabilities
    
    Returns:
    - entropy: float, the calculated entropy in bits
    """
    probabilities = np.array(probabilities)
    entropy = -np.sum(probabilities * np.log2(probabilities, where=(probabilities > 0)))
    return entropy

# Define the probability distributions
probabilities_1 = [1/8, 1/8, 1/4, 1/2]
probabilities_2 = [1, 0, 0, 0]
probabilities_3 = [1/4, 1/4, 1/4, 1/4]

# Calculate entropies
entropy_1 = calculate_entropy(probabilities_1)
entropy_2 = calculate_entropy(probabilities_2)
entropy_3 = calculate_entropy(probabilities_3)

entropy_1, entropy_2, entropy_3
(1.75, -0.0, 2.0)

엔트로피의 성질

확률변수가 결정론적이면 확률분포에서 특정한 하나의 값이 나올 확률이 1이다. 이 때 엔트로피는 0이 되고 이 값은 엔트로피가 가질 수 있는 최솟값이다.

반대로 엔트로피의 최대값은 이산 확률변수의 클래스의 갯수에 따라 달라진다. 만약 이산확률분포가 가질 수 있는 값이 2K2^K개면 엔트로피의 최대값은 각 값에 대한 확률이 모두 같은 값인 12K\dfrac{1}{2^K}이다. 엔트로피의 값은

H=2K12Klog212K=K(10.1.7)H = -2^K \cdot \frac{1}{2^K}\log_2\dfrac{1}{2^K} = K \tag{10.1.7}

이다.

엔트로피의 추정

이론적인 확률밀도함수가 없고 실제 데이터가 주어진 경우에는 데이터에서 확률질량함수를 추정한 후, 이를 기반으로 엔트로피를 계산한다.

예를 들어 데이터가 모두 80개가 있고 그 중 Y = 0 인 데이터가 40개, Y = 1인 데이터가 40개 있는 경우는 엔트로피가 1이다.

P(y=0)=4080=12(10.1.8)P(y=0) = \dfrac{40}{80} = \dfrac{1}{2} \tag{10.1.8}
P(y=1)=4080=12(10.1.9)P(y=1) = \dfrac{40}{80} = \dfrac{1}{2} \tag{10.1.9}
H[Y]=12log2(12)12log2(12)=12+12=1(10.1.10)H[Y] = -\dfrac{1}{2}\log_2\left(\dfrac{1}{2}\right) -\dfrac{1}{2}\log_2\left(\dfrac{1}{2}\right) = \dfrac{1}{2} + \dfrac{1}{2} = 1 \tag{10.1.10}

사이파이의 stats 서브패키지는 엔트로피를 구하는 entropy 함수를 제공한다. base 인수값은 2가 되어야 한다.

p = [0.5, 0.5]
sp.stats.entropy(p, base=2)
1.0

연습 문제 10.1.3

(1) 데이터가 모두 60개가 있고 그 중 Y=0Y=0인 데이터가 20개, Y=1Y=1인 데이터가 40개 있는 경우의 엔트로피를 계산하라.

(2) 데이터가 모두 40개가 있고 그 중 Y=0Y=0인 데이터가 30개, Y=1Y=1인 데이터가 10개 있는 경우의 엔트로피를 계산하라.

(3) 데이터가 모두 20개가 있고 그 중 Y=0Y=0인 데이터만 20개 있는 경우의 엔트로피를 계산하라.

✏️

(1)
총 데이터 60개 중 Y=0Y=0이 20개, Y=1Y=1이 40개
확률: P(Y=0)=2060=13P(Y=0) = \frac{20}{60} = \frac{1}{3}, P(Y=1)=4060=23P(Y=1) = \frac{40}{60} = \frac{2}{3}
엔트로피: H[Y]0.9183,bitsH[Y] \approx 0.9183 , \text{bits}

(2)
총 데이터 40개 중 Y=0Y=0이 30개, Y=1Y=1이 10개
확률: P(Y=0)=3040=34P(Y=0) = \frac{30}{40} = \frac{3}{4}, P(Y=1)=1040=14P(Y=1) = \frac{10}{40} = \frac{1}{4}
엔트로피: H[Y]0.8113,bitsH[Y] \approx 0.8113 , \text{bits}

(3)
총 데이터 20개 중 Y=0Y=0만 20개
확률: P(Y=0)=1P(Y=0) = 1, P(Y=1)=0P(Y=1) = 0
엔트로피: H[Y]=0,bitsH[Y] = 0 , \text{bits} (불확실성 없음)

가변길이 인코딩

엔트로피는 원래 통신 분야에서 데이터가 가지고 있는 정보량을 계산하기 위해 고안되었다. 예를 들어 4개의 글자 A, B, C, D로 씌여진 다음과 같은 문서가 있다고 하자.

N = 200
p = [1/2, 1/4, 1/8, 1/8]
doc0 = list("".join([int(N * p[i]) * c for i, c in enumerate("ABCD")]))
np.random.shuffle(doc0)
doc = "".join(doc0)
doc
'BDABABACBABBAACADAADAAADAAAAAABBAABADAA...'

이 문서를 0과 1로 이루어진 이진수로 변환해야 하면 보통 다음처럼 인코딩한다.

  • A = "00"
  • B = "01"
  • C = "10"
  • D = "11"

이렇게 인코딩을 하면 200 글자로 이루어진 문서는 이진수 400개가 된다.

encoder = {"A": "00", "B": "01", "C": "10", "D": "11"}
encoded_doc = "".join([encoder[c] for c in doc])
encoded_doc
'01110001000100100100010100001000110000110000...'
len(encoded_doc)
400

그런데 이진수로 변환할 때 더 글자수를 줄일 수 있는 방법이 있다. 우선 위 글자의 분포를 조사하자.

sns.countplot(list(doc), order="ABCD")
plt.title("글자수의 분포")
plt.show()

글자수의 분포가 다음과 같다.

P(Y=A)=12,P(Y=B)=14,P(Y=C)=18,P(Y=D)=18(10.1.11)P(Y=A)=\dfrac{1}{2}, P(Y=B)=\dfrac{1}{4}, P(Y=C)=\dfrac{1}{8}, P(Y=D)=\dfrac{1}{8} \tag{10.1.11}

지프의 법칙(Zipf's law)에 따르면 이러한 분포는 현실의 글자 빈도수에서도 흔히 나타난다.

확률분포가 위와 같을 때는 다음처럼 인코딩하면 인코딩된 후의 이진수 수를 줄일 수 있다.

  • A = "0"
  • B = "10"
  • C = "110"
  • D = "111"

이 방법은 글자마다 인코딩하는 이진수의 숫자가 다르기 때문에 가변길이 인코딩(variable length encoding) 이라고 한다. 가장 많이 출현하는 'A'는 두 글자가 아닌 한 글자이므로 인코딩 후의 이진수 수가 감소한다. 반대로 'C', 'D'는 이진수의 수가 3개로 많지만 글자의 빈도가 적어서 영향이 적다.

만약 문서의 분포가 위에서 가정한 분포와 정확하게 같다면 인코딩된 이진수의 숫자는 다음 계산에서 350개가 됨을 알 수 있다.

(200×12)1+(200×14)2+(200×18)3+(200×18)3=350(10.1.12)\left(200 \times \dfrac{1}{2}\right) \cdot 1 + \left(200 \times \dfrac{1}{4}\right) \cdot 2 + \left(200 \times \dfrac{1}{8}\right) \cdot 3 + \left(200 \times \dfrac{1}{8}\right) \cdot 3 = 350 \tag{10.1.12}

따라서 알파벳 한 글자를 인코딩하는데 필요한 평균 비트(bit)수는 350÷200=1.75350 \div 200 = 1.75이고 이 값은 확률변수의 엔트로피 값과 같다.

H=12log21214log21428log218=1.75(10.1.13)H = -\dfrac{1}{2}\log_2\dfrac{1}{2} -\dfrac{1}{4}\log_2\dfrac{1}{4} -\dfrac{2}{8}\log_2\dfrac{1}{8} = 1.75 \tag{10.1.13}
vl_encoder = {"A": "0", "B": "10", "C": "110", "D": "111"}
vl_encoded_doc = "".join([vl_encoder[c] for c in doc])
vl_encoded_doc
'10111010010011010010100011001110011...'
len(vl_encoded_doc)
350
sp.stats.entropy([1/2, 1/4, 1/8, 1/8], base=2)
1.75

연습 문제 10.1.4

A, B, C, D, E, F, G, H의 8글자로 이루어진 문서가 있고 각각의 글자가 나올 확률이 다음과 같다고 가정하자.

{12,14,18,116,164,164,164,164}(10.1.14)\Big\{ \dfrac{1}{2}, \dfrac{1}{4}, \dfrac{1}{8}, \dfrac{1}{16}, \dfrac{1}{64}, \dfrac{1}{64}, \dfrac{1}{64}, \dfrac{1}{64} \Big\} \tag{10.1.14}

이 문서를 위한 가변길이 인코딩 방식을 서술하고 한 글자를 인코딩하는데 필요한 평균 비트수를 계산하라.

✏️

문자확률 (PP)코드워드코드 길이 (lil_i)
A12\frac{1}{2}01
B14\frac{1}{4}102
C18\frac{1}{8}1103
D116\frac{1}{16}11104
E164\frac{1}{64}1111006
F164\frac{1}{64}1111016
G164\frac{1}{64}1111106
H164\frac{1}{64}1111116

평균 비트 수 계산

L=(121)+(142)+(183)+(1164)+(41646)L = \left(\frac{1}{2} \cdot 1\right) + \left(\frac{1}{4} \cdot 2\right) + \left(\frac{1}{8} \cdot 3\right) + \left(\frac{1}{16} \cdot 4\right) + \left(4 \cdot \frac{1}{64} \cdot 6\right)
L=0.5+0.5+0.375+0.25+0.375=2.0L = 0.5 + 0.5 + 0.375 + 0.25 + 0.375 = 2.0

한 문자를 인코딩하는 데 필요한 평균 비트 수는: 2.0bits\boxed{2.0 \, \text{bits}}

지니불순도

엔트로피와 유사한 개념으로 지니불순도(Gini impurity) 라는 것이 있다. 지니불순도는 엔트로피처럼 확률분포가 어느쪽에 치우쳐있는가를 재는 척도지만 로그를 사용하지 않으므로 계산량이 더 적어 엔트로피 대용으로 많이 사용된다. 경제학에서도 사용되지만 지니계수(Gini coefficient)와는 다른 개념이라는 점에 주의해야 한다.

G[Y]=k=1KP(yk)(1P(yk))(10.1.15)G[Y] = \sum_{k=1}^K P(y_k) (1 - P(y_k)) \tag{10.1.15}

다음 그림은 값이 두 개인 이산확률분포에서 지니불순도와 엔트로피를 비교한 결과다.

P0 = np.linspace(0.001, 1 - 0.001, 1000)
P1 = 1 - P0
H = - P0 * np.log2(P0) - P1 * np.log2(P1)
G = 2 * (P0 * (1 - P0) + P1 * (1 - P1))

plt.plot(P1, H, "-", label="엔트로피")
plt.plot(P1, G, "--", label="지니불순도")
plt.legend()
plt.xlabel("P(Y=1)")
plt.show()

엔트로피 최대화

기댓값 0, 분산 σ2\sigma^2이 주어졌을 때 엔트로피 H[p(x)]\text{H}[p(x)]를 가장 크게 만드는 확률밀도함수 p(x)p(x)는 정규분포가 된다. 이는 다음처럼 증명한다.

우선 확률밀도함수가 지켜야할 제한조건은 다음과 같다.

(1) 확률밀도함수의 총면적은 1

p(x)dx=1(10.1.16)\int_{-\infty}^{\infty} p(x) dx = 1 \tag{10.1.16}

(2) 기댓값은 0

xp(x)dx=0(10.1.17)\int_{-\infty}^{\infty} xp(x) dx = 0 \tag{10.1.17}

(3) 분산은 σ2\sigma^2

x2p(x)dx=σ2(10.1.18)\int_{-\infty}^{\infty} x^2 p(x) dx = \sigma^2 \tag{10.1.18}

최대화할 목적범함수(objective functional)은 엔트로피다.

H[p(x)]=p(x)logp(x)dx(10.1.19)\text{H}[p(x)] = -\int_{-\infty}^{\infty} p(x)\log p(x) dx \tag{10.1.19}

라그랑주 승수법으로 제한조건을 추가하면 다음과 같아진다.

H[p(x)]=p(x)logp(x)dx+λ1(p(x)dx1)+λ2(xp(x)dx)+λ3(x2p(x)dxσ2)=(p(x)logp(x)+λ1p(x)+λ2xp(x)+λ3x2p(x)λ1λ3σ2)dx(10.1.20)\begin{aligned} \text{H}[p(x)] &= -\int_{-\infty}^{\infty} p(x)\log p(x) dx + \lambda_1 \left( \int_{-\infty}^{\infty} p(x) dx - 1 \right) \\ & + \lambda_2 \left( \int_{-\infty}^{\infty} xp(x) dx\right) + \lambda_3 \left( \int_{-\infty}^{\infty} x^2 p(x) dx - \sigma^2 \right) \\ &= \int_{-\infty}^{\infty} \left( -p(x)\log p(x) + \lambda_1 p(x) + \lambda_2 xp(x) + \lambda_3 x^2p(x) - \lambda_1 - \lambda_3 \sigma^2 \right) dx \end{aligned} \tag{10.1.20}

변분법에서 도함수는 다음과 같이 계산된다.

δHδp(x)=logp(x)1+λ1+λ2x+λ3x2=0(10.1.21)\dfrac{\delta H}{\delta p(x)} = -\log p(x) - 1 + \lambda_1 + \lambda_2 x + \lambda_3 x^2 = 0 \tag{10.1.21}

따라서 확률밀도함수의 형태는 다음과 같다.

p(x)=exp(1+λ1+λ2x+λ3x2)(10.1.22)p(x) = \exp \left( - 1 + \lambda_1 + \lambda_2 x + \lambda_3 x^2 \right) \tag{10.1.22}

적분을 통해 위 형태의 확률밀도함수의 면적, 기대값, 분산을 계산하고 주어진 제한조건을 만족하도록 연립방정식을 풀면 라그랑주 승수를 다음처럼 구할 수 있다. 이 과정은 이 책의 범위를 벗어나므로 생략한다.

λ1=112log2πσ2λ2=0λ3=12σ2(10.1.23)\begin{aligned} \lambda_1 &= 1-\dfrac{1}{2} \log{2\pi\sigma^2} \\ \lambda_2 &= 0 \\ \lambda_3 &= -\dfrac{1}{2\sigma^2} \\ \end{aligned} \tag{10.1.23}

이 값을 대입하면 정규분포라는 것을 알 수 있다.

p(x)=12πσ2exp(x22σ2)(10.1.24)p(x) = \dfrac{1}{\sqrt{2\pi\sigma^2}} \exp \left( -\dfrac{x^2}{2\sigma^2} \right) \tag{10.1.24}

따라서 정규분포는 기댓값과 표준편차를 알고있는 확률분포 중에서 가장 엔트로피가 크고 따라서 가장 정보가 적은 확률분포다. 정규분포는 베이즈 추정에서 있어서 사실상의 무정보 사전확률분포로 사용되는 경우가 많다.

연습 문제 10.1.5

정규분포의 확륲밀도함수에 대한 엔트로피값이 다음과 같음을 증명하라.

p(x)=12πσ2exp(x22σ2)(10.1.25)p(x) = \dfrac{1}{\sqrt{2\pi\sigma^2}} \exp \left( -\dfrac{x^2}{2\sigma^2} \right) \tag{10.1.25}
H[p(x)]=12(1+log2πσ2)(10.1.26)\text{H}[p(x)] = \dfrac{1}{2} ( 1 + \log 2\pi\sigma^2 ) \tag{10.1.26}

✏️

1️⃣ 엔트로피 정의

H[p(x)]=p(x)logp(x)dx\text{H}[p(x)] = - \int_{-\infty}^\infty p(x) \log p(x) \, dx

2️⃣ 정규분포의 확률밀도함수

p(x)=12πσ2exp(x22σ2)p(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{x^2}{2\sigma^2}\right)
logp(x)=log(12πσ2)x22σ2\log p(x) = \log \left( \frac{1}{\sqrt{2\pi\sigma^2}} \right) - \frac{x^2}{2\sigma^2}
logp(x)=12log(2πσ2)x22σ2\log p(x) = -\frac{1}{2} \log(2\pi\sigma^2) - \frac{x^2}{2\sigma^2}

3️⃣ 엔트로피 계산

H[p(x)]=p(x)logp(x)dx\text{H}[p(x)] = -\int_{-\infty}^\infty p(x) \log p(x) \, dx
H[p(x)]=p(x)[12log(2πσ2)x22σ2]dx\text{H}[p(x)] = -\int_{-\infty}^\infty p(x) \left[ -\frac{1}{2} \log(2\pi\sigma^2) - \frac{x^2}{2\sigma^2} \right] dx
H[p(x)]=12log(2πσ2)p(x)dx+12σ2p(x)x2dx\text{H}[p(x)] = \frac{1}{2} \log(2\pi\sigma^2) \int_{-\infty}^\infty p(x) \, dx + \frac{1}{2\sigma^2} \int_{-\infty}^\infty p(x) x^2 \, dx

4️⃣ 첫 번째 항 계산

p(x)dx=1\int_{-\infty}^\infty p(x) \, dx = 1
12log(2πσ2)\frac{1}{2} \log(2\pi\sigma^2)

5️⃣ 두 번째 항 계산

p(x)x2dx=σ2\int_{-\infty}^\infty p(x) x^2 \, dx = \sigma^2
12σ2σ2=12\frac{1}{2\sigma^2} \cdot \sigma^2 = \frac{1}{2}

6️⃣ 결합 및 결과

H[p(x)]=12log(2πσ2)+12\text{H}[p(x)] = \frac{1}{2} \log(2\pi\sigma^2) + \frac{1}{2}
H[p(x)]=12(1+log2πσ2)\boxed{\text{H}[p(x)] = \frac{1}{2} \left( 1 + \log 2\pi\sigma^2 \right)}
profile
Connecting my favorite things

0개의 댓글