[확률] 8.2 베르누이분포와 이항분포

JKH·2024년 11월 23일
0

확률

목록 보기
13/25

✏️ 데이터 사이언스 스쿨에서 공부한 내용입니다.

베르누이 시행

결과가 두 가지 중 하나로만 나오는 실험이나 시행을 베르누이 시행(Bernoulli trial)이라고 한다. 예를 들어 동전을 한 번 던져 앞면(H:Head)이 나오거나 뒷면(T:Tail)이 나오게 하는 것도 베르누이 시행이다.

베르누이 확률변수

베르누이 시행의 결과를 실수 0 또는 1로 바꾼 것을 베르누이 확률변수(Bernoulli random variable) 라고 한다. 베르누이 확률변수는 두 값 중 하나만 가질 수 있으므로 이산확률변수(discrete random variable)다. 베르누이 확률변수의 표본값은 보통 정수 1과 0으로 표현하지만 때로는 정수 1과 -1로 표현하는 경우도 있다.

베르누이 확률분포

베르누이 확률변수의 분포를 베르누이 확률분포 혹은 베르누이분포라고 한다. 만약 어떤 확률변수 XX가 베르누이분포에 의해 발생된다면 ’확률변수 XX가 베르누이 분포를 따른다’ 라고 말하고 다음과 같이 수식으로 쓴다.

XBern(x;μ)(8.2.1)X \sim \text{Bern}(x;\mu) \tag{8.2.1}

베르누이분포의 확률질량함수 수식은 다음과 같다.

Bern(x;μ)={μif x=1,1μif x=0(8.2.2)\text{Bern}(x;\mu) = \begin{cases} \mu & \text{if }x=1, \\ 1-\mu & \text{if }x=0 \end{cases} \tag{8.2.2}

베르누이분포는 1이 나올 확률을 의미하는 μ\mu라는 모수(parameter) 를 가진다. 변수와 모수는 세미콜론(;, semicolon)기호로 분리했다. 0이 나올 확률은 1μ1 - \mu이다. 위 식을 하나의 수식으로 표현하면 다음처럼 쓸 수 있다.

Bern(x;μ)=μx(1μ)(1x)(8.2.3)\text{Bern}(x;\mu) = \mu^x(1-\mu)^{(1-x)} \tag{8.2.3}

만약 베르누이 확률변수의 표본값이 1과 0이 아니라 1과 -1이라는 값을 가진다면 다음과 같은 수식으로 써야 한다.

Bern(x;μ)=μ(1+x)/2(1μ)(1x)/2(8.2.4)\text{Bern}(x; \mu) = \mu^{(1+x)/2} (1-\mu)^{(1-x)/2} \tag{8.2.4}

연습 문제 8.2.1

위 식 (8.2.3)에서 x=1x=1x=0x=0을 각각 대입하여 원래의 확률질량함수 수식이 나오는 것을 확인한다.

✏️
x=1x=1 이면 Bern(x;μ)=μ\text{Bern}(x;\mu) = \mu이고, x=0x=0 이면 Bern(x;μ)=1μ\text{Bern}(x;\mu) = 1-\mu

사이파이를 사용한 베르누이 확률변수의 시뮬레이션

사이파이의 stats 서브 패키지에 있는 bernoulli 클래스는 베르누이 확률변수를 구현했다. p 인수로 분포의 모수 μ\mu을 설정한다. 다음 예에서는 p=0.6 으로 설정했다. 이러한 확률변수를 만든 것은 앞면이 나올 확률이 0.6인 동전을 만든 것과 같다.

import scipy as sp
import scipy.stats
mu = 0.6
rv = sp.stats.bernoulli(mu)
type(rv)
scipy.stats._distn_infrastructure.rv_frozen

확률질량함수는 pmf() 메서드로 계산한다.

import matplotlib.pyplot as plt
xx = [0, 1]
plt.bar(xx, rv.pmf(xx))
plt.xlim(-1, 2)
plt.ylim(0, 1)
plt.xticks([0, 1], ["x=0", "x=1"])
plt.xlabel("표본값")
plt.ylabel("P(x)")
plt.title("베르누이 확률변수의 확률질량함수")
plt.show()

Mn26rs2.png

표본값을 무작위로 생성하려면 rvs() 메서드를 사용한다. 다음 코드는 표본 100개를 생성한다. 이는 위에서 만든 동전을 100번 던져 나온 결과를 나타낸 것과 같다. 그래서 확률변수의 표본을 생성하는 작업을 시뮬레이션(simulation) 이라고도 부른다.

x = rv.rvs(100, random_state=0)
x
array([1, 0, 0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 1, 0, 1, 1, 1, 0, 0, 0, 0, 0,
       1, 0, 1, 0, 1, 0, 1, 1, 1, 0, 1, 1, 1, 0, 0, 0, 0, 0, 1, 1, 0, 1,
       0, 0, 1, 1, 1, 1, 1, 1, 0, 1, 1, 1, 0, 1, 1, 1, 1, 1, 0, 1, 1, 1,
       0, 1, 0, 1, 0, 1, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0, 1, 1, 1, 1,
       1, 0, 1, 0, 1, 0, 1, 1, 1, 1, 0, 1])

다음은 생성 결과를 seaborn의 countplot() 명령으로 시각화한 것이다.

import seaborn as sns
sns.countplot(x=x)  
plt.title("Count of 0s and 1s in x")
plt.xlabel("Values")
plt.ylabel("Count")
plt.show()

이론적인 확률분포와 표본의 확률분포를 동시에 보이려면 다음과 같은 코드를 사용한다.

import numpy as np 
import pandas as pd
y = np.bincount(x, minlength=2) / float(len(x))
df = pd.DataFrame({"Theoretical": rv.pmf(xx), "simulated": y})
df.index = [0, 1]
df
이론 시뮬레이션
0 0.4 0.38
1 0.6 0.62

시본의 barplot() 명령으로 시각화하면 다음과 같다.

df2 = df.stack().reset_index()
df2.columns = ["sample", "type", "rate"]
df2
표본값 유형 비율
0 0 이론 0.40
1 0 시뮬레이션 0.38
2 1 이론 0.60
3 1 시뮬레이션 0.62
sns.barplot(x="sample", y="rate", hue="type", data=df2)
plt.title("Theoretical and simulated distributions")
plt.show()

연습 문제 8.2.2

베르누이 확률분포의 모수가 다음과 같을 경우에 각각 표본을 생성한 후 기댓값과 분산을 구하고 앞의 예제와 같이 확률 밀도 함수와 비교한 바 플롯을 그린다. 표본 개수가 10개인 경우와 1000개인 경우에 대해 각각 위의 계산을 한다.

(1) μ=0.5\mu = 0.5
(2) μ=0.9\mu = 0.9

✏️

# 베르누이 확률분포의 모수 0.5, 0.9인 경우에  각각 표본을 생성한 후(10개, 1000개) 기댓값과 분산을 구하고 확률 밀도 함수와 비교한 바 플롯을 그린다.
import scipy as sp
import scipy.stats
import matplotlib.pyplot as plt
import seaborn as sns
import numpy as np
import pandas as pd

# Parameters and sample sizes
mus = [0.5, 0.9]
sample_sizes = [10, 1000]

fig, axes = plt.subplots(2, 2, figsize=(12, 8))  # Create subplots

for i, mu in enumerate(mus):
    for j, sample_size in enumerate(sample_sizes):
        # Create Bernoulli random variable
        rv = sp.stats.bernoulli(mu)
        
        # Generate samples
        x = rv.rvs(sample_size, random_state=1)

        # Calculate mean and variance
        mean = np.mean(x)
        variance = np.var(x)
        
        # Theoretical probabilities
        xx = [0, 1]
        theoretical_probs = rv.pmf(xx)
        
        # Simulated probabilities
        simulated_probs = np.bincount(x, minlength=2) / float(len(x))

        # Create DataFrame for plotting
        df = pd.DataFrame({"Theoretical": theoretical_probs, "Simulated": simulated_probs})
        df.index = [0, 1]
        df2 = df.stack().reset_index()
        df2.columns = ["sample", "type", "rate"]
        
        # Plot
        sns.barplot(x="sample", y="rate", hue="type", data=df2, ax=axes[i,j])
        axes[i,j].set_title(f"mu = {mu}, Sample Size = {sample_size}, Mean = {mean:.3f}, Variance = {variance:.3f}")

plt.tight_layout()
plt.show()

베르누이분포의 모멘트

베르누이분포의 모멘트는 다음과 같다.

E[X]=μ(8.2.5)\text{E}[X] = \mu \tag{8.2.5}
Var[X]=μ(1μ)(8.2.7)\text{Var}[X] = \mu(1-\mu) \tag{8.2.7}

앞의 예에서는 μ=0.6\mu = 0.6이였으므로 이론적인 기댓값과 분산은 다음과 같다.

E[X]=0.6(8.2.9)\text{E}[X] = 0.6 \tag{8.2.9}
Var[X]=0.6(10.6)=0.24(8.2.10)\text{Var}[X] = 0.6 \cdot (1 - 0.6) = 0.24 \tag{8.2.10}

데이터에서 계산한 표본평균 및 표본분산은 다음과 같이 계산한다.

print(f"평균:{np.mean(x)}, 분산:{np.var(x, ddof=1):.3f}")
평균:0.62, 분산:0.238

기술통계값들은 사이파이가 제공하는 describe 명령으로 계산할 수도 있다.

# 데이터 갯수, 최소/최대, 평균, 비편향분산, skew, kurt 반환
s = sp.stats.describe(x) 
s[2], s[3]
(0.62, 0.23797979797979804)

이항분포

성공확률이 μ\mu 인 베르누이 시행을 NN번 반복하는 경우를 생각해보자. 가장 운이 좋을 때에는 NN번 모두 성공할 것이고 가장 운이 나쁜 경우에는 한 번도 성공하지 못할 것이다. NN번 중 성공한 횟수를 확률변수 XX라고 한다면 XX의 값은 0 부터 NN 까지의 정수 중 하나가 될 것이다. 이런 확률변수를 이항분포(binomial distribution) 를 따르는 확률변수라고 하며 다음과 같이 표시한다.

XBin(x;N,μ)(8.2.11)X \sim \text{Bin}(x;N,\mu) \tag{8.2.11}

베르누이분포와 이항분포는 모두 베르누이 확률변수에서 나온 표본값이다. 표본 데이터가 하나 뿐이면 베르누이분포가 되고 표본 데이터가 여럿이면 이항분포가 된다. 이항분포 확률변수 XX의 확률질량함수를 구해보자. 우선 베르누이 확률 분포를 따르는 확률변수 YY를 가정한다.

YBern(y;μ)(8.2.12)Y \sim \text{Bern}(y;\mu) \tag{8.2.12}

이 확률변수의 NN개의 표본을 y1,y2,,yNy_1, y_2, \cdots, y_N라고 하자. 이 값은 모두 0(실패) 아니면 1(성공)이라는 값을 가지기 때문에 NN번 중 성공한 횟수는 NN개의 표본값의 합이다.

x=i=1Nyi(8.2.13)x = \sum_{i=1}^N y_i \tag{8.2.13}

베르누이분포를 따르는 확률변수 YY의 확률질량함수를 대입하여 정리하면 이항분포 확률변수 XX의 확률질량함수는 다음과 같아진다.

Bin(x;N,μ)=(Nx)  μx(1μ)Nx(8.2.14)\text{Bin}(x;N,\mu) = \binom N x \; \mu^x(1-\mu)^{N-x} \tag{8.2.14}

이 식에서 (Nx)\binom N x 기호는 조합(combination) 이라는 기호로 NN개 원소 중에 xx개 원소를 순서와 상관없이 선택할 수 있는 경우의 수를 뜻한다.

(Nx)=N!x!(Nx)!(8.2.15)\binom N x =\dfrac{N!}{x!(N-x)!} \tag{8.2.15}

사이파이를 사용한 이항분포의 시뮬레이션

이항분포 확률변수는 사이파이의 stats 서브패키지에 binom 클래스로 구현되어 있다. n 인수로 전체 시행 횟수 NN를 넣고 p 인수로 베르누이 확률 분포의 기댓값 μ\mu를 넣는다.

N = 10
mu = 0.6
rv = sp.stats.binom(N, mu)

이 때 확률질량함수는 다음과 같다. 확률질량함수의 모양이 하나의 봉우리를 가지는 단봉분포지만 0부터 NN사이의 정수값만 가질 수 있고 모수의 값에 따라 봉우리의 위치가 달라진다.

xx = np.arange(N + 1)
plt.bar(xx, rv.pmf(xx), align="center")
plt.xlabel("sample")
plt.ylabel("$P(x)$")
plt.title("pmf - binomial distribution")
plt.show()

rvs() 메서드로 무작위 표본을 뽑아내는 시뮬레이션을 한 결과는 다음과 같다. 시뮬레이션 결과는 확률질량함수의 모양과 비슷하지만 정확히 일치하지는 않는다.

np.random.seed(0)
x = rv.rvs(100)
x
array([ 6,  5,  6,  6,  6,  5,  6,  4,  3,  6,  5,  6,  6,  4,  8,  8,  9,
        5,  5,  4,  3,  5,  6,  5,  8,  5,  8,  4,  6,  6,  7,  5,  6,  6,
        9,  6,  6,  6,  4,  5,  7,  6,  5,  8,  5,  5,  7,  8,  7,  7,  6,
        6,  2,  8,  7,  8,  5,  7,  6,  7,  8,  8,  5,  8,  7,  7,  5,  8,
        4,  8,  3,  6,  3,  6,  5,  9,  7,  8,  7,  8,  7,  6,  8,  5,  6,
        7,  6,  8,  6,  4,  7,  5,  8,  5,  7,  7,  6,  9,  5, 10])
sns.countplot(x=x)
plt.title("binomial simulation")
plt.xlabel("sample")
plt.show()

이론적인 확률분포와 표본의 확률분포를 같이 나타내려면 다음과 같은 코드를 사용한다.

y = np.bincount(x, minlength=N+1)/float(len(x))
df = pd.DataFrame({"Theoretical": rv.pmf(xx), "Simulated": y}).stack()
df = df.reset_index()
df.columns = ["sample", "type", "rate"]
df.pivot(index="sample", columns="type", values="rate")
df 
# 데이터프레임을 마크다운 형식으로 변환할 수 있다.
# print(df.to_markdown()) 
sampletyperate
00Theoretical0.000104858
10Simulated0
21Theoretical0.00157286
31Simulated0
42Theoretical0.0106168
52Simulated0.01
63Theoretical0.0424673
73Simulated0.04
84Theoretical0.111477
94Simulated0.07
105Theoretical0.200658
115Simulated0.21
126Theoretical0.250823
136Simulated0.27
147Theoretical0.214991
157Simulated0.17
168Theoretical0.120932
178Simulated0.18
189Theoretical0.0403108
199Simulated0.04
2010Theoretical0.00604662
2110Simulated0.01
sns.barplot(x="sample", y="rate", hue="type", data=df)
plt.title("Theoretical v.s. simulated - binomial")
plt.show()

이항분포의 모멘트

이항분포의 기댓값과 분산은 각각 다음과 같다.

E[X]=Nμ(8.2.17)\text{E}[X] = N\mu \tag{8.2.17}
Var[X]=Nμ(1μ)(8.2.19)\text{Var}[X] = N\mu(1-\mu) \tag{8.2.19}

연습 문제 8.2.3

이항 확률분포의 모수가 다음과 같을 경우에 각각 표본을 생성한 후 기댓값과 분산을 구하고 앞의 예제와 같이 확률밀도함수와 비교한 바 플롯을 그린다. 표본 개수가 10개인 경우와 1000개인 경우에 대해 각각 위의 계산을 한다.

(1) μ=0.5\mu = 0.5, N=5N=5
(2) μ=0.9\mu = 0.9, N=20N=20

✏️

# prompt: 이항 확률분포의 모수가 다음과 같을 경우에 각각 표본을 생성한 후 기댓값과 분산을 구하고 앞의 예제와 같이 확률밀도함수와 비교한 바 플롯을 그린다.
# 표본 개수가 10개인 경우와 1000개인 경우에 대해 각각 위의 계산을 한다.
# (1) μ=0.5, N=5
# (2) μ=0.9,  N=20

import scipy as sp
import scipy.stats
import matplotlib.pyplot as plt
import seaborn as sns
import numpy as np 
import pandas as pd

# Parameters and sample sizes
params = [(0.5, 5), (0.9, 20)]
sample_sizes = [10, 1000]

fig, axes = plt.subplots(2, 2, figsize=(12, 8))  # Create subplots

for i, (mu, N) in enumerate(params):
    for j, sample_size in enumerate(sample_sizes):
        # Create Binomial random variable
        rv = sp.stats.binom(N, mu)
        
        # Generate samples
        x = rv.rvs(sample_size, random_state=1)

        # Calculate mean and variance
        mean = np.mean(x)
        variance = np.var(x)
        
        # Theoretical probabilities
        xx = np.arange(N + 1)
        theoretical_probs = rv.pmf(xx)
        
        # Simulated probabilities
        simulated_probs = np.bincount(x, minlength=N+1) / float(len(x))

        # Create DataFrame for plotting
        df = pd.DataFrame({"Theoretical": theoretical_probs, "Simulated": simulated_probs})
        df.index = xx
        df2 = df.stack().reset_index()
        df2.columns = ["sample", "type", "rate"]
        
        # Plot
        sns.barplot(x="sample", y="rate", hue="type", data=df2, ax=axes[i,j])
        axes[i,j].set_title(f"mu = {mu}, N = {N}, Sample Size = {sample_size}, Mean = {mean:.3f}, Variance = {variance:.3f}")

plt.tight_layout()
plt.show()

베르누이분포와 이항분포의 모수추정

데이터에서 모수의 값을 찾아내는 것을 모수추정(parameter estimation) 이라고 한다.
베르누이분포와 이항분포는 공통된 모수 μ\mu를 가진다. 보통은 표본 데이터가 한 개보다 많기 때문에 이항분포가 된다. 추정한 값 μ^\hat\mu은 다음처럼 계산한다.

μ^=i=1NxiN=N1N(8.2.21)\hat{\mu} = \dfrac{\sum_{i=1}^N x_i}{N}= \dfrac{N_1}{N} \tag{8.2.21}

이 식에서 NN은 전체 데이터의 수, N1N_1은 1이 나온 횟수이다.

베르누이분포의 활용

베르누이분포는 다음과 같은 경우에 사용된다.

  1. 분류예측 문제의 출력 데이터가 두 값으로 구분되는 카테고리값인 경우에 분류 결과 즉, 두 값 중 어느 값이 가능성이 높은지를 표현하는 데 사용된다(베이지안 관점).

  2. 입력 데이터가 0 또는 1 혹은 참 또는 거짓, 두 개의 값으로 구분되는 카테고리값인 경우, 두 종류의 값이 나타나는 비율을 표현하는 데 사용된다(빈도주의적 관점).

예제

스팸 메일(spam mail)과 정상 메일을 구분해야 하는 스팸 메일 필터(spam mail filter)를 만들어야 한다고 가정하자. 스팸 메일 필터를 만들기 위해 특정한 메일 계정으로 들어오는 메일을 모두 분석하였했다. 만약 메일이 모두 10통이고 이 중 6통이 스팸 메일이라면 이 메일 계정으로 들어온 메일이 스팸 메일일 가능성은 60%이다. 이러한 상황은 μ=0.6\mu = 0.6인 베르누이분포로 나타낼 수 있다. 확률변수 YY는 메일이 스팸 메일인지 아닌지를 나타내며 Y=1Y=1이면 스팸 메일이다.

p(y)=Bern(y;μ=0.6)(8.2.22)p(y) = \text{Bern}(y; \mu = 0.6) \tag{8.2.22}

예제

이번에는 스팸 메일 필터의 입력 데이터에서 베르누이분포를 활용하는 방법을 알아보자. 스팸 메일은 특정한 단어(키워드)를 가지고 있을 확률이 높다. 스팸 메일을 구분하기 위한 키워드가 여러 개라면 다음과 같이 BOW(Bag of Words) 인코딩된 벡터로 나타낼 수 있다. 이 예에서는 4개의 키워드 4개를 사용하였했다. 만약 어떤 메일이 첫 번째와 세 번째 키워드를 포함하고 있으며 두 번째와 네 번째 키워드는 포함하지 않으면 다음과 같은 특징 벡터로 표시할 수 있다.

x=[1010](8.2.23)x = \begin{bmatrix} 1 \\ 0 \\ 1 \\ 0 \end{bmatrix} \tag{8.2.23}

여러개의 메일이 있으면 다음처럼 특징 행렬로 표시한다. 특징 행렬에서는 행 벡터가 메일을, 열 벡터가 키워드를 나타낸다.

Xspam=[101011101101001111001101](8.2.24)X_{\text{spam}} = \begin{bmatrix} 1 & 0 & 1 & 0 \\ 1 & 1 & 1 & 0 \\ 1 & 1 & 0 & 1 \\ 0 & 0 & 1 & 1 \\ 1 & 1 & 0 & 0 \\ 1 & 1 & 0 & 1 \\ \end{bmatrix} \tag{8.2.24}

이때, 스팸 메일의 특성은 4개의 베르누이 확률변수의 튜플 (X1,X2,X3,X4)(X_1, X_2, X_3, X_4)로 나타낼 수 있다.

  • X1X_1: 메일이 첫 번째 키워드를 포함하면 1, 아니면 0이 되는 확률변수
p(X1=1Y=1)=Bern(x1;μspam,1)(8.2.25)p(X_1=1 | Y=1) = \text{Bern}(x_1; \mu_{spam,1}) \tag{8.2.25}
  • X2X_2: 메일이 두 번째 키워드를 포함하면 1, 아니면 0이 되는 확률변수
p(X2=1Y=1)=Bern(x2;μspam,2)(8.2.26)p(X_2=1 | Y=1) = \text{Bern}(x_2; \mu_{spam,2}) \tag{8.2.26}
  • X3X_3: 메일이 세 번째 키워드를 포함하면 1, 아니면 0이 되는 확률변수
p(X3=1Y=1)=Bern(x3;μspam,3)(8.2.27)p(X_3=1 | Y=1) = \text{Bern}(x_3; \mu_{spam,3}) \tag{8.2.27}
  • X4X_4: 메일이 네 번째 키워드를 포함하면 1, 아니면 0이 되는 확률변수
p(X4=1Y=1)=Bern(x4;μspam,4)(8.2.28)p(X_4=1 | Y=1) = \text{Bern}(x_4; \mu_{spam,4}) \tag{8.2.28}

특징 행렬의 각 열로부터 각 베르누이 확률분포의 모수의 추정값을 구하면 다음과 같다.

μ^spam,1=56,    μ^spam,2=46,    μ^spam,3=36,    μ^spam,4=36(8.2.29)\hat\mu_{spam,1} = \dfrac{5}{6},\;\; \hat\mu_{spam,2} = \dfrac{4}{6},\;\; \hat\mu_{spam,3} = \dfrac{3}{6},\;\; \hat\mu_{spam,4} = \dfrac{3}{6} \tag{8.2.29}

연습 문제 8.2.4

(1) 위 예제와 같이 키워드 4개를 사용하는 스팸 메일 필터를 만드는 데 스팸 메일이 아닌 정상 메일 5통을 다음과 같은 특징 행렬로 표시한다고 가정하자.

Xham=[00110111001100010001](8.2.30)X_{\text{ham}} = \begin{bmatrix} 0 & 0 & 1 & 1 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 1 \\ \end{bmatrix} \tag{8.2.30}

이 정상 메일에 각각의 키워드가 있을 확률을 나타내는 베르누이 확률분포

p(X1=1Y=0)=Bern(x1;μham,1)(8.2.31)p(X_1=1|Y=0) = \text{Bern}(x_1; \mu_{ham,1}) \tag{8.2.31}
p(X2=1Y=0)=Bern(x2;μham,2)(8.2.32)p(X_2=1|Y=0) = \text{Bern}(x_2; \mu_{ham,2}) \tag{8.2.32}
p(X3=1Y=0)=Bern(x3;μham,3)(8.2.33)p(X_3=1|Y=0) = \text{Bern}(x_3; \mu_{ham,3}) \tag{8.2.33}
p(X4=1Y=0)=Bern(x4;μham,4)(8.2.34)p(X_4=1|Y=0) = \text{Bern}(x_4; \mu_{ham,4}) \tag{8.2.34}

의 모수를 구하라. 우리가 구한 모수에 문제점은 없는가?

✏️
0, 0.2, 0.6, 1
3, 4번째 키워드에 대응되는 모수 값이 너무 큰 문제점이 있다.
3, 4번째 키워드에 의해 정상 메일을 스팸 메일로 잘못 분류 할 가능성이 높다.

(2) 키워드 4개를 사용하는 스팸 메일 필터를 만드는 데 스팸 메일과 정상 메일의 특성을 모두 모형화하려면 베르누이 확률변수가 몇 개 필요한가?

✏️
5개
X1, X2, X3, X4, Y

profile
Connecting my favorite things

0개의 댓글