Epsilon-delta argument (입실론 델타 논법)

Jihwan Oh·2024년 6월 10일

math for ML

목록 보기
1/1

머신러닝 공부를 하다보면, 극한의 개념을 마주치게 된다. 그런데 극한을 정의하는게 내가 고등학생때 배운 것과는 좀 다른 것 같은데, 보통 입실론델타 ϵδ\epsilon-\delta 논법으로 극한을 정의한다. 다음은 함수의 극한에 대한 정의이다.

  1. 다변수 함수의 극한
    다변수 함수 f:RnRf: \mathbb{R}^{n} \rightarrow \mathbb{R} 에 대하여, 함수 ff의 정의역에 속한 점 a=(a1,,an)\mathbf{a}=(a_1, \cdots, a_n)을 생각하자. 임의의 ϵ>0\epsilon > 00<xa2<δ0 < ||\mathbf{x}-\mathbf{a}||_2 < \delta를 만족하는 x=(x1,,xn)\mathbf{x}=(x_1, \cdots, x_n)에 대하여 f(x1,,xn)L<ϵ|f(x_1, \cdots, x_n) - L| < \epsilon 을 만족하는 δ>0\delta > 0 이 존재할 때, LLx\mathbf{x}a\textbf{a}에 가까이 갈 때 ff극한이라 하고 다음과 같이 나타낸다.
    lim(x1,,xn)(a1,,xn)f(x1,,xn)=L\begin{aligned} \lim_{(x_1, \cdots, x_n) \to (a_1, \cdots, x_n)}f(x_1, \cdots, x_n) = L \end{aligned}

이것이 입실론ϵ\epsilon과 델타δ\delta를 이용한 전통적인 극한의 정의이다. 그런데 문제는 잘 와닿지 않는다는 것이다. 이 문제를 한번 발로 그려보겠다. (그림 편의상 일변수함수에서 그린다.)

그림에서 보듯이, 내가 특정 L 값에서 같은 크기로 ϵ\epsilon만큼의 갭을 잡았을 때 그 사이에 해당하는 값들만큼 x값에서 내가 δ\delta 크기를 잡아서 전부 Lϵ<f(x)<L+ϵL - \epsilon < f(x) < L + \epsilon 사이로 보낼 수 있다면, 그때의 LL값은 극한 값이 된다. 이와 같은 상황에서는 ϵ\epsilon값을 엄청 늘리든 엄청 작게하든 언제든 δ\delta값을 잡을 수 있다. 그런데 다음과 같은 상황에서는 δ\delta를 잡을 수 없다.

그림에서 보듯이, 내가 특정 L 값에서 같은 크기로 ϵ\epsilon만큼의 갭을 잡았는데 위 그림과 같이 값이 continuous 하지 못한 곳에서는 내가 아무리 δ\delta값을 정해도 f(x±δ)f(x\pm\delta) 값을 [Lϵ,L+ϵ][ L - \epsilon, L + \epsilon ] 사이에로 보낼 수 없다.

즉, 정리해보면 ϵ>0\epsilon>0이 어떻게 주어지더라도, xxaa 사이의 거리(δ)(\delta)를 충분히 작게 함으로써 f(x)f(x)LL 사이의 거리를 ϵ\epsilon보다 작게 할 수 있다는 것이다.

이 개념을 알고 있어야 되나 싶기는 하지만, 미분이 중요한 머신러닝에서 언젠가 필요한 기본배경이 되지 않을까 싶다.

profile
Deep Learning, Multi-Agent RL, Large Language Model, Statistics

0개의 댓글