command + shift + E
\subset:
\supset:
\leq:
\geq:
\sqrt{x}:
e^{x}:
임계점 극값
열린구간 (0, 1) 0 < x < 1
닫힌구간 [0,1] 0 x 1
닫힌구간일 때 최대, 최솟값 찾는 알고리즘은 쉽다.
임계점만 구해서 그 중에서 알아내면 된다.
최대-최소 정리 1
닫힌 구간 [a,b]에서 정의된 연속 함수는 반드시 최댓값과 최솟값을 가진다.
이 최댓값과 최솟값은 임계점이나 구간의 끝점 a와 b에서 발생할 수 있다.
최대-최소 정리 2
열린구간에서 임계점이 유일한 경우, 극솟값이면 최솟값이고 극댓값이면 최댓값이다.
,
이 관계는 가 아주 작을 때 성립합니다. 가 매우 작아지면, 함수의 변화량 와 접선의 변화량 가 거의 동일하게 되며, 따라서 함수의 곡선이 직선(접선)에 의해 근사될 수 있다는 것을 의미합니다.
는 실제 변화량이고, 는 근사적 변화량이지만, 가 작을수록 두 값이 비슷해집니다.
Δy를 구하는 것보다 Δx 충분히 작을 때 dy를 구해서 Δy를 계산하면 거의 비슷하다.
어려운 계산을 손으로도 쉽게 풀 수 있다.
ex) dx를 아주 작은 값, a를 계산하기 편한 값
미분이 가능하다면 복잡한 곡선을 단순한 선형으로 볼 수 있다는 것이고 기울기를 통해 변수들 간의 상관관계를 알 수 있다. x의 변화량에 따른 y를 예측이 가능하다는 것이다.
인생은 선택의 연속이며, 우리는 매 순간 다양한 길 앞에 서게 된다. 선택마다의 결과가 우리의 길을 조금씩 다르게 만든다.
머신러닝도 마찬가지다. 수많은 선택지 속에서 가능성을 탐색하며, 그 결과들을 끊임없이 학습한다. 마치 인생의 길을 걷듯, 최종 목표에 다가가기 위해 최선의 길을 찾아가는 과정이다. 어마어마한 갈림길 속에서, 각각의 선택을 선형 근사로 평가하며, 가장 바람직한 방향으로 나아가는 것.
머신러닝은 이토록 방대한 가능성의 바다 속에서도, 최적의 길을 걸어 원하는 목표에 도달하려는 여정이다.
머신러닝은 마치 목적지로 가는 가장 빠르고 효율적인 지도를 만들어가는 과정과 같다는 생각이 든다.