[딥러닝수학] 지수함수 & 로그함수

Deok Jong Moon·2022년 3월 6일
0
post-thumbnail
post-custom-banner

book title : 딥러닝을 위한 수학
pages : 126 ~ 137
key concepts :

  • 지수함수
    • 밑이 0 < a < 1, 1 <= a 일 때로 나뉘는 것 같다.
    • 생각해보니 음수면 모양이 이상해지는 듯
  • 로그함수
    • 지수함수의 역함수 관계
    • 정의역이 양수 범위에서만 정의됨(지수함수의 치역이 양수 범위에서만 나오고 둘은 역함수 관계니까)
    • 공식 중에...
      • loga(1X)=logaX\log_a(\frac{1}{X}) = -\log_aX가 되는데, 이유를 생각해보자.(다른 건 직관적으로 이해됨)
      • 일단, loga(1X)=loga(X1)\log_a(\frac{1}{X}) = \log_a(X^{-1})
      • 그런데, loga(X1)\log_a(X^{-1})loglog 입장에서는 aaXX가 되게 하는 지수 곱하기 1-1이 됨(로그니까)
      • 그래서 loga(X1)=logaX\log_a(X^{-1}) = -\log_aX
    • 쓰임새 중 제일 대표적인 것 한 개는, 너무 차이가 많이 나는 서로 간의 관계를 log 변환을 통해 그 차이의 갭을 줄여서 눈으로 비교하기 쉽게 해줌(그래프에서)
  • 로그 밑변환 공식(change of base formula)
    • logbX=logbXlogbalog_bX = \frac{log_bX}{log_ba}
    • 의미는 로그함수에서는 어떤 값이 밑이 되더라도 결국 상수배만큼의 차이가 나며 그 차이의 비율이 logbalog_ba 다.
    • 뭔가 직관적으로 잘 이해가지 않는데 좀 더 찾아봐야겠다..
profile
'어떻게든 자야겠어'라는 저 아이를 닮고 싶습니다
post-custom-banner

0개의 댓글