현재까지 배운 내용을 review하는 세션을 진행하였다.
사실 머신러닝 까지는 학부나 대학원 때 곧잘 다뤄봤던 것이라서,
잘하는 편은 아니어도 눈에 많이 익긴 하다. 딥러닝(MLP, CNN, RNN)이나
언어모델(LLM) 같은 공부를 해도 아직 눈에 익지는 않았다.

01. 기억해 두면 좋을 내용

  • Bagging 과 Boosting

  • Decision Tree(의사결정나무)

    • 자식노드, 부모노드, 리프
    • 지니 불순도
  • Random Forest(랜덤 포레스트)

    • Decision Tree의 과적합(overfitting)문제를 해결하고자 함
    • X feature도 random하게 선택
  • Gradient Boosting

  • XG Boosting

profile
2025화이팅!

0개의 댓글