22.05.27의 기록

신현호·2022년 5월 27일
2

회고

목록 보기
1/1
post-thumbnail

나중에 보면 부끄러울지도(?) 모르는 자문자답

요새 뭐하고 지내?

요즘은 코드스테이츠 AI 부트캠프에서 공부를 하고 있어.
이제 막 두 달이 지났구 머신러닝에 대해 조금 배웠어.


공부하는건 잘 맞아?

나름? 인공지능이 수학을 기반으로 하고 있어서 재밌는 것 같아. 웹 백엔드는 수학이랑 관련이 하나도 없어서 아쉬웠었는데.
이대로라면 나 몇년 후에 정말 멋진 데이터사이언티스트가 되어있을지도?


교육과정은 어때? 너 교육에 대해 되게 까다롭잖아.

아쉬운 점은 있지만 그래도 괜찮은 것 같아.
첫 달 교육과정은 정말 별로여서 과정을 그만둘까 고민도 많이 했었는데 둘째 달 교육과정은 좋았어.
근데 사실 이건 교육과정이 좋아서라기보다는 담당 코치님이 잘 이끌어줘서인 것 같긴 하지만...

그래도 첫 달보다 둘째 달 교육과정이 훨씬 좋았던 만큼 앞으로의 교육과정이 기대돼.
그리고 매달 코치님이 바뀌는데 다음달 코치님이 뭔가 재밌어보이더라구... 프로명언러
그래서 다음주부터 시작될 셋째 달 교육과정이 뭔가 기대돼.


둘째 달 교육과정이 되게 좋았나보네. 어떤 것들을 배웠어?

머신러닝, 그 중에서도 지도학습에 대해 전반적으로 배웠어.
지도학습은 정답, 즉 실제값이 주어진 상황에서 예측값과 실제값 사이의 에러를 최소화하는 예측 알고리즘을 찾아가는 과정인데
다양한 상황에서 에러를 어떻게 자연스럽게 정의할지, 또 이 에러를 최소화하기 위해 구체적으로 어떤 방법을 사용할지에 대해 다양한 아이디어들을 배웠어. 되게 재밌는 아이디어가 많더라.

특히 Logistic Regression 에서 에러를 정의하는 방식이 재미있었어.
ln(예측이  모두  맞을  확률)\qquad -\ln(예측이\;모두\;맞을\;확률)
로 정의하더라구.

이게 맞는진 모르겠지만 회귀모델에서의 에러는 보통
(예측값실제값)2\qquad (예측값 - 실제값)^2 의 합
으로 정의하는 경우가 많고,

분류모델에서의 에러는
ln(예측이  모두  맞을  확률)\qquad -\ln(예측이\;모두\;맞을\;확률)
로 정의하는 경우가 많은 것 같아.

연속형 값과 확률값은 서로 다르니까 에러도 서로 다르게 정의하는게 자연스러운 것 같아.


그리구 트리 기반 모델들의 아이디어도 재밌었어. RandomForest 의 아이디어가 특히 재미있었는데 수많은 weak learner 들의 앙상블을 통해 결과를 낸다는게 뭔가 사회의 모습을 보는 것 같았거든.


재밌었던 일 있어?

몇몇 동기분들과 스터디를 하구 있는데 그게 제일 재밌는 것 같아.
배운 내용을 언어적으로 풀어낼 수 있는 기회가 학습에 정말 많은 도움이 돼.
또 같은 주제로 공부하는 동료가 있다는 것두 정말 큰 힘이 되더라구.


그건 그렇구 스터디원분들과 얘기하다가 어떤 한 분의 꿈을 듣게 됐는데 되게 인상적이었어.
그분은 달에 묻히는게 꿈이라고 하더라구.

마침 새벽이어서 떠오른 영감을 메모장에 남겨놨어. 나중에 소설 쓸 때 써먹어야지.

"스즈미, 너는 꿈이 뭐야?"

"난 달에 묻히는게 꿈이야. 사람들의 마음 속에 남고 싶거든. 모든 이의 마음 속에는 달이 있으니까."


마지막 한 마디?

느리고 둔한 말도 준마의 하룻길을 열흘에는 갈 수 있다는 속담이 있던데...
그러면 나는 준마 할래요. 그래서 하루만 일하고 아흘은 놀아야지.

profile
수학요정니모

0개의 댓글