부스트캠프 AI Tech 2기 2주차 학습정리

naem1023·2021년 8월 13일
0

주간학습정리

목록 보기
2/9

2주차 학습정리

강의 복습 내용

DL Basic (1~17번 포스팅)

https://velog.io/@naem1023/series/DL-Basic

Data Viz (1~2번 포스팅)

https://velog.io/@naem1023/series/Data-Viz

과제 수행 과정 / 결과물 정리

저번주 선택과제 이야기를 해야겠다. 모분산, 표본분산에서 n과 n-1을 나누는 차이에 관한 의문이 피어세션 팀에서 제기됐다. 분명 대학교 확률과통계 시간에 배웠던 내용인데...

찾아보니 자유도에 관한 내용이었다.
https://brunch.co.kr/@zhoyp/174

표본추정의 경우 모수를 추정하기 위함이 목적이다. 즉, 표본분산을 구하는 이유도 모분산을 구하기 위함이다. 이 때, 표본의 n-1개의 데이터를 관측했을 때, 모수를 맞추기 위해서는 표본의 마지막 1개 데이터는 모수를 위해 맞춰줘야 한다.

즉, 표본분산은 자유도를 하나 잃게된다.

같은 논리로 여러 통계량에 대해서 자유도를 구해볼 수도 있다. 아직까지는 자유도에 대해서 1개를 잃는 것만 봐서 모르겠다..

피어세션 정리

팀원분께서 논문 리뷰를 제의해주셨다. 구현까지는 못하더라도, 같이 논문 읽어보고 내용 공유하고 구현된 코드에 대해서 리뷰를 하기로 했다. 리뷰 전에는 각자 abstract만 읽어오기로 했다. 안 그러면 이탈자가 발생한다는 후문이..

리뷰할 논문의 리스트는 다음의 링크와 멘토님께 부탁해 선택해보기로 했다.
https://www.notion.so/c3b3474d18ef4304b23ea360367a5137?v=5d763ad5773f44eb950f49de7d7671bd

학습 회고

수식과의 싸움이었던 한 주였다. 특히 parameter의 수를 센다던지, 이전의 likelihood를 활용하는 내용들은 너무 어려웠다. 컴퓨터공학과임에도 수학적 기반이 탄탄하지 못해서 발생한 문제 같다. 수식을 보는것 자체는 문제 없는데, 수식을 활용하는 것이 어려움이 많다.

다음 주에 진행되는 논문 리뷰와 더불어, transformer에 관한 내용을 대비하더라도 복습을 많이 할 필요성이 있다.

profile
https://github.com/naem1023

0개의 댓글