오늘은 다른 팀들의 소개도 보고, 우리 팀도 소개했다.
정말 다양한 사람들이 있었고, 다른 팀 사람들과도 친해져보고 싶단 생각이 들었다 :)
종종 써봤지만 아직은 익숙지 않은 Pandas,,!
indexing
loc
과 iloc
의 차이를 아는가 ?
loc
: 인덱스 이름 -> 할당할 때 자주 쓰임
iloc
: 인덱스 번호
라고 한다.
selection
Dataframe
에서 데이터를 가져올 때, 리스트 형식으로 여러 feature들을 넣어서 여러 series를 가져올 수 있다.
new_df = df[['col1','col2','col3']]
또한, boolean index
로도 값을 가져올 수 있다.
inplace
이 옵션을 True
로 설정해주면 Dataframe
내에서 값 자체를 바꾼다,,! 신기
내장함수가 너무 많다,,!!!
역시나 numpy처럼 필요한 기능이 있으면 찾아서 써야할 것 같다.
몰랐는데, 베타를 이용한 연산으로도 경사 하강법이 가능했다.
베타 그래디언트
를 사용해서 가능하다
softmax
각 요소가 어디에 분류될지 확률벡터로 알려줌!
학습할 땐 softmax
를 쓰지만 추론할 땐 one hot
사용
출력할 때 모든 값을 고려함. 활성함수는 한 요소에만!
전공수업으로 확률및랜덤프로세스
를 수강하긴 했지만, 사실 이게 딥러닝에 도움이 될 지는 의문이 든 채로 수업을 들었다. 이번 강의를 들어보니 확률론은 머신러닝의 근간이 되는 개념 중에 하나라는 것이라는 생각이 들었다.
조건부 확률과 기계학습
딥러닝은 다층신경망을 사용하여 데이터로부터 특징패턴 φ 을 추출한다.
몬테카를로 샘플링
개념적으로는 알고 있었는데, 딥러닝에도 사용될 수 있다는 것은 처음 알았다.
이 링크에서는 시뮬레이션도 볼 수 있어 이해가 더 쉬울 것 같다.
독립추출만 보장 된다면, 대수의 법칙에 의해 그 값이 수렴한다.
서두르지 말고,
한 발짝씩 나아가기