딥러닝의 철학과 본질에 대하여...
(https://www.facebook.com/yoshua.bengio/posts/2269432439828350) Yoshua Bengio의 딥러닝 정의인데 관련한 debate가 딥러닝 관련 통찰을 좀 더 clarify 해준다.
Deep Learninng == Representational Learning
internal representation
이라는 단어를 쓴다.사람의 손이 덜 간 데이터를 raw
, sensory
하다고 표현하고, 개입이 많이 들어간 데이터를 internal
, abstract
라고 한단다.
행동주의
인지주의
연결주의(Connectionism)
딥러닝 알고리즘은 결국 거대한 함수이다.
"Inductive Bias
란 데이터를 설명할 수 있는 최적의 함수가 특정한 함수 공간에 존재할 것이라는 가설이다." (출처 : 아이펠)
feature가 많다고 해서 좋은 건 아닌 것 같다.
XAI(Explainable AI)의 중요성 대두...
The Bitter Lesson...(링크)
: 요지는 인공지능에 쏟아부었던 노력보다 하드웨어의 발전이 인공지능의 도약을 더 도와줬다....
로지스틱함수(시그모이드 함수)의 의미는 분류 문제이지만 연속적인 그래프에서 확률적인 값으로 나타나기 때문에 값이 연속적
일 수 있다는 것이다.
비트 연산자
: boolean indexing 조건으로 할 때 and
대신 &
를 써야 하는 이유는 and
면 [True, False, True....]
이런 식 두 개 전체가 True인 것에서 봐야 하는지 요소별로 봐야하는지 의미가 애매모호하다는 것이다.
: 그래서 이 때는 비트연산자를 써줘서 요소별로 봐줘야 함
최적화가 한 번에 안 되는 이유
: 데이터를 전부 다 안 상태여도 그것에 제일 맞는 '식'은 우리가 주지 않았으니까.
: 그 식이 한번에 있으려면 가중치가 한번에 주어져야 하는데,
: 제일 첫 가중치는 랜덤으로 주어지고, 이것이 딱 최적의 가중치일 확률은 거의 0%니까...
: 그래서 랜덤한 첫 가중치로부터 최적화를 해가는 것 같다.
Stochastic Gradient Descent는 결국엔 Optimization 방법이다.
: 그런데 이것이 Classifier나 Regressor스러운 알고리즘과 합쳐진 모델을 싸이킷런에서 만들었고 그것들의 클래스 이름이 SGDClassifer나 SGDRegressor이다.
SGD는 이 링크가 진짜 좋은 것 같다.
(https://towardsdatascience.com/stochastic-gradient-descent-explained-in-real-life-predicting-your-pizzas-cooking-time-b7639d5e6a32)
그나저나...Exploration 5도 험난함이 예상된다...
-> 캐글에 제출했는데 갑자기 스코어가 50만점이 넘는 건 뭐지...