Notation $\mathcal{X}$, $\mathcal{Y}$ : 각각 Input value와 Output value의 Space $(x^{(i)},\:y^{(i)})$ : Training example로, $x^{(i)}$은 Feature, $y^{(i)}$은
Machine Learning에서 가장 중요한 부분 중 하나는 어떤 알고리즘 (혹은 어떤 losss)가 어떤 Complexity를 가지는지, 그리고 Loss가 Uniform convergence하는지 입니다.그렇기 때문에 일반적으로 data distribution $p
Part I에 이어, 추가적으로 Concentration Inequality에 대해서 이야기해봅시다. (Cont'd) Sub-gaussian Review 가볍게 sub-gaussian이 무엇인지에 대한 정의부터 다시 언급해보죠 sub-gaussian Random Va