Thm. (EVT)If $f: K \\to \\mathbb{R}$ is conti. on a compact $K \\subseteq \\mathbb{R}$, then $f$ attains a maximum and minumum value.Proof.Since $K$ i
Def. Open SetA set $O \\subseteq \\mathbb{R}$ is open if $\\forall a \\in O, \\exists V\_{\\epsilon}(a) \\subseteq O.$Thm. (Intersection and Union of
기존에 우리가 고려했던 선형모형과 달리, 다음의 모형을 고려해보자.$$\\begin{aligned}Y \\sim N(X\\beta , \\sigma^2V)\\end{aligned}$$$V$는 우리가 알고있다고 가정하고, $\\sigma^2$만 모를때, 어떻게 추정할까?
Graphical LASSO는 다음의 식을 최소화하면서 풀어나가는 방법을 일컫는다. 모형이 $Y1 ,\\dots, Y_n \\sim N (0, \\Sigma)$라고 할때, Precision Matrix $\\Theta = \\Sigma^{-1}$를 찾는 문제를 푼다.
실험계획법 때도 나오고 여기저기 나오는 이름인데, 맨날 공부하고 까먹음. 약간 왈드, 스코어 감성이다. 이번에는 안까먹을거임.$H_0 : C\\beta = 0$ 가설검정에서 F 통계량이 다음과 같이 나온다. (s는 MSE임)$$F = \\frac{(C \\hat \\b
Restricted Regression 다음의 가설검정 문제를 생각해보자. $$ H0 : C\beta = 0 \quad \textup{versus} \quad H1 : C\beta \neq 0 $$ 선형모형에서, 이런 가설검정 문제에서 LR Test를 수행하려면 좀
Def. (Monotone Likelihood Ratio)A model ${f\\theta : \\theta \\in \\Theta }$ is said to have a monotone likelihood ratio (MLR) in a statistic $T$ if,
어쩌다보니 공부하게 되었는데, 재미있는 아이디어같아서 정리한다. NeurlPS 1. Gradient Flow 먼저, Gradient Flow라는 것에 대해서 이해할 필요가 있다. 막 어려울 것은 없고, Gradient Descent를 조금 다르게 생각하는 것이다.
1. 가능도비 검정이란 >$X{1}, ... , X{n} \overset{\mathrm{r.s.}}{\sim} f(x;\theta), \; \theta \in \Theta$ >$H{0}: \theta \in \Theta{0} \; vs \; H{1}:\theta \in
1. 라오-블랙웰 정리 > $S(X)$ : Estimator for $\theta$ > $T(X)$ : Sufficient Statistic for $\theta$ > $S^\star(X) = E[S(X)|T(X)]$ 라고 하자. > >이때, 다음이 성립한다. > >
$F{n}$ : $cdf$ of $X{n}$$F$ : $cdf$ of $X$$C(F) = {x \\in R : F\\; is\\; continious \\; at \\; X}$ 이라고 하자.다음의 명제를 만족할때, 확률변수 $X{n}$이 $X$로 분포수렴한다고 한다.$