# K-MOOC

뭐어~? Coursera 강의를 한국어로 들을 수 있다고?!?! (코세라 대학에 다니고 나의 성공시대 시작됐다🎤)
좋은 강의를 찾아 찾아 삼만리.... 드디어 찾았다 내 사람 아니 코세라. . 구독권 신청 (방법은 아래에!) 강의 추천을 여러 사람들에게 받던 중* K-MOOC 와 Coursera가 콜라보* 를 했다는 소식을 들었다. 내용은 K-MOOC의 후원으로 Coursera의 강의 중 일부를 한국어로 제공한다는 것이다. 영어를 못하진 않지만 아무래도 한국인 학습자 이다보니 한국어로 배울 때 더 빨리 배울 수 있는 건 어쩔 수 없는 사실이다. 그래서 꼭 구독권을 신청해서 수강할 수 있게 되면 그동안 이어드림스쿨에서 배웠지만 체계화되지 않은 지식을 좀더 체계화할 수 있지 않을 까라는 기대를 하면서 신청하고 잊었을 찰나.... . 글로벌 강의 학습자 선정 신청하고 몇 일이 지났는지도 모를 시간이 지
Azure 엔진으로 vm 생성
💻클라우드 Application Developer > 클라우드 컴퓨팅 : 서버, 네트워크, 스토리지, 애플리케이션 등의 구성 가능한 컴퓨터 리소스가 포함된 공유 풀에 필요할 때 엑세스할 수 있는 모델 클라우드 모델 1. 퍼블릭 클라우드 공용 인터넷을 통해 제공되며 구매하려는 모든 사람이 사용할 수 있는 클라우드 ex) 마이크로소프트 애저 확장 시 자본 지출이 없으며, 앱을 신속하게 만들고 삭제 가능함 조직은 사용 항목에 대해서만 비용 지불 2. 프라이빗 클라우드 일반 대중이 아닌 일부 사용자만 인터넷 또는 사설 내부 네트워크를 통해 제공되는 서비스 시작 및 유지 관리를 위해 하드웨어 구매 조직이 리소스 및 보안 완벽하게 제어 가능

데이터베이스 보안 2주차 - DBMS
📑 2주차 - 데이버베이스 관리 시스템 (DBMS) 🤍 데이터베이스 시스템 환경 🍎 데이터 정의어 컴파일러(DDL Compiler) : 데이터 정의어로 작성된 스키마 정의 해석, 저장 데이터 관리자의 도움을 받아 새로운 데이터베이스 구축 및 스키마의 정의를 데이터 사전에 저장 🍎 데이터 조작어 프리컴파일러(DML Compiler) :응용 프로그램에 삽입된 데이터 조작어를 추출하여 DML 컴파일러에 전달. 데이터 조작어와 관련 업는 나머지 코드는 해당 언어의 컴파일러로 전달 🍎 데이터 조작어 컴파일러(DDL Compiler) : 데이터 조작어로 작성된 데이터의 삽입, 삭제, 수정, 검색 등과 같은 데이터 처리 요구를 분석하여 런타임 DB 처리가 가능할 수 있도록 해석 🍎 런타임 데이터베이스 처리기 : 저장 데이터 관리를 통해 데이터베이스에 접근, DML 컴파일러부터 전달받은 데이터 처리 요구를 DB에서 실행 🍎 트랜잭

데이터베이스 보안 1주차 - DB개요
📑 1주차 - 데이버 베이스 개요 (DB전반) 데이터 베이스 개념 파일 시스템(FS) vs DBS 데이터 베이스 추상화 레벨 데이터 모델 데이터베이스 설계 📑 데이터란? 현실 세계에서 관찰되거나 측정되어 수집된 사실 또는 값 (공유, 통합, 저장, 운영) 통합 데이터 : 데이터 중복 최소화를 통해 불일치 현상을 제거하고 데이터를 통합한 것 저장 데이터 : 컴퓨터를 통해 접근할 수 있는 저장 매체에 저장된 데이터 -> 외부 요인에 의한 물리적 손실 방지 공유 데이터 : 여러 사용자가 함께 소유하고 이용할 수 있는 공용 데이터 -> 허가된 사용자의 접근 필요 운영 데이터 : 조직의 목적 달성을 위해 사용되는 데이터 -> 유출 및 무결성 훼손 🍎 정보란? 이러한 데이터를 처리하여 의미가 있는 새로운 결과물로 만들어 낸 것 정보 시스템 : 데이터 처리를 수행하여 의사 결정자에게 유용한 정보를 만

4-5. Independence in Bayesian Networks
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Independence in Bayesian Networks 3개의 노드와 두개의 링크를 가진 모든 Bayesian network는 다음과 같이 구분할 수 있다. $$A \perp\!\!\!\!\perp B|C$$ : (a), (b), (c) $$A \,\,\cancel{\perp\!\!\!\!\perp}\,\, B|C$$ : (d) 
4-4. Bayesian Network
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Bayesian Network Bayesian Network는 DAG(유향 비순환 그래프)로서, 각각의 노드가 그 부모에 대한 조건부 확률을 갖는다는 특징이 있다. 그리고 각 노드들의 Joint Probability는 다음과 같이 조건부확률의 곱으로 나다난다. $$ P(A,B,C,D,E) = P(A)\,P(B)\,P(C|A,B)\,P(D|C)\,P(E|B,C) $$ Example 샐리의 집에 침입 알람(**A

4-3. Bayesian Inference Example
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Example 패스트푸드 체인점이 커피 원두의 종류를 바꾸려고 하고 있다. 새로운 원두의 소비자 선호도를 조사하기 위해서 회사는 무작위로 $$n=100$$의 커피 소비자 표본을 만들었다. 컵에는 $$A$$와 $$B$$로 마킹을 해두었다. 새 원두를 $$A$$에, 기존 원두를 $$B$$에 넣어 두고, 절반의 시간이 흐른후 $$A$$와 $$B$$의 순서를 바꿔두었다. 이 때, 두 원두에 대한 선호도 차이를 조사하려고 한다. Model $$\theta$$: 소비자가 새 원두를 고를 확률 $$X1, \ldots, Xn$$: 베르누이 분포에 의한 무작위 표본 (성공과 실패에 대한 분포이기 때문에 베르누이

4-2. Bayesian Inference
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Bayesian vs Frequentist 확률이란? Frequentist: 오랜 시간 관측된 상대적인 횟수 Bayesian: 주관적인 믿음의 정도 확률적 추론 공통된 사항 데이터 $$X$$에 대해 확률적 모델을 맞춘다. 데이터 $$X$$의 분포를 매개변수 $$\theta$$에 따라 맞춘다. $$\theta$$를 구하기 위해 실제 관측된 $$X=x$$를 이용한다. 데이터 생성과정에 대한 설명을 통해 최종적인 결론을 도출한다. parameter란? Frequentist: 알 수 없는 미지의 상수 Bayesian: 값을 알 수

4-1. Bayes' Theorem
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Random Experiment Random Experiment는 에측할 수 없는 결과들의 집합니다. 주사위 굴리기 주사위 세번 굴리기 동전 던지기 이러한 Random Experiment의 결과를 Outcome이라고 부른다. 이러한 Outcome들의 집합을 Event라고 부른다. 또한 모든 가능한 Outcome들의 집합을 Sample Space 라고 부른다. 주사위 굴리기의 경우 Sample Space $$S$$는 다음과 같을 것이다. $$ S=\{1,2,3,4,5,6\} $$ Probability $$P(A)$$는 이벤트 $$A$$가 일어날 확률이다. 이때 확률에 대한 공리(Axiom)가

3-5. Kernels
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Kernel Kernel들의 종류를 다시한번 보자. Linear Kernel $$ K(X^{(1)},X^{(2)}) = $$ Quadratic Kernel $$ K(X^{(1)},X^{(2)}) = ()^2 $$ Polynomial Kernel of degree d $$ K(X^{(1)},X^{(2)}) = ()^d $$ Radial Basis Function(RBF) $$ K(X^{(1)},X^{(2)}) = exp(-\gamma \|X^{(1)}-X^{(2)}\|) $

3-4. Support Vector Machine
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Soft Margin Classifier 하지만 이 방법 역시 문제가 있다. 만약 점선이 다음과 같이 분포되어있다면 Soft Margin Classifier는 다음과 같은 결과를 내버릴 것이다. Idea 비선형 decision boundary를 찾는다 점들의 분포를 바꿔본다. 점들을 새로운 공간으로 옮겨서 그들이 linearly하게 분리되도록 해본다. 
3-3. Soft Margin Classifier
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Maximal Margin Classifier 이 방법은 영역을 정확하게 자르는 것이 불가능 할 수 있다. 또한 두 번째 그림처럼 Outlier에 굉장히 민감해진다. Overfitting vs Generalization 기계학습의 목적은 주어진 데이터를 가능한한 정확히 학습하는 것이 아니다. 기계학습의 목적은 새로운 데이터에 대해서 최대한 정확하게 예측하는 것이다. 
3-2. Maximal Margin Classifier
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Classifier 다음과 같이 Blue / Pink 로 구분된 이차원 상의 점들이 있다. 새로운 점이 들어왔을 때 Blue인지, Pink인지 예측하는 문제이다. 이러한 예측을 위해 구분자를 찾아내야 하는 데, 이를 decision boundary라고 하며 다음과 같은 직선 방정식으로 정의해보자. $$ \beta0 + \beta1 X1 + \beta2 X_2 = 0 $$ 이때 생기는 문제는

3-1. Classification
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. > 춘식님께 무한한 감사를 표합니다. Artificial Intelligence 인공지능이란 컴퓨터가 지능을 갖고 있는 것처럼 만드는 것을 말한다. Machine Learning Traditional: 수동으로 규칙을 넣어 프로그램을 작성. Machine Learning: 데이터들을 통해 컴퓨터가 직접 규칙을 학습하도록 작성 1. Supervised Learning input과 output의 매핑을 학습시킨다 예: classification, regression 2. Unsupervised Learning

2-5. Convex Optimization
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Convex Function 만약 Convex Function이 아니라면 위와 같이 Local minimum에 도달할 수 있다. 하지만 Convex Function이라면 Global minimum에 도달한다는 것이 보장된다. Properties 음이 아닌 계수들만으로 이루어진 Convex Function들의 선형 결합은 Convex Function이다. 증명은 굉장히 간단하기 때문에 굳이 적지 않겠다. Convex Opt

2-4. Convex Function
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Convex set 만약 집합 내의 임의의 두 원소 $$x, y ∈ C$$ 가 있을 때, 임의의 $$0\le \theta \le 1$$에 대해 $$\theta x + (1-\theta)y ∈ C$$를 만족하면 $$C$$는 Convex set(볼록 집합)이다. 위 그림처럼 임의의 두 점을 잡아 두 점을 연결하면, 해당 선분위의 점들 모두 집합위에 포함된다. Convex Function $$f$$의 정의역(domain)이 **Conve

2-3. Stochastic Gradient Descent
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Linear Regression 이제 2-2, Optimization using GD에서 공부한 Gradient Descent를 2-1. Loss Function에서 다뤘던 Linear Regression에 적용해 보자. 우선은 식이 아래와 같을 것이다. $$ \tilde{\beta}0 = \tilde{\beta}0 - \gamma\frac ∂ {∂\beta 0}\sum^Ni(y^{(i)}-(\tilde{\beta_0} + \ti

2-2. Optimization using GD
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Optimization 특정 함수를 주어진 조건에 맞춰 최대화 또는 최소화하는 것 최대화 하는 경우 - Objective Function 최소화 하는 경우 - Loss Function 주어진 조건: Feasible region 또는 Constraint region Gradient Descent 목표: loss function을 최소화하는 것. $$ \argmin{\beta0, \beta1}\sum^Ni(y^{(i)}-(\beta0 + \beta1x^{(i)}))^2 $$ 현재 위치가 $$(\tilde{\beta}0, \tilde{\beta}1)$

2-1. Loss Function
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Problem 광고 예산에 따른 TV의 판매량을 다음과 같은 그래프로 나타내었다. 이 때, 새로운 광고 예산에 대한 TV의 판매량을 예측하는 문제이다. Data 다음과 같이 변수를 정의하자. $$X$$: TV 광고 예산 (input variable, features) $$Y$$: 판매량 (output variable, response variable) $$(x^{(i)}, y^{(i)})$$: $$i$$번째 학습 데이터 이

1-5. NMF Application
본 글은 K-MOOC의 인공지능 수학 고급(Advanced Mathematics for AI) 강의를 듣고 요약한 글입니다. Problem $$d_1$$: Romeo and Juliet $$d_2$$: Juliet O happy dagger $$d_3$$: Romeo died by dagger $$d_4$$: Live free or die that is the New-Hampshire's motto $$d_5$$: Did you know New-Hampshire is in New-England NMF를 통해서 문서들 간의 숨어있는 의미를 찾아보자. Data Representaion 이전 [1-1. Data-Representation](https://velog.io/@dnr6054/1-1-