# mml
[MML] Ch 2. Linear Algebra
0. Intro Vectors Definition (1) 서로 더하거나 (2) scalar를 곱하여 같은 종류의 다른 객체를 생성할 수 있는 특수한 객체 Examples of vector objects Geometric vectors (기하학적 벡터) Polynomials (다항식) Audio signals (음성 신호) Elements of $\mathbb{R}^{n}$ (n개 실수의 tuple) Linear Algebra는 이러한 벡터 개념 간의 유사성(similarities)에 집중 Closure 작은 벡터 집합에서 이들을 서로 더하거나 스케일링하여 얻을 수 있는 벡터 집합은 무엇인가? Vector Space Closure 연산을 통해서 vector space(벡터 공간)가 생성됨 1. Systems of Linear Equations 많은 문제들은 연립선형방정식(systems of linear equat

Mathematics for Machine Learning - 개요
Mathematics for Machine Learning by Marc Peter Deisenroth, A. Aldo Faisal, Cheng Soon Ong contents Introduction and motivation Linear algebra Analytic geometry Matrix decompositions Vector calculus Probability and distribution Optimization When models meet data Linear regression Dimensionality reduction with principal component analysis Density estimat
[Google AI BootCamp MML Study]9. Linear Regression(선형회귀)-Maximum Likelihood as Orthogonal Projection
이글은 Mathematics for Machine Learning 의 Chapter 6의 일부분을 정리한 글입니다. 의역이 포함되어 있으며, Google ML BootCamp 스터디에서 정리한 글을 보고 싶으시다면 이 링크를 따라가시면 됩니다. 최대 우도 함수(Maximum Likelihood Function)과 최대 사후 확률(MAP)의 기하학적 접근 최대우도 및 최대 사후 확률(MAP) 추정치를 도출하기 위해 많은 내용의 대수학을 다뤘다. 이제 최대우도 추정에 대한 기하학적 해석에 대해서 살펴보자. 일차원 데이터에 대한 기하학적인 접근 다음과 같은 간단한 선형 회귀 모델(Linear Regression)이 있다고 가정하자. $$ y = x\theta + \epsilon, \epsilon \sim \mathc

[Google AI BootCamp MML Study]9. Linear Regression(선형회귀)-Problem Formulation
이글은 Mathematics for Machine Learning 의 Chapter 6의 일부분을 정리한 글입니다. 의역이 포함되어 있으며, Google ML BootCamp 스터디에서 정리한 글을 보고 싶으시다면 이 링크를 따라가시면 됩니다. 선형 회귀 (Linear Regression)정의 우도함수 관측 노이즈($\epsilon$)가 필연적으로 발생하기 때문에 확률론적 접근법을 채택하고 우도 함수(likelihood function)를 사용하여 명시적으로 노이즈를 모델링할 것이다. 더 구체적으로 말하면 챕터 전체에서 가능도 함수라고도 불리는 우도 함수(likelihood function)를 이용해서 회귀에 대해 다룰 것이다. 우도함수(likelihood function) 우도함수를 이용한 선형회귀

[Google AI BootCamp MML Study]9. Linear Regression(선형회귀)-Introduction
이글은 Mathematics for Machine Learning 의 Chapter 6의 일부분을 정리한 글입니다. 의역이 포함되어 있으며, Google ML BootCamp 스터디에서 정리한 글을 보고 싶으시다면 이 링크를 따라가시면 됩니다. 회귀(Regression)의 정의 이번 챕터에서는 이전 Chapter 2, 5, 6, 7 개념을 이용하여 선형회귀(Linear Regression) 또는 곡선 피팅(curve fitting)에 대해서 다룰 것이다. 회귀(Regression)는 $x \in \mathbb{R}^d$ 를 만족하는 입력 $x$를 $f(x) \in R$에 맵핑하는 함수 $f$를 찾는 것을 목표로 한다. 이 챕터에서는 $x_n$이 훈련 세트(training Set)로 주어지고, 이에 상응하는 잡음(no

[Google AI BootCamp MML Study]6. Probability and Distributions(확률분포)-Sum Rule, Product Rule, and Bayes’ Theorem
배경 확률 이론는 논리적 추론의 확장으로 생각할 수 있다. 이 책의 확률의 규칙은 데이터를 충족함으로써 설계 된다.(Jaynes, 2003, 2장, Section 6.1). 확률론적 모델링(Section 8.4)은 머신러닝의 학습 방법의 원칙 및 기초를 제공한다. 일단 문제 설정 및 데이터의 불확실성에대한 확률 분포(Scection 6.2)를 정의하면, Sum Rule과 Product Rule이라는 두가지 규칙이 있는 것을 확인할 수 있다. $p(x, y)$는 확률 변수 x, y의 결합분포이다. 확률분포 $p(x)$와 $p(y)$는 대응하는 주변 분포이고, $p(y|x)$는 x가 일어났을 때 y의 조건부 확률이다. 주변 분포, 조건부 확률, 그리고 확률 분포를 이용하면 Sum Rule과 Product Rule을 도출 할 수 있다.(Section 6.2) Sum 규칙(Sum Rule) Sum 규칙(Sum Rule)은 아래와 같이 표현할 수 있다. (확률 변수 $Y$의

[Google AI BootCamp MML Study]6. Probability and Distributions(확률분포)-Discrete and Continuous Probabilities
이글은 Mathematics for Machine Learning 의 Chapter 6의 일부분을 정리한 글입니다. 의역이 포함되어 있으며, Google ML BootCamp 스터디에서 정리한 글을 보고 싶으시다면 이 링크를 따라가시면 됩니다. 확률 함수 이번 섹션에서는 섹션6.1에서 소개된 바와 같이 사건의 확률 표현 방법에 대해서 설명한다. Target Space가 이산형(Discrete)인지 혹은 연속형(Continous)인지에 따라 확률분포를 접근하는 방법이 달라진다. 확률질량함수(probability mass function) Target Space $T$가 이산형(Descrete)할 때 확률 $x \in T$f로 특정할 수 있고 확률 변수 $X$가 $P(X = x)$로 나타낼 수 있다. 이 때

1.0 Introduction and Motivation
이 시리즈는 Mathematics for Machine Learning의 내용을 번역 및 재해석해서 작성한 글입니다. 이 책의 내용에 이해를 돕는 글을 첨부하였으며 완전한 번역본이 아님을 알려드립니다. 1. Introduction and Motivation > 머신러닝의 핵심 요소 : Data, Model and Learning 머신러닝은 데이터로부터 정보를 자동적으로 추출하도록 만든 알고리즘입니다. 자동적 이라는 말에 집중해 봅시다. 이 단어가 중요한 이유는 머신러닝이 다양하고 많은 데이터에 적용할 수 있는 알고리즘을 만든다는 점에서 의미가 있습니다. 머신러닝은 데이터로부터 만들어지기 때문에, 데이터는 머신러닝에 중요합니다. 머신러닝은 다양하고 많은 데이터로부터 잠재된 패

0.1 Symbol & Notation
MML에 들어가기 앞서 일반적인 문제 해결 과정 일반적으로, 어떤 문제를 풀어 갈 때 거치는 과정이 있습니다. 그 문제가 어떤 배경 에서 나타났는지 해결하여, 성취하고자 하는 목표/목적 이 무엇인지 해결하기 위해서 어떻게 풀 것인지 해결한 Solution이타당한지/효과적인지 작든 크든, 우리는 매일 이 과정을 경헙합니다. 특히나 큰 문제 같은 경우는, 작은 문제로 나뉘게 되고 이 과정이 겹겹이 겹치면서 엄청나게 복잡하게 표현되는데요, 숫자를 다루는 학문인 수학에서도 마찬가지입니다. 이렇기 때문에, 수학에서는 기호,표현과 수식 을 많이 사용합니다. 그러니 수학을 이용하여 문제를 풀고자하는 연구자/개발자는 이 도구들을 알고 있으면, 큰 도움이 됩니다.

0.0 Introduction
MML 스터디와 동시에, 공부한 내용을 주변 엔지니어에게 소개하고자 합니다. When&Where 2020.12.28~2021.00.00 장소 : google meet Mathemathics for Machine Learning Whom did you do With? * mjy8086@korea.ac.kr - 맹준영(검수자)* jjm50625811@gmail.com diacutiepie@g.skku.edu joonkee0701@gmail.com 2015113542@dgu.ac.kr * dk99521@naver.com - 정우태(작성자)* Objective 머신러닝을