๋จธ์ ๋ฌ๋
์ค๋ ๋จธ์ ๋ฌ๋ ๊ด๋ จ ๊ฐ์๊ฐ ์ถ๊ฐ๋ก ์ด๋ ค์ ์๊ฐํ ๋ด์ฉ์ ์ ๋ฆฌํด๋ณด๊ณ ์ ํ๋ค.
๋จธ์ ๋ฌ๋ ๊ธฐ์ด
๋จธ์ ๋ฌ๋ ๊ด๋ จ ์ฉ์ด
AI
: ์ธ๊ฐ์ ์ง๋ฅ์ ์๊ตฌํ๋ ์
๋ฌด๋ฅผ ์ํํ๊ธฐ ์ํ ์์คํ
Machine Learning
: ๊ด์ธก๋ ํจํด์ ๊ธฐ๋ฐ์ผ๋ก ์์ฌ ๊ฒฐ์ ์ ํ๊ธฐ ์ํ ์๊ณ ๋ฆฌ์ฆ
- ๋ฐ์ดํฐ ์์ง๊ณผ ์ฒ๋ฆฌ ๊ธฐ์ ์ ๋ฐ์ ์ผ๋ก ๋์ฉ๋ ๋ฐ์ดํฐ์ ํจํด์ ์ธ์ํ๊ณ ์ด๋ฅผ ๋ฐํ์ผ๋ก ์์ธก, ๋ถ๋ฅํ๋ ๋ฐฉ๋ฒ๋ก
Deep Learning
: ์ธ๊ณต์ ๊ฒฝ๋ง์ ์ด์ฉํ ๋จธ์ ๋ฌ๋
Data science
: AI๋ฅผ ํฌ๊ดํ์ฌ ํต๊ณํ๊ณผ ์ปดํจํฐ๊ณตํ์ ๋ฐํ์ผ๋ก ๋ฐ์ ํ ์ตํฉํ๋ฌธ
- ๊ณผํ โ ๊ทผ๊ฑฐ/๋ฐ์ดํฐ
Data Analysis
: ๋ฐ์ดํฐ ์ง๊ณ, ํต๊ณ ๋ถ์, ๋จธ์ ๋ฌ๋์ ํฌํจํ ํ์
โ์ ๋จธ์ ๋ฌ๋์ด ๋ฐ์ ํ์๊น?โ
- ์ธ๊ฐ์ ๋ฐ์ดํฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ ์์ฌ๊ฒฐ์ ์ ๋ด๋ฆฌ๊ณ ์ถ๊ธฐ ๋๋ฌธ.
- ์ค์๋ฅผ ์ค์ด๊ธฐ ์ํด.
- ๋ฐ์ดํฐ ์ฒ๋ฆฌ ๊ธฐ์ ์ ๋ฐ์
- ์ ์ฅ๋งค์ฒด ๊ฐ๊ฒฉ์ ํ๋ฝํ์ฌ ๋ฐ์ดํฐ ์์ง์ด ์ฉ์ดํด์ง.
- ์์ง โ ์ฒ๋ฆฌ โ ML/DL โ ์ธ์ฌ์ดํธ
ํต๊ณํ vs ๋จธ์ ๋ฌ๋
- ํต๊ณํ: ์์์์ ๋ค์๋ฅผ ์ถ์
- ๋จธ์ ๋ฌ๋: ๊ณผ๊ฑฐ์์ ๋ฏธ๋๋ฅผ ์์ธก
๋จธ์ ๋ฌ๋์ ์ข
๋ฅ
Supervised Leaning
(์ง๋ ํ์ต)
- ๋ฌธ์ ์ ์ ๋ต์ ๋ชจ๋ ์๋ ค์ฃผ๊ณ ํ์ต์ํด.
Unsupervised Learning
(๋น์ง๋ ํ์ต)
- ์ ๋ต์ ๊ฐ๋ฅด์ณ์ฃผ์ง ์๊ณ ํ์ต์ํด.
Reinforcement Learning
(๊ฐํ ํ์ต)
- ๋ณด์์ ํตํด ์์ ์ต๋ํ, ๋ฒ์ ์ต์ํํ๋ ๋ฐฉํฅ์ผ๋ก ํ์๋ฅผ ๊ฐํํ๋ ํ์ต.
Jupyter Notebook ๋จ์ถํค
- ๋จ์ถํค
- CTL + Enter: ํ์ฌ ์
์คํ
- Shift + Enter: ํ์ฌ ์
์คํ ํ ๋ค์ ์
๋ก ์ปค์ ์ฎ๊ธฐ๊ธฐ
- ์
์ ํ๋ชจ๋
A
: ํ์ฌ ์
์์ ์์ชฝ์ ์๋ก์ด ์
์ ์ถ๊ฐํ๋ค.
B
: ํ์ฌ ์
์์ ์๋์ชฝ์ ์๋ก์ด ์
์ ์ถ๊ฐํ๋ค.
DD
: ํ์ฌ ์
์ ์ญ์ ํ๋ค.
M
: ํ์ฌ ์
์ ์ฝ๋์์ ๋งํฌ๋ค์ด์ผ๋ก ๋ณ๊ฒฝํ๋ค.
Y
: ํ์ฌ ์
์ ๋งํฌ๋ค์ด์์ ์ฝ๋๋ก ๋ณ๊ฒฝํ๋ค.
C,V,X
: ๋ณต์ฌ, ๋ถ์ฌ๋ฃ๊ธฐ, ์๋ผ๋ด๊ธฐ
ํ๊ท๋ถ์ - ์ ํํ๊ท
์ ํํ๊ท ์ฉ์ด ์ ๋ฆฌ
๊ณตํต
- Y๋ ์ข
์ ๋ณ์, ๊ฒฐ๊ณผ ๋ณ์
- X๋ ๋
๋ฆฝ ๋ณ์, ์์ธ ๋ณ์, ์ค๋ช
๋ณ์
ํต๊ณํ์์ ์ฌ์ฉํ๋ ์ ํํ๊ท ์
Y=ฮฒ0โ+ฮฒ1โX+ฮต
- ฮฒ0โ: ํธํฅ(Bias)
- ฮฒ1โ: ํ๊ท ๊ณ์
- ฮต: ์ค์ฐจ(์๋ฌ), ๋ชจ๋ธ์ด ์ค๋ช
ํ์ง ๋ชปํ๋ Y์ ๋ณ๋์ฑ
๋จธ์ ๋ฌ๋/๋ฅ๋ฌ๋์์ ์ฌ์ฉํ๋ ์ ํํ๊ท ์
Y=wX+b
- w: ๊ฐ์ค์น
- b: ํธํฅ(Bias)
๋ชธ๋ฌด๊ฒ์ ํค ์ํ ๋ฐ์ดํฐ๋ฅผ ํตํด ์ ํํ๊ท ์์ ๋ง๋ค์ด๋ณด๋ฉด
- ์ํ
weights = [87,81,82,92,90,61,86,66,69,69]
heights = [187,174,179,192,188,160,179,168,168,174]
- ํ๊ท์: y = 0.86x + 109.37
- 1kg ์ฆ๊ฐํ ๋๋ง๋ค ํค๊ฐ 0.86 cm ์ฆ๊ฐํ๋ค๋ ๊ฒ์ผ๋ก ํด์
ํ๊ท๋ถ์์ ํ๊ฐ์งํ
MSE
(Mean Squared Error)
- ์๋ฌ ์ ์๋ฐฉ๋ฒ
- ๋ฐฉ๋ฒ1)ย
์๋ฌ = ์ค์ ๋ฐ์ดํฐ - ์์ธก ๋ฐ์ดํฐ
ย ๋ก ์ ์ํ๊ธฐ
- ๋ฐฉ๋ฒ2) ์๋ฌ๋ฅผ ์ ๊ณฑํ์ฌ ๋ชจ๋ ์์๋ก ๋ง๋ค๊ธฐ, ๋ค ํฉ์น๊ธฐ
- ๋ฐฉ๋ฒ3) ๋ฐ์ดํฐ๋งํผ ๋๋๊ธฐ
- ์๋ฌ ์ ์ ๋ฐฉ๋ฒ ์์ํ
- ๋ฐฉ๋ฒ1) ฮต=yiโโyiโ^โ
- ๋ฐฉ๋ฒ2) i=1โnโ(yiโโyiโ^โ)2
- ๋ฐฉ๋ฒ3) ni=1โnโ(yiโโyiโ^โ)2โ
MSE=ni=1โnโ(yiโโyiโ^โ)2โ
๊ธฐํ ํ๊ฐ ์งํ
RMSE
(Root Mean Squared Error): MSE์ Root๋ฅผ ์์ ์ ๊ณฑ ๋ ๋จ์๋ฅผ ๋ค์ ๋ง์ถ๊ธฐ RMSE=ni=1โnโ(yiโโyiโ^โ)2โโ
MAE
(Mean Absolute Error): ์ ๋ ๊ฐ์ ์ด์ฉํ์ฌ ์ค์ฐจ ๊ณ์ฐํ๊ธฐ MAE=n1โi=1โnโโฃyiโโyiโ^โโฃ
์ ํํ๊ท๋ง์ ํ๊ฐ ์งํ - R Square
R Square: ์ ์ฒด ๋ชจํ์์ ํ๊ท์ ์ผ๋ก ์ค๋ช
ํ ์ ์๋ ์ ๋๋ฅผ ๋ปํจ
- ์ด๋ค ๊ฐ์ โ์์ธกโํ๋ค๋๊ฑด ์ด๋ฆผ์ง์์ผ๋ก ํ๊ท ๊ฐ๋ณด๋จ ์์ธก์ ์ํด์ผํ๋ค๋ ๊ฒ์ ์๋ฏธ
๊ธฐ์ด ์ฉ์ด
- yiโ: ํน์ ๋ฐ์ดํฐ์ ์ค์ ๊ฐ
- yหโ: ํ๊ท ๊ฐ
- y^โ: ์์ธก, ์ถ์ ํ ๊ฐ
R Square์ ์ ์
R2=SSTSSRโ=SSR+SSESSRโ
SSR
(Sum of Squares Regression)
- ์ค๋ช
๋ ์ ๊ณฑํฉ
- ํ๊ท๋ชจ๋ธ์ด ์ค๋ช
ํ ์ ์๋ ๋ฐ์ดํฐ์ ๋ณ๋๋
SST
(Total Sum of Squares)
- ์ ์ฒด ์ ๊ณฑํฉ ๋๋ ์ด ๋ณ๋
- ๋ฐ์ดํฐ์ ์ ์ฒด ๋ณ๋๋์ ๋ํ๋ด๋ฉฐ, ์ค์ ๊ฐ๋ค์ด ํ๊ท ๊ฐ์ผ๋ก๋ถํฐ ์ผ๋ง๋ ๋จ์ด์ ธ ์๋์ง๋ฅผ ์ธก์ .
SSE
(Sum of Squares Error)
- ์์ฐจ ์ ๊ณฑํฉ
- ๋ชจ๋ธ์ด ์ค๋ช
ํ์ง ๋ชปํ ๋ณ๋๋์ ๋ํ๋
๋๋ค. ์ฆ, ์ค์ ๊ฐ๊ณผ ์์ธก ๊ฐ ์ฌ์ด์ ์ฐจ์ด๋ก ์ธํ ์ค์ฐจ
- 3๋ฒ์ ๋ฐ์ดํฐ ๊ฐ์ SST=1742,SSR=1692
- ํด๋น ๊ฐ์ ๋ํ ์ค๋ช
๋ ฅ = 94%
- ๋จ, ๋ชจ๋ ๋ฐ์ดํฐ์ ๋ํด์ ์ ๊ณ์ฐ์ ์ํ
๋ด์ผ ์ด์ด์ ์ ํํ๊ท ์ ์ฉ๋ถํฐ ์ฌํ๊น์ง ์๊ฐํ ์์ !