๐Ÿ—‚๏ธ 2024.08.08 TIL

Donghyunยท2024๋…„ 8์›” 8์ผ
0

TIL (Today I Learned)

๋ชฉ๋ก ๋ณด๊ธฐ
30/53
post-thumbnail

๋จธ์‹ ๋Ÿฌ๋‹

์˜ค๋Š˜ ๋จธ์‹ ๋Ÿฌ๋‹ ๊ด€๋ จ ๊ฐ•์˜๊ฐ€ ์ถ”๊ฐ€๋กœ ์—ด๋ ค์„œ ์ˆ˜๊ฐ•ํ•œ ๋‚ด์šฉ์„ ์ •๋ฆฌํ•ด๋ณด๊ณ ์ž ํ•œ๋‹ค.

๋จธ์‹ ๋Ÿฌ๋‹ ๊ธฐ์ดˆ

๋จธ์‹ ๋Ÿฌ๋‹ ๊ด€๋ จ ์šฉ์–ด

AI: ์ธ๊ฐ„์˜ ์ง€๋Šฅ์„ ์š”๊ตฌํ•˜๋Š” ์—…๋ฌด๋ฅผ ์ˆ˜ํ–‰ํ•˜๊ธฐ ์œ„ํ•œ ์‹œ์Šคํ…œ

Machine Learning: ๊ด€์ธก๋œ ํŒจํ„ด์„ ๊ธฐ๋ฐ˜์œผ๋กœ ์˜์‚ฌ ๊ฒฐ์ •์„ ํ•˜๊ธฐ ์œ„ํ•œ ์•Œ๊ณ ๋ฆฌ์ฆ˜

  • ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘๊ณผ ์ฒ˜๋ฆฌ ๊ธฐ์ˆ ์˜ ๋ฐœ์ „์œผ๋กœ ๋Œ€์šฉ๋Ÿ‰ ๋ฐ์ดํ„ฐ์˜ ํŒจํ„ด์„ ์ธ์‹ํ•˜๊ณ  ์ด๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ์˜ˆ์ธก, ๋ถ„๋ฅ˜ํ•˜๋Š” ๋ฐฉ๋ฒ•๋ก 

Deep Learning: ์ธ๊ณต์‹ ๊ฒฝ๋ง์„ ์ด์šฉํ•œ ๋จธ์‹ ๋Ÿฌ๋‹

Data science: AI๋ฅผ ํฌ๊ด„ํ•˜์—ฌ ํ†ต๊ณ„ํ•™๊ณผ ์ปดํ“จํ„ฐ๊ณตํ•™์„ ๋ฐ”ํƒ•์œผ๋กœ ๋ฐœ์ „ํ•œ ์œตํ•ฉํ•™๋ฌธ

  • ๊ณผํ•™ โ†’ ๊ทผ๊ฑฐ/๋ฐ์ดํ„ฐ

Data Analysis: ๋ฐ์ดํ„ฐ ์ง‘๊ณ„, ํ†ต๊ณ„ ๋ถ„์„, ๋จธ์‹ ๋Ÿฌ๋‹์„ ํฌํ•จํ•œ ํ–‰์œ„

โ€œ์™œ ๋จธ์‹ ๋Ÿฌ๋‹์ด ๋ฐœ์ „ ํ–ˆ์„๊นŒ?โ€œ

  • ์ธ๊ฐ„์€ ๋ฐ์ดํ„ฐ๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ ํ•œ ์˜์‚ฌ๊ฒฐ์ •์„ ๋‚ด๋ฆฌ๊ณ  ์‹ถ๊ธฐ ๋•Œ๋ฌธ.
    • ์‹ค์ˆ˜๋ฅผ ์ค„์ด๊ธฐ ์œ„ํ•ด.
  • ๋ฐ์ดํ„ฐ ์ฒ˜๋ฆฌ ๊ธฐ์ˆ ์˜ ๋ฐœ์ „
    • ์ €์žฅ๋งค์ฒด ๊ฐ€๊ฒฉ์˜ ํ•˜๋ฝํ•˜์—ฌ ๋ฐ์ดํ„ฐ ์ˆ˜์ง‘์ด ์šฉ์ดํ•ด์ง.
      • ์ˆ˜์ง‘ โ†’ ์ฒ˜๋ฆฌ โ†’ ML/DL โ†’ ์ธ์‚ฌ์ดํŠธ

ํ†ต๊ณ„ํ•™ vs ๋จธ์‹ ๋Ÿฌ๋‹

  • ํ†ต๊ณ„ํ•™: ์†Œ์ˆ˜์—์„œ ๋‹ค์ˆ˜๋ฅผ ์ถ”์ •
    • ์ œํ•œ๋œ ๋ฐ์ดํ„ฐ
  • ๋จธ์‹ ๋Ÿฌ๋‹: ๊ณผ๊ฑฐ์—์„œ ๋ฏธ๋ž˜๋ฅผ ์˜ˆ์ธก
    • ๋Œ€๋Ÿ‰์˜ ๋ฐ์ดํ„ฐ

๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ข…๋ฅ˜

  • Supervised Leaning(์ง€๋„ ํ•™์Šต)
    • ๋ฌธ์ œ์™€ ์ •๋‹ต์„ ๋ชจ๋‘ ์•Œ๋ ค์ฃผ๊ณ  ํ•™์Šต์‹œํ‚ด.
  • Unsupervised Learning(๋น„์ง€๋„ ํ•™์Šต)
    • ์ •๋‹ต์„ ๊ฐ€๋ฅด์ณ์ฃผ์ง€ ์•Š๊ณ  ํ•™์Šต์‹œํ‚ด.
  • Reinforcement Learning(๊ฐ•ํ™” ํ•™์Šต)
    • ๋ณด์ƒ์„ ํ†ตํ•ด ์ƒ์€ ์ตœ๋Œ€ํ™”, ๋ฒŒ์€ ์ตœ์†Œํ™”ํ•˜๋Š” ๋ฐฉํ–ฅ์œผ๋กœ ํ–‰์œ„๋ฅผ ๊ฐ•ํ™”ํ•˜๋Š” ํ•™์Šต.

Jupyter Notebook ๋‹จ์ถ•ํ‚ค

  • ๋‹จ์ถ•ํ‚ค
    • CTL + Enter: ํ˜„์žฌ ์…€ ์‹คํ–‰
    • Shift + Enter: ํ˜„์žฌ ์…€ ์‹คํ–‰ ํ›„ ๋‹ค์Œ ์…€๋กœ ์ปค์„œ ์˜ฎ๊ธฐ๊ธฐ
  • ์…€ ์„ ํƒ๋ชจ๋“œ
    • A: ํ˜„์žฌ ์…€์—์„œ ์œ„์ชฝ์— ์ƒˆ๋กœ์šด ์…€์„ ์ถ”๊ฐ€ํ•œ๋‹ค.
    • B: ํ˜„์žฌ ์…€์—์„œ ์•„๋ž˜์ชฝ์— ์ƒˆ๋กœ์šด ์…€์„ ์ถ”๊ฐ€ํ•œ๋‹ค.
    • DD: ํ˜„์žฌ ์…€์„ ์‚ญ์ œํ•œ๋‹ค.
    • M: ํ˜„์žฌ ์…€์„ ์ฝ”๋“œ์—์„œ ๋งˆํฌ๋‹ค์šด์œผ๋กœ ๋ณ€๊ฒฝํ•œ๋‹ค.
    • Y: ํ˜„์žฌ ์…€์„ ๋งˆํฌ๋‹ค์šด์—์„œ ์ฝ”๋“œ๋กœ ๋ณ€๊ฒฝํ•œ๋‹ค.
    • C,V,X: ๋ณต์‚ฌ, ๋ถ™์—ฌ๋„ฃ๊ธฐ, ์ž˜๋ผ๋‚ด๊ธฐ

ํšŒ๊ท€๋ถ„์„ - ์„ ํ˜•ํšŒ๊ท€

์„ ํ˜•ํšŒ๊ท€ ์šฉ์–ด ์ •๋ฆฌ

๊ณตํ†ต

  • Y๋Š” ์ข…์† ๋ณ€์ˆ˜, ๊ฒฐ๊ณผ ๋ณ€์ˆ˜
  • X๋Š” ๋…๋ฆฝ ๋ณ€์ˆ˜, ์›์ธ ๋ณ€์ˆ˜, ์„ค๋ช… ๋ณ€์ˆ˜

ํ†ต๊ณ„ํ•™์—์„œ ์‚ฌ์šฉํ•˜๋Š” ์„ ํ˜•ํšŒ๊ท€ ์‹

Y=ฮฒ0+ฮฒ1X+ฮตY = \beta_0 + \beta_1X + \varepsilon

  • ฮฒ0\beta_0: ํŽธํ–ฅ(Bias)
  • ฮฒ1\beta_1: ํšŒ๊ท€ ๊ณ„์ˆ˜
  • ฮต\varepsilon: ์˜ค์ฐจ(์—๋Ÿฌ), ๋ชจ๋ธ์ด ์„ค๋ช…ํ•˜์ง€ ๋ชปํ•˜๋Š” Y์˜ ๋ณ€๋™์„ฑ

๋จธ์‹ ๋Ÿฌ๋‹/๋”ฅ๋Ÿฌ๋‹์—์„œ ์‚ฌ์šฉํ•˜๋Š” ์„ ํ˜•ํšŒ๊ท€ ์‹

Y=wX+bY = wX + b

  • ww: ๊ฐ€์ค‘์น˜
  • bb: ํŽธํ–ฅ(Bias)

๋ชธ๋ฌด๊ฒŒ์™€ ํ‚ค ์ƒ˜ํ”Œ ๋ฐ์ดํ„ฐ๋ฅผ ํ†ตํ•ด ์„ ํ˜•ํšŒ๊ท€ ์‹์„ ๋งŒ๋“ค์–ด๋ณด๋ฉด

  • ์ƒ˜ํ”Œ
    weights = [87,81,82,92,90,61,86,66,69,69]
    heights = [187,174,179,192,188,160,179,168,168,174]
    • ํšŒ๊ท€์‹: y = 0.86x + 109.37
      • 1kg ์ฆ๊ฐ€ํ• ๋•Œ๋งˆ๋‹ค ํ‚ค๊ฐ€ 0.86 cm ์ฆ๊ฐ€ํ•œ๋‹ค๋Š” ๊ฒƒ์œผ๋กœ ํ•ด์„

ํšŒ๊ท€๋ถ„์„์˜ ํ‰๊ฐ€์ง€ํ‘œ

MSE (Mean Squared Error)

  • ์—๋Ÿฌ ์ •์˜๋ฐฉ๋ฒ•
    • ๋ฐฉ๋ฒ•1)ย ์—๋Ÿฌ = ์‹ค์ œ ๋ฐ์ดํ„ฐ - ์˜ˆ์ธก ๋ฐ์ดํ„ฐย ๋กœ ์ •์˜ํ•˜๊ธฐ
    • ๋ฐฉ๋ฒ•2) ์—๋Ÿฌ๋ฅผ ์ œ๊ณฑํ•˜์—ฌ ๋ชจ๋‘ ์–‘์ˆ˜๋กœ ๋งŒ๋“ค๊ธฐ, ๋‹ค ํ•ฉ์น˜๊ธฐ
    • ๋ฐฉ๋ฒ•3) ๋ฐ์ดํ„ฐ๋งŒํผ ๋‚˜๋ˆ„๊ธฐ
  • ์—๋Ÿฌ ์ •์˜ ๋ฐฉ๋ฒ• ์ˆ˜์‹ํ™”
    • ๋ฐฉ๋ฒ•1) ฮต=yiโˆ’yi^\varepsilon = y_i - \hat{y_i}
    • ๋ฐฉ๋ฒ•2) โˆ‘i=1n(yiโˆ’yi^)2\sum\limits_{i=1}^n (y_i - \hat{y_i})^2
    • ๋ฐฉ๋ฒ•3) โˆ‘i=1n(yiโˆ’yi^)2n\frac{\sum\limits_{i=1}^n (y_i - \hat{y_i})^2}{n}

MSE=โˆ‘i=1n(yiโˆ’yi^)2nMSE = \frac{\sum\limits_{i=1}^n (y_i - \hat{y_i})^2}{n}

๊ธฐํƒ€ ํ‰๊ฐ€ ์ง€ํ‘œ

  • RMSE (Root Mean Squared Error): MSE์— Root๋ฅผ ์”Œ์›Œ ์ œ๊ณฑ ๋œ ๋‹จ์œ„๋ฅผ ๋‹ค์‹œ ๋งž์ถ”๊ธฐ RMSE=โˆ‘i=1n(yiโˆ’yi^)2nRMSE = \sqrt{\frac{\sum\limits_{i=1}^n (y_i - \hat{y_i})^2}{n}}
  • MAE (Mean Absolute Error): ์ ˆ๋Œ€ ๊ฐ’์„ ์ด์šฉํ•˜์—ฌ ์˜ค์ฐจ ๊ณ„์‚ฐํ•˜๊ธฐ MAE=1nโˆ‘i=1nโˆฃyiโˆ’yi^โˆฃMAE = \frac{1}{n}\sum\limits_{i=1}^n{\left\vert y_i - \hat{y_i} \right\vert}

์„ ํ˜•ํšŒ๊ท€๋งŒ์˜ ํ‰๊ฐ€ ์ง€ํ‘œ - R Square

R Square: ์ „์ฒด ๋ชจํ˜•์—์„œ ํšŒ๊ท€์„ ์œผ๋กœ ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋Š” ์ •๋„๋ฅผ ๋œปํ•จ

  • ์–ด๋–ค ๊ฐ’์„ โ€œ์˜ˆ์ธกโ€ํ•œ๋‹ค๋Š”๊ฑด ์–ด๋ฆผ์ง์ž‘์œผ๋กœ ํ‰๊ท ๊ฐ’๋ณด๋‹จ ์˜ˆ์ธก์„ ์ž˜ํ•ด์•ผํ•œ๋‹ค๋Š” ๊ฒƒ์„ ์˜๋ฏธ

๊ธฐ์ดˆ ์šฉ์–ด

  • yiy_{i}: ํŠน์ • ๋ฐ์ดํ„ฐ์˜ ์‹ค์ œ ๊ฐ’
  • yห‰\bar{y}: ํ‰๊ท  ๊ฐ’
  • y^\hat{y}: ์˜ˆ์ธก, ์ถ”์ •ํ•œ ๊ฐ’

R Square์˜ ์ •์˜

R2=SSRSST=SSRSSR+SSER^2 = \frac{SSR}{SST} = \frac{SSR}{SSR+SSE}

  • SSR (Sum of Squares Regression)
    • ์„ค๋ช…๋œ ์ œ๊ณฑํ•ฉ
    • ํšŒ๊ท€๋ชจ๋ธ์ด ์„ค๋ช…ํ•  ์ˆ˜ ์žˆ๋Š” ๋ฐ์ดํ„ฐ์˜ ๋ณ€๋™๋Ÿ‰
  • SST (Total Sum of Squares)
    • ์ „์ฒด ์ œ๊ณฑํ•ฉ ๋˜๋Š” ์ด ๋ณ€๋™
    • ๋ฐ์ดํ„ฐ์˜ ์ „์ฒด ๋ณ€๋™๋Ÿ‰์„ ๋‚˜ํƒ€๋‚ด๋ฉฐ, ์‹ค์ œ ๊ฐ’๋“ค์ด ํ‰๊ท ๊ฐ’์œผ๋กœ๋ถ€ํ„ฐ ์–ผ๋งˆ๋‚˜ ๋–จ์–ด์ ธ ์žˆ๋Š”์ง€๋ฅผ ์ธก์ •.
  • SSE (Sum of Squares Error)
    • ์ž”์ฐจ ์ œ๊ณฑํ•ฉ
    • ๋ชจ๋ธ์ด ์„ค๋ช…ํ•˜์ง€ ๋ชปํ•œ ๋ณ€๋™๋Ÿ‰์„ ๋‚˜ํƒ€๋ƒ…๋‹ˆ๋‹ค. ์ฆ‰, ์‹ค์ œ ๊ฐ’๊ณผ ์˜ˆ์ธก ๊ฐ’ ์‚ฌ์ด์˜ ์ฐจ์ด๋กœ ์ธํ•œ ์˜ค์ฐจ

  • 3๋ฒˆ์˜ ๋ฐ์ดํ„ฐ ๊ฐ’์€ SST=1742,SSR=1692SST = 174^2, SSR = 169^2
    • ํ•ด๋‹น ๊ฐ’์— ๋Œ€ํ•œ ์„ค๋ช…๋ ฅ = 94%
    • ๋‹จ, ๋ชจ๋“  ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•ด์„œ ์œ„ ๊ณ„์‚ฐ์„ ์ˆ˜ํ–‰

๋‚ด์ผ ์ด์–ด์„œ ์„ ํ˜•ํšŒ๊ท€ ์ ์šฉ๋ถ€ํ„ฐ ์‹ฌํ™”๊นŒ์ง€ ์ˆ˜๊ฐ•ํ•  ์˜ˆ์ •!

profile
๋ฐ์ดํ„ฐ๋ถ„์„ ๊ณต๋ถ€ ์ผ๊ธฐ~!

0๊ฐœ์˜ ๋Œ“๊ธ€