μ΄μ λλμ΄ νμ΅μ νλ€λ μΈ‘λ©΄μμ λ₯λ¬λμ μ μ¬ν λΆλΆκΉμ§ μ¨ κ² κ°λ€!
λ€μκ°μ λ°°μ°κ² μ§λ§ νΌμ
νΈλ‘ μ λ°°μ°κ³ , Neural Networkλ₯Ό λ°°μ°λ©΄...μ§μ§ λ₯ν΄μ§λ κ²μΌλ‘ μλ€.
μΈκ³΅μ§λ₯μ λ§λ³΄κΈ°λ‘ λ°°μ΄μ§λΌ μ ννλ λͺ¨λ₯΄λ, CNN, RNN, GCN, GAN..μκ°λ§μΌλ‘ μ΄μ§λ¬μ΄....
Linear Regression
μμRegression
λΆν° μ΄ν΄λ³΄μ!Regression
μ 무μμΌκΉ?
- νκ· λΆμ
- μλ£ λΆμμ μν ν΅κ³νμ λ°©λ²
- μ£Όμ΄μ§ μλ£μ κ²½ν₯μ±(μ’ν νλ©΄μμμ
data
λ€μ΄ λνλ΄λ νν)λ₯Ό λΆμνμ¬ μ΄λ¬νdata
λ€ μ¬μ΄μμκ΄κ΄κ³
λ₯Ό μΆμ - μνμ λͺ¨λΈμ κ°μ νκ³ , μ£Όμ΄μ§ μλ£λ€μ μ¬μ©νμ¬ μ΄ λͺ¨λΈμ νλΌλ―Έν°λ₯Ό κ²°μ
- λνμ μΌλ‘
μ ννκ·
μλ‘μ§μ€ν± νκ·
κ° μλ€.
μ ννκ·
λμμΈ‘
μλ‘μ§μ€ν± νκ·
λλΆλ₯
μ μ¬μ©λλ€. (μ΄λ¬ν κ°λ μ μμλμ)
μ΄ν΄νλ€λ©΄ λν λμ μκ² λ€λ§, λ§μ΄ μ‘°κΈ μ΄λ €μ΄κ°?
μ°λ¦¬λ μ ν νκ· λΆμ
λΆν° μμλ³Ό κ²μ΄λ―λ‘, μ ννκ·
λ₯Ό κΈ°μ€μΌλ‘ μ½κ² μ΄ν΄ν΄λ³΄μ.
(μ¬μ€ μ ννκ·λ₯Ό μκ³ λλ©΄ λ‘μ§μ€ν± νκ·
λν ν¬κ² λ€λ₯Ό λΉ μλ€)
μ½κ² λ§ν΄, μ¬μ©νκ³ μ νλ μνμ λͺ¨λΈ ( / μΌμ°¨μμ΄λ―λ‘ μ )μ κ°μ νκ³ , μ£Όμ΄μ§
data
λ€λ‘ νμ¬κΈ μ΄λ¬νdata
λ€μ κ°μ₯ μ λνλΌ μ μλ(μ ν©ν) μ μ μ°Ύλ κ³Όμ . μ΄λ¬ν κ³Όμ μ 곧 νμ΅μ΄λΌκ³ νλ€.
(κΈ°μΈκΈ°)μ (yμ νΈ - biasλΌκ³ ν¨)μ
data
λ€μ κ°μ₯ μ ννν μ μλ μ μ΄ λλλ‘ μ μ΄λνλ©° μ‘°μ νλ κ²!
μ κ·Έλ¦Όμ²λΌ λ°μ΄ν°λ€μ κ°μ₯ μ νννλμ§μ
(Linear)μ μ°Ύμ!
ν κ° μ΄μμ λ 립 λ³μ()μ μ’ μ λ³μ() μ¬μ΄μ μ ν μκ΄ κ΄κ³λ₯Ό μ λ΅μ μΌλ‘ μΆμ νλ νκ· λΆμ λ°©λ²
μ¦ μ λ°λΌμ κ° κ²°μ λλ€.
- λ 립 λ³μ : βxκ°μ΄ λ³ν¨μ λ°λΌ yκ°λ λ³νλ€β μ μ νμμ λ 립μ μΌλ‘ λ³ν μ μλ xκ°
- μ’ μ λ³μ : λ 립 λ³μμ λ°λΌ μ’ μμ μΌλ‘ λ³νλ κ°
μ κ·ΈλΌ μμΌλ‘ ννν΄λ³΄μ. μ¬μ€ μ°λ¦¬λ μ΄λ―Έ μμ λ΄€μλ€.
- λ€μκ³Ό κ°μ μμμΌλ‘ ννλλ€!
μ¬μ€μ μμ λ¨μν νννλ λ³μλ§ μ‘°κΈμ© λ°λμμ λΏ λμΌνλ€.
w
λ κ°μ€μΉ(κΈ°μΈκΈ°)λ₯Ό λνλ΄κ³b
λ λ°μ΄μ΄μ€(yμ νΈ)μ λνλΈλ€.
μ½κ²λ§ν΄ κ·Έμ νλμ 1μ°¨ν¨μ(μ§μ = Linear)μΌ λΏμ΄λ€.
- μΌλ°μ μΌλ‘ λ°λ³΅μ μΈ λ°©λ²μ΄ λΆμμ μΈ λ°©λ²λ³΄λ€ λ μ ν©ν parameta(κΈ°μΈκΈ°, yμ νΈ)λ₯Ό μ°Ύμ μ μλ€.
μ μ΄ν΄κ° λμ§ μμλ μκ΄μλ€. λ°λ‘ μλ
Linear Regression μμ
λ₯Ό ν΅ν΄ κ°μ λ§μ μμΈν μμ νλ€.
μ ν νκ·
λ μμ λ§νλ―, μμΈ‘
μ μ¬μ©λκ³ μ΄ν λ°°μ°κ² λ λ‘μ§μ€ν± νκ·
λ λΆλ₯
μ μ¬μ©λλ€.
μ κ·ΈλΌ μ ννκ·
λ₯Ό ν΅ν΄ 곡λΆμκ°μ λν μ±μ μ μμΈ‘
ν΄λ³΄μ.
λ€μκ³Ό κ°μ 곡λΆμκ°/μ±μ μ κ΄ν dataκ° μμ λ, μ΄λ₯Ό μ’ννλ©΄μμ λνλ΄λ©΄ λ€μκ³Ό κ°μ΄ λνλλ€.
μ¬κΈ°μ 곡λΆμκ°μ΄ μ±μ μ λ‘ ννλλ€. μ¦, 곡λΆμκ°μ΄ μ±μ μ μν₯(λ³ν)λ₯Ό λΌμΉλ―λ‘λ 립λ³μ
λ 곡λΆμκ°,μ’ μλ³μ
λ μ±μ μ΄ λλ€.
κ·Έλ¦¬κ³ λμ μ°λ¦¬λ κ°μ€μ μΈμ°κ² λλ€.
κ°μ€μ΄λΌκ³ ν΄μΌ κ±°μ°½ν κ²μ μκ³ , μ΄λ¬ν λ°μ΄ν°λ₯Ό κ°μ₯ μ ννν μ μμκ²μ΄λΌ μμλλ μμμ μ§μ μ νλ κΈλ κ²μ΄λ€.
- μμμ μ§μ λ₯Ό μ μνλ€.
μ¬λ¬κ°μ§ κ°μ€ μ€ λΉ¨κ°μ μ μ΄ κ°μ₯ λ°μ΄ν°λ€μ κ°κΉκ² μ νννλ κ² κ°λ€.
κ·ΈλΌ μ λΉ¨κ°μ μ΄ κ°μ₯ μ νννλ κ² κ°μκ°?
μ νννλ€μ κΈ°μ€μ μ€μ λ°μ΄ν°μμμ€μ°¨
κ° λλ€.
μ€μ°¨
λ κ°μ€μ μΈμ΄ μ κ³Ό μ€μ λ°μ΄ν°κ°μ 거리μ μ°¨λ€.λ°λΌμ λΉ¨κ° μ μ΄ κ°μ₯ μ νννλ κ² κ°λ€κ³ μ°λ¦¬λ μκ°ν μ μλ€!
νλ μ λ¬ν μ μ λλ΅μ μΌλ‘ κ·Έμ κ²μ΄κ³ , κ°μ₯ μ νννλ λΉ¨κ° μ μ μ€μ λ‘ κ΅¬νλ λ°©λ²μ κ·ΈλΌ μ΄λ»κ² λ κΉ? λ°λ‘ μ΅μ μ κ³±λ²μ μ΄μ©νλ€.
μ΅μμ κ³±λ²μ΄λ?
κ·Όμ¬μ μΌλ‘ ꡬνλ €λ ν΄μ μ€μ ν΄μ μ€μ°¨μ μ κ³±μ ν©μ΄ μ΅μκ° λλ ν΄λ₯Ό ꡬνλ λ°©λ²
- Q. μ κ³±μνλ μ΄μ λ λκ°μ?
A. μ λ³΄λ€ μμ μμ μλ, μλ μμ μλ μκΈ°μ κ° μ€μ°¨μμμ λΆνΈ(-/+)μ°¨μ΄λ₯Ό μμ κΈ° μν΄μμ΄λ€.- Q. ν©μ μ ν©μΈκ°μ?
A. κ° λ°μ΄ν°λ§λ€ μ€μ°¨λ κ°κ° λ°μνκΈ° λλ¬Έμ μ 체 λ°μ΄ν°μμ λ°μν μ€μ°¨λ₯Ό μ λΆ λν΄μ£Όλ κ²μ μλ―Έ.
μ΅μμ κ³±λ²μ μ¬μ©ν κ·Όμ¬μ μΈ μ μ ꡬνλ λ°©λ² 2κ°μ§
- μμ°¨ μ κ³±ν©(RSS: Residual Sum of Squares)μ μ΅μννλ κ°μ€μΉμ λ°μ΄μ΄μ€ ꡬν¨
- μμ°¨ μ κ³±ν©μ κ·Έλ λμΈνΈ(gradient) 벑ν°κ° 0μ΄ λλλ‘ ν¨ (
Gradient descent
)
- μ¬κΈ°μλ λ°©λ² 1μ μ¬μ©νλ€. / λ°©λ²2λ
Gradient descent
ννΈμμ κΈ°μ
λ°μ΄ν°κ° κ°μ§κ³ μλ μ€μ κ°(y)μμ μμΈ‘ν μ§μ μ λΊ κ°.
μμΈ‘κ°μ μ¦, μμΈ‘ν μ μ λν΄μ x κ°μ λμ ν΄μ λμ¨ y κ²°κ³Όκ°μ μλ―Ένλ€.
μ, μ΄μ μ΅μμ κ³±λ²μ μμμΌλ μ΄λ₯Ό μ΄μ©ν΄μ, λͺ¨λΈ(Linear)λ₯Ό κ³μ°ν΄ 보μ.
- λ€μκ³Ό κ°μ μμ μ¬μ©ν΄μ
data
λ€μ κ°μ₯ μ νννλ κΈ°μΈκΈ° λ°, μ νΈμ μΆμ ν μ μλ€.- μ¬κΈ°μ μ νΈ(b)λ₯Ό ꡬν λ, κΈ°μΈκΈ°()κ° μ¬μ©λλ κ²μ μ£Όμνμ. β λ‘ μΉνλμ΄ νκΈ°λ¨
- μ μμ μ¬μ©ν΄μ ,μ λν νκ· /κΈ°μΈκΈ°/μ νΈμ ꡬν μ μκ³ , μ΅μ’ μ μΈ μΆμ λ
μ
μ ꡬν μ μλ€.
- μ΄λ₯Ό νμ΄μ¬ μ½λλ‘ κ³μ°νλ©΄ λ€μκ³Ό κ°λ€.
#볡μ¬μ© μ½λ import numpy as np x = [2, 4, 6, 8] y = [81, 93, 91, 97] #xμ yμ νκ· κ° mx = np.mean(x) my = np.mean(y) print("xμ yμ νκ· κ°:", mx, my) #κΈ°μΈκΈ° 곡μμ λΆλͺ¨ divisor = sum([(mx - i)**2 for i in x]) #κΈ°μΈκΈ° 곡μμ λΆμ dividend = np.sum([(mx-xi)*(my-yi) for xi, yi in zip(x, y)]) print("λΆλͺ¨μ λΆμ:", divisor, dividend) #κΈ°μΈκΈ°μ y μ νΈ a = dividend / divisor b = my - (mx*a) print("κΈ°μΈκΈ°μ y μ νΈ:", a, b)
- μ½λ μ€ν κ²°κ³Ό
xμ yμ νκ· κ°: 5.0 90.5
λΆλͺ¨μ λΆμ: 20.0 46.0
κΈ°μΈκΈ°μ y μ νΈ: 2.3 79.0
λΉμ°νμ§λ§ μμΌλ‘ κ³μ°ν κ²°κ³Όμ λμΌν κ²μ μ μ μλ€.
- μμ€ν¨μ? λΉμ©ν¨μ?
μμ€ν¨μ
λ ν κ°μ dataμ λν loss(μ€μ°¨)λΉμ©ν¨μ
λ λͺ¨λ dataμ λν loss(μ€μ°¨)μ νκ·
π μ½κ² λ§ν΄λΉμ©ν¨μ
λ,μμ€ν¨μ
λ₯Ό μ λΆ λν΄μ νκ· μ λΈ κ²
μ΄λ₯Ό MSE(Mean Square Error: νκ· μ κ³±μ€μ°¨)λΌκ³ νλ€.
- μ€μ°¨λ₯Ό ꡬνλ λ°©λ²
- = μμΈ‘ κ° = μΆμ ν μ§μ μ κ²°κ³Ό yκ° = ) - μ€μ λ°μ΄ν°μ κ²°κ³Ό κ° κ³μ° ν μ κ³±
π ex.) μ€μ λ°μ΄ν° (2, 4)λΌλ κ°μ΄ μλ κ²½μ°, μΆμ μ§μ μ 2λ₯Ό λμ νμ¬ λμ¨ y κ°μ΄ μμΈ‘κ°()μ΄ λκ³ , μ€μ λ°μ΄ν°μ κ²°κ³Όκ° λ 4μ΄λ€. μ΄λ₯Ό λΉΌμ£Όκ³ μ κ³±νλ€.
- νκ· μ κ³± μ€μ°¨(MSE : Mean Square Error)λ₯Ό Cost functionμΌλ‘ μ¬μ©νλ€
μ λ§μ§λ§μΌλ‘, κΉλνκ² λ€μ μ 리ν΄λ³΄μ.
μ,Linear regression
μ΄λμ ν νκ·
λ₯Ό ν΅ν΄ μ΅μ μ Modelμ μΆμ νλ κ³Όμ μ΄λ€.
μμ€ν¨μλ λ°μ΄ν°μ μμΈ‘ ν¨μ κ° μ€μ°¨λ₯Ό κΈ°λ°μΌλ‘ μ λλλ€.
λΉμ©ν¨μλ μ΄λ¬ν μμ€ν¨μλ₯Ό κΈ°λ°μΌλ‘ μ λλλ€.
λ°λΌμ, λΉμ©ν¨μ μ κ°μ΄ μ΅μκ° λλ€λ©΄ "λͺ¨λ dataμ λν μ€μ°¨λ₯Ό μ΅μν"νλ κ²μ΄λΌκ³ ν μ μλ€.
μ΄κ±Έλ‘ μ ννκ·μ λν΄μ μμ보μλ€.
λ€μ part06μμλ "2. μμ°¨ μ κ³±ν©μ κ·Έλ λμΈνΈ(gradient) 벑ν°κ° 0μ΄ λλλ‘ ν¨" νλGradient Desent
μ λν΄μ μμ보λλ‘ νμ. π΅