νμ¬κΉμ§λ μ¦ ν κ°μ§ λ 립λ³μλ₯Ό ν΅ν΄, μ’ μλ³μ λ₯Ό ꡬνμλ€.
feature
κ° μλ μ μ ν μ‘°μ μ μ¬μ©λλ λ¨μν νλΌλ―Έν°μ΄λ―λ‘ μ μΈ)μλ₯Όλ€μ΄, νμμ 곡λΆμκ° μ΄λΌλ x
λ°μ΄ν° νλλ§μΌλ‘ κ³Όλͺ©μ μ y
λ₯Ό μ§κΈκΉμ§ μμΈ‘ν κ²μ΄λ€.
μ΄κ²λ§μΌλ‘ μΆ©λΆν κ³Όλͺ©μ μ yλ₯Ό μ μμΈ‘ν μ μμκΉ?
λΉμ°ν 곡λΆμκ°, κ²°μμΌ, μ§μ€λ, 컨λμ
.. λ± λ§μ μμ μ¦, feature
λ€μ ν¬ν¨ νλ€λ©΄ λ μ νν κ³Όλͺ©μ μ y
λ₯Ό μμΈ‘ν μ μμ κ²μ΄λ€.
λ°λΌμ μ΄λ² part07μμλ μ΄λ¬ν feature
κ°μ΄ μ¬λ¬κ°μΈ Multi-Variate Linear Regression (λ€μ€ μ ν νκ·) λ₯Ό μμ보μ!
곡λΆμκ°, κ²°μμΌ 2κ°μ§μ feautreμ ν΅ν΄ κ³Όλͺ©μ μ yλ₯Ό μμΈ‘νλ λͺ¨λΈμ λ§λ λ€κ³ κ°μ νμ.
- μ΄μ κ°μ μν λ°μ΄ν°(νμ΅ λ°μ΄ν°)λ₯Ό νμ©νμ¬ μ°λ¦¬λ
λ€μ€ μ ν νκ·
λ₯Ό μννκ³ , μ μ νμμΈ‘ λͺ¨λΈ
μ λ§λλ κ²μ΄ λͺ©μ μ΄λ€.- κ·Έμ λ³μκ° νλ μΆκ°λμμ λΏ, μ ν νκ·μ λμΌνλ€ μ½κ² μκ°νμ!
μμμ λ€μκ³Ό κ°λ€.
- μμΈ‘μ μμ΄ νλμ featureκ° μμ λλ λ¨μν λ³μλ‘ μ°λ, 2κ°μ΄μμ λ³μκ° μ¬μ©λ λλ μ΄λ€μ λ¬Άμ΄
벑ν°ν
μν€κ³ λλ¬Έμλ‘ νννλ€.
- λ₯Ό λ―μ΄λ³΄λ©΄ λ³ κ±° μλ€.
λ¨μν κΈΈκ² μ°κΈ° μ«μ΄μ μ€μΈ κ±°λΌ μκ°νλ©΄ λλ€.
feture
, μλ κ°κ°μweight
κ° λΆλλ€. (μ‘°μ λ κ°μ΄λκΉ λΉμ°)
벑ν°ν
κ° μ΄λ»κ² μ΄λ£¨μ΄ μ‘κΈΈλ, μ μμ΄ μ μμ΄λ κ°μ κ²μΈμ§ κΆκΈνμ§ μμκ°?
κ·Έλ λ€ λλ μ κΆκΈνλ€. κ·Έλλ feautre
κ° λ§μμ§λλλ‘, κ·Έκ±Έ κΈΈκ² λλ μμ΄ μΈ μλ μλ€.
κ·Έλ κΈ°μ μμμΌ ν κ²μ΄λ€. μμλλλ‘ νμ.
μ½κ² μ΄ν΄νκΈ° μν΄ bλ₯Ό μλ΅νκ³ μκ°ν΄λ³΄μ
weightμ biasλ₯Ό λ₯Ό κ°κ° λ¬Άμ΄ νλ ¬ κ³± ννμ μ μ¬νκ² λνλΌ μ μλ€. μ΄λ μ°μ°κ²°κ³Ό λμΌνλ€λ κ²μ 보μΈλ€.
μ΄ν μ΄λ¬ν λΆλΆμ Boldμ²΄λ‘ W, Xλ‘ νννλ©΄, μ΄κ²μ΄λ²‘ν°ν
μ΄λ€.
λ³λ° λ€λ₯Ό κ±° μλ€!
bias
λν κ°±μ λλ νλΌλ―Έν°μ΄λ―λ‘ μ νλ ¬κ³Ό ν¨κ» λ¬Άκ³ ,
feature augmentation
μ ν΅ν΄ μμν 1μfeature
μ λνλ΄λ νλ ¬μ μΆκ°νλ€.
- feature augmentation
μ½κ² μκ°ν΄μ, μ°μ°μ μν΄μλ biasλ μ§μ λ§μΆ°μΌ νλ―λ‘, λ¨μν feature λΆλΆμ 1μ μΆκ°ν κ²μ΄λ€.
μμ κ·Έλ¦Όλ€μ΄ ννμ μν΄μ μ λ κ² νμ§λ§...μ¬μ€..벑ν°λ κΈ°λ³Έμ μΌλ‘ μ΄ λ²‘ν°μ΄λ€..
- μ΄λ²‘ν°μ ν벑ν°
λ°λΌμ (1x3) x (3x1)κ° μλ μ€μ λ‘λ (3x1) x (3x1)μ μ°μ°μ΄λ―λ‘ μ΄λ μ΄λ£¨μ΄ μ§ μ μλ€. (νλ ¬ κ³±μ κ°λ )
κ·Έλ κΈ°μ νλ ¬μ μ¦ Transpose
ν΄μ£Όκ² λλ©΄ ν΄κ²°λλ€.
- transposeμ μ
- μ΄λ κ² νκΈ°ν¨μΌλ‘μ¨ ν΄κ²°λμλ€!
μ μμ μμλ€μ νλμ μν μ¦, μ¬λ νλͺ
μ x1(곡λΆμκ°), x2(κ²°μ), x3(κ³ μ‘ κ³ΌμΈ νμ)μ freature
μ λν΄μ μμ μΈμ λ€.
κ·Όλ° μν(μ¬λ) dataλ λΉμ°ν 1κ°κ° μλ μμ μλ°±κ°κ° λ μμλ€. (νμ΅μ data νλλ‘ ν μλ μμ§ μμκ°?)
κ·ΈλΌ μ΄λ»κ² λνλ΄λ©΄ λ κΉ?
κ° μ¬λμ feature
κ°λ€ " x1(곡λΆμκ°), x2(κ²°μ), x3(κ³ μ‘ κ³ΌμΈ νμ)" μ μ’
λ₯
λ λͺ¨λ μ¬λμ΄ λμΌνλ―λ‘, weightμ κ²½μ° λ°λ‘ ν΄μ€ μ΄μ λ μλ€.
κ° feature
λ³ νλμ©λ§ μμΌλ©΄ λκΈ° λλ¬Έμ΄λ€.
λ°λΌμ λ³κ²½λλ λΆλΆμ κ° μ¬λλ§λ€ λ€λ₯Έ x1(곡λΆμκ°), x2(κ²°μ), x3(κ³ μ‘ κ³ΌμΈ νμ)" μ κ°
μ΄λ€.
- ν΅μ¬λ§ 보μ.
100κ°μ μν(μ¬λ)μ΄ μλ κ²½μ° 4x1 ν¬κΈ°μ κ° 100λͺ μ λͺ¨λ featureκ°
μ ννν΄μΌνλ―λ‘ 4x100 ν¬κΈ°κ° λλ€. λ
μ΄ λν μ΅μνμ μ€μ°¨λ₯Ό κ°μ§λ λͺ¨λΈμ λ§λλ κ²μ΄ λͺ©μ μ΄λ―λ‘, μ€μ°¨λ₯Ό μ΄μ©νμ¬ μ΅μ μ λͺ¨λΈμ λ§λ λ€.
μ΄λ₯Ό μν΄μλ λ€μ€μ ν νκ·λν μ ννκ·μ λμΌνκ² μμ€/λΉμ© ν¨μ
κ° νμνλ€.
- νλμ dataμ λν΄μ Lossλ₯Ό κ²°μ νλ μμ€ν¨μ
- λͺ¨λ dataμ λν΄μ Lossμ νκ· μ ꡬνλ λΉμ©ν¨μ
μ΅μμ
Cost
λ₯Ό κ°μ§λ μ ν νκ·μμ λ§λ€κΈ° μν Gradient Descentλ₯Ό μν!.
μ΄μ νλμ feature
μ λνμ¬ Gradeint Descentλ₯Ό μννκΈ° μν΄μλ νΈλ―ΈλΆ, νΈλ―ΈλΆμ ν΅ν΄μ μ°λ¦¬λ weight
, bias
λ₯Ό κ°κ° κ°±μ νλ€.
μ΄λ²μλ feature
κ°μ΄ Nκ°(2 μ΄μ)μ΄κ³ , μ΄μλ°λ₯Έ weight
λν κ°μ Nκ°(2 μ΄μ)κ° λλ Multi-Variateν μν©μ΄λ€.
μ΄λ»κ² ν΄μΌν κΉ?
λ³ μ μλ..λ€ν΄μΌμ§
- κ° μ λν΄μ λ€ νΈλ―ΈλΆμ λ°λ‘ ν λ€, κ° feauteμ λν weightλ₯Ό μ λ°μ΄νΈ ν΄μ€μΌνλ€..
λͺ¨λ weightμ λν΄μ gradient desent(κ²½μ¬νκ°λ²)λ₯Ό μννλ€.
- featureκ° 1κ°μΌλλ 2μ°¨μ νλ©΄μ νννλ€.
- 2κ°λ‘ λμ΄λ¬μΌλ 3μ°¨μ νλ©΄μ νννκ² λλ€.
- 4μ°¨μ μ΄μμ μ΄νλ©΄μ΄λΌκ³ νλ€.
μ΄κ²μΌλ‘ Multi-Variate Linear Regression (λ€μ€ μ ν νκ·) λ₯Ό λ§μΉλ€.