๐Ÿšฉ๋”ฅ๋Ÿฌ๋‹ ๊ธฐ์ดˆ - part13. ์˜ค๋ฅ˜ ์—ญ์ „ํŒŒ (Error Backpropagation)

vincaยท2022๋…„ 11์›” 8์ผ
0

๐ŸŒ“ AI/DL - theory

๋ชฉ๋ก ๋ณด๊ธฐ
14/24

๐ŸŸข Introduction

์˜ค๋ฅ˜์—ญ์ „ํŒŒ๊ฐ€ ๋‚˜์˜ค๊ฒŒ ๋œ ๊ณ„๊ธฐ๊ฐ€ ๋ฌด์—‡์ผ๊นŒ?

  1. 1969๋…„ Perceptrons ์ฑ…์—์„œ XOR ๋ฌธ์ œ๋Š” perceptron์œผ๋กœ ํ•ด๊ฒฐํ•˜์ง€ ๋ชปํ•˜๋Š” ๊ฒƒ์„ ์ˆ˜ํ•™์ ์œผ๋กœ ์ฆ๋ช….
  2. XOR ๋ฌธ์ œ ํ•ด๊ฒฐ์„ ์œ„ํ•ด์„œ๋Š” multilayer perceptron (MLP) ํ•„์š”ํ•˜๋‹ค๋Š” ๊ฒƒ์„ ์•Œ๊ฒŒ ๋จ.
  3. ๊ทธ๋Ÿฌ๋‚˜, MLP๋ฅผ ํ•™์Šตํ•  ์ˆ˜์—†๋‹ค๊ณ  ์ฃผ์žฅ.

No one on earth had found a viable wayto train MLPs good enough to learn such simple functions
์ง€๊ตฌ์ƒ ๊ทธ ๋ˆ„๊ตฌ๋„ ๊ทธ๋Ÿฐ ๊ฐ„๋‹จํ•œ ๊ธฐ๋Šฅ์„ ๋ฐฐ์šฐ๋„๋ก, MLP๋ฅผ ํ›ˆ๋ จ์‹œํ‚ค๋Š” ํ›Œ๋ฅญํ•œ ๋ฐฉ๋ฒ•์„ ์ฐพ์ง€ ๋ชปํ–ˆ๋‹ค.

๊ฒฐ๋ก ๋ถ€ํ„ฐ ๋งํ•˜์ž๋ฉด, ์˜ค๋ฅ˜์—ญ์ „ํŒŒ๋ฅผ ํ†ตํ•ด MLP๋ฅผ ํ•™์Šต ์‹œํ‚ฌ ์ˆ˜ ์žˆ๋‹ค.

ํผ์…‰ํŠธ๋ก ์˜ ํ•™์Šต (๋‹จ์ธต ๊ตฌ์กฐ)

MLP์˜ ํ•™์Šต์„ ๋ณด๊ธฐ ์ „, ๋‹จ์ธต๊ตฌ์กฐ์˜ ํผ์…‰ํŠธ๋ก ๋ถ€ํ„ฐ ์–ด๋–ป๊ฒŒ ํ•™์Šต์ด ์ด๋ฃจ์–ด์ง€๋Š” ์ง€ ์‚ดํŽด๋ณด์ž.

์ด์™€ ๊ฐ™์€ AND๊ฒŒ์ดํŠธ๋ฅผ ํ•™์Šต์‹œํ‚จ๋‹ค๊ณ  ํ•˜์ž.
ํ•™์Šต์ด๋ผ ํ•จ์€ ์ฆ‰, ์ตœ์ ์˜ ww(weight)๊ฐ’์„ ์ฐพ๋Š” ๊ฒƒ์ด๋‹ค.
๋‹ค์Œ๊ณผ ๊ฐ™์€ AND๊ฒŒ์ดํŠธ์˜ ์ž…๋ ฅ๊ณผ ์ถœ๋ ฅ์ด ์žˆ์„ ๋•Œ, y=w1x1+w2x2+by = w_1x_1+w_2x_2 + b์˜ ์‹์— ๋Œ€์ž…ํ•˜๊ฒŒ ๋˜๋ฉด ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค.

์ด๋ฅผ ํ†ตํ•ด ๊ตฌํ•œ ์˜์—ญ์„ ์ขŒํ‘œํ‰๋ฉด์ƒ์— ๋‚˜ํƒ€๋‚ด๋ณด์ž.


w1<โˆ’bw_1 < -b ์™€ w2<โˆ’bw_2 < -b ์™€ w1+w2โ‰ฅโˆ’bw_1 + w_2 \geq -b ์„ธ ์˜์—ญ์„ ๋‚˜ํƒ€๋‚ด๊ณ  ์ด๋“ค์ด ๊ฒน์ณ์ง€๋Š” ๋ถ€๋ถ„์ด ๋ฐ”๋กœ ์ •๋‹ต w1,w2w_1, w_2๊ฐ€ ๋  ๊ฒƒ์ด๋‹ค.
ํ•ด๋‹น ์˜์—ญ์„ ๋งŒ์กฑํ•˜๋Š” w1,w2w_1, w_2๋Š” ๋ชจ๋‘ AND๊ฒŒ์ดํŠธ๋ฅผ ์ •ํ™•ํ•˜๊ฒŒ ๋‚˜ํƒ€๋‚ผ ์ˆ˜ ์žˆ๋Š” "์ •๋‹ต"์ด๋ผ๊ณ ํ•  ์ˆ˜ ์žˆ๋‹ค.

  • ์ •๋‹ต ์˜์—ญ ์˜ˆ์‹œ

์ด๋Ÿฌํ•œ ๊ฐ’์˜ ์—…๋ฐ์ดํŠธ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™์€ ๋น„์šฉํ•จ์ˆ˜๋ฅผ ํ†ตํ•ด ์ด๋ฃจ์–ด์ง„๋‹ค. (๋น„์šฉํ•จ์ˆ˜๋ฅผ ๋ฏธ๋ถ„ํ•˜์—ฌ ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•์„ ์ˆ˜ํ–‰)

  • ๋‹น์—ฐํ•˜๊ฒŒ๋„ ๋‹จ์ธต ๊ตฌ์กฐ๋กœ๋Š” XOR์„ ํ‘œํ˜„ํ•  ์ˆ˜ ์—†๋‹ค. -> ๋‹ค์ธต๊ตฌ์กฐ๋ฅผ ์‚ฌ์šฉํ•˜์ž!

ํผ์…‰ํŠธ๋ก ์˜ ํ•™์Šต (๋‹ค์ธต ๊ตฌ์กฐ)

๋‹ค์ธต๊ตฌ์กฐ์˜ ํผ์…‰ํŠธ๋ก ์˜ ํ•™์Šต์€ ์˜ค๋ฅ˜ ์—ญ์ „ํŒŒ๋ฅผ ํ†ตํ•ด์„œ ์ด๋ฃจ์–ด์ง„๋‹ค.

(์˜ค์ฐจ ์—ญ์ „ํŒŒ ๋˜๋Š” ์˜ค๋ฅ˜ ์—ญ์ „ํŒŒ๋กœ ๋ถˆ๋ฆฐ๋‹ค.)

๊ธฐ๋ณธ์ ์ธ weight๋ฅผ updateํ•˜๋Š” ๊ณผ์ •์€ ๊ธฐ์กด Linear resgression ๋ฐ logistic regression์—์„œ ์‚ฌ์šฉํ•œ ๋ฐฉ๋ฒ•๊ณผ ๋™์ผํ•˜๋‹ค. ์˜ค์ฐจ๊ฐ€ ์ถœ๋ ฅ๋ ˆ์ด์–ด๋ฅผ ํ†ตํ•ด ๋‚˜์˜จ ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ ์ •๋‹ต๊ณผ์˜ ์ฐจ์ด์ธ ์˜ค์ฐจ(loss)๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ weight๋ฅผ ๊ฐฑ์‹ ํ•ด์ฃผ๋Š” ๊ฒƒ์ด๋‹ค.
์ฆ‰, ์˜ค์ฐจ ํ•จ์ˆ˜(์†์‹คํ•จ์ˆ˜ ๋˜๋Š” ๋น„์šฉํ•จ์ˆ˜)๋ฅผ ๋ฏธ๋ถ„ํ•œ ๊ฐ’์„ ๋นผ์ฃผ๋Š” ํ˜•์‹์„ ํ†ตํ•ด ๊ฐฑ์‹ ํ•˜๋Š” Gradient Descent์„ ์ˆ˜ํ–‰ํ•˜๊ฒŒ ๋œ๋‹ค.

์˜ค์ฐจ ์—ญ์ „ํŒŒ

์—ฌ๊ธฐ์„œ ์™œ ์˜ค์ฐจ์—ญ์ „ํŒŒ์ธ์ง€๋ฅผ ์ƒ๊ฐํ•ด๋ณด์ž.

๊ฒฐ๊ตญ ์ด๋Ÿฌํ•œ ์˜ค์ฐจ๋Š” ์ผ๋ จ์˜ MLP๋ฅผ ์ญ‰ ํ†ต๊ณผํ•˜๋ฉฐ ๊ฒฐ๊ณผ๋กœ ๋‚˜์˜จ ์˜ˆ์ธก๊ฐ’์— ๋Œ€ํ•œ ์˜ค์ฐจ๋ฅผ ๋งํ•œ๋‹ค.

์ด๋Ÿฌํ•œ ์˜ค์ฐจ๋ฅผ ํ™•์ธํ•˜๊ณ , ํ•ด๋‹น ์˜ค์ฐจ๋ฅผ ํ†ตํ•ด์„œ ๊ฐ node์˜ weight๊ฐ’์„ ์ ์ ˆํ•˜๊ฒŒ updateํ•˜๋Š” ๊ณผ์ •์ด ํ•„์š”ํ•˜๋‹ค.

์ฆ‰, ๋งˆ์ง€๋ง‰ output layer๊นŒ์ง€ ์ „๋‹ฌ๋œ ๊ฐ’์œผ๋กœ ์˜ค์ฐจ๋ฅผ ํ†ตํ•ด, ์•ž์ชฝ์— ์žˆ๋Š” node๋“ค์˜ weight์˜ update์— ์‚ฌ์šฉ(์ „ํŒŒ)๋˜๋Š” ๊ฒƒ์ด๋‹ค. ๊ทธ๋ ‡๊ธฐ์— ์˜ค์ฐจ๊ฐ€ ์•ž์œผ๋กœ(์—ญ์œผ๋กœ) ์ „ํŒŒ ๋˜๋ฏ€๋กœ ์˜ค์ฐจ ์—ญ์ „ํŒŒ๋ผ ๋ถˆ๋ฆฐ๋‹ค.

MLP์˜ ํ•™์Šต ๊ณผ์ •

๋’ค์— ๋‚˜์˜ค๊ฒ ์ง€๋งŒ, ๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„์˜ ๋ฐฉ๋ฒ•์œผ๋กœ ํ›จ์”ฌ ์‰ฝ๊ฒŒ ์˜ค์ฐจ ์—ญ์ „ํŒŒ๋ฅผ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ๋‹ค.
์•ž์ชฝ์—์„œ ์‹œํ–‰๋œ weight์˜ ๊ฐ’์„ ๋งจ ๋งˆ์ง€๋ง‰์— output์œผ๋กœ ๊ตฌํ•ด์ง„ ๊ฒฐ๊ณผ๋ฅผ ํ†ตํ•ด ์•Œ์•„๋‚ธ ์˜ค์ฐจ๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ ์—…๋ฐ์ดํŠธ ํ•˜๋Š” ๊ฒƒ์€ ์—ฌ๊ฐ„ ์–ด๋ ค์šด ์ผ์ด ์•„๋‹ˆ๋‹ค.

๊ฒฐ๊ตญ ํ•ด๋‹น ์˜ค์ฐจ์™€ weight๊ฐ„์˜ ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๋Š” ๋น„์šฉํ•จ์ˆ˜ or ์†์‹คํ•จ์ˆ˜๋ฅผ ํŽธ๋ฏธ๋ถ„ํ•œ ๊ฐ’์„ ํ†ตํ•ด updateํ•˜๋Š” ๊ฒƒ์ด๊ธฐ ๋•Œ๋ฌธ์ด๋‹ค.

์ด๋ฅผ MLP์˜ ์˜ˆ๋กœ ์‚ดํŽด๋ณด์ž.

์•„๋ž˜ 3๊ฐ€์ง€ ๊ณผ์ •์„ ๊ฑฐ์นœ๋‹ค.

1) ์ „๋ฐฉ ๊ณ„์‚ฐ
2) ๋น„์šฉํ•จ์ˆ˜ ์ •์˜(MSE)
3) ๊ฐ€์ค‘์น˜ ๊ณ„์‚ฐ(Update)

1) ์ „๋ฐฉ ๊ณ„์‚ฐ

  • ์€๋‹‰์ธต์˜ ์œ ๋‹›์„ z, ์ถœ๋ ฅ์ธต์˜ ์œ ๋‹‰์„ o๋ผ๊ณ  ํ•œ๋‹ค.
  • ์€๋‹‰์ธต์˜ z์— ์ „๋‹ฌ๋˜๋Š” ๊ฐ’์€ ์ด์ „ ์ž…๋ ฅ์ธต์—์„œ์˜ ์œ ๋‹›๋“ค์˜ ๊ฐ’(xix_i) x ๊ฐ€์ค‘์น˜(wijw_{ij})์˜ ํ•ฉ์ด๋‹ค.
  • ์ถœ๋ ฅ์ธต o์— ์ „๋‹ฌ๋˜๋Š” ๊ฐ’์€ ์ด์ „ ์€๋‹‰์ธต์—์„œ์˜ ๊ฐ’(zjz_j) x ๊ฐ€์ค‘์น˜(vjkv_{jk})์˜ ํ•ฉ์ด๋‹ค.

2)๋น„์šฉํ•จ์ˆ˜ ์ •์˜(MSE)

  • ๋น„์šฉํ•จ์ˆ˜(J)๋กœ๋Š” ์šฐ๋ฆฌ์—๊ฒŒ ์ต์ˆ™ํ•œ MSE๋ฅผ ์“ด๋‹ค.
    ๋น„์šฉํ•จ์ˆ˜๋ž€ ๊ฒฐ๊ตญ, ์†์‹คํ•จ์ˆ˜(L)(์‹ค์ œ๊ฐ’โˆ’์˜ค์ฐจ)2(์‹ค์ œ๊ฐ’ - ์˜ค์ฐจ)^2๋ฅผ ํ‰๊ท ๋‚ธ ๊ฐ’์ด๋ฏ€๋กœ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ํ‘œํ˜„๋œ๋‹ค.

3)๊ฐ€์ค‘์น˜ ๊ณ„์‚ฐ(Update)

  • ๊ฐ€์ค‘์น˜ ๊ณ„์‚ฐ์ด๋ž€ ๊ฒฐ๊ตญ, gradient descent๋ฅผ ์ˆ˜ํ–‰ํ•˜๋Š” ๊ฒƒ์ด๋‹ค.
  • ์ถœ๋ ฅ์ธต์— ์—ฐ๊ฒฐ๋œ ๊ฐ€์ค‘์น˜ w์™€, ์ถœ๋ ฅ์ธต์— ์—ฐ๊ฒฐ๋œ ๊ฐ€์ค‘์น˜ v๋ฅผ ๋‚˜๋ˆ ์„œ ์—…๋ฐ์ดํŠธํ•œ๋‹ค.

    ์œ„ ์‹์ฒ˜๋Ÿผ w์™€ v์— ๋Œ€ํ•ด์„œ ๋น„์šฉํ•จ์ˆ˜๋ฅผ ๊ฐ๊ฐ ํŽธ๋ฏธ๋ถ„ํ•˜์—ฌ ๊ฐ’์„ ๊ตฌํ•˜๋ฉด ๋œ๋‹ค.
    ํ•˜์ง€๋งŒ ์ด ๊ณผ์ •์ด ์ƒ๋‹นํžˆ ๋ณต์žกํ•˜๋‹ค.

์•„๋ž˜ ์‹์„ ๋ณด์ž.

๊ทธ๋‚˜๋งˆ v๋Š” ์˜ค์ฐจ๊ฐ€ ๊ณ„์‚ฐ๋œ ์ตœ์ข… ์ถœ๋ ฅ์ธต๊ณผ ๊ฐ€๊นŒ์›Œ์„œ ๋œ ์–ด๋ ต์ง€๋งŒ, w๋Š” ์•ž์œผ๋กœ(๋จผ์ € ์ˆ˜ํ–‰๋œ ์ชฝ)๊ฐˆ์ˆ˜๋ก ์˜ค์ฐจ๋ฅผ ๊ตฌํ•ด์ง„ ๋ ˆ์ด์–ด์™€๋Š” ๋ฉ€์–ด์ ธ, ๊ณ ๋ คํ•ด์•ผํ•  ์œ ๋‹›์ด ๋” ๋งŽ์•„์ง€๊ธฐ์— ๋”์šฑ ๋ณต์žกํ•ด์ง„๋‹ค.

  • V
  • W

๋„ˆ๋ฌด ์–ด๋ ต๋‹ค. โ†’ ๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„๋ฅผ ์จ๋ณด์ž.

Linear Regression ๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„

Linear Regression์„ ์˜ˆ์‹œ๋กœ ์˜ค์ฐจ์—ญ์ „ํŒŒ๊ฐ€ ์–ด๋–ป๊ฒŒ ์ด๋ฃจ์–ด ์ง€๋Š”์ง€ ์‚ดํŽด๋ณด์ž.
์•„๋ž˜์™€ ๊ฐ™์€ ์‚ฌ์ง„์„ ๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„๋ผ๊ณ  ํ•˜๋Š”๋ฐ, ์ด์™€ ๊ฐ™์€ ๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„๋ฅผ ์ด์šฉํ•˜๋ฉด ์‰ฝ๊ฒŒ ์˜ค์ฐจ์—ญ์ „ํŒŒ๋ฅผ ๊ณ„์‚ฐํ•  ์ˆ˜ ์žˆ๋‹ค.

y=wxy=wx ํ•จ์ˆ˜์˜ ์˜ˆ๋ฅผ ํ†ตํ•ด ์•Œ์•„๋ณด์ž.
๊ธฐ๋ณธ์ ์ธ Linear Regression๊ณผ์ •์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค.

  1. ์˜ˆ์ธกํ•œ y^\hat y๋ฅผ ์ •๋‹ต yy๊ฐ’์—์„œ ๋บ€๋‹ค. (์˜ค์ฐจ๋ฅผ ๊ณ„์‚ฐ)
  2. ํ•ด๋‹น ์˜ค์ฐจ๋ฅผ ์ œ๊ณฑํ•œ๋‹ค. (์˜ค์ฐจ์˜ ๋ฐฉํ–ฅ์„ฑ์„ ์ œ๊ฑฐ(-,+))
  3. ํ•ด๋‹น ์˜ค์ฐจ์™€ weight์‚ฌ์ด์˜ ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๋Š” ํ•จ์ˆ˜๊ฐ€ ๊ตฌํ•ด์ง„๋‹ค.(Loss Function)
  4. ํ•จ์ˆ˜๋ฅผ ๋ฏธ๋ถ„ํ•œ ๊ฐ’์— ์ ๋‹นํ•œ lr๋ฅผ ๊ณฑํ•˜์—ฌ weight๊ฐ’์—์„œ ๋นผ์ค€๋‹ค. (weight ์—…๋ฐ์ดํŠธ)
  • ์ด๋ฒˆ ๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„์—์„œ๋Š” cost function์ธ MSE๊ฐ€(Batch๋ฐฉ์‹) ์•„๋‹Œ ํ•˜๋‚˜์˜ ์˜ค์ฐจ์— ๋Œ€ํ•ด์„œ Loss๋ฅผ ํ†ตํ•ด ์—…๋ฐ์ดํŠธ ํ•˜๋Š” SGD๋ฐฉ์‹์„ ์‚ดํŽด๋ณธ๋‹ค.
  • 4)๋ฒˆ ๊ณผ์ •์—์„œ weight๋ฅผ ์—…๋ฐ์ดํŠธํ•˜๊ธฐ ์œ„ํ•œ, ํ•จ์ˆ˜๋ฅผ ๋ฏธ๋ถ„ํ•œ ๊ฐ’(โ–ณ\vartriangleww)๋ฅผ ๊ตฌํ•˜๋Š” ๊ฒƒ ๊นŒ์ง€๋งŒ ์ง„ํ–‰ํ•ด๋ณด๋„๋ก ํ•œ๋‹ค.

๊ณ„์‚ฐ ๊ทธ๋ž˜ํ”„

๋‹ค์Œ๊ณผ ๊ฐ™์€ ์ „๋ฐฉ๊ณ„์‚ฐ์„ ์ˆ˜ํ–‰ํ•˜๋ฉฐ, Linear regression์ด ์ง„ํ–‰๋  ๊ฒƒ์ด๋‹ค.
y=wxy=wx ๋ชจ๋ธ์„ ์ •์˜ํ•˜๊ณ , ์˜ˆ์ธกํ•œ ๊ฒฐ๊ณผz1z_1์—์„œ ์‹ค์ œ ๊ฐ’yy๋ฅผ ๋บ€ ํ›„ ์ œ๊ณฑํ•œ๋‹ค.

๊ฒฐ๊ณผ์ ์œผ๋กœ weight๋ฅผ ์—…๋ฐ์ดํŠธํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” dLdw{dL \over dw}์˜ ๊ฐ’์ด ํ•„์š”ํ•˜๋‹ค. (Loss function์„ ํŽธ๋ฏธ๋ถ„ ํ•œ ๊ฐ’)

์ด ๊ฐ’์€ Chain Rlue์„ ์‚ฌ์šฉํ•˜๋ฉด ์‰ฝ๊ฒŒ ๊ตฌํ•  ์ˆ˜ ์žˆ๋‹ค. ์‹์„ ๋ณด๋ฉด ์–ด๋ ต์ง€ ์•Š๋‹ค.

chain rule

์ฒด์ธ๋ฃฐ์ด๋ž€, ๋งˆ์น˜ ์ฒด์ธ์ฒ˜๋Ÿผ ๋ฏธ๋ถ„๊ฐ’๋“ค์ด ์„œ๋กœ ์–ฝํ˜€ ์žˆ๋‹ค๋Š” ๊ฒƒ์ธ๋ฐ, ์–ด๋–ค ๋ณ€์ˆ˜์˜ ๋ณ€ํ™”์œจ์„ ๊ตฌํ•˜๋ ค๋‹ค๋ณด๋‹ˆ 3๋ฒˆ์ด ์‚ฌ์šฉ๋˜๊ณ , 3๋ฒˆ 2๋ฒˆ์ด ์‚ฌ์šฉ๋˜๊ณ , 2๋ฒˆ์„ ๊ตฌํ•˜๋ ค๋‹ˆ 1๋ฒˆ์ด ์‚ฌ์šฉ๋˜๋Š” ๊ฒƒ์„ ๋งํ•œ๋‹ค.

์ „๋ฐฉ๊ณ„์‚ฐ ์‹œ์— ๋ฏธ๋ฆฌ ํŽธ๋ฏธ๋ถ„๊ฐ’์„ ์ €์žฅํ•ด ๋‘” ํ›„, ํ•ด๋‹น ํŽธ๋ฏธ๋ถ„ ๊ฐ’์„ ์ด์šฉํ•ด์„œ ๊ฐ„๋‹จํ•˜๊ฒŒ ํŽธ๋ฏธ๋ถ„๊ฐ’(update์— ํ•„์š”ํ•œ ๊ฐ’)์„ ์•Œ์•„๋‚ด๊ณ , ์ด๋ฅผ ํ†ตํ•ด ์˜ค์ฐจ์—ญ์ „ํŒŒ๋ฅผ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ๋Š”๊ฒƒ์ด๋‹ค.

์ฒด์ธ๋ฃฐ์„ ์‚ฌ์šฉํ•˜๋ฉด ์•„๋ž˜์™€ ๊ฐ™์ด ์ด์ „ ๊ฐ’์„ ํ†ตํ•ด์„œ ์‰ฝ๊ฒŒ ๊ตฌํ•˜๊ณ ์žํ•˜๋Š” ์ธต์˜ "์˜ค์ฐจํ•จ์ˆ˜์˜ ๋ฏธ๋ถ„๊ฐ’" ์ฆ‰, update์— ํ•„์š”ํ•œ (โ–ณ\vartriangleww)๋ฅผ ๊ตฌํ•  ์ˆ˜ ์žˆ๋Š” ๊ฒƒ์ด๋‹ค.

1) ์ „๋ฐฉ ๊ณ„์‚ฐ ์‹œ, ๋ฏธ๋ฆฌ ํŽธ๋ฏธ๋ถ„ ๊ฐ’(๋ณ€ํ™”๋Ÿ‰)์„ ๊ตฌํ•ด๋‘”๋‹ค.

2) ์ „๋ฐฉ ๊ณ„์‚ฐ ์‹œ, ๊ตฌํ•œ ํŽธ๋ฏธ๋ถ„ ๊ฐ’์„ ํ†ตํ•ด, z2z_2์— ๋Œ€ํ•œ LL์˜ ๋ณ€ํ™”๋Ÿ‰์„ ๊ตฌํ•œ๋‹ค.![]
3) z2z_2์— ๋Œ€ํ•œ LL์˜ ๋ณ€ํ™”๋Ÿ‰์„ ํ†ตํ•ด ์ตœ์ข…๊ตฌํ•˜๊ณ ์ž ํ•˜๋Š” ww์— ๋Œ€ํ•œ LL์˜ ๋ณ€ํ™”๋Ÿ‰์„ ๊ตฌํ•  ์ˆ˜ ์žˆ๋‹ค.

profile
๋ถ‰์€ ๋ฐฐ ์˜ค์ƒ‰ ๋”ฑ๋‹ค๊ตฌ๋ฆฌ ๊ฐœ๋ฐœ์ž ๐ŸฆƒCloud & DevOps

0๊ฐœ์˜ ๋Œ“๊ธ€