코드 실습: 선형 회귀(텐서플로우)

ParkJeongJoon·2022년 9월 10일
0

Machine Learning

목록 보기
11/13

이 코드는 제가 학습하면서 참고했던 https://wikidocs.net/111472 예제 코드임을 밝힙니다.

오타가 났다! SGD인데! 참고로 Stochastic Gradient Descent: 배치가 1인 경사 하강법(확률적 경사하강법)이라는 뜻인데, 배치는 지금 알아둘 필요는 없고 나중에 딥러닝 챕터에서 자세히 소개할 것이다.

참고로 위 코드를 실행하면?

위와 같은 결과가 나온다! 보다시피 epoch(에포크라고 하는데 이것도 딥러닝 챕터에서 배치와 같이 설명할 예정이다) 횟수가 많아질수록 cost의 값이 점차 0에 가까워짐을 확인할 수 있다! 이 말인 즉슨, 경사하강법을 통해 0에 가까운 손실을 최소화하는 최적의 값으로 올바르게 찾아가고 있다는 것이다.
그럼, 위에서 임의로 설정한 x_test값을 가설함수에 넣어 예측값을 출력해보면?


위와 같은 결과가 나왔다!

profile
이제부터가 진짜 시작이야

0개의 댓글