[스파르타코딩클럽] 가장 쉽게 배우는 머신러닝 4주차 개발일지

연두·2021년 8월 3일
1
post-thumbnail

😎다양한 신경망 구조

출처: https://www.cnblogs.com/wangxiaocvpr/p/6247424.html

CNN (Convolutional Neural Networks, 합성곱 신경망)

합성곱과 합성곱 신경망

  • 합성곱(Convolution)은 예전부터 컴퓨터 비전(CV) 분야에서 많이 쓰이는 이미지 처리 방식으로 계산하는 방식은 아래와 같다. 입력 데이터와 필터의 각각의 요소를 서로 곱한 수 다 더하면 출력값이 된다.
    출처 : https://ce-notepad.tistory.com/14
  • 이 합성곱을 딥러닝에 활용한 것이 CNN이다. CNN의 발견 이후 딥러닝은 전성기를 이루었고, 이후 얼굴 인식, 사물 인식 등에 널리 사용되며 현재도 이미지 처리에서 가장 보편적으로 사용되는 네트워크 구조이다.
    Yann LeCun 교수님의 논문

Filter, Strides and Padding

🌞 Convolution layer에 대해 알아보자


CNN의 구성

CNN의 구성

Transfer Learning (전이 학습)

전이 학습

  • 과거에 문제를 해결하면서 축적된 경험을 토대로 그것과 유사한 문제를 해결하도록 신경망을 학습시키는 방법을 전이 학습이라고 한다. 전이 학습은 비교적 학습 속도가 빠르고(빠른 수렴), 더 정확하고, 상대적으로 적은 데이터셋으로 좋은 결과를 낼 수 있기 때문에 실무에서도 자주 사용하는 방법이다. 출처: https://towardsdatascience.com/a-comprehensive-hands-on-guide-to-transfer-learning-with-real-world-applications-in-deep-learning-212bf3b2f27a
  • 전이 학습은 미리 학습시킨 모델(pretrained models)을 가져와 새로운 데이터셋에 대해 다시 학습시키는 방법이다. 꽤나 다른 형태의 데이터셋에 대해서도 효과를 보인다고 한다.

RNN (Recurrent Neural Networks, 순환 신경망)

RNN

은닉층이 순차적으로 연결되어 순환구조를 이루는 인공 신경망의 한 종류

  • 음성, 문자 등 순차적으로 등장하는 데이터 처리에 적합한 모델
  • 길이에 관계없이 입력과 출력을 받아들일 수 있는 구조이기 때문에, 필요에 따라 다양하고 유연하게 구조를 만들 수 있다.
    출처: https://ratsgo.github.io/natural language processing/2017/03/09/rnnlstm/

GAN (Generative Adversarial Network, 생성적 적대 신경망)

GAN

서로 적대(Adversarial)하는 관계의 2가지 모델(생성 모델과 판별 모델)을 동시에 사용하는 기술

GAN은 위조지폐범과 이를 보고 적발하는 경찰의 관계로 설명할 수 있다.

  • 생성 모델 (위조지폐범) : 경찰도 구분 못하는 진짜같은 위조지폐를 만들자!
  • 판별 모델 (경찰) : 진짜 지폐와 위조 지폐를 잘 구분해내자!

이와 같이 계속 진행되면 위조지폐범은 더욱 정교하게, 경찰은 더욱 판별을 잘 하면서 서로 발전의 관계가 되어 원본과 구별이 어려운 가짜 이미지가 만들어지게 된다.


4주차 숙제

🔗제출한 숙제

0개의 댓글

관련 채용 정보