brandonnam.log
로그인
brandonnam.log
로그인
Advanced Learning Algorithms 11: Additional Neural Network Concepts
brandon
·
2023년 8월 24일
팔로우
0
ML
0
1. Advanced Optimization
2. Additional Layer Types
SupervisedML
목록 보기
20/27
1. Advanced Optimization
Adam optimizer for faster gradient descent.
If w_j (or b) keeps moving in the same direction, we increase the learning rate a_j.
If w_j (or b) keeps oscillating, we reduce a_j.
another parameter in compile.
2. Additional Layer Types
Each neuron only looks at small parts of the previous layer's activation.
This leads to faster computation, needs less training data.
In this example, Xx is the height of the signal at any point of time.
In the first convolutional layer, each neuron only looks at a part of the original input.
The second layer can also be a convolutional layer, each neuron only looking at a small number of neurons in the previous layer.
Only the last layer takes in all activation inputs from the previous layer.
brandon
everything happens for a reason
팔로우
이전 포스트
Advanced Learning Algorithm 10: Multiclass Classification
다음 포스트
Advanced Learning Algorithm 12: Back Propagation
0개의 댓글
댓글 작성
관련 채용 정보
클래스101(Class101)
소프트웨어 엔지니어
크리에이터의 성공을 지원하는 클래스101에서 소프트웨어 엔지니어로 혁신적인 결제 시스템과 플랫폼 기반 기술을 개발하세요. AWS와 다양한 최신 기술 스택을 활용해 견고한 성장의 일원이 되어 보세요!
넥스트그라운드
[인턴] 백엔드 개발자
넥스트그라운드는 부동산 시장의 정보 비대칭을 해소하는 '집품' 서비스를 운영하며, 빠르게 성장하는 개발 팀에서 백엔드 전문가를 찾습니다. JAVA와 Spring을 활용한 API 설계 및 성능 최적화 업무를 통해 함께 성장할 기회를 제공합니다.
월급쟁이부자들
백엔드 엔지니어(BE) 시니어
백엔드 엔지니어로 월급쟁이부자들과 함께 성장하며, Java/Kotlin 기반의 백엔드 애플리케이션 개발을 주도할 기회를 잡아보세요. 유니콘 목표의 경제 콘텐츠 플랫폼에서 고객의 행복한 노후를 돕는 실질적인 임무를 수행하며 가치 있는 경험을 쌓을 수 있습니다.