1. EfficientNet 개요
- Compound Scaling
논문명 : 2019 ICML - EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
모델의 성능을 최적으로 끌어올리는 깊이/너비/해상도 조합을 찾은 논문이다.
모델 구조와 관련된 성능을 높이는 방법은 크게 세가지가 있다.
세가지 방법모두 모델의 성능을 향상 시킬수는 있지만, 어느정도 이상을 넘어가면 변화에 따른 정확도향상은 미미하다.
초당 부동소수점 연산
이란 의미로, 초당 처리해야할 연산량을 의미한다.공통적으로 세가지 방법모두 모델의 성능을 높일 수 있지만, 한계점이 명확하며 계산량이 너무 많아진다.
따라서 저자는, 세가지 변수 (깊이,너비,해상도)의 최적의 조합을 찾고자 하였다.
3가지 변수 : depth, width, resolution 에 대해 식을 정의
alpha x beta^2 x gamma^2 = 2
가 되게끔 사전정의물론 변화시키면서 alpha, beta, gamma를 찾아야 하겠지만, 그러면 큰 모델일 수록 소모되는 비용이 너무 크기 때문에, alpha, beta, gamma를 사전에 임의로 정의해주었다. (연산량이 2배씩 늘어나게끔)
기존 모델들을 compound scaling 한 결과
https://greeksharifa.github.io/computer%20vision/2022/03/01/EfficientNet/