- 모델의 Depth(레이어 수), Width(conv layer의 채널 수), Resolution(입력 영상 크기)를 모델의 크기를 결정하는 하이퍼파라미터로 보고, 제한된 크기에 따라 효과적인 모델을 찾아냄
- 적은 파라미터로 기존 sota 모델들에 비해 파라미터 대비 높은 성능을 이끌어냄
- mobile inverted bottleneck (MobileNet V2, Inverted Resdual Block)과 Squeeze and Excitation(SENet)을 혼용하여 기본 블럭으로 사용 (기존 MNas와 같은 서치 스페이스에서 architecture search로 찾아냄)
- expand layer : 기존 resnet의 3x3를 일정 비율에 맞춰서 1x1로 대체
- 기존 Resnet의 각 module을 fire module로 대체
- AlexNet과 성능, 효율성 비교
2. MobileNet
- 1x1 conv 사용 (차원 축소 + 선형 결합의 연산 이점 목적)
- depth-wise separable convolution 사용 (Xception 영감)
- deep compression을 함께 사용하면 모델 크기를 크게 줄일 수 있음을 보임 (inception v3와 비교)
3. ShuffleNet (CVPR18)
- mobilenet 역시 sparse correlation matrix 문제가 발생
- grouped convolution을 통해서 위 문제를 해결하고자 함
- 하지만 grouped conv는 채널을 독립으로 나누기 때문에 서로 정보 교환이 없고 성능에 문제가 생김
- grouped conv 후에 channel을 섞는 아이디어 제안
- mobilenet보다 좋은 성능을 보임
4. MobileNet V2(CVPR18)
- Inverted Residual Connection 사용 : resnet의 bottleneck에서 1x1로 피쳐를 줄이는게 아니라, 오히려 늘임
=> 이를 통해 residual connection이 있는 부분의 피처 수를 줄이고, bottleneck 내부에서 피쳐를 늘리고 depth-wise separable conv 수행 (피쳐를 늘리기 때문에 depth-wise separable conv가 피쳐 간의 정보를 보기 어렵다는 단점을 보완)
- MobileNet V1보다 성능과 효율을 높임. 또한 shuffle 보다 좀 더 좋은 성능을 보임
-S. Bianco, R. Cadene, L. Celona and P. Napoletano, "Benchmark Analysis of Representative Deep Neural Network Architectures," inIEEE Access, vol. 6, pp. 64270-64277, 2018.