-
MobileNET에 대한 고찰.🤖𝗔𝗜/🤖광주 인공지능사관학교 2020. 8. 11. 12:52
데이콘 DACON, 캐글 Kaggle : 딥러닝, 머신러닝 대회에서 정확도가 높은 코드가 공개되기 때문에 봐보면 좋다.
전이 학습
1000개의 범주가 아니기 때문에, 우리의 문제에 맞게 레이어 재구축을 해야 한다.
학습용 데이터가 없어도 충분히 문제 해결이 가능하다.
우리가 가진 데이터를 가중치를 최적화할 수 있게끔 추가적으로 학습시켜야 한다.(훈련시켜야 한다)
MobileNET에 대한 고찰.
이미지를 채널 3개로 분리해서 모두 연산을 해야 하지??
- Depth-wise Separable Convolution
연산하는 속도가 증가하기 때문이다! 학습에 필요한 파라미터 수를 획기적으로 줄인다. ( 연산의 효율성을 높임으로써 경량화한다 )
먼저 Depthwise Convolution 하고 -> Pointwise Convolution (1 x 1) => 우리가 궁극적으로 원하는 것이 나온다.
Conv 연산보다 정확도는 살짝 떨어지지만 네트워크 경량화에는 상당히 효율적이다.
신경망이 얕은 것보다 좁은 것이 더 낫다.
-> 네트워크 경량화를 해야 한다면 깊이를 줄이기보다는 신경망의 height, width를 줄이는 게 더 낫다.
한 발자국 더 나아간 것 => MobieNET V2
'🤖𝗔𝗜 > 🤖광주 인공지능사관학교' 카테고리의 다른 글
[머신러닝] Boosting, GradientBoosting, 분류 알고리즘 정리 (0) 2020.08.12 [자연어 처리] 기계 번역 Seq2Seq (0) 2020.08.11 알고리즘 (0) 2020.07.16 pivot table과 groupby (0) 2020.07.16 노트북 사양, 1650Ti, 윈도우에 CUDA 10.0 설치, cuDNN설치. (0) 2020.07.15