CNN - 1x1 Convolution
·
AI/이론
5개 Network 들의 주요 아이디어와 구조¶ 1️⃣ AlexNet¶ 💡 key ideas¶ Rectified Linear Unit(ReLU) activation 사용 2개의 GPU 사용 Local response normalization, Overlapping pooling Data augmentation Dropout ReLU Activation¶ Linear model이 가지는 좋은 성질을 가지고 있다. 최적화가 쉽다. 사라지는 그래디언트 문제를 해결 2️⃣ VGGNet¶ 💡 key ideas¶ 3x3 convolution filters(with stride 1)사용 fully connected layers에 1x1 convolution 사용 Dropout(p=0.5) 🤔 왜 3x3 convolu..