🦋 SKALA: SK AX AI Leader Academy

1. AlexNet & ResNet



2. AlexNet



3. Degradation Problem



4. ResNet



5. AlexNet vs ResNet 한눈에 비교

구분 AlexNet (2012) ResNet (2015)
층의 개수 8개 152개 이상
핵심 아이디어 ReLU, Dropout, GPU 병렬화 Skip Connection (잔차 학습)
활성화 함수 ReLU ReLU (주로 Batch Norm과 함께)
파라미터 효율 층에 비해 파라미터가 매우 많음 깊이에 비해 파라미터가 효율적임
역사적 의의 딥러닝의 실용성 증명 초거대 신경망 학습의 가능성 제시


6. Bottleneck Architecture (ResNet의 전략)



7. 통합 핵심 정리




🦋 SKALA: SK AX AI Leader Academy