🦋 SKALA: SK AX AI Leader Academy

1. RNN



1.1. Recurrent Structure (순환 구조)



1.2. Hidden State (은닉 상태)



1.3. BPTT (Backpropagation Through Time)



1.4. RNN의 다양한 구조



1.5. LSTM & GRU (진화된 RNN)



1.6. RNN 핵심 정리



2. RNN vs LSTM

구분 RNN LSTM
기억 능력 * 과거 정보를 짧게 기억 * RNN 보다는 과거 정보를 길게 기억 가능
구조 * 현재 상태와 입력값을 받아 Hidden State(현재 상태)를 통해 출력
* tanh 함수로 단순 계산
* Cell State(기억 저장소, 장기 상태)와 Gate를 활용하여 상태 출력
* Forget/Input/Output Gate로 정보 조절
* 계산량이 많고, RNN보다 학습 시간이 길어짐
한계점 * 어느 정도 과거를 기억하지만, 긴 시퀀스 학습 어려움 (Vanishing Gradient)
* 시간 순서 의존 $\rightarrow$ 연산 속도 느림 (병렬처리 한계)
* 계산량이 많고, 긴 시퀀스에서 목적을 달성하기 어려움
* 시간 순서 의존 $\rightarrow$ 연산 속도 느림 (병렬처리 한계)
설명 * 순간순간 정보를 이어가는 방식 * 순간순간 정보를 이어가는 방식에 더해
* 중요한 정보를 따로 저장하는 기억 저장소(Cell)를 통해 과거 중요한 정보를 오래 활용할 수 있도록 함



🦋 SKALA: SK AX AI Leader Academy