🦋 SKALA: SK AX AI Leader Academy

1. LSTM



2. Cell State (셀 상태)



3. The Three Gates (3개의 게이트)

① Forget Gate (망각 게이트)

② Input Gate (입력 게이트)

③ Output Gate (출력 게이트)



4. Mathematical Flow



5. RNN vs LSTM

구분 RNN LSTM
기억 능력 * 과거 정보를 짧게 기억 * RNN 보다는 과거 정보를 길게 기억 가능
구조 * 현재 상태와 입력값을 받아 Hidden State(현재 상태)를 통해 출력
* tanh 함수로 단순 계산
* Cell State(기억 저장소, 장기 상태)와 Gate를 활용하여 상태 출력
* Forget/Input/Output Gate로 정보 조절
* 계산량이 많고, RNN보다 학습 시간이 길어짐
한계점 * 어느 정도 과거를 기억하지만, 긴 시퀀스 학습 어려움 (Vanishing Gradient)
* 시간 순서 의존 $\rightarrow$ 연산 속도 느림 (병렬처리 한계)
* 계산량이 많고, 긴 시퀀스에서 목적을 달성하기 어려움
* 시간 순서 의존 $\rightarrow$ 연산 속도 느림 (병렬처리 한계)
설명 * 순간순간 정보를 이어가는 방식 * 순간순간 정보를 이어가는 방식에 더해
* 중요한 정보를 따로 저장하는 기억 저장소(Cell)를 통해 과거 중요한 정보를 오래 활용할 수 있도록 함


6. GRU: LSTM의 라이벌



7. LSTM 핵심 정리




🦋 SKALA: SK AX AI Leader Academy