인공지능/DeepLearning
2020. 12. 16.
[RNN] GRU (Gated Recurrent Unit)
RNN에서 신경망의 깊이가 깊어질수록 Gradient가 사라지거나 폭발할 수 있음을 발견했습니다. 따라서 이를 해결하기 위해 여러가지 방법이 제안 되었습니다. 가장 초기의 방법 중 하나는 LSTM[Hochreiter & Schmidhuber, 1997]으로 9.2에서 논의 할 예정이며, GRU[Cho et al., 2014a]는 종종 비슷한 성능을 제공하고 계산 속도가 빠르며, LSTM의 복잡한 구조를 간단화 시켰습니다. GRU가 LSTM을 개선한 방향으로 차후에 나온 모델이지만 단순성 때문에 GRU부터 언급을 하겠습니다. 9.1.1. Gated Hidden State 바닐라 RNN과 GRU의 주요 차이점은 GRU가 Hidden State의 Gating을 지원한다는 것입니다. 즉, 숨겨진 상태를 업데이트..