ML & DL
GRU 개념정리
yennle
2022. 7. 24. 21:00
728x90
3) 게이트 순환 유닛(Gated Recurrent Unit, GRU)
GRU(Gated Recurrent Unit)는 2014년 뉴욕대학교 조경현 교수님이 집필한 논문에서 제안되었습니다. GRU는 LSTM의 장기 의존성 문제에 대한 해결책을 ...
wikidocs.net
게이트 순환 유닛(Gated Recurrent Unit, GRU)
- GRU는 LSTM의 장기 의존성 문제에 대한 해결책을 유지하면서, 은닉상태를 업데이트 하는 계산을 줄임
>> LSTM과 유사하면서 복잡한 구조를 단순화시킴.
- GRU는 두 개의 게이트만 가짐 (LSTM은 3개)
- LSTM보다 학습 속도가 빠르면서 비슷한 성능을 가짐
케라스에서의 GRU
사용방법은 SimpleRNN과 LSTM과 같다.
model.add(GRU(hidden_size, input_shape=(timesteps, input_dim)))
728x90