Deep RNN example
- 지금까지 배웠던 RNN, GRU, LSTM, BRNN 등의 내용을 Deep Neural Network에 접목시킬 수 있습니다.
- notation을 잘 살펴보면 [layer]<time> 으로 표기된 것을 알 수 있습니다.
또한 layer는 사용자가 의도한 바에 따라 얼마든지 쌓을 수 있음은 당여한 것이며, BRNN의 경우 연산량이 두 배가 될 것도 예상 가능합니다.
출처: Coursera, Sequence Models, DeepLearning.AI
'Sequence Models > 1주차' 카테고리의 다른 글
Recurrent Neural Networks(11) : Bidirectional RNN (0) | 2023.04.17 |
---|---|
Recurrent Neural Networks(10) : Long Short Term Memory (LSTM) (0) | 2023.04.17 |
Recurrent Neural Networks(9) : Gated Recurrent Unit (GRU) (0) | 2023.04.17 |
Recurrent Neural Networks(8) : Vanishing Gradients with RNNs (0) | 2023.04.14 |
Recurrent Neural Networks(7) : Sampling Novel Sequences (0) | 2023.04.14 |