728x90 Vanish Gradient1 [NLP] Basics of Recurrent Neural Networks(RNNs) 사실 이전에 [DL]에서 배운 적이 있어서 쓴 적이 있다. 아래를 먼저 참고하는 것이 좋다. https://thought-process-ing.tistory.com/5 [DL] Recurrent Neural Networks(RNN), Transformer Recurrent Neural Networks(RNN) RNN은 주어진 모델 자체가 Sequential Model이다. 즉 연속된 순서가 존재하는 모델로 비디오, 텍스트등이 여기에 속한다고 생각하면 된다. Sequential Data에서의 RNN 모델의 성능은 thought-process-ing.tistory.com RNN Basic structure: Rolled Version RNN 과 Unrolled version RNN으로 표현할 수 있다.(등식.. 2021. 9. 10. 이전 1 다음 728x90