본문 바로가기
[End]Robotics Lectures in UoS/Deep Learning

[DL] Lecture7: Recurrent Networks

by 담백로봇 2023. 5. 6.

Objectives

  • Explain the key elements of recurrent networks
  • Design and implement recurrent networks

Tutorial 

  • Recurrent network
  • Backpropagation through RNN

이 다원은 RNN을 통째로 다룬만큼 RNN의 역할이 굉장히 크다는 것을 알려준다.

!핵심 정리!

  •  RNNsequential data을 프로세싱하기위해 사용되며 사용되는곳은 자연어 처리나 음석인식같이 데이터들이 시간적순서의 연관성을 가진곳에 사용되는 딥러닝방식이다.
  • RNN의 구조의 특징은 Feedforward와는 다르게 memory 가 존재하는데 이는 그이전 스텝의 정보를 보관하므로써 현재 스텝의 정보와 결합 시킬 수 있다.
  • RNN의 핵심 개념하나는 Recurrent(되풀이되는) connection 인데 이로써 정보들이 스텝간에 이동할 수 있게 해준다. 좀더 자세히 설명하면 현재 스텝에서 그이전에서 발신된 hidden state 가 있는데 이는 메모리역활차럼 context 정보를 가지고있어 현재 스텝에서 그이전 정보들을 사용할 수 있다.  이로써 자연어처리때 다음 단어가 어떤 단어가 올지, 미래에 어떤 값이 들어올지 예측할 수 있다.
  • RNN의 단점으로는 Vanishing gradient 와 exploding gradient 가 있는데 이를 해결하기위해 Long-Term Memory(LSTM)Gated Recurrent Unit(GRU)가 개발되었다.

PART1: SEQUENCE DATA

 

 

 

 

 


PART2: RECURRENT NETWORK MODELS

  • 튜토리얼 출제됨 . 각 파라미터가 무엇을 뜻하는지. 
  • RNN 은 Nonlinear state-space model 에 필수적며 RN Model 은 memory를 가지고있다

 

 


PART3: TRAINING RECURRENT NETWORK MODELS

 

 

 

 

  • Truncated (잘라낸) backpropagation through time 으로 vanishing gradient problem을 잡는다. 이는 즉 전체의 시간을 중간중간 잘라내어 프로세싱하게한다.
  • gradient cliping 으로 gradient explosion을 잡아낼수있다고한다.  gradient가 너무 크면 폭발되버릴수 있는데 이에 threshold를 걸어 gradient cliping이 이르 Euclidean norm(L2 norm)이나 sum of absolute value(L1 norm)으로 계산시키는 원리이다.

  • 튜토리얼 출제!!!

  •  나올거같은데 

댓글