sunghogigio
  • Home
  • About
Sign in Subscribe

Attention

Attention

Seq2Seq with attention Seq2Seq with LSTM Seq2Seq는 RNN의 구조 중 many to many에 해당한다. 즉, 입출력 모두 sequenece인 word 단위의 문장. 위 그림은 Dialog system(e.g., chat bot)이다. 입력 문장을 받아들이는 부분이 encoder, 출력 문장을 생성하는 부분이 decoder다. 채택한 RNN 모델은 LSTM이다. Encoder의 가장 마지막 단에서 출력된 hidden
Sungho Park 08 Sep 2021

Subscribe to sunghogigio

  • Sign up
sunghogigio © 2025. Powered by Ghost