sji

  • 홈
  • 태그
  • 방명록

attention 1

Seq2Seq, Auto Regressive, Attention, Teacher Forcing, Input Feeding

최근에 번역 모델을 직접 구현해보면서 공부하게 된 구조 seq2seq. 개념만 알고 직접 구현해본 적은 없어서 굳이 호기심을 가지고 해본 것인데, 새롭게 배운 것이 꽤 있다. 이해하기 위해선 RNN이나, LSTM 등이 대충 어떻게 생겨먹었는지 정도는 알아야 함. seq2seq, *Auto Regressive 뭐, 대략 아래와 같은 구조로 이루어져있다. 인코더 및 디코더 블럭은 RNN 계열의 모델로 구성 되며, 여러 레이어로 쌓아서 쓰기도 한다. 번역 모델을 생각해봤을 때, 인코더에 문장을 구성하는 단어 토큰을 입력으로 넣어 마지막 타임 스텝의 히든 스테이트 값을 뽑으면 문장의 정보가 함축 되어 있을 것이라고 기대할 수 있다. (압축 & 해제, 오토 인코더 느낌 ; latent space 어딘가로 위치 시..

DL&ML/concept 2021.04.07
1
더보기
  • 분류 전체보기 (87)
    • intro. (0)
    • DL&ML (38)
      • concept (19)
      • papers (9)
      • code.data.tips (10)
    • http&server (7)
    • dist. system (6)
    • docker (5)
    • algorithm (24)
    • design pattern (1)
    • architecture (1)
    • trouble shooting (3)
    • better way (1)
    • problems (0)

Tag

Dynamic Programming, React Native, flask, MLE, gaussian mixture, seq2seq, dp, gunicorn, docker-compose, string, summarization, Likelihood, Docker, Zookeeper, Graph, CrossEntropy, nginx, stack, queue, tree,

최근글과 인기글

  • 최근글
  • 인기글
250x250

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Designed by Tistory.

티스토리툴바