Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- transformer
- LeetCode
- 코테
- 부스트캠프
- 코딩테스트
- 프로그래머스
- dl
- 일기
- 기계학습
- GPT
- LLM
- 파이썬
- Django
- 알고리즘
- Linear Model
- ChatGPT
- NLP
- gradient descent
- machinelearning
- Programmers
- attention
- deque
- 프롬프트
- Deeplearning
- BFS
- Python
- prompt engineering
- Linear Regression
- rnn
- 머신러닝
Archives
- Today
- Total
크크루쿠쿠
Sequence to Sequence with Attention 본문
Seq2Seq Model
Many to many 구조에 해당함
hidden state를 넘겨줌으로써 decode 과정을 거침
Seq2Seq with Attention
- attention 으로 bottleneck problem을 해결해줌
- time step마다 decoder에서 단어를 생성해줌
전 단계에서 예측을 잘못 했더라도 올바른 답(Ground Truth)을 넣어서 다음 단계로 가는 방법
-> Teacher Forcing
Teacher forcing을 안 썼을 경우가 실생활에 더 잘 맞음.
썼다 안썼다 잘 조합을 해야한다.
Score
dot
기본 내적
general
score 부분에도 학습가능한 행렬을 넣어 단순내적 사용 X
concat
'DeepLearning > 부스트캠프 AI Tech' 카테고리의 다른 글
Transformer (1) (0) | 2021.09.14 |
---|---|
Beam Search and BLEU score (0) | 2021.09.13 |
[NLP] LSTM and GRU (0) | 2021.09.07 |
[NLP]Recurrent Neural Network and Language Modeling (0) | 2021.09.07 |
[NLP]Word Embedding (0) | 2021.09.06 |
Comments