Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- ReLU
- NMT
- 정칙행렬
- machine translation
- 데이터프레임
- 프로그래머를 위한 선형대수
- sigmoid
- word embedding
- pandas
- PPMI
- 역행렬
- Python
- 신경망 학습
- NLP
- 동시발생 행렬
- 판다스
- Transformer
- 선형대수학
- RNN
- one-hot vector
- 밑바닥부터 시작하는 딥러닝
- 밑바닥부터 시작하는 딥러닝2 2장
- Linear Algebra
- 자연어처리
- word2vec
- 벡터간 유사도
- DataFrame
- 연립일차방정식
- 딥러닝
- SVD
Archives
- Today
- Total
목록named entity recognition (1)
생각하는감자

RNN 가장 기본적인 구조 RNN의 여러 형태 1) one-to-one input 길이(개수) = output 길이(개수) = 1 전통적인 구조로, Fully Connected Neural Network와 동일하다. 2) one-to-many input 길이(개수) = 1, ouput 길이(개수) > 1 Image Captioning에 쓰이는 구조 → input : image → output : 입력된 이미지를 설명하는 문장 Encoder level에서는 Z가 X(이미지)의 정보를 모두 가지고 있어야 하고, Decoder level 에서는 Z에 있는 정보를 잘 해석해서 단어들의 sequence(=문장)으로 만들어야 한다. 3) many-to-one input 길이(개수) > 1, output 길이(개수)..
NLP
2023. 1. 6. 14:16