Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 역행렬
- Linear Algebra
- Transformer
- machine translation
- 밑바닥부터 시작하는 딥러닝2 2장
- DataFrame
- ReLU
- 신경망 학습
- RNN
- pandas
- 벡터간 유사도
- NLP
- one-hot vector
- PPMI
- 데이터프레임
- sigmoid
- NMT
- 동시발생 행렬
- 정칙행렬
- Python
- SVD
- word2vec
- 프로그래머를 위한 선형대수
- 자연어처리
- word embedding
- 선형대수학
- 딥러닝
- 연립일차방정식
- 판다스
- 밑바닥부터 시작하는 딥러닝
Archives
- Today
- Total
목록bag of words (1)
생각하는감자

Word Embedding ? → 단어를 벡터로 표현하는 것 → 비슷한 의미의 단어는 비슷한 벡터 표현을 가지며, 이들은 벡터 공간 상에서 비슷하게 위치한다. (= 서로의 거리가 짧음) Bag of Words Word2Vec GloVe 등이 있다. 1) Bag of Words text가 단어들의 가방으로 표현된다고 보는 것으로, 문법이나 단어의 순서를 고려하지 않고 빈도수를 저장한다. 저자의 의도가 단어의 사용여부와 그 빈도수에 의해 드러나는 것이라고 가정하는 것이다. Modeling BoW unique 한 단어들로 구성된 vocabulary를 만듦 각각의 단어를 one-hot vector로 인코딩함 : one-hot vector이라는 것은 vector상에서 자신과 관련된 곳만 1로 표현하고 나머지는 다..
NLP
2023. 1. 4. 19:32