Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 밑바닥부터 시작하는 딥러닝2 2장
- 프로그래머를 위한 선형대수
- 동시발생 행렬
- pandas
- 선형대수학
- word embedding
- machine translation
- 밑바닥부터 시작하는 딥러닝
- 벡터간 유사도
- RNN
- word2vec
- DataFrame
- Python
- 역행렬
- Linear Algebra
- NLP
- 딥러닝
- sigmoid
- 신경망 학습
- one-hot vector
- Transformer
- 연립일차방정식
- 자연어처리
- SVD
- 정칙행렬
- 판다스
- PPMI
- NMT
- 데이터프레임
- ReLU
Archives
- Today
- Total
목록bag of words (1)
생각하는감자

Word Embedding ? → 단어를 벡터로 표현하는 것 → 비슷한 의미의 단어는 비슷한 벡터 표현을 가지며, 이들은 벡터 공간 상에서 비슷하게 위치한다. (= 서로의 거리가 짧음) Bag of Words Word2Vec GloVe 등이 있다. 1) Bag of Words text가 단어들의 가방으로 표현된다고 보는 것으로, 문법이나 단어의 순서를 고려하지 않고 빈도수를 저장한다. 저자의 의도가 단어의 사용여부와 그 빈도수에 의해 드러나는 것이라고 가정하는 것이다. Modeling BoW unique 한 단어들로 구성된 vocabulary를 만듦 각각의 단어를 one-hot vector로 인코딩함 : one-hot vector이라는 것은 vector상에서 자신과 관련된 곳만 1로 표현하고 나머지는 다..
NLP
2023. 1. 4. 19:32