Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- ReLU
- 판다스
- 프로그래머를 위한 선형대수
- DataFrame
- 밑바닥부터 시작하는 딥러닝
- one-hot vector
- NLP
- machine translation
- PPMI
- 데이터프레임
- 딥러닝
- sigmoid
- Linear Algebra
- 자연어처리
- 밑바닥부터 시작하는 딥러닝2 2장
- SVD
- 연립일차방정식
- 동시발생 행렬
- 신경망 학습
- Python
- word2vec
- 정칙행렬
- 선형대수학
- NMT
- 역행렬
- word embedding
- Transformer
- 벡터간 유사도
- pandas
- RNN
Archives
- Today
- Total
목록masked language model (1)
생각하는감자

BERT = Bidirectional Encoding Representations from Transformers BERT를 알기 위해선, Transformer의 개념을 이해하는 것이 필요하다:) 2018년 구글이 공개한 사전 훈련된 모델로 수많은 NLP task에서 높은 성능을 보여주었다. BERT의 성능이 높을 수 있었던 것은 파라미터를 재조정하였기 때문이다. 먼저 레이블이 없는 방대한 양의 데이터를 이용하여 모델을 사전학습 시키고 그 후에 레이블이 있는 다른 task에서 추가 훈련과 함께 하이퍼파라미터를 재조정하는 과정을 거친다. 이러한 과정을 거친 모델은 그 성능이 매우 높게 나오고 파라미터 재조정을 위한 추가 훈련 과정을 Fine Tuning이라고 부른다. ELMo ELMo는 Transforme..
NLP
2023. 1. 16. 15:15