Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- one-hot vector
- 밑바닥부터 시작하는 딥러닝2 2장
- Transformer
- sigmoid
- PPMI
- 연립일차방정식
- 자연어처리
- word2vec
- NLP
- 동시발생 행렬
- Python
- 딥러닝
- NMT
- word embedding
- 벡터간 유사도
- 선형대수학
- pandas
- 데이터프레임
- 밑바닥부터 시작하는 딥러닝
- ReLU
- 정칙행렬
- SVD
- 신경망 학습
- 판다스
- 프로그래머를 위한 선형대수
- RNN
- 역행렬
- machine translation
- DataFrame
- Linear Algebra
Archives
- Today
- Total
목록머신러닝 통계 (1)
생각하는감자

Central Limit Theorem(CLT) - 중심극한정리 중심극한 정리란, independently identically disfributed 되어있는 랜덤샘플 여러개를 뽑아서 평균을 내면, 평균의 분포는 샘플의 개수가 많으면 많을 수록 정규분포에 가까워진다는 이론이다. CLT가 흥미로운 점은, 랜덤샘플의 조건인 iid(independently identically distributed) 를 따르는 샘플들의 분포는 어떤 분포를 따르던지 상관 없이, iid한 샘플들이라면, 샘플개수가 중분하다면 무조건 정규분포를 따르게 된다는 점이다. 정규분포(=가우시안 분포)라는 것은, 종모양을 띄고 있고, 그 중심이 평균인 분포이다. 중심 극한 정리가 중요한 이유는, 중심 극한 정리에서는 표본 평균들의 분포가 모..
통계학
2023. 5. 8. 18:40