Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- Transformer
- 역행렬
- PPMI
- word embedding
- 프로그래머를 위한 선형대수
- NMT
- 신경망 학습
- 밑바닥부터 시작하는 딥러닝2 2장
- 연립일차방정식
- word2vec
- 벡터간 유사도
- one-hot vector
- 판다스
- 자연어처리
- sigmoid
- 밑바닥부터 시작하는 딥러닝
- 딥러닝
- 선형대수학
- RNN
- 정칙행렬
- DataFrame
- ReLU
- 동시발생 행렬
- SVD
- Python
- pandas
- machine translation
- 데이터프레임
- NLP
- Linear Algebra
Archives
- Today
- Total
목록오버피팅 (1)
생각하는감자

최적화 매개변수의 최적값을 찾는 문제를 푸는 것을 최적화라고 하고, 매개변수의 최적값을 찾는다는 것은 손실 함수의 값을 가능한 한 낮추는 매개변수를 찾는 것이다. 앞서 확인한 최적의 매개변수 값을 찾는 방법은 매개변수의 기울기를 이용하는 것이었다. 이를 확률적 경사 하강법이라고 했다. 확률적 경사 하강법(SGD) SGD는 단순하고 구현이 쉽다는 장점이 있지만, 문제에 따라 비효율적일 수도 있다. 비등방성함수, 즉, 방향에 따라 다른 성질을 가지는 함수에서는 탐색 경로가 비효율적이라는 단점이 있는데, SGD의 최적화 갱신경로를 알아보면 아래와 같다. 예를 들어 아래와 같은 함수의 최솟값을 구하는 문제를 생각해 보면, 최솟값을 가지는 장소는 (0,0)이지만 기울기 대부분은 (0,0) 방향을 가리키지 않는다...
딥러닝
2023. 4. 5. 15:45