Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 동시발생 행렬
- PPMI
- Linear Algebra
- 판다스
- 자연어처리
- RNN
- NMT
- machine translation
- pandas
- 벡터간 유사도
- word2vec
- sigmoid
- 연립일차방정식
- 신경망 학습
- word embedding
- ReLU
- 밑바닥부터 시작하는 딥러닝2 2장
- 역행렬
- Transformer
- SVD
- NLP
- 선형대수학
- DataFrame
- 밑바닥부터 시작하는 딥러닝
- 데이터프레임
- 프로그래머를 위한 선형대수
- 딥러닝
- one-hot vector
- Python
- 정칙행렬
Archives
- Today
- Total
목록Adam (1)
생각하는감자

최적화 매개변수의 최적값을 찾는 문제를 푸는 것을 최적화라고 하고, 매개변수의 최적값을 찾는다는 것은 손실 함수의 값을 가능한 한 낮추는 매개변수를 찾는 것이다. 앞서 확인한 최적의 매개변수 값을 찾는 방법은 매개변수의 기울기를 이용하는 것이었다. 이를 확률적 경사 하강법이라고 했다. 확률적 경사 하강법(SGD) SGD는 단순하고 구현이 쉽다는 장점이 있지만, 문제에 따라 비효율적일 수도 있다. 비등방성함수, 즉, 방향에 따라 다른 성질을 가지는 함수에서는 탐색 경로가 비효율적이라는 단점이 있는데, SGD의 최적화 갱신경로를 알아보면 아래와 같다. 예를 들어 아래와 같은 함수의 최솟값을 구하는 문제를 생각해 보면, 최솟값을 가지는 장소는 (0,0)이지만 기울기 대부분은 (0,0) 방향을 가리키지 않는다...
딥러닝
2023. 4. 5. 15:45