[딥러닝] Batch / Mini-batch / Stochastic Gradient Descent 비교
https://89douner.tistory.com/43
9. Mini-Batch (데이터가 많은 경우에는 학습을 어떻게 시키나요?)
Q. 굉장히 많은 데이터를 학습시키려고 한다면 어떻게 학습시켜야 하나요? 데이터 하나하나 단계적으로 학습시켜야 하나요? 안녕하세요~ 이번시간에도 DNN(Deep Neural Network) 모델을 좀 더 효율적
89douner.tistory.com
- Batch Gradient Descent
경사 하강법(Gradient Descent)
2022.01.24 - [딥러닝관련/기초 이론] - 선형 회귀 (Linear Regression) 선형 회귀 (Linear Regression) 선형 회귀 모델 선형 회귀(Linear Regression)의 의미 수많은 점들을 설명할 수 있는 선을 그으려면 어떻게..
better-tomorrow.tistory.com
- Stochastic Gradient Descent
Stochastic gradient descent(확률적 경사 하강법)
2022.02.20 - [딥러닝관련/기초 이론] - 경사 하강법(Gradient Descent) 경사 하강법(Gradient Descent) 2022.01.24 - [딥러닝관련/기초 이론] - 선형 회귀 (Linear Regression) 선형 회귀 (Linear Regression) 선..
better-tomorrow.tistory.com
- Mini-batch Gradient Descent
Mini-batch Gradient Descent(미니배치 경사 하강법)
2022.02.20 - [딥러닝관련/기초 이론] - Stochastic gradient descent(확률적 경사 하강법) Stochastic gradient descent(확률적 경사 하강법) 2022.02.20 - [딥러닝관련/기초 이론] - 경사 하강법(Gradient Desce..
better-tomorrow.tistory.com