MY MEMO
[MACHINE LEARNING - Sung Kim] Cost function과 Gradient Descent algorithm 본문
MACHINE LEARNING/Sung Kim - 이론
[MACHINE LEARNING - Sung Kim] Cost function과 Gradient Descent algorithm
l_j_yeon 2017. 4. 3. 17:17Simplified hypothesis => cost function
어떻게 cost function값이 가장 작은 것을 찾을 수 있을까?
=> cost function 값을 그래프로 그려 가장 작은 값을 도출하면 가능하다!
이 함수에서 가장 작은 수를 찾으려면 새로운 함수(algorithm)이 필요하다!
=> Gradient descent algorithm (gradient = 경사 descent = 내려감) => 경사를 따라 내려가는 algorithm
'MACHINE LEARNING > Sung Kim - 이론' 카테고리의 다른 글
[MACHINE LEARNING - Sung Kim] Learning Rate, Data Processing, Overfitting (0) | 2017.04.05 |
---|---|
[MACHINE LEARNING - Sung Kim] Softmax classification (0) | 2017.04.05 |
[MACHINE LEARNING - Sung Kim] Logistic Classification (0) | 2017.04.03 |
[MACHINE LEARNING - Sung Kim] Multi Variable Linear Regression (0) | 2017.04.03 |
[MACHINE LEARNING - Sung Kim] machine learning의 기본 개념과 Regression Graph (0) | 2017.04.03 |
Comments