인공지능(AI)

Supervised - Linear Regression - Gradient Descent(경사하강법)

sysman 2020. 10. 15. 11:12

1. Regression ( 수치예측)

 - error값의 최소값을 찾아 최적의 기울기를 찾음.

 

 

cost(error값)차이= 실제값 - 추정치값

평가기준(error=loss=cost 동일 기준 개념(전부 낮아야 함))

y: 실제값, ^y:예측값

 

cost(loss)손실값 : (y-^y)^2  

MSE : mean(y-^y)^2

cost (loss) 함수

 

최소값 함수 (알파)는 learning rate)

learning rate(stepsize) 는 w값이 크면 발산할 수 있으므로 조금씩 W값을 이동 시키는 상수 

 

 

 

학습원리

gradient decent : w = w-@미분(w)

 

출처

blog.naver.com/PostView.nhn?blogId=beyondlegend&logNo=221346376413

 

머신러닝 경사하강법 (Gradient Decent Algorithm)

선형회귀(Regression)에서 가중치 W, 바이어스 b 를 찾는 알고리즘인 경사하강법(Gradient Decent Alg...

blog.naver.com

<정리>

local minimum일 때 Mini-batch 법 사용(랜덤한 값의 집합을 사용하여 최소값을 찾음)

 

K를 집합으로 만들고 랜덤한 값을 잡아서 찾는다.

K={10, 21, 38, 45, 52}