728x90
Simplified hypothesis
H(x) = Wx

W = 1, cost(W) = 0
W = 0, cost(W) = 4.67
W = 2, cost(W) = 4.67
What cost(W) looks like?

Gradient descent algorithm
- Minimize cost function
- Gradient descent is used many minimization problems
- For a given cost function, cost(W, b),it will be find W, b to minimize cost
- It can be applied to more general function: cost(w1, w2, ...)
- Gradinet descent algorithm(경사하강 알고리즘) cost를 최소로 만드는 W,b를 찾는다. 일반적인 함수에 적용된다.
How it works?
- Start with initial guesses
- Start aat 0,0 (or any other value) //아무 곳에서나 시작할 수 있다
- Keeping changing W and b a little bit to try and reduce cost(W,b) // W,b를 조금씩 변경해서 cost를 줄인다
- Each time you change the parameters, you select the gradient which reduces cost(W,b) the most possible //
- Repeat //반복
- Do so until you converge to local minimum
- Has an interesting propery
- Where you start can determine which minumum you end up
미분
Formal definition
cost(W) : 기울기 '-' 작은 쪽으로 움직이겠다 W가 큰값으로 움직이겠다.


cost함수의 모양이 Convex function 이어야한다. 그래야 어디서든 정답에 도달한다.
728x90
'AI > 딥러닝의 기본' 카테고리의 다른 글
ML Lec 5: Logistic Classification (0) | 2020.05.20 |
---|---|
ML lec 04 - multi-variable linear regression 여러개의 입력(feature)의 Linear Regression (0) | 2020.04.29 |
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명 (0) | 2020.04.22 |
ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명 (0) | 2020.04.22 |
모두를 위한 머신러닝/딥러닝 강의 (1) | 2020.04.22 |