728x90
(Linear) Hypothesis
H(x) = Wx + b
W와 b에 따라 가설이 결정된다.
Which hypothesis is better?
차이가 적을 때!
Cost function (Loss function)
$H(x) - y$
How fit the line to our(training) data
$(H(x) - y)^2$ 차이를 더 잘 알 수 있다!
$cost = {\sum_{i=1}^{m} {(H(x^{(i)}) - y^{(i)}) ^2}}$
여기에 $H(x) = Wx + b$ 을 적용하면
$${cost(W, b)} = {{1}\over{m}} {\sum_{i=1}^{m} {(H(x^{(i)}) - y^{(i)}) ^2}}$$
Goal : Minimize cost
minimize cost(W,b)
728x90
'AI > 딥러닝의 기본' 카테고리의 다른 글
ML Lec 5: Logistic Classification (0) | 2020.05.20 |
---|---|
ML lec 04 - multi-variable linear regression 여러개의 입력(feature)의 Linear Regression (0) | 2020.04.29 |
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) | 2020.04.22 |
ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명 (0) | 2020.04.22 |
모두를 위한 머신러닝/딥러닝 강의 (1) | 2020.04.22 |