-
Hypothesis (가설), 하이파싀시스
-
Linear
- : H(x) = Wx + b
-
어떤 직선이 좋은 가설을 나타내는 것일까?
=> 실제 데이터와 가설과의 거리(차이)가 적은 것이 좋은 가설.
-
Cost function
-
가설과의 차이, H(x) - a 의 제곱.
-
주어진 데이터들과 가설과의 차이에 평균
=> H(x), 가설(예측된 가설) / y, 실제 데이터
- 가장 작은 W, b를 구하는 것이 Linear regression(리니어 리그레이션, 본토발음)의 학습이 되겠다.
=> ‘어떤 가설이 가장 좋은 가설일까?’ 에 대한 물음의 종착지이다.
=> W, b 의 값이 가장 작은 것, 차이가 가장 적은 것이 가장 좋은 가설이고 예측값이 되겠다.
- Goal: Minimize cost
=> minimize cost(W, b)