Linear Regression (선형회귀)
2020. 4. 17. 08:56ㆍMachine Learning Study
1. 선형회귀란?
- D차원 벡터 독립 변수 x와 이에 대응하는 스칼라 종속 변수 y간의 관계를 정량적으로 찾아내는 작업.
- w0, ⋯, wD를 함수 f(x)의 계수(coefficient)이자 이 선형 회귀모형의 모수(parameter)라고 한다.
2. Hypothesis (가설)
- h(x) 또는 H(x)로 표현.
- H(x) = Wx + b
- W = weight(가중치)
- b = bias
- 주어진 데이터로부터 y와 x의 관계를 가장 잘 나타내는 직선을 그리는 일.
- 어떤 직선인지 결정하는 것은 W와 b의 값이므로
선형 회귀에서 해야할 일은 결국 적절한 W와 b를 찾아내는 일.
3. Cost Function (비용함수)
- W와 b를 찾는 과정에서 발생하는 실제값과 예측값의 오차를 계산하고 그 오차를 최소화하기 위함.
- MSE ( Mean Squared Error)
- MSE가 작을 수록 정확성이 높아짐
- y^(i) = 실제값
- H(x^(i)) = 예측값
4. Optimizer (Gradient Descent)
- 매개 변수인 W와 b을 찾기 위한 작업을 수행할 때 사용되는 알고리즘
- 비용(cost)를 최소화하는 W를 구하기 위해
W를 업데이트하는 방법은 접선의 기울기가 0이 될 때까지 반복하는 것.
- α는 학습률(learning rate)
- 학습률 α은 W의 값을 변경할 때, 얼마나 크게 변경할지를 결정
기울기가 0일 때까지 경사를 따라 내려간다는 관점에서는 얼마나 큰 폭으로 이동할지를 결정
5. 머신러닝에 사용되는 미분 Formula
'Machine Learning Study' 카테고리의 다른 글
Linear Regression - Gradient Descent (0) | 2020.04.23 |
---|---|
Normal Equation - python 코드 (0) | 2020.04.20 |
Linear Regression - Normal Equation (0) | 2020.04.20 |
Linear Algebra (선형대수) (0) | 2020.04.16 |
Numpy Study (0) | 2020.04.16 |