1. Normal Equtation weight 값, 정확히는 weight_hat 값을 구하는 방법 중 하나. 2. 설명 대문자 Bold : Matrix 소문자 Bold : Vector X의 transpose를 이용하여 weigth를 계산 3. 결론 X^T * X의 역행렬이 존재할 때 사용 Iteration 등 사용자 지정 parameter가 없음 Feature가 많으면 속도가 느림
1. 선형회귀란? D차원 벡터 독립 변수 x와 이에 대응하는 스칼라 종속 변수 y간의 관계를 정량적으로 찾아내는 작업. w0, ⋯, wD를 함수 f(x)의 계수(coefficient)이자 이 선형 회귀모형의 모수(parameter)라고 한다. 2. Hypothesis (가설) h(x) 또는 H(x)로 표현. H(x) = Wx + b W = weight(가중치) b = bias 주어진 데이터로부터 y와 x의 관계를 가장 잘 나타내는 직선을 그리는 일. 어떤 직선인지 결정하는 것은 W와 b의 값이므로 선형 회귀에서 해야할 일은 결국 적절한 W와 b를 찾아내는 일. 3. Cost Function (비용함수) W와 b를 찾는 과정에서 발생하는 실제값과 예측값의 오차를 계산하고 그 오차를 최소화하기 위함. MSE..
선형대수 벡터 공간, 벡터, 선형 변환, 행렬, 연립 선형 방정식 등을 연구하는 대수학의 한 분야. 현대 선형대수학은 그중에서도 벡터 공간이 주 연구 대상. 행렬(matrix) & 벡터(vector) 표기 단위 행렬 (identity matrix) 전치 행렬 (transpose of a matrix) Instance (Y값) W : Weight(가중치)