Yiksan0315's Blog

Linear Regression

# Tag:

  • Source/KU_ML

정# 선형 회귀 모형(Linear Regression Model)

이 때, 주어진 데이터로부터 최소 제곱 추정법(Least Squares estimation)등을 이용하여 추정량을 구한다. Y는 가설 함수가 된다.

  1. : weight
  2. : bias

이 때의 오차 항()은 Guassian Distribution를 따르며, 모든 관찰치에서 일정해야 하는 등분산성을 가진다.

통계적 가설(Hypothesis)에서는

  • 귀무가설():
  • 대립가설():

Solution

의 데이터 집합이 주어졌을 때,

1. 최소 제곱법(Least Squares)

선형대수 상에서의 Least Square 문제로 확장 가능하지만, 단순 선형회귀

를 최소화 시키는 문제로 본다.

  • 기울기 :

  • y절편 :

Residual error in term of Matrix(vector)

이므로, residual error 이고, 이 error을 최소화시켜야 한다. (, 를 위한 term이 된다.)

를 최소화하는, 그러한 를 찾아야 한다.
이는 잔 차제곱합(RSS: residual sum of squares)가 된다. 이는 Least Squares의 유도 방법과 동일하다.

이를 이용해 유도하면, 그 최적의

이는 당연히, Multivariate Distribution에 대해서도 성립한다.

2. MSE(Mean Squared Error), loss function

MSE를 제일 작게 만드는 Linear regression line을 구한다.

  • 이 MSE와 기울기 간의 관계에서, 이차함수의 그래프가 나오게 되며, MSE가 최소화 되는 을 구하기 위해 Gradient Descent를 이용한다.
    • MSE 식에 대해, 의 편미분을 통해 그 이차함수를 구한다.
  • 역시 마찬가지이며, 최적의 값을 구하기 위해 Gradient Descent를 이용한다.

3. [[MLE]]

Let .

위의 두 식을 연립하면,

  • : : 최소 제곱법의 문제와 동일하게 성립됨이 보인다.

4. For Multivariate Distribution Linear Regression

위에서는 단순히 Univaraite값에 대해서 다루었지만, 를 Vector(혹은 Matrix)관점에서 다루어 Multivariate 값에 대한 Regression을 만들 수 있다.

, : 이 때 로 가정하여 inner product를 나타낸다.

: 의 식으로 치환되고, 이는 Matrix 관점에서 나타낼 수 있다.

Done

: paramter 를 찾을 수 있다.

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.