基于线性代数的一些基本知识,现对OLS进行推导
1.1 一元函数的最小二乘法
我们假设:现有一组相对应的数据
我们想建立Y对X的线性回归方程:$$y_i=kx_i+b+u_i$$
其中,是方程的系数,是对应的残差
令残差平方和为L:$$L=\sum_{i=1}n(y_i-kx_i-b)2$$
我们总希望方程的拟合程度最好。用数据表征,即我们希望求得一组最佳估计值,使得残差平方和L达到最小:
即求出:$$\hat{k},\hat{b}=arg\min_{k,b}\sum{\hat{u}_i2}=arg\min_{k,b}\sum_{i=1}n{(y_i-kx_i-b)^2}$$
用矩阵的写法来表示L:
那么,令矩阵:$$Y=\begin{bmatrix}y_1\y_2\\vdots\y_n\end{bmatrix},X=\begin{bmatrix}1&x_1\1&x_2\\vdots&\vdots\1&x_n\end{bmatrix},\beta=\begin{bmatrix}b\k\end{bmatrix}$$
则能推导出:$$X\beta=\begin{bmatrix}b+kx_1\b+kx_2\\vdots\b+kx_n\end{bmatrix},Y-X\beta=\begin{bmatrix}y_1-kx_1-b\y_2-kx_2-b\\vdots\y_n-kx_n-b\end{bmatrix}$$
不难发现:$$\begin{aligned}
\text{L}& =(Y-X\beta)^T(Y-X\beta) \
&=(YT-\betaTX^T)(Y-X\beta) \
&=YTY-YTX\beta-\betaTXTY+\betaTXTX\beta
\end{aligned}$$
则:$$\hat{\beta}=\begin{bmatrix}\hat{b}\\hat{k}\end{bmatrix}=arg\min_{\beta}(YTY-YTX\beta-\betaTXTY+\betaTXTX\beta)$$
所以解得:$$\widehat{\beta}=(XTX){-1}X^TY$$
这样,我们就完成了对的估计。