1 Distribuciones en el muestro de los estimadores de las \(\beta_i\)

Hemos visto que el modelo de regresión puede escribirse como:

\[ y = X \beta + \epsilon \]

Los parƔmetros de este modelo se pueden estimar utilizando el mƩtodo de mƭnimos cuadrados, obteniendo

\[ \hat \beta = (X^TX)^{-1}X^Ty \]

Si únicamente queremos estimar el vector de parÔmetros \(\beta\), el problema termina aquí. Sin embargo, si queremos calcular intervalos de confianza o realizar contrastes de hipótesis, necesitamos definir la distribución de probabilidad de los errores \(\epsilon\). En concreto, vamos a asumir que los errores tienen distribución normal, y son independientes e idénticamente distribuidos con media cero y varianza \(\sigma^2\). Es decir:

\[ \epsilon_i \rightarrow N(0, \sigma^2), \ i = 1,2,\ldots,n \]

En forma matricial

\[ \epsilon \rightarrow N(0, \sigma^2 I) \]

donde 0 representa un vector de ceros y \(I\) es la matriz identidad de tamaño n. Utilizando el resultado de que la combinación lineal de normales es otra normal se tiene que:

\[ y \rightarrow N(X\beta, \sigma^2I) \]

Efectivamente

\[ E[y] = E[X \beta + \epsilon] = E[X \beta] + E[\epsilon] = X \beta \]

\[ Var[y] = Var[X \beta + \epsilon] = Var[\epsilon] = \sigma^2 I \]

Utilizando el mismo razonamiento, el estimador de \(\beta\) también tiene distribución normal

\[ \hat \beta = (X^TX)^{-1}X^T y \rightarrow N(\beta, (X^TX)^{-1} \sigma^2) \]

ya que

\[ E[\hat \beta] = E[(X^TX)^{-1}X^T y] = (X^TX)^{-1}X^T E[y] = (X^TX)^{-1}X^T X\beta = \beta \]

\[ Var[\hat \beta] = Var[(X^TX)^{-1}X^T y] = (X^TX)^{-1}X^T Var[y] ((X^TX)^{-1}X^T)^T = (X^TX)^{-1} \sigma^2 \]

2 Distribución en el muestreo del estimador de \(\sigma^2\)

El modelo tiene ahora un parƔmetro mƔs, que es la varianza de los errores, \(\sigma^2\). Este parƔmetro tambiƩn hay que estimarlo. Se puede demostrar que

\[ \frac{\sum e_i^2}{\sigma^2} \rightarrow \chi^2_{n-k-1} \]

donde n es el nĆŗmero de observaciones y k es el nĆŗmero de regresores. Por ello se propone el siguiente estimador

\[ \hat \sigma^2 = \frac{\sum e_i^2}{n-k-1} \]

ya que es un estimador insesgado de \(\sigma^2\). Efectivamente

\[ E[\hat \sigma^2] = E \left[ \frac{\sum e_i^2}{n-k-1} \right] = \sigma^2 \]

ya que \(E[\chi^2_n] = n\). Al tƩrmino \(\sum e_i^2/(n-k-1)\) tambiƩn se lo conoce como varianza residual y se representa por \(\hat s_R^2\).

\[ \hat s_R^2 = \frac{\sum e_i^2}{n-k-1} \]

A la raiz cuadrada se le conoce como residual standard error. El término (n-k-1) son los grados de libertad. La distribución en el muestreo de la varianza residual es

\[ \frac{\sum e_i^2}{\sigma^2} \rightarrow \chi^2_{n-k-1} \Rightarrow \frac{(n-k-1)\hat s_R^2}{\sigma^2} \rightarrow \chi^2_{n-k-1} \]