Donde de las C.P.O se tiene que:
$$ XY - X X^{T} \overrightarrow{ \beta} = 0 $$ $$ \Rightarrow \beta^{*} = [X X^{T}]^{-1}XY $$Recordemos que el modelo bajo el cual estamos asumiendo la relación de $ \mathbf Y $ con $\mathbf X $ es tal que se puede se puede escribir de la siguiente forma (en un modelo centrado)
$$ \mathbf Y = \beta_{1}X_{i}^{1}+\beta_{2}X_{i}^{2}+...\beta_{P}X_{i}^{P} $$ con $$ i \in \left \{ 1,...,N \right \} $$
Sí, podríamos usar este método para ajustar polinomios de la forma: $ \mathbf y = x^{2} $, ya que el modelo es lineal en los parametros. Por lo que bastaría con definir $ \mathbf x_{i}^{2} = u_{i}; \forall i \in \left \{ 1,...N \right \} $ y encontrar el resultado de las ecuaciones que resultan del problema del apartado anterior para encontrar el vector que minimiza la distancia entre $ \mathbf Y $ y $ \widehat{Y} $
Primero, el modelo lineal consiste en suponer una relación parametrica entre la variable dependiente $ \mathbf Y $ y $ \mathbf X $ de la forma:
En el modelo lineal:
1) Si $ \mathbf E( \varepsilon |X) = 0 $, se le conoce como el Modelo de Regresión Lineal. Es de los menos restrictivos, pues no asume alguna distribución en particular para los erores y tampoco pide que el valor esperado de los erroes sea cero (es decir no pide que $ \varepsilon $ sea forzosamente ruido blanco), en su lugar pide que las $ \mathbf X $ variables explicativas no aporten información a $ \varepsilon $
2) Si $ \mathbf U $ es independiente a $ \mathbf X $, se le conoce como Modelo Clásico de Regresión Lineal (independencia implica $ \mathbf E( \varepsilon X) = E( \varepsilon )E(X) $)
3) Si la distribución condicional de $ \mathbf Y $ dado $ \mathbf X $ es Gaussiana con varianza constante, al modelo se le conoce como Modelo de Regresión Lineal Normal (donde $ \varepsilon \thicksim N( 0, \sigma^{2})$)
4) Si $ \mathbf E( \varepsilon X) = 0 $, se le conoce como Modelo de Correlación
Sea
en forma vectorial:
$$ \Rightarrow \mathbf Y = X^{T} \beta + \varepsilon $$con
$$ \varepsilon \thicksim N(0, \sigma^{2} I_{n}) $$ $$ \Rightarrow \mathbf Y \thicksim N(X^{T} \beta, \sigma^{2} I_{n}) $$Por lo que la función de verosimilitud en este caso es
$$ \Rightarrow \mathscr{L}( \beta, \sigma^2;X) = \prod \frac{1} { \sqrt{2 \pi \sigma^{2}}} e^{- \frac{(Y-X^{T}\beta)^{2}}{2\sigma^{2}}} $$ + Para mostrar que la solución al problema de maximizar la función de verosimilitud es igual al probelma de mínimos cuadrados del Modelo de Regresión Lineal Normal, es más sencillo si se le aplica el logaritmo a la función de verosimilitud (el logaritmo es una transformación monónotona, por lo que preserva el órden)$$ \Rightarrow \mathbf log( \mathscr{L}( \beta, \sigma^2;X)) = - \frac{1}{ \sqrt{2 \pi \sigma^{2}}}- \frac{(Y-X^{T} \beta)^{2}}{2 \sigma^{2}} $$
Y la C.P.O
[$ \mathbf \beta $] $$ \Rightarrow \mathbf X(Y-X^{T} \beta) = 0 $$ $$ \Rightarrow \mathbf XY -XX^{T} \beta ) = 0$$ $$ \Rightarrow \mathbf \beta = [XX^{T}]^{-1}XY $$
Dice que bajo el Modelo de Regresión Lineal, el estimador que resulta del método mínimos cuadrados (OLS) es el mejor estimador insesgado (BLUE) de los coeficientes. Es el mejor en el sentido de que tienen la menor varianza cuando se compara con otros estimadores lineales insesgados
In [ ]: