Regresión lineal simple

regresion

Repaso de regresión lineal con una variable explicativa.

Authors

Affiliations

Eduardo Selim M. M.

 

Carlos A. Ar.

 

Published

May 25, 2021

DOI

Modelos lineales

Es una técnica supervisada. La respuesta será y mientras que las variables explicativas, predictivas o covariables se denotarán por x1,x2,...,xp. La familia de los modelos lineales es muy versátil.

Regresión clásica

y=β0+β1x1+...+βpxp

Hay una relación lineal entre y y x1,x2,...,xp

Modelos lineales generalizados

g(y)=β0+β1x1+...+βpxp

Donde g es una función.

Ejemplos por excelencia de este tipo de rtegresión:

Modelos generalizados aditivos (GAM’s)

y=β0+β1g(x1)+β2g(x2)+...+βpg(xp)

En general nos interesan al menos 5 cosas (independientemente del modelo lineal a trabajar).

  1. ¿Cómo se estiman las βs?

  2. ¿Algunas propiedades que tienen los estimadores ˆβs?

    • Insesgado

    • Varianza

    • Intervalo de confianza

  3. Predicción ˆyi

  4. Bondad de ajuste, es decir ¿yi^yi?

  5. ¿Cuáles de entre x1,...,xp son importantes para determinar la relación con y? Selección de variables o feature engineering.

Regresión Lineal Simple

Suposiciones del modelo

El modelo SLR (Simple Linear Regression) se basa en algunas suposiciones:

yi=β0+β1xi+ϵi,i=1,...,n es decir, el número de observaciones es n

ysi son realizaciones de variables aleatorias. Los valores xi son no-aleatorios.

Las cantidades ϵ1,...,ϵn representan errores aleatorios que son independientes entre sí y además:

Bajo estos supuestos se tiene que

Cosas que ya deberíamos saber:

Estimación de β0 y β1 por mínimos cuadrados.

SS(β0,β1):=ni=1[yiobservado(β0+β1xi)Supuesto]2

ˆβ1=ni=1(xiˉx)(yiˉy)ni=1(xiˉx)2=SxySxx

ˆβ0=ˉy^β1ˉx

donde

Sxy=ni=1(xiˉx)(yiˉy)=ni=1xiyinˉxˉySxx=ni=1(xiˉx)2=ni=1x2inˉx2

Una propiedad interesante de estos estimadores es la siguiente

ˆβ1=rxySySx

donde

Sy:=1n1ni=1(yiˉy)2Sx:=1n1ni=1(xiˉx)2Coeficiente de correlación muestral entre x y y:rxy=SxySxxSyy

Este resultado “justifica” el caso de la correlación como medida de asociación lineal y el dibujo que nos encanta ❤️

Ya con estos ˆβ0 y ˆβ1 en la mano, podemos definir ˆyi=ˆβ0+ˆβ1xi como el ajustado y también los residuales como

ˆϵi=ei:=yiˆyi

Importante

ResidualesErrores aleatorioeiCalculables, reales         ϵiVariables aleatoriasno observables

En los cursos se demuestra que

Para hacer inferencia, tenemos que hacer algunas suposiciones, la más común es ϵiN(0,σ2) y además que ϵ1,ϵ2,...,ϵn son i.i.d’s.

Esta suposición nos lleva a que

yiN(β0+β1xi,σ2)

que es algo fuerte de suponer.

Tenemos que “evaluar” qué tan bueno es el modelo, es decir, si incorporar a la variable x para explicar y es valioso. Entonces

ni=1(yiˆyi)2Modelo deregresión<ni=1(yiˉyi)2Modelo naiveiid

Una descomposición popular es:

yiˉy=yiˆyi+ˆyiˉy

 (Se demuestra)

ni=1(yiˉy)2TSS=ni=1(yiˆyi)2RSS óError S+ni=1(ˆyiˉy)2Reg SS

TSS: Total SS

Residual SS ó Error SS

RSS=ni=1(yiˆy)2

RegSS: Regression SS

En SLR hay relaciones entre ˆβ1 y RSS

Como Sxx no cambia, entonces si ˆβ1 es grande, sucede que RegSS es grande y por tanto fue buena idea introducir x.

También se puede demostrar que en SLR

R2=r2xyCuadrado delcoeficiente deCorrelaciónmuestral=(SxxSxxSyy)2

Otra cantidad popular en el análisis de regresión es

MSE:=RSSn2=ni=1e2in2=:S2

Además S2 es un estimador insesgado de σ2, es decir E(S2)=σ2

Para probar formalmente si RegSS=ni=1(ˆyiˉy)2 es suficientemente grande, se lleva a cabo

La prueba F

H0:β1=0agregar x noredujo la variabilidadde y       Ha:β10

Estadística de prueba F:=RegSS/1Rss/(n2)

Sea F1,n2,αR tal que P(F1,n2>F1,n2,αupper cuantil)=α

Regla de decisión

Una relación “bonita” entre F y R (en SLR)

F=RegSS/1Rss/(n2)=(n2)R21R2=(n2)r2xy1r2xyObs: la aplicación R2F=(n2)R21R2 es creciente.

Propiedades de ^β0 y ^β1

Intervalos de confianza para βj

A partir de los errores estándar ya definidos, se puede demostrar que los intervalos del (1α)% de confianza para βj es:

ˆβj±tn2,α2upper cuantilal nivel α2 de unadistribución t(n2)SE(ˆβj),     i=0,1

En general se pueden plantear hipótesis de la siguiente manera:

  1. H0:βj=d v.s. H1:βjd
  2. H0:βj=d v.s. H1:βj>d
  3. H0:βj=d v.s. H1:βj<d

Donde dR especificado por el usuario.

Para este tipo de contraste usábamos la prueba t.

t(ˆβj)=ˆβjdSE(ˆβj),      j=0,1

Footnotes