Definición y resultados
La variable respuesta es categórica ordinal.
Como antes πj=P(y=j),j=1,2,...,c
Solo c−1 de estas probabilidades son libres pues π1+π2+...+πc=1 y estas probabilidades se requieren modelar en términos de variables explicativas.
Se estudiarán 2 propuestas para este tipo de variables
Usa el link logit para explicar las probabilidades acumuladas:
τj:=π1+...+πj,j=1,...,c−1
Es decir,
log(τj1−τj)=x_Tβj=β0j+β1jx1+...+βkjxk
log(τj1−τj)=x_Tβj se puede escribir como
log(π1+...+πjπj+1+...+πc)=x_Tβj,j=1,2,...,c−1
Por ejemplo, si c=3 y hay 4 variables explicativas x1,x2,x3,x4, se tienen 2 ecuaciones:
log(π1π2+π3)=β01+β11x1+β21x2+β31x3+β41x4log(π1+π2π3)=β02+β12x1+β22x2+β32x3+β42x4
Como antes, se puede escribir τj como:
τj=11+exp{−x_βj}
Es un caso particular del modelo logit acumulativo en el que β0j (el intercepto) varía para cada j pero los otros coeficientes de regresión no dependen de j.
Las ecuaciones del modelo son:
log(τj1−τj)=β0j⏟cambia para cada j+β1x1+...+βkxk,j=1,...,c−1
De nuevo, hay c−1 regresores.
Estas c−1 ecuaciones tienen diferentes interceptos pero la misma pendiente con respecto a cada variable explicativa.
Para variables de conteo, una elección popular es la distribución Poisson
y∽Poisson(μ) con g(μ)=x_Tβ
Para la distribución Poisson, la función link canónica es la función g(μ)=log(μ)
De aquí que μ=exp{x_Tβ}
| Regresión: | Respuesta | Link | |
|---|---|---|---|
| Poisson: | Poisson | & | Log |
Offset: En estudios de datos de conteo, los conteos observados y1,...,yn pueden no ser directamente comparables entre sí, debido a sus exposures. Por ejemplo,
El número de accidentes en un seguro de automóviles depende del número de vehículos asegurados y el plazo de la cobertura.
El número de muertes en un estudio de mortalidad se incrementa con el número de sujetos y la duración del estudio.
log(μi)=log(Ei)⏟offset+β0+β1x1+...+βkxk es decir, se agrega un término de “exposición”, es decir μi=Ei⋅exp{x_Tiβ}
log(Ei) se puede pensar como un intercepto observation-specific conocido.
L(β)=n∏i=1e−μiμyiiyi!∝n∏i=1e−μiμyii=n∏i=1e−exp{−x_Tiβ}(exp{−x_Tiβ})yi
Entonces
l(β)=n∑i=1(−e−x_Tiβ+yi(x_Tiβ))+cte
De aquí que
ddβl(β)=n∑i=1(−e−x_Tiβ+yixi_)=n∑i=1(yi−μi)xi_ddβl(β)=0⟺n∑i=1(yi−μi)xi_=0_⏟Se resuelve con respecto de βque aparece en las μ′si puesμi=exp{x_Tiβ}
La solución ˆβ genera las medias ajustadas
ˆμi=exp{x_Tiβ}
Que satisface
n∑i=1(yi−ˆμi)xi_=0_Esto implica que n∑i=1yi=n∑i=1ˆμiEntonces n∑i=1ei=n∑i=1(yi−ˆμi)=0i.e. la suma de los residuales es 0
La correspondiente matriz de información
I(β)=−E(d2dβdβTl(β))=n∑i=1μi(x_ix_Ti)⏟una matríz
depende de β a través de las μi´s
Por ejemplo, cuando hay una sola variable explicativa.
log(μi)=β0+β1xi,i=1,2,...,n=(1 xi)(β0β1)
A partir de la ecuación de máxima verosimilitud
n∑i=1(yi−^μi)x_i=0_⟺(∑ni=1(yi−^μi)∑ni=1xi(yi−^μi))=(00)
Es decir,
{n∑i=1yi=n∑i=1ˆμin∑i=1xiei=0