• Aucun résultat trouvé

Pruebas para modelos anidados

Dans le document de datos de r (Page 72-76)

4.4 Diagnóstico de la sobredispersión

4.4.1 Pruebas para modelos anidados

Cuando existe un modelo alternativo al MRP que contempla una función variancia más general que la de Poisson y, al mismo tiempo, la función variancia de Poisson queda anidada en esa función variancia más general a través de alguna restricción paramétrica, son aplicables las pruebas clásicas de sobredispersión. En este caso en que un modelo queda anidado dentro de un modelo más general se habla, genéricamente, de modelos anidados. En este sentido, el MRP y el MRBN son modelos anidados que frecuentemente se comparan en presencia de sobredispersión. Concretamente, el MRP queda anidado dentro del MRBN si se cumple la restricción: H0: α = 0, puesto que haciendo efectiva la igualdad anterior tanto en (4.8), en (4.9) como en (4.10), se obtiene:

Var(yi | xi) = µi

Las que se listan a continuación son las pruebas clásicas de evaluación de sobredispersión:

Prueba de razón de verosimilitud (Likelihood ratio, LR)

• Prueba de Wald

Prueba multiplicador de Lagrange (Lagrange Multiplier, LM)

Cuando H0 es verdadera, las pruebas LR, Wald y LM son asintóticamente equivalentes (Rodríguez, 2002). A medida que la n aumenta, la distribución muestral de las tres pruebas converge en la misma distribución χ2 con grados de libertad igual al número de restricciones evaluadas. Por su parte, Fahrmeir y Tutz (2001, p. 48) señalan que la prueba de Wald y la prueba LM son aproximaciones

«computacionalmente atractivas» de la prueba LR. Por otro lado, cabe destacar que es poco conocido el grado en que estas pruebas se aproximan a una distribución χ2 en muestras pequeñas (Long, 1997).

No parece haber un consenso acerca de cual es la prueba más adecuada. Así, mientras que Rothenberg (1984) concluye, al comparar las LR y Wald, que ninguna de las dos pruebas es uniformemente superior, otros autores, como Tu y Zhou (1999) sugieren una cierta superioridad en la potencia de la prueba LR, sobretodo en muestras pequeñas. Fahrmeir y Tutz (2001, p. 48), señalan que la

«ventaja de las pruebas de Wald y LM es que están adecuadamente definidas para modelos con sobredispersión puesto que sólo están involucrados el primer y segundo momento».

Long (1997) sugiere escoger entre la prueba LR y la prueba de Wald en función del software disponible y de su complejidad de cálculo. En este sentido, mientras que la prueba LR requiere la estimación de dos modelos, el cálculo de la prueba implica simples operaciones aritméticas como la sustracción. En el caso de la prueba de Wald, se requiere sólo la estimación de un modelo pero su cálculo requiere manipulaciones matriciales.

4.4.1.1 Prueba de razón de verosimilitud (LR)

Sea lˆrel valor de la función log-verosímil evaluada en las estimaciones de la máxima verosimilitud restringida (p. ej. el MRP), y lˆnr el valor de la función log-verosímil evaluada en las estimaciones de la máxima verosimilitud no restringida (p. ej. el MRBN), y sea k el número de restricciones (k = 1 en el caso de una prueba de MRP contra MRBN). Entonces, bajo H0 (si la restricción es correcta) (Winkelmann, 2000):

LR = –2(lˆr lnr

ˆ ) ~ 2

)

χ(k (4.11)

donde χ(k2) es una distribución χ2 con k grados de libertad. Para obtener el nivel de significación, debe usarse un valor crítico χ2α,k.

Sin embargo, la distribución de este estadístico no es estándar, debido a la restricción que α no puede ser negativa. Cameron y Trivedi (1998) exponen una solución. La distribución asintótica de la prueba LR tiene una probabilidad de masa de 0.5 en 0 y una distribución 0.5χ2(1) para valores estrictamente positivos.

Esto significa que si el contraste se fija al nivel δ, donde δ > 0.5, se rechaza H0 si la prueba estadística supera χ122δ en lugar de χ12δ.

La prueba LR requiere el uso de la misma muestra para todos los modelos empleados. Puesto que la estimación máximo-verosímil excluye los casos con datos faltantes, es frecuente que el tamaño muestral cambie al incluir o excluir una variable. Para asegurar una constancia en el tamaño de la muestra, Long (1997) recomienda excluir de la matriz de datos aquellas observaciones que

presenten datos faltantes en las variables que formaran parte de los modelos evaluados.

4.4.1.2 Prueba de Wald

El punto de partida de la prueba de Wald es la distribución asintótica del estimador máximo-verosímil del modelo no restringido. En contraste con la prueba LR, es suficiente la estimación de un solo modelo.

Mientras que en su forma más genérica, la prueba de Wald puede ser usada para evaluar restricciones no lineales, consideramos aquí sólo restricciones lineales de la forma (Long, 1997):

Rθ = q (4.12)

donde R es una matriz de constantes y q es un vector de constantes. θˆ sigue asintóticamente una distribución normal (Winkelmann, 2000)

a N ˆ~

θ (θ0,Vˆar(θˆ) (4.13)

y representa los coeficientes de regresión estimados más cualquier parámetro adicional como ˆ2

δnr.

Al especificar R y q, pueden definirse una gran variedad de restricciones lineales.

Por ejemplo, en un modelo con dos variables explicativas, se podría establecer la restricción β1 = β2 = 0. En este caso, R, θ y q quedarían definidos como:





=





 β β β





0 0 1

0 0 1 0 0

2 1 0

La hipótesis H0: Qβ=r puede ser evaluada mediante el estadístico de Wald (Breslow, 1996; Winkelmann, 2000)

W = [Rθˆ –q]

´

[R Vˆar(θˆ) R´)]–1 [Rθˆ –q] (4.14) W sigue una distribución χ2 con grados de libertad igual al número de restricciones –el número de filas de R, si la hipótesis nula es correcta. Si el número de restricciones es 1, el estadístico queda reducido al cuadrado del estadístico t. Dividiendo W en (4.14) por sus grados de libertad produce un estadístico F.

Tal como se observa en (4.14), la prueba de Wald consiste en dos componentes (Long, 1997):

• [Rθˆ –q] al prinicipio y final de la fórmula mide la distancia entre el valor estimado y el hipotetizado.

• [R Vˆar(θˆ) R´)]1 refleja la variabilidad en el estimador o, alternativamente, la curvatura de la función de verosimilitud.

A modo de ejemplo, asúmase que la estimación del MRBN produce una estimación αˆ con una variancia asintótica estimada Vˆar(αˆ). El MRP requiere α= 0.Así, la prueba de Wald aplicada a la H0: Poisson(µ) contra H1: binomial negativa con media µ y variancia µ+αµ2, se basa en el estadístico t:

( )

( )



 α

− α

ˆ ˆ ˆ 0

ar V

(4.15)

De hecho, tal como indican Cameron y Trivedi (1998), el test de Wald se implementa habitualmente como una prueba t, que aquí tiene una masa de 0.5 en 0 y una distribución normal para valores estrictamente positivos. En este caso se aplica el valor crítico habitual de contraste de hipótesis unilateral z1–α.

En cuanto a la implementación de la prueba de Wald, para evitar la acumulación de errores de redondeo, Long (1997) recomienda el uso de una alta precisión en las estimaciones de los coeficientes y la matriz de covariancias.

4.4.1.3 Prueba multiplicador de Lagrange (LM)

La prueba multiplicador de Lagrange, conocida también como la prueba de puntuaciones («score test»), estima sólo el modelo restringido y evalúa la pendiente de la función log-verosímil en la restricción. Tal como indica Long (1997), si la hipótesis es cierta, la pendiente (conocida como puntuación) evaluada en la restricción a través de

θr

θ

∂l (4.16)

debe estar próxima a 0.

Así, la restricción es rechazada si la puntuación (4.16) esta alejada de cero. Si la hipótesis nula es verdadera, esto es θˆr = θ0, el vector de puntuaciones sigue asintóticamente una distribución normal con media cero y matriz de

variancias-covariancias igual a la matriz de información de Fisher (Winkelmann, 2000). Así, la prueba se puede basar en (Cameron y Trivedi, 1998):

LM =

[ ]

que sigue una distribución χ2 con grados de libertad igual al número de restricciones bajo la hipótesis nula.

Un estimador consistente de la variancia puede ser obtenido mediante (Winkelmann, 2000):

= µ

n

i1i2

1 (4.18)

Finalmente, la prueba estadística LM viene dada por (Winkelmann, 2000):



Bajo H0, la prueba LM sigue asintóticamente una distribución normal (puesto que es la raíz cuadrada de una distribución χ2 con un grado de libertad) y la prueba de sobredispersión es una prueba unilateral con el valor crítico zα.

La prueba LM o prueba de puntuación se aplica a modelos de datos de recuento para diversos tipos de hipótesis nula y alternativa. Así, Gurmu y Trivedi (1992) y Gurmu (1991) derivan pruebas LM para la detección de sobredispersión en modelos de Poisson truncados en 0. Por otro lado, van den Broek (1995) desarrolla una prueba LM para el exceso de ceros.

Dans le document de datos de r (Page 72-76)