Siempre que he intentado entender la salida de un lm o un glm en el R me he encontrado con el mismo problema, como no conozco bien los datos, o son muy complicados, me queda la duda de si estaré interpretando bien lo que me dice el R.
Lo que hice el otro día, después de discutir con un compañero de trabajo que interpretaba las salidas de una forma diferente que yo, fue crear unos datos con los que sabía lo que iba a salir. Así por fin entendí del todo la salida del glm y me di cuenta de que interpretaba mal las salidas.
A continuación os pego lo que hice, primero como crear unos datos trucados, después una exploración con algunos gráficos y por fin los análisis.
Espero que os sea útil.
Creemos los datos trucados.
Creamos los datos de base aleatorios
origen<-rnorm(900,mean=0,sd=10)
es un vector de 900 elementos distribuidos como una normal de media 0 y desviación típica 10
Creamos los factores:
un vector de 900 elementos con 300 para cada nivel del factor
factorA<-c(rep(«controlA»,300)
,rep(«a1»,300)
,rep(«a2»,300)
)
y un vector de 900 elementos que divide cada nivel del factor anterior en 3 grupos de 100
factorB<-c(rep(
c(rep(«controlB»,100)
,rep(«b1»,100)
,rep(«b2»,100)
)
,3
)
)
Ahora los hacemos factores y arreglamos los niveles de base.
factorA<-as.factor(factorA)
factorA<-relevel(factorA,»controlA») #El control es el nivel base… así después en el análisis queda todo mejor
factorB<-as.factor(factorB)
factorB<-relevel(factorB,»controlB») #id
Hasta aquí tenemos la estructura típica de unos datos para analizar. Ahora hay que hacer el efecto de los factores sobre los datos.
Creamos los efectos
Modificación producida por cada nivel del factor… enseguida tendrá sentido.
controlA<-0
a1<-20
a2<-30
controlB<-0
b1<-6
b2<-12
Vector de los efectos, este vector modificará los datos origen.
efectosA<-c(rep(controlA,300),rep(a1,300),rep(a2,300))
efectosB<-c(rep(c(rep(controlB,100),rep(b1,100),rep(b2,100)),3))
Si os fijáis los valores están en la misma posición en que están los niveles de los factores.
Ahora creamos los datos definitivos, creamos los datos modificando el vector aleatorio con los efectos de los factores
datos<-origen + efectosA + efectosB
Si os fijáis lo que estamos haciendo aquí es coger una distribución normal y modificarla en función de unos factores que es lo que en realidad suponemos que está pasando cuando vamos a analizar unos datos haciendo un ANOVA.
si hubiera interacción, cuando se juntan el a1 y b2 el efecto se multiplicaría.
datos.int<-replace(datos,factorA==»a1″&factorB==»b2″,datos[factorA==»a1″&factorB==»b2″]*2)
Replace mola, lo que pone aarriba le dice al R: «en el vector datos, cuando el vector factorA es igual a a1 o el vector factorB es igual a b2, pon lo que haya pero multiplicado por 2».
Y ya tenemos los datos trucados.
Con estos datos se puede jugar modificando los valores de ControlA, ControlB, a1, a2, b1 y b2.
Exploremos los datos trucados.
DATOS SIN INTERACCIÓN:
plot(datos~factorA)
plot(datos~factorB)
La diferencia entre los niveles de los factores es, aproximadamente, la que hemos dado al crear los datos.
Veamos las medias:
tapply(datos,list(factorA,factorB),mean)
controlB b1 b2
controlA -0.9258813 6.894822 11.98925
a1 20.3019293 27.829253 31.74711
a2 29.1412938 36.630104 41.87341
Y un gráfico de interacción:
interaction.plot(factorA,factorB,datos,fun=mean)
Como veis es bastante soso, al pasar de un nivel a otro de A se incrementa su valor y lo mismo ocurre con B. Pero si probamos con los datos con interacción sale distinto.
DATOS CON INTERACCIÓN
plot(datos.int~factorA)
plot(datos.int~factorB)
interaction.plot(factorA,factorB,datos.int,fun=mean)
Fijaos en las dos primeras gráficas; Ha aumentado la variabilidad en los grupos en los que hemos hecho la interacción. Y en el gráfico de interacción ya está muy claro como la línea correspondiente a b2 se comporta de forma rara.
Análisis
Probemos con los datos sin interacción, por suerte los datos son normales, je je.
Primero hacemos (los puristas dirán ajustamos) el modelo.
modelo.glm<-glm(datos~factorA+factorB+factorA:factorB)
summary(modelo.glm)
glm(formula = datos ~ factorA + factorB + factorA:factorB)
Deviance Residuals:
Min 1Q Median 3Q Max
-33.4490 -6.7897 -0.3912 6.3939 34.0443
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -0.3451 1.0159 -0.340 0.734
factorAa1 19.9125 1.4367 13.860 < 2e-16 ***
factorAa2 28.9171 1.4367 20.128 < 2e-16 ***
factorBb1 8.0833 1.4367 5.626 2.46e-08 ***
factorBb2 12.7213 1.4367 8.855 < 2e-16 ***
factorAa1:factorBb1 -1.2277 2.0317 -0.604 0.546
factorAa2:factorBb1 -0.8083 2.0317 -0.398 0.691
factorAa1:factorBb2 0.1649 2.0317 0.081 0.935
factorAa2:factorBb2 1.1961 2.0317 0.589 0.556
—
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for gaussian family taken to be 103.1990)
Null deviance: 249869 on 899 degrees of freedom
Residual deviance: 91950 on 891 degrees of freedom
AIC: 6738
Number of Fisher Scoring iterations: 2
Después, hacemos el ANOVA.
anova(modelo.glm, test=»F»)
Model: gaussian, link: identity
Response: datos
Terms added sequentially (first to last)
Df Deviance Resid.Df Resid. Dev F Pr(>F)
NULL 899 249869
factorA 2 131624 897 118245 637.7182 <2e-16 ***
factorB 2 26171 895 92075 126.7971 <2e-16 ***
factorA:factorB 4 124 891 91950 0.3012 0.8772
—
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Como se ve en el modelo ninguna de las interacciones entre los niveles de ambos factores es significativa, después el ANOVA nos lo enseña de otra forma.
Probemos con los datos con interacción.
Primero el modelo:
modelo.glm.int<-glm(datos.int~factorA+factorB+factorA:factorB)
summary(modelo.glm.int)
glm(formula = datos.int ~ factorA + factorB + factorA:factorB)
Deviance Residuals:
Min 1Q Median 3Q Max
-46.2969 -6.9360 -0.3912 6.7193 44.3720
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -0.3451 1.1532 -0.299 0.765
factorAa1 19.9125 1.6309 12.210 < 2e-16 ***
factorAa2 28.9171 1.6309 17.731 < 2e-16 ***
factorBb1 8.0833 1.6309 4.956 8.60e-07 ***
factorBb2 12.7213 1.6309 7.800 1.72e-14 ***
factorAa1:factorBb1 -1.2277 2.3064 -0.532 0.595
factorAa2:factorBb1 -0.8083 2.3064 -0.350 0.726
factorAa1:factorBb2 32.6186 2.3064 14.143 < 2e-16 ***
factorAa2:factorBb2 1.1961 2.3064 0.519 0.604
—
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for gaussian family taken to be 132.9891)
Null deviance: 432750 on 899 degrees of freedom
Residual deviance: 118493 on 891 degrees of freedom
AIC: 6966.3
Number of Fisher Scoring iterations: 2
Después el ANOVA:
anova(modelo.glm.int, test=»F»)
Model: gaussian, link: identity
Response: datos.int
Terms added sequentially (first to last)
Df Deviance Resid. Df Resid. Dev F Pr(>F)
NULL 899 432750
factorA 2 176817 897 255933 664.779 < 2.2e-16 ***
factorB 2 90566 895 165367 340.502 < 2.2e-16 ***
factorA:factorB 4 46874 891 118493 88.116 < 2.2e-16 ***
—
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Como se puede ver, ahora el resumen del modelo – summary() – nos da como significativa la interacción entre a1 y b2, justo los datos que son diferentes entre datos y datos.int. Además en el ANOVA también sale significativa la interacción.
También está aquí.
Ahora habría que ver qué pasa si modificamos para 2 niveles de dos factores, pero eso para otro día.
Saludos.