1. CONTRASTES DE HIPÓTESIS
Para controlar los errores
aleatorios, además del cálculo de intervalos de confianza, contamos con una
segunda herramienta en el proceso de inferencia estadística: los test o
contrastes de hipótesis.
Con los contrastes (test) de
hipótesis la estrategia es la siguiente:
- Establecemos a priori una hipótesis cerca del valor del parámetro.
- Realizamos la recogida de datos.
- Analizamos la coherencia de entre la hipótesis previa y los datos obtenidos.
Sean
cuales sean los deseos de los investigadores, el test de hipótesis siempre va a
contrastar la hipótesis nula (la que establece igualdad entre los grupos a
comparar, o lo que es lo mismo, la que no establece relación entre las
variables de estudio).
Encontramos los siguientes tipos de análisis según el tipo de variable implicada en el estudio:
2. ERRORES DE HIPÓTESIS
El
test de hipótesis mide la probabilidad de error que cometo si rechazo la hipótesis
nula.
Con
una misma muestra podemos aceptar o rechazar la hipótesis nula. Todo depende de
una error, al que llamamos α.
Habitualmente rechazamos H0
para un nivel α máximo del 5% (p< 0.05)
(si el menor del 5%). Por encima del 5% de error, aceptamos la hipótesis
nula. Es lo que llamamos “significación
estadística”.
3. TEST DE HIPÓTESIS CHI-CUADRADO
Para variables cualitativas con cualitativas
- Planteamos la hipótesis nula y las hipótesis alternativas.
- Indicamos la variable dependiente y la variable independiente.
- Basandonos en la tabla de valores observados que nos dan, elaboramos una tabla de valores esperados
- Una vez tengamos la tabla, calculamos el grado de libertad (gl):
- Con los valores observados y esperados de las tablas calculamos X2 :
- Nos vamos a la tabla de chi-cuadrado, y vemos si el resultado es mayor o menor que el error para aceptar o rechazar la hipótesis nula. Como he dicho antes, si el valor está por debajo de 0,05, rechazamos la hipótesis nula, mientras que si está por encima, la aceptamos.
Hay dos test que nos dicen si una variable es o no normal:
Kolmogorov-Smirnov: Cuando el tamaño muestral es superior a 50
Shapiro-Wilks: Cuando el tamaño muestral es inferior a 50
El grado de significación tiene que ser superior a 0,05 para ser una variable normal:
Si p > 0,05 : normal ---> Paramétrico
Si p < 0,05 : no normal ---> No paramétrico
5. TEST DE T-STUDENT:
Para comprenderlo mejor, lo explicaré a través de un ejemplo:
1. Indicamos las hipótesis y las variables:
Ho: La talla es igual en los dos grupos socioeconómicos
Vi: Nivel socioeconómico (alto/bajo)
Vd: Talla
2. Calculamos las medias y completamos la tabla
3. Fórmula de cálculo de T-Student:
4. Consultamos la tabla de T-Student:
Para ello, nos hace falta el grado de libertad:
- Para muestras independientes : gl= (n1-1) + (n2-1) --> gl= 9+9 =18
- Para muestras dependientes: gl= n-1
- Mirando en la tabla tenemos que: 18 / 0,05= 1,734. Por tanto, Aceptamos la hipótesis nula.
6. TEST DE ANOVA o de análisis de la variable.
- Para variables cuantitativas
- La Vi no siempre es dicotómica, puede ser policotómica.
- La Vd tiene que ser numérica y seguir una distribución normal
- Existe distribución normal en cada uno de los grupos --> Paramétrica.
- Existe homogeneidad de varianzas en los grupos
- Los grupos son totalmente independientes.
- Las hipótesis nula y alternativas de este test siempre son las mismas:
- Ho: La media de todos los grupos son iguales
- Ha: No todas las medias de los grupos son iguales. Almenos una de las medias es distinta.
REGRESIÓN LINEAL SIMPLE
-Las dos variables tienen que ser cuantitativas. Eje: Influencia de la edad (VI) en las cifras de tensión arterial sistólica (VD).
-Una sola variable independiente
Os voy a dejar un ejemplo para que sea más fácil de entender ;)
No hay comentarios:
Publicar un comentario