Análisis de la varianza de Kruskal-Wallis

Esta prueba estadística es el equivalente no paramétrico del Análisis de la Varianza, el cual por ser un procedimiento paramétrico requiere de cumplir supuestos como normalidad, homocedasticidad y esfericidad.

Correlación por rangos de Spearman

La correlación no paramétrica suele ser una exploración de la relación entre variables para los casos en que no podemos hacer mediciones numéricas, por lo general solo se plantea a nivel de prueba de hipótesis.

Prueba de los rangos con signo de Wilcoxon

Esta prueba estadística es el equivalente no paramétrico de la t de Student para medidas repetidas, cuando no se cumplen alguno de los supuestos que requieren las pruebas estadísticas paramétricas.

U Mann-Whitney para comparar grupos

La comparación de dos grupos independientes, requiere de contar con una variable numérica, demostración de normalidad y homogeneidad de varianzas, de no cumplir estos requisitos, tenemos una alternativa.

La Homocedasticidad y la prueba de Levene

Cuando queremos comparar el promedio de dos grupos, previamente se debe demostrar que la varianza de los grupos es la misma, para ello planteamos una hipótesis como ya estamos acostumbrados a hacerlo.

Distribución normal y pruebas de normalidad

Uno de los supuestos más importantes a la hora de realizar un procedimiento paramétrico es la demostración de normalidad de la distribución de una variable numérica, es una prueba de hipótesis preliminar.

Análisis de la varianza y pruebas Post Hoc

La comparación de grupos, no es solamente la comparación de promedios, sino el análisis de la variabilidad de los grupos participantes, por esta razón a la comparación de mas de dos grupos de le llama ANOVA.

Coeficiente de correlación de R de Pearson

La correlación es el punto de partida para la regresión lineal simple y luego la múltiple, la correlación de Pearson es una prueba de hipótesis y también un índice de Correlación entre las unidades de dos variables.

Correlación como prueba de hipótesis

Asociar y correlacionar implica trabajar con dos variables aleatorias, donde partimos del principio de independencia, solo que asociar es para variables categóricas y correlacionar es para variables numéricas.

Comparar promedios en medidas repetidas

La comparación de medidas de un mismo grupo corresponde a los estudios longitudinales y se puede aplicar tanto en estudios observacionales como experimentales, sus hipótesis siempre son a una sola cola.