U Mann-Whitney para comparar grupos

La comparación de dos grupos independientes, requiere de contar con una variable numérica, demostración de normalidad y homogeneidad de varianzas, de no cumplir estos requisitos, tenemos una alternativa.

La Homocedasticidad y la prueba de Levene

Cuando queremos comparar el promedio de dos grupos, previamente se debe demostrar que la varianza de los grupos es la misma, para ello planteamos una hipótesis como ya estamos acostumbrados a hacerlo.

Análisis de la varianza y pruebas Post Hoc

La comparación de grupos, no es solamente la comparación de promedios, sino el análisis de la variabilidad de los grupos participantes, por esta razón a la comparación de mas de dos grupos de le llama ANOVA.

Coeficiente de correlación de R de Pearson

La correlación es el punto de partida para la regresión lineal simple y luego la múltiple, la correlación de Pearson es una prueba de hipótesis y también un índice de Correlación entre las unidades de dos variables.

Correlación como prueba de hipótesis

Asociar y correlacionar implica trabajar con dos variables aleatorias, donde partimos del principio de independencia, solo que asociar es para variables categóricas y correlacionar es para variables numéricas.

Comparar promedios en medidas repetidas

La comparación de medidas de un mismo grupo corresponde a los estudios longitudinales y se puede aplicar tanto en estudios observacionales como experimentales, sus hipótesis siempre son a una sola cola.

Comparación de promedios entre grupos

La comparación entre grupos es el objetivo estadístico más básico en el nivel investigativo relacional y en el que se puede plantear una hipótesis. Preliminarmente se debe plantear el test a dos colas.

Cálculo de la probabilidad exacta de Fisher

Las pruebas exactas corresponden a los diseños experimentales con los totales marginales de ambos factores fijos. Habitualmente, los experimentos se realizan con muestras pequeñas, por ello su uso en este modelo.

Concordancia entre medidas e investigadores

Las medidas de asociación incluyen a las medidas de riesgo y a las medidas de concordancia, las cuales se deben estimar únicamente después de haber demostrado asociación en un estudio previo.

Asociación estadística y test de independencia

Independencia y dependencia son términos probabilístico que no involucran necesariamente relación causa-efecto; puesto que la asociación estadística es sólamente uno de los criterios de causalidad.