10 pruebas no paramétricas que (probablemente) desconocías

Nov 25, 2020 | ANÁLISIS, Estadística | 0 Comentarios

Las pruebas no paramétricas son una alternativa a las pruebas paramétricas (prueba t, ANOVA, de proporciones..) cuando no cumplen los requisitos necesarios, como por ejemplo el número de elementos. Te aconsejo leer antes este post de introducción a las pruebas paramétricas si no estás familiarizado con ellas: Pruebas y modelos no paramétricos. Para cada una de estas pruebas tienes a tu disposición una plantilla Excel gratuita que puedes descargar al final de este post.

¡No te pierdas ningún nuevo vídeo!

Visita mi canal de Youtube

Para la prueba de chi-cuadrado ya publiqué un post a parte por ser una de las más utilizadas y merecía una mención específica. Se utiliza principalmente para determinar la independencia/asociación entre dos variables categóricas, o para analizar la diferencia entre los valores observados y los valores  esperados.

COEFICIENTE DE SPEARMAN

El objetivo es comprobar si dos variables están correlacionadas (siempre que no se cumplan los supuestos necesarios para las pruebas paramétricas).

“Coeficiente de correlación de Spearman” Define la dependencia estadística de dos variables que pueden ser discretas, continuas u ordinales. La correlación de Spearman debería utilizarse en lugar de la correlación de Pearson cuando existe una relación monotónica no lineal entre las dos variables, cuando hay valores atípicos significativos, o por lo menos una de las variables es ordinal.

En la práctica, la correlación de Spearman es la correlación de Pearson de la clasificación de las dos variables. En primer lugar, deberíamos analizar los datos en un diagrama de dispersión y, a continuación, calcular la clasificación de las dos variables. En caso de que tengamos variables con el mismo valor, tendremos que calcular una clasificación media (esto puede llevarse a cabo con una función específica de Excel – ver plantilla).

Si el número de observaciones es superior a 10, podremos utilizar el valor p para comprobar si el coeficiente de correlación es significativo o no. Si es inferior a 10, deberíamos utilizar una tabla con valores críticos (ver plantilla) y, siempre que el valor absoluto del coeficiente de correlación (r) sea mayor que el valor crítico (rho-crit), entonces será significativo.

COEFICIENTE PHI

Cuando tenemos variables dependientes categóricas, este método se utiliza como alternativa de la correlación de Pearson con variables numéricas o de la correlación de Spearman con variables de rango. También puede definirse como la medida del tamaño del efecto de una prueba de chi-cuadrado (que se utiliza cuando tenemos variables categóricas dependientes e independientes). El primer paso consiste en crear una tabla de contingencia, es decir, una tabla de doble entrada con las frecuencias cruzadas de las variables seleccionadas. En nuestro ejemplo, queremos comprobar la asociación entre una terapia específica y el final de una enfermedad en varios pacientes. La variable dependiente aparece representada en las filas (curados y no curados) y la variable independiente en las columnas (terapia 1 y terapia 2).

A continuación, tendremos que llevar a cabo una prueba de chi-cuadrado comparando las frecuencias observadas con las frecuencias esperadas (para las frecuencias esperadas, crearemos una copia de la tabla y las calcularemos de la misma manera que para la prueba de chi-cuadrado. Con este valor, podremos calcular dos coeficientes de correlación

menu importar desde web Power Query
  • Coeficiente Phi: se trata del coeficiente más sencillo utilizado como medida de la asociación entre dos categorías en dos variables;
  • Coeficiente V de Cramer: se trata de un coeficiente phi ajustado y las dos variables pueden tener más de dos categorías; nos permite también comparar una variable categórica con una variable ordinal.

La siguiente imagen presenta algunas directrices que nos ayudarán a interpretar los resultados de las dos pruebas: en otras palabras, el grado de asociación entre las dos variables (pequeño, mediano o grande). La interpretación del coeficiente V de Cramer dependerá del número de categorías que se están comparando; en caso de tener solo dos, los resultados y la interpretación serán los mismos que para el coeficiente de correlación de phi.

U DE MANN-WHITNEY

El objetivo es comprobar si la diferencia en dos grupos es significativamente diferente (siempre que no se cumplan los supuestos necesarios para las pruebas paramétricas).

Esta prueba define si dos muestras son significativamente distintas y se utiliza en lugar de la prueba t con dos muestras siempre que no se cumplan los supuestos de normalidad, los datos sean ordinales y no haya valores atípicos significativos.

Esta prueba requiere algunas suposiciones: los datos deben ser, como mínimo, ordinales, la suma de las observaciones en las dos muestras tiene que ascender a, por lo menos, 20, las observaciones deben ser independientes (podemos utilizar esta prueba para sustituir a una prueba t de muestras independientes pero no a una prueba t emparejada), y las dos muestras deben tener perfiles de distribución parecidos.

Para la prueba, tendremos que combinar todos los datos y clasificar cada valor (en el caso de valores ligados, tendremos que calcular una clasificación media al igual que en la prueba de Spearman).

En el ejemplo, se realiza una prueba de una cola para comprobar si los hombres están más satisfechos de media que las mujeres. Puesto que el valor p es inferior al alfa (0,05), rechazaremos la hipótesis nula y asumiremos que los hombres están más satisfechos que las mujeres.

RANGOS CON SIGNOS DE WILCOXON

El objetivo es comprobar si la diferencia en dos grupos es significativamente diferente (siempre que no se cumplan los supuestos necesarios para las pruebas paramétricas).

Se trata de un reemplazo no paramétrico de una prueba t siempre que la normalidad no pueda comprobarse o la muestra sea demasiado pequeña (inferior a 30), pero a diferencia de la prueba de Mann–Whitney, se utiliza para muestras emparejadas (es decir que los grupos no son independientes). El ejemplo que incluyo a continuación es una “prueba de los rangos con signo de Wilcoxon” (para muestras emparejadas y como alternativa de la prueba t emparejada paramétrica).

Las suposiciones para esta prueba son las siguientes: las muestras deben provenir de la misma población, las parejas tienen que elegirse de manera independiente, los datos deben medirse, como mínimo, en una escala ordinal (continua, discreta u ordinal), y la distribución no puede ser especialmente desigual (es decir, tiene que ser más o menos simétrica).

Para llevar a cabo esta prueba, se calcula y se clasifica la diferencia entre observaciones. Si tenemos muestras con menos de 25 observaciones, tendremos que utilizar una tabla con un valor crítico T para comprobar la relevancia; más concretamente, rechazaremos la hipótesis nula (es decir, no hay diferencia en las muestras) si T es inferior a la T crítica. Si tenemos una muestra mayor, podremos usar el valor p para el análisis de la relevancia.

KRUSKAL-WALLIS

El objetivo es comprobar si la diferencia en dos grupos es significativamente diferente (siempre que no se cumplan los supuestos necesarios para las pruebas paramétricas).

Esta prueba es una extensión de la prueba de los rangos con signo de  Wilcoxon para más de dos muestras independientes. También puede verse como la alternativa no paramétrica del análisis de la varianza unidireccional y se utiliza cuando las muestras no tienen una distribución normal (sobre todo, cuando la muestra es pequeña) o cuando las varianzas son muy diferentes. No obstante, esta prueba requiere que las muestras tengan perfiles de distribución parecidos (lo cual puede valorarse utilizando un histograma), que sean de un tamaño idéntico y que incluyan más de cinco observaciones.

El ejemplo recogido en la plantilla se refiere al lanzamiento de una nueva pastilla. En el experimento, los encuestados deben tomarse una de entre 3 pastillas (la antigua, la nueva y el placebo), y tienen que informar sobre el número de días durante los que han seguido notando el efecto de la misma. Se clasifican después los resultados y se lleva a cabo la prueba. En caso de que el valor p sea inferior al alfa (0,05), rechazaremos la hipótesis nula y podremos afirmar que hay una diferencia significativa entre los tres grupos; en otras palabras, las pastillas tienen efectos distintos. En cuanto a la relevancia, podremos realizar una comparación por pares utilizando la prueba U de Mann–Whitney.

FRIEDMAN

El objetivo es comprobar si la diferencia en dos grupos es significativamente diferente (siempre que no se cumplan los supuestos necesarios para las pruebas paramétricas).

Esta prueba es la alternativa no paramétrica del análisis de la varianza unidireccional con medidas repetidas.

El ejemplo incluido en la plantilla describe un experimento en el que preguntamos a quince clientes potenciales que prueben tres versiones de un producto y los puntúen con una escala del 1 al 10. Después, se clasifican los resultados para cada persona y se lleva a cabo la prueba. En caso de que el valor p sea inferior al alfa (0,05), rechazaremos la hipótesis nula y deduciremos que existe una diferencia significativa en la preferencia de, por lo menos, dos de los tres productos.

SCHEIRER-RAY-HARE

El objetivo es comprobar si la diferencia en dos grupos es significativamente diferente (siempre que no se cumplan los supuestos necesarios para las pruebas paramétricas).

Esta prueba es el complemento no paramétrico del análisis de la varianza bidireccional con medidas repetidas o bien, si la comparamos con otras pruebas no paramétricas, es la versión con dos factores de la prueba de Kruskal–Wallis. Deben cumplirse las mismas condiciones que con la prueba de Kruskal–Wallis; en concreto, las muestras deben tener el mismo tamaño y por lo menos cinco observaciones cada una.

En el ejemplo incluido en la plantilla, tenemos tres tipos de anuncios publicitarios (filas) y cuatro productos distintos (columnas). Para cada intersección, registramos el número de productos vendidos. Los datos se registran cinco veces para cada intersección entre anuncio publicitario/producto. A continuación, se clasifican los datos, se realiza un análisis de la varianza con los datos clasificados y se calculan los valores H utilizando el resultado del análisis de la varianzaEn el ejemplo, solo el parámetro de las “filas” es significativo, lo cual significa que el tipo de anuncio publicitario afecta al número de productos vendidos. No obstante, el tipo de producto no es una variable determinante.

MCNEMAR

El objetivo es comprobar si hay un cambio significativo antes y después de un acontecimiento (variables nominales).

Esta prueba no paramétrica es la alternativa de la prueba t emparejada paramétrica o de la prueba no paramétrica de los rangos con signo de Wilcoxon cuando las medidas repetidas son dicotómicas (sí/no, 1/0, curado/no curado, etc.). En el ejemplo presentado, una empresa decide lanzar una campaña específica para aumentar las recomendaciones de sus productos. Después de la campaña, se registra el número de clientes que han pasado de la postura de detractor a defensor así como el número de clientes que han sufrido el cambio a la inversa.

Como norma general, cuando la suma de los dos individuos que han cambiado de grupo (en nuestro ejemplo, el número de clientes que han cambiado su postura de recomendación) es inferior a 25, deberíamos utilizar una distribución binomial o una distribución de chi-cuadrado. En la plantilla se incluye una fórmula que calcula esta condición de manera automática y si la celda destacada informa de que la prueba es relevante, entonces rechazaremos la hipótesis nula y deduciremos que hay una diferencia significativa en el cambio de actitud. En otras palabras, podemos afirmar que la campaña logró aumentar las recomendaciones de los clientes.

COCHRAN

El objetivo es comprobar si hay un cambio significativo antes y después de un acontecimiento (variables nominales)

La prueba Q de Cochran es el complemento del análisis paramétrico de la varianza con medidas repetidas y de la prueba no paramétrica de  Scheirer–Ray–Hare cuando las medidas repetidas son dicotómicas. La plantilla presenta el ejemplo de una empresa que quiere averiguar si la satisfacción de los clientes difiere de manera significativa en función de la temporada. La medida dicotómica es la satisfacción (1 = satisfecho, 0 = no satisfecho), y para una muestra de veinte clientes, tenemos sus respuestas en tres temporadas distintas: alta, media, y baja.

Tras realizar la prueba, si el valor p es inferior a 0,05, rechazaremos la hipótesis nula y, por lo tanto, habrá una diferencia significativa en materia de satisfacción según la temporada. Una vez rechazada la hipótesis nula, deberíamos llevar a cabo una prueba Q de Cochran por pares (simplemente repitiendo la prueba y utilizando dos temporadas cada vez) o podemos realizar una prueba de McNemar.

80 Modelos fundamentales para analistas de negocio

Este post se basa en el libro “80 Fundamental Models for Business Analysts“ donde se explican diferentes modelos de análisis acompañados de plantillas Excel.

 En DataFluency.Academy tienes a disposición las 10 plantillas para poder utilizar las 10 pruebas no paramétricas. Para utilizarlas tienes que sustituir los datos en las celdas en “verde” con tus datos. Recuerda que si tienes más filas que las por defecto, es necesario que modifique las fórmulas que hacen referencia a estos datos (ampliando el rango de referencia).