Pruebas de bondad de ajuste y pruebas no paramétricas.

 Introducción: 

En estadística inferencial es común enfrentarse a situaciones en las que es necesario evaluar si una muestra sigue un modelo teórico determinado. Para ello, se utilizan pruebas de bondad de ajuste y, en escenarios donde no se cumplen los supuestos paramétricos tradicionales, se recurre a las pruebas no paramétricas. 

Las pruebas de bondad de ajuste permiten contrastar si una distribución teórica es compatible con los datos observados. Por su parte, las pruebas no paramétricas se utilizan cuando los datos no siguen una distribución normal, cuando las muestras son pequeñas, o cuando las variables están en escalas ordinales o nominales. 

En esta búsqueda documental se analizarán estos métodos desde su definición, aplicación, y con ejemplos prácticos que faciliten su comprensión. 

 4.1 Bondad de ajuste: 

La prueba de bondad de ajuste es un método estadístico que permite evaluar si un conjunto de datos observados se ajusta a una distribución teórica específica. Esta prueba se utiliza para determinar si los datos de una muestra son representativos de la población completa o si siguen una distribución esperada, como puede ser una distribución uniforme, de Poisson, binomial, entre otras [1][2]. 

La prueba de bondad de ajuste, comúnmente realizada mediante la prueba de ji-cuadrada (χ²), compara las frecuencias observadas en cada categoría con las frecuencias esperadas bajo una hipótesis nula que establece que los datos siguen una distribución específica. El estadístico de prueba se calcula como: 

 

donde Oi es la frecuencia observada en la categoría i y Ei la frecuencia esperada según la distribución teórica [3]. 

4.1.1 Análisis Ji-Cuadrada (χ²). 

La prueba de Ji-Cuadrada o χ² es un método estadístico no paramétrico ampliamente utilizado para analizar relaciones entre variables categóricas. Su aplicación se extiende a ámbitos como ciencias sociales, biología, marketing y epidemiología, donde se requiere evaluar si las observaciones en una muestra difieren significativamente de las expectativas teóricas bajo la hipótesis nula de independencia o bondad de ajuste. En este análisis exhaustivo, exploraremos su definición, tipos, cálculo, interpretación y ejemplos prácticos, respaldados por metodologías validadas en literatura técnica [4][5]. 

La prueba χ² compara frecuencias observadas y esperadas en datos categóricos, determinando si las diferencias son atribuibles al azar o reflejan una relación significativa. Su naturaleza no paramétrica la hace ideal para variables nominales u ordinales, como género, preferencias o categorías de clasificación [5]. 

 

Tipos principales de pruebas χ²: 

Prueba de independencia: Evalúa si dos variables categóricas son independientes (ej. género y preferencia por vacaciones) [4][5]. 

Prueba de bondad de ajuste:  Verifica si la distribución observada coincide con una distribución teórica predefinida (ej. distribución uniforme en categorías) [4][6]. 

Requisitos y Limitaciones. 

Datos categóricos:  Excluye variables numéricas como edad o peso [4]. 

Tamaño de muestra: Cada celda en tablas de contingencia debe tener ≥5 observaciones para garantizar validez [4][6]. 

Sensibilidad al tamaño de muestra: Muestras muy grandes pueden magnificar diferencias estadísticamente significativas, pero poco relevantes prácticamente [4][6]. 

Métodos para Aplicar la Prueba χ². 

Constructores de Hipótesis: 

La prueba opera bajo dos enfoques hipotéticos: 

Hipótesis nula (H₀): Las variables son independientes, o las frecuencias observadas coinciden con las esperadas. 

Hipótesis alternativa (H₁): Existe asociación entre variables, o las frecuencias difieren significativamente [4][5]. 

Cálculo del Estadístico χ²: 

El proceso se divide en tres etapas: 

Tabulación de datos: Presentar observaciones en una tabla de contingencia (ej. 2x2). 

Cálculo de frecuencias esperadas (E): 


Aplicar fórmula: 


Interpretación de Resultados. 

Valor p y Significancia Estadística: 

El valor p indica la probabilidad de obtener un estadístico χ² igual o más extremo que el observado, suponiendo H₀ cierta. 

Valor p < 0.05: Rechazar H₀; existe asociación significativa. 

Valor p ≥ 0.05: No se rechaza H₀; diferencias atribuibles al azar [4][6]. 

4.1.2 Prueba de independencia. 

La prueba de independencia de ji-cuadrada (χ²) es un método estadístico utilizado para determinar si existe una relación o asociación entre dos variables categóricas o nominales. Esta prueba evalúa si las variables son independientes (sin relación) o si están asociadas de manera significativa [1][7]. 

Es una prueba de hipótesis que compara las frecuencias observadas en una tabla de contingencia con las frecuencias esperadas bajo la suposición de independencia entre las variables. Si las diferencias entre observadas y esperadas son suficientemente grandes, se rechaza la hipótesis nula de independencia, concluyendo que existe asociación entre las variables. 

Requisitos para aplicar la prueba: 

Dos variables categóricas o nominales. 

Datos provenientes de una muestra aleatoria simple. 

Frecuencias esperadas en cada celda de la tabla de contingencia mayores o iguales a 5 para garantizar la validez. 

 

 

 

Procedimiento básico: 

1.Formular hipótesis: 

Hipótesis nula (H₀): Las dos variables son independientes. 

Hipótesis alternativa (H₁): Las variables están asociadas. 

2.Construir tabla de contingencia con los conteos observados de las combinaciones de categorías. 

3.Calcular frecuencias esperadas para cada celda bajo la hipótesis de independencia: 

Imagen 

4. Calcular el estadístico χ²: 

Imagen 

5. Determinar grados de libertad: 

Imagen 

donde r es el número de filas y c el número de columnas. 

 

6. Comparar χ² calculado con el valor crítico de la distribución χ² para el nivel de significancia deseado (por ejemplo, α=0.05). 

7. Interpretar resultados: 

Si χ² calculado > χ² crítico, se rechaza H₀, indicando asociación entre variables. 

Si no, no se rechaza H₀, indicando independencia. 

 

 

 

4.1.3 Prueba de la bondad del ajuste. 

La bondad de ajuste se define como una medida estadística que nos permite evaluar el grado en que los datos observados se ajustan a los valores esperados predichos por un modelo teórico [10]. En términos prácticos, esta herramienta nos ayuda a determinar si nuestros datos se comportan de la manera que esperamos según un modelo específico de probabilidad [9]. 

Las pruebas de bondad de ajuste tienen tres aplicaciones principales que las convierten en herramientas indispensables en el análisis estadístico. Primero, permiten la validación de modelos al verificar si un modelo estadístico específico (distribución normal, binomial, Poisson, etc.) es adecuado para describir nuestros datos [9]. Esta validación es fundamental para garantizar que las asunciones del modelo se cumplan antes de proceder con análisis más complejos. 

Segundo, estas pruebas son efectivas para la detección de anomalías en los datos. Si los datos no se ajustan bien al modelo esperado, puede indicar la presencia de factores no considerados en el modelo original, como errores de medición, cambios en las condiciones experimentales, o la existencia de patrones subyacentes no capturados por el modelo teórico [9]. Esta capacidad de detección es particularmente valiosa en control de calidad y monitoreo de procesos. 

Finalmente, los resultados de las pruebas de bondad de ajuste influyen directamente en la toma de decisiones estadísticas. Pueden determinar la selección de un modelo estadístico apropiado para realizar inferencias, influir en la interpretación de resultados experimentales, y guiar la elección de métodos analíticos subsecuentes [9].   

4.1.4 Tablas de contingencia. 

Las tablas de contingencia representan una herramienta fundamental en el análisis estadístico para examinar la relación entre variables categóricas. Estas estructuras tabulares organizan datos cualitativos mediante frecuencias observadas en celdas que combinan categorías de dos o más variables, permitiendo identificar patrones de asociación y dependencia. Su aplicación se extiende desde la investigación médica hasta estudios sociales, siendo esenciales para pruebas como la chi-cuadrado de Pearson y el cálculo de medidas de asociación como el coeficiente phi. 

Una tabla de contingencia se define como una representación matricial que organiza datos categóricos mediante la combinación de categorías de dos o más variables cualitativas [11][12]. Cada celda contiene la frecuencia observada de casos que comparten una combinación específica de categorías. La estructura básica incluye filas para las categorías de una variable, columnas para las categorías de otra, y celdas que muestran el conteo de observaciones para cada combinación. 

Una ventaja crítica de este método es su capacidad para excluir datos incompletos, asegurando que solo se consideren encuestados que respondieron todas las preguntas relevantes. Esto reduce errores en la interpretación y mejora la precisión de las conclusiones [12]. 

Tipos de Variables y Clasificaciones 

Las tablas de contingencia manejan principalmente variables categóricas, que pueden ser nominales (sin orden inherente) u ordinales (con jerarquía implícita). Las variables dicotómicas, como fumador/no fumador, representan casos especiales con solo dos categorías, mientras que las politómicas incluyen múltiples opciones como países de origen o especialidades académicas [12]. 

Un aspecto crítico es la distinción entre variables independientes y dependientes. En estudios observacionales, esta diferenciación guía la interpretación de las asociaciones detectadas. Por ejemplo, al analizar la relación entre género y preferencia política, la tabla mostraría cómo se distribuyen las preferencias dentro de cada categoría de género [11]. 

Pruebas Estadísticas para Evaluar Asociaciones 

Prueba Chi-Cuadrado de Pearson: 

La prueba χ2 evalúa si existe una asociación significativa entre las variables analizadas. Se basa en comparar frecuencias observadas (Oij) con las esperadas (Eij) bajo independencia, calculadas como: 

Imagen 

donde N es el gran total de observaciones. El estadístico χ2 se obtiene mediante: 

Imagen 

Un valor alto de χ2 sugiere discrepancia entre observaciones y expectativas bajo independencia. Sin embargo, su interpretación depende del valor-p, que indica la probabilidad de obtener tal discrepancia por azar. Un valor-p < 0.05 rechaza la hipótesis nula de independencia, señalando asociación significativa [12][13]. 

Limitaciones y Supuestos 

Tamaño muestral: Cada celda debe tener al menos 5 observaciones esperadas para garantizar validez. 

Variables nominales: La prueba no considera orden en las categorías, limitando su aplicabilidad en variables ordinales [13]. 

Correcciones y Alternativas 

En tablas 2x2 con muestras pequeñas, se utiliza la corrección de Yates o la prueba exacta de Fisher para reducir errores Tipo I. Para tablas mayores, el análisis residual identifica celdas con contribuciones significativas al χ2, detallando dónde radican las diferencias [11]. 

Medidas de Asociación y su Interpretación 

Coeficiente Phi (ϕ): 

Definido para tablas 2x2, ϕ cuantifica la fuerza de asociación: 

Imagen 

Sus valores oscilan entre 0 (independencia) y 1 (asociación perfecta). Por ejemplo, ϕ=0.3ϕ=0.3 indica una relación moderada [13]. 

Coeficiente V de Cramer: 

Extensión de ϕ para tablas mayores a 2x2, calculado como: 

Imagen 

donde k es el menor número de filas o columnas. V varía entre 0 y 1, permitiendo comparaciones entre tablas de distintos tamaños [12][13]. A diferencia de ϕ, V no requiere ajustes por dimensionalidad, facilitando su uso en diseños complejos. 

4.2 Pruebas no paramétricas: 

Las pruebas no paramétricas son métodos estadísticos utilizados para analizar datos que no cumplen con los supuestos de las pruebas paramétricas, especialmente cuando no se puede asumir que los datos siguen una distribución normal o cuando el tamaño de la muestra es pequeño. Estas pruebas no requieren conocer la distribución de la población de la que provienen los datos, por lo que se les denomina también pruebas "libres de distribución" [14][15]. 

Características principales de las pruebas no paramétricas 

No requieren que los datos sigan una distribución normal ni otros supuestos paramétricos como homogeneidad de varianzas [14][15][16]. 

Son aplicables a datos ordinales, nominales o cuando la escala de medición no es métrica [16]. 

Son útiles con muestras pequeñas o cuando hay dudas sobre la validez de los supuestos paramétricos [16]. 

Generalmente tienen menor potencia estadística que las pruebas paramétricas, por lo que, si se cumplen los supuestos paramétricos, estas últimas son preferibles [16]. 

4.2.1 Escala de medición. 

La escala de medición es un concepto fundamental en estadística que determina el tipo de análisis y pruebas estadísticas apropiadas para los datos. En el contexto de las pruebas no paramétricas, la escala de medición adquiere especial relevancia porque estas pruebas están diseñadas para trabajar con datos que no necesariamente cumplen los supuestos de las escalas métricas clásicas. 

 

Tipos de Escalas de Medición 

Escala Nominal: 

  • Clasifica los datos en categorías sin orden o jerarquía. 

  • Ejemplos: género (masculino/femenino), estado civil, tipo de sangre. 

  • Las pruebas no paramétricas adecuadas incluyen: 

  • Prueba Chi-cuadrado 

  • Prueba exacta de Fisher 

Escala Ordinal: 

  • Los datos se clasifican en categorías que sí tienen un orden o jerarquía, pero las diferencias entre categorías no son cuantificables. 

  • Ejemplos: nivel educativo (primaria, secundaria, universidad), grados de satisfacción (bajo, medio, alto). 

  • Pruebas no paramétricas comunes para datos ordinales: 

  • Prueba de Mann-Whitney 

  • Prueba de Wilcoxon 

  • Prueba de Kruskal-Wallis 

  • Coeficiente de correlación de Spearman 

Escala de Intervalo y de Razón: 

  • Escalas métricas donde se pueden medir diferencias cuantitativas entre valores. 

  • La escala de razón tiene un cero absoluto (ejemplo: peso, altura), mientras que la de intervalo no (ejemplo: temperatura en Celsius). 

  • Aunque estas escalas permiten el uso de pruebas paramétricas, en casos donde no se cumplen los supuestos (normalidad, homocedasticidad), se aplican pruebas no paramétricas [16][17]. 

Importancia de la Escala de Medición en Pruebas No Paramétricas 

  • Las pruebas no paramétricas son especialmente útiles para datos nominales y ordinales, donde las pruebas paramétricas no son apropiadas [17]. 

  • Para datos ordinales, las pruebas no paramétricas aprovechan el orden intrínseco sin asumir distancias iguales entre categorías [17]. 

  • En datos nominales, se evalúan frecuencias y asociaciones sin requerir medidas de tendencia central o dispersión [17]. 

Imagen 

 

4.2.2 Métodos estadísticos contra no paramétricos. 

Los métodos estadísticos paramétricos y no paramétricos se diferencian principalmente en los supuestos que hacen sobre la distribución de los datos y el tipo de información que analizan. 

Características de los Métodos Paramétricos 

Supuestos estrictos: Requieren que los datos provengan de una población con distribución conocida, generalmente normal. 

Variables métricas: Se aplican principalmente a variables cuantitativas en escalas de intervalo o razón. 

Mayor potencia estadística: Cuando se cumplen sus supuestos, ofrecen pruebas más precisas y eficientes para detectar diferencias o relaciones. 

Ejemplos comunes: Prueba t, ANOVA, correlación de Pearson. 

Requieren muestras relativamente grandes (usualmente >30) para garantizar la validez de los resultados. 

Características de los Métodos No Paramétricos 

Sin supuestos de distribución: No requieren que los datos sigan una distribución normal ni otros supuestos paramétricos; son "libres de distribución". 

Adecuados para datos ordinales, nominales o cuando la muestra es pequeña. 

Robustos frente a valores atípicos y distribuciones sesgadas (positiva o negativa). 

Menor potencia estadística que los métodos paramétricos, por lo que se prefieren solo cuando no se cumplen los supuestos paramétricos. 

Ejemplos comunes: Prueba de Mann-Whitney, Wilcoxon, Kruskal-Wallis, Friedman, correlación de Spearman. 

Imagen 

Cuando usar cada método 

Métodos paramétricos: Cuando se cumplen los supuestos de normalidad, homogeneidad de varianzas e independencia, y la muestra es suficientemente grande. 

Métodos no paramétricos: Cuando los datos no cumplen los supuestos paramétricos, la distribución es desconocida o sesgada, la muestra es pequeña, o las variables son ordinales o nominales. 

Ejemplo práctico 

Para comparar la media de dos grupos con datos normales y muestras grandes, se usa la prueba t (paramétrica). 

Si los datos no son normales o la muestra es pequeña, se usa la prueba U de Mann-Whitney (no paramétrica). 

Los métodos no paramétricos amplían las posibilidades de análisis estadístico a situaciones donde las pruebas paramétricas no son aplicables, ofreciendo mayor flexibilidad y robustez a costa de una menor potencia estadística. La elección adecuada depende del tipo de datos, tamaño muestral y cumplimiento de supuestos estadísticos [18][19]. 

 

 

4.2.3 Prueba de KolmogorovSmirnov. 

La prueba de Kolmogorov-Smirnov (K-S) es una prueba no paramétrica utilizada en estadística para determinar si una muestra de datos proviene de una población con una distribución específica o para determinar si dos distribuciones son diferentes15. Fue desarrollada por Andrey Kolmogorov y Nikolai Smirnov en la década de 1930 [20]. 

Características principales 

  • Bondad de ajuste: Evalúa qué tan bien se ajustan los datos observados a una distribución teórica (normal, uniforme, exponencial, etc.) [20]. 

  • No paramétrica: No requiere suposiciones sobre la distribución subyacente de los datos [22]. 

  • Comparación de distribuciones: Determina si dos muestras independientes provienen de la misma distribución [21]. 

  • Estadística inferencial: Permite extraer información sobre las poblaciones [20]. 

¿Cómo funciona? 

La prueba K-S compara la función de distribución acumulada empírica (FDAe) de los datos de la muestra con la función de distribución acumulada teórica (FDAt) de la distribución que se está probando [16][20]. La FDAe representa la proporción de datos que son menores o iguales a un valor dado, mientras que la FDAt representa la distribución teórica esperada [16]. 

El estadístico de prueba (D) es la máxima diferencia absoluta entre la FDAe y la FDAt6. Un valor grande de D sugiere que los datos no se ajustan bien a la distribución teórica, mientras que un valor pequeño sugiere un buen ajuste [20]. 

Hipótesis 

La prueba K-S se basa en las siguientes hipótesis16: 

  • Hipótesis nula (H0): La muestra de datos proviene de la distribución especificada (o las dos muestras provienen de la misma distribución) [16]. 

  • Hipótesis alternativa (H1): La muestra de datos no proviene de la distribución especificada (o las dos muestras no provienen de la misma distribución) [16]. 

El valor p (p-valor) se utiliza para determinar si se rechaza o no la hipótesis nula. Si el valor p es menor que un nivel de significancia predefinido (α), generalmente 0.05, se rechaza la hipótesis nula y se concluye que los datos no siguen la distribución especificada (o que las dos muestras no provienen de la misma distribución) [20]. 

Supuestos 

Para aplicar correctamente la prueba de Kolmogorov-Smirnov, se deben cumplir los siguientes supuestos [20]: 

  • Los datos deben ser una muestra aleatoria de la población. 

  • La distribución teórica que se está probando debe estar completamente especificada (es decir, sus parámetros deben ser conocidos). 

  • Las observaciones deben ser independientes. 

Aplicaciones 

La prueba de Kolmogorov-Smirnov tiene diversas aplicaciones en estadística, incluyendo [20]. 

  • Verificar la normalidad: Determinar si una muestra de datos sigue una distribución normal. 

  • Comparar distribuciones: Evaluar si dos muestras provienen de la misma distribución. 

  • Seleccionar modelos: Elegir la distribución que mejor se ajuste a un conjunto de datos. 

  • Validar simulaciones: Comprobar si los resultados de una simulación se ajustan a la distribución esperada. 

Limitaciones 

La prueba de Kolmogorov-Smirnov tiene algunas limitaciones [20]: 

  • Es sensible a las diferencias en la forma de las distribuciones, pero menos sensible a las diferencias en la ubicación o escala. 

  • Puede ser menos potente que otras pruebas, especialmente cuando se comparan distribuciones con formas similares. 

  • Requiere que la distribución teórica esté completamente especificada, lo que puede no ser posible en todos los casos. 

Alternativas 

Existen otras pruebas de bondad de ajuste que pueden ser más apropiadas en ciertas situaciones, como la prueba de chi-cuadrado y la prueba de Anderson-Darling [20]. La elección de la prueba adecuada depende de las características de los datos y de la pregunta de investigación. 

4.2.4 Prueba de Anderson–Darling. 

La prueba de Anderson–Darling es una prueba estadística de bondad de ajuste utilizada para evaluar si un conjunto de datos proviene de una población con una distribución específica, como la normal, exponencial, Weibull, entre otras [23][24]. 

Características principales 

Objetivo: Determinar si los datos observados se ajustan razonablemente bien a una distribución teórica propuesta. 

Hipótesis 

Hipótesis nula (H0): Los datos siguen la distribución especificada. 

Hipótesis alternativa (H1): Los datos no siguen la distribución especificada17. 

Estadístico de prueba: Calcula una medida basada en la diferencia ponderada al cuadrado entre la función de distribución acumulada empírica (FDAe) de los datos y la función de distribución acumulada teórica (FDAt), con mayor énfasis en las colas de la distribución [24][25]. 

Sensibilidad: Es más sensible que la prueba de Kolmogorov-Smirnov para detectar discrepancias en las colas de la distribución, lo que la hace efectiva para identificar valores atípicos o extremos [25]. 

Procedimiento general 

  1. Ordenar los datos de menor a mayor. 

  1. Calcular los valores esperados bajo la distribución teórica. 

  1. Calcular el estadístico Anderson-Darling, que suma las diferencias ponderadas entre valores observados y esperados. 

  1. Comparar el estadístico con valores críticos o usar el valor p para decidir si se rechaza la hipótesis nula [24]. 

Interpretación 

  • Un estadístico pequeño indica un buen ajuste entre los datos y la distribución propuesta. 

  • Si el valor p es menor que el nivel de significancia (usualmente 0.05 o 0.10), se rechaza la hipótesis nula, concluyendo que los datos no siguen la distribución especificada [24]. 

Aplicaciones 

  • Verificación del supuesto de normalidad para pruebas paramétricas como la prueba t. 

  • Comparación del ajuste de varias distribuciones para seleccionar la más adecuada en análisis de confiabilidad o capacidad [23]. 

  • Evaluación del ajuste a distribuciones continuas diversas, no solo normal [25]. 

Limitaciones y consideraciones 

El valor p no siempre está disponible para ciertos casos o distribuciones, dependiendo del software utilizado [23]. 

La prueba es sensible al tamaño de la muestra: en muestras grandes tiene mayor poder para detectar desviaciones, mientras que en muestras pequeñas puede ser menos potente y más propensa a errores tipo II [25]. 

Cuando varios modelos presentan valores similares del estadístico, se recomienda complementar con análisis gráficos y conocimiento práctico para seleccionar la distribución adecuada [23]. 

La prueba de Anderson-Darling es una herramienta robusta y ampliamente utilizada para evaluar la bondad de ajuste de datos a distribuciones teóricas, destacándose por su sensibilidad en las colas y su aplicabilidad a múltiples distribuciones continuas1 [25]. 

4.2.5 Prueba de Ryan–Joiner. 

La prueba de Ryan–Joiner es una prueba no paramétrica utilizada para evaluar la normalidad de una muestra de datos, es decir, para determinar qué tan bien se ajustan los datos a una distribución normal. 

 

Características principales 

Estadístico basado en correlación: Calcula la correlación entre los datos ordenados y las puntuaciones normales teóricas correspondientes. Un coeficiente de correlación cercano a 1 indica que los datos se ajustan bien a la distribución normal [26][27]. 

Hipótesis 

Hipótesis nula (H0): Los datos provienen de una distribución normal. 

Hipótesis alternativa (H1): Los datos no provienen de una distribución normal. 

Sensibilidad: Similar a la prueba de Shapiro-Wilk, es especialmente adecuada para muestras mayores a 30 observaciones y pone énfasis en las colas de la distribución, otorgando más peso a las discrepancias en esas áreas que la prueba de Kolmogórov-Smirnov [28]. 

Cálculo: Se basa en la regresión y correlación entre los datos ordenados y sus puntuaciones normales, ajustando el estadístico para compararlo con valores críticos, usualmente tomados de tablas como las de Anderson-Darling [26][27]. 

Interpretación: Si el coeficiente de correlación ajustado es menor que el valor crítico, se rechaza la hipótesis nula de normalidad; si es cercano a 1 y el valor p es mayor a 0.05, se acepta que los datos siguen una distribución normal [26][27][28]. 

Aplicación práctica 

  • Muy utilizada en software estadístico como Minitab para verificar la normalidad previa a la aplicación de pruebas paramétricas. 

  • Adecuada para muestras grandes (más de 30 observaciones), complementando o sustituyendo pruebas como Shapiro-Wilk o Kolmogórov-Smirnov según el contexto [26]. 

Resumen comparativo con otras pruebas de normalidad: 

Imagen 

La prueba de Ryan-Joiner es una herramienta robusta para evaluar la normalidad, especialmente útil en muestras grandes, con un enfoque basado en la correlación entre datos observados y teóricos, y con una sensibilidad particular para detectar desviaciones en las colas de la distribución. 

 

4.2.6 Prueba de Shapiro–Wilk. 

La prueba de Shapiro–Wilk es una prueba estadística no paramétrica ampliamente utilizada para evaluar si un conjunto de datos proviene de una distribución normal. Fue desarrollada por Samuel Shapiro y Martin Wilk en 1965 y es considerada una de las pruebas más potentes para contrastar la normalidad, especialmente en muestras pequeñas (generalmente menores a 50 observaciones). 

Características principales 

Hipótesis: 

Nula (H0): Los datos provienen de una distribución normal. 

Alternativa (H1): Los datos no provienen de una distribución normal. 

Estadístico de prueba (W): Calcula la relación entre los valores ordenados de la muestra y los valores esperados bajo normalidad, considerando la covarianza entre ellos. El valor de W varía entre 0 y 1, donde valores cercanos a 1 indican un buen ajuste a la normalidad. 

Interpretación: 

  • Si el valor p es menor que el nivel de significancia (usualmente 0.05), se rechaza la hipótesis nula, concluyendo que los datos no siguen una distribución normal. 

  • Si el valor p es mayor, no se rechaza la normalidad. 

Sensibilidad: Muy adecuada para muestras pequeñas y medianas, con alta potencia para detectar desviaciones de la normalidad, incluso en las colas de la distribución. 

 

 

Procedimiento general 

  • Ordenar los datos de menor a mayor. 

  • Calcular el estadístico W basado en la covarianza entre los datos ordenados y los valores esperados bajo normalidad. 

  • Obtener el valor p asociado al estadístico W. 

  • Comparar el valor p con el nivel de significancia para decidir si se rechaza o no la hipótesis nula. 

Aplicaciones 

  • Verificación previa de normalidad antes de aplicar pruebas paramétricas como la t de Student o ANOVA. 

  • Evaluación de la distribución en estudios con muestras pequeñas o medianas. 

  • Complemento a análisis gráficos para confirmar supuestos de normalidad. 

Ejemplo práctico 

Un investigador con una muestra de 30 observaciones aplica la prueba de Shapiro-Wilk y obtiene un valor W = 0.95 con p = 0.12. Como p > 0.05, no rechaza la hipótesis nula y concluye que la muestra es compatible con una distribución normal. 

La prueba de Shapiro-Wilk es una herramienta estadística confiable y potente para evaluar la normalidad de los datos, especialmente recomendada para muestras pequeñas o medianas, y fundamental para la correcta selección de métodos estadísticos posteriores. 

 

 

 

 

 

 

 

CONCLUSIÓN: 

Concluyendo este estudio y aplicación de pruebas de bondad de ajuste y pruebas no paramétricas son indispensables en la estadística aplicada. En contextos reales, los datos no siempre cumplen con los supuestos parámetros de normalidad o tamaño de muestra grande, lo que obliga al uso de técnicas más flexibles como las pruebas no paramétricas. 

Las pruebas de bondad de ajuste, como la Ji-Cuadrada, permiten comprobar si un modelo teórico se ajusta a los datos observados. Estas son clave en el análisis de variables categóricas y para verificar hipótesis teóricas. Las tablas de contingencia y las pruebas de independencia son útiles en investigaciones sociales y de mercado. 

Por otro lado, las pruebas no paramétricas representan una herramienta poderosa cuando los métodos clásicos fallan. Así ofrecen soluciones válidas incluso en condiciones estadísticas desfavorables. 

Finalmente, entender qué prueba utilizar según el tipo de datos, su distribución y el objetivo del estudio es esencial para garantizar resultados estadísticos válidos y útiles. La correcta selección y aplicación de estas pruebas mejora la calidad de las decisiones basadas en datos. 

 

 

 

 

 

 

Fuentes de consulta (APA): 

[2] (S/f). Unam.mx. Recuperado el 28 de mayo de 2025, de http://www.dcb.unam.mx/profesores/irene/Notas/PruebaBondad.pdf  

[3] Profe Chac. (2021, 3 mayo). PRUEBA DE BONDAD DE AJUSTE [Vídeo]. YouTube. https://www.youtube.com/watch?v=Fr-P4xRuVOQ  

[4] Narvaez, M. (2023, 19 junio). Prueba de chi-cuadrado: ¿Qué es y cómo se realiza? QuestionPro. https://www.questionpro.com/blog/es/prueba-de-chi-cuadrado-de-pearson/  

[6] Zaveri, A. (2024, 9 diciembre). Prueba Chi-cuadrado: Comprensión y aplicación de esta herramienta estadística. Blog Mind the Graph. https://mindthegraph.com/blog/es/chi-square-test/  

[8] Holmes, A., Illowsky, B., & Dean, S. (2022, 14 febrero). 11.4 Prueba de independencia - Introducción a la estadística empresarial | OpenStax. https://openstax.org/books/introducci%C3%B3n-estad%C3%ADstica-empresarial/pages/11-4-prueba-de-independencia  

[9] Bondad de ajuste. (s. f.). ChReinvent. https://www.chreinvent.com/recursos/bondad-de-ajuste  

[10] El concepto de bondad de ajuste - FasterCapital. (s. f.). FasterCapital. https://fastercapital.com/es/tema/el-concepto-de-bondad-de-ajuste.html  

[11] Parra, A. (2023, 23 febrero). ¿Qué es una tabla de contingencia? QuestionProhttps://www.questionpro.com/blog/es/que-es-una-tabla-de-contingencia/  

[12] Molinero, PPL, & Abril, ANWSO (s/f). Análisis de tablas de contingencia de más de 2 variables cualitativas. Alceingenieria.net. Recuperado el 30 de mayo de 2025, de https://www.alceingenieria.net/bioestadistica/loglinear.pdf  

[13] Pérez-León, G. (2022, 14 noviembre). Prueba chi-cuadrado para tablas de contingencia. GPL Research. https://gplresearch.com/prueba-chi-cuadrado/#google_vignette  

[14] Chesniuk, S. (2021, 5 agosto). Pruebas no paramétricas. MetroQuimica Net. https://metroquimica.net/blogs/news/pruebas-no-parametricas  

[15] T-Test, Chi-Square, ANOVA, Regression, Correlation. . . (s. f.). https://datatab.es/tutorial/parametric-and-non-parametric-tests  

[16] Villasante, P. (2022, 31 enero). Pruebas no paramétricas: definición y tipos. La Mente Es Maravillosa. https://lamenteesmaravillosa.com/pruebas-no-parametricas-definicion-y-tipos/#google_vignette  

 

[17] Organizadores Gráficos. (2022, 26 noviembre). Escala de medición - definición, tipos, componentes, ejemplos. Organizadoresgraficos.org. https://www.organizadoresgraficos.org/escala-de-medicion/ 

[18] Bautista Díaz, L. B. D. [M. Leticia Bautista-Díaz]. (2020). Pruebas estadísticas paramétricas y no paramétricas: su clasificación, objetivos y características. Educación y Salud Boletín Científico de la Salud Universidad Autónoma del Estado de Hidalgo, 9(17), resu6-6293. file:///C:/Users/anavi/Downloads/webmaster,+resu6-6293.pdf 

 

 

[19] Velázquez, A. (2023, 25 febrero). Diferencias entre las pruebas no paramétricas y las pruebas paramétricas. QuestionProhttps://www.questionpro.com/blog/es/diferencia-pruebas-no-parametricas-y-pruebas-parametricas/  

[20] Mitjana, LR (28 de mayo de 2019). Prueba de Kolmogórov-Smirnov: qué es y cómo se usa en estadística. organización pym. https://psicologiaymente.com/miscelanea/prueba-kolmogorov-smirnov  
[21] Padilla, J. (2021, 21 de diciembre). Prueba de Kolmogórov-Smirnov: ¿qué es y cómo se usa? La Mente es Maravillosa. https://lamenteesmaravillosa.com/prueba-kolmogorov-smirnov/  

 

[24] (S/f-c). Amelica.org. Recuperado el 30 de mayo de 2025, de https://portal.amelica.org/ameli/jatsRepo/341/3412237018/html/index.html  

[25] (S/f-d). Jove.com. Recuperado el 30 de mayo de 2025, de https://www.jove.com/es/science-education/v/13645/the-anderson-darling-test  

 

[26] (Interpretar todos los estadísticos y gráficos para Prueba de normalidad, s/f) Interpretar todos los estadísticos y gráficos para Prueba de normalidad. (s/f). Recuperado el 30 de mayo de 2025, de https://support.minitab.com/es-mx/minitab/help-and-how-to/statistics/basic-statistics/how-to/normality-test/interpret-the-results/all-statistics-and-graphs/  

[27] Prueba de Ryan. (s/f). Escrito. Recuperado el 30 de mayo de 2025, de https://es.scribd.com/doc/130225115/Prueba-de-Ryan  

[28] (S/f). Amélica.org. Recuperado el 30 de mayo de 2025, de https://portal.amelica.org/ameli/jatsRepo/341/3412237018/html/index.html  

Comentarios