estadistica no parametrica

24
1 Estadística aplicada a la Educación Científica. “Año de la Promoción de la Industria Responsable y Compromiso Climático” UNIVERSIDAD NACIONAL DE EDUCACION ENRIQUE GUZMAN Y VALLE ESCUELA DE POSTGRADO ESTADÍSTICA APLICADA A LA EDUCACIÓN CIENTÍFICA TEMA: ESTADÍSTICA PARAMÉTRICA Y NO PARAMÉTRICA DOCENTE: Dr. NARCISO FERNANDEZ SAUCEDO MAESTRISTAS: Freddy TARAZONA SANCHEZ. Martha GALINDO QUISPE. Alfredo Henry MANRIQUE ARIAS. Henry Edwin PONCE REYES. 2014

Upload: fretar26

Post on 25-Jul-2015

397 views

Category:

Education


2 download

TRANSCRIPT

Page 1: Estadistica no parametrica

1 Estadística aplicada a la Educación Científica.

“Año de la Promoción de la Industria Responsable y Compromiso Climático”

UNIVERSIDAD NACIONAL DE EDUCACION

ENRIQUE GUZMAN Y VALLE

ESCUELA DE POSTGRADO

ESTADÍSTICA APLICADA A LA EDUCACIÓN CIENTÍFICA

TEMA:

ESTADÍSTICA PARAMÉTRICA Y NO PARAMÉTRICA

DOCENTE:

Dr. NARCISO FERNANDEZ SAUCEDO

MAESTRISTAS:

Freddy TARAZONA SANCHEZ.

Martha GALINDO QUISPE.

Alfredo Henry MANRIQUE ARIAS.

Henry Edwin PONCE REYES.

2014

Page 2: Estadistica no parametrica

2 Estadística aplicada a la Educación Científica.

A Dios por permitirnos ser cada día mejores.

Page 3: Estadistica no parametrica

3 Estadística aplicada a la Educación Científica.

INDICE

Índice General. 3

Introducción 4

CAPÍTULO I: Estadística No paramétrica

1.1 ¿Qué es la estadística no paramétrica? 5

1.2 Ventajas y desventajas de la estadística no paramétrica. 5

1.3 Las principales pruebas no paramétricas 6

CAPÍTULO II: Herramientas de la estadística No paramétrica

2.1 Prueba χ² de Pearson 7

2.2 Contraste de los signos e intervalos de confianza 8

2.3 Prueba de rangos asignados de Wilcoxon 9

2.4 Prueba de Mann – Whitney. 10

2.5 Coeficiente de correlación de Spearman 12

2.6 Prueba exacta de Fisher 13

2.7 Prueba de la mediana 13

2.8 Prueba de Kruskal-Wallis 14

2.9 Prueba de Anderson-Darling 14

2.10 Prueba de Cohen kappa 15

2.11 Prueba de Friedman 16

2.12 Prueba de Cochran 17

2.13 Prueba de Kendall 17

2.14 Prueba de Kolmogórov-Smirnov 18

2.15 Prueba de Siegel-Tukey 19

Conclusiones 21

Glosario 22

Simbología 23

Bibliografía 24

Web grafía 24

Page 4: Estadistica no parametrica

4 Estadística aplicada a la Educación Científica.

INTRODUCCIÓN

La Estadística Inferencial se divide principalmente en:

Las técnicas paramétricas y las no paramétricas. Las primeras se basan en suposiciones

específicas acerca de la población de la que se desea hacer algún tipo de inferencia,

mientras que en cambio las técnicas no paramétricas hacen supuestos muy generales

respecto a la distribución poblacional de la que se desea hacer inferencias. Son supuestos

generales por ejemplo la simetría o continuidad de la distribución. Tradicionalmente lo que

separa ambas técnicas estadísticas es el supuesto de que la población de la que se toman

los datos sigue una distribución normal.

Durante mucho tiempo los estadísticos han preferido las técnicas paramétricas o han

optado por diversas transformaciones a fin de poder aplicarlas, dejando como recurso

final a las pruebas no paramétricas cuando no se ha podido encontrar evidencia

estadística de que la población sigue una distribución normal. Por otro lado Hollander M.,

Wolfe D. (1973) recalcan la falta de robustez de las pruebas paramétricas frente al

supuesto de normalidad en la mayoría de los casos. Indican además que los supuestos de

donde se parte para el desarrollo teórico de dichas técnicas son “fuertes”, es decir difíciles

de suponer sin pruebas de hipótesis apropiadas, mientras que las pruebas no

paramétricas permiten soluciones “elegantes” donde los supuestos son más sencillos de

cumplir que los propuestos por las técnicas paramétricas.

En esta monografía nos centraremos en el desarrollo de la estadística NO paramétrica,

Page 5: Estadistica no parametrica

5 Estadística aplicada a la Educación Científica.

CAPITULO I

LA ESTADÍSTICA NO PARAMÉTRICA

1.1. ¿QUÉ ES LA ESTADÍSTICA NO PARAMÉTRICA?

La estadística no paramétrica es una rama de la estadística que estudia las pruebas

y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados

criterios paramétricos. Su distribución no puede ser definida a priori, pues son los

datos observados los que la determinan. La utilización de estos métodos se hace

recomendable cuando no se puede asumir que los datos se ajusten a una

distribución conocida, cuando el nivel de medida empleado no sea, como mínimo,

de intervalo.

Una estadística no paramétrica está basada en un modelo que especifica solo

condiciones muy generales y ninguna acerca de la forma específica de la

distribución de la cual fue obtenida la muestra.

Los procedimientos no paramétricos permiten probar diferentes hipótesis acerca de

la población, precisamente donde los procedimientos paramétricos no actúan.

1.2. VENTAJAS Y DESVENTAJAS DE LA ESTADISTICA NO PARAMÉTRICA:

1.2.1. Ventajas de la Estadística No Paramétrica:

Si el tamaño de la muestra es muy pequeño, puede no haber otra

opción que usar una prueba no paramétrica, a menos que la naturaleza

de la distribución de la población se conozca con exactitud.

Las pruebas no paramétricas típicamente hacen menos suposiciones

acerca de los datos y pueden ser más relevantes a una situación

particular.

Los métodos no paramétricos están disponibles para tratar datos que

son simplemente clasificatorios, es decir medidos en escala nominal.

Existen pruebas no paramétricas que son adecuadas para tratar

muestras obtenidas en observaciones de diferentes poblaciones.

La interpretación de una prueba no paramétrica suele ser más directa

que la interpretación de las pruebas paramétricas.

Page 6: Estadistica no parametrica

6 Estadística aplicada a la Educación Científica.

1.2.2. Desventajas de la Estadística No Paramétrica:

Las estadísticas no paramétricas No son sistemáticas.

Las estadísticas no paramétricas se relaciona con la conveniencia, por

lo que en ocasiones puede ser un problema elegir la adecuada.

1.3. LAS PRINCIPALES PRUEBAS NO PARAMÉTRICAS:

Prueba χ² de Pearson

Contraste de los signos e intervalos de confianza

Prueba de rangos asignados de Wilcoxon

Prueba de Mann – Whitney.

Coeficiente de correlación de Spearman

Prueba exacta de Fisher

Prueba de la mediana

Prueba de Kruskal-Wallis

Prueba de Anderson-Darling

Prueba de Cohen kappa

Prueba de Friedman

Prueba de Cochran

Prueba de Kendall

Prueba de Kolmogórov-Smirnov

Prueba de Siegel-Tukey

Prueba binomial

Prueba de Kuiper

Prueba de cambio de McNemar

Tablas de contingencia

Prueba de Wald-Wolfowitz

En la Estadística no Paramétrica se utiliza a partir de escalas nominales u ordinales

con variables cualitativas, o bien, cuando no se cumple alguno de los tres supuestos

anteriores.

Page 7: Estadistica no parametrica

7 Estadística aplicada a la Educación Científica.

CAPITULO II

HERRAMIENTAS DE LA ESTADÍSTICA NO

PARAMÉTRICA

2.1. Prueba X2 de Pearson:1

La prueba X2 de Pearson es considerada como una prueba no paramétrica que

mide la discrepancia entre una distribución observada y otra teórica (bondad de

ajuste), indicando en qué medida las diferencias existentes entre ambas, de

haberlas, se deben al azar en el contraste de hipótesis. También se utiliza para

probar la independencia de dos variables entre sí, mediante la presentación de los

datos en tablas de contingencia.

2.1.1. Bondad de ajuste:

Permite comprobar si la distribución empírica de una variable cualitativa se

ajusta a una distribución teórica.

Es una extensión del contraste sobre una proporción para el caso de que la

variable tenga más de dos categorías.

La fórmula que da el estadístico es la siguiente:

2

2

1

Ii i

i i

observada teoricaX

teorica

La zona crítica: 2 2

1I kX

Se rechaza Ho si 2 2

1I kX

En caso de rechazar Ho, puede investigarse la causa calculando los

errores:

i i ie observado teorico

o el error tipificado: i

i ie

i

observado teoricoZ

teorico

2.1.2. Independencia e igualdad de proporciones:

Se utiliza para evaluar si existe relación entre dos variables cualitativas.

1 https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_tema_6.pdf

Page 8: Estadistica no parametrica

8 Estadística aplicada a la Educación Científica.

Si la distribución de una variable es igual en todos los grupos de la otra.

Se comprueba si la distribución conjunta de ambas variables se ajusta a lo

esperado bajo la hipótesis de independencia.

Las hipótesis son:

Ho : las variables son independientes.

H1 : las variables están relacionadas.

En este caso la zona crítica para la toma de decisión es:

2 2

1 1I JX

2.2. Contraste de los signos e intervalos de confianza:

El contraste no paramétrico más sencillo de realizar es el contraste de signos. Se utiliza principalmente para contrastar hipótesis sobre la posición central (mediana) de una distribución poblacional o para analizar datos de muestras pareadas. El contraste de signos se emplea en los estudios de mercado para averiguar si los consumidores prefieren uno de dos productos. Dado que los encuestados manifiestan simplemente su preferencia, los datos son nominales y se prestan a métodos no paramétricos.

2.2.1. Contraste de signos de muestras pareadas:

Cuando se toman muestras pareadas de una población y se descartan las

diferencias iguales a 0, por lo que quedan “n” observaciones. El contraste

de signos puede utilizarse para contrastar la hipótesis nula de que la

mediana poblacional de las diferencias es 0. Sea + una diferencia positiva y

– una diferencia negativa. Si la hipótesis nula fuera verdadera, nuestra

secuencia de diferencias + y – podría concebirse como una muestra

aleatoria extraída de una población en la que las probabilidades de + y –

fueran cada una de 0,5. En ese caso, las observaciones constituirían una

muestra aleatoria extraída de una población binomial en la que la

probabilidad de + sería de 0,5. Por lo tanto, si P representa la verdadera

proporción de + que hay en la población (es decir, la verdadera proporción

de diferencias positivas), la hipótesis nula es simplemente

0 : 0,5H P

Donde P es la proporción de observaciones no nulas en la población que

son positivas.

Page 9: Estadistica no parametrica

9 Estadística aplicada a la Educación Científica.

2.2.2. Aproximación normal:

Puede utilizarse la distribución normal como aproximación de la distribución

binomial si el tamaño de la muestra es grande. Los expertos discrepan

sobre la definición exacta de “grande”. Sugerimos que la aproximación

normal es aceptable si el tamaño de la muestra es de más de 20. Un factor

de corrección de continuidad del estadístico del contraste compensa la

estimación de datos discretos con una distribución continua y permite

aproximarse más al p-valor.

El contraste de signos de grandes muestras se basa en la aproximación

normal de la media y desviación típica:

Media: nP Desviación típica: 1nP P

El estadístico de contraste es:

* *S S PnZ

P n

2.3. Prueba de Wilcoxon basado en la ordenación de las diferencias:

Uno de los inconvenientes del contraste de signos es que solo tiene en cuenta una

cantidad muy reducida de información, a saber, los signos de las diferencias.

Cuando el tamaño de la muestra es pequeño, es de esperar, pues, que el

contraste no sea muy poderoso. El contraste de Wilcoxon basado en la ordenación

de las diferencias es un método para incorporar información sobre la magnitud de

las diferencias entre pares enlazados. Sigue siendo un contraste que no depende

de la distribución. Al igual que muchos contrastes no paramétricos, se basa en las

ordenaciones.

La prueba de Wilcoxon puede emplearse cuando se dispone de una muestra

aleatoria de pares enlazados. Si la distribución poblacional de las diferencias en

estas muestras pareadas es simétrica y que queremos contrastar la hipótesis nula

de que esta distribución está centrado en 0. Descartando los pares entre los que la

diferencia es 0, ordenamos las n diferencias absolutas restantes en sentido

ascendente; en caso de empate, el puesto asignado es la media de los puestos

que ocupan en la ordenación. Se calculan las sumas de los puestos

correspondientes a las diferencias positivas y negativas y la menor de estas sumas

es el estadístico de Wilcoxon, T, es decir,

min ,T T T

Page 10: Estadistica no parametrica

10 Estadística aplicada a la Educación Científica.

Donde:

T = suma de los puestos correspondientes a diferencias positivas.

T = suma de los puestos correspondientes a diferencias negativas.

Se rechaza la hipótesis nula si T es menor o igual que el valor de la tabla.

En la hipótesis nula de que las diferencias poblacionales están centradas en 0, el

contraste de Wilcoxon tiene una media y una varianza que vienen dadas por:

1

4T

n nE T

2 1 2 1

24T

n n nVar T

Y cuando el tamaño de la muestra, es grande, la distribución de la variable

aleatoria,

Z, es aproximadamente normal estándar donde:

T

T

TZ

2.4. Prueba de Mann – Whitney:2

Se presenta cuando se toman muestras aleatorias independientes de las dos

poblaciones, el contraste U de Mann-Whitney. La distribución del estadístico de

Mann-Whitney, U, se aproxima a la distribución normal a un ritmo bastante rápido

a medida que aumenta el número de observaciones muestrales. La aproximación

es adecuada si cada muestra contiene al menos 10 observaciones. Por lo tanto,

solo consideraremos aquí las muestras en las que 1 210 10n y n . Para

contrastar la hipótesis nula de que la posición central de las dos distribuciones

poblacionales es igual, suponemos que, aparte de la existencia de cualquier

posible diferencia entre las posiciones centrales, las dos distribuciones

poblacionales son idénticas.

2.4.1. Supongamos que, aparte de la existencia de posibles diferencias entre las

posiciones centrales, las dos distribuciones poblacionales son idénticas.

2 Estadística para administradores y economía. Capítulo 15.

Page 11: Estadistica no parametrica

11 Estadística aplicada a la Educación Científica.

Supongamos que se dispone de 1n observaciones de la primera población y

2n observaciones de la segunda. Se juntan las dos muestras y se ordenan

las observaciones en sentido ascendente, asignando, en caso de empate, la

media de los puestos correspondientes. Sea 1R la suma de los puestos de

las observaciones de la primera población. En ese caso, el estadístico U de

Mann-Whitney se define de la forma siguiente:

1 1

1 2 1

1

2

n nU n n R

2.4.2. Contraste U de Mann-Whitney: aproximación normal.

Suponiendo como hipótesis nula que las posiciones centrales de las dos

distribuciones poblacionales son iguales, el estadístico U de Mann-Whitney

tiene la media y la varianza siguientes:

1 2

2U

n nE U

2 1 2 1 2 1

12U

n n n nVar U

Cuando las muestras son de gran tamaño (ambas son como mínimo de 10),

la distribución normal es una buena aproximación de la distribución de la

variable aleatoria:

U

U

UZ

2.4.3. Reglas de decisión del contraste U de Mann-Whitney.

Se supone que las dos distribuciones poblacionales son idénticas, aparte de

las diferencias que puedan existir entre sus posiciones centrales. Para

contrastar la hipótesis nula de que las dos distribuciones poblacionales

tienen la misma posición central, las reglas de decisión para un nivel de

significación dado son las siguientes:

Si la hipótesis alternativa es la hipótesis de la cola superior unilateral, la

regla de decisión es:

0Re U

U

Uchazar H si z

Si la hipótesis alternativa es la hipótesis de la cola inferior unilateral, la regla

de decisión es:

0Re U

U

Uchazar H si z

Page 12: Estadistica no parametrica

12 Estadística aplicada a la Educación Científica.

2.5. Correlación de orden de Sperman:

El coeficiente de correlación muestral puede verse seriamente afectado por las

observaciones extremas. Además, los contrastes basados en él recurren para su

validez al supuesto de la normalidad. Puede obtenerse una medida de la

correlación en la que no influyen seriamente los valores extremos y en la que

pueden basarse contrastes validos de distribuciones poblacionales muy generales

utilizando los puestos en ordenaciones. El contraste resultante será en ese caso

no paramétrico.

Supongamos que se toma una muestra aleatoria 1 1, ,..., ,n nx y x y de n pares

de observaciones. Si las ix y las

jy se ordenan en sentido ascendente y se

calcula la correlación muestral de estos puestos, el coeficiente resultante se llama

coeficiente de correlación de orden de Spearman. Si no hay empates, una formula

equivalente para calcular este coeficiente es:

2

1

2

6

11

n

i

is

d

rn n

Donde las id son las diferencias entre los puestos de los miembros de los

distintos pares. Los siguientes contrastes de la hipótesis nula Ho de que no existe

ninguna relación en la población tienen un nivel de significación .

Para contrastar la hipótesis nula de que no existe ninguna relación frente a la

hipótesis alternativa de que existe una relación positiva, la regia de decisión es:

0 ,Re s schazar H si r r

Para contrastar la hipótesis nula de que no existe ninguna relación frente a la

hipótesis alternativa de que existe una relación negativa, la regia de decisión es:

0 ,Re s schazar H si r r

Page 13: Estadistica no parametrica

13 Estadística aplicada a la Educación Científica.

2.6. Prueba exacta de Fisher para tablas de 2 x 2.

La prueba de la probabilidad exacta de Fisher para tablas de 2 x 2 es una técnica

extremadamente satisfactoria para analizar datos discretos (tanto nominales como

ordinales) cuando dos muestras independientes son pequeñas.

Se usa cuando las observaciones de dos muestras independientes al azar caen

dentro de dos clases mutuamente excluyentes; las cuales son representadas por

frecuencias en una tabla de 2 x 2.

Los encabezados de los renglones, pueden tener cualquiera de dos

clasificaciones: por arriba y por debajo de la media, acertaron y erraron, ciencias

mayores y artes mayores, acuerdos y desacuerdos, etc.

La prueba determina si los dos grupos difieren en las proporciones en donde caen

dentro de cualquiera de las clasificaciones.

2.7. Prueba de la mediana:

Es un procedimiento para evaluar si dos grupos independientes difieren en sus

tendencias culturales. Más precisamente, esta prueba nos proporciona información

acerca de que tan probable es que dos grupos independientes (no necesariamente

del mismo tamaño) hayan sido extraídos de la misma población con la misma

mediana. La hipótesis nula plantea que los dos grupos son la misma población y

tienen la misma mediana; la hipótesis alterna puede plantear que la mediana de

una población es diferente de la otra población, o que la mediana de una población

es superios que la otra población.

La prueba puede utilizarse cuando las puntuaciones de los dos grupos se miden,

al menos, en una escala ordinal.

Se podrá observar que no puede existir una prueba alterna a la prueba de la

mediana, aún para datos en escala de intervalo. Esto podría ocurrir cuando una o

más de las observaciones están “fuera de la escala” y truncadas hacia el máximo o

el mínimo de las observaciones asignadas.

Esta prueba está especialmente indicada cuando los datos sean extremos o estén

sesgados.

Page 14: Estadistica no parametrica

14 Estadística aplicada a la Educación Científica.

2.8. Prueba de Kruskal – Wallis:

El análisis de la varianza unifactorial por rangos. De Kruskal – Wallis, es una

prueba extremadamente útil para decidir si k muestras independientes provienen

de diferentes poblaciones. Los valores de la muestra invariablemente difieren de

alguna manera, y la pregunta es si la diferencia entre las muestras significan

diferencias genuinas en la población o si solo representan la clase de variaciones

que pueden esperarse en muestras que se obtiene al azar de la misma población.

La técnica Kruskal – Wallis prueba la hipótesis nula de que las k muestras

provienen de la misma población o de poblaciones idénticas con la misma

mediana. Para especificar explícitamente las hipótesis nula y alterna, j debe ser

la mediana de la población para el j-esimo grupo o muestra. Entonces podemos

escribir la hipotesis nula de que las medianas son las mismas como

0 1 2: .... kH y la hipótesis alterna como 1 : i jH para algunos

grupos i y j.

Si la hipótesis alterna es verdadera, al menos un par de grupos tienen medianas

diferentes. Según la hipótesis nula, la prueba supone que las variables en estudio

tienen la misma distribución subyacente; además, requiere que las mediciones de

la variable se encuentres, al menos, en escala nominal.

El estadístico de prueba es:

2

1

123 1

1

kj

j j

RH n

n n n

2.9. La prueba de Anderson-Darling

Es una prueba estadística que permite determinar si una muestra de datos se

extrae de una distribución de probabilidad. En su forma básica, la prueba asume

que no existen parámetros a estimar en la distribución que se está probando, en

cuyo caso la prueba y su conjunto de valores críticos siguen una distribución libre.

Sin embargo, la prueba se utiliza con mayor frecuencia en contextos en los que se

está probando una familia de distribuciones, en cuyo caso deben ser estimados los

parámetros de esa familia y debe tenerse estos en cuenta a la hora de ajustar la

prueba estadística y sus valores críticos. Cuando se aplica para probar si una

Page 15: Estadistica no parametrica

15 Estadística aplicada a la Educación Científica.

distribución normal describe adecuadamente un conjunto de datos, es una de las

herramientas estadísticas más potentes para la detección de la mayoría de las

desviaciones de la normalidad.

2.10. El Coeficiente kappa de Cohen:3

Es una medida de concordancia propuesta por Cohen en 1960, que se basa en

comparar la concordancia observada en un conjunto de datos, respecto a la que

podría ocurrir por mero azar. Es útil para todas las tablas, pero tiene algunas

peculiaridades cuando se aplica a tablas de 2 x 2. Para el caso de más de dos

evaluadores, clasificaciones, métodos, etc., Fleiss generalizó el método de Cohen,

por lo que a veces se conoce también como Kappa de Fleiss.

Está claro que una medida simple de concordancia, sería la proporción de

coincidencias frente al total de sujetos. En la tabla de 2 x 2, y con la nomenclatura

que habitualmente utilizamos sería a d

n

. No obstante, aunque no hubiera

ninguna relación entre los dos métodos de clasificación o evaluación o entre los

observadores, o entre las dos escalas de evaluación, podría haber algún grado de

coincidencia por mero azar. Si empleáramos una moneda para clasificar una

población asignándole una situación según salga cara o cruz, y volvemos a

evaluarlo mediante el lanzamiento de otra moneda, lo más probable es que haya

aproximadamente un 50% de coincidencias. Si se quiere eliminar ese sesgo, hay

que eliminar de alguna forma la concordancia esperada por azar.

Si denominamos Co a la proporción de la concordancia observada (en tanto por

uno), y Ca, a la proporción de concordancia que se esperaría por mero azar, K

sería igual a:

1

Co CaK

Ca

Si K es cero, ello significa que la concordancia observada coincide con la que

ocurriría por puro azar. Valores positivos señalan mayor concordancia que la que

3 http://www.samiuc.es/index.php/estadisticas-con-variables-binarias/medidas-de-concordancia/kappa-

de-cohen.html

Page 16: Estadistica no parametrica

16 Estadística aplicada a la Educación Científica.

se esperaría por el puro azar. Si el resultado fuera 1, se trataría de una

concordancia perfecta. Si K toma un valor negativo, significa existencia de

discordancia, que solamente en la tabla de 2 x 2, podría llegar hasta –1, lo que

señalaría una discordancia total entre las dos clasificaciones o evaluaciones.

Con todo, hay que calcular también el intervalo de confianza en el que se mueve

K, ya que, aunque K tenga valores positivos, si el intervalo de confianza es muy

amplio, habría que reconsiderar la significación, es decir, si es suficiente para

decidir que ambas clasificaciones, observadores, etc. son similares.

Aunque siempre es una escala subjetiva, Landis y Koch propusieron unos límites

para el grado de acuerdo estimado con el resultado del cálculo de Kappa:

Otros discuten la afirmación de que kappa "tiene en cuenta" la posibilidad de

acuerdo. Para hacerlo con eficacia se requeriría un modelo explícito de cómo

afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del

estadístico kappa supone que, cuando no están absolutamente seguros, los

evaluadores simplemente aventuran una respuesta (un escenario muy poco

realista)

2.11. Prueba de Friedman:4

La prueba de Friedman es la alternativa no paramétrica para el análisis de la

varianza de una vía con medidas repetidas.

Fue desarrollado por el economista Milton Friedman.

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n

grupos de k elementos de forma que los elementos de cada grupo sean lo más

parecidos posible entre sí, el método consiste en ordenar los datos por filas o

bloques, reemplazándolos por su respectivo orden.

Las hipótesis a plantearse son:

Ho : No existen diferencias entre los grupos.

H1 : Existen diferencias entre los grupos.

4 http://www.estadisticafi.unam.mx/point/11.pdf

Page 17: Estadistica no parametrica

17 Estadística aplicada a la Educación Científica.

Para resolver el contraste de hipótesis anterior, Friedman propuso un estadístico

que distribuye como una Chi-cuadrado con K – 1 grados de libertad, siendo K el

número de variables relacionadas; se calcula mediante la siguiente expresión.

El estadístico de prueba es:

2 212

3 11

rX Rc H KHK K

Donde:

2

rX Estadístico calculado del análisis de varianza por rangos de Friedman.

H = representa el número de elementos o bloques.

K = el número de variables relacionadas.

2Rc = es la suma de rangos por columnas al cuadrado.

2.12. Prueba de Cochran:5

Es una prueba no paramétrica de comparación de proporciones para tres o más

muestras relacionadas, debe cumplir las siguientes características:

a) Los datos se ajustan a la distribución de chi cuadrada

b) Nivel nominal de la variable dependiente

Su función es comparar el cambio en la distribución de proporciones entre más de

dos mediciones de una variable dicotómica y determinar que la diferencia no se

deba al azar (que las diferencia sea estadísticamente significativa).

2.13. Prueba de Kendall:

En lugar de comparar los rangos, solo se calcula si una coordenada es mayor que

la otra.

El coeficiente tau de Kendall es:

2

1

C DN N

N N

; 1 1

5 http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/Vonk-Cochrans-Q-

2011-June-7.pdf

Page 18: Estadistica no parametrica

18 Estadística aplicada a la Educación Científica.

En caso de empates se usa:

2

1 1

C D

X Y

N N

N N T N N T

Las Hipótesis pueden ser:

Ho : No hay correlación entre las variables.

H1 : Hay correlación entre las variables.

Ho se acepta si : /2,NC

tiende rápidamente a una distribución normal con: (N > 10)

0

4 10

9 1

N

N N

3 1

4 10

N Nz

N

El coeficiente de Kendall indica la diferencia de la probabilidad de que las dos

variables estén en el mismo orden menos la probabilidad de que estén en un

orden diferente.

2.14. Prueba de Kolmogórov – Smirnov:6

En esta prueba se usan como hipótesis de contraste a los siguientes:

Ho : Los datos analizados siguen una distribución M.

H1 : Los datos analizados no siguen una distribución M.

El estadístico de contraste es:

01

sup n i ii n

D F x F x

Donde:

ix es el i-esimo valor observado en la muestra (cuyos valores se han ordenado

previamente de menor a mayor).

n iF x es un estimador de probabilidad de observar valores menores o iguales

que ix .

0 iF x es la probabilidad de observar valores menores o iguales que ix cuando

Ho es cierta. 6

http://www2.ulpgc.es/hege/almacen/download/5/5015/Complemento_3_Prueba_de_Bondad_de_Ajuste_de_Kolmogorov_Smirnov.pdf

Page 19: Estadistica no parametrica

19 Estadística aplicada a la Educación Científica.

De esa manera, D es la mayor diferencia absoluta observada entre la frecuencia

acumulada observada n iF x y la frecuencia acumulada teórica 0 iF x ,

obtenida a partir de la distribución de probabilidad que se especifica como

hipótesis nula.

Cuanto mayor sea la discrepancia entre la distribución empírica n iF x y la

distribución teórica, mayor será el valor de D.

Por lo tanto, el criterio para la toma de decisiones entre las dos hipótesis será de la

forma:

0Si D D Aceptar H

0ReSi D D chazar H

Donde D se elige de tal manera que:

0 0Re /

/

P chazar H H es cierta

P D D los datos siguen la distribución M

Siendo el nivel de significación del contraste.

2.15. Prueba de Siegel-Tukey:7

El procedimiento de Mann-Whitney fue adaptado por S. Siegel y J. Tukey puede

adaptarse para contrastar si dos muestras independientes han sido extraídas de

poblaciones con igual varianza, frente a la hipótesis alternativa de que han sido

extraídas de poblaciones con varianzas diferentes. Para ello, una vez ordenados

todos los elementos de ambas muestras, combinados, se asignan rangos

comenzando desde el menor y el mayor, hacia el centro: al menor valor se le

asocia el rango 1; al valor más elevado y al que le precede se asignan los rangos 2

y 3 ; al segundo y tercer valores más bajos se asignan los rangos 4 y 5, y así

sucesivamente. Si el número total de observaciones en ambas muestras es par,

una de ellas se quedará sin rango. Las expresiones anteriores se utilizan para

7 https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf

Page 20: Estadistica no parametrica

20 Estadística aplicada a la Educación Científica.

calcular el estadístico Rm, que es la suma de rangos de la muestra de menor

tamaño. La interpretación del contraste estriba en que si una de las dos muestras

procede de una población con mayor dispersión, recibirá los rangos menores,

mientras que la que procede de una muestra de menor variabilidad recibirá los

rangos mayores. Puede apreciarse que el contraste tiene interés cuando

condicionamos en que ambas distribuciones tienen una media de posición central

similar.

El estadístico mR puede aproximarse, para

1 2 20n n , por una distribución

Normal:

1 21 1;

2 2

m

m

n n n n nR N

Donde: 1 2 1 2min , ,mn n n y n n n

Page 21: Estadistica no parametrica

21 Estadística aplicada a la Educación Científica.

CONCLUSIONES

Cumpliendo el supuesto de normalidad, para tamaños de muestra pequeños, la

longitud del intervalo de confianza para el valor plausible correspondiente a la prueba

no paramétrica (Prueba de Wilcoxon) es menor que el correspondiente a las

paramétricas (Prueba Z y t). A medida que el tamaño de muestra crece tenemos que

los intervalos de confianza del valor plausible de ambas pruebas llegan a tener

longitudes que no difieren significativamente. El número de aceptaciones de la

hipótesis nula entre las pruebas paramétricas y no paramétricas tampoco difiere

significativamente. Las pruebas paramétricas fueron más potentes que las no

paramétricas. La varianza de la media aritmética para poblaciones normales fue menor

que la de la mediana muestral para todos los casos, ya sean estos al variar el

parámetro σ2 o al variar el tamaño de la muestra. A medida que se aumenta el tamaño

de muestra y el valor del parámetro σ2, el valor de la mediana muestral se acerca

mucho más al valor real de la media poblacional que el valor correspondiente a la

media aritmética en el mismo caso.

Para dos muestras cumpliéndose el supuesto de normalidad si las varianzas de ambas

distribuciones son iguales y las muestras difieren mucho en tamaño, se tiene que las

conclusiones son muy similares para las pruebas paramétricas y no paramétricas. El

valor plausible correspondiente a la prueba paramétrica (prueba t para dos muestras)

es mucho mayor que el de su equivalente no paramétrico (prueba de Mann-Withney) y

sus intervalos de confianza son también de mayor longitud, aunque no

significativamente.

Page 22: Estadistica no parametrica

22 Estadística aplicada a la Educación Científica.

GLOSARIO

CONCEPTOS BÁSICOS

Población: Todo el conjunto de elementos, finito o infinito, que tiene una o varias

características que satisfacen el objeto de estudio de una investigación.

Censo: Está directamente relacionado con la población. Es un listado de los elementos

que componen una población.

Muestra: Es cualquier subconjunto de una población y, para que sea válida, ha de ser

representativa de la población porque se va a trabajar con ella y las conclusiones se

van a extrapolar a la población. Ej. 300 alumnos de la Universidad de Enrique Guzmán

y Valle.

Parámetro: Es cualquier función definida a partir de los valores numéricos de una

población. Se representan con letras griegas.

μ = media

σ = desviación típica

Estadístico: Es cualquier función calculada sobre los valores numéricos de una

muestra (media, moda, mediana, varianza...). Todos ellos permiten describir en forma

simplificada al conjunto de datos obtenidos en la muestra.

X , M = media

S, DT = desviación típica

En definitiva, lo que en la investigación interesa es describir las poblaciones.

Pero debido a que suelen ser muy grandes y su conocimiento es costoso, la

Estadística Inferencial se encarga de estimar los parámetros a partir de los

correspondientes estadísticos.

Tabular: Es clasificar la información de forma resumida mediante una tabla.

Tabla: Conjunto de clases o modalidades

Page 23: Estadistica no parametrica

23 Estadística aplicada a la Educación Científica.

Clase: Agrupaciones de distintos elementos que siguen un criterio (exhaustivas,

excluyentes, definidas).

Frecuencia absoluta (F): número de observaciones que aparece en cada clase o

modalidad.

Frecuencia relativa (Fr ): es igual al cociente entre las frecuencias absolutas y el

número total de datos.

Porcentajes: columnas de las frecuencias relativas multiplicadas por 100. Tiene la

misma función que las frecuencias relativas. % = Fr * 100

Frecuencia acumulada (Fa): Indica el número de casos comprendidos en un

intervalo o por debajo del mismo. La frecuencia acumulada no se puede conocer en

variables cualitativas en escala nominal.

SIMBOLOGÍA

μ Media poblacional

x Media aritmética muestral

μ ~ Mediana poblacional

x~ Mediana muestral

σ2 Varianza poblacional

σ Desviación estándar de la población

H0 Hipótesis Nula

H1 Hipótesis Alterna

ρij Coeficiente de correlación entre la variable Xi y la variable Xj

β0, β1 Parámetros del modelo de regresión lineal simple

T+, T- Estadísticos de Wilcoxon

U1, U2 Estadísticos de Mann-Whitney

W1, W2 Estadísticos de Ansari-Bradley

Page 24: Estadistica no parametrica

24 Estadística aplicada a la Educación Científica.

BIBLIOGRAFIA

Introducción a la estadística descriptiva - Esther Chiner

"Técnicas Estadísticas Paramétricas y No Paramétricas Equivalentes: Resultados” Comparativos por Simulación- Muman Andrés Rojas Dávila-Escuela Superior Politécnica del Litoral-Ecuador.2003.

WEB GRAFIA

http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomunicacion/RecursosGenerale

s/TesisEstadisticaParametricayNoPara "Técnicas Estadísticas Paramétricas y No

Paramétricas Equivalentes: Resultados Comparativos” Por Simulación"

http://scientific-european-federation-osteopaths.org/es/prueba-estadisticas“Las pruebas

estadísticas”

http://es.wikipedia.org/wiki/Par%C3%A1metro_estad%C3%ADstico#Principales_par.C3.A

1metros parámetros

https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf

http://www2.ulpgc.es/hege/almacen/download/5/5015/Complemento_3_Prueba_de_Bondad_de_Ajuste_de_Kolmogorov_Smirnov.pdf

http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/Vonk-

Cochrans-Q-2011-June-7.pdf

http://www.estadisticafi.unam.mx/point/11.pdf

http://www.samiuc.es/index.php/estadisticas-con-variables-binarias/medidas-de-

concordancia/kappa-de-cohen.html

https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_t

ema_6.pdf