mi resumenn

41
MUESTREO Y DISTRIBUCIONES DE MUESTREO PROPIEDADES DE LA MEDIA ARITMETICA Entre varias propiedades de la media aritmética para una distribución normal están: 1. Imparcialidad: implica el hecho de que el promedio de todas las medias de muestras posibles será igual a la media de la población 2. Eficiencia: precisión de la muestra de estadística como un estimador del parámetro de población. 3. Consistencia: efecto del tamaño de la muestra sobre la utilidad de un estimador. Al incrementarse el tamaño de muestra, la variación de la media de muestra de la media de población se hace más pequeña, por lo que se vuelve una mejor estimación. ERROR ESTANDAR DE LA MEDIA El hecho de que las medias de muestras variables son menos variables que los datos de población se desprenden de la ley de números grandes. Una media de muestra particular promedia conjuntamente todos los valores de la muestra. Una población puede consiste en resultados individuales que pueden tener un amplio radio de valores, de extremadamente pequeños a extremadamente grandes. Sin embargo, si un valor extremo cae en la muestra, aunque tendrá un efecto en la media, el efecto se reducirá pues se promediara con todos los demás valores de la muestra. Además, al incrementarse el tamaño de muestra, el efecto de un solo valor extremo se hace cada vez menor, puesto que se está promediando con más observaciones. Este fenómeno se expresa estadísticamente en el valor de la desviación estándar de la media y se denomina desviación de la media de muestra o error estándar de la media. INTRODUCCIÓN AL MUESTREO Los especialistas usan la palabra población para referirse a todo los elementos que han sido escogidos para su estudio; y la palabra muestra para describir una porción escogida de la población. ESTADISTICAS Y PARAMETROS Cuando la media, mediana, moda y desviación estándar describen características de una muestra, se denominan estadísticas; cuando describen las características de una población se llaman parámetros. TIPOS DE MUESTREOS Utilizamos muestreos porque en algunos casos medir una población completa no puede ser factible debido al tiempo y costos que conlleva. Estadística 2 | 1

Upload: andii-de-alba

Post on 21-Feb-2016

216 views

Category:

Documents


2 download

DESCRIPTION

estad 2

TRANSCRIPT

Page 1: Mi Resumenn

MUESTREO Y DISTRIBUCIONES DE MUESTREO

PROPIEDADES DE LA MEDIA ARITMETICAEntre varias propiedades de la media aritmética para una distribución normal están:

1. Imparcialidad: implica el hecho de que el promedio de todas las medias de muestras posibles será igual a la media de la población

2. Eficiencia: precisión de la muestra de estadística como un estimador del parámetro de población.

3. Consistencia: efecto del tamaño de la muestra sobre la utilidad de un estimador. Al incrementarse el tamaño de muestra, la variación de la media de muestra de la media de población se hace más pequeña, por lo que se vuelve una mejor estimación.

ERROR ESTANDAR DE LA MEDIAEl hecho de que las medias de muestras variables son menos variables que los datos de

población se desprenden de la ley de números grandes. Una media de muestra particular promedia conjuntamente todos los valores de la muestra. Una población puede consiste en resultados individuales que pueden tener un amplio radio de valores, de extremadamente pequeños a extremadamente grandes. Sin embargo, si un valor extremo cae en la muestra, aunque tendrá un efecto en la media, el efecto se reducirá pues se promediara con todos los demás valores de la muestra. Además, al incrementarse el tamaño de muestra, el efecto de un solo valor extremo se hace cada vez menor, puesto que se está promediando con más observaciones.

Este fenómeno se expresa estadísticamente en el valor de la desviación estándar de la media y se denomina desviación de la media de muestra o error estándar de la media.

INTRODUCCIÓN AL MUESTREOLos especialistas usan la palabra población para referirse a todo los elementos que han

sido escogidos para su estudio; y la palabra muestra para describir una porción escogida de la población.

ESTADISTICAS Y PARAMETROSCuando la media, mediana, moda y desviación estándar describen características de una

muestra, se denominan estadísticas; cuando describen las características de una población se llaman parámetros.

TIPOS DE MUESTREOSUtilizamos muestreos porque en algunos casos medir una población completa no puede

ser factible debido al tiempo y costos que conlleva.Existen dos tipos: No aleatorio o de juicio: se emplea el conocimiento y la opinión personal para

identificar a los elementos de una población que deben incluirse en una muestra. Probabilidad: todos los elementos de la población tienen la posibilidad de ser elegidos.

Incluyen un análisis mayor estadístico y de planeación, toman as tiempo y dinero que las muestras subjetivas.o Aleatorio simple: cada posible muestra tiene igual probabilidad de ser seleccionada y

cada elemento de la población tiene igual oportunidad de ser incluido en la muestra.o Sistemático: cada elemento tiene igual probabilidad de ser incluido pero cada muestra

no tiene la misma oportunidad de ser elegida.o Estratificado: dividir la población en grupos relativamente homogéneos, llamados

estratos y luego se elige si se escoge aleatoriamente un número específico de elementos o extraemos el mismo número de elementos de cada estrato y se ponderan los resultados. Garantiza que cualquier elemento de la población tenga la misma posibilidad de ser elegido. Se elige cuando existe mayor varianza entre grupos que dentro del mismo grupo; cuando los grupos son homogéneos.

E s t a d í s ti c a 2 | 1

Page 2: Mi Resumenn

El muestreo de juicio y el de probabilidad no son necesariamente excluyentes. Si existe poca información, se podría sugerir uno de probabilidad.

DISEÑO DE EXPERIMENTOSDefinimos un evento como uno o más de los resultados posibles de hacer algo, y un

experimento como la actividad que tendría como resultados tales eventos.

FASES1. Se hace una afirmación2. Se establecen objetivos3. Se selecciona la variable de respuesta4. Elección del tamaño de muestra5. Las condiciones experimentales se mantienen constantes6. Análisis de datos.

INTRODUCCION A LAS DISTRIBUCIONES DE MUESTREOUna distribución de probabilidad de todas las medias posibles de las muestras es una

distribución de las medias de las muestras. Los especialistas en estadística la conocen como distribución de muestreo de la media.

Cualquier distribución de probabilidad puede ser descrita parcialmente por su media y su desviación estándar.

ERROR ESTANDAR DE … DESVIACION ESTANDAR DE LA DITRIBUCION DE … DE LA MUESTRA

La media Medias

Proporción Proporción

Estadística Estadística

Mediana Mediana

Rango Rango

DISTRIBUCION DE MUESTREOS

POBLACIONES NORMALESError estándar de la media para poblaciones infinitas, con reemplazo:

σ x=σ√n

Estandarización de la media de la muestra:

z= x−μσ x

El error estándar de la media es el error de muestreo.

E s t a d í s ti c a 2 | 2

Page 3: Mi Resumenn

POBLACIONES NO NORMALESTEOREMA DEL LIMITE CENTRAL

La media de la distribución de muestra de la media será igual a la media de la población, sin importar el tamaño de la muestra; la distribución de muestreo de la media se acercara a la normalidad, sin importar la forma de la distribución de la población.

El teorema del límite central asegura que la distribución de muestreo de la media se aproxima a la normal al incrementarse el tamaño de la muestra.

La distribución de muestreo de la media tendrá distribución aproximadamente normal:

Para la mayoría, sin importar la forma 30 observaciones

Distribuciones bastante simétricas 15 observaciones

Distribución normalmente Siempre

La importancia del teorema del límite central es que nos permite usar estadísticas de muestras para hacer inferencias con respecto a los parámetros de población, sin saber sobre la forma de la distribución de frecuencia de esa población más lo que podamos obtener en la muestra.

RELACIÓN ENTRE EL TAMAÑO DE MUESTRA Y EL ERROR ESTANDARSi la dispersión disminuye (σẋ se hace más pequeña) entonces los valores tomados por la

media de la muestra tienden a agruparse más cercanamente alrededor de μ, y viceversa. Al disminuir el error estándar, el valor de cualquier media de muestra probablemente se acercara al valor de la media de población.

MULTIPLICADOR DE POBLACIÓN FINITAFactor de corrección para poblaciones finitas:

¿√ N−nN−1

Error estándar de la media para poblaciones finitas:

σ x=σ√n

×√ N−nN−1

Los especialistas en estadística se refieren a la fracción n/N como la fracción de muestreo, porque es la fracción de la población N contenida en la muestra.

Si la fracción de muestreo es menor a 0,5 no es necesario usar el multiplicador de población finita. Si es mayor debe utilizarse, o si el muestreo es conducido sin reemplazo de poblaciones que son de tamaño finito N.

Cuando la muestra constituye una muy pequeña fracción de la población, el factor de corrección no tiene ningún efecto en la estimación del intervalo de confianza.

Para que σẋ sea más pequeña, debo agrandar n. En consecuencia, resulta que el tamaño absoluto de la muestra es el que determina la precisión del muestreo.

El fcpf siempre será menor a 1, lo cual implica que en este tipo de muestreo, las estimaciones surgidas resultan más exactas, o lo que es lo mismo, tienen menos dispersión en el muestreo.

ESTIMACIONLos administradores utilizan estimaciones porque deben tomar decisiones racionales sin

contar con la información pertinente completa y con una cuota de incertidumbre de lo que el futuro pueda deparar.

E s t a d í s ti c a 2 | 3

Page 4: Mi Resumenn

Estadística inferencial: técnicas que permiten dar considerado plausible acerca de un valor de parámetro poblacional de interés.

En la inferencia estadística, debemos tomar los resultados de una sola muestra y llegar a conclusiones acerca de la población, y no al contrario.

Estadígrafos: medidas análogas obtenidas a partir de datos muestrales. También conocidos como estimadores. Se utilizan para proporcionar una idea del valor de a media poblacional correspondiente, pero solo considerando los datos muestrales.

TIPOS DE ESTIMACIONESUna estimación puntual es un solo número que se utiliza para estimar un parámetro de

población desconocido. A menudo, una estimación puntual solo tiene dos opciones: correcta o equivocada, por eso es mucho más útil si viene acompañada por una estimación del error que podría estar implicado.

Una estimación de intervalo es un conjunto de valores que se utiliza para estimar un parámetro de la población. Una estimación de este tipo indica el error de dos maneras: por la extensión del intervalo y por la probabilidad de que el verdadero parámetro poblacional se encuentre dentro del intervalo.

ESTIMADOR Y ESTIMACIONESUn estimador es un estadístico de la muestra utilizado para estimar un parámetro

poblacional.

Una estimación es un valor específico observado de un estadístico que resulta de la muestra particular observada.

CRITERIOS PARA SELECCIONAR UN BUEN ESTIMADOR1. Insesgado: La media de la distribución muestral de las medias de las muestras

tomadas de la misma población es igual a la media de la población misma.

2. Eficiencia: Se refiere al tamaño del error estándar del estadístico. El más eficiente será el que tenga el menor error estándar o la menor desviación estándar de la distribución muestral, tendrá mayor oportunidad de producir una estimación más cercana al parámetro poblacional que se está considerando.

3. Consistencia: Si al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estadístico se aproxima bastante al valor del parámetro poblacional

4. Suficiencia: Si utiliza tanta información de la muestra que ningún otro estimador puede extraer información adicional acerca del parámetro de población que se está estimando.

Un estadístico de la muestra dado no siempre es el mejor estimador de su parámetro poblacional correspondiente. Considere una población con distribución simétrica, en la que los valores de la media y mediana coinciden. En este caso, la media de la muestra sería un estimador imparcial de la mediana de la población. También, la media de la muestra sería un estimador consistente de la mediana de la población puesto que, al aumentar el tamaño de la muestra, el valor de la media de la muestra tendera a acercarse bastante a la población. Y la meda de la muestra sería un estimador más eficiente de la mediana de la población que de la mediana de la muestra misma, ya que en muestras grandes, la media de la muestra tiene un error esta dar menor que la de la mediana de la muestra. Al mismo tiempo, la mediana de la muestra de una población con distribución simétrica sería un estimador imparcial y consistente de la media de la población, pero no el más eficiente, porque en muestras grandes su error estándar es mayor que el de la media de la muestra.

E s t a d í s ti c a 2 | 4

Page 5: Mi Resumenn

ESTIMACIONES PUNTUALESLa media de la muestra es el mejor estimador de la media de la población. Es insesgada,

consistente el estimador más eficiente y, siempre y cuando la muestra sea suficientemente grande, su distribución muestral puede ser aproximada por medio de la distribución normal.

DESVIACION ESTANDAR

s2=∑ (x−x)2

n−1 Muestra

s2=∑ (x−x)2

n Población

ESTIMACION DE INTERVALO: CONCEPTOS BÁSICOSUna estimación de intervalo describe un conjunto o rango de valores dentro del cual es

posible que esté un parámetro de la población.

Sabemos que si seleccionamos graficamos un número grande de medias de muestras de una población, la distribución de estas medias se aproximara a la curva normal. Además, la media de las medias muestrales será igual a la media de la población. Para medir la extensión o dispersión de la distribución demedias muestrales podemos calcular el error estándar de media.

PROBABILIDAD DE QUE EL PARAMETRO POBLACIONAL CAIGA DENTRO DE LA ESTIMACION DEL INTERVALO

Seleccionamos una muestra de 200 baterías, con una vida media de 36 meses.

Aplicando la fórmula del error estándar de la media obtenemos un error de 0,707 meses, podemos decir que la vida útil real de las baterías puede estar en alguna parte de la estimación de intervalo comprendida entre 35,293 y 36,707.

Necesitamos calcular que la duración real de las baterías este en este intervalo o en otros intervalos de diferentes anchos que podamos escoger, ±2σ, ±3σ , y así sucesivamente.

Tenemos que la probabilidad es 0,955 de que la media de una muestre de 200 baterías este dentro de ±2σ errores estándar de la media de la población, dentro del intervalo comprendido entre 34,586 y 37,414, tenemos un 90,7% de confianza de que este dentro del intervalo que va de 33,879 a 38,121 meses o dentro de ±3σ errores estándar de la media de la población.

ESTIMACION DE INTERVALO DE INTERVALOS DE CONFIANZALa probabilidad que asociamos con una estimación de intervalo se conoce como nivel de

confianza esta probabilidad indica qué tanta confianza tenemos de que la estimación de intervalo incluya al parámetro de población. Una probabilidad más alta implica una mayor confianza.

El nivel de confianza se simboliza como (1-α) x100%, en donde α es la proporción que se encuentra en los extremos de la distribución que esta fuera del intervalo de confianza.

El valor de Z elegido para construir el intervalo de confianza se lo conoce como el valor crítico de la distribución. Cualquier aumento en el nivel de confianza se ogra ampliando simultáneamente el intervalo de confianza obtenido, haciéndolo menos preciso y menos útil.

El intervalo de confianza es el rango o alcance de la estimación que estamos haciendo.

Los límites de confianza son los límites superior e inferior del intervalo de confianza. +xσẋ

es el LSC y -xσẋ es el LIC.

A medida que se establece un intervalo de confianza cada vez más estrecho, se determina un nivel de confianza cada vez más bajo. Si el intervalo de confianza es muy reducido, la

E s t a d í s ti c a 2 | 5

Page 6: Mi Resumenn

estimación está asociada a un nivel de confianza tan bajo que cuestionamos su valor; sacrificamos confianza para ganar precisión.

Los altos niveles de confianza producen intervalos más amplios, de manera que sacrificamos precisión para ganar confianza.

Supongamos que tenemos 95% de confianza de que se encuentre entre 30 y 32. Esta afirmación no significa que se tiene 0,95 de probabilidad de que la media caiga dentro del intervalo establecido para la muestra. Más bien, indica que si seleccionamos muchas muestras aleatorias del mismo tamaño y calculamos un intervalo de confianza para cada na, entonces en alrededor del 95% de los casos la media de la población caerá dentro de dicho intervalo.

LSC – Límite superior de confianza y LIC – Límite inferior de confianzax± z σ x

[ LI ; LS ]=[ x−Z1−∝

2

×σ x

√n;x+Z

1−∝2

×σ x

√n ]Z1−∝2

Es el valor de la tabla estandarizada normal, que tiene acumulado hasta ese valor

1−∝2 de probabilidad. Este valor se denomina valor crítico de la distribución. Los más usuales:

(1-α)Nivel de confianza

Z1−∝2

95% 1,9699% 2,57590% 1,645

CÁLCULO DE ESTIMACIONES DE INTERVALO DE LA PROPORCION A PARTIR DE MUESTRAS GRANDES

Distribución en el muestreo de la proporción: distribución de probabilidades que puede asumir un estadístico muestral, calculados a partir de muestras del mismo tamaño y extraídos en forma aleatoria de la misma población.

Para las variables categóricas, en las cuales se registra la posesión o no de una característica, el parámetro poblacional de interés es la proporción que indica qué proporción de la población posee tal característica:

p= xn= éxitostamaño

E s t a d í s ti c a 2 | 6

Page 7: Mi Resumenn

Para derivar la media y la desviación estándar de la distribución nominal:

μ=np ;σ=npq

N= número de ensayos o intentos P= probabilidad de tener éxito Q= 1-p= probabilidad de fracasos

Teóricamente, la distribución binomial es la distribución correcta a utilizar en la construcción de intervalos de confianza para estimar una proporción de la población.

Debido a que el cálculo de probabilidades binomiales puede ser largo, el uso de la misma para elaborar estimaciones de intervalo de la proporción de una población es una proposición complicada. Conforme aumenta el tamaño de la muestra, la distribución binomial puede aproximarse a la normal apropiada, que podemos utilizar para aproximar la distribución muestral. Los estadísticos recomiendan que en la estimación, n sea lo suficientemente grande para que tanto np como nq sean al menos 5 cuando se usa la distribución normal como sustituto de la distribución binomial.

Los límites del intervalo serán:

[LI ; LS]=[ p−Z1−α2

×√ P (1−p )n

; p+Z1−α

2

×√ P (1−p )n ]

Para un tamaño dado, los intervalos de confianza para las proporciones a menudo parecen ser más amplias que los correspondientes a variables continuas, esto se debe a que pueden aportar mayor información. En otras palabras, una variable categórica con solamente dos valores posibles es una medición bastante general, en comparación con una variable continua, de modo que cada observación aporta solamente un poco de información acerca del parámetro que estamos estimando.

z=P1−P

√ P (1−p )n

Error estándar de la proporción:

σ p̂=√ pqn

Error estándar estimado de la proporción:

σ̂ p̂=√ p̂ q̂n

ESTIMACIONES DE INTERVALOS CON LA DISTRIBUCION tEl uso de la distribución t para hacer estimaciones se requiere siempre que el tamaño de

la muestra sea menor o igual a 30 no esté muy sesgada y la desviación estándar de la población no se conozca. Además, al utilizar la distribución t suponemos que la distribución poblacional es normal o aproximadamente normal.

Fue estudiada por Gasset.

CARACTERISTICAS DE LA DISTIBUCION tLa distribución t y normal tienen relación. Ambas son simétricas, acampanadas. En

general, la distribución t es más plana que la distribución normal y hay una distribución t para cada tamaño posible de muestra. Aun así, conforme el tamaño de muestra o grados de libertad se hace más grande, la forma de la distribución t deja de ser plana y se aproxima más a

E s t a d í s ti c a 2 | 7

Page 8: Mi Resumenn

la normal. Esto se debe a que conforme aumenta el tamaño de la muestra, la desviación de la muestra se vuelve una mejor estimación de la desviación de la población.

Con un tamaño de muestra aproximadamente 120 o mayor, S estima a σ, con suficiente precisión, de modo que existe poca diferencia entre las distribuciones t y Z. Por esta razón, cuando la muestra es mayor a 120 se utiliza la distribución Z en lugar de la distribución t.

La distribución t tiene más área en los extremos y menos en la parte central que en el caso de la distribución normal.

Una distribución t es menor en la media y mayor en las colas que una distribución normal.

GRADOS DE LIBERTADPodemos definirlos como el número de valores que podemos escoger libremente.

Utilizaremos los grados de libertado cuando elijamos una distribución t para estimar una media de población, y utilizaremos n-1 grados de libertas, cuando n es igual al tamaño de la muestra.

La varianza es mayor a 1. Cuanto más grados de libertad tenga, la varianza es más cercana a 1 y más se aproximan las distribuciones.

La idea de grados de libertad remite a la cantidad de valores de una muestra que podría asumir cualquier calor. Cada restricción impuesta en la observación, hace perder un grado de libertad.

USO DE LA TABLA DE DISTRIBUCION tDiferencias entre la tabla t y la tabla z:

La tabla t es más compacta y muestra áreas y valores de t solo para algunos porcentajes (10, 5, 2 y 1%)

La tabla z no se concentra en la probabilidad de que el parámetro de población que se está estimando se encuentre dentro del intervalo de confianza. En lugar de ello, mide la probabilidad de que el parámetro de población que estamos estimando no esté dentro de nuestro intervalo de confianza, de que esté afuera.

En la tabla t debemos especificar los grados de libertad que se manejan.

ESTIMACION MEDIANTE EL MINIMO ESFUERZOImplica la selección de una muestra inicial y un posterior muestreo de la muestra inicial.

Desarrollado por Efron, requieren el uso intensivo de la computadora.

No requieren de conocimiento de los parámetros de la población.

Pasos a seguir:

1. Seleccione una muestra aleatoria de tamaño n sin reemplazo de un marco de población de tamaño N.

2. Tome un ejemplo de la muestra inicial, seleccionando n observaciones con reemplazo.

3. De esta segunda muestra calcule la media, la estadística de interés.4. Repita los pasos 2 y 3 m veces diferentes. M suele ser entre 100 y 1000.

E s t a d í s ti c a 2 | 8

Page 9: Mi Resumenn

5. Forme la distribución de muestreo repetido de la estadística de interés, utilizando un diagrama de tallo y hoja o una presentación ordenada.

6. Para formar el intervalo de confianza de mínimo esfuerzo utilice el valor que

interseca al menor y al mayor valor de α2x100% de la estadística.

INTERVALO DE PREDICCION PARA UN VALOR INDIVIDUAL FUTUROEl intervalo de predicción de n valor individual futuro está dado por:

X ± t×S×√1+ 1nDETERMINACION DEL TAMAÑO DE MUESTRA EN ESTIMACIONSe presentara cierto grado de error de muestreo por no estudiar la población completa.

Siempre que tomamos una muestra, perdemos algo de información útil de la población. Si queremos tener un alto nivel de precisión debemos muestrear la población lo suficiente para asegurarnos que obtuvimos la información requerida.

El error de muestreo se puede controlar si seleccionamos una muestra con el tamaño adecuado. En general, cuanta más precisión se requiera, más grande será el tamaño necesario de la muestra. Tenemos que pensar en qué tanto error podeos aceptar y todavía ser capaces de obtener conclusiones adecuadas sobre los datos.

Incluso en los casos en que el nivel de confianza y el error de muestreo están especificados, debemos tener disponible una estimación de la desviación estándar, la podemos desarrollar apropiadamente si tomamos en cuenta el alcance y la distribución de la variable.

√ pqn

=z σ x ; n0=z2×σ 2

e2 ; n=Z2 p(1−p)

σ2

Debe conocerse:

1. Nivel de confianza Z2. Error de muestreo permitido, e. 100% - X% nivel de confianza = e3. Desviación estándar, σ x

Al determinar el tamaño de muestra cuando se estima la media, utilizamos la ecuación del medio, en la que n es el tamaño de la muestra sin considerar el factor de corrección de población finita.

La aplicación del factor de corrección tiene como resultado el tamaño de muestra real, n, calculado con la ecuación:

n=n0N

no+(N−1)

La regla indica que se utilizara un valor de p=0,5 dado que es un criterio conservador, que dar un mayor valor e la varianza y tamaño de la muestra.

Para poblaciones finitas, se obtiene despejando n de la fórmula del error, en el que se utilizara el factor de corrección.

Determinar el tamaño de la muestra nos asegura que el estimador se vuelve más confiable con muestras grandes

¿CUÁNDO APLICAR CADA ESTADÍSTICO? Para estimar el intervalo para la media poblacional, se aplica la distribución normal,

en caso de distribución normal de la variable de estudio, o en su defecto si la muestra es superior a 30 casos.

E s t a d í s ti c a 2 | 9

Page 10: Mi Resumenn

El uso de la distribución t en la estimación por intervalos de la media poblacional es un requisito cuando desconocemos la varianza poblacional, con distribución de la variable en estudio normal si la muestra es menor a 30 casos, y es recomendable, en idénticas condiciones, aun cuando la muestra es mayor. Se usan todos los casos en que necesites estimar la varianza.

E s t a d í s ti c a 2 | 10

Page 11: Mi Resumenn

FUNDAMENTOS DE LA PRUEBA DE HIPOTESISLa prueba de hipótesis comienza con una suposición llamada hipótesis, que hacemos

acerca de un parámetro de población. Empieza con algo de teoría, afirmación o aserción con respecto a un parámetro particular de una población.

Una hipótesis nula es siempre una de status quo o de no diferencia.

Siempre que especifiquemos una hipótesis nula debemos especificar una hipótesis alternativa, o una que debe ser verdadera si se encuentra que la hipótesis nula es falsa.

La hipótesis alternativa representa la conclusión a la que se llegaría si hubiera suficiente evidencia de la información de la muestra para decidir que es improbable que la hipótesis nula sea verdadera y, por lo tanto, rechazarla.

No rechazar la hipótesis nula no prueba que sea cierta; simplemente no nos proporciona evidencia estadística para rechazarla. Siempre que afirmemos que aceptamos la hipótesis nula, en realidad lo que queremos decir es que no hay suficiente evidencia para rechazarla, porque estamos basando nuestra decisión únicamente en la información de la muestra, no en la población entera. Si no rechazamos la hipótesis nula, lo único que podemos decir es que la evidencia fue insuficiente para garantizar su rechazo.

La hipótesis nula es la que se va a probar La hipótesis alternativa es contraria a la nula, representa la conclusión a la que se

llegaría si la hipótesis nula fuera rechazada

En lo que se conoce como metodología de prueba de hipótesis clásica:

La H0 siempre se refiere a un valor especificado del parámetro de población. El planteamiento de H0 contiene un signo de igualdad. El planteamiento de la H1 nunca contiene un signo de igualdad.

Una vez definida la hipótesis, recolectamos datos de muestra, producimos estadísticas muestrales y usamos esta información para decidir qué tan probable es que nuestro parámetro de población hipotético sea correcto. Digamos que suponemos un cierto valor para una media de población. Para probar la validez de esa suposición recolectamos datos de muestra y determinamos la diferencia entre el valor hipotético y el valor real de la media de la muestra. Después juzgamos la diferencia obtenida, si es o no significativa. Mientras más pequeña sea la diferencia, mayor será la probabilidad de que nuestro valor hipotético para la media sea correcto. Mientras mayor sea la diferencia, más pequeña será la probabilidad.

Nuestro estándar mínimo para una probabilidad, también es el riesgo que corremos de rechazar una hipótesis que es cierta.

PRUEBA DE HIPOTESISEn una prueba de hipótesis, debemos establecer el valor supuesto o hipotético del

parámetro de población antes de comenzar a tomar la muestra. La suposición que deseamos probar se conoce como hipótesis nula y se simboliza H0.

E s t a d í s ti c a 2 | 11

Page 12: Mi Resumenn

Un valor hipotético de una media de población seria: μH0.

Si los resultados de nuestra muestra no respaldan la hipótesis nula, debemos concluir que se cumple alguna otra cosa. Siempre que rechazamos la hipótesis, la conclusión que sí aceptamos se llama hipótesis alternativa cuyo símbolo es H1.

La distribución de muestreo de la estadística de prueba se divide en dos regiones: una región de rechazo o crítica y una región de no rechazo. Si la estadística de prueba cae dentro de la región de no rechazo, no se puede rechazar la hipótesis nula.

La región de rechazo puede considerarse como el conjunto de valores de la estadística de prueba que no tienen posibilidad de presentarse si la hipótesis nula es verdadera. Por otro lado, estos valores no son tan improbables de presentarse si la H0 es falsa. En consecuencia, si observamos un valor de la estadística de prueba que cae en esta región critica, rechazamos la H0 porque el valor seria improbable si ésta fuera verdadera.

Con el fin de tomar una decisión con respecto a la H0, primero debemos determinar el valor crítico de la estadística de prueba. El valor crítico separa las regiones de rechazo y no rechazo; depende del tamaño de la primera, que está relacionada con el riesgo implicado en el uso de una sola evidencia de muestra para tomar decisiones con respecto a un parámetro de población.

ERRORES DE TIPO I Y IIRechazar una hipótesis nula cuando es cierta se denomina error tipo I o nivel de

significación y su probabilidad se simboliza con α. Los investigadores han elegido niveles de alfa igual o menores a 5.

Aceptar una hipótesis nula cuando es falsa se le llama error tipo II o riesgo β, y su probabilidad se simboliza con β. Se conoce también como nivel de riesgo del consumidor. Depende de la diferencia entre los valores supuesto y real del parámetro de población.

La probabilidad de cometer un tipo de error puede reducirse solo si estamos dispuestos a aumentar la probabilidad de cometer el otro tipo de error.

Con el fin de obtener una β baja, tendremos que tolerar una α alta. Los tomadores de decisiones deciden el nivel de significancia adecuando examinando los costos o la penalización vinculados con ambos tipos de error.

INTERPRETACIÓN DEL NIVEL DE SIGNIFICANCIA El propósito de la prueba de hipótesis no es cuestionar el valor calculado del estadístico de

la muestra, sino hacer juicio respecto a la diferencia entre ese estadístico y un parámetro hipotético de la población.

¿Qué pasa si probamos una hipótesis con 5% de nivel de significancia? Esto quiere decir que rechazaremos la hipótesis nula si la diferencia entre el estadístico y el parámetro hipotético de la población es tan grande que esta u otra diferencia mayor ocurrirá, en promedio, solo cinco o menos veces en cada 100 muestras, cuando el parámetro hipotético de la población es correcto. Si suponemos que la hipótesis es correcta, entonces el nivel de significancia indicara el porcentaje de medias muestrales que esta fuera de ciertos límites. El nivel de confianza indicaba el porcentaje de medias muestrales que caían dentro de los límites de confianza obtenidos.

SELECCIÓN DE UN NIVEL DE SIGNIFICANCIACuanto más alto sea el nivel de significancia que utilizamos para probar una hipótesis,

mayor será la probabilidad de rechazar la hipótesis nula cuando es cierta.

Cuanto más alto sea el nivel de significancia, el área de no rechazo será más pequeña, por lo que rara vez se rechaza una hipótesis cierta.

E s t a d í s ti c a 2 | 12

Page 13: Mi Resumenn

MEDICION DE LA POTENCIA DE UNA PRUEBA DE HIPOTESISPor cada valor de μ para el que la hipótesis alternativa es cierta hay una probabilidad

diferente, β, de aceptar incorrectamente una hipótesis nula. Claro que desearíamos que esta β fuera lo más pequeña posible o, de manera equivalente, nos gustaría que 1-β fuera lo más grande posible.

Puesto que rechazar una hipótesis nula cuando es falsa es justo lo que debe hacer una buena prueba, un valor alto de 1-β (algo cerca de 1.0) significa que la prueba trabaja bastante bien (rechaza la hipótesis nula cuando es falsa); un valor bajo de 1-β (cerca de 0.0) significa que la prueba trabaja muy mal (no rechaza la hipótesis cuando es falsa). Como el valor de 1-β es la medida de qué tan bien trabaja la prueba, recibe el nombre de potencia de prueba.

Es decir, es la probabilidad de rechazar H0 cuando ésta es falsa y debe ser rechazada.

COEFICIENTE DE CONFIANZAEstá representado por 1-α, es la probabilidad de que H0 no sea rechazada cuando de

hecho es verdadera y debería ser aceptada.

Representa la probabilidad de llegar a la conclusión de que el valor especificado del parámetro que se está probando con la H0 pueda ser plausible.

RIESGOS EN LA TOMA DE DECISIONESDependiendo de la decisión especifico, uno de dos clases de error se puede cometer, o se

puede llegar a una de dos conclusiones correctas.

Una manera en que podemos controlar la probabilidad de cometer un error del tipo II en un estudio, consiste en aumentar el tamaño de la muestra. Para un nivel dado de α, aumentar el tamaño de la muestra disminuirá β y aumentara la potencia de la prueba para detectar si a H0 es falsa.

SITUACIONDecisión estadística H0 verdadera H0 falsaNo rechazar H0 Confianza ( 1-α) Error tipo IIRechazar H0 Error tipo I Potencia (1-β)

Podemos determinar el efecto de a potencia sobre la prueba si variamos, uno a la vez:

El tipo de prueba estadística: de uno o dos extremos: Una prueba de un extremo es más poderosa que una de dos extremos, y se debería utilizar siempre que sea adecuado especificar la dirección de la H1.

El nivel de significación: Puesto que la probabilidad de cometer un error de tipo I y la del II tienen una relación inversa, y esta última es el complemento de la potencia de prueba, entonces alfa y la potencia de prueba varían en proporción directa. Un aumento en el valor de significancia escogido tendría como resultado un aumento en la potencia de la prueba; una disminución en alfa tendría como resultado una disminución en la potencia.

El tamaño de la muestra: Un aumento en el tamaño de la muestra escogida tendría como resultado un aumento en la potencia de la prueba; una disminución en el tamaño de la muestra seleccionada tendría como resultado una disminución en la prueba.

DETERMINACION DEL TAMAÑO DE MUESTRA BASANDOSE EN α Y βSuponiendo que se trata de una prueba de un extremo:

n=σx2× (Zα

❑−Zβ❑)

(μo❑−μ1

❑)2

E s t a d í s ti c a 2 | 13

Page 14: Mi Resumenn

DECISION DE QUÉ TIPO DE DISTRIBUCION USAR EN LA PRUEBA DE HIPOTESISCondiciones para usar las distribuciones normales y t en la prueba de hipótesis sobre

medias

Se conoce σ No se conoce σ

30 < n Normal, z Normal, z

30 > o = n

Normal, z Distribución t

Otra regla que debe cumplirse al probar el valor hipotético de una media. Al igual que en la estimación, utilice el multiplicador de población finita siempre que la población sea finita en tamaño, el muestreo se haga sin reemplazo y la muestra sea de más del 5% de la población.

PRUEBAS DE HIPOTESIS DE DOS COLAS Y DE UNA COLAUna prueba de dos colas rechaza la hipótesis nula si la media de muestra es

significativamente mayor o menor que la media hipotética de la población. Por lo tanto, en una prueba de dos colas, existen dos regiones de rechazo.

Una prueba de dos colas es apropiada cuando la hipótesis nula es μ = μH 0 y la hipótesis alternativa es μ ≠ μH0. En este caso, la evidencia muestral con la media de la muestra significativamente menor que la media hipotética de la población es la que nos lleva a rechazar la hipótesis nula en favor de la hipótesis alternativa. Dicho de otro modo, la región de rechazo está en la cola inferior de la distribución de la media muestral, y esa es la razón por la que la llamamos prueba de cola inferior.

Otro tipo de prueba de una cola es una prueba de cola derecho o superior. Una prueba de cola superior se utiliza cuando las hipótesis son H0: μ = μH0 y H1: μ > μH0. Solo los valores de la media de la muestra que son significativamente mayores que la media hipotética de la población harán que rechacemos la hipótesis nula en favor de la hipótesis alternativa.

VALOR P PARA LA PRUEBA DE HIPOTESISEl valor p es la probabilidad de obtener una estadística de prueba igual o más exacta que

el resultado obtenido a partir de los datos de la muestra, dado que la H0 es realmente verdadera.

Al valor p se o conoce como el nivel de significación observado, que es el mínimo nivel al cual H0 puede ser rechazada para un conjunto de datos.

E s t a d í s ti c a 2 | 14

Page 15: Mi Resumenn

PRUEBAS DE UNA MUESTRA CON DATOS NUMÉRICOS

ELECCION DEL PROCEDIMIENTO DE PRUEBA APROPIADA

PROCEDIMIENTOS PARAMÉTRICOSLos procedimientos de prueba paramétricos pueden definirse como aquellos que:

1) Requieren que el nivel de medición obtenido con los datos recolectados este en forma de escala de intervalo o de una escala de cociente

2) Implican la prueba de hipótesis de valores de parámetro especificados3) Requieren un conjunto limitante de suposiciones

Sin embargo, podemos decidir qué tipos de procedimientos escoger si:

Las mediciones obtenidas con los datos son solamente categóricas, es decir, están escaladas nominalmente; o en rangos, escaladas ordinalmente.

Las suposiciones subyacentes en el uso de los métodos paramétricos pueden no cumplirse.

La situación requiere el estudio de características tales como aleatorización, independencia, simetría o bondad de ajuste en lugar de la prueba de hipótesis con respecto a valores específicos de parámetros de población en particular.

PROCEDIMIENTOS SIN DISTRIBUCION Y NO PARAMETRICOSLos procedimientos de prueba sin distribución pueden definirse ampliamente como:

1. Aquellos cuya estadística de prueba no depende de la forma de la distribución de la población subyacente de la cual se tomó la muestra de datos

2. Aquellos para los cuales los datos no tienen fuerza suficiente para garantizar operaciones aritméticas significativas, están escalados nominal u ordinalmente.

Los procedimientos no paramétricos pueden definirse como aquellos que no tienen que ver con los parámetros de una población.

Principales ventajas del uso de estos dos procedimientos:

Pueden utilizarse en todo tipo de datos: categóricos, de rangos datos medidos con más precisión.

Son fáciles de aplicar y rápidos de calcular cuando los tamaños de muestra son pequeños.

Implican un menor número de suposiciones menos limitantes que los métodos paramétricos. En consecuencia, tienen una mayor aplicabilidad y producen un conjunto de conclusiones más general y con una base amplia.

Los métodos no paramétricos permiten la resolución de problemas que no implican la prueba de parámetros de la población.

Dependiendo del procedimiento particular elegido, los métodos sin distribución pueden ser igualmente o casi, poderosos que el procedimiento paramétrico correspondiente cuando las suposiciones del último se cumplen, y cuando no se cumplen pueden ser bastante más poderosos.

Principales desventajas:

Utilizar métodos libres de distribución cuando se pueden cumplir todas las suposiciones de procedimiento paramétrico.

Conforme aumenta el tamaño de la muestra, la manipulación de datos requerida para efectuar o procedimientos sin distribución y los no paramétricos es laboriosa.

Con frecuencia se necesitan tablas especiales de valores críticos y no es tan fácil disponer de ellas.

E s t a d í s ti c a 2 | 15

Page 16: Mi Resumenn

IMPORTANCIA DE LAS SUPOSICIONES EN LA SELECCIÓN DE LA PRUEBASe dice que algunos procedimientos de prueba paramétricos son robustos porque son

relativamente insensibles a ligeras violaciones en las suposiciones. Sin embargo, cuando las violaciones son grandes, α y 1-β reales pueden diferir enormemente de lo que se espera. En esos casos, una prueba paramétrica no es válida y debería seleccionarse un procedimiento sin distribución.

No es ventajoso utilizar un procedimiento libre de distribución cuando todas las suposiciones de la correspondiente prueba paramétrica pueden lograrse.

PRUEBAS DE HIPOTESIS DE MEDIAS CUANDO SE CONOCE LA σ DE LA POBLACION

PRUEBA DE HIPOTESIS USANDO LA ESCALA ESTANDARIZADAHay dos escalas de medición, la escala original o sin procesar y la escala estandarizada.

Como estos dos números se dan en dos escalas distintas, no podemos compararlos directamente cuando probamos nuestras hipótesis. Debemos convertir uno de ellos a la escala del otro.

Hicimos nuestra prueba de hipótesis en la escala original al convertir los valores z críticos a los valores críticos de X en la escala original.

En lugar de convertir los valores críticos z a la escala original, para obtener números directamente comparables con el valor observado de x, podríamos haber convertido nuestro valor observado de x estandarizada:

z=x−μH o

σ x

Los dos métodos siempre llevaran a las mismas conclusiones, utilizaremos el que nos resulte más cómodo.

EL PROCESO DE CINCO PASOS PARA LA PRUEBA DE HIPOTESIS UTILIZANDO LA ESCALA ESTANDARIZADA

1) Decida si esta es una prueba de dos colas o una. Establezca su hipótesis. Seleccione un nivel de significancia apropiado para esta decisión.

2) Decida qué distribución, z o t, es adecuada y encuentro valores críticos para el nivel de significancia elegido en la tabla adecuada.

3) Calcule el error estándar del estadístico muestral. Use el error estándar para convertir el valor observado del estadístico en un valor estandarizado.

4) Bosqueje la distribución y marque la posición del valor de la muestra estandarizado y del valor crítico para la prueba.

5) Compre el valor del estadístico muestral estandarizado con los valores críticos para esta prueba e interprete el resultado.

PRUEBA DE HIPOTESIS PARA PROPORCIONES: MUESTRAS GRANDES

PRUEBA DE UNA O DOS COLAS PARA PROPORCIONES1. Establezca sus hipótesis, tipo de prueba y nivel de significancia2. Elija la distribución apropiada y encuentre el valor critico3. Calcule el error estándar y estandarice el estadístico de la muestra

σ p=√ pHo×qHo

n

z=P−pHo

σ p

4. Bosqueje la distribución y señale el valor de la muestra y los valores críticos5. Interprete el resultado.

E s t a d í s ti c a 2 | 16

Page 17: Mi Resumenn

PRUEBA DE HIPOTESIS DE MEDIAS CUANDO NO SE CONOCE LA σ DE LA POBLACION

PRUEBA DE UNA O DOS COLAS PARA MEDIAS USANDO LA DISTRIBUCION tComo nuestra prueba de hipótesis se basa en la distribución t, usamos t para denotar el

estadístico estandarizado:

t=x−μHo

σ x

Si utilizamos la distribución t para una prueba de una cola, necesitamos determinar el área localizada solo en una de ellas.

La prueba t está considerada como un procedimiento paramétrico clásico. Como tal, requiere de un cierto número de suposiciones limitantes que deben cumplirse si queremos estar seguros de que los resultados obtenidos al emplear la prueba son válidos. En particular, para utilizar la prueba t de una muestra se supone que los datos numéricos son tomados de manera independiente y representan una muestra aleatoria de la población que está distribuida normalmente.

PRUEBA DE HIPOTESIS: PRUEBAS DE DOS MUESTRAS

PRUEBA DE HIPOTESIS PARA DIFERENCIAS ENTRE MEDIAS Y PROPORCIONES

DISTRIBUCION DE MUESTREO PARA LA DIFERENCIA ENTRE DOS PARAMETROS DE POBLACION

La distribución de muestreo que nos interesa es la distribución muestral de la diferencia entre medias muestrales.

La media de la distribución muestral es la diferencia entre las medias muestrales se representan por μx1− x2 y es igual a μx1−μx 2. Si ambas son iguales, su diferencia será 0.

La desviación estándar de las diferencias entre las medias de la muestra se conoce como el error estándar de la diferencia entre dos medias y se calcula con la siguiente formula:

σ x 1−x 2=√ σ12

n1+σ22

n2Si no conocemos las dos desviaciones de la población, podemos estimar el error estándar

de la diferencia entre dos medias utilizando σ̂ .

PRUEBAS PARA DIFERENCIAS ENTRE MEDIAS: Suponemos que estamos tomando las muestras de poblaciones distribuidas normalmente

que tienen la misma varianza.

En situaciones en las que no podemos hacer la suposición de que las dos poblaciones realmente estén distribuidas normalmente, la prueba t de varianza conjunta es robusta, es decir que no es sensible con respecto a violaciones moderadas de la suposición, siempre y cuando el tamaño de muestras sea grande. En tales situaciones, la prueba t de varianza conjunta puede utilizarse sin que se vea seriamente afectada en su potencia.

Si el tamaño de las muestras es pequeño y no podemos suponer que los datos fueron tomados de poblaciones distribuidas normalmente: se puede realizar alguna transformación normalizante y luego utilizar la prueba de t de varianza conjunta; o seguir un procedimiento de libre distribución, como la prueba de suma de rangos de Wilcoxon, que no dependen de la suposición de normalidad de las dos poblaciones.

En situaciones en las que no podemos o no deseamos hacer la suposición de que las dos poblaciones están distribuidas normalmente, de las cuales se tomaron las muestras que tienen

E s t a d í s ti c a 2 | 17

Page 18: Mi Resumenn

igual varianza, se dice que tiene un problema de Behrens – Fisher, y se puede utilizar la prueba t de varianza separada, desarrollada por Satterwaite.

MUESTRAS GRANDESCuando ambos tamaños de muestra son mayores que 30, estandarizamos la diferencia de

las medias entre las muestras. Primero calculamos la diferencia hipotética de las medias de las poblaciones y luego dividimos entre el error estándar estimado de la diferencia entre las medias muestrales.

z=(x1−x2 )−(μ1−μ2 )Ho

σ̂x 1−x 2

MUESTRAS PEQUEÑASNuestra primera tarea al efectuar la prueba consiste en calcular el error estándar de la

diferencia entre las dos medias. Como no se conocen las desviaciones estándar de las poblaciones, utilizaremos la σ̂ .

La estimación conjunta de σ2:

sp2=

(n1−1 )×s12+(n2−1)×s2

2

n1+n2−2

Como tenemos que usar las varianzas de la muestra para estimar el valor desconocido de σ2, la prueba estará basada en la distribución t. Este caso es igual a probar una sola media de tamaño n, cuando no conocemos el valor de σ2. Ahí utilizamos una distribución t con n-1 grados de libertad, debido a que una vez que conocemos la media de la muestra solo n-1 observaciones se pueden especificar libremente.

En el paso 3, cálculo del error estándar estimado de la diferencia entre dos medias muestrales, con muestras pequeñas y varianzas de poblaciones iguales tenemos:

σ̂ x 1−x 2=sp√ 1n1 + 1n2PRUEBA DE DIFERENCIAS ENTRE MEDIAS CON MUESTRAS DEPENDIENTESEl uso de muestras dependientes o apareadas permite llevar a cabo un análisis más

preciso, porque permite controlar factores externos. Con muestras dependientes, todavía se sigue el procedimiento básico adoptado en todas las pruebas de hipótesis. Las únicas diferencias consisten en que se emplea una formula distinta para el error estándar estimado de las diferencias muestrales y que es necesario que ambas muestras sean del mismo tamaño.

Con muestras independientes, la hipótesis nula no puede ser rechazada.

PRUEBAS PARA DIFERENCIAS ENTRE PROPORCIONES: MUESTRAS GRANDES

PRUEBAS DE DOS COLAS PARA DIFERENCIAS ENTRE PROPORCIONESEl error estándar de la diferencia entre dos proporciones:

σ x 1−x 2=√ p1q1n1

+p2q2n2

Si establecemos la hipótesis de que no hay diferencia entre las dos proporciones de la población, entonces la mejor estimación de la proporción global de éxitos en la población es, tal vez, la proporción combinada de éxitos en ambas muestras, esto es:

E s t a d í s ti c a 2 | 18

Page 19: Mi Resumenn

(mejor estimación de la proporciónglobal de éxitosen la pobacióncon lahipótesis de que lasdosproporciones son iguales

)=(números deéxitosenlamuestra1 )+(números deéxitos

enlamuestra2 )( tamaño total deambasmuestras )

Y en el caso de los dos compuestos:

p̂=n1 p1+n2 p2

n1+n2Estandarizamos la diferencia entre as dos proporciones de la muestra observada,

dividimos entre el error estimado de la diferencia entre dos proporciones:

z=( p1−p2 )−( p1−p2 )Ho

σ̂ x1− x2

VALOR P: OTRA MANERA DE VER LAS PRUEBAS DE HIPOTESISCuando probamos las hipótesis, tomamos una muestra, calculamos la media y rechazamos

la hipótesis nula si la media de la muestra se aleja de la poblacional, que la probabilidad de encontrar una gran diferencia entre ambas es menor que 0,05. En otras palabras, antes de tomar la muestra especificamos qué tan improbables deberán ser los resultados observados para que rechacemos la hipótesis nula. Existe otra forma de enfocar la decisión de aceptar o rechazar la hipótesis nula que no requiere especificar el nivel de significancia antes de tomar la muestra.

VALORES P PARA OTRAS CONDICIONES1. Si σ fuera conocida y estuviéramos realizando una prueba de una cola, habríamos

calculado el valor P exactamente de la misma manera, con la excepción de que no multiplicaríamos por dos la probabilidad obtenida en la tabla de distribución normal, porque esa tabla da las probabilidades de una cola directamente.

2. Si no se conociera σ, habríamos utilizado la distribución t con n-1 grados de libertad y la tabla de distribución de t de Student. Esta tabla nos da las probabilidades de dos colas, pero solo unas cuantas, de modo que no podemos obtener valores p exactos.

3.

PRUEBA DE HIPOTESIS X2 PARA LA VARIANZA O DESVIACION ESTANDARLas pruebas de ji – cuadrada nos permiten hacer mucho más que probar la igualdad de

varianzas de proporción.

X2=(n−1)×S2

σx2

Una distribución chi cuadrada es una distribución sesgada cuya forma depende exclusivamente de los grados de libertad; a medida que aumenta, la distribución se vuelve más simétrica.

Debemos tener cuidado al probar una hipótesis con respecto a una varianza o desviación estándar de la poblamos, tenemos que ser conscientes de que hemos supuesto que los datos de la población están distribuidos normalmente. Esta prueba es bastante sensible a los alejamientos de tal suposición, es decir que no es una prueba robusta, de tal modo que si la población no está distribuida normalmente, en especial para tamaños pequeños de muestra, la precisión de la prueba puede verse seriamente afectada.

E s t a d í s ti c a 2 | 19

Page 20: Mi Resumenn

PRUEBA DE HIPOTESIS DE RANGOS CON SIGNO WILCOXON PARA LA MEDIANALa prueba de rangos con signo de Wilcoxon puede utilizarse cuando deseamos probar una

hipótesis con respecto a la mediana de la población, Mx. este procedimiento libre de distribución, que no implica ninguna suposición acerca de la forma específica de la distribución de población subyacente, excepto que sea aproximadamente simétrica.

Es más probable que el procedimiento de Wilcoxon, que hace pocas suposiciones menos limitantes que la prueba t, sea más poderoso para detectar la existencia de diferencias significativas que su correspondiente contraparte paramétrica.

Las suposiciones necesarias para llevar a cabo la prueba de rangos con signo de Wilcoxon son:

1. Que los datos observados constituyan una muestra aleatoria de n valores independientes de una población con una mediana desconocida.

2. Que el fenómeno aleatorio subyacente de interés sea continuo.3. Que los datos observados sean medidos a un nivel más alto que la escala ordinal4. Que la población subyacente sea aproximadamente simétrica

No todas las distribuciones simétricas tienen forma de campana, aunque todas las distribuciones normales son simétricas y tienen forma de campana.

Para llevar a cabo la prueba se deben seguir seis pasos:

1) Obtenemos un conjunto de resultados de diferencia D i entre cada uno de los valores observados y el valor especificado de la mediana supuesta:

Di=X i−M o, donde i=1, 2, 3…2) Obtenemos un conjunto de n diferencias absolutas: |Di|3) Omitimos cualquier diferencia cuyo resultado es 0.4) Luego asignamos rangos, Ri, de 1 a n’ a cada una de las diferencias absolutas, de

modo tal que la más pequeña obtenga el rango 1 y la mayor el rango n’. Debido a una falta de precisión en el proceso de medición, si dos o más de las |D| son iguales, a cada una se le asigna un rango promedio de los rangos que tendrían asignaos de manera individual.

5) Reasignamos los signos + y – a cada uno de los n rangos, dependiendo d si la diferencia era originalmente positiva o negativa.

6) La prueba de Wilcoxon, W, se obtiene de a suma de los rangos positivos:W=∑ R+¿¿

La prueba estadística de prueba W está distribuida de manera aproximadamente normal, y puede utilizarse la siguiente formula de aproximación de muestra grande para probar la H0:

μw=n ' ×(n'+1)

4;σ w=√ n ' ×(n'+1)×(2n'+1)

24; n'=

tamañoreal de lamuestradespues deeliminar las

observaciones condiferenciasabsolutas decero

Entonces:

Z=W−

n' ×(n'+1)4

√ n '×(n'+1)×(2n'+1)24

PRUEBA DE CORRIDAS DE UNA MUESTRA DE WALD-WOLFWITZSe supone que todos los datos recolectados en un estudio constituyen una muestra

aleatoria, de modo que cada observación o medida es tomada de la población de manera aleatoria e independiente. Tal suposición puede ser probada mediante el empleo de un

E s t a d í s ti c a 2 | 20

Page 21: Mi Resumenn

procedimiento no paramétrico conocido como pruebas de corridas de una muestra de Wald-Wolfwitz para aleatoriedad.

Para probar la aleatoriedad:

H0: el proceso que genera el conjunto de datos numéricos es aleatorio H1: el proceso que genera el conjunto de datos numéricos no es aleatorio

La hipótesis nula de aleatoriedad puede probarse mediante la observación del orden o secuencia e que se obtienen los elementos de la muestra. Si a cada elemento se le asigna uno de dos términos, como E y F (éxito y fracaso), dependiendo de si la medida cae por arriba o por debajo de un cierto valor, la aleatoriedad de la secuencia puede ser investigada. Si esta es generada de manera aleatoria, el valor E o F de un elemento será independiente tanto de su posición en la secuencia como del valor de los elementos que le preceden.

Por otra parte, si el valor de un elemento de la secuencia es afectado por los valores de los demás elementos, o si la probabilidad de su ocurrencia depende de su posición en la secuencia, el proceso que la genera no es considerado aleatorio. En los casos no aleatorios, los elementos parecidos tenderán a agruparse o se mezclaran de manera alternada, de modo que se presentaría algún efecto periódico sistemático.

Para estudiar si una secuencia observada es aleatoria o no, consideraremos como estadística de prueba el número de corridas presentes en los datos.

Una corrida se define como una serie de elementos similares que están limitados por elementos de un tipo diferente o por el inicio o el final de la secuencia.

Al probar la aleatoriedad, lo esencial es el ordenamiento o la colocación de los elementos de la secuencia, no nada más la frecuencia de los elementos de cada tipo.

En caso de querer comprobar la aleatoriedad utilizaremos una prueba de dos colas.

Si estamos interesados en probar la aleatoriedad contra una alternativa específica utilizaremos una prueba de una cola:

Izquierda – U menor o igual al valor crítico: efecto de tendencia, hay tendencia de agrupamiento de los elementos parecidos.

Derecha – U mayor al valor crítico: efecto sistemático o periódico, se presentan demasiadas corridas.

La fórmula de cálculo:

n1=numero deéxitos enlamuestran2=numerode fracasosen lamuestran=tamaño de lamuestra :n=n1+n2

U=númerode corridasobservadas :

μn=2n1n2

n+1

;σn=√ 2n1n2×(2n1n2−n)n2×(n−1)

Z=U−( 2n1n2n

+1)√ 2n1n2×(2n1n2−n)

n2×(n−1)

E s t a d í s ti c a 2 | 21

Page 22: Mi Resumenn

OTRAS PRUEBAS DE HIPOTESIS

PRUEBA T DE VARIANZA SEPARADA PARA DIFERENCIAS ENTRE DOS MEDIASLa estadística de prueba t’ de varianzas independientes puede ser aproximada por una

distribución t con los grados de libertad, v, tomados como la parte entera del cálculo:

t '=( X1−X 2)−(μ1−μ2)

√ S12

n1+S22

n2

v=( S1

2

n1+S22

n2 )( S1

2

n1 )2

(n1−1 )+

( S22

n2 )2

(n2−1 )

PRUEBA F PARA DIFERENCIAS ENTRE DOS VARIANZAS La estadística de prueba F para probar la igualdad entre dos varianzas seria:

F=S12

S22

Al probar la igualdad de dos varianzas, se puede emplear prueba de dos extremos o de un extremo, dependiendo de si estamos probando si las varianzas de dos poblaciones son diferentes o si una de ellas es mayor o igual que la otra.

PrecauciónAl probar la igualdad de dos varianzas de población, debemos tener en cuenta que la

prueba supone que cada una de las dos distribuciones está distribuidas de manera normal. Esta estadística de prueba F no es robusta con respecto a violaciones a esta suposición, en particular cuando los tamaños de muestra de los dos grupos no son iguales. Por lo tanto, si las poblaciones no están distribuidas por lo menos, de manera aproximadamente normal, la precisión del procedimiento puede verse afectado seriamente.

PRUEBA t PARA LA DIFERENCIA DE MEDIASLa estadística de prueba Z es:

E s t a d í s ti c a 2 | 22

Page 23: Mi Resumenn

Z=D−μD

σD

√nEn la que:

D=∑t=1

n

Dt

Siempre y cuando el tamaño de la muestra no sea muy pequeño y la población no esté muy sesgada, la distribución t da una buena aproximación a la distribución de muestreo de la diferencia de promedio. Para probar una hipótesis nula de no diferencia en las medias de dos poblaciones relacionadas se puede calcular la siguiente estadística de prueba t:

t=D−μD

sD

√n

SD=√∑t=1n

D12−nD2

n−1

ANOVA Y OTRAS PRUEBAS DE c MUESTRAS CON DATOS NUMERICOS

ELECCION DEL PROCEDIMIENTO DE PRUEBA APROPIADO PARA COMPARAR c MUESTRAS

Cuando nos preparamos para evaluar diferencias entre c grupos que contienen datos numéricos, debemos seleccionar un procedimiento de prueba adecuado. Criterios:

El tipo de modelo de diseño experimental desarrollado El nivel de medición con que se tomaron los datos La viabilidad de las hipótesis que subyacen en los procedimientos de prueba

alternativos La capacidad de generalización de las conclusiones por obtener La accesibilidad de las tablas de valores críticos para la estadística e prueba La disponibilidad de paquetes de software de computación que contengan el

procedimiento de prueba La potencia estadística del procedimiento de prueba

PRUEBA F ANOVA DE UNA DIRECCION PARA DIFERENCIAS EN c MEDIASCuando las mediciones resultantes en los x grupos son continuas y se cumplen ciertas

suposiciones, se puede emplear una metodología conocida como análisis de varianza (o ANOVA: ANalysis Of VAriance) para comparar las medias de los grupos.

En cierto sentido, el término “análisis de varianza” parece no ser el correcto, pues el objetivo consiste en analizar diferencias entre las medias de los grupos. Sin embargo, a través del análisis de la variación de los datos tanto entre los c grupos como dentro de ellos, seremos capaces de llegar a conclusiones acerca de posibles diferencias en las medias de los grupos. En ANOVA subdividimos la variación total de las mediciones resultantes en lo que se puede atribuir a diferencias entre los c grupos y lo que se debe al azar o que se puede atribuir a una variación inherente dentro de los c grupos. La variación dentro de grupos se considera un error experimental, mientras que la variación entre grupos se atribuye a efectos de tratamiento.

E s t a d í s ti c a 2 | 23

Page 24: Mi Resumenn

DESARROLLO DE ANOVAPara llevar a cabo una prueba de ANOVA de la igual de las medias de población,

subdividimos la variación total en las mediaciones resultantes en dos partes, la que se puede atribuir a las diferencias entre los grupos y la que se debe a variaciones inherentes dentro de los grupos. La variación total generalmente se representa con la suma total de cuadrados (SST: Sum of Squares Total). Puesto que bajo la hipótesis nula las medias de población de los c grupos se suponen iguales, se puede obtener una medición de la variación total entre todas las observaciones, mediante la suma de las diferencias al cuadrado entre cada observación individual y la gran media o media general, X́ que esta basada en las observaciones de todos los grupos combinados. La variación total se calcularía como:

Variación total (SST )=∑ (X−X́ )2

La variación entre grupos, por lo general conocida como suma de cuadrados entre grupos (SSA: Sum of Squares Among), se mide mediante la suma de diferencias al cuadrado entre la media de la muestra de cada grupo y la media general o gran media, ponderadas o pesadas con el tamaño de muestra de cada grupo. La variación entre grupos se calcula a partir de:

Variaciónentre grupos (SSA )=∑ n× ( X− X́ )2

La variación dentro del grupo, por lo general conocida como la suma de cuadrados dentro del grupo (SSW: Sum of Squares Within), mide la diferencia entre cada observación y la media de su propio grupo, y suma los cuadrados de tales diferencias sobre todos los grupos:

Variaciondentrodel grupo (SSW )=∑ ( X−X )2

Existen n-c grados de libertad asociados con la suma de cuadrados dentro de grupos. Además, existen n-1 grados de libertad asociados con la suma e totales al cuadrado porque cada observación es comparada con la media general o gran media, basándose en n observaciones.

Si cada una de estas sumas de cuadrados se divide entre sus grados de libertad asociados, obtendremos tres varianzas o términos cuadráticos medios:

MSA= SSAc−1

M SW=SSWn−c

MST= SSTn−1

Debido a que una varianza se calcula dividiendo la suma de diferencias al cuadrado entre los correspondientes grados de libertad, los términos cuadráticos son todas las varianzas.

La estadística de prueba f es el cociente de:

F= MSAMSW

E s t a d í s ti c a 2 | 24

Variacion total - SST

Variacion entre grupos -

SSA

Error experimental

Variacion detro de

grupos - SSW

Efecto de tratamiento

Page 25: Mi Resumenn

La estadística sigue una distribución F con c-1 y n-c gl. Para un nivel de significación dado, σ, podeos rechazar la hipótesis nula si la estadística de prueba excede al valor critico de extremo superior de la distribución F.

Si la hipótesis nula fuera verdadera, deberíamos esperar que la estadística F calculada fuera aproximadamente igual a 1, pues los términos cuadráticos medios tanto del numerador como del denominador son estimaciones de la varianza verdadera, inherente a los datos.

En el otro extremo, si Ho es falsa, deberíamos esperar que la estadística F calculada sea sustantivamente mayor que uno, pues el numerador MSA estaría estimando el efecto del tratamiento o la diferencia entre grupos, además de la variabilidad inherente de los datos, mientras que el denominador, MSW, estaría midiendo solamente la variabilidad inherente. En consecuencia, el procedimiento ANOVA produce una prueba F en la cual la hipótesis nula puede ser rechazada a un nivel de significación α, solamente si la estadística F calculada es lo suficiente grande para exceder al valor critico de extremo superior de la distribución F, con c-1 y n-c gl.

Los resultados de un procedimiento de análisis de varianza por lo general se presentan en una tabla de resumen ANOVA que nos permite llegar directamente a conclusiones con respecto a la hipótesis nula sin tener que referirnos a una tabla de valores críticos de la distribución F. si el valor p es menor que el nivel elegido de significación la hipótesis nula es rechazada.

FUENTE GL SUMAS DE CUADRADOS CUADRADO MEDIO (VARIANZA) F

ENTRE GRUPOS c-1 SSA=∑ n× (X−X́ )2 MSA= SSA

c−1F= MSA

MSWDENTRO DE

GRUPOSn-c SSW=∑ (X−X )2 MSW=SSW

n−c

TOTAL n-1 SST=∑ (X−X )2

PREMISAS ANOVAEn el análisis de varianza se tienen tres suposiciones principales:

1) Aleatoriedad e independencia de errores: debe cumplirse para evitar tendencias en los resultados. No solo se refiere a errores fortuitos, sino también a la diferencia de cada valor observado respecto a la media de su propio grupo. La premisa es que tales diferencias deben ser independientes de cada valor observado. Esto es, la diferencia o error de una observación no debería estar relacionada con la diferencia o error de cualquier otra observación.

2) Normalidad: establece que los valores de cada grupo están distribuidos de manera normal. La prueba F ANOVA de una dirección es bastante robusta respecto a las desviaciones de la distribución normal; siempre y cuando las distribuciones no sean extremadamente diferentes de una distribución normal, el nivel de significación de la prueba de análisis de varianza no se ve muy afectado por la falta de normalidad, particularmente en muestras grandes.

3) Homogeneidad de varianzas: establece que la varianza dentro de cada población debería ser igual para todas las poblaciones. Esta suposición es necesaria con el fin de combinar o agrupar las varianzas en una sola fuente de variación dentro de grupos, SSW. Si se tienen tamaños de muestra iguales en cada grupo, las inferencias basadas en la distribución F tal vez no son afectadas seriamente por varianzas desiguales. Sin embargo, si existen tamaños de muestras desiguales en grupos diferentes, las varianzas distintas de un grupo a otro pueden tener serios efectos en las inferencias obtenidas del análisis de varianza.

Cuando solamente se viola la premisa de homogeneidad de las varianzas, se tienen disponibles procedimientos parecidos a los utilizados en la prueba t’ de varianzas separadas.

E s t a d í s ti c a 2 | 25

Page 26: Mi Resumenn

Sin embargo, si se violan las premisas de normalidad y homogeneidad de varianzas, se puede utilizar una transformación de datos apropiada que normalizará los datos y reducirá las diferencias en las varianzas o, de manera alternativa, se puede emplear un procedimiento no paramétrico más general.

PRUEBA F DE BLOQUE ALEATORIZADO PARA DIFERENCIAS EN c MEDIASCuando las mediciones resultantes a través de los c grupos son continuas y se cumplen

ciertas suposiciones, puede utilizarse una metodología conocida como ANOVA para comparar las medias de los grupos.

Con el objeto de filtrar los efectos de conformar bloques, necesitamos dividir aun mas la variación dentro de los grupos SSW en la variación atribuible a diferencias entre los bloques (SSBL) y la que se puede atribuir a error aleatorio inherente SSE.

DESARROLLOLa variación entre bloques, también conocida como suma de cadrados entre bloques

(SSBL: Sum of Squares Among Blocks), se mide a través de la suma de las diferencias de cuadrado entre la media de cada bloque y la gran media generl, esadas o ponderadas por el numero de grupos c:

SSBL=∑ (X−X )2

JI CUADRADA

COMO PRUEBA DE INDEPENDENCIALa prueba de independencia permite establecer si existe o no relación entre variables

categóricas, cuando cada una de las cuales posee dos o más categorías.

La prueba ji-cuadrada es una prueba de carácter general que se utiliza cuando se desea determinar si las frecuencias absolutas obtenidas en la observación difieren significativamente o no de las que se esperarían bajo cierta hipótesis planteada de interrelación de las categorías de las variables consideradas.

En las pruebas de ji-cuadrada de independencia, siempre se coloca el riesgo de no aceptar la hipótesis nula siendo ésta cierta en el extremo superior de valores de la distribución.

Tablas de contingenciaDescribiremos las dimensiones de una tabla de contingencia estableciendo primero el

número de renglones y luego el número de columnas. El total no cuenta como parte de las dimensiones.

Frecuencias observadasHo :Pn=Ps=Pc=Pw;H 1 :Pn , Ps ,Pc ,Pw noson iguales

Pn es la proporción del noreste que prefiere el plan actual

Ps sureste que prefieren plan actual

Pc proporción central

Pw proporción oeste

E s t a d í s ti c a 2 | 26

Page 27: Mi Resumenn

Frecuencia real:

N S C W TOTALN° ACTUAL 68 75 57 79 279N° NUEVO 32 45 33 31 141TOTAL 100 120 90 110 420

Frecuencia esperada:

N S C W TOTALN° ACTUAL 66,43 79,72 59,79 73,07 -N° NUEVO 33,57 40,28 30,21 36,93 -TOTAL - - - - -

Podemos combinar las muestras:

Prefieren actual: 68+75+57+79100+120+90+110

=0,06643

Prefieren lo nuevo: 1−06643=0,3357

El estadístico ji-cuadrada

x2=∑ (f 0−f e)2

f eEn el ejemplo es igual a 2,7638.

Si este valor fuera muy grande, indicaría una diferencia sustantiva entre los valores esperados los observados. Una ji-cuadrada igual a cero indica que las frecuencias son exactamente iguales. Nunca puede ser negativo porque las frecuencias están elevadas al cuadrado.

Para probar la hipótesis nula, debemos comparar las frecuencias que se observaron con las que esperaríamos si la hipótesis nula fuera verdadera. Si el conjunto de ambas frecuencias son casi iguales, podemos razonar de manera intuitiva que la hipótesis nula se acepta. Si existe una diferencia grande entre estas frecuencias, podemos rechazar la hipótesis nula intuitivamente y concluir que existen diferencias significativas en las proporciones.

La distribución de ji-cuadradaPara un número pequeño de grados de libertad (gl), la distribución ji-cuadrada estará

seriamente sesgada a la derecha. Conforme aumentan los gl, la curva de hace cada vez más simétrica hasta que el número de grados alcanza valores grandes, en cuyo caso puede aproximarse con la normal.

Determinación de los gln° gl=(n° renglones−1 ) x (n° columnas−1 )=(r−1 ) x (c−1 )

Tabla de contingencia con más de dos renglones

f e=RTxCT

n

f e: Frecuencia esperada en una celda dadaRT: total por renglón, para el que contiene esa celda

E s t a d í s ti c a 2 | 27

Page 28: Mi Resumenn

CT: total por columna, para la que contiene esa celdaN: número total de observaciones

Precauciones al usar ji-cuadradaUsar tamaños de muestras grandes. Para evitar incurrir en inferencias incorrectas de la

prueba de hipótesis ji-cuadrada, siga la regla general de que una frecuencia esperada de menos de 5 en una celda de una tabla de contingencia es muy pequeña para utilizarla.

Utilizar con cuidado los datos recolectados. Si el valor de ji-cuadrada fuera cero, tendríamos que ser cuidadosos al preguntar si existe absolutamente ninguna diferencia entre las frecuencias esperadas y las observadas.

PRUEBA DE BONDAD DE AJUSTE: PRUEBA DE LO APROPIADO DE UNA DISTRIBUCIONLa prueba ji-cuadrada puede utilizarse también para decidir si una distribución de

probabilidad en particular, como la binomial, la de Poisson o la normal, es la apropiada. La prueba de ji-cuadrada nos permite probar si hay una diferencia significativa entre una distribución de frecuencias observadas y una distribución de frecuencias teóricas. De esta forma, podemos determinar si debemos creer que los datos observados constituyen una muestra obtenida de la distribución teórica hipotética.

La prueba de bondad sirve para determinar si una población tiene una distribución teórica específica, ya sea una distribución conocida o una distribución ad hoc.

La prueba se basa en que tan buen ajuste o concordancia tiene entre las frecuencias de ocurrencia de las observaciones de una muestra observada y las frecuencias esperadas que se obtienen a partir de una distribución hipotética.

La hipótesis nula será que la variable tiene la distribución supuesta y la hipótesis alternativa está dada por que la variable no sigue la distribución supuesta.

En las pruebas de ji-cuadrada de bondad de ajuste, siempre se coloca el riesgo de no aceptar la hipótesis nula siendo ésta cierta en el extremo superior de valores de la distribución.

Calculo de las frecuencias observadas y esperadas. Calculo de ji-cuadrada Ho: P=40 es buena H1: P=40 no es buena Distribución binomial 0,20=α

CALIFICACIONES POSITIVAS

f oPROBABILIDAD RESULTADOS

POSIBLES

N° CANDIDATO

Sf e

ENTREVISTA 0 14 0,216 X 100 = 21,6ENTREVISTA 1 47 0,432 X 100 = 43,2ENTREVISTA 2 24 0,288 X 100 = 28,8ENTREVISTA 3 11 0,064 X 100 = 6,4

f e f o−f e ( f o−f e )2 ∑ ( f o−f e )2

f e

∑ ( f o−f e )2

f e=x2=5,040621,6 -3,6 12,96 0,6

43,2 3,8 14,44 0,334328,8 -4,8 23,04 0,86,4 4,6 21,26 3,3063

E s t a d í s ti c a 2 | 28

Page 29: Mi Resumenn

Determinación de los gl de una prueba de bondad de ajusteAntes de calcular el número adecuado de gl para una prueba de ji-cuadrada de bondad de

ajuste, es necesario contar el número de clases, denotado por k, para las que se compararon las frecuencias esperadas y observadas. Podemos vernos forzados a imponer restricciones adicionales en el cálculo de gl.

Primero aplicamos la regla: (k-1) y luego restamos 1 gl adicional por cada parámetro de población que se debe estimar a partir de los datos de la muestra.

Tenemos 6 clases: 0, 1, 2, 3, 4, 5 k-1=6-1=5.

Si tenemos que usar la media de la muestra como estimación de la poblacional, tendremos que restar otro gl, por lo que nos quedarían 4 gl.

Ejemplo con distribución de PoissonHo: N° de defectos con distribución de Poisson.

H1: N° no tiene distribución de Poisson.

Gl=3 ; α=0,05 Valor critico de X2= 7,83

o N°<7,38 No rechaza Hoo N°>7,38 Rechaza Ho

Calculamos la probabilidad de ocurrencia para obtener la frecuencia esperada:

λ=0x 25+1 x10+2 x6+3x 243

=2843

=0,65 ; P ( x )=℮−λ× λx

x !

DEFECTOS P(x) N° TOTAL f e0 0,52205 X 43 = 2,448151 0,33933 X 43 = 14,591192 0,10519 X 43 = 4,52317

3+ 0,03343 x 43 = 1,43749

DEFECTOS f e f o f o−f e ( f o−f e )2 ∑ ( f o−f e )2

f e

0 2,44815 25 -2,55185 8,591193842 0,29008798

114,5911

910 4,59119 21,0790256 1,444464061

2 4,52317 6 -1,47683 2,18102685 0,482189893+ 1,43749 2 -0,56251 0,3164175 0,22011805

TOTAL 43 43 - - 2,43703653

Uso de la prueba de ji-cuadrada de bondad de ajusteBuscamos en la tabla para α=0,2 y gl=5 4,642

La región que se encuentra a la derecha del valor ji-cuadrada 4,642 contiene 0,2 del área bajo la curva.

E s t a d í s ti c a 2 | 29

Page 30: Mi Resumenn

E s t a d í s ti c a 2 | 30