inferencia estad´ıstica - uc3m...inferencia estad´ıstica 1. introducci´on 2. intervalos de...

31
Cap´ ıtulo 7 Inferencia Estad´ ıstica 1. Introducci´ on 2. Intervalos de conanza para μ con muestras grandes 3. Introducci´ on al contraste de hip´otesis 4. Contraste de hip´otesis de la media μ con muestras grandes 5. Interpretaci´ on de un contraste usando el p-valor 6. Relaci´ on entre contrastes de hip´otesis e intervalos de conanza 7. Inferencia en poblaciones normales 0 Apuntes realizados por Ismael S´ anchez. Universidad Carlos III de Madrid. 1

Upload: others

Post on 24-Jul-2020

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

Capıtulo 7

Inferencia Estadıstica

1. Introduccion

2. Intervalos de confianza para μ con muestras grandes

3. Introduccion al contraste de hipotesis

4. Contraste de hipotesis de la media μ con muestras grandes

5. Interpretacion de un contraste usando el p-valor

6. Relacion entre contrastes de hipotesis e intervalos de confianza

7. Inferencia en poblaciones normales

0Apuntes realizados por Ismael Sanchez. Universidad Carlos III de Madrid.

1

Page 2: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

2 Inferencia Estadıstica

7.1. Introduccion

Uno de los principales objetivos de la estadıstica es el aprendizaje a partir de la observacion.En particular, la estadıstica proporciona el metodo para conocer como es el fenomeno real queha generado los datos observados y que generara los futuros. En estadıstica, el interes final noesta tanto en los datos observados, sino en como seran los proximos datos que se vayan a observar.Consideraremos que la variable que nos interesa es una variable aleatoria X, y que los datosque observamos son solo una muestra (conjunto de realizaciones) procedente de dicha variablealeatoria. La variable aleatoria puede generar un numero indefinido de datos. Todos los datosposibles (posiblemente infinitos) seran la poblacion. Por eso, muchas veces nos referiremos deforma indistinta a la poblacion o a la variable aleatoria que la genera.Supongamos, por ejemplo, que queremos saber como son los artıculos manufacturados por un

determinado proceso. Para ello nos concentraremos en algun conjunto de variables medibles quesean representativas de las caracterısticas de dicho artıculo. Por ejemplo, la longitud de alguna desus dimensiones podrıa ser una variable que nos interese conocer. La longitud de los posibles artıcu-los manufacturados sera una variable aleatoria, pues todo proceso productivo tiene siemprevariabilidad, grande o pequena. Las longitudes de los distintos artıculos seran, en general, dis-tintas. Diremos entonces que X = longitud de un artıculo generico, es una variable aleatoria dedistribucion desconocida. Para poder saber como es esa variable aleatoria, produciremos una mues-tra de artıculos, y a partir de ella haremos un ejercicio de inducccion, para extrapolar lascaracterısticas de la muestra a toda la poblacion.En estadıstica, al ejercicio de induccion, por el que a partir de la muestra intentamos predecir

como sera el resto de la poblacion que no se ha observado (la variable aleatoria) se le llamainferencia estadıstica, o simplemente inferencia. Supondremos que para realizar este ejerciciode inferencia tenemos una conjunto de datos obtenidos al azar de entre la poblacion de posiblesdatos. A una muestra de este tipo se le llamara muestra aleatoria simple. Por simplicidad, ymientras no se diga lo contrario, supondremos que las muestras que obtengamos seran muestrasaleatorias simples, y por tanto nos referiremos a ellas simplemente como muestras. En una muestraaleatoria simple se tienen dos caracterısticas importantes:

1. Los elementos de la muestra son independientes entre sı. Por tanto, el valor que tome unode ellos no condicionara al de los demas. Esta independecia se puede conseguir seleccionandolos elementos al azar.

2. Todos los elementos tienen las mismas caracterısticas que la poblacion.

Sea X nuestra variable aleatoria de interes, y sean X1,X2, ...,Xn los elementos de una mues-tra de tamano n de dicha variable aleatoria X. Entonces, antes de ver los valores concretos quetomara la muestra formada por X1,X2, ...,Xn, tendremos que la muesta X1,X2, ...,Xn sera unconjunto de variables aleatorias independientes e identicas a X.Algunos conceptos importantes de la inferencia estadıstica que debemos tener presente son:

El concepto de estadıstico, como operacion realizada con una muestra. Al depender el resul-tado de la muestra, un estadıstico es una variable aleatoria de la que debemos conocer suspropiedades. En este tema aprenderemos a utilizar la distribucion muestral de los estadısticospara poder extrapolar la informacion de la muestra a la poblacion.

El concepto de estimacion y estimador. Un estimador es un estadıstico que se emplea paraasignar un valor a un parametro poblacional desconocido. Como el valor del estimador de-

Page 3: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.2 Intervalos de confianza para μ con muestras grandes 3

pende de la muestra, un estimador es una variable aleatoria. La estimacion es el valor quetoma el estimador en nuestra muestra.

Diferentes estimadores para un mismo parametro deben compararse en funcion de su sesgo,varianza y error cuadratico medio.

En este tema distinguiremos entre inferencia realizada cuando la muestra es grande y cuando espequena. Cuando la muestra es grande, existen un conjunto de resultados de inferencia estadısticaque pueden aplizarse para cualquier tipo de poblacion. Cuando la muestra que se tiene es pequena,la inferencia que podemos hacer a partir de dicha muestra depende de como sea la poblacion. En laultima seccion de este tema desarrollaremos algunos resultados sobre inferencia para poblacionesnormales que podran aplicarse tanto para muestras grandes como para muestras pequenas.

7.2. Intervalos de confianza para μ con muestras grandes

7.2.1. Introduccion

Cuando queremos estimar el valor de un parametro poblacional θ a partir de la informacion deuna muestra X1,X2, ...,Xn utilizamos un estimador θ. Dicho estimador aplicado a una muestranos proporcionara un valor numerico, que se denomina estimacion de θ. La precision de eseestimador esta relacionada con la probabilidad de que θ nos proporcione un valor proximo a θ.Esa precision viene determinada por las propiedades estadısticas del estimador; es decir, por sudistribucion en el muestreo.En esta seccion extenderemos las propiedades de la media muestral X como estimador de la

media poblacional μ. El objetivo es que en el ejercicio de estimacion no solo proporcionemos elvalor estimado obtenido con la muestra, sino una medida de la incertidumbre de dicho valor comoestimacion de μ. La incertidumbre procede de haber utilizado solo una muestra de tamano finito.Por tanto, con otras muestras hubieramos obtenido estimaciones diferentes que serıan igual devalidas que las que hemos proporcionado con nuestra muestra. Si tuviesemos toda la poblacion, notendrıamos incertidumbre sobre la media poblacional.Lo que haremos es dar una medida de esa incertidumbre utilizando las propiedades de la media

muestral que ya vimos en el tema anterior. Vamos a recordar esas propiedades. Supongamos quetenemos una poblacion representada por la variable aleatoria X tal que E(X) = μ y var(X) = σ2,y utilizamos la media muestral como estimador de μ, es decir,

μ = X =X1 +X2 + · · ·+Xn

n.

Entonces, es facil demostrar que se cumple que

E(μ) = μ; Var(μ) =σ2

n,

por lo que la media muestral es un estimador insesgado cuya precision aumenta con el tamanomuestral. Ademas, por el teorema central del lımite, si n es grande tenemos que, independien-temente de como sea la distribucion de X,

X ∼ N

µμ,

σ2

n

¶. (7.1)

Page 4: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

4 Inferencia Estadıstica

Por ejemplo, si X es una Poisson de parametro λ se tiene que como E(X) = λ, Var(X) = λ.Entonces, si n es grande

λ ∼ N

µλ,

λ

n

¶,

donde

λ =X1 +X2 + · · ·+Xn

n.

En una variable normal, no hace falta usar el teorema central del lımite para justificar (7.1),pues la normalidad de la media muestral es exacta al ser la media muestral una combinacion linealde variables normales. Por tanto, en poblaciones normales, para cualquier tamano muestral

X ∼ N

µμ,

σ2

n

¶. (7.2)

7.2.2. Intervalos de confianza

En esta seccion vamos a proponer un procedimiento para anadir la informacion de la incer-tidumbre que tenemos sobre la estimacion realizada con la muestra. Dicha incertidumbre se de-scribira mediante la utilizacion de un intervalo de valores dentro de los cuales estara el valorpoblacional μ con cierta probabilidad. Un ejemplo de este tipo de resultados serıa decir que laestimacion de la media es μ = 100 y que con una probabilidad del 95% el valor verdadero μestara en el intervalo μ ∈ (95, 105). Cuanto mas estrecho sea dicho intervalo, menos incertidum-bre existira sobre el verdadero valor del parametro. El intervalo sobre el valor del parametro, quese construye utilizando las propiedades del estimador, se denomina intervalo de confianza. Ala probabilidad de que con la informacion de la muestra, el parametro este dentro del intervalose le denomina nivel de confianza. Lo habitual es realizar intervalos de confianza con nivel deconfianza del 95%.

Al valor numerico que se obtiene en la estimacion se le denomina tambien estimacion puntual,mientras que al uso de un intervalo de confianza se le denomina estimacion por intervalo. Veamosa continuacion como se construyen intervalos de confianza para μ, basado en el uso de muestrasgrandes.

De (7.1) tenemos que, si n es grande, podemos estandarizar obteniendo una normal estandar.

Z =X − μ

σ/√n∼ N(0, 1). (7.3)

Llamemos zα/2 al valor de la N(0, 1) que deja un area a la derecha de valor α/2. Entonces, por lasimetrıa de la normal, a la izquierda de −zα/2 quedara un area igual a α/2. Por tanto

P¡−zα/2 < Z < zα/2

¢= (1− α). (7.4)

Page 5: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.2 Intervalos de confianza para μ con muestras grandes 5

La siguiente figura ilustra la localizacion de estos valores zα/2 y −zα/2.

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

1- α1- α

α /2 α /2

Z ∼ N(0,1)

-zα /2

zα /2

De (7.3) y (7.4) obtenemos por tanto

P

µ−zα/2 <

X − μ

σ/√n

< zα/2

¶= (1− α).

Operando tenemos que

P

µX − zα/2

σ√n< μ < X + zα/2

σ√n

¶= (1− α). (7.5)

La expresion (7.5) quiere decir que tenemos una probabilidad 1−α de seleccionar una muestratal que μ este entre los valores x± zα/2σ/

√n. Por tanto dada una muestra, podemos construir el

siguiente intervalo de confianza de nivel 100× (1− α)% para μ

IC(1− α) : μ ∈½x± zα/2

σ√n

¾. (7.6)

El intervalo de confianza (7.6) se interpreta de la siguiente manera:

Si tuviesemos un numero infinito de muestras de la poblacion, y con-struyesemos con cada una un intervalo como en (7.6), entonces el 100(1-α)%de dichos intervalos contendrıa al verdadero valor del parametro μ.

En la practica, solo tenemos una muestra, y por eso solo podemos construir un intervalo. Notiene entonces sentido interpretar el intervalo como la region en la que estara μ con probabilidad(1-α), puesto que en el intervalo calculado, la media μ estara o no estara. Por eso, para expresarnuestra incertidumbre sobre si el intervalo calculado con nuestra muestra contiene o no al parametroμ emplearemos la palabra nivel de confianza.Notese que si la muestra es suficientemente grande (por ejemplo, mas de 30 datos), el intervalo

(7.6) es valido para cualquier variable aleatoria X, sea o no normal. Por intervalo valido quer-emos decir que su nivel confianza es realmente 100× (1− α)%. Si la muestra es pequena,entonces X tendra una distribucion en el muestreo que no sera normal, y por tanto no tendremosninguna garantıa en que (7.6) tenga el nivel de confianza deseado. Es importante darse cuenta deque si X es normal, X es siempre normal, para cualquier tamano muestral. Por tanto, si haynormalidad (7.6) es siempre un intervalo exacto.

Page 6: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

6 Inferencia Estadıstica

Ejemplo 1 Una muestra aleatoria extraıda de una poblacion con σ2 = 100 de n = 144 observa-ciones tiene una media muestral X = 160. se pide:

(a) Calcular un intervalo de confianza del 95% para la media poblacional μ.

(b) Calcular un intervalo de confianza del 90% para la media poblacional μ.

SOLUCION:

Como se conoce la varianza de la poblacion, Z = X−μσ/√nsera una variable N(0, 1), luego

P

µ−zα/2 ≤

X − μ

σ/√n≤ zα/2

¶= 1− α

Por tanto el intervalo es:

x− zα/2σ√n≤ μ ≤ x+ zα/2

σ√n

(7.7)

(a) Un nivel de confianza del 95% equivale a usar α = 0,05 y por tanto, zα/2 = 1,96. El intervaloes entonces

IC(95%) : μ ∈ [158,36, 161,63]

(b) Un nivel de confianza del 90%, equivale a usar α = 0,10 y por tanto zα/2 = 1,65. El nuevointervalo es

IC(90%) : μ ∈ [158,625, 161,375]

que al ser de menor confianza, es mas estrecho que el anterior.

Si σ2 es desconocido se sustituye por una estimacion σ2. Si el tamano muestral es suficientementegrande tendremos que la estimacion proporcionara un valor muy cercano al verdadero, y por tantoseguiremos utilizando el intervalo (7.6) reemplazando σ por su estimacion σ, es decir, el intervalode confianza para tamano muestral grande sera

IC(1− α) : μ ∈½x± zα/2

σ√n

¾(7.8)

Ejemplo 2 En una encuesta se pregunta a 10.000 estudiantes de Bachillerato sobre su consumode refrescos semanal, encontrandose una media de 5 botes, con una desviacion tıpica estimada de2. Hallar un intervalo de confianza para el consumo medio de toda la poblacion de estudiantes deBachillerato, al 95%.

SOLUCION:

Como el tamano muestral es muy grande podemos emplear el intervaloµx− zα/2

σ√n, x+ zα/2

σ√n

¶,

donde α = 0,05 zα/2 = 1,96, luego tenemos queµ5− 1,96 2

100, 5 + 1,96

2

100

¶= (4,96, 5,04)

Page 7: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.2 Intervalos de confianza para μ con muestras grandes 7

7.2.3. La cuasivarianza

Una opcion para estimar σ2 es, de acuerdo con el metodo de los momentos, usar la varianzamuestral, es decir

σ2 = S2 =

Pni=1

¡Xi − X

¢2n

Se puede demostrar, sin embargo, que este estimador es sesgado. Se puede demostrar que

E(S2) = σ2(n− 1)

n, (7.9a)

y por tanto el sesgo de S2 como estimador de σ2 es

sesgo(S2) = E(S2)− σ2

= σ2(n− 1)

n− σ2 = −σ

2

n.

Vemos que el sesgo de S2 es negativo; es decir, que S2 subestima la verdadera varianza. Usaremosentonces el siguiente estimador alternativo

σ2 = S2 =

Pni=1

¡Xi − X

¢2n− 1 ,

que a partir de (7.9a) es facil comprobar que es insesgado. Es decir

E(S2) = σ2.

Este estimador S2 recibe el nombre de cuasivarianza, pseudovarianza o varianza corregida.Si n es grande tendremos que S2 ≈ σ2, y por tanto podemos hacer la estandarizacion (7.3) usandoS2 en lugar de σ2. Al estadıstico que resulta de la estandarizacion de X usando S le llamaremosT en lugar del estadıstico Z usado en (7.3). Por tanto, para muestras grandes tendremos que

T =X − μ

S/√n∼ N(0, 1),

pero si n no es elevado, la distribucion del estadıstico T ya no sera normal. Sera, en general,desconocida y dependera de la distribucion de los datos X.Por tanto, si σ2 es desconocida y la estimamos con la cuasivarianza, un intervalo de confianza

de nivel (1−α) valido para cualquier tipo de variable aleatoria, con tal que n sea elevado (n > 30),sera:

IC(1− α) : μ ∈½x± zα/2

s√n

¾(7.10)

7.2.4. Determinacion del tamano de la muestra

Del intervalo (7.6) puede verse que si aumentamos n reducimos la amplitud el intervalo ypor tanto nuestra incertidumbre sobre μ para un mismo nivel de confianza. El intervalode confianza para muestras grandes puede escribirse como

IC(1− α) : μ ∈½x± zα/2

σ√n

¾= x± L.

Page 8: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

8 Inferencia Estadıstica

La longitud del intervalo sera entonces 2L. Si queremos un valor de L determinado ¿cual debe serel tamano muestral n?

L = zα/2σ√n⇒ n =

³zα/2σL

´2(7.11)

Si σ es desconocido lo estimamos en una muestra piloto, obteniendo σ0. Entonces

n =

µzα/2σ0

L

¶2(7.12)

Ejemplo 3 Sea X el consumo unitario de cierto material en un proceso productivo (miligramospor unidad de producto obtenido). Se sabe que X tiene desviacion tıpica σ = 20 mg. Se toma unamuestra aleatoria de 200 observaciones obteniendose una media muestral del consumo de X = 120mg.(a) A partir de esta informacion muestral, estimar mediante un intervalo con un 95% de

confianza el consumo medio de este producto.(b) ¿Que tamano muestral serıa necesario tomar para que un intervalo del 95% de confianza

tuviese una longitud de 2mg? (longitud del intervalo=diferencia entre sus extremos).SOLUCION:(a) Nos piden el intervalo de confianza para la media de una distribucion normal con σ = 20mg.

conocida. Sabemos que, al ser un tamano muestral grande, la media muestral verifica que

X ∼ N¡μ, σ2/n

¢y para un nivel de confianza del 95% coeficiente de confianza;

1− α = 0,95 =⇒ α = 0,05 =⇒ α/2 = 0,025

El intervalo para el consumo medio del material es;

μ ∈∙x± zα/2

σ√n

¸=

∙120± 1,96× 20√

200

¸= [120± 2,77] = [117,23,122,77]

(b) Se quiere garantizar una amplitud del intervalo como maximo de 2 mg. con el mismo nivelde confianza. Es decir, que el intervalo del 95% sea X ± 1. De (7.11) tenemos que L = 1, yentonces,

n =³zα/2σ

L

´2=

µ1,96× 20

1

¶2≈ 1537 observaciones

7.3. Introduccion al contraste de hipotesis

7.3.1. Introduccion

En la seccion anterior aprendimos a estimar los parametros de una poblacion a partir de unamuestra no solo asignando una estimacion puntual sino asignando un intervalo de confianza. Enmuchos problemas de ingenierıa, sin embargo, no se pretende estimar el valor de un parametro sinocomprobar que dicho parametro cumple alguna restriccion o suposicion. Por ejemplo, podemosestar interesados en comprobar mediante una muestra que el valor del parametro no ha cambiadorespecto del valor que tenıamos estimado en el pasado. En este caso, no queremos utilizar lamuestra para asignar un nuevo valor al parametro sino solo comprobar si la informacion de la

Page 9: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.3 Introduccion al contraste de hipotesis 9

muestra es consistente con nuestra restriccion o suposicion, o por el contrario nuestra suposiciondebe rechazarse a la luz de la nueva evidencia mostrada por la muestra. Otras veces, solo queremossaber si un procedimiento es mas rapido que otro. En ese caso se comparan ambos procedimientoscon algun protocolo de pruebas. El objetivo de estas pruebas no es saber cuanto se tarda encompletarlas, sino en saber cual de los dos procedimientos es mas rapido; o mas concretamente,cual tiene un tiempo medio de ejecucion menor.A estas restricciones o suposiciones sobre los valores de los parametros de una poblacion les

llamaremos hipotesis y a la prueba estadıstica consistente en comprobar si la muestra apoyao no dichas hipotesis le llamaremos contraste de hipotesis. Nuestras hipotesis seran siemprerestricciones sobre los parametros de una poblacion. El planteamiento de una hipotesisimplica una division de los posibles valores del parametro. Por un lado tendremos los valores quecumplen la hipotesis y por otro a los valores que no la cumplen. Veamos un ejemplo.

Ejemplo 4 Un fabricante de transistores del tipo BC547B (datos: transistor.sf3) sabe por suinformacion historica que cuando su produccion se mantiene en los niveles de calidad deseables,el valor de la llamada ganancia en corriente de los transistores (conocida por β, adimensional)sigue una distribucion de media 290 y varianza 760. Dicho fabricante desea saber si su produccionsigue manteniendo el mismo nivel de calidad; es decir, si se sigue manteniendo la media y queno haya aumentado la varianza. Con ese fin, el fabricante toma una muestra de transistores.Esa muestra no la quiere para obtener una nueva estimacion de la media o de la varianza, sinopara contrastar las hipotesis de que la media no ha cambiado y la varianza no ha aumentado. Masconcretamente, desea saber si:

μ = 290,

o, por el contrario,μ 6= 290;

y por otra parte desea saber siσ2 ≤ 760

o, por el contrario,σ2 > 760.

7.3.2. Contraste de una hipotesis estadıstica

En esta seccion se dara una panoramica general de como se hace un contraste de hipotesis comolos planteados en el ejemplo de arrriba. A la hipotesis que se quiere comprobar se le denominahipotesis nula, y la denotaremos por H0. Por tanto, utilizando el ejemplo de los transistoresBC547B tenemos

H0 : μ = 290,

Al rango de valores que toma el parametro cuando la hipotesis nula sea falsa le denominaremoshipotesis alternativa, y la denotaremos por H1,es decir

H1 : μ 6= 290.

Analogamente, si queremos contrastar que la varianza no ha aumentado, plantearemos el siguientecontraste de hipotesis:

H0 : σ2 ≤ 760,H1 : σ2 > 760.

Page 10: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

10 Inferencia Estadıstica

Como vemos, entre H0 y H1 esta todo el rango de valores de los parametros implica-dos. El metodo estadıstico que vamos a emplear (la metodologıa de Neyman-Pearson) introducealgunas restricciones en la forma en que podemos plantear las hipotesis del contraste.

La hipotesis nula debe tener siempre el signo =. Puede ser ≥, ≤ o = . La H1 sera entoncesdel tipo 6=, < o >. Cuando H1 es del tipo θ 6= θ0 diremos que la alternativa es bilateral,pues los valores que implica estaran a ambos lados de H0; mientras que cuando es del tipoθ > θ0 o θ < θ0 diremos que la alternativa es unilateral, pues esta se encuentra solo a unlado de H0.

El metodo favorece a la hipotesis nula, en el sentido de que aceptaremos H0 salvo quela muestra revele mucha evidencia en contra. La situacion es parecida a la de unjurado que debe decidir si condena o no al acusado. El jurado querra ser justo, y tomar ladecision correcta. Sin embargo, como la decision se basa en un conjunto limitado de pruebas,se enfrenta a dos posibles tipos de error. Por una parte puede condenar al acusado siendoeste inocente. Por otra parte puede dejar libre al acusado siendo este culpable. Es evidenteque es mas grave el error de encarcelar a un inocente que el error de liberar a un culpable.Por esa razon se dice que el acusado es inocente salvo que se demuestre feacientemente locontrario. En nuestro caso, la hipotesis nula hace el papel de la declaracion de inocencia deljurado: se considerara que H0 es cierta salvo que se pruebe feacientemente que es falsa. Portanto, el metodo tendera a aceptar H0 salvo que los datos hagan lo que dice H1

de forma muy evidente. Es muy importante tener este aspecto en cuenta a la hora deobtener conclusiones practicas del resultado de un contraste de hipotesis.

Por ejemplo, si queremos a partir de unos datos contrastar H0 : μ = 290 frente a la alternativaH1 : μ 6= 290, obtendremos el valor de la media muestral, que denotaremos por x, y solo rechaz-aremos H0 si los datos muestran una fuerte evidencia en contra, es decir, si x >> 290 o x << 290.El metodo estadıstico que vamos a emplear nos ayudara a delimitar cuando consideramos quex >> 290 o x << 290; es decir, nos ayudara a delimitar la frontera a partir de la cual el alejamien-to respecto a H0 es ya demasiado grande. Analogamente, si queremos contrastar a partir de unamuestra si H0 : σ

2 ≤ 760 frente a la alternativa H1 : σ2 > 760, obtendremos el valor de S2 en lamuestra, que denotaremos por s2, y solo rechazaremos H0 si obtenemos s

2 >> 760.

El metodo de Neyman-Pearson para la realizacion de contrastes consistira, entonces, en es-tablecer unas regiones para los valores del estimador θ del parametro θ implicado, en las cualespodamos decir si aceptamos o rechazamos la hipotesis nula. La region proxima a H0 se le llama re-gion de aceptacion o de no rechazo, mientras que a las regiones alejadas de H0 se les denominaregion de rechazo. Estas regiones se ilustran en las siguientes figuras.

Page 11: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.3 Introduccion al contraste de hipotesis 11

Si los datos son tales que nos colocamos en la region de aceptacion (tambien llamada de norechazo) diremos que la diferencia encontrada entre la estimacion y lo que dice H0 no es signi-ficativa, y puede perfectamente explicarse por el azar de la muestra. Por el contrario, si los datosson tales que nos colocamos en la region de rechazo, diremos entonces que la diferencia entre loque dice la muestra y nuestra hipotesis nula es significativa, siendo muy improbable que se debaal azar de la muestra.El metodo estadıstico para la realizacion del contraste de hipotesis consiste, por tanto, en

valorar el alejamiento entre los datos y nuestra hipotesis nula. Si lo que dicen los datosesta cerca de lo que dice H0 (o mejor dicho, no se aleja mucho) nuestra decision sera aceptar H0.Por el contrario, si los datos se alejan mucho de lo que dice H0 rechazaremos H0 a favor de H1.La simple comparacion de la estimacion con el parametro (x con μ0 = 290 o s

2 con σ20 = 760) noes una buena indicacion de si debemos aceptar o no H0. Por ejemplo, si en el caso de los transistoresdel Ejemplo 4 obtenemos que la media muestral es x = 295 : ¿es 295 una cantidad cercana a 290o no? La respuesta depende de varios factores, entre otros del tamano muestral con que se haobtenido el valor de X. No es lo mismo un alejamiento de 295-290=5 unidades a partir de 20 datosque a partir de 2000 datos. En este segundo caso, la distancia de 5 unidades debe interpretarsecomo mas relevante que con solo 20 datos, donde la variabilidad muestral es grande. Usaremosentonces una medida de discrepancia entre el valor del parametro estimado con la muestra, θ, y elvalor que implica H0, θ0, cuya magnitud sea mas facil de interpretar que la simple comparacionde θ con θ0. Esta medida de discrepancia resumira toda la informacion contenida en los datos quesea relevante para hacer el contraste. A esta medida de discrepacia le llamaremos estadıstico decontraste y sera diferente segun sea el parametro que estemos considerando y de las caracterısticasde la poblacionEn resumen, hemos visto hasta ahora que un contraste de hipotesis tiene los siguientes pasos:

1. Determinar H0 y H1 teniendo en cuenta que H0 debe tener el signo = y que el metodofavorecera dicha hipotesis

2. Buscar el estadıstico de contraste, que sera la medida de discrepancia entre el valordel parametro estimado con la muestra y el valor que implica H0. Mas adelante veremosque estadıstico de contraste usar en cada caso.

Page 12: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

12 Inferencia Estadıstica

3. A partir de las propiedades del estadıstico de contraste, delimitamos las regiones de aceptaciony rechazo.

4. Calcular a partir de la muestra el valor que toma el estadıstico de contraste y comprobarsi cae en la region de aceptacion o en la de rechazo.

Es importante ver que nunca sabremos con certeza si las hipotesis son ciertas o falsas. Ladecision correcta sobre que hipotesis es la verdadera solo puede hacerse sin error si conociesemosel verdadero valor del parametro. Lo que hacemos en un contrate de hipotesis es simplemente unaapuesta, a la luz de la informacion limitada de la muestra, sobre si H0 es o no verosımil. Por tanto,al igual que en un juicio a un acusado, podemos tomar la decision equivocada. Por ejemplo, siqueremos contrastar H0 : θ = θ0 pudiera ser que realmente se cumpla θ = θ0 pero que nuestramuestra resulte θ >> θ0. Por ejemplo, si θ es una longitud media de una poblacion, podrıamoshaber seleccionado a elementos que casualmente tengan una longitud superior a la media, con loque θ serıa >> θ0. En este caso rechazaremos erroneamente H0.Este tipo de situaciones seranmuy improbables; pero pueden darse, lo cual ha de tenerse en cuenta a la hora de interpretar elresultado y tomar decisiones en la vida real. A este tipo de error: rechazar H0 siendo cierta lellamaremos error Tipo I. En el caso del simil del juicio a un acusado, en el que la hipotesis nulaes la inocencia, el error Tipo I serıa condenar a un inocente.Por otra parte, puede ser que la poblacion no cumpla la restriccion que estamos contrastanto, es

decir, que H0 sea falsa, pero que casualmente la muestra seleccionada no lo refleje ası. Por ejemplo,si queremos contastar H0 : θ ≥ θ0 pudiera ser que esta hipotesis sea falsa y el valor poblacionalfuese θ < θ0 pero tengamos la mala suerte de que en la muestra recogida tengamos θ > θ0. Entoncesconcluiremos erroneamente que H0 es cierta. A este tipo de error, aceptar H0 cuando es falsa, lellamaremos error Tipo II. En el cado del simil del juicio, el error Tipo II serıa declarar inocentea un acusado que es culpable. El siguiente cuadro resume estas posibles equivocaciones.

H0 es cierta H0 es falsaSe rechaza H0 Error Tipo I Decision correctaSe acepta H0 Decision correcta Error Tipo II

7.4. Contraste de hipotesis de la media con muestras grandes

Se desea contrastar alguna de las siguientes hipotesis:

1. H0 : μ = μ0; frente a H1 : μ 6= μ0,

2. H0 : μ ≥ μ0; frente a H1 : μ < μ0,

3. H0 : μ ≤ μ0; frente a H1 : μ > μ0.

El estadıstico de contraste es la operacion que realizaremos con los datos y que contendra to-da la informacion relevante para el contraste. El estadıstico de contraste se basa siempre en laspropiedades del estimador del parametro que estemos contrastando. En el caso de contrastes sobreμ, el contraste se basara en las siguientes propiedades de la media muestral X obtenida con unamuestra aleatoria simple de tamano n. Para cualquier variable X de media μ y varianza σ2,si el tamano muestral es suficientemente grande se cumple que

Z =X − μ

σ/√n∼ N (0, 1) (7.13)

Page 13: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.4 Contraste de hipotesis de la media con muestras grandes 13

y si σ2 es desconocido, y utilizamos la cuasivarianza S2 como estimador de σ2 tenemos, si eltamano muestral es suficientemente grande,

T =X − μ

S/√n∼ N (0, 1) . (7.14)

Como estadıstico de contraste utilizaremos (7.13) y (7.14), pero imponiendo el valor μ0, esdecir,

d ≡ Z0 =X − μ0σ/√n,

para el caso de σ conocida, y

d ≡ T0 =X − μ0

S/√n, (7.15)

cuando estimemos σ con la cuasidesviacion tıpica. Estos estadısticos d miden la distancia entre elvalor de la hipotesis nula μ0 y el obtenido en la muestra x.Para interpretar el valor de d necesitamos una distribucion de referencia que nos ayude a

determinar cuando d toma un valor alto o bajo, y ası poder valorar la distancia entre x y μ0. Laeleccion de la distribucion de referencia, que nos ayudara a evaluar d, es similar para cualquierparametro θ y se elige de la siguiente manera:

La distribucion de referencia en el contraste de un parametro θ es la distribucion quesigue el estadıstico de contraste d cuando θ = θ0.

Por tanto, en nuestro caso, de acuerdo con (7.13) y (7.14) la distribucion de referencia es laN(0, 1). Cuanto mas lejos este x de lo que dice H0 mas lejos estara d de la N(0, 1). Por tanto,y siguiendo el ejemplo anterior sobre los transistores, si queremos hacer el contraste bilateral deH0 : μ = 290 frente a la alternativa H1 : μ 6= 290, calcularemos d usando los valores muestralesx y s y tomando que μ0 = 290. Vemos que d depende no solo de X sino de n y de σ2 (a travesde su estimador S2). Si obtenemos que d esta en la zona de la cola derecha de la N(0, 1) (verfigura siguente), tendremos mucha seguridad para concluir que x >> 290, y que por tanto es muyplausible que realmente μ > 290 y deberemos rechazar H0. Analogamente, si d esta en la zona de lacola de la izquierda, concluiremos que x << 290 y por tanto es muy plausible que tambien μ < 290y deberemos rechazar H0, como se ilustra en la siguiente figura.

Page 14: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

14 Inferencia Estadıstica

Es importante ver que si el contraste fuese unilateral solo nos interesarıa una de las dos colasde la distribucion. Por ejemplo, si el contraste a resolver fuese H0 : μ ≤ 290 frente a la alternativaH1 : μ > 290 rechazarıamos H0 solo si x >> 290, lo que equivaldrıa a obtener el estadıstico decontraste con un valor en la cola de la derecha, como se muestra en la siguiente figura

Usando el mismo argumento, si el contraste fuese H0 : μ ≥ 290 frente a la alternativa H1 : μ < 290rechazarıamos H0 solo cuando d estuviese en la zona de la izquierda de la distribucion de referencia,como se muestra a continuacion.

Puede verse que la region de rechazo esta siempre en la zona de la distribucion dereferencia que senale H1. Esta localizacion de la region de rechazo en el lugar que senale H1 estambien aplicable a muchos de los contrates de hipotesis que veremos en los siguientes temas.La pregunta ahora es ¿donde ponemos la frontera entre la region de aceptacion y de rechazo?

La frontera la delimitaremos reservando un area de la distribucion de referencia para la region derechazo. El tamano de la region de rechazo lo decide el analista. Ese area suele ser una cantidadpequena: 1%, 5% o 10% colocada en la cola de la distribucion de referencia. Este area se denominanivel de significacion y se denota con la letra α. En el caso de contrastes bilaterales, el areaα que reservamos para la region de rechazo se divide en dos partes iguales y se deja la mitad dedicho area en cada cola de la distribucion. de referencia. Para el caso de nuestro ejemplo de los

Page 15: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.4 Contraste de hipotesis de la media con muestras grandes 15

transistores, las regiones de rechazo usando un nivel de significacion α seran las que se muestranen las siguientes figuras.

A los valores del eje de abcisas que delimitan las regiones de aceptacion y rechazo se les denominavalores crıticos. La siguiente tabla resume las caracterısticas de este contraste.

Contrastes Estadısticosde contraste

Distribucionde referencia

Regionde rechazo

(1)-H0 : μ = μ0; H1 : μ 6= μ0(2)-H0 : μ ≥ μ0; H1 : μ < μ0(3)-H0 : μ ≤ μ0; H1 : μ > μ0

Z0 =X − μ0σ/√n

T0 =X − μ0s/√n

N(0, 1)(1) |z0|, |t0| > zα/2(2) z0, t0 < −zα(3) z0, t0 > zα

Ejemplo 5 Utilizando la informacion del Ejemplo 4 sobre los transistores BC547B (fichero tran-sistor.sf3) mencionados anteriormente deseamos hacer el contraste de si se mantiene el valornominal μ = 290 como media de la distribucion de valores β, es decir,

H0 : μ = 290

H1 : μ 6= 290

Los 100 datos muestran que

x = 282,3; s = 27,69;

t0 =x− μ0s/√n=282,3− 29027,69/10

= −2,78.

Como es un contaste bilateral necesitamos dos valores crıticos. Como la distribucion de referenciaes la N(0,1), que es simetrica de media cero, ambos valores crıticos seran iguales pero de signocontrario. Uusando un nivel de significacion α = 0,05, se tiene que los valores crıticos son z0,025 =1,96 y −z0,025 = −1,96. Por tanto, como |t0| = 2,78 > 1,96 y rechazamos H0. Por tanto, ladiferencia entre la media muestral x = 282,3 y la hipotesis nula μ0 = 290 es suficientementegrande como para considerarla solo debida al azar del muestreo. Se dice entonces que, con unnivel de significacion de α = 0,05, la diferencia detectada es significativa. Hay dos opciones parainterpretar este resultado, o bien el proceso ha cambiado la media o el aparato de medida con quehemos obtenido estas observaciones esta descalibrado.

Page 16: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

16 Inferencia Estadıstica

Ejemplo 6 El fichero estaturas.sf3 contiene las estaturas de un grupo de 50 mujeres y 50 hom-bres entre 18 y 25 anos. El sistema de recogida de datos consistio en preguntar a los encuestadospor su estatura, seleccionando a los encuestados al azar entre estudiantes tanto del campus dela Carlos III como de otros campus universitarios. Es, por tanto, estatura declarada, no estaturamedida.Segun los estudios antropometricos, los jovenes de este rango de edad tienen una estatura media

de 164 cm ellas y 177 cm ellos. La pregunta que queremos contestar mediante un contraste dehipotesis es ¿son mas altos, por termino medio, los jovenes universitarios madrilenos que la mediade los jovenes espanoles?, es decir ¿μHombres > 177? ¿μMujeres > 164?. Como H0 debe tener elsigno = y nosotros queremos saber si nuestros datos son el reflejo de una poblacion que superandichas medias, nuestra hipotesis debe asignarse a H1. Las hipotesis seran:

H(H)0 : μH ≤ 177;H

(H)1 μH > 177,

H(M)0 : μM ≤ 164;H

(M)1 μM > 164,

y solo nos decantaremos por H1 si los datos lo apoyan de forma muy clara, es decir, si xH >> 177y si xM >> 164. Los datos del fichero estaturas.sf3 proporcionan los siguientes valores:

t(H)0 =

x− μ0s/√n=175,9− 1775,93/

√50

= −1,31,

t(M)0 =

166,2− 1644,65/

√50

= 3,35,

z0,05 = 1,65.

En el caso de los hombres, no harıa falta hacer el contraste pues al ser xH = 175,9 < μ0 esta muyclaro que no rechazaremos H0, pues ese rechazo solo ocurrirıa cuando haya mucha evidencia afavor de H1, es decir cuando x >> μ0. En ambos casos la region de rechazo, utilizando α = 0,05,viene delimitada por el valor crıtico z0,05 = 1,65, y la region de rechazo seran los valores t0 > 1,65.Por tanto, rechazamos H0 para las mujeres pero no para los hombres. Si la muestra recogida esrealmente representativa de las jovenes madrilenas y respondieron de forma sincera a su estatura,podemos decir que, con un nivel de significacion del 5%, las jovenes universitarias madrilenas sonmas altas que las jovenes espanolas (por termino medio).

Se puede demostrar que la probabilidad de incurrir en un error Tipo I (rechazar H0 cuando escierta) mencionado anteriormente es precisamente el nivel de significacion α. Para verlo, recordemosque α es el area de la distribucion de referencia que reservamos para posicionar la region de rechazo.Recordemos tambien que la distribucion de referencia es precisamente la distribucion del estadısticode contraste cuando θ = θ0. Es decir, si θ = θ0 el estadıstico de contraste que obtengamos connuestros datos sera un valor que proceda de la distribucion de referencia. Puede entonces estartanto en la zona central como en los extremos. Sera mas probable que dicho valor sea de la zonade mas probabilidad de la distribucion de referencia, y sera poco probable que sea de las zonasde las colas. Por lo tanto, si H0 es cierta podemos todavıa obtener valores tanto en la region deaceptacion, lo que llevarıa a una decision correcta (aceptar), como en la region de rechazo, lo quellevarıa a una decision incorrecta (rechazar). Vemos ası que la probabilidad de que siendo θ = θ0estemos en la region de rechazo es entonces α. Por tanto, si el estadıstico de contraste nos da unvalor que cae en la region de rechazo, habrıa dos interpretaciones posibles:

1. Que H0 es cierta, pero por azar de la muestra el estadıstico ha tomado un valor muy extremoque cae en la region de rechazo. Esto ocurrira en un α× 100% de las muestras y el azar ha

Page 17: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.5 Interpretacion de un contraste usando el p-valor 17

querido que la nuestra sea una de ellas. Si α es pequeno, sera un suceso muy improbable. Laprobabilidad de tomar una decision erronea sera entonces igual a α. O bien,

2. Que H0 es falsa y por eso era de esperar un valor del estadıstico de contraste tan extremoque nos colocase en la region de rechazo, y debemos rechazar H0

Lo que hacemos en la practica es que como α es suficientemente pequeno, es mas sensatodecantarnos por la interpretacion 2 y rechacemos H0. No debemos pensar que usando un α ex-cesivamente pequeno, por ejemplo α = 10−7 mejoraremos las propiedades del contraste, pues sidiminuimos α aumentaremos la region de aceptacion, y con ello la probabilidad de aceptar H0siendo falsa (error Tipo II). Por tanto, la simple manipulacion de α no nos ayuda a evitar errorespues lo que hace es disminuir un tipo de error (error Tipo I) a costa de aumentar el otro (errorTipo II).

7.5. Interpretacion de un contraste usando el p-valor

En la seccion anterior hemos visto como resolver un contraste comparando el valor del estadısti-co de contraste con el valor crıtico que corresponde con el α utilizado. Con este procedimiento, elresultado del contraste es solo si rechazamos o no rechazamos H0. Si por ejemplo concluimos quese rechaza H0 no sabremos si el valor del estadıstico estaba cerca del valor crıtico, y por lo tantoha sido rechazado ’por los pelos’, o por el contrario el valor del estadıstico de contraste estabamuy dentro de la region de rechazo, y el rechazo ha sido con mucha seguridad. La figura siguienteilustra estas dos posibles situaciones. En la figura de la izquierda (Caso 1), el valor del estadısticot0 (-1.7) esta muy proximo al valor crıtico (-1.65), rechazandose H0 por escaso margen. En la figurade la derecha (Caso 2) el estadıstico de contraste (t0 = −3) esta mucho mas dentro de la region derechazo, rechazandose la hipotesis nula con mas seguridad que en el Caso 1. En este segundo caso,la muestra refleja mas claramente que la poblacion no verifica dicha hipotesis.

Existe otra forma de dar el resultado de un contraste, que nos diga si la decision tomada(rechazar o aceptar) se hace con mas o menos incertidumbre. Consiste en utilizar el llamado p-valor del contraste. El p-valor es el nivel de significacion que deberıamos usar paradejar al valor del estadıstico de contraste justo en la frontera de la region de rechazo.O bien, es el mınimo nivel de significacion que nos llevarıa a rechazar la hipotesis nula. Las figuras

Page 18: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

18 Inferencia Estadıstica

siguientes nos muestran el p-valor correspondiente con los dos casos mostrados en la figura anterior.

La regla de decision basada en el p-valor sera entonces:

Si el p-valor es mayor que α entonces estamos dentro de la region de aceptacion.

Si el p-valor es menor que α entonces estamos en la region de rechazo.

Cuanto menor sea el p-valor mas seguridad tendremos en rechazar H0, mientrasque un elevado p-valor nos dara mas seguridad a la hora de aceptar H0. Si denotamospor τ a la distribucion de referencia usada en el contraste (por ejemplo, en el caso de la mediaτ ∼ N(0, 1)) y d al valor concreto del estadıstico de contraste (z0 o t0 en el caso de la media)obtenido con unos datos, el p-valor se calculara de la siguiente forma:

Si el contraste es unilateral con H1 : θ > θ0 el p-valor sera P (τ > d). La siguiente figurailustra la posicion de este p-valor

Si el contraste es unilateral con H1 : θ < θ0 el p-valor sera P (τ < d). La siguiente figurailustra la posicion de este p-valor

Page 19: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.6 Relacion entre contrastes de hipotesis e intervalos de confianza 19

Si el contraste es bilateral, con H1 : θ 6= θ0 el p-valor sera P (τ > |d|) + P (τ < −|d|). Lalocalizacion de este p-valor a ambos lados de la distribucion de referencia se ilustra en lasiguiente figura

7.6. Relacion entre contrastes de hipotesis e intervalos deconfianza

Tanto los intervalos de confianza como los contrastes de hipotesis se basan en las mismaspropiedades del estimador que este implicado en el contraste. En ambos casos se acude a la dis-tribucion del estimador en el muestreo. Por esta razon, ambos puden interpretarse comno formasdiferentes de utilizar la misma informacion: la variabilidad de la estimacion de un parametro debidoa la seleccion de la muestra.Se puede demostrar que la realizacion de un contraste de hipotesis bilateral con

nivel de significacion α es equivalente a realizar un intervalo de confianza de nivel(1− α) y comprobar si μ0 esta dentro o fuera de dicho intervalo.

Page 20: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

20 Inferencia Estadıstica

Utilizando los datos del Ejemplo 5, podemos construir un intervalo de confianza para la mediapoblacional del coeficiente β de los transistores a partir de la muestra observada. El intervalo deconfianza de nivel (1− α) es

μ ∈½x± zα/2

s√n

¾= 282,3± 1,9627,69

10= 282,3± 5,4 = [276,9; 287,7] ,

y que puede verse que con un nivel de confianza (1− α) no contiene a μ0 = 290. Por tanto,rechazamos la hipotesis nula de μ = 290 con un nivel de significacion de α = 0,05.

7.7. Inferencia en poblaciones normales

En esta seccion estamos interesados en hacer inferencia sobre los parametros de una variablealeatoria normal X ∼ N(μ, σ2). Es decir, sobre su media μ y sobre su varianza σ2. En las sec-ciones anteriores se introdujeron los elementos para realizar inferencia para la media μ de unapoblacion cualquiera en muestras grandes. El principio fundamental era que para una muestraX1,X2, ...,Xn de una variable aleatoria X, la media muestral

X =X1 +X2 + · · ·+Xn

n

tiene una distribucion muestral que se aproxima asintoticamente a la normal (es decir, a mayortamano muestral n, mayor parecido a la normal) de la forma

X ∼ N

µμ,

σ2

n

¶.

La justificacion de este resultado se encuentra en la aplicacion del teorema central del lımite. Enla practica, tamanos muestrales en torno a 30 obervaciones pueden ser suficientes para que podamosrealizar intervalos de confianza y contrastes sobre μ basados en la media muestral y su aproximaciona la normal. Cuando el tamano muestral es pequeno, el teorema central del lımite ya no se cumple,y la distribucion de la variable aleatoria X en el muestreo depende de la distribucion de la variableX que estamos analizando. En estos casos, los intervalos de confianza que construyamos siguiendola formulacion basada en muestras grandes ya no tendran el nivel de confianza que deseamos, nilos contrastes tendran el nivel de significacion o el p-valor que nos salga en los calculos, al estarbasados en propiedades estadısticas que ya no se cumplen.En esta seccion nos ocuparemos de la inferencia cuando la variable de interes X es normal,

y que sera de especial interes en muestras pequenas. Como ya se ha mencionado anteriormente,las variables aleatorias normales verifican que su combinacion lineal produce variablesaleatorias normales, para cualquier numero de variables que combinemos. De esta formatenemos que, para cualquier tamano muestral grande o pequeno, si X ∼ N(μ, σ2),

X ∼ N

µμ,

σ2

n

¶,

y por tanto

Z =X − μ

σ/√n∼ N (0, 1) ,

Page 21: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.7 Inferencia en poblaciones normales 21

para cualquier n. Cuando σ2 es desconocida, ha de utilizarse un estimador. En esta seccioonseguiremos utilizando como estimador de σ2 el estimador insesgado

S2 =

Pni=1

¡Xi − X

¢2n− 1 . (7.16)

Si sustituimos σ2 por S2 en (7.3) obtenemos el estadıstico T siguiente:

T =X − μ

S/√n. (7.17)

En secciones anteriores, tambien acudıamos a este estadıstico T para hacer inferencia. Hayuna diferencia importante entre los estadısticos Z y T que hace que en muestras pequenassus propiedades estadısticas sean diferentes. En Z solo interviene una variable aleatoria, que es lamedia muestral X. Al ser X normal y estandarizarse con sus verdaderos parametros, obtenemosque Z es la normal estandar. En T hay, sin embargo, dos variables aleatorias, X en el numeradory S en el denominador. Se puede demostrar que con muestras grandes, el componente aleatorioque aporta S en las propiedades estadısticas de T puede despreciarse. Por esta razon, en seccionesanteriores utilizamos que, para muestras grandes

T ∼ N(0, 1). (7.18)

Para muestras pequenas, la distribucion muestral de T viene influenciada tantopor X como por S, por lo que la aproximacion a la normal que se usa en (7.18)sera muy imprecisa. La distribucion muestral de T cuando X es normal es conocida yse denomina distribucion t de Student. En la siguiente seccion se describe brevemente estadistribucion.

7.7.1. Inferencia con la distribucion t de Student

La distribucion t de Student es una variable aleatoria continua, simetrica, de media cero, y deperfil muy parecido a la normal estandar. Depende de un parametro g que se denomina grados delibertad. Su notacion habitual es tg. La figura siguiente muestra dos ejemplos de distribucion tg

Page 22: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

22 Inferencia Estadıstica

con g = 3 y g = 10 junto con la distribucion N(0, 1).

En este grafico puede verse que cuanto mayor es el numero de grados de libertad, mas parecidohay entre la distribucion tg y N(0, 1). Puede demostrarse que efectivamente la funcion de densi-dad de tg tiende hacia la normal a medida que aumentan los grados de libertad. Para g = ∞ ladistribucion tg es identica a la N(0, 1), pero a efectos practicos, para g > 30 ambas distribucionesproporcionan probabilidades similares. La principal diferencia entre ambas distribuciones es quecon pocos grados de libertad, la distribucion tg tiene la zona de las colas mas ancha que la N(0, 1).Esta diferencia es muy importante, pues en estas zonas de las colas donde nos in-teresara calcular probabilidades; tanto para la construccion de intervalos de confianzacomo en contrastes. Esta distribucion esta tabulada y puede encontrarse en la mayorıa de losmanuales de estadıstica.

Puede demostrarse que si X ∼ N(μ, σ2),

T =X − μ

S/√n∼ tn−1, (7.19)

donde n es el tamano de la muestra. Para tamanos muestrales pequenos, tendremos greducidos, y por tanto mayores diferencias entre tn−1 y N(0, 1). Sera entonces maspreciso utilizar la distribucion tn−1 en aquellos lugares en los que al hacer inferenciapara una poblacion normal (intervalos y contrastes) usemos el estadıstico T. Paratamanos muestrales grandes sera indiferente usar la distribucion exacta tn−1 que se muestra en(7.19) que la aproximacion asintotica a la N(0, 1) que se usaba en seccciones anteriores.

Page 23: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.7 Inferencia en poblaciones normales 23

7.7.2. Inferencia sobre μ

Intervalos de confianza

En secciones anteriores se dedujo el intervalo de confianza para μ para muestras grandes,valido para cualquier distribucion de X. Este intervalo, de nivel de confianza (1− α) es

μ ∈½x± zα/2

s√n

¾. (7.20)

En el caso X ∼ N(μ, σ2), un intervalo mas preciso, sobre todo con muestras pequenas, se obtienereemplazando los valores de la normal estandar zα/2 por los de la distribucion tn−1. El razonamientoes el mismo que el que se siguio anteriormente. De (7.19) se tiene que

P¡−tn−1;α/2 < T < tn−1;α/2

¢= 1− α

donde tn−1;α/2 es el valor de la distribucion tn−1 que deja el area α/2 a la derecha, como se muestraen la siguiente figura

Por tanto, se tiene que

P

Ã−tn−1;α/2 <

X − μ

S/√n< tn−1;α/2

!= 1− α

y operando en el interior del parentesis

P

ÃX − tn−1;α/2

S√n< μ < X + tn−1;α/2

S√n

!= 1− α.

Por lo tanto, un intervalo de nivel de confianza (1− α) para la media μ de una poblacion normala partir de la informacion que suministra una muestra de tamano n es

IC(1− α) : μ ∈½x± tn−1;α/2

s√n

¾. (7.21)

Page 24: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

24 Inferencia Estadıstica

En la practica, si los datos proceden de una normal, deberemos utilizar siempre la distribuciontn−1 en los intervalos. De esta forma aseguraremos que el nivel de confianza real es (1 − α). Losintervalos de confianza en (7.20) son intervalos asintoticos, y en la practica solo podremos estarseguros de que el nivel de confianza real es (1−α) si el tamano muestral es muy grande. Sin embargo,el intervalo (7.21) esta hecho a la medidad de una poblacion normal y el tamano muestral n, ypor eso siempre tienen el nivel de confianza (1 − α). Por esta razon se dice que los intervalos(7.21) son exactos. Para poder aplicar (7.21) debemos asegurarnos que nuestros datos se ajustansuficientemente a la normal. Para saber si los datos de la muestra proceden de una normal podemoshacer un histograma de los mismos o incluso algun test de bondad de ajuste como el test de lachi-cuadrado.

Ejemplo 7 En una explotacion minera las rocas excavadas se someten a un analisis quımicopara determinar su contenido de Cadmio (densidad). Despues de analizar 25 rocas se obtieneque x = 9,77 y s = 3,164. Se sabe de anteriores analisis que el contenido de Cadmio sigue unadistribucion normal. Se quiere construir un intervalo de confianza al 95% para el contenido mediode Cadmio en las rocas de esa mina. El tamano de la muestra n = 25 es muy pequeno para quelos intervalos asintoticos (7.20) sean validos. Al ser la variable de interes una normal, podemosemplear el intervalo exacto (7.21). El intervalo de nivel de confianza 0,95 sera

0,95 = P

(−tn−1,α/2 <

X − μ0

S/√n

< tn−1,α/2

)

= P

(X − tn−1,α/2

S√n< μ < X + tn−1,α/2

S√n

)

Luego el intervalo es de la forma

IC(1− α) : μ ∈½x± tn−1,α/2

s√n

¾.

Usando α = 0,05 tenemos que, segun las tablas de la t24, t24,0,025 = 2,06. El intervalo para elcontenido medio de cadmio de las rocas que se extraigan de la mina es

IC(0,95) : μ ∈½9,77± 2,063,164√

25

¾= (8,5, 11,1) .

A la vista de este resultado, los tecniccos de la mina pueden tomar una decision acerca de laconveniencia de seguir haciendo prospeccion en dicha mina o por el contrario deben descartar suexplotacion.

Contrastes de hipotesis

Se quiere contrastar alguna de las siguientes hipotesis:

1. H0 : μ = μ0; frente a H1 : μ 6= μ0,

2. H0 : μ ≥ μ0; frente a H1 : μ < μ0,

3. H0 : μ ≤ μ0; frente a H1 : μ > μ0.

Page 25: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.7 Inferencia en poblaciones normales 25

La forma de realizar los contrastes para poblaciones normales es la misma que la que se men-ciono anteriomente, con la unica diferencia de la distribucion de referencia del estadıstico T, quede acuerdo con (7.19) sera la distribucion tn−1 en lugar de la aproximacion a la normal estandar.La siguiente tabla resume los detalles de estos contrastes.

Contrastes Estadısticosde contraste

Distribucionde referencia

Regionde rechazo

(1)-H0 : μ = μ0; H1 : μ 6= μ0(2)-H0 : μ ≥ μ0; H1 : μ < μ0(3)-H0 : μ ≤ μ0; H1 : μ > μ0

(a) Z0 =X − μ0σ/√n

(b) T0 =X − μ0

S/√n

(a) Z0 ∼ N(0, 1)(b) T0 ∼ tn−1

(1-a) |z0| > zα/2(2-a) z0 < −zα(3-a) z0 > zα(1-b) |t0| > tn−1;α/2(2-b) t0 < −tn−1;α(3-b) t0 > tn−1;α

Ejemplo 8 Con los datos de la muestra de transistores BC547B mencionados en el tema anteriordeseamos contrastar si se mantiene el valor nominal μ = 290 como media de la distribucionpoblacional de valores β, es decir,

H0 : μ = 290

H1 : μ 6= 290

Para hacer el contraste se toma una muestra de n = 100 observaciones y se obtiene la mediamuestral x y la cuasivarianza s2. El histograma de este conjunto de datos junto con la normalN(x, s2) sobreimpresa es el siguiente

Esta figura sugiere que loss datos podrıan proceder de una distribucion normal. El p-valor delcontraste chi-cuadrado es mayor que 5%, lo que refuerza la bondad del ajuste de la normal anuestros datos. Consideramos entonces, con un p-valor<0.05, que es aceptable la normalidad de lapoblacion de valores β. Por tanto realizaremos el contraste usando como distribucion de referenciapara el estadıstico de contraste la distribucion tn−1. Los datos muestran que

x = 282,3; s = 27,57;

t0 =x− μ0s/√n=282,3− 29027,69/10

= −2,78.

Como es un contraste bilateral necesitamos dos valores crıticos. Como la distribucion de referenciatn−1 es simetrica de media cero, ambos valores crıticos seran iguales pero de signo contrario.

Page 26: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

26 Inferencia Estadıstica

Uusando un nivel de significacion α = 0,05, y la distribucion de referencia t de Student conn − 1 = 99 grados de libertad se tiene que t99;0,025 = 1,984. Por tanto, como |t0| = 2,78 > 1,984rechazamos H0. Rechazamos, con un nivel de significacion del 5%, que la ganancia media de lostransistores se siga manteniendo en elvalor 290.

7.7.3. Inferencia sobre σ2

Estimacion

En esta seccion simplemente recordaremos que hemos visto dos estimadores para σ2 : la varianzamuestral

S2 =

Pni=1

¡Xi − X

¢2n

,

que es un estimadorde σ2 sesgado, y la cuasivarianza

S2 =

Pni=1

¡Xi − X

¢2n− 1 ,

que es insesgado. Para poblaciones normales, la distribucion muestral de ambos estimadores esta rela-cionada con la distribucion llamada chi-cuadrado. Utilizaremos esa distribucion para poder hacerintervalos de confianza y contrastes sobre σ2. A continuacion vamos a describir brevemente estadistribucion.

La distribucion χ2g

Antes de presentar resultados sobre la inferencia relacionada con σ2 en poblaciones normales,presentaremos una variable aleatoria denominada chi-cuadrado, y que se denota por χ2g. La dis-tribucion chi-cuadrado es una distribucion que depende del parametro g que se denomina gradosde libertad (g = 1, 2, ...). La distribucion χ2g va de 0 a ∞ y es asimetrica positiva. Su asimetrıadisminuye al aumentar los grados de libertad. La figura siguiente muestra la funcion de densidadde la χ23 y la χ

26.

Page 27: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.7 Inferencia en poblaciones normales 27

Las medidas caracterısticas de la χ2g son

E(χ2g) = g,

Var(χ2g) = 2g.

Esta distribucion esta tambien tabulada y puede encontrarse en la mayorıa de los textos de es-tadıstica.

La distribucion muestral de los estimadores de σ2, la varianza y la cuasivarianza muestral, enpoblaciones normales estan relacionadas con esta distribucion. Puede demostrarse que

(n− 1)S2σ2

∼ χ2n−1; (7.22)

nS2

σ2∼ χ2n−1.

donde n es el tamano de la muestra.

Intervalos de confianza para σ2

Para construir los intervalos de confianza para σ2 en una poblacion normal vamos a seguir elmismo razonamiento que el utilizado para deducir los intervalos de μ. De (7.22) puede deducirseque

P

Ãχ2n−1;1−α/2 <

(n− 1)S2σ2

< χ2n−1;α/2

!= 1− α. (7.23)

donde χ2n−1;α/2 es el valor de la distribucion χ2n−1 que deja el area α/2 a la derecha. La figura

siguiente ilustra estos valores χ2n−1;α/2 y χ2n−1;1−α/2.

Page 28: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

28 Inferencia Estadıstica

Operando en el interior del parentesis de (7.23) se obtiene que

P

Ã(n− 1)s2χ2n−1;α/2

< σ2 <(n− 1)s2χ2n−1;1−α/2

!,

o bien, para el caso del estimador S2,

P

ÃnS2

χ2n−1;α/2< σ2 <

nS2

χ2n−1;1−α/2

!.

Por tanto, un intervalo de confianza de nivel de confianza (1− α) para el parametro σ2 sera

IC(1− α) : σ2 ∈Ã(n− 1)s2χ2n−1;α/2

,(n− 1)s2χ2n−1;1−α/2

!; (7.24)

o bien, si utilizamos el estimador S2,

IC(1− α) : σ2 ∈Ã

ns2

χ2n−1;α/2,

ns2

χ2n−1;1−α/2

!. (7.25)

A diferencia de los intervalos de confianza para μ, los intervalos para σ2 no son simetricosalrededor de las estimaciones s2 o s2.

Ejemplo 9 Continuando con el ejemplo 7 anterior sobre el contenido de cadmio en rocas, quere-mos construir un intervalo de confianza al 99% para σ2. Como el estimador utilizado para σ2 esla cuasivarianza muestral S2, se tiene que

0,99 = P

(χ2n−1,α/2 <

(n− 1)S2σ2

< χ2n−1,1−α/2

)= P

((n− 1)S2χ2n−1,1−α/2

< σ2 <(n− 1)S2χ2n−1,α/2

)Como α = 0,01, tenemos que segun las tablas de la chi cuadrado: χ224,0,995 = 9,89, χ

224,0,005 = 45,6.

El intervalo es:IC (0,99) : σ2 ∈ (5,27, 24,29)

Contraste de hipotesis

Se quiere contrastar las siguientes hipotesis.

1. H0 : σ2 = σ20; H1 : σ

2 6= σ20

2. H0 : σ2 ≥ σ20; H1 : σ

2 < σ20

3. H0 : σ2 ≤ σ20; H1 : σ

2 > σ20

donde σ20 es un valor numerico concreto. Los contrastes para σ2 en poblaciones normalessiguen las mismas reglas que en los contrastes vistos para μ. El contraste se basa en las sigu-ientes propiedades de la varianza muestral en poblaciones normales X ∼ N(μ, σ2) que ya se hanmencionado anteriormente:

(n− 1)S2σ2

∼ χ2n−1, (7.26a)

nS2

σ2∼ χ2n−1. (7.26b)

Page 29: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.7 Inferencia en poblaciones normales 29

El estadıstico de contraste que resuma la informacion necesaria para realizar un contraste sebasara en (7.26), pero sustituyendo σ2 por σ20. El estadıstico de contraste es por tanto:

X20 =

(n− 1)S2σ20

; (7.27)

X20 =

nS2

σ20. (7.28)

Ejemplo 10 Volviendo a los datos sobre los transistores BC547B mencionados anteriormente,tenıamos el objetivo de comprobar si la media no habıa cambiado, ası como comprobar si la varianzano habıa aumentado. Podemos ahora contrastar este segundo punto. Los datos historicos decıanque σ20 = 760. Por tanto el contraste es

H0 : σ2 ≤ 760;H1 : σ2 > 760.

Asumiendo a la vista del test de la chi-cuadrado que los datos son normales podemos realizar elcontraste presentado mas arriba. De los datos se obtiene

x20 =(n− 1)s2

σ20=99× 766,85

760= 99,89.

Al realizar un contraste de hipotesis, aceptaremos la hipotesis nula salvo que los datos arrojenmucha evidencia en contra. Por tanto, rechazaremos la hipotesis nula cuando el valor del estimadorde σ2 que usemos haga lo que especifique la hipotesis alternativa de forma muy acusada.

En el caso del contraste con alternativa bilateral H0 : σ2 = σ20; H1 : σ

2 6= σ20, rechazaremos H0cuando s2 (o s2) tenga un valor s2 >> σ20 o s

2 << σ20, como se ilustra en la siguiente figura

Puede verse en (7.27) que cuando s2 >> σ20, el estadıstico de contraste X20 tendra tambien

un valor alto, y tendera a estar en la cola de la derecha de la distribucion de referencia, mientrasque cuando s2 << σ20, el estadıstico X2

0 estara en la zona de la izquierda de la distribucion dereferencia. La region de rechazo, de area igual al nivel de significacion α, estara a ambos extremos

Page 30: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

30 Inferencia Estadıstica

de la distribucion χ2n−1, como se ilustra en la siguiente figura.

Analogamente, en el caso de un contraste con alternativa unilateral, la region de rechazo es-tara solo a un lado de la distribucion. En el caso del contraste H0 : σ

2 ≥ σ20; H1 : σ2 < σ20,

rechazaremos cuando s2 << σ20, o analogamente, cuando X20 tenga un valor muy bajo. Final-

mente, en el caso del contraste H0 : σ2 ≤ σ20; H1 : σ

2 > σ20, rechazaremos cuando s2 >> σ20, lo que

dara un valor del estadıstico de contraste en la cola de la derecha de la distribucion χ2n−1. Puedeverse por tanto, que la region de rechazo esta alla donde senala H1. Las siguientes figuras muestranlas regiones de rechazo en estos dos contrastes.

La siguiente tabla resume las caracterısticas de estos contrastes

Contrastes Estadısticosde contraste

Distribucionde referencia

Regionde rechazo

(1)-H0 : σ2 = σ20; H1 : σ

2 6= σ20(2)-H0 : σ

2 ≥ σ20; H1 : σ2 < σ20

(3)-H0 : σ2 ≤ σ20; H1 : σ

2 > σ20

X20 =

(n− 1)S2σ20

X20 =

nS2

σ20

X20 ∼ χ2n−1

(1)x20 > χ2n−1;α/2

o x20 < χ2n−1;1−α/2(2) x20 < χ2n−1;1−α(3) x20 > χ2n−1;α

Ejemplo 11 Volviendo a los datos sobre los transistores BC547B, rechazaremos H0 si x20 >

χ299;0,05. Como χ299;0,05 = 123,2 y x20 = 99,89, no podemos rechazar la hipotesis nula, con un nivel

Page 31: Inferencia Estad´ıstica - UC3M...Inferencia Estad´ıstica 1. Introducci´on 2. Intervalos de confianza para μcon muestras grandes 3. Introducci´on al contraste de hip´otesis

7.7 Inferencia en poblaciones normales 31

de significacion de α = 0,05, de que el proceso no ha aumentado su variabilidad. Por tanto, aunques2 = 766,85 > σ20, la diferencia no es significativa, y es es perfectamente explicable por la variabil-idad debida a la muestra. El p-valor de este contraste sera la probabilidad P (χ299 > 99,89) = 0,456que es muy elevada, por lo que x20 esta bastante dentro de la region de aceptacion. Aceptamos lahipotesis nula con bastante seguridad.

Ejemplo 12 Un fabricante de aparatos de precision garantiza que la desviacion tıpica de las me-didas que pueden efectuarse con el tipo de balanza que comercializa es σ ≤ 5 unidades. Para com-probar dicha afirmacion se pesa un objeto en 100 basculas de dicho tipo y se obtiene una varianzamuestral de s2 =26.243. Si sabemos que la distribucion de los pesos siguen una normal, realizarun contraste que permita tomar una decision respecto a aceptar o no la informacion suministradapor el fabricante (α = 0,05).Lo que queremos contrastar es

H0 : σ2 ≤ σ20(= 25);H1 : σ

2 > 25.

Se rechaza H0 si s2 >> σ20; mas concretamente, si

ns2

σ20> χ2n−1;α

De los datos se tiene que n = 100, s2 = 26,243. Por tanto

x20 =ns2

σ20=100× 26,243

25= 104,972,

χ299,0,05 = 123,2 (Statgraphics).

Como X0 < χ299,0,05 no tenemos evidencia suficiente (con un nivel del 5%) para sospechar delfabricante. Es decir, si la poblacion tiene σ2 ≤ 25 no es raro encontrar que en una muestra detamano n = 100 tengamos s2 = 26,243. Entra dentro de la variabilidad muestral que se encuentrapor azar al tener muestras de tamano 100.