notas estadistica

67
1 CONTENIDO Estadística ................................................................................................................................................................................. 5 Población y muestra ............................................................................................................................................................. 5 Estadísticas descriptivas ................................................................................................................................................... 6 Estadística Inferencial ...................................................................................................................................................... 6 Capítulo 2. Muestreo y Mediciones .......................................................................................................................................... 8 2.1. Variables y sus medidas................................................................................................................................................. 8 Cualitativa ........................................................................................................................................................................ 8 Cuantitativa ...................................................................................................................................................................... 8 Métodos estadísticos y tipo de medida ........................................................................................................................... 9 2.2 Aleatorización (p. 17) ................................................................................................................................................... 10 Muestreo Aleatorio Simple (MAS) ................................................................................................................................. 10 2.3 Variabilidad en Muestreo y no muestreo ..................................................................................................................... 11 Error muestral de un estadístico .................................................................................................................................... 11 2.4 Otros métodos de muestreo probabilístico ................................................................................................................. 12 Muestreo sistemático .................................................................................................................................................... 12 Muestreo Estratificado .................................................................................................................................................. 13 Muestreo por Clusters ................................................................................................................................................... 13 Muestreo por etapas ..................................................................................................................................................... 14 Capítulo 3. Estadística Descriptiva .......................................................................................................................................... 14 3.1. Tabulados y descripciones gráficas ............................................................................................................................. 14 Distribución de frecuencias............................................................................................................................................ 14 Frecuencias relativas ...................................................................................................................................................... 15 Histogramas y gráficas de barra ..................................................................................................................................... 15 Diagrama de raíz y hojas (stem and leaf plot) (40-41) ................................................................................................... 15

Upload: max-arechiga-morales

Post on 31-Jan-2016

8 views

Category:

Documents


0 download

DESCRIPTION

Notas del Libro Agresti "Metodos estadisiticos para las ciencias sociales"

TRANSCRIPT

Page 1: Notas Estadistica

1

CONTENIDO

Estadística ................................................................................................................................................................................. 5

Población y muestra ............................................................................................................................................................. 5

Estadísticas descriptivas ................................................................................................................................................... 6

Estadística Inferencial ...................................................................................................................................................... 6

Capítulo 2. Muestreo y Mediciones .......................................................................................................................................... 8

2.1. Variables y sus medidas................................................................................................................................................. 8

Cualitativa ........................................................................................................................................................................ 8

Cuantitativa ...................................................................................................................................................................... 8

Métodos estadísticos y tipo de medida ........................................................................................................................... 9

2.2 Aleatorización (p. 17) ................................................................................................................................................... 10

Muestreo Aleatorio Simple (MAS) ................................................................................................................................. 10

2.3 Variabilidad en Muestreo y no muestreo ..................................................................................................................... 11

Error muestral de un estadístico .................................................................................................................................... 11

2.4 Otros métodos de muestreo probabilístico ................................................................................................................. 12

Muestreo sistemático .................................................................................................................................................... 12

Muestreo Estratificado .................................................................................................................................................. 13

Muestreo por Clusters ................................................................................................................................................... 13

Muestreo por etapas ..................................................................................................................................................... 14

Capítulo 3. Estadística Descriptiva .......................................................................................................................................... 14

3.1. Tabulados y descripciones gráficas ............................................................................................................................. 14

Distribución de frecuencias ............................................................................................................................................ 14

Frecuencias relativas ...................................................................................................................................................... 15

Histogramas y gráficas de barra ..................................................................................................................................... 15

Diagrama de raíz y hojas (stem and leaf plot) (40-41) ................................................................................................... 15

Page 2: Notas Estadistica

2

Comparación de grupos (42) .......................................................................................................................................... 16

Distribución muestral y poblacional .............................................................................................................................. 16

3.2. Medidas de tendencia central ..................................................................................................................................... 17

La media (45 /38) ........................................................................................................................................................... 17

3.3 La Mediana y otras medidas de tendencia central (48) ............................................................................................... 18

Ventajas y desventajas con respecto a la media (51) .................................................................................................... 18

Cuartiles y otros percentiles (52) ................................................................................................................................... 19

La moda .......................................................................................................................................................................... 19

3.4 Medidas de dispersión ................................................................................................................................................. 20

Rango ............................................................................................................................................................................. 20

Varianza y desviación standard (57) .............................................................................................................................. 20

Interpretando la magnitud de S ..................................................................................................................................... 21

3.5 Estadísticos y parámetros de la población de la muestra ............................................................................................ 22

Capítulo 4. Distribuciones de probabilidad............................................................................................................................. 24

4.1 Introducción a la probabilidad ..................................................................................................................................... 25

La probabilidad como una frecuencia relativa de ocurrencias ...................................................................................... 25

4.2 Distribución de probabilidades para variables discretas y continuas .......................................................................... 26

Distribuciones de probabilidad ...................................................................................................................................... 26

Gráficas de distribución de probabilidad ....................................................................................................................... 27

Parámetros que describen distribuciones de probabilidad ........................................................................................... 27

Capítulo 5. Inferencia estadística: Estimación ........................................................................................................................ 29

5.1 Estimador puntual e intervalos de estimación ............................................................................................................. 29

Estimador puntual de parámetros ................................................................................................................................. 29

Estimadores eficientes e insesgados .............................................................................................................................. 29

Estimadores de la media, desviación estándar y proporción ........................................................................................ 30

Máxima verosimilitud .................................................................................................................................................... 31

Intervalo de confianza .................................................................................................................................................... 31

Page 3: Notas Estadistica

3

5.2 Intervalo de confianza para una proporción ................................................................................................................ 32

Intervalo de confianza para proporciones con muestras muy grandes ......................................................................... 33

Controlando el nivel de confianza.................................................................................................................................. 35

Muestras más grandes dan lugar a intervalos más pequeños ....................................................................................... 36

Error de la probabilidad ................................................................................................................................................. 36

Validez con una muestra grande.................................................................................................................................... 37

5.3 Intervalo de confianza para la media ........................................................................................................................... 37

La distribución t.............................................................................................................................................................. 38

Valores t en los intervalos de confianza para una media .............................................................................................. 39

Efecto del nivel de confianza en el tamaño de la muestra ............................................................................................ 39

Robustez para las violaciones al supuesto de normalidad............................................................................................. 40

Cuando df infinito, entonces la distribución t es una normal estándar ......................................................................... 41

La desventaja de utilizar software ................................................................................................................................. 42

5.4 Elección del tamaño de la muestra .............................................................................................................................. 42

Tamaño de la muestra para estimar proporciones ........................................................................................................ 42

Fórmula para estimar el tamaño de la muestra de una media ...................................................................................... 44

Tamaño de la muestra para estimar las medias ............................................................................................................ 45

Otras consideraciones sobre la muestra ........................................................................................................................ 46

Qué pasa si solo tenemos una muestra pequeña .......................................................................................................... 47

Intervalos de confianza para medianas y parámetros ................................................................................................... 47

Intervalos de confianza para la mediana ....................................................................................................................... 48

Capítulo 6. Inferencia estadística: Pruebas de significancia ................................................................................................... 49

6.1 Las cinco partes de una prueba de significancia .......................................................................................................... 50

6.2 Prueba de significancia para una media ....................................................................................................................... 52

Correspondencia entre pruebas de dos colas e intervalos de confianza ....................................................................... 55

Pruebas de significancia de un solo lado ....................................................................................................................... 55

Un lado de H0 para un lado de Ha (lo que queda implícito) ............................................................................................ 57

Page 4: Notas Estadistica

4

La elección: un lado o dos .............................................................................................................................................. 57

El nivel de alfa: Utilizando los valores de P para tomar decisiones ............................................................................... 58

Robustes para violaciones al supuesto de normalidad .................................................................................................. 58

6.3 Prueba de significancia para una proporción ............................................................................................................... 58

6.4 Decisiones y tipo de error ............................................................................................................................................ 60

Error tipo I y error tipo II ................................................................................................................................................ 61

El nivel α es la probabilidad de cometer el error tipo I .................................................................................................. 61

Equivalencia entre intervalos de confianza ypruebas de decisiones ............................................................................. 62

Tomando la decisión vs el el valor reportado de P ........................................................................................................ 62

6.5 Limitaciones de la prueba de significancia ................................................................................................................... 62

La prueba de significancia es menos útil que los intervalos de confianza ..................................................................... 63

6.6 Calculando el Error Tipo II ............................................................................................................................................ 63

El poder de la prueba ..................................................................................................................................................... 64

6.7 Prueba de muestras pequeñas para proporciones, la distribución binomial ............................................................... 65

Prueba binomial ............................................................................................................................................................. 66

Page 5: Notas Estadistica

5

ESTADÍSTICA

Métodos para recolectar y analizar datos

¿Para qué las usamos?

Diseño: planear y llevar a cabo investigaciones

Descripción: Revisar y explorar datos

Inferencia: Hacer predicciones o generalizaciones sobre un fenómeno representado por los datos.

Diseño:

¿Cuál es la mejor manera de obtener los datos? ¿Cómo elaborar una encuesta, cómo construir el cuestionario y seleccionar una muestra?

Descripción e inferencia: Tienen que ver con el análisis de datos

Estadística descriptiva: organizamos datos de tal manera que los hacemos fáciles de leer. Este primer acercamiento puede ser la base para estudios a mayor profundidad.

Inferencia: Formas de hacer predicciones con base en los datos. Cuando usamos datos para hacer nuestras predicciones.

¿La imposición de la pena de muerte está asociada con una reducción del crimen violento?

¿El arreglo de las calles está asociado con la disminución de la violencia?

¿El rendimiento escolar depende de la cantidad de dinero gastado en cada alumno, del tamaño del grupo o de los salarios de los maestros?

POBLACIÓN Y MUESTRA

Sujetos: Aquellos sobre los cuales hacemos las mediciones para nuestro estudio (i.e. personas, familias, escuelas,

ciudades o compañías)

Población: El universo o conjunto total de sujetos que nos interesan para nuestro estudio.

Muestra: Un subconjunto de la población sobre la cual recolectamos nuestros datos.

En los estudios o investigación buscamos aprender sobre poblaciones; pero es más fácil usar muestras; más económico.

Métodos estadísticos

Diseño

Análisis

Descriptivos: Resumen de

datos

Inferencias: predecciones

Page 6: Notas Estadistica

6

ESTADÍSTICAS DESCRIPTIVAS

Resumen la información de una colección de datos. El objetivo es explorar los datos para reducirlos a términos más

simples y fáciles de comprender, sin perder o distorsionar mucho de la información disponible.

Utilizamos gráficas resumen, tablas y números tales como promedios y porcentajes. Son más fáciles de entender que

listas enormes de datos.

ESTADÍSTICA INFERENCIAL

Permite hacer predicciones sobre características de la población basada en información de una muestra de la población.

Ejemplo:

En Jalisco han aumentado los actos violentos por parte de grupos de narcotraficantes. Algunas personas creen que a

partir de la legalización de las drogas van a disminuir los conflictos entre los distintos grupos de traficantes y venta de

drogas. Legalizar tiene un costo político alto.

Nos interesa saber el porcentaje de residentes que favorecen la legalización de las drogas. Dado que es imposible discutir

con todas las personas que viven en Jalisco, podemos estudiar los resultados de una encuesta de 1, 500 personas de

Jalisco. La inferencia estadística permite obtener una predicción del porcentaje de habitantes que estaría de acuerdo. (p.

5)

PARÁMETRO: Resumen numérico de la población

ESTADÍSTICO: Resumen numérico de los datos de tu muestra.

Generalmente desconocemos los parámetros.

La inferencia del parámetro se basa en un estadístico. Es decir, lo que describimos de la población lo hacemos a partir de

una muestra.

Ejemplo 1. Opinión sobre el control de armas

El autor del libro es residente de Florida, un estado con un índice relativamente alto de violencia. A él le gustaría saber el

porcentaje de residentes de Florida que están de acuerdo con el control de la venta de armas. La población de interés es

el conjunto de más de 10 millones de adultos residentes en Florida. Dado que le es imposible para él discutir este tema

con todos, puede estudiar los resultados de una encuesta de 834 residentes de Florida que se llevó a cabo en 1995 por el

instituto de Investigación de Opinión Pública en la Universidad Internacional de Florida. En dicha encuesta, 54% de las

personas entrevistadas dijo estar de acuerdo con el control de la venta de armas.

En esta encuesta participaron 834; sin embargo, a él le interesa saber lo que piensa toda la población de Florida. A partir

de inferencias estadísticas él puede obtener esta información.

DEFINICIÓN DE LA POBLACIÓN

Es necesario especificar claramente la población a la cual se refiere la inferencia.

Page 7: Notas Estadistica

7

La población no necesariamente existe, pero podemos conceptualizarla como tal. Por ejemplo, individuos que pueden

sufrir depresión. (Límites en la generalización)

USO DE COMPUTADORAS

Permite manejar gran cantidad de datos

Hacer operaciones costosas, menos costosas.

RIESGOS

El uso de métodos no apropiados con los datos que tenemos. La computadora hace el análisis requerido

independientemente de que los supuestos para ese método no se cumplan.

Page 8: Notas Estadistica

8

CAPÍTULO 2. MUESTREO Y MEDICIONES

La estadística descriptiva ayuda a resumir la información, mientras que los métodos inferenciales permiten hacer

predicciones sobre la población.

2.1. VARIABLES Y SUS MEDIDAS

Los métodos estadísticos nos permiten observar la variabilidad de los datos.

VARIABLE: Una característica que cambia entre sujetos y que podemos medir. Para cada sujeto la variable tiene un valor

único. Diferentes sujetos tienen diferentes valores.

ESCALA: Los valores que puede asumir una variable. Por ejemplo, género es una variable cuya escala consiste únicamente

de dos etiquetas, femenino y masculino.

El método estadístico que podemos usar depende del tipo de variable que tenemos.

CUALITATIVA CUANTITATIVA

Categorías no ordenadas. Categorías con un orden natural.

Escalas numéricas en las cuales los valores posibles varían en magnitud

No hay máximo ni mínimo Varían en características no en cantidad.

No hay distancia clara entre intervalos; Hay un orden pero no es claro el valor entre un valor y otro.

Hay un máximo y un mínimo. Hay una distancia clara entre cada uno de los valores numéricos

CATEGÓRICOS NO CATEGÓRICOS

NOMINAL ORDINAL ORDINAL INTERVALOS

Lugar de nacimiento Soltero, divorciado, casado, viudo/a Tipo de transporte

Clase baja, clase media y clase alta

Año de nacimiento Número total de años viviendo con otra persona

Ingreso de 0-100, De 101 a 200, etc.

Métodos cualitativos Métodos cuali y cuanti (cuando se asignan valores numéricos—análisis de sensibilidad para ver si hay variaciones importantes al asignar otros valores numéricos)

Métodos Cuantitativos

DISCRETAS DISCRETAS CONTINUAS

Número finito de valores Número finito de valores Continuum infinito de valores posibles de números reales

No. De niños por hogar No. De asesinatos según el censo de 2014 No. De visitas a un médico en el último año “número de”… no se pueden dividir, no puedes tener una cita y media.

Altura, peso, edad, tiempo que tarda una persona en leer un texto, etc. Los números sí se pueden dividir.

Page 9: Notas Estadistica

9

VARIABLES DISCRETAS Y CONTINUAS

Otra forma de clasificar las variables. Tiene que ver con el número de valores en la escala.

La diferencia entre continua y discontinua es confusa por la forma en que son medidas. Por ejemplo, ¿qué tan prejuiciosa

es una persona? Sabemos que es un rango con muchas variaciones, pero su medida describe ciertas características, así

que lo tomamos como discreta. Usamos valores de 0 a 10, pero cada valor incluye un rango de actitudes, que puede

observarse como un continuum.

Otras variables aunque son discretas pueden tener una gama de valores muy amplia por lo que se toman como continuas.

Por ejemplo el ingreso anual.

Los métodos más simples son los que utilizamos para variables continuas (i.e. regresión lineal). Cada método responde a

un tipo de variable en específico.

MÉTODOS ESTADÍSTICOS Y TIPO DE MEDIDA

¿Por qué es importante distinguir entre métodos cualitativos o cuantitativos? Porque de eso depende el método que

utilicemos.

Si es nominal no podemos utilizar métodos para valores numéricos

PROMEDIO: es un resumen para datos cuantitativos. Utiliza valores numéricos. Podemos utilizarlo para intervalos de

ingreso, pero no para afiliación religiosa.

Hay datos cuantitativos que pueden manejarse como cualitativos, por ejemplo la edad: se puede utilizar como edad para

trabajar vs. Edad no apta para el trabajo.

Nominal Cualitativa DiscretaCasadoSoltero

Divorciado

No orden claroNo máx. ni mínimo

CategoríaMétodos Cualitativos

Ordinal

Cualitativa DiscretaClase alta

Clase MediaClase baja

Orden natural no claro y sin intervalo o distancia precisa

CategoríaMétodos Cualitativos al

asignarle valores numéricos

Cuantitativa

DiscretaNo. de niños en el hogar

No. de visitas al médico en el último año

Métodos cuantitativos

ContinuaAltura, peso, edad, tiempo

de estudioMétodos cuantitativos

Intervalo Cuantitativa

ContinuaRango de ingreso

a) 1,000-1,999b) 2,000-2,999

Distancia clara entre uno y otro intervalo

Métodos cuantitativos

Discreta

Número de hijos por rango1-3 hijos4-6 hijos7-9 hijos9 o más

Métodos Cuantitativos

Page 10: Notas Estadistica

10

2.2 ALEATORIZACIÓN (P. 17)

Para inferencias usamos muestras.

La calidad de la inferencia depende de qué tan bien la muestra represente a la población.

El mejor método: Aleatorización

MUESTREO ALEATORIO SIMPLE (MAS)

O Muestreo simple.

De individuos, familias, escuelas, casas, ciudades, registros, etc. Todos son objeto de muestreo.

De n sujetos de una población. Es aquel en el cual cada muestra posible tiene la misma probabilidad de ser elegida.

N = número de sujetos en la muestra = tamaño de la muestra

Ejemplo. Muestra en hogares.

Queremos entrevistar a un grupo de adultos seleccionado de manera aleatoria por hogar. Uno de los hogares está

conformado por la mamá, el papá, la tía y el tío—(M, P, A y O)—Una muestra aleatoria de n=1 de los adultos es aquella en

la cual cada uno de ellos tiene la misma probabilidad de ser entrevistado. La selección la podemos hacer, por ejemplo,

poniendo los cuatro nombres, cada uno en una papeleta, y sin ver tomar el nombre.

Para una muestra simple de n=2 adultos, cada muestra posible contiene dos elementos y todos tienen la misma

probabilidad de ser elegidos. Las muestras posibles son: (MP) (MA) (MO) (PA) (PO) (AO),

¿Cómo seleccionarlo?

Marco Muestral = Lista de todos los sujetos en la población

Podemos usar Excel, urnas, etc.

Método probabilístico Método No probabilístico

Método Aleatorio Simple Muestreo voluntario (bola de nieve, recomendación, etc.) Entrevistas en puntos clave

Podemos especificar la probabilidad de que esa muestra sea elegida. Podemos hacer inferencias porque para la inferencia es necesario saber la probabilidad de ocurrencia

No sabemos la probabilidad de ocurrencia de la posible muestra No podemos hacer inferencias confiables

Muestreo voluntario Entrevistas en puntos clave

Aún con muestras grandes se mantiene el sesgo Sesgo por el tiempo o la hora en que se hace la entrevista, por el día (no es lo mismo sábado que domingo o entre semana), por el juicio del entrevistador al decidir a quién sí y a quién no entrevistar

MV Ejemplo:

Page 11: Notas Estadistica

11

Programa de la ABC, Night time, preguntó a los televidentes si las naciones unidas deberían continuar ubicadas en los

Estados Unidos. De más de 186,000 personas que participaron 67% querían que las naciones Unidas salieran de EU. Al

mismo tiempo una encuesta científica, utilizando una muestra de 500 personas, estudió el verdadero porcentaje de las

personas que querían que las UN se fueran de los EU (28%). A pesar de ser una muestra pequeña era más confiable que la

de TV.

Muestras basadas en diseño experimental

Datos experimentales: cuando controlamos aquellos factores que pueden influir en el resultado de una variable de

interés.

El objetivo de muchos experimentos es comparar variaciones con el tratamiento. Utilizan un diseño experimental: plan

para la asignación de tratamientos.

Datos observados: se obtienen a través de encuestas. El investigador mide las respuestas de los sujetos entrevistados. No

hay control sobre los sujetos.

2.3 VARIABILIDAD EN MUESTREO Y NO MUESTREO

Aun cuando utilizamos aleatorización los resultados del estudio pueden ser muy diferentes. Los valores de dos muestras

diferentes pueden variar de manera significativa y, por ende, la inferencia a partir de esa muestra va a ser muy distinta.

Error muestral

Las diferencias pueden resultar de: el parafraseo de la pregunta

Aún con preguntas exactamente iguales el porcentaje puede variar. Necesitamos saber el error muestral potencial. Qué

tanta variación puede haber entre una y otra muestra.

ERROR MUESTRAL DE UN ESTADÍSTICO

Es el error que ocurre cuando un estadístico basado en una muestra estima o predice el valor del parámetro de una

población.

En la práctica no sabemos el error muestral. Hay métodos para saberlo. Peor en muestras de 1000 individuos, por

ejemplo, el error esperado generalmente NO es mayor a 3 o 4%.

La aleatorización nos protege de el sesgo que se genera con el muestreo (sobre-estimar o subestimar los valores del

verdadero parámetro). Permite estimar el grado de error. Se puede predecir la variabilidad lo que no sucede con datos

NO aleatorios.

Otras fuentes de variabilidad

Además del error muestral, se pueden dar otras variaciones que den lugar a una mala inferencia

a) Marco muestral no abarca a toda la población, por lo tanto no es representativos de todos los grupos. Esto pasa

comúnmente con encuestas en hogares en las cuales no se incluye a quienes viven en la calle. En temas como

trabajo infantil es un problema importante.

Page 12: Notas Estadistica

12

b) La no respuesta: En ocasiones no responden porque no quieren o porque se niegan a hacerlo. Aún cuando la

muestra es aleatoria una falta de respuesta sustancial, digamos 20%, más o menos, produce sesgo. En los censos

que se supone recopila información de toda la población muchas veces no se pueden localizar a todas las

personas o simplemente no quieren dar datos.

c) Respuestas sesgadas: Por la apariencia del entrevistador, el sexo, etc. Porque creen que su respuesta es

socialmente inaceptable. Buscan responder lo que ellos creen que tú esperas.

Lynn Sanders (chicago) estudió sobre el efecto de la raza en las entrevistas. Terminando la entrevista telefónica

se les preguntaba a los encuestados si creían que el entrevistador era blanco o negro (cuando en realidad todos

eran negros) El percibir que era blanco generó opiniones más conservadoras.

d) La manera en que parafraseamos las preguntas. Lo que nos sucedió: ¿eres religioso? Vs. Crees en Dios

e) El orden de las preguntas

i. Cree que los EU deberían permitir que los reporteros de periódicos rusos vengan y reporten en su país

lo que ellos quieran

ii. Cree que Rusia debería dejar que los reporteros americanos entren a su país y reporten para los

americanos lo que ellos quieren?

El % de respuestas afirmativas a la 1ª pregunta era 36% cuando se preguntaba 1ero y 73% cuando se

preguntaba después de haber hecho la otra pregunta.

ES IMPORTANTE MENCIONAR QUIÉN PAGÓ Y QUIÉN REALIZÓ LA ENCUESTA, CÓMO SE ESCRIBIERON LAS

PREGUNTAS Y CÓMO SE TOMÓ LA MUESTRA. A menor información de cómo se realizó la encuesta

menor confiabilidad.

f) Datos faltantes

Cuando las personas no responden todas las variables que queremos medir. Cuando esto sucede, el software

ignora los casos para los cuales faltan observaciones en al menos una de las variables utilizadas. Esto da lugar a

pérdida de información, a que se desperdicie información obtenida.

Hay algunos métodos estadísticos que permiten completar los datos faltantes a partir de predicciones basadas en el

patrón de los datos, pero siempre es mejor que la información de primera mano esté completa.

2.4 OTROS MÉTODOS DE MUESTREO PROBABILÍSTICO

a) Muestreo aleatorio simple

b) Muestreo sistemático

c) Muestreo estratificado proporcional

d) Muestreo estratificado no proporcional

MUESTREO SISTEMÁTICO

Es más fácil que el muestreo aleatorio simple e igualmente útil para realizar inferencias estadísticas.

Eliges un sujeto cercano al inicio del marco muestral, te saltas varios nombres y eliges otro y así sucesivamente. El

número de nombres brincados en cada momento es siempre el mismo y depende del tamaño de la muestra deseada.

Población = N, muestra = n, Número de saltos =k = N/n La población entre el tamaño de la muestra deseada.

Page 13: Notas Estadistica

13

1) Eliges un sujeto de manera aleatoria de los primeros k sujetos del marco muestral.

2) Cada kth individuos se elige al sujeto que entra en la muestra.

(podemos tomar el ejemplo de una muestra a partir de un directorio telefónico, de un registro de número de matrícula,

etc.)

Este método es riesgoso cuando la variable elegida se comporta de manera cíclica en el listado, ya que puede dar lugar a

un sesgo cuando dicho ciclo es igual al valor de k. Por ejemplo con el análisis de noticias. El espacio dedicado a la política

internacional responde a una estructura dentro de la edición de los periódicos que por lo general es cíclica. El marco

muestral puede ser los periódicos del último año. Si k = 7, la muestra sería siempre del mismo día. Esto genera un sesgo.

Todos los periódicos del domingo son similares en formato.

Para listados en orden alfabético las fluctuaciones son por lo general aleatorias.

TAREA: Buscar ejemplos de cada uno de estos tipos de muestreo en las encuestas nacionales y/o investigaciones

¿consideras que fue el método adecuado para el análisis o no y por qué?

MUESTREO ESTRATIFICADO

Se divide la población en estratos (o grupos separados) y luego se elige un amuestra aleatoria simple en cada uno de los

estratos. Esto es útil cuando se quiere comparar grupos. Por ejemplo hombres y mujeres, blancos y negros, republicanos

y demócratas, etc.

MUESTREO ESTRATIFICADO PROPORCIONAL

Si la proporción de la muestra es similar a la proporción del grupo con respecto a la población. Por ejemplo, si la

proporción de mujeres en México es 48% y la de hombres 52%; entonces en la muestra las mujeres representan el 48% y

los hombres el 52%.

MUESTREO ESTRATIFICADO NO PROPORCIONAL

La utilizamos cuando al menos uno de los estratos es relativamente pequeño y al hacer un muestreo aleatorio simple

podríamos no tener representación suficiente para hacer inferencias. Sobre todos cuando el tamaño total de la muestra

no es lo suficientemente grande. Este método es especialmente importante cuando los estratos se conforman a través de

la combinación de distintas variables.

El problema con este tipo de muestreo es que se necesita conocer el estrato al cual pertenece cada grupo.

MUESTREO POR CLUSTERS

Los muestreos anteriores son caros y en muchas situaciones muy difíciles de implementar porque requieren de un marco

muestral completo. Este es el caso cuando quieres entrevistar individuos a nivel nacional.

Cuando no se tiene el marco muestral completo es útil hacer primero una aleatorización a nivel de clusters. En este caso

se divide la población en un número grande grupos que llamamos clusters. Las unidades de muestreo son los sujetos de

un conjunto de clusters elegidos de manera aleatoria. Es decir, en un primer paso aleatorizamos los clusters y luego

hacemos una aleatorización de la unidad de muestreo al interior de los clusters elegidos.

Page 14: Notas Estadistica

14

Generalmente estos clusters se definen de manera geográfica, lo que permite que no se necesite tanto tiempo de

traslado entre entrevistados. La muestra se obtiene de cada cluster y puede combinarse con otro tipo de muestreos,

como puede ser por ejemplo el estratificado.

MUESTREO POR ETAPAS

Este tipo de muestreo se da cuando combinamos métodos. Son más simples que el MAS pero permite un muestreo más

completo de la población que lo que se puede lograr cuando utilizamos un solo método. Por ejemplo, es muy común

combinar el muestreo por clusters junto con el muestreo estratificado.

Para hacer inferencias con estos métodos se necesitan métodos más complejos para trabajar con los datos. Una muestra

de este tipo puede dar inferencias más precisas que las que se obtienen con un MAS, siempre y cuando el método

estadístico sea el correcto. El uso de clusters sin combinar con otros métodos, puede dar lugar a inferencias menos

precisas.

CAPÍTULO 3. ESTADÍSTICA DESCRIPTIVA

¿Para qué utilizamos la estadística descriptiva? Para resumir y describir datos, para hacer la información más fácil de

asimilar.

Utilizamos tanto tablas y gráficas como métodos numéricos. Las primeras ayudan a describir el centro de la distribución

de los datos. En general trabamos de observar ¿dónde se concentran? (El centro) y ¿Cómo varían? (la variación).

De ahí que dividimos la estadística descriptiva en medidas de tendencia central y medidas de variación.

3.1. TABULADOS Y DESCRIPCIONES GRÁFICAS

Ejemplo:

Tasa de embarazos adolescentes: en una población de 2’300,000, se dan 120 embarazos en mujeres adolescentes. Por lo

tanto la tasa de embarazos es de 5.2 (120/2’300,000) x 100,000

Esto es muy difícil de entender para una persona que no se dedica a realizar este tipo de análisis. Es más fácil comprender

una gráfica o una tabla.

DISTRIBUCIÓN DE FRECUENCIAS

La distribución de frecuencias es una síntesis de datos, un resumen.

Para construirla dividimos la escala de medida en intervalos y sumamos el número total de observaciones en cada

intervalo.

La desventaja de usar este tipo de tablas es que perdemos información al quererla simplificar. No podemos identificar

cuáles son los individuos o sujetos que caen en una categoría u otra. Tampoco sabemos el número preciso de casos para

cada uno de los valores incluidos en el intervalo.

Características de una distribución de frecuencias:

Page 15: Notas Estadistica

15

Los intervalos deben de ser iguales

Son mutuamente excluyentes. Es decir, cada valor puede caer sólo en un rango.

El número de intervalos depende del juicio del investigador y del número de observaciones.

A mayor número de observaciones mayor número de intervalos.

Muchos intervalos (i.e. 15) es tanto detalle que cuesta leer la información y puede perderse el padrón general,

pero cuando son intervalos grandes también se pierde información.

FRECUENCIAS RELATIVAS

Son informativas. Es más fácil hacer comparaciones entre diferentes intervalos. La frecuencia relativa es la proporción de

las observaciones que cae en el intervalo.

Tabla 3.3. Distribución de las frecuencias relativas y porcentaje de tasas de homicidio

Tasa de

homicidios

Frecuencia Frecuencia

relativa

Porcentaje

0.0-2.9 5 .10 10.0

3.0-5.9 16 .32 32.0

6.0-8.9 12 .24 24.0

9.0-11.9 12 .24 24

12.0-14.9 4 .08 8.0

15.0-17.9 0 .00 0.0

18.0-20.9 1 .02 2.0

Total 50 1 100

La frecuencia relativa es una proporción. Se obtiene dividiendo el número de observaciones en el intervalo, entre el

número total de las observaciones. El listado de dichas frecuencias es lo que llamamos: DISTRIBUCIÓN DE LAS

FRECUENCIAS RELATIVAS.

Muchas veces se registra como porcentaje en lugar de proporción. Esto es la proporción x 100

Al presentar frecuencias relativas siempre hay que incluir el número total de casos sobre los cuales se basa. No es la

misma fuerza de una política pública al decir que el 60% de los ciudadanos aprueba la línea 3 del tren ligero cuando la

muestra tienen 1000 personas que cuando la muestra es sólo de 10.

HISTOGRAMAS Y GRÁFICAS DE BARRA

Un histograma es una gráfica de la distribución de las frecuencias para una variable cuantitativa. Cada barra representa

un intervalo. La altura de la barra corresponde con el número relativo de las observaciones en el intervalo.

Por lo general, los programas de cómputo eligen de manera automática los rangos que son sensibles. Se pueden usar

para todo tipo de datos.

Cuando utilizamos datos categóricos (nominales y ordinales) les llamamos GRAFICA de BARRAS. La diferencia con el

histograma es la manera en la cual se construyen las columnas. En la gráfica de barras se separan las columnas, esto

permite subrayar que se trata de una variable categórica.

DIAGRAMA DE RAÍZ Y HOJAS (STEM AND LEAF PLOT) (40-41)

Page 16: Notas Estadistica

16

La raíz está constituida por el primer dígito del número y la hoja por el

segundo. Tanto las hojas como las raíces se acomodan de menor a mayor.

Esto permite recuperar parte de la información que se pierde con el

histograma. Ayuda a observar de manera rápida un número reducido de

datos.

COMPARACIÓN DE GRUPOS (42)

Cualquiera de los métodos antes descritos pueden ayudan en la comparación de grupos distintos. Cuando utilizamos un

diagrama de hojas se utiliza la misma raíz para ambos grupos (ver el ejemplo de la pág. 43).

DISTRIBUCIÓN MUESTRAL Y POBLACIONAL

Muchos libros utilizan las barras-histogramas para graficar la distribución de la muestra y la curva para mostrar la

distribución de la población

Una manera de describir a la población es a través de la distribución de la curva. No es lo mismo una distribución con

forma de U que con forma de / o de campana. La primera habla de polarización entre dos segmentos, mientras que la

segunda habla de que la mayoría tiende a caer

en el centro. Ambas son simétricas no obstante

dicen cosas distintas.

En ciencias sociales la mayoría de las

distribuciones no son simétricas. Las partes de

la curva con los valores más bajos o más altos

son llamadas colas de la distribución. Una

distribución no simétrica se dice que es sesgada

a la derecho o a la izquierda, de acuerdo a la

cola que es más larga.

Page 17: Notas Estadistica

17

3.2. MEDIDAS DE TENDENCIA CENTRAL

LA MEDIA (45 /38)

La Media aritmética es una descripción de la respuesta promedio. La suma de las medidas dividida entre el número de

casos. Muchas veces referida como el promedio.

Tamaño de la muestra n

Variable Y, observaciones de la variable Y1, Y2, Y3, Y4,… Yn

La media de la muestra “Y barra”. La barra sobre la Y o la letra utilizada siempre representa la media.

Sigma representa la suma de los valores. Yi Donde i representa cualquier número entre 1 y n

Propiedades de la media.

Sólo es adecuada para datos cuantitativos (la media de religión no tiene sentido aunque utilicemos un número

para codificarla). Tampoco es adecuada para datos ordinales tales como excelente, bueno, justo y pobre; sólo

que les asignemos números y los tratemos como datos cuantitativos.

Puede influirse significativamente cuando hay outliers. Por lo tanto no siempre es representativa de las medidas

en la muestra. Es más común que afecten los outliers cuando la muestra es pequeña.

En una distribución sesgada la media tiende a moverse en dirección a la cola mayor o más larga.

La media es el punto de balance cuando todas las observaciones tienen el mismo peso. Es el centro de gravedad

de las observaciones. Esto significa que la suma de las distancias hacia la media de los números por arriba de la

media es igual a la suma de las distancias de los números de abajo hacia la media.

La media ponderada (Weighted average) de dos grupos distintos es:

Page 18: Notas Estadistica

18

3.3 LA MEDIANA Y OTRAS MEDIDAS DE TENDENCIA CENTRAL (48)

Divide la muestra en dos grupos con el mismo número de sujetos, cuando las observaciones de los sujetos se ordenan de

menor a mayor. Es una medida que refleja mejor los valores de la muestra cuando los datos están fuertemente sesgados.

Cuando la cantidad de valores es un número non, hay un solo valor en el centro; un solo valor que es la Mediana. Cuando

la cantidad de valores es un número par, hay dos valores a partir de los cuales se obtiene la mediana. En este caso la

mediana es el punto medio entre ambos.

Un esquema de hojas permite observar la mediana de manera más fácil. Para obtenerla cuando es par: 𝑛+1

2

Propiedades:

Útil para datos en intervalos, sólo requiere del acomodo de datos.

Es válido para datos ordinales, pero no es adecuada para datos nominales.

Cuando los datos son simétricos, la mediana y la media son idénticas.

Cuando la distribución es sesgada, la media se va hacia el sesgo.

La mediana no es sensible a la distancia de las medidas con

respecto al centro. Sólo utiliza la característica ordinal de los

datos. Sólo utiliza la característica ordinal de los datos.

La mediana no es afectada por outliers. Los outliers afectan a la

media pero no a la mediana y más aún cuando la muestra es pequeña.

VENTAJAS Y DESVENTAJAS CON RESPECTO A LA MEDIA (51)

Ventajas:

Cuando hay un sesgo grande no se distorsiona tanto.

La media sólo se puede utilizar con datos cuantitativos o con datos ordinales si les asignamos números; la

mediana también puede utilizarse con datos ordinales.

Desventajas:

En datos discretos, con pocos valores, con patrones muy diferentes, se puede obtener el mismo resultado.

Sólo usa el orden mientras que la media utiliza orden y valor.

En datos binarios no da información sobre el número relativo de observaciones en los 2 niveles. Es decir, no

sabemos cuántos casos reportaron (por ejemplo) 0 y cuántos 1.

Page 19: Notas Estadistica

19

CUARTILES Y OTROS PERCENTILES (52)

(Medidas de posición 3.4 en la ed. nueva)

La mediana es un caso especial de

percentil.

Un pth percentil es un número tal que

p% de los valores caen por debajo de

él y (100-p)% caen arriba.

El 50th percentil (es simplemente la

mediana). Esto es, la mediana es más

grande que el 50% de las medidas y

más pequeña que el otro (100-50) =

50%. Otros percentiles comúnmente

utilizados son el cuartil inferior y el

cuartil superior. El 25avo percentil es

llamado cuartil inferior; y el 75avo

percentil es el cuartil superior. Una

cuarta parte de los datos caen por

debajo del percentil inferior. Este

percentil es la mediana que las

observaciones que caen debajo de la

mediana; esto es, de la mitad inferior

de los datos. De manera similar, el

percentil superior es la mediana de la

mitad de los datos que caen por

arriba de la media. Los cuartiles junto

con la media, dividen la muestra en

cuatro partes, cada una con una

cuarta parte de los datos obtenidos.

LA MODA

La moda es el resultado más común; el que se da con más frecuencia. Es común utilizarla con datos categóricos.

Propiedades:

Se puede usar para todo tipo de datos.

Una distribución de frecuencias es bimodal si hay dos opciones que ocurren con más frecuencia. Esto refleja

polarización.

Una distribución unimodal simétrica tiene la misma media, mediana y moda.

Es útil cuando necesitamos saber cuál es la respuesta con mayor frecuencia. Generalmente se utiliza con variables

categóricas.

TODAS LAS MEDIDAS SON COMPLEMENTARIAS

Page 20: Notas Estadistica

20

3.4 MEDIDAS DE DISPERSIÓN

¿Qué tanto varían los datos?

RANGO

La diferencia entre el menor valor de las observaciones y el

mayor.

VARIANZA Y DESVIACIÓN STANDARD (57)

¿Cómo se desvían los datos con respecto a la media

o a otra medida de tendencia central.

La Desviación de la observación ith con respecto a la

media �� es igual a la diferencia entre ellos: (Yi- ��).

Cada observación tiene una desviación con respecto

a la media. Esta es positiva cuando cae por arriba de

la media muestral y negativa cuando cae por

debajo.

Al interpretar �� como el centro de la gravedad, significa que ∑(𝑌𝑖 − ��) es igual a 0 en cualquier muestra. Por eso al

sumar las variaciones usamos números absolutos o cuadrados.

Varianza: Es aproximadamente un

promedio de las desviaciones al

cuadrado.

La desviación estándar es la raíz

cuadrada de la varianza.

Propiedades:

s≥0

s=0 sólo cuando todas las observaciones tienen el mismo valor.

A mayor varianza con respecto a la media, menor el valor de s

Cuando tenemos toda la población (n-1) es sustituido por N (el uso de n-1 se debe a cuestiones técnicas). De esta

manera no puede ser más grande que la mitad del rango.

Si re-escalamos los datos la desviación estándar también se re-escala. Es decir, si cambiamos el ingreso en pesos

(i.e. 34,000) por el ingreso en miles de pesos (i.e. 34), la desviación estándar también cambia por el mismo factor

de mil. Por ejemplo, pasa de 11,800 a 11.8

Page 21: Notas Estadistica

21

INTERPRETANDO LA MAGNITUD DE S

S = a la distancia promedio de una observación con respecto a la media

REGLA EMPÍRICA

Si tenemos una distribución de datos

en un histograma que tiene forma de

campana, entonces:

Cerca del 68% de los datos

caen entre ��- s y ��+ s

Cerca del 95% de los datos

caen entre ��- 2s y ��+ 2s

Todos o casi todos los datos

caen entre ��- 3s y ��+ 3s

La regla empírica puede no funcionar si los datos no se comportan de manera normal; es decir, si hay un sesgo muy

grande o es altamente discreta, con la variable representando muy pocos valores. Cuando la observación más grande o la

más pequeña está a menos de una desviación estándar de la media, significa que los datos están fuertemente sesgados.

RANGO INTER-CUARTIL

Es la diferencia entre el cuartil superior e inferior. La ventaja con respecto a s y s2 es que el rango no es sensible a outliers

extremos. Aumenta como aumenta la variabilidad y ayuda a comparar variaciones entre distintos grupos. En una

distribución normal la distancia entre la media y cualquiera de los cuartiles es de 2/3 partes de s y el rango es (4/3)s

DIAGRAMA DE CAJA

Permite graficar el rango y los cuartiles y posiblemente algunos outliers. Es un tipo de gráfica que permite resumir tanto

las medidas de dispersión como las de tendencia central.

Page 22: Notas Estadistica

22

La caja contiene el 50% de la distribución central: del

cuartil superior al inferior.

La mediana está marcada en la caja por una línea. Las

líneas que salen de la caja se llaman Whiskers. Estos se

extienden hasta el mínimo y el máximo siempre y cuando

no sean outliers.

En SAS se utiliza el comando PLOT en la opción PROC

UNIVARIATE).

Un outlier es una observación que cae a más de 1.5 (RIC)

(Rango inter-cuartiles) del cuartil superior y a menos de 1.5

RIC del cuartil inferior. En los programas de cómputo los outliers se marcan con * o con o.

3.5 Estadísticos y parámetros de la población de la muest ra

�� y s son muestrales. Son variables porque varían de una muestra a otra. Son variables aleatorias que no conocemos

antes de elegir la muestra. Al elegir la muestra y ser calculadas se vuelven estadísticos muestrales conocidos.

Para estadísticos utilizamos letras romanas: �� y s (variables)

Para parámetros utilizamos letras griegas: µ (mu: para la media) y (sigma: para la desviación estándar)

Page 23: Notas Estadistica

23

Page 24: Notas Estadistica

24

CAPÍTULO 4. DISTRIBUCIONES DE PROBABILIDAD

La probabilidad es bastante más antigua que la estadística.

La inferencia utiliza datos muestrales para hacer predicciones de valores que permiten tener descripciones que nos son

de utilidad, llamados PARÁMETROS de la población de interés.

En este capítulo vamos a trabajar con los parámetros como un valor conocido. Esto es artificial ya que generalmente se

desconocen los parámetros. Sin embargo, muchos métodos de estadística inferencial involucran comparar estadísticos de

muestras observadas con los valores esperados SI el parámetro equivale a ciertos números en particular.

Si los datos son inconsistentes con los valores de un parámetro en particular, entonces inferimos que los verdaderos

parámetros son diferentes.

Durante el periodo electoral los periódicos estuvieron entrevistando electores para saber por quién votarían. Después de

una encuesta de 1000 votantes para presidente municipal encontraron que el 34% de la muestra votaría por el PRI y el

31% por MC. Los parámetros desconocidos son los porcentajes de la población entera que votaría por cada candidato.

Para proyectar el posible ganador el periódico hace una inferencia sobre el parámetro que es mayor.

La pregunta que nos hacemos es: ¿si hoy fueran las elecciones, sería inusual que sólo el 34% votara por el PRI? En otras

palabras, si el PRI actualmente tiene suficiente apoyo para ganar la elección, ¿es posible que sólo40% de los votantes en

una muestra de 1000 lo prefiera? Como sucedió en esta muestra. Si el resultado es poco probable el periódico debe

informar que el PRI perderá la elección.

La inferencia sobre los resultados electorales se basa en encontrar la probabilidad de que el resultado de la muestra se

dé, dado que el parámetro realmente es superior al 50%.

Page 25: Notas Estadistica

25

Es decir, si realmente la preferencia por el PRI es superior al 50%; entonces ¿qué probabilidad hay de que en mi

muestreo el resultado sólo me diga que el 40% lo prefiere?

4.1 INTRODUCCIÓN A LA PROBABILIDAD

En el capítulo 2 aprendimos que la aleatorización es importante en la obtención de datos. Considera una muestra

aleatoria o un experimento al azar. Para cada observación, la posibilidad de los resultados son conocidos, pero no

tenemos la certeza de cuál de esas posibilidades se va a dar.

LA PROBABILIDAD COMO UNA FRECUENCIA RELATIVA DE OCURRENCIAS

PROBABILIDAD: En una muestra aleatoria o un experimento al azar, la probabilidad de que obtengamos un resultado

particular en una observación, es la proporción de veces que ese resultado puede salir en una secuencia muy larga de

observaciones.

Imagina un experimento hipotético consistente de una secuencia muy grande de observaciones repetitivas, sobre un

fenómeno tomado al azar. Cada observación puede o no puede resultar en un valor en particular (por ejemplo, que al

estar lanzando un dado caiga 10 veces el número 6). La probabilidad de que eso ocurra es lo que definimos como

FRECUENCIA RELATIVA DE OCURRENCIA, a largo plazo. Al lanzar un dado la frecuencia relativa de ocurrencia del número

6 es de 1/6.

Ej. Saca una moneda, arrójala 20 veces y veamos cuántas veces sale águila.

Cada vez que lanzamos la moneda ésta puede o no puede resultar en águila. Si la moneda está balanceada, un resultado

básico de probabilidad—llamada LA LEY DE LOS GRANDES NÚMEROS—nos dice que en la medida en que repetimos el

experimento, la proporción de lanzamientos que resulten en sol tiende a ser .5 (1/2). Entonces la probabilidad de que

salga sol en un lanzamiento de la moneda es igual a ½.

¿por qué secuencia muy larga de observaciones? Porque se necesita un número muy grande de observaciones para

acercamos de manera adecuada a esa probabilidad. Si la muestra es de sólo 10 personas y todos son zurdos, puedes

concluir que la probabilidad de ser zurdo es de 1.0. Las probabilidades también se expresan en porcentajes. Por ejemplo,

quienes predicen el clima dicen que la probabilidad de lluvia hoy es de 70%. Esto significa que en una larga serie de días

con las mismas condiciones atmosféricas el 70% de las veces ha llovido.

Esta manera de definir la probabilidad a partir de una serie de repeticiones de un experimento aleatorio no es siempre el

más útil. Si decides iniciar un nuevo negocio, no vas a tener la oportunidad de hacer una serie de observaciones a lo largo

del tiempo que te permitan estimar la probabilidad de que tu negocio sea exitoso. Debes apoyarte en información

subjetiva, en lugar de datos objetivos. Desde un abordaje subjetivo la probabilidad de un resultado está definida por el

grado en el cual crees que tu resultado va a suceder, a partir de la información existente. Una rama de la estadística

utiliza la probabilidad subjetiva como base. Es la que llamamos estadística Bayesiana, en honor al Británico Thomas

Bayes, quien descubrió la regla de probabilidad sobre la cual se basa (pero eso no se ve en este texto).

Reglas básicas de probabilidad

Cuatro reglas especialmente útiles para encontrar probabilidades. P(A) es la probabilidad de un resultado posible o

conjunto de resultados representados por la letra A. Entonces:

1. P(no A) = 1 – P(A)

Page 26: Notas Estadistica

26

2. Si A y B son distintos resultados posibles (sin que puedan coincidir), entonces P(A o B) = P(A) + P(B)

3. Si A y B son ambos resultados posibles, entonces P(A y B) = P(A) x P(B dado A).

4.2 DISTRIBUCIÓN DE PROBABILIDADES PARA VARIABLES DISCRETAS Y CONTINUAS

Una frecuencia relativa es una probabilidad expresada como porcentaje cuando se utiliza un número entre 0 y 100 y

como proporción cuando se utiliza un número entre o y 1. En el texto se define la probabilidad como una proporción, así

que el número es entre 0 y 1.

DISTRIBUCIONES DE PROBABILIDAD

Una variable puede resultar en al menos 2 valores diferentes. Algunos resultados son más probables que otros. La

distribución de probabilidad de una variable enlista los posibles resultados con sus probabilidades.

VARIABLES DISCRETAS

La distribución de probabilidad de una variable discreta Y le asigna la probabilidad a cada valor posible de la variable.

Cada probabilidad en un número entre 0 y 1, la suma de las probabilidades de todos los valores posibles es igual a 1.

Donde: Y= a todos los valores posibles para la variable Y y P(Y) es la probabilidad de que se dé ese resultado.

0 ≤ P(y) ≤ 1 y todos Y P(Y) = 1

Ejemplo 4.1. Número de personas que conoces personalmente que han sido víctimas de homicidio.

Y= número de personas que conoces personalmente, que han sido víctimas de homicidio en los últimos 12 meses. Esta es

una variable discreta que puede tomar los valores de 0, 1, 2, 3, 4, 5 y así sucesivamente. De acuerdo con los resultados de

la encuesta Social General (General Social Survey) la distribución de probabilidad de Y es aproximadamente la que se

muestra en la tabla 4.1. Esta tabla muestra cuatro valores posibles para Y y sus probabilidades

P(0) = .91, P(1) = .06, P(2) = .02 y P(3) = .01

Cada probabilidad está entre 0 y 1 y la suma d eprobabilidades es igual a 1.

VARIABLES CONTINUAS

Continuum de valores posibles. La probabilidad se asigna a un intervalo de números. La probabilidad de que una variable

caiga en un intervalo en particular está entre 0 y 1 y las probabilidades del intervalo es igual a 1.

La distribución de la población de una variable es equivalente a la distribución de la probabilidad del valor de la variable

para un sujeto elegido al azar de dicha población. Por ejemplo si .06 es la proporción de individuos en una población que

conocen a una víctima de homicidio en los últimos 12 meses, entonces la probabilidad de que un individuo elegido al azar

conozca a una víctima de homicidio es también .06.

(el problema es que por lo general no conocemos esa proporción)

Page 27: Notas Estadistica

27

GRÁFICAS DE DISTRIBUCIÓN DE PROBABILIDAD

La mayoría de las distribuciones de probabilidad tienen fórmulas para calcular probabilidades. Podemos utilizar

histogramas para graficar la distribución de probabilidad de una variable discreta. La altura de la barra es igual a la

probabilidad del valor. La gráfica de una distribución de probabilidad de una variable CONTINUA es una curva continua. El

área por debajo de la curva es la probabilidad de que la variable tome un valor en ese intervalo.

PARÁMETROS QUE DESCRIBEN DISTRIBUCIONES DE PROBABILIDAD

Hay parámetros que describen la tendencia central de la variabilidad de una distribución de probabilidad: La media que

da la tendencia central y la desviación estándar que nos da la variabilidad.

Los valores de los parámetros son los valores que éstas medidas asumen después de repetir el experimento varias veces

de manera aleatoria. Cuando iniciamos el ejercicio de tomar muestras, la variación es mayor y es menos probable que la

media se acerque a la media real. Al aumentar el número de experimentos, la media se acerca más a la media de la

población.

MEDIA: Total de las observaciones divididas entre el tamaño de la muestra

(91)0 + (6)1 + (2)2 + (1)3

100=

13

100= .13

La suma de las (x) veces su probabilidad. Para cualquier variable discreta.

MEDIA DE LA DISTRIBUCIÓN DE PROBABILIDAD

𝜇 = ∑𝑦𝑃(𝑦)

Donde la suma es de todos los valores posibles de 𝑦. Este parámetro es también llamado valor esperado de 𝑦 y se denota

𝐸(𝑌)

𝜇 = ∑𝑦𝑃(𝑦) = 0𝑃(0) + 1𝑃(1) + 2𝑃(2) + 3𝑃(3)

𝜇 = ∑𝑦𝑃(𝑦) = 0𝑃(0.91) + 1𝑃(1.06) + 2𝑃(2.02) + 3𝑃(.01)=.13

También es el valor esperado de 𝑌, 𝐸(𝑌) = 𝜇 = .13

DESVIACIÓN ESTANDARD

Mide la variabilidad de una distribución de probabilidad. A más grande el valor de , más dispersa la distribución.

= Qu{e tan lejos la variable Y tiende a caer con respecto a la media de la distribución

La regla empírica ayuda a interpretar la en una distribución normal o con forma de campana.

68% de la probabilidad cae entre µ- y µ+

95% de la probabilidad cae entre µ-2 y µ+2

Casi todos los datos de la probabilidad caen entre µ-3 y µ+3

Y P(y)

0 .91

1 .06

2 .02

3 .01

1

Page 28: Notas Estadistica

28

Y es el porcentaje de la muestra que votó por STONE. En una muestra de 1000 votantes. Entonces Y = variable. Dado que el resultado va a variar de una muestra a otra de 1000 votantes. Supongamos que el % de la población que vota por Stone es de 50%. Entonces si la distribución es normal con una media

de 50 y una desviación standard de 1.6; dado que 3 es casi 5 (3 x 1.6), casi seguro el porcentaje de la muestra que vot6a por Stone va a estar entre 45% y 55%. Aproximadamente 5 putnos hacia arriba y hacia abajo. Si de la muestra sólo el 40% votó por Stone y la muestra es aleatoria es poco probable que el 50% de la población haya votado por Stone. Nuestra inferencia sería que Stone va a perder la elección. (p. 85)

Page 29: Notas Estadistica

29

CAPÍTULO 5. INFERENCIA ESTADÍSTICA: ESTIMACIÓN

Este capítulo muestra cómo utilizar simple información para estimar los parámetros de una población. ¿Cómo se hace?

Cuantitativos Media.

Cualitativos/categóricos Proporción.

5.1 ESTIMADOR PUNTUAL E INTERVALOS DE ESTIMACIÓN

ESTIMADOR PUNTUAL: Un solo número que es el mejor acercamiento a nuestro parámetro.

INTERVALO DE ESTIMACIÓN: Un intervalo de números alredodor del estimador puntual, dentro del cual se cree que

cae el parámetro.

¿Crees que haya vida después de la muerte?

𝑛 = 1958

𝐸𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝑝𝑢𝑛𝑡𝑢𝑎𝑙 = .73

𝐼𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑑𝑒 𝑒𝑠𝑡𝑖𝑚𝑎𝑐𝑖ó𝑛: .71 𝑦 .75

Esto es un estimado del intervalo que predice que .73 cae en un margen de error de .02 con respecto al valor real.

∴ Intervalo Ayuda a observar la precisión del estimador (PE).

∴ Intervalo = PE = Tipo particular de estadístico para estimar un parámetro.

= Valor estimado Su valor en una muestra en particular.

La proporción de una muestra es un estimador de la proporción de la población. El valor .73 es un valor estimado de la

proporción de la población que cree en Dios.

ESTIMADOR PUNTUAL DE PARÁMETROS

Un parámetro tiene muchos posibles estimadores. Para una distribución normal de la población por ejemplo, el centro es

la media y la mediana, dado que la muestra es simétrica.

Con datos muestrales, dos posibles estimadores del centro de la muestra son la media muestral y la mediana muestral.

Los estimadores son las inferencias más comunes reportadas por los medios de comunicación masivos.

Por ejemplo, una encuesta, la Gallup Poll de enero de 2007 reportó que el 36% de los americanos aprobaban al

presidente George W. Bush. Este es un estimador, no un parámetro, porque se entrevistó a una muestra de 1,000

personas no a toda la población.

ESTIMADORES EFICIENTES E INSESGADOS

Buen estimador:

1) Si la distribución muestral se centra alrededor del parámetro.

2) Tiene el error estándar más pequeño posible.

Page 30: Notas Estadistica

30

INSESGADO: Si la distribución está centrada alrededor del parámaetro.

Una muestra aleatoria tiene una media muestra �� = 𝜇

∴ �� es un estimador insesgado y eficiente de 𝜇

Para cualquier muestra, la media muestra puede sobreestimar o subestimar la media, si sacamas la media muestral varias

veces se compensaría la sobre/subestimaación.

Un estimador sesgado tiende a subestimar un parámetro, en promedio, o tiende a sobreestimarlo.

Por ejemplo, el rango de muestra es en general menor al rango de la población y no puede ser mayor, porque el mínimo y

máximo de una muestra no puede ser mayor o menor que el de una población.

Por lo tanto, el rango de lamuestra tiende a subestimar el rango de la población.

Imagina que la distribución de la población está sesgada a la derecha, como se muestra en el gráfico 5.1 y quieres estimar

la media poblacional. Si te preocupan los valores atípicos puedes decidir estimarlo a partir de la mediana muestral en

lugar de la media muestral. Sin embargo, en ese caso, la mediana es menor también media de la población, y la mediana

de la muestra también tiende a ser menor que la media poblacional 𝜇.

Entonces, la mediana de la muestra es un estimador sesgado de la misma, tendiendo en promedio a subestimar 𝜇. Es

mejor utilizar la media muestral, tal vez calculándola después de borrar calquier valor atípico si tiene una influencia que

no puede eliminarse de otra manera o que refleje un error en el registro de datos.

EFICIENTE: Si el error estándar es el menor posible.

Si n estimador tiene un error estándar más pequeño que los otros estimadores, se dice que es eficiente.

Un estimador eficiente cae más cerca, en promedio, que otros estimadores del parámaetro.

Por ejemplo: Cuando la distribución de la pobliación es normal, el error estándar de la mediana es 25% más grande que el

error estándar de la muestra.

La media muestral tiende a estar más cerca del centro de la población que la mediana.

En síntesis, un buen estimador es insesgado, o casi, y eficiente. Este es el tipo de estimadores que usamos en estadística.

ESTIMADORES DE LA MEDIA, DESVIACIÓN ESTÁNDAR Y PROPORCIÓN

Es común utilizar el elemento análogo de la muestra de una población como su estimador.

Page 31: Notas Estadistica

31

Por ejemplo, para estimar la proporción de la población, la proporción de la muestra es un estimador insesgado y

eficiente. Para estimar la media 𝜇 de la población, la media muestral �� es insesgada. Esto es eficiente para las

distribuciones más comunes de la población. De la misma manera utilizamos la desviación estándar (s) como el estimador

de la desviación estándar de la muestra 𝜎.

El símbolo “^” (gorrito) es el símbolo que frecuentemente utilizamos para representar una estimación de un parámetro.

Por ejemplo �� se lee “mu gorrito”.

∴ �� denota una estimación de la media poblacional 𝜇.

MÁXIMA VEROSIMILITUD

Fisher (1890-1962)

MÁXIMA VEROSIMILITUD: El valor del parámetro que es más consistente con los datos observados.

¿En qué sentido?

Si el parámetro es igual a ese número (i.e. El valor de la estimación), el dato observado tendra más posibilidad de ocurrir

que si el parámetro es igual a cualquier otro número.

Por ejemplo, una encuesta reciente realizada a 1,000 adultos americanos reportó que el estimador con máxima

verosimilitud de la proporción de la población de individuos que cree en la astrología es de 0.37.

Por lo tanto la muestra observada es más probable que ocurra si la proporción de la población es igual a 0.37, a que si es

igual cualquier otro valor.

Para muchas distribuciones, tales como la distribución normal, el estimador con máxima verosimilitud de la media

poblacional es la media muestral. Los estimadores que usamos a lo largo del semestre (en este año), bajo estos supuestos

sobre la población, van a ser estimadores de máxima verosimilitud.

Fisher demostró que para muestras grandes, los estimadores de máxima verosimilitud tiene propiedades deseables:

1) Son eficientes para muestras relativamente grandes.

2) Tienen poco, si lo tienen, sesgo, el cual disminiye a medida que el tamaño de la muestra crece.

3) Tienen una distribución aproximadamente normal.

INTERVALO DE CONFIANZA

La inferencia requiere no solo el punto estimado sino también debe indicar qué tan cerca, el estimador, es probable que

caiga del valor del parámetro.

Por ejemplo, desde 1988 cada año la encuesta de Florida que realiza la Universidad Internacional de Florida

(www.flu.edu/orgs/ipor/ffp) les ha preguntado a cerca de 1,200 personas de Florida si está mal que adultos del mismo

sexo tengan relaciones sexuales.

El porcentaje que dice siempre que está mal disminuyó de 74% en 1988 a 54% en 2006. ¿Qué tan precisos son estas

estimaciones? ¿Dentro del 2%? ¿Dentro del 5%? ¿Dentro del 10%?

La información sobre la precisión de los estimadores puntuales determina el ancho de un intervalo estimado para el

parámetro.

Page 32: Notas Estadistica

32

Esto consiste en un intervalo de número alrededor del estimador puntual. Está diseñado para contener el parámaetro con

una probabilidad cercana a 1. Dado que el intervalo contiene el parámetro con un cierto grado de confianza, se refiere

como el intervalo de confianza.

INTERVALO DE CONFIANZA: Es un intervalo de números dentro del cual se cree que cae el parámetro.

NIVEL DE CONFIANZA: La probabilidad de que este método produzca un intervalo que contenga el parámetro.

La clave para la construcción de un intervalo de confianza es la distribución de las muestras del estimador puntual. Dado

que la distribución tiende a ser normal, entonces la distribución determina la probabilidad de que el estimador caiga

dentro de un una cierta distancia del parámetro. Con una probabilidad de 0.95 el estimador cae dentro de 2 errores

estándar (prueba empírica). Podemos tener la certeza de que el valor cae dentro 3 desviaciones estándar. Entre más

pequeño es el error estándar, más precisa tiende a ser la estimación.

En la práctica, la distribución de muestras tiende a ser normal. Entonces, para construir el invtervalo de confianza,

sumamos y restamos un múltiplo del error estándar (el valor de z) al estimador puntual. El múltiplo del error estándar es

el margen de error.

Intervalo de confianza: Estimador puntual ± margen de error.

i.e. Un intervalo de confianza del 95%

Estimador puntual ± 2(1.96)

5.2 INTERVALO DE CONFIANZA PARA UNA PROPORCIÓN

Datos categóricos Observación con respecto a un conjunto de categorías.

i.e. Nominales Opinión sobre el gasto de gobierno, candidato preferido, etc.

Variables ordinales Se miden en en escalas categóricas i.e. Ingreso $0-$10,000, $10,001-$20,000, etc.

Para resumir este tipo de datos utilizamos proporciones (o porcentajes).

𝜋 = Proporción ∴ 𝜋 entre 0 y 1 su estimador puntual es la proporción de la muestra ��

Recordemos: La proporción de la muestra es la MEDIA cuando 𝑦 = 1 para una observación y 𝑦 = 0 de lo contrario. De

manera similar, la proporción de la poblacióne s la MEDIA 𝜇 de la distribución de probabilidad de la distribución de

probabilidades teniendo

𝑃(1) = 𝜋 y 𝑃(0) = 1 − 𝜋

La desviación estándar de esta distribución de probabilidades es

𝜎 = √𝜋(1 − 𝜋)

Fórmula del error estándar de la media muestral

Page 33: Notas Estadistica

33

𝜎y = 𝜎

√𝑛 El error estándar 𝜎π =

𝜎

√𝑛 = √

𝜋(1−𝜋)

𝑛

En la medida en que la muestra aumenta el error estándar disminuye.

INTERVALO DE CONFIANZA PARA PROPORCIONES CON MUESTRAS MUY GRANDES

Dado que la proporción de la muestra �� es la media de la muestra, el teorema del límite central aplica:

Para muestras aleateorias grandes, la distribución muestral de �� se distribuye aproximadamente normal alrededor del

parámetro 𝜋 que estima.

𝜎π = √𝜋(1−𝜋)

𝑛 Con probabilidad de 0.95 �� cae 1.96𝜎�� del parámetro 𝜋 entre �� − 1.96𝜎�� y �� + 1.96𝜎��.

Una vez que elegimos la muestra, si la estimación de nuestra proporción de la muestra �� cae dentro de 1.96𝜎�� unidades

de 𝜋, entonces la nuestro intervalo de confianza �� − 1.96𝜎�� y �� + 1.96𝜎�� contiene a 𝜋.

Por el otro lado: La probabilidad de que no ciaga a 1.96𝜎�� de 𝜋 es de .05.

Si eso sucede el intervalo que va de �� − 1.96𝜎�� y �� + 1.96𝜎�� no contiene a 𝜋.

El intervalo �� ± 1.96𝜎�� es una estimación del intervalo para 𝜋 con un nivel de confianza del 95%.

En la práctica el valor del error estándar 𝜎π = √𝜋(1−𝜋)

𝑛 es desconocido, porque depende del valor conocido de 𝜋.

Así que estimamos el error estándar sustituyendo la proporción de la muestra:

𝑠𝑒 = √��(1−��)

𝑛 Entonces el intervalo de confianza para 𝜋 es de 95%. �� ± 1.96𝑠𝑒 en donde 𝑠𝑒 = √

��(1−��)

𝑛

Ejemplo 5.1. Estimando la proporción de quienes están a favor de restringir el aborto legalizado.

Page 34: Notas Estadistica

34

La encuesta realizada por la Universidad Internacional de Florida en 2006, preguntó “En general ¿Considera adecuado que

el gobierno haga leyes para resitringir el acceso al aborto? De 1,200 personas adultas de Florida elegidas aleatoriamente,

396 respondieron “sí” y 804 “no”. Queremos estimar la proporción de la población que diría “sí”.

Primero necesitamos obtener el error estándar estimado de la proporción de la muestra.

𝑛 = 1200

�� = 396/1200 = 0.33

1 − �� = 0.67

𝑠𝑒 = √(0.33)(0.67)

(1200)

𝑠𝑒 = 0.0136

Con un intervalo de confianza del 95% para 𝜋 es:

�� ± 1.96(𝑠𝑒) = 0.33 ± 1.96(0.1036)

. 33 ± 0.03 𝑜 (0.30, 0.36)

El porcentaje que apoya la restricción del acceso al aborto parace ser al menos del 30% pero no más del 36%.

¿Cuál es el procentaje de los niños que trabajan en México de acuerdo al último módulo de trabajo?

𝑛 = 101,021 niños entre 5 y 17 años de edad.

𝑆í 𝑡𝑟𝑎𝑏𝑎𝑗𝑎𝑛 �� = 11,501/101,021 = 0.1138

1 − �� = 0.89

𝑠𝑒 = √(0.11)(0.89)

(101,021)

𝑠𝑒 = 0.001

Con un nivel de confianza (o probabilidad) del 95% (si es probablidad, sería de 0.95) para 𝜋 el intervalo de confianza es

�� ± 1.96(𝑠𝑒) = 0.1138 ± 1.96(0.001)

= .1138 ± (.00196) = (.1118, .1157) o dicho de otra forma, el intervalo de confianza es de 11% - 12%.

2006 GSS preguntó si una mujer embarazada debería poder acceder a un aborto legal si ella lo quiere, 1,155 dijeron que

sí, 784 que no, n=1,939.

Si �� = 1155

1939= 0.5957 𝑜 0.60

1 − �� = .40

𝑠𝑒 = √(0.60)(0.40)

(1939)= √

. 2408

1939

𝑠𝑒 = √. 000124 = 0.0111

�� ± 1.96(0.0111) = 0.60 ± .022

Con un nivel de confianza del 95% se tiene que el intervalo de confianza en cual cae el valor de la población es de (0.58,

0.62).

Page 35: Notas Estadistica

35

Ejercicio problema 5.2

Estimando quién se opone a restringir el acceso al aborto (5.1) en Florida.

𝑠𝑒 = 0.0136 para �� = .33 el error estándar para 1 − �� = .67 es:

𝑠𝑒 = √(0.67)(0.33)

(1200)= 0.0136

Ambas proporciones tienen el mismo error estándar. Un intervalo de confianza de 95% para la población que responde

no es:

0.67 ± 1.96(0.0136) = 0.67 = 0.67 ± 0.03

= (0.64,0.70)

Ahora 0.64 = 1 − 0.36

0.70 = 1 − 0.30

Que responde que sí (0.30,0.36).

Entonces las inferencias para la proporción 1 − 𝜋 se obtienen directamente de la proporción de 𝜋 al quitar a cada

extremo del intervalo de 1.

Nota: Si usamos calculadora no hay que redondear porque el valor puede alejarse. De manera similar al utilizar los

resultados de la computadora hay que utilizar los 2 o 3 dígitos significativos.

i.e. Intervalo de confianza (0.30, 0.36) o (0.303, 0.357)

≠ (0.303395, 0.356605)

CONTROLANDO EL NIVEL DE CONFIANZA

Con un nivel de confianza 0.95 (95%), hay una probabilidad del .05 de que nuestro método produzca un interavalo de

confianza de que no contenga el valor del parámetro.

En algunos programas, el 5% de probabilidad de obtener una inferencia errónea es inaceptable. Para aumentar la

probabilidad de tener una respuesta correcta se utiilzan intervalos de confianza grandes, tales como .99.

Ejemplo 5.3

Para el ejemplo de las encuestas sobre el aborto.

𝑛 = 1200

�� = 396/1200 = 0.33

1 − �� = 0.67

𝑠𝑒 = √(0.67)(0.33)

(1200)= 0.0136

Page 36: Notas Estadistica

36

Entonces con un nivel de confianza del 99%, se tiene que el intervalo de confianza en el que se encuentra el valor de la

población es

�� ± 2.58(𝑠𝑒) = 0.33 ± 2.58(0.1036)

. 33 ± 0.04 𝑜 (0.29, 0.37)

A diferencia del intervalo obtenido con un nivel de confianza de 95% (0.30, 0.36) , se obtuvo un intervalo más amplio,

pero menos preciso.

Entonces: para estar más seguros de que incluimos el parámetro debemos de sacrificar precisión al hacer el intervalo más

amplio.

∴ Fórmula general del INTERVALO DE CONFIANZA de la proporción de la población es:

�� ± 𝑧(𝑠𝑒) 𝑑𝑜𝑛𝑑𝑒 𝑠𝑒 = √��(1 − ��)

𝑛

Donde z depende del nivel de confianza, entre más alto el nivel de confianza, mayor la probabilidad de contener el valor

del parámetro.

Utilizamos niveles altos para disminuir el riesgo de error. Los más comunes son 0.95, usamos 0.99 cuando pesa más la

importancia del error; es decir, cuando sí es muy grave cometer el error.

MUESTRAS MÁS GRANDES DAN LUGAR A INTERVALOS MÁS PEQUEÑOS

El margen de error es z(se), donde 𝑠𝑒 = √��(1−��)

𝑛 entre más grande la muestra, más pequeño se y por lo tanto, más

pequeñ o el intervalo.

i.e. Imagínate que �� = 0.33 (del ejemplo 5.1) se basó en n=300.

𝑠𝑒 = √��(1−��)

𝑛= √

(.33)(.67)

300= 0.025 El doble del ejemplo.

Con un nivel de confianza del 95% tenemos que 𝜋 ± 1.96(𝑠𝑒) = 0.33 ± 1.96(0027) = .33 ± 0.067 esto es, el intervalo

de confianza es de (0.26, 0.39), el cual es muy distinto del obtenido con la muestra de 1,200. (0.30, 0.36)

El margen de error es inversamente proporcional a la raiz cuadrada de n, y dado que √4𝑛 = 2√2𝑛 entonces el tamaño de

la muestra debe de cuadruplicarse para doblar la precisión.

El tamaño del intervalo de confianza:

1) Aumenta al aumentar el nivel de confianza.

2) Disminuye al aumentar el tamaño de la muestra.

ERROR DE LA PROBABILIDAD

NIVEL DE CONFIANZA: 1 – nivel de confianza.

Page 37: Notas Estadistica

37

Por ejemplo, para un nivel de confianza de 95% la probabilidad del error es de .05 o 𝛼 (alpha).

1 − 𝛼 = Nivel del confianza.

El valor z para el intervalo de confianza es tal que la probabilidad 𝛼 es de que �� caiga a más de z errores estándar de 𝜋. El

valor de z corresponde a la probabilidad total de 𝛼 en las 2 colas de la distribución normal o 𝛼

2 (la mitad del error de la

probabilidad) en cada cola.

i.e. Con un intervalo de confianza de 95% 𝛼 = 0.05 y el valor de z es el que con probabilidad de 𝛼

2=

.05

2= .025 en cada

cola.

INTERVALO DE CONFIANZA: Dice cómo se comporta el método cuando lo hacemos con muchas muestras aleatorias

distintas.

𝜋 = 𝑒𝑠 𝑢𝑛 𝑛ú𝑚𝑒𝑟𝑜 𝑓𝑖𝑗𝑜/𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜.

Un invervalo de confianza que se construye a partir de una muestra determinada puede o no contener 𝜋. Si nosotros

tomamos muestras aleatorias de manera repetida de ese tamaño y contruimos un intervalo de confianza del 95%; a la

larga, el 95% de intervalos van a contener 𝜋. Esto es, el 95% de las veces la inferencia va a ser correcta.

En la práctica lo que hacemos una vez que elegimos el nivel de confianza es que controlamos la probabilidad de que

nuestros resultados sean correctos.

VALIDEZ CON UNA MUESTRA GRANDE

∆ 𝑛 = La distribución de la muestra tiende a ser normal y el se se parace más al verdadero error estándar.

¿Qué tan grande? Cuando menos 15 observaciones por cada categoría de interés y 15 de las que no.

INTERVALO DE CONFIANZA PARA UNA PROPROCIÓN DE LA POBLACIÓN:

�� ± 𝑧(𝑠𝑒), 𝑒𝑛 𝑒𝑙 𝑐𝑢𝑎𝑙 �� ± 𝑧√��(1−��)

𝑛

5.3 INTERVALO DE CONFIANZA PARA LA MEDIA

Para datos cuantitativos.

Estimación del error estándar.

Margen de error Múltiplo del error estándar.

Intervalo de confianza Estimador puntual ± Margen de error.

Estimador puntual de 𝜇 = ��

∴ Como antes, el error marginal se obtiene al multiplicar z por se.

𝜎�� =𝜎

√𝑛 Usamos el error estándar estimado, 𝑠𝑒 =

𝑠

√𝑛

Ejemplo 5.4

Page 38: Notas Estadistica

38

El promedio de parejas (sexuales) desde el cumpleaños 18 en 2006, ¿Cuántas parejas (sexuales) de hombres han tenido?

Edad de 20 a 29 años.

𝑛 = 231

�� = 4.96

𝑠𝑒 =𝑠

√𝑛=

6.81

√231= 0.45

Con un nivel de confianza del 95%, el intervalo reportado es de (4.1, 5.8).

Es el intervalo estimado para 𝜇, del promedio de las parejas sexuales hombres que han tenido desde los 18 años las

mujeres entre 20 y 29 años de edad. Tenemos el 95% de confianza que este intervalo contiene a 𝜇 es de 5 y el intervalo

estimado predice que 𝜇 no es menor a 4.1 ni mayor a 5.8.

Observaciones:

La media de 5 y desviación estándar de 6.8 sugiere que está sesgada hacia la derecha, la media parece ser un poco

adecuada para hacer estimaciones. Si observamos la distribución de los datos, se tiene que la mediana es 3 y la moda 1.

Margen de error: Tiene que ver con errores en el muestro, que incluyen también otros potenciales errores como la no

respuesta y el sitio en donde se obtuvieron los datos.

ERROR MARGINAL: Como la proporción, el 95% es aproximadamente 2 veces el error estimado.

LA DISTRIBUCIÓN T

En este caso, la distribución de la muestra es normal aún para muestras pequeñas. Supongamos que sabemos que el error

estándar exacto, la media muestral 𝜎�� =𝜎

√𝑛

Bajo el supuesto adicional de que la muestra se comporta de manera normal; con cualquier n podríamos usar la fórmula:

�� ± 𝑧𝜎�� �� ± 𝑧𝜎

√𝑛

En la práctica no conocemos la desviación estándar de la población 𝜎 así que no sabemos exactamente el error estándar.

Si sustitutimos la desviación estándar de la muestra s por 𝜎 para obtener una estimación del error estándar, 𝑠𝑒 =𝑠

√𝑛

entonces estamos agregando más el error.

Este error lo podemos medir cuando n es pequeña. Para compensar el error reemplazamos z por un valor ligeramente

mayor llamado t-score. El intervalo de confianza es un poco más amplio.

Principales propiedades de la distribución t:

1) Tiene forma de campana y es simétrica respecto de la media = 0.

2) La desviación estándar es un poco más grande que 1. El valor preciso depende también de los grados de libertad.

3) Para inferencias sobre la media de la población, los grados de liberta es igual a n-1, uno menos que el tamaño de la

muestra.

4) Tiene colas mas anchas y su distribución es más dispersa.

Cuando df es de 30 o más, las dos distribuciones son casi indénticas.

Page 39: Notas Estadistica

39

t-score: El valor de t multiplicado por el error estándar estimado da lugar al margen de error para un intervalo de

confianza , para la media.

Cuando la muestra es de 29, los grados de libertad df = n-1 = 28

Con df = 28 vemos que t.025 = 2.048, esto significa que el 2.5% de la distribución cae en la cola de la derecha por arriba de

2.048, por simetría, también 2.5% de los datos caen en la cola izquierda, por debajo de -t.025 = -2.048

Cuando df = 28, la probabilidad entre -2.048 y 2.048 es del 95%. Estos son los valoes de t para un intervalo de confianza

de 95%; cuando la muestra es de n=29

�� ± 2.058(𝑠𝑒)

VALORES T EN LOS INTERVALOS DE CONFIANZA PARA UNA MEDIA

Para la media es similar a las proporciones, excepto que utilizamos valores de t en lugar de los valores de la distribución

normal (z).

95% para 𝜇 �� ± 𝑡. 025(𝑠𝑒) con 𝑠𝑒 =𝑠

√𝑛 en donde df = n-1

El margen de error es igual o similar al caso anterior, pero en este caso sustituimos el valor de z por el valor de t.

También parte del supuesto de distribución normal. Esto es importante en muestras pequeñas.

Ejemplo 5.5

Cambios en la media de pesos para chicas anoréxicas.

Tratamientos para frenar la anorexia.

Peso antes y después del tratamiento.

Variable de interés cambio en el peso. + si ganó peso, - si perdió.

𝑛 = 29 𝑐ℎ𝑖𝑐𝑎𝑠

�� = 3.01

𝑠𝑒 =𝑠

√𝑛=

7.31

√29= 1.36

�� ± 𝑡. 025(𝑠𝑒) = 3.01 ± 2.048(1.36)

= 3.0 ± 2.8

(.2, 5.8)

Inferimos que este intervalo contiene la media poblacioal del cambio de peso, pero como no es una muestra aleatoria, el

dato es tentativo y pesnar que en un 95% de confianza puede ser optimista.

Cualquier resultado es más convicenente si podemos argumentar que la muestra es representativa de la población.

EFECTO DEL NIVEL DE CONFIANZA EN EL TAMAÑO DE LA MUESTRA

𝛼 = Probabilidad de error La probabilidad de que nuestro método dé lugar a un intervalo que no contenga 𝜇.

Para un intervalo de confianza de 99%

Page 40: Notas Estadistica

40

𝛼 = 1 − .99 = .01, así que 𝛼

2= .005

El valor de t observado es 𝑡. 025 para df esperado.

Para tener más seguirdad en el caso de la anorexia, podemos utilizar un intervalo de confianza de 99%, dado que df = 28,

cuando n = 29

𝑡. 005 = 2.763, no cambia el error estándar.

�� ± 𝑡. 005(𝑠𝑒) = 3.01 ± 2.763(1.36)

(-0.7, 6.8)

Nos dice que es plausible que el efecto del tratamiento sea 0, que la terapia pueda resultar en un “no cambio”.

ROBUSTEZ PARA LAS VIOLACIONES AL SUPUESTO DE NORMALIDAD

Supuestos para el intervalo de confianza de la MEDIA son:

1) Se utiliza la aleatorización para recolectar datos.

2) La distribución de la población es normal.

Bajo este supuesto, la distribución de la muestra de �� es normal, aún para muestras pequeñas n.

De manera similar, el valor de z que mide el número de errores estándar que �� cae con respecto de 𝜇 tiene una

distribución normal.

En la práctica cuando utilizamos el error estándar estimado 𝑠𝑒 =𝑠

√𝑛 en lugar del verdadero

𝜎

√𝑛, el número de se que ��

cae con respecto a 𝜇 tiene una distribución t.

En el ejercicio 5.5 el intervalo de confianza que se estimó para la media del cambio en peso de las chicas anoréxicas. El

histograma del cambio en peso no es preciso cuando n es tan pequeño como lo es en el ejemplo (n = 29), pero da

evidencia de sesgo.

Generalmente, el supuesto de normalidad es para preocuparse, porque muchas variables en ciencias sociales no se

comportan de manera normal.

Un método estadístico que se dice robusto con respecto de un supuesto particular si se comporta de manera adecuado

aún cuando el supuesto es violado. Los estatistas han demostrado que el intervalo de confianza para una media,

utilizando una distribución t es robusto, contra violaciones del supuesto de normalidad. Aún cuando la población no se

distribuye de manera normal, los intervalos de confianza que se basan en una distribución t, funcionan bastante bien,

especielmente cuando 𝑛 > 𝑎 15, ±. En la medida en que la muestra aumenta, el supuesto de normalidad es menos

importante por el teorema del límite central. La distribución muestral de la media muestral tiene forma de campana aún

cuando la distribución no la tiene. La probabilidad de que el método del intervalo de confianza del 95% dé lugar a una

correcta inerencia es cercana al .95 y se acerca aún más cuando n aumenta.

Un caso importante en el cualel método no funciona bien es cuando los datos están fuertemente sesgados o que

contienen valores atípicos muy grandes. Esn parte esto se da por el efecto en el método, pero también porque la media

Page 41: Notas Estadistica

41

puede no ser un resumen representativo del centro. Por eso el intervalo de confianza sobre el número de parejas

sexuales (ejemplo 5.4) tiene un uso muy limitado.

En la práctica los supuestos rara vez se satisfacen de manera perfecta. Por lo tanto, saber si un método estadístico es

robusto cuando un supuesto es violado, es importante.

El intervalo de confianza a partir del método t NO ES ROBUSTO PARA VIOLACIONES DEL SUPUESTO DE

ALEATORIZACIÓN.

Este método (al igual que todos los métodos inferenciales) pierden validez cuando no se usa la aleatorización.

CUANDO DF INFINITO, ENTONCES LA DISTRIBUCIÓN T ES UNA NORMAL ESTÁNDAR

Veamos la tabla de valores t. En la medida en que df aumenta, nos movemos hacia abajo en la tabla. Los valores de t

disminuyen y se van acercando cada vez más a los valores de z para una distribución normal estándar. Esto refleja un

cambio en la dispersión de la distribución y el mayor parecido con una distribución normal en la medida en que los df

aumentan. Podemos pensar en la distribución estándar normal como una t con df = infinito.

Por ejemplo, cuando df aumenta de 1 a 100 en la tabla 5.1, el valor t t.025 con una probabilidad en la cola derecha igual a

0.025, disminuye de 12.706 a 1.894 . El valor de z con una probabilidad de la cola derecha del 0.025, en una distribución

normal estándar es de 1.96. Los valores de t para una muestra superior a 100 df no se han impreso, pero son muy

cercanos a z. La última fila de la Tabla B puede compararse con los valores en la tabla z, son casi iguales.

Los valores t pueden obtenerse con cualquier programa de cómputo o calculadora, para cualquier df. Así que no tenemos

que limitarnos a la Tabla B. Para df mayores a los mostrados en la Tabla B (mayores a 100), puedes usar una tabla z para

aproximarte al valor t. Para un intervalo de confainza del 95% puedes utilizar

�� ± 1.96(𝑠𝑒) 𝑒𝑛 𝑙𝑢𝑔𝑎𝑟 𝑑𝑒 �� ± 𝑡. 025(𝑠𝑒)

No va a ser exactamente el mismo resultado que te daría un programa de computación, pero va a ser bastante cercano

para fines prácticos.

Por ejemplo, para obtener el invtervalo de confianza de la media de parejas sexuales en el ejemplo 5.4, para el cual la

muestra GSS tiene n = 231, la computadora utiliza t-value para df = 231 – 1 = 230, el cual es 1.97 muy cercano al valor de z

de 1.96 para una distribución normal.

¿Por qué se va pareciendo a una distribución normal estándarcuando n aumenta (y por lo tanto df)? Porque s se hace

más precisa como estimador de 𝜎, al acercar el error estándar 𝜎

√𝑛 a 𝑠𝑒 =

𝜎

√𝑛 . El otro error muestral resulta de la

dispersión de la muestra t.

La distribucón t ha cumplido más de 100 años. Se descubrió en 1908 por el estatista y químico Gosset. En esa época

Gosset era empleado de Guiness Breweries, en Dublín, Irlanda, diseñando experimentos sobre selección, cultivo y

tratamientos de Bantey y Hops para el proceso de Brewing.

Dada la política de la empresa de prohibir que se publicaran secretos, Gosset utilizó el seudónimo ESTUDIANTE en los

artículos que publicó en su descubrimiento. La distribución t se conoció como t-student o t de estudiante.

No obstante los intervalos de confianza no se introdujeron hasta después de una serie de artículos de Newman y Egon

Pearson en 1928.

Page 42: Notas Estadistica

42

LA DESVENTAJA DE UTILIZAR SOFTWARE

El ejemplo de que los resultados aparezcan no significan que sean los correctos.

5.4 ELECCIÓN DEL TAMAÑO DE LA MUESTRA

Casas encuestadoraas tales como Encuestadora Gallup toman muestras que generalmente tienen 1,000 sujetos. Esta es lo

suficientemente grande para la estimación de la proporción de la muestra tenga un margen de error aproximadamente

de 0.03.

En principio, parece soprendente pensar que una muestra de este tamaño para una población detal vez muchos millones,

sea adecuada para predecir los resultados de una elección, resumir opiniones en temas que son controversiales,

mostrando tamaños relativos de las audiencias de los programas, etc.

Recordemos que el margen de error para un intervalo de confianza depende del error estándar de nuestro estimador.

Por lo tanto, la base para el poder de nuestra inferencia descansa en las fórmulas del error estándar. En la medida en que

el muestreo se haga de manera adecuada, los buenos estimadores resultan de muestras relativamente pequeñas, no

importa qué tan grande sea el tamaño de la población.

Las casas encuestadores utilizan métodos que son más complejos que una muestra aleatoria simple, involucrando

frecuentemente el uso de conglomerados o estratos. Sin embargo, los errores estándar en sus planes de muestreo son

aproximadamente: razonablemente buenos ya sea por las fórmulas de muestreo simple o inflando esas fórmulas por un

cierto factor (tal como 25%) para reflejar el efecto del diseño de la muestra.

Antes de inciar con la recolección de datos la mayoría de los estudios intentan estimar el tamaño de la muestra que

puede dar cierto grado de precisión a la estimación.

Una medida relevante es el valor de n para el cual el intervalo de confianza para el parámetro tiene un margen de error

igual a un valor en específico.

Claves para determinar la muestra:

1) El margen de error depende directamente del error estándar de la distribución muestral del estimador.

2) El error estándar depende del tamaño de la muestra.

TAMAÑO DE LA MUESTRA PARA ESTIMAR PROPORCIONES

Tenemos que decidir el margen de error que queremos. ¿De 0.03 –tres puntos porcentuales–, de 0.05, o de cuánto?

Debemos especificar la PROBABILIDAD con la cual logramos ese margen de error.

i.e. Podemos decir que el error no debe ser mayor a 0.04 con una probabilidad de 0.95.

Ejemplo 5.6

Para una encuesta a padres solteros, busca encontrar la proporción de niños en Boston que viven con un solo padre.

Como el presupuesto es limitado, se quiere solo recolectar una muestra no tan grande. Muestra tal que con una

probabilidad de .95 el error no sea mayor a 0.04.

Page 43: Notas Estadistica

43

∴ Determinar n tal que un intervalo de confianza del 95% para 𝜋 fuera igual a �� ±0.04

Dado que la distribución muestral de la proporción de la muestra �� es aproximadamente normal, �� cae dentro de 1.96

errores estándar con una probabilidad de .95.

Entonces, si el tamaño de la muestra es tal que 1.96 errores estándar equivale a 0.04, entonces con una probabilidad de

0.95, �� cae dentro de 0.04 unidades de 𝜋.

El verdadero error estándar es

𝜎π = √𝜋(1 − 𝜋)

𝑛

¿Cómo obtenemos el valor de n que me dé un valor de 𝜎π para el cual 0.04 = 1.96 𝜎π. Solo hay que despejar

0.04 = 1.96√𝜋(1 − 𝜋)

𝑛

Multiplicando ambos lados de la ecuación por √𝑛 y dividiendo ambos por 0.04 tenemos que

√𝑛 =1.96√𝜋(1 − 𝜋)

0.04

Elevando al cuadrado ambos lados tenemos que

𝑛 =(1.96)2𝜋(1 − 𝜋)

(0.04)2

Problema.

Queremos obtener n para estudiar la proproción de 𝜋, pero esta fórmula requiere el valor de 𝜋. Esto es porque la

dispersión de la distribución muestral depende de 𝜋. La distribución es menos dispersa y más útil para estimar 𝜋, si 𝜋 es

cercana a 0 o a 1, que si es cercana a 0.50.

Como 𝜋 es desconocida, es imposible sustituir un aproximado factible, para resolver n.

El valor más grande para 𝜋(1 − 𝜋) se da cuando 𝜋 = .05.

Page 44: Notas Estadistica

44

De hecho, 𝜋(1 − 𝜋) es bastante cercano a 0.25, con la excepción de que 𝜋 esté demasiado alejado de 0.50.

Por ejemplo, 𝜋(1 − 𝜋) = 0.24 cuando = 0.40 o 𝜋 = 0.60 y 𝜋(1 − 𝜋) = 0.21 cuando 𝜋 = 0.70 o 𝜋 = 0.30.

Entonces otra forma de resolverlo es sustituir 𝜋 por 𝜋 = .50 en la ecuación, esto da:

𝑛 =(1.96)2(0.50)(0.50)

(0.04)2= 600

Este método garantiza que con un nivel de confianza del .95, el margen de error no va a ser mayor a 0.04,

independientemente del valor de 𝜋.

Ejemplo.

Queremos saber cuántos estudiantes viven solos. No importa tanto la precisión porque es solo para justificar una posible

intervención de grupos de apoyo. Para aumentar el rendimiento que se pierde por depresión. Los recursos son escasos,

por lo tanto la muestra tiene que ser pequeña. Queremos un margen de error = 0.03. ∴ Determinar n tal que un intervalo

de confianza del 90% para 𝜋 sea igual a �� = ±0.03, es decir, que error no sea mayor a 0.03, con una probabilidad de .90,

𝑛 =(1.65)2(0.50)(0.50)

(0.03)2=

. 9604

. 0009= 1067

Dicho método (𝜋 = .5) es el método conservador, pero este valor de n es excesivamente grande. Si 𝜋 no se acerca a 0.50.

Imagínate que con base en otros estudios los científicos sociales creen que a proporción no es mayor a 0.25, entonces la

muestra adecuada es:

𝑛 =(1.96)2𝜋(1 − 𝜋)

(0.04)2=

(1.96)2(0.25)(0.75)

(0.04)2= 450

Una muestra de 600 es muy grande. Con ella el margen de error para CI de 95% sería menos de 0.04.

Hagamos un ejercicio con el ejemplo de la UdeG. Supongamos que la proporción es de 0.10

. 90 𝑛 =(1.65)2(0.10)(0.90)

(0.03)2=

. 2450

. 0009= 272

. 95 𝑛 =(1.96)2(0.10)(0.90)

(0.03)2=

. 3457

. 0009= 384

FÓRMULA PARA ESTIMAR EL TAMAÑO DE LA MUESTRA DE UNA MEDIA

M = Margen de error deseado.

Z = El valor de z determinado por la probabilidad con la cual el error no es mayor que M.

El tamaño de la muestra aleaotira n con un margen de error Mal estimar 𝜋 a través de la proporción de la muestra 𝜋 es:

𝑛 = 𝜋(1 − 𝜋)(𝑍

𝑀)2

El valor de z es el correspondiente a un intervalo de confianza con el nivel de confianza deseado, tal como z = 1.96 para un

nivel de .95. Puedes adivinar 𝜋 o irte a la segura estableciendo el valor de 𝜋 = 0.50.

Page 45: Notas Estadistica

45

Supongamos que en el ejemplo 5.6 queremos que el error no sea mayor a 0.08, con una probabilidad de al menos .95.

Entonces el margen de error M = 0.08, con una probabilidad de 0.95 Z = 1.96.

𝑛 = 𝜋(1 − 𝜋)(𝑍

𝑀)2 = (0.50)(0.50)(

1.96

0.08)2 = 150

Una muestra de 150 es de ¼ la muestra de 600 necesaria para garantizar un margen de error no mayor a 0.04. El reducir

el margen de error por un factor de ½ requiere cuadruplicar la muestra.

TAMAÑO DE LA MUESTRA PARA ESTIMAR LAS MEDIAS

Para estimar estimamos 𝜇 un método análogo. Queremos saber qué tan grande debe ser n para que la distribución

muestral de �� tenga un error marginal 𝜇. La figura 5.8 muestra cómo la distrución muestral se hace más angosta (menos

dispersa) en la medida en que n aumenta hasta, que a una n requerida, que el 95% cae dentro del margen de error

seleccionado.

El tamaño de la muestra para estudiar la media de la población 𝝁.

La muestra aleatoria de tamaó n con un margen de error M para estimar 𝜇 utilizando la �� es:

𝑛 = 𝜎2(𝑍

𝑀)2

El intervalo de z es el correspondiente al intervalo de confianza y al nivel de confianza deseado, tal como z = 1.96 para un

nivel de confianza de .95. Es necesario estimar la desviación estándar 𝜎.

A mayor dispersión de la muestra (𝜎) medida por la desviación estándar, mayor el tamaño de la muestra que se necesita

para lograr nuestro margen de error.

+ heterógeneos + grande la muestra

Como 𝜎 es desconocida hay que especular un valor.

Dado que no cocnocemos 𝜎, para hacer inferencias utilizamos el valor de t en lugar de la distribución normal. Pero si no

conocemos n no sabemos los df y el valor de t.

Como vimos en la tabla cuando la muestra no es pequeá el valor de t es cercano a z. Así que no nos preocupamos por

esto.

Page 46: Notas Estadistica

46

Ejemplo 5.7. Estimación del nivel medio de educación entre los nativos amercianos.

Estudio para personas de la 3ra edad Nativos Amercianos. Variable a estudiar: Nivel educativo.

¿De qué tamaño debe ser la muestra para estimar el número promedio de aós que asistieron a la escuela con error no

mayor a 1 año, con una probabilidad de .99?

Supongamos que no hay información sobre la desviación estándar del logro académico para esta población. Podríamos

estimar que probablemente todos los valores caen en un rango de 15 años. Si esta distribución es normal, entonces, dado

que el rango de 𝜇 − 3𝜎 𝑎 𝜇 + 3𝜎 contiene casi todos los valores de distribución normal, entonces el rango de 15 será más

o menos 6𝜎.

Supuesto Rango = 15 años i.e. Entre 5 y 20 años.

Entre .99 (𝜇 − 3𝜎, 𝜇 + 3𝜎)

Entonces el rango de 15 = 6𝜎. 15

6= 2.5 𝑒𝑠 𝑢𝑛 𝑟𝑎𝑛𝑔𝑜 𝑎𝑝𝑜𝑟𝑥𝑖𝑚𝑎𝑑𝑜 𝑑𝑒 𝜎

Para un intervalo de confianza de 99%, la probabilidad de error es de .01. El valor de z es aquél con una probabilidad de .01

2= .005, esto es de 2.58 (en cada cola). Dado que el margen de error es M = 1, el tamaño de la muestra es:

𝑛 = 𝜎2(𝑍

𝑀)2 = (2.5)2(

2.58

1)2 = 42

Una aproximación más cautelosa sería seleccionar un valor grande para 𝜎.

Por ejemplo, si el rango de 5 a 20 años abarca colo el 95% de los valores en educación, podemos tratar esto como el

rango de 𝜇 − 2𝜎, 𝜇 + 2𝜎 y establecer 15 = 4 𝜎, entonces

15 = 4 𝜎

(𝜇 − 2𝜎, 𝜇 + 2𝜎) 𝜎 =15

4= 3.75

𝑛 = (3.75)2(2.58

1)2 = 94

Si 𝜎 es en realidad menor a 3.75, entonces el margen de error de un intervalo de confianza con 94 observaciones, va a ser

menor a 1.

Esto aplica para muestreo aleatorio simple. Conglomerados y etapas requieren muestras más grandes para lograr la

misma precisión. Muestras estratificadas pueden ser menores.

OTRAS CONSIDERACIONES SOBRE LA MUESTRA

1) El tamaño de la muestra depende de la precisión y la confianza que deseamos.

Confianza: La probabilidad de que un intervalo contenga un parámetro.

Precisión: Tiene que ver con un margen de error.

2) También la variabilidad de la población.

Para estimar las medias la muestra aumenta a medida que aumenta 𝜎. En la mayoría de las encuestas sociales se

requieren muestras grandes (1,000 o más), pero en poblaciones homogéneas, se puede estimar a partir de muestras más

pequeñas.

Page 47: Notas Estadistica

47

3) Complejidad del análisis.

+ complejo (+ variables).

+ grande la muestra que se necesita.

4) Influye: tiempo y otros recursos.

QUÉ PASA SI SOLO TENEMOS UNA MUESTRA PEQUEÑA

¿De qué manera aprovechamos la validez cuando tenemos una muestra pequeña?

Métodos t para una media pueden utilizarse con cualquier valor de n.

No obstante si n es pequeña es importante revisar la existencia de grandes valores atípicos o grandes desviaciones ede la

normal.

Recuerda que la fórmula del intervalo de confianza la proporción requiere de al menos 15 observaciones de cada tipo. De

otra manera la distribución muestral de la proporción de la muestra se va a alejar de la normal y la estimación del error

estándar 𝑠𝑒 = √��(1−��)

𝑛 con respecto al verdadero valor va a ser poco preciso.

Ejemplo 5.8 ¿Qué proporción de estudiantes son vegetarianos?

Muestra aleatoria de 20 alumnos. Universidad de Florida para estudiar cuántos son vegetarianos.

𝑛 = 20

𝑉𝑒𝑔𝑒𝑡𝑎𝑟𝑖𝑎𝑛𝑜𝑠: 𝜋 = 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑏𝑙𝑎𝑐𝑖ó𝑛 𝑞𝑢𝑒 𝑒𝑠 𝑣𝑒𝑔𝑒𝑡𝑎𝑟𝑖𝑎𝑛𝑎.

�� = 0/20 = 0

Cuando �� = 0 entonces 𝑠𝑒 = √��(1−��)

𝑛= √

0(1)

20= 0

El intervalo de confianza para la proporción de la población vegetariana, con un 95% de confianza �� ± 1.96(𝑠𝑒) = 0 ±

1.96(0) lo que es (0,0).

El estudiante concluyó que podía tener el 95% de certeza de que 𝜋 caía entre 0 y 0.

Pero esta fórmula es solo válida si se tiene al menos 15 vegetarianos y 15 no vegetarianos. El intervalo de confianza, para

muestras más pequeñas es áun válido si agregamos 4 observaciones artificiales, 2 de cada tipo, la muestra n = 20, anterior

tenía 0 vegetarianos y 20 no vegetarianos. Podemos agregar 0+2 = 2 vegetarianos, 20+2 = 22 no vegetarianos, entonces n

= 24 �� =2

24= 0.083 𝑠𝑒 = √

��(1−��)

𝑛= √

.083(.917)

24= .056

El intervalo de confianza al 95% es �� ± 1.96(𝑠𝑒) = 0.083 ± 1.96(0.056) 𝑜 (−.03, 0.19)

La proporción no puede ser negativa así que la respetamos (0, 0.19) Podemos tener la confianza de que la proporicón de

vegetarianos de la Universidad de Florida no es mayor a 0.19.

INTERVALOS DE CONFIANZA PARA MEDIANAS Y PARÁMETROS

Inferencia de la mediana de datos normales.

Page 48: Notas Estadistica

48

Error estándar = 1.25(𝜎

√𝑛)

La mediana y la media de la distribución normal son estimadores del mismo parámetro.

La mediana no es eficiente porque el error estándar es 25% más grande. Cuando la muestra está sesgada sí es útil la

mediana.

INTERVALOS DE CONFIANZA PARA LA MEDIANA

Muestras grandes (n al menos 20 a 30) no requiere supuesto de población, solo que sea continua. Por definición la

probabilidad de 1 observación 𝜋 caiga debajo de la mediana es de 0.50.

∴ Para una muestra aleatoria de n = 5 la proporción de la muestra �� que cae debajo de la mediana tiene una media de s y

un error estándar 𝜎�� = √𝜋(1−𝜋)

𝑛= √

(0.50)(0.50)

𝑛=

.50

√𝑛

Page 49: Notas Estadistica

49

CAPÍTULO 6. INFERENCIA ESTADÍSTICA: PRUEBAS DE SIGNIFICANCIA

El objetivo es probar si los datos realmente concuerdan con ciertas predicciones, que por lo general resultan de la teoría

que guía nuestra investigación. Estas predicciones son hipótesis sobre la población estudiada.

Hipótesis:

Es una afirmación sobre la población. Generalmente es una predicción de un parámetro, que describe alguna

característica de una variable que toma un valor numérico en particular o que cae en cierto rango de valores.

i.e.

1. Para trabajadores en el área de servicios, el ingreso promedio es el mismo para hombres que para mujeres.

2. No hay diferencia entre perredistas y priistas en la probabilidad de que voten con los líderes de su partido.

3. La mitad o más de la mitad de las personas de la tercera edad en México están satisfecha con su servicio nacional de

salud.

Una prueba de significancia utiliza datos para resumir la evidencia de las hipótesis. Compara estimadores de los

parámetros con los valores predecidos por la hipótesis.

Ejemplo 6.1.

Probando sesgos con base en género, en la selección de administradores.

Una cadena de supermercados en Florida escogió un grupo de empleados para recibir un entrenamiento en

administración. Un grupo de empleadas mujeres reclamó que escogieran muchos más hombres que mujeres sugiriendo

una preferencia por los hombres. La compañía negó el reclamo. Un reclamo similar se dio en 2007 sobre las promociones

y los pagos hacias mujeres en Wal-Mart. ¿De qué manera pueden las mujeres sustentar su reclamo con evidencia

estadística?

Imagínate que un grupo del cual se pueden elegir personas para el entrenamiento está compuesto de mitad hombres y

mitad mujeres. La posición de la empresa sobre la falta de sesgo es una hipótesis. Establece que:

Cuando todo la demás cosas siendo iguales, en cada elección la probabilidad de elegir una mujer es igual ½ a y la

probabilidad de elegir a un hombre es mayor a ½.

Si los empleados son realmente seleccionados de manera aleatoria en función de género, entonces aproximadamente la

mitad de los empleados elegidos serían hombres y la otra mitad mujeres.

La posición de las mujeres es la hipótesis alternativa de que la probabilidad de elegir a un hombre es mayor a ½.

Imagínate que 9 de cada 10 empleados elegidos para el entrenamiento son hombres. Podemos estar inclinados a pensar

que las mujeres están en lo correcto. Sin embargo, debemos analizar si estos resultados son probables o no, si existe un

sesgo o no.

¿Es poco usual obtener una proporción de 9 10⁄ si realmente fueran elegidos de manera aleatoria? Dado que variaciones

muestrales no son exactamente ½ de la muestra hombres. Qué tan lejos del ½ debe de ser la proporción de la muestra de

hombres para que podamos creer que las mujeres tienen razón.

Page 50: Notas Estadistica

50

6.1 LAS CINCO PARTES DE UNA PRUEBA DE SIGNIFICANCIA

O prueba de hipótesis, o simplemente prueba.

a) Supuestos.

b) Hipótesis.

c) Estadístico de prueba.

d) Valor de P.

e) Conclusión.

a) Supuestos.

Tipo de datos: Cuantitativos o categóricos.

Aleatorización.

Distribución de la población: Según la prueba es el tipo de distribución esperado, tal como la normal.

Tamaño de la muestra: La validez aumenta conforme el tamaño de la muestra aumenta.

b) Hipótesis.

Hipótesis nula (Ho): Una afirmación sobre el valor que adquiere un parámetro en particular.

Hipótesis alternativa (Ha): Afirma que el parámetro cae en un rango de valores alternativos.

Ho= No efecto.

Ha= Efecto de algún tipo.

Ejemplo 6.1.

𝜋: La probabilidad de que el elegido sea hombre. La compañía argumenta que 𝜋 = 12⁄ = 𝐻𝑂 =

𝑁𝑜 𝑒𝑓𝑒𝑐𝑡𝑜 (𝑛𝑜 𝑠𝑒𝑠𝑔𝑜 𝑝𝑜𝑟 𝑔é𝑛𝑒𝑟𝑜).

𝐻𝑎 = La probabilidad de que sea hombre es mayor a 1 2⁄ .

𝐻𝑂: 𝜋 = 12⁄

𝐻𝑎: 𝜋 > 12⁄

Prueba de hipótesis analiza la evidencia de la muestra con respecto a la hipótesis nula 𝐻𝑂 investiga si los datos

contradicen 𝐻𝑂, sugiriendo que 𝐻𝑎 es cierta.

Este enfoque es el de prueba por contradicción. La hipótesis nula se presume que es cero. Bajo este supuesto, si el dato

observado es poco viable, entonces la evidencia soporta la hipótesis alternativa.

En el estudio de posible discriminación por género, suponemos que la hipótesis nula, 𝐻𝑂: 𝜋 = 12⁄ , es verdadera. Después

determinamos si el resultado de la muestra de elegir a 9 hombres para el entrenamiento en 10 repeticiones de elección,

es poco usual bajo este supuesto. Si es poco usual, entonces estaremos inclinados a pensar que el reclamo de las mujeres

es correcto. Pero si la diferencia entre la proporción de los hombres en la muestra (910⁄ ) y si el valor de 𝐻𝑂: 𝜋 = 1

2⁄ ,

Page 51: Notas Estadistica

51

puede deberse facilmente a simple varaibilidad en la muestra, entonces no hay suficiente evidencia para aceptar el

argumento de las mujeres.

En una muestra generalmente se realizan pruebas que llevan a recibir la mayor cantidad de evidencia para la hipótesis

alternativa.

Valor de P.

Es la probabilidad de que el esadístico de la prueba sea igual al valor observado o incluso a un valor aún más extremo en

la dirección predicha por 𝐻𝑎 se calcula asumiendo que 𝐻𝑂 es verdadera. El valor de P lo denotamos con P.

Un valor pequeño de P (tal como P = 0.01) significa que los datos observados serían poco probables, si 𝐻𝑜 fuera

verdadero. A menor valor de P, mayor evidencia en contra de 𝐻𝑂. Es poco probable que 𝐻𝑜 sea verdadera.

Ejemplo 6.1.

𝜋: Probabilidad de escoger hombre.

𝐻𝑂: 𝜋 = 12⁄

𝐻𝑎: 𝜋 > 12⁄

Un estadístico que podemos utilizar para la prueba es: Proporción muestral de hombres seleccionados, la cual es: 9 10⁄ =

0.90.

Los valores para la proporción de la muesra que nos dan evidencia o confianza más extrema en contra de 𝐻𝑂: 𝜋 = 12⁄ y a

favor son los valores de la cola derecha de la proporción muestral de 0.90 o más altos.

Según la fórmula que veremos más adelante la probabilidad es de 0.01, entonces P = 0.01. La probabilidad es de 0.01,

entonces P = 0.01.

Si la selección fue verdaramente aleatoria la probabilidad de obtener una elección de este tipo es solamente de 0.01,

manteniendo otras condiciones iguales. Este valor pequeño de P da suficiente evidencia contra de 𝐻𝑂: 𝜋 = 12⁄ y en

apoyo de 𝐻𝑎: 𝜋 > 12⁄ sobre discriminación contra las mujeres.

En contraste, un valor de P grande significa que los datos son consistentes en la 𝐻𝑂. Un valor-P de 0.26 o 0.83 indica que,

si 𝐻𝑂 fuera verdadera, los fatos observados no serían extraños.

Conclusión.

El valor-P sintetiza la evidencia en contra de 𝐻𝑂. Nuestra conclusión debe de interpretar lo que nos dice el valor-P sobre la

pregunta que motivó nuestra prueba. Algunas veces es necesario tomar deicisones sobre la validez de 𝐻𝑂. Si el valor de P

es suficientemente pequeño, rechazamos 𝐻𝑂 y aceptamos 𝐻𝑎.

La mayoría de los estudios requieren valores de P muy pequeños, como 𝑃 ≤ .05 para poder rechazar la 𝐻𝑂. En esos casos,

se dice que los resultados son significativos al nivel de 0.05. Esto significa que si la 𝐻𝑂 fuera cierta, la posibilidad de

obtener ese valor extremo sería no mayor a 0.05. Tomar la decision, sobre rechazar o no una hipótesis nula es una parte

opcional de la prueba de significancia.

Pruebas de hipótesis.

Page 52: Notas Estadistica

52

1. Supuestos.

Tipo de datos, aleatorización, distribución de la población en condiciones del tamaño de la muestra.

2. Hipótesis.

𝐻𝑂 = Hipótesis nula, no efecto.

𝐻𝑎 = Hipótesis alternativa, valores alternativos al parámetro.

3. Estadístico de prueba.

Compara el estimador con un valore de la 𝐻𝑂.

4. Valor de P.

Pesa la evidencia en contra 𝐻𝑂: a menor tamaño mayor evidencia en contra de 𝐻𝑂.

5. Conclusión.

Reporta el Valor-P. Se toma la decisión formal.

6.2 PRUEBA DE SIGNIFICANCIA PARA UNA MEDIA

1. Supuesto.

Los datos se obtuvieron de manera aleatoria. La variable cuantitativa se comporta/distribuye de manera normal.

2. Hipótesis.

𝐻𝑂 ∶ 𝜇 = 𝜇𝑂 -> Un valor particular para la media.

Generalmente no efecto o no cambio.

i.e. Ejemplo de las anoréxicas.

𝐻𝑂 ∶ No efecto ∴ 𝐻𝑂: 𝜇 = 0, quiere decir que el tratamiento no sirvió.

𝐻𝑎 ∶ Parámetros alternativos, 𝐻𝑎: 𝜇 ≠ 𝜇0 𝐻𝑎 ∶ 𝜇 ≠ 0.

Este tipo de hipótesis es de los dos lados, porque tiene valores de arriba y debajo de la meida. Para el estudio de la

anorexia, 𝐻𝑎: 𝜇 ≠ 0, significa que el tratamiento tiene algún efecto, independientemente del tipo, esto es, la media

poblacional tiene un valor distinto a cero.

3. El estadístico de prueba.

La media muestral �� estima a 𝜇. Cuando la distribución de la población es normal, la distribución muestral de �� es normal

con respecto a la 𝜇. Esto también es aproximadamente cierto cuando la distribución de de la población no es normal pero

el tamaño de la muestra aleatoria es relativamente grande, dado el teórema del límite central.

Bajo el supuesto de que 𝐻𝑂: 𝜇 = 𝜇𝑂 es cierta, el centro de la distribución muestral de �� es el valor de 𝜇𝑂. Un valor de ��

que cae lejos, en la cola, da lugar a evidencia fuerte en contra de 𝐻𝑂, porque es poco probable o usual 𝜇 = 𝜇𝑂.

Recordar que:

El verdadero error estándar es 𝜎𝑦 =𝜎

√𝑛. Como en el capítulo anterior sustituimos la desviación estándar de la muestra s

por la desviación estándar desconocida de la población 𝜎 para obtener el error estándar estimado.

𝑠𝑒 =𝑠

√𝑛, el valor estadístico de la prueba es valor t.

Page 53: Notas Estadistica

53

𝑡 =��−𝜇0

𝑠𝑒, donde 𝑠𝑒 =

𝑠

√𝑛.

Entre más lejos caiga �� de 𝜇𝑂, más grande el valor absoluto del estadístico t de la prueba. Por lo tanto, entre más grande

sea t, mayor evidencia contra 𝐻𝑂.

Usamos t para minimizar los errores que se introducen al utilizar s para estudiar 𝜎.

La ditribución muestral nula del estadístico de la prueba t es la distribución t. Especificada por los grados de libertad df =

n-1.

4. Valor de P.

El estadístico de prueba sintetiza qué tan lejos cae el dato con respecto de 𝐻𝑂.

Cada prueba utiliza un estadístico distinto, por lo tanto, una interpretación más sencilla se da cuando lo convertimos en

una escala de probabilidad que va del 0 a 1. El valor P establece esto.

Calculamos el valor-P bajo el supuesto de que la 𝐻𝑂 es verdadera. Esto es, le damos el beneficio de la duda, analizando

qué tan inusual puede ser que observemos el valor obtenido. El valor de P es la probabilidad de que el estadístico de

prueba sea igual valor observado o un valor aún más alejado de 𝐻𝑂.

Para 𝐻𝑎: 𝜇 ≠ 𝜇0 los valores más extremos de P son los que caen en los extremos de la cola de la distribución t. De tal

manera que el valor-P es la probabilidad de dos colas de que el estadístico de la prueba t es al menos tan grande como el

valor absoluto del estadístico de la prueba observado. Es también la probabilidad de que caiga al menos tan lejos de 𝜇0

(en ambas direcciones) como el valor de �� observado.

Ejemplo 6.2 (p. 149).

Algunos comentaristas de política han subrayado que los ciudadanos de los Estados Unidos son cada vez más

conservadores, tanto que muchos usan la palabra liberal como una palabra sucia. Podemos estudiar la ideología política

analizando las respuestas a ciertas preguntas en el GSS. Por ejemplo, esa encuesta pregunta (con la variable POLVIES) en

una escala de 1 a 7 sobre perspectiva política en la cual 1 es extremadamente liberal y 7 extremadamente conservador,

donde se ubican. La tabla 6.2 muestra la escala con la que la distribución de las respuestas en los distintos niveles en la

encuesta de 2006. Los resultados se muestran separados de acuerdo a las 3 categorías de la variabla RAZA en el GSS.

Respuesta Negro Blanco Otro

1. Extremadamente liberal. 10 36 1

2. Liberal. 21 109 13

3. Ligeramente liberal. 22 124 13

4. Moderado, a la mitad del

camino.

74 421 27

Page 54: Notas Estadistica

54

5. Ligeramente

conservador.

21 179 9

6. Conservador. 27 176 7

7. Extremadamente

conservador.

11 28 2

Total n = 186 n = 1073 n = 72

Ideología política Escala ordinal.

∴ Podemos analizarla de forma cuantitativa.

∴ Medias.

Media por debajo de 4 Propensión a liberalismo.

Media por arriba de 4 Propensión a conservadurismo.

Prueba de significancia Permite probar si estos datos muestran suficiente evidencia de cualquier extremo.

Para la prueba de significancia sobre la manera en que la media la poblacional se comporta con respecto al valor

intermedio 4. El ejemplo es para la población negra.

1. Supuestos.

La muestra es elegida al azar.

Ideología política la trabajaremos como datos cuantitativos con espacios similares para un punto y otro.

La prueba t asume una población con distribución normal para ideología política.

2. Hipótesis.

𝜇 Ideología política para afroamericanos, para esta escala de 7 puntos.

Hipótesis nula Un número específico para 𝜇.

Dado que el análisis lo hacemos para verificar de qué manera, si a caso, se separa la media poblacional con respecto al 4.

𝐻𝑜: 𝜇 = 4 𝐻𝑎: 𝜇 ≠ 4

Hipótesis nula: En promedio, la respuesta de la población es “moderado, a la mitad del camino”.

Hipótesis alternativa: La media cae hacia el lado liberal 𝜇 < 4 o hacia el lado conservador 𝜇 > 4.

3. Prueba estadística.

Las 186 observaciones de la tabla 6.2 para afroamericanos puede resumirese de la siguiente manera.

�� = 4.075 𝑦 𝑠 = 1.512

El error estándar de a distribución muestral de �� es:

𝑠𝑒 =𝑠

√𝑛=

1.512

√186= .111

El valor de la prueba estadística t es:

Page 55: Notas Estadistica

55

𝑡 =�� − 𝜇0

𝑠𝑒=

4.075 − 4

. 111= .68

Con 185 grados de libertad (df = 186-1 = 185) la media muestral cae .68 errores estándar por arriba del valor de la media,

es decir, de la hipótesis nula.

4. El valor de P.

Es la probabilidad de 2 colas, asumiendo que H0 es verdadera, que t va a ser mayor al valor absoluto de 0.68.

De la distribución t con df = 185 (o su aproximación a la normal estándar), esta probabilidad de 2 colas es P = 0.50. Si la

media de la ideología de la población es 4, entonces la probabilidad es igual a 0.50 de una media muestral para n = 186,

caiga al menos tan lejos de 4 como la �� observada de 4.075.

5. Conclusión.

El valor de P 0.50 no es pequeño, así que no contradice la H0. Si la H0 es verdadera, el dato observado no es inusual. Es

posible que la media poblacional para los negros en 2006 haya sido 4, lo que significa que no son ni más conservadores ni

más liberales.

CORRESPONDENCIA ENTRE PRUEBAS DE DOS COLAS E INTERVALOS DE CONFIANZA

Las conclusiones con las pruebas de significancia de 2 colas son consistentes con las conclusiones sobre intervalos de

confianza. Si la prueba dice que un valor para un parámetro es creible, también lo es el intervalo de confianza.

Ejemplo 6.3.

Intervalo de confianza para media / Ideología política.

Para los datos de la tabla 6.2 vamos a construir un intervalo de confianza de 95% para la media poblacional de ideología

política. Con df = 185, el múltiplo del error estándar (se = 0.111) es t.025= 1.97. Dado que �� = 4.075 el intervalo de

confianza es:

�� ± 1.97(se) = 4.075 ± 1.97(0.111) =

4.075 ± 0.219 =

(3.9, 4.3)

Con un nivel de confianza del 95%, esos son los valores posibles para 𝜇.

Este intervalo de confianza indica que 𝜇 puede ser igual a 4, dado que 4 se encuentra dentro del intervalo de confianza.

Por lo tanto no es una sorpresa el valor de P = 0.50, al probar H0 : 𝜇 = 4 vs Ha : 𝜇 ≠ 4. De hecho:

Cuando el valor de P > .05 en una prueba de dos colas el intervalo de confianza necesariamente contiene el valor de 𝜇, de

la H0.

PRUEBAS DE SIGNIFICANCIA DE UN SOLO LADO

Page 56: Notas Estadistica

56

Para saber si es más grande que valor de 𝜇.

Ha : 𝜇 > 𝜇0

Para saber si es menor que ese valor.

Ha : 𝜇 > 𝜇0.

Valor-P: Probabilidad de un valor t por arriba del valor t observado.

Ejemplo 6.4 (p. 151).

Cambio en el peso promedio de niñas con anorexia. Referencia al ejemplo 5.5. Del capítulo 5, p. 120.

𝜇 = Promedio de cambio de peso en la población.

Si tiene efectos positivos, como se espera, entonces 𝜇 es positiva. Para probar el no efecto vs el efecto positivo.

H0 : 𝜇 = 0 vs Ha : 𝜇 > 0

La probabilida de obtener valores a la derecha de los estadísticos observados.

Si digo H0 que no cambio a menor valor de P menor probabilidad de que sí haya habido un cambio. A mayor probabilidad

de P, mayor probabilidad de cambio.

Ejemplo. El software SPSS reporta:

Variable # de casos Media SD SE of MEAN

CHANGE 29 3.007 7.309 1.357

Para n = 29, la media muestral del cambio en el peso es de 3.007 tiene un error estimado de se = 1.357.

𝑡 =�� − 𝜇0

𝑠𝑒=

3.007 − 0

1.357= 2.22

Para esta prueba de hipótesis, de un solo lado de Ha, el valor de P es la probabilidad de la cola derecha, por arriba de 2.22.

¿Por qué la cola derecha? Porque Ha : 𝜇 > 0 tiene valores POR ARRIBA (a la derecha de) la hipótesis nula de 0. Son los

valores positivos de t los que soportan esta hipótesis alternativa.

Page 57: Notas Estadistica

57

Ahora, para n = 29, df = 29 – 1 = 28.

De la tabla t, t = 2.48, da un valor de P = 0.025.

De la tabla t, t = 2.467, da un valor de P = 0.01.

∴ El valor de t observado, t = 2.22 esté entre ambos valores de P (2.048 y 2.467) ∴ el valor de P esté entre 0.01 y 0.025.

El software sí nos da un valor exacto. SPSS reporta los resultados para pruebas de 2 colas y el intervalo de confianza

como:

MEAN

95% CI

T VALUE DF 2-TAIL SIG.

Lower Upper

3.01 .227 5.78 2.22 28 0.035

∴ 1 Solo lado 𝑃−Value

2 ± 𝑃 = 0.02 } Evidencia contra de H0.

Parece que tratamiento sí tiene efecto.

El intervalo de confianza da más información que el Valor-P, ya que nos dice en dónde es probable que esté el valor. El

efecto puede ser muy pequeño. Además, en este ejemplo, es un estudio basado en voluntarios, por lo tanto puede estar

sesgado.

UN LADO DE H0 PARA UN LADO DE HA (LO QUE QUEDA IMPLÍCITO)

Del ejemplo 6.4, el valor de P = 0.17. Si 𝜇 = 0, la probabilidad de observar un promedio de muestras de ganancia de peso

de 3.01 o más, es igual a 0.017.

Imagínate que 𝜇 < 0, que el cambio en el promedio de peso sea negativo. Entonces la probabilidad de observar �� ≥ 3.01

sería aún menor a 0.017. Por lo tanto, rechazar H0 : 𝜇 = 0 y aceptar Ha : 𝜇 > 0 también nos hace rechazar una hipótesis

nula más amplia H0 : 𝜇 ≤ 0. En otras palabras, se concluye que 𝜇 = 0 es falso y que 𝜇 < 0 también.

LA ELECCIÓN: UN LADO O DOS

En la práctica las pruebas de hipótesis de 2 colas son mas comunes que las de una. Aún cuando tratamos de predecir la

direccion del efecto, una prueba de dos lados también puede detectar un efecto un efecto que cae en una dirección

opuesta. En la mayoría de los artículos las pruebas de significancia utilizan valores de P para pruebas de dos lados.

Si queremos saber si hay cambio en 2 lados.

Si queremos saber si aumento en un lado Ha : 𝜇 > 0.

La hipótesis siempre tiene que ver con parámetros, es decir, con la población, no con estadísticos de la muestra ∴ Nunca

se expresa una hipótesis utilizando la notación de los estadísticos muestrales, i.e. H0 : �� = 0. No hacemos inferencias

sobre estadísticos muestrales. Porque podemos calcular valores exactos para esos datos.

Page 58: Notas Estadistica

58

EL NIVEL DE ALFA: UTILIZANDO LOS VALORES DE P PARA TOMAR DECISIONES

Pruebas de significancia: Analiza la fuerza (potencia) de la evidencia contra la hipótesis nula H0.

Partimos del supuesto de que H0 es cierta.

Analizamos si el dato sería poco probable si H0 fuera cierta, al encontrar el valor de P. Si el valor de P es pequeño, los datos contradicen H0 y apoya Ha.

Generalmente no pensamos en la evidencia como fuente contradictoria de H0, a menos que el valor de P sea muy

pequeño, por ejemplo: P < 0.05 o P < 0.01. Por qué valores más pequeños son evidencia fuerte vs H0? Porque entonces el

dato será menos probable o común si H0 fuera grande.

Cuando H0 es verdadera, el valor de P es muy probable que caiga en cualquier punto entre 0 y 1. En contraste, cuando H0

es falsa, el valor de P es más probable que esté cerca de 0, que de 1.

Bases para la decisión: Que un valor de P esté por debajo del parámetro preespecificado. Lo más común es rechazar H0 si

P ≤ 0.05 y concluimos que la evidencia no es lo suficientemente fuerte para rechazar la H0 si P > 0.05} Este es el valor

que llamamos nivel alfa o nivel-𝜶 de la prueba.

Para evitar sesgos es importante plantear el nivel alfa o nivel de significancia antes de hacer el análisis.

ROBUSTES PARA VIOLACIONES AL SUPUESTO DE NORMALIDAD

Prueba t supuesto distribución normal. La distribución de la muestra es normal cuando n = 30 o más, es decir, �� se

comporta de manera normal, por el teórema del límite central.

Recuerda el capítulo 5, un método es robusto cuando Se comporta bien aunque no cumpla con el supuesto de

normalidad.

Las pruebas de hipótesis de dos colas siguen funcionando bien, así como los intervalos de confianza.

Falla más con pruebas de hipótesis de un solo lado Cuando n es pequeño y hay un sesgo grande.

Las gráficas y tablas de distribución nos pueden ayudar a observar la no normalidad y tomar las debidas precauciones.

6.3 PRUEBA DE SIGNIFICANCIA PARA UNA PROPORCIÓN

Variable categórica: Parámetro = Proporción de la población.

Prueba de significancia Si la mayoría de la población la experimentación con células madre.

H0 : 𝜋 = 0.5 vs Ha : 𝜋 > 0.5

𝜋 = Proporción de la población.

1. Supuestos.

Aleatorización.

Muestra suficientemente grande.

Distribución normal.

2. Hipótesis.

H0 : 𝜋 = 𝜋0 i.e. H0 : 𝜋 = 0.5

Page 59: Notas Estadistica

59

𝜋0 = Es una proporción en particular qe está entre 0 y 1.

Las hipótesis alternativas más comunes son (2 lados):

Ha : 𝜋 ≠ 𝜋0 o Ha : 𝜋 ≠ 0.5.

Un lado (Cuando predecimos una desviación en cierta dirección con respecto a H0):

Ha : 𝜋 > 𝜋0 o Ha : 𝜋 < 0.5.

3. Estadístico de prueba.

�� = Proporción de la muestra.

𝜎�� = √𝜋0(1 − 𝜋0)

𝑛

Cuando H0 es verdadera, 𝜋 = 𝜋0, entonces el error estándar:

𝑠𝑒 = √𝜋0(1−𝜋0)

𝑛 } Bajo el supuesto de que H0 sea verdadera.

Mide el número de errores estándar que la proporción de la muestra cae con respecto a 𝜋0.

Para muestras grandes, si H0 verdadera, la distribución muestral del estadístico z es una distribución normal.

4. El valor de P.

1 o 2 colas, pero utilizando la distribución normal z.

Para Ha : 𝜋 ≠ 𝜋0 P es la probabilidad de dos colas. En este caso la tabla, tiene 1 valor, entonces 2(P).

Para alternativas de un solo lado P-Value = La probabilidad de una sola cola.

Ha : 𝜋 > 𝜋0} La probabilidad por arriba (i.e. A la derecha) del valor observado de z.

Ha : 𝜋 < 𝜋0} La probabilidad por debajo (i.e. A la izquierda) del valor observado de z.

5. Conclusión.

Ejemplo 6.6

¿Reducir los servicios o aumentar los impuestos? No hay dinero. ¿Qué prefieren?, ¿Reducir servicios o aumentar

impuestos? Encuesta hecha en Florida.

n = 1,200 Aleatorio / Florida 2006.

52% dijo aumentar los impuestos.

48% dijo reducir los impuestos.

𝜋 = Proporción de la población de Florida que prefiere aumentar los impuestos.

Si 𝜋 < 0.50 es una minoría.

Si 𝜋 > 0.50 es una mayoría.

Para analizar si 𝜋 está en alguno de estos rangos probamos:

H0 : 𝜋 = 0.50 vs Ha : 𝜋 ≠ 0.50.

El estimador de 𝜋 es �� = 0.52. Bajo el supuesto de que H0 : 𝜋 = 0.50 sea verdadero el error estándar de �� es:

Page 60: Notas Estadistica

60

𝑠𝑒0 = √𝜋0(1 − 𝜋0)

𝑛= √

(0.50)(0.50)

1,200= 0.0144

El valor del estadístico de prueba es:

𝑧 =�� − 𝜋0

𝑠𝑒0=

0.52 − 0.50

0.0144= 1.39

De la tabla de valores para la z, el valor de P prueba de dos colas es P = 2(.0823) = .16.

Si H0 es verdadero (i.e. Si : 𝜋 = 0.50) la probabilidad de que el estimador sea un valor extremo en cualquier dirección es

de .16. El valor de P no es pequeño, así que no hay suficiente evidencia para rechazar la H0. No podemos saber si quienes

favorecen el aumento de impuestos es una mayoría o una minoría.

Con un nivel de 𝛼 de 0.05, dado que P = 0.16 > 0.05, no podemos rechazar H0. Usamos se0 de la H0 que el estimador para

minimizar el error. Como el intervalo de confianza no usa un valor hipótetico para 𝜋, entonces utilizamos se en lugar del

valor de la H0.

No rechazamos Cuando H0 es plausible, ya que los datos no contradicen la hipótesis. En lugar de decir “aceptamos

la H0 ”, se dice “no se rechaza H0”.

Al usar un intervalo de confianza observamos que 𝜋 puede tener valores distintos a 0.50. Por eso no hay evidencia

suficiente para decir que el valor real sea 𝜋 = 0.50.

Al decir no rechazamos H0 estamos enfatizando que ese valor es simplemente uno de muchos otros posibles.

Aceptar la hipótesis alternativa, se permite porque cuando el valor de P es tan pequeño, el rango entero de valores para

el parámetro cae dentro del rango de valores que Ha especifica.

H0 } Es un punto.

Ha } Es un rango.

Efecto del tamaño de la muestra, cuando aumenta la muestra el valor de P tiende a disminuir, se vuelve más preciso.

6.4 DECISIONES Y TIPO DE ERROR

Rechazamos H0 si P ≤ 𝛼 para un valor preestablecido de alfa.

Conclusiones posibles para 𝛼 = 0.05.

H0 Rechazada o no rechazada.

H0 Ha

P ≤ 0.05 Rechazamos Aceptada

P > 0.05 No rechazamos No aceptamos

Cuando no rechazamos la hipótesis nula, los resultados no son concluyentes, la prueba no identifica ninguna de las

hipótesis como la más válida. Es mejor reportal el valor de P que indicar simplemente que un resultado es

estadísticamente significativo. Los valores de P de 0.049 y 0.001 son los más significativos al 0.05, pero el segundo caso

presenta más evidencia que el primero.

Page 61: Notas Estadistica

61

ERROR TIPO I Y ERROR TIPO II

Incertidumbre Podemos cometer errores.

Tipo I Cuando H0 es verdadera y la rechazamos // Cuando partimos de que sí hay efecto, y no lo hay.

Tipo II Cuando H0 es falsa y no la rechazamos // Cuando partimos de que no hay efecto, y sí lo hay.

Condición de H0

Decisión

Rechazar H0 No Rechazar H0

H0 cierta Error Tipo I Decisión correcta

H0 falsa Decisión correcta Error Tipo II

Región 1, rechazo.

La colección de valores del estadístico para el cual la prueba rechaza la H0.

Por ejemplo, la región de rechazo para una prueba con un nivel de confianza de 𝛼 = .05 es el conjunto de estadísticos

para los cuales 𝑃 ≤ 0.05.

Para una prueba de 2 colas, en proporciones el valor de 𝑃 ≤ 0.05 cuando |𝑧| = 1.96.

La región de rechazo consiste en los valores de z que resultan del estiamdor que cae al menos 1.96 errores estándar del

valor de H0.

EL NIVEL 𝛼 ES LA PROBABILIDAD DE COMETER EL ERROR TIPO I

Cuando H0 es verdadera. La probabilidad de cometer un error tipo I es de 0.05. Controlamos P (error tipo I) al elegir 𝛼. A

mayor seriedad de las consecuencias del error tipo I, 𝛼 debe ser lo más pequeño posible. En general, 𝛼 = 0.05 es

considerado bueno pero en ciertas decisones sigue siendo riesgoso.

i.e. Quiero:

H0 Inocencia. H0 Si rechazo, se lleva a juicio y condena.

Ha Culpable.

Error Tipo I Condenarlo en realidad es inocente.

Error Tipo II Declarlo inocente, cuando en realidad es culpable.

Imagina en un asesinato Pena de muerte. Entonces, 𝛼 = 0.05 es alto.

Cuando tomamos decisones no sabemos qué tipo de error estamos cometiendo, así como tampoco sabemos si un

intervalo de confianza contiene el verdadero parámetro o no.

Sin embargo, sí podemos controlar la probabilidad de cometer un error en cualquier tipo de inferencia.

Si P(Error Tipo I) baja, P(Error Tipo II) aumenta.

Page 62: Notas Estadistica

62

En un mundo ideal, ninguno ocurriría. Sin embargo, en la práctica suceden porqueno hay un valor extremo de P porque

aumenta el otro error.

En este ejemplo, el riesgo también es declararlo inocente, cuando en realidad sí es culpable.

Entre más lejos caiga el parámetro del valor de la H0 menos probable que la muestra resulte en un error.

Error Tipo II:

a) Distancia del efecto.

b) Tamaño de la muestra, entre más grande más probable que rechacemos una H0 falsa.

Para mantener tanto E. I Y E. II bajos es necesario usar una muestra grande, o que la diferencia entre el estimador y la H0

no sea grande.

EQUIVALENCIA ENTRE INTERVALOS DE CONFIANZA YPRUEBAS DE DECISIONES

H0 : 𝜇 = 𝜇0 vs Ha : 𝜇 ≠ 𝜇0

Cuando P < 0.05 H0 es rechazada al nivel de 𝛼 = 0.05 esto es cuadno el estadístico t = (�� − 𝜇0

𝑠𝑒⁄ ) es mayor a 1.96 en

valores absolutos (con n grande).

Significa que �� cae más de 1.96 (se) de 𝜇0.

Si sucede entonces el intervalo de confianza de 𝜇.

�� ± 1.96(𝑠𝑒) No contiene el valor de H0 = 𝜇0.

El intervalo de confianza de 95% consiste en los valores de 𝜇0 para los cuales no rehazamos H0: 𝜇 = 𝜇0 con un nivel de

confianza de 𝛼 = 0.05.

El nivel de 𝛼 es ambos P(Error Tipo I) para la prueba y la probabilidad de que el Intervalo de Confianza no contenga el

parámetro.

TOMANDO LA DECISIÓN VS EL EL VALOR REPORTADO DE P

Prueba de hipótesis Neyman y Pearson. 1920/1930.

Fórmula de hipótesis H0 y Ha.

Elije un valor de 𝛼 para la prueba (Error Tipo I), el cual determina la región de rechazo y se toma la decisión, rechazar H0 o

no. En este caso no se obtiene el valor de P. Con esto, no es necesario encontrar el Valor-P.

6.5 LIMITACIONES DE LA PRUEBA DE SIGNIFICANCIA

La prueba de significancia hace una inferencia de un parámetro si difiere del valor de H0 y la dirección que toma ese valor.

Pruebas No nos dice mucha información práctica, en cambio un intervalo de confianza sí lo hace.

Significancia estadística vs Significancia práctica

Page 63: Notas Estadistica

63

Significativo estadísticamente} Un valor de P pequeño, i.e. P = .001, evidencia en contra de H0. No significa que sea un

resultado importante. Tampoco significa un verdadero parámetro está lejos de H0 en términos prácticos.

Ojo: El valor P es solo un resumen del grado o cantidad de evidencia en contra de H0, no de la magnitud.

Significativo prácticamente} Expresan una magnitud de cambio.

LA PRUEBA DE SIGNIFICANCIA ES MENOS ÚTIL QUE LOS INTERVALOS DE CONFIANZA

Lo importante es qué tan lejos cae el estimador del valor de la H0. El intervalo de confianza establece todos los valores

posibles, por lo tanto, podemos observar la maginitud del cambio o la distancia.

Cuando un valor de P es grande pero el intervalo de confianza es muy amplio, quiere decir que el parámetro estar muy

alejado de la H0, aún cuando no podemos rechazar la H0.

Ejemplo 6.8

Un verdadero efecto se da solo el 10% de las veces. Cuando un efecto existe, hay la posibilidad de cometer un error del

tipo II el 50% de las veces y no reconocerlo.

La hipótesis es que hay un alto grado de Errores Tipo II, porque no se pueden usar muestras grandes. Partiendo de este

supuesto ¿puede un porcentaje sustancioso de descubrimientos médicos ser en realidad Error Tipo I?

Dec

imo

s

Decisión correcta.

Ha

50

Sí efecto

Sí hay efecto (100)

Decimos que no hay efecto.

H0 falsa.

50

no hay efecto 1000 estudios

Error Tipo II

H0

45

sí hay efecto

No hay

efecto (900)

Error Tipo I

H0 cierta.

855

no hay efecto

Correcto

Con un 95% de confianza esperamos que el 5% de los estudios se equivoquen, es decir, que rechacen H0, cuando es

cierta.

6.6 CALCULANDO EL ERROR TIPO II

Ejemplo 6.9 (p. 166).

Page 64: Notas Estadistica

64

n = 116.

H0: 𝜋 = 1/3

Ha: 𝜋 > 1/3 } Si es verdadera.

Ha: 𝜋 ≥ 1/3 } 𝛼 = 0.05, rechazar H0: 𝜋 = 1/3.

H0: 𝑠𝑒0 = √.33(.77)

116= .0438

Debemos encontrar el valor del estimador ��. Usamos el valor de z de 1.645, porque en ese la probabilidad de rechazar es

de .05.

�� < 1/3 + 1.645(.0438) =.405

Con eso se tiene, que para que un valor caiga arriba del 𝛼 = .05 es de .405, por ello se tiene que para calcular el Error

Tipo II:

Ha: 𝑠𝑒 = √.50(.50)

116= .0464

𝑧 =. 405 − .5

. 0464= −2.04

Cuando z = -2.04, el valor de P es igual .02. Esto es, “en el 2% de los casos se va a cometer el Error Tipo II.

Error Tipo II: Aumenta al acercarse el valor del parámetro H0. . A menor valor de 𝛼 mayor Error Tipo II. Al usar 𝛼 = .0001

hace que el Error Tipo II aumente mucho.

P(Error Tipo II): Disminuye cuando

El parámetro se aleja H0.

Cuando aumenta el tamaño de la muestra.

Cuando aumenta P(Error Tipo I).

EL PODER DE LA PRUEBA

Cuando H0 es falsa queremos aumentar la probabilidad de rechazar H0. La probabilidad de rechazar la H0 es el poder de

la prueba. Para un valor particular de un parámetro dentro del rango de la Ha:

𝑃𝑜𝑑𝑒𝑟 = 1 − 𝑃(𝐸𝑟𝑟𝑜𝑟 𝑇𝑖𝑝𝑜 𝐼𝐼)

Page 65: Notas Estadistica

65

En el ejemplo 6.9, la prueba de H0: 𝜋 = 1/3 tiene P(Error Tipo II) = 0.02 para 𝜋 = 0.50. En este caso el poder sería

𝑃𝑜𝑑𝑒𝑟 = 1 − .02 = .98

6.7 PRUEBA DE MUESTRAS PEQUEÑAS PARA PROPORCIONES, LA DISTRIBUCIÓN BINOMIAL

Cuando n es pequeña, i.e. n = 5, entre más cercano esté 𝜋 de 0 o de 1, mayor será el sesgo.

La distribución binomial:

1. Cada observación cae en una de dos categorías, i.e. Trabaja, no trabaja.

2. Las probabilidades para las 2 categorías son las mismas en cada observación. Probabilidad 𝜋 para categoría 1 y (1-

𝜋) para categoría 2.

3. Los resultados de las observaciones sucesivas son independientes. Esto es, el resultado de las observaciones no tiene

nada que ver con la otra.

Ejemplo: Echar una moneda al aire.

Para n observaciones, x es el número 1 de veces que ocurre en categoría 1.

Por ejemplo, para n = 5 giros de moneda, x = número de casos , puede ser 0, 1, 2, 3, 4 o 5. La variable x es discreta.

Fórmula:

𝑃(𝑥) =𝑛!

𝑥! (𝑛 − 𝑥)!𝜋𝑥(1 − 𝜋)𝑛−𝑥 𝑥 = 0, 1, 2, … , 𝑛.

𝑛! = Representa 1x2x3x…xn.

1! = 1, 2! = 1x2= 2, 3! = 1x2x3 = 6. 0! = 1, por definición.

La suma de probabilidades = 1.

Ejemplo 6.10 Género y selección para entrenamiento de administradores.

Sesgo de género. Marco muestral 50% de mujeres y 50% hombres. Se eligen 10 de manera aleatoria ¿Si se eligen de

manera aleatoria, cuántas mujeres debemos esperar?

Probabilida de elegir una mujer 𝜋 = 0.50 y un hombre 𝜋 = (1 − 0.50) = 0.50. n = 10. x = mujeres seleccionadas, 10

mujeres.

𝑃(𝑥) =10!

𝑥! (10 − 𝑥)!(.50)𝑥(.50)10−𝑥

𝑃(10) =10!

0! 10!(.50)0(.50)10 = (.5)10 = .001

La probabilida de elegir solo 1:

𝑃(1) =101!

1! 9!(.50)1(.50)9 = 10(.5)(.5)9 = 0.010

Los valores menos probables son 0, 1 y 10. Los cuales tiene una probabilidad combinada de 0.022.

Page 66: Notas Estadistica

66

No es muy probable que 1 o 10 sean elegidas, las probabilidades de las mujeres determinan la de los hombres.

Propiedades:

1. Es perfecta simetricamente cuando 𝜋 = .50.

2. La proporción muestral �� se relaciona con �� =𝑥

𝑛. Cuando 𝜋 ≠ .50 Sesgo, mayor cuando 𝜋 se acerca a 0 o a 1.

𝜇 = 𝑛𝜋 𝜎 = √𝑛𝜋(1 − 𝜋)

Ejemplo 6.11 (p. 127).

¿Cuánta variablidad puede mostrar una encuesta de salida?

2,705 votantes.

Elección de gobernador de California.

En una población de casi 7 millones, 55.9% votaron por el candidato x. Si en la encuesta, los encuestados se eligieron de

manera aleatoria, entonces

Distribución binomial para x.

n = 2705 y 𝜋 = .559.

𝜇 = 𝑛𝜋 = 2705(.559) = 1512.

𝜎 = √2705(.559)(.441) = 26.

Lo más seguro (casi seguro) de que va a caer a 3 desviaciones estándar de la media. Este es el intervalo: 1434 a 1590.

1512 ± (26)(3) = 1434, 1590.

Es una distribución normal por ser una muestra muy grande. ¿Qué tan grande? Al menos 10 observaciones de cada

categoría. Si la proporción es de 90 vs 10, necesitamos 𝑛 ≥ 100.

PRUEBA BINOMIAL

Si la muestra es grande se puede usar la prueba de distribución normal.

Ejemplo 6.10 Discriminación de género.

Aleatoria Probabilidad 𝜋 de que alguien sea elegido mujer .50.

Si hay sesgo, 𝜋 < .50.

H0: 𝜋 = 0.50 vs Ha: 𝜋 < 0.50 x = número de mujeres.

Bajo H0 la distribución muestral de x es la distribución binomial n = 10 y 𝜋 = 0.50

Supón que x = 1

Page 67: Notas Estadistica

67

Valor de P Cola izquierda, la probabilidad de que el 1 resultado sea al menos este extremo. Esto es: x = 100. De la

tabla

P = P(0)+P(1) = 0.001+0.010=.011.

.011 Es la evidencia en contra de la H0. Aún si sospechamos de sesgo en una dirección la manera más pareja de usar la

prueba requiere de 2 colas.

Para Ha: 𝜋 ≠ .50 el valor de P es 2(.011) = .022.

En el caso la distribución binomial para que la muestra sea independiente es necesario que la población sea mucho más

grande que la muestra. La muestra no debe ser mayo al 10% del total del mínimo para ambos grupos.

𝐴 + 𝐵 = 𝑁

𝑎 + 𝑏 + 10%