probabilidad

25
INSTITUTO TECNOLÓGICO SUPERIOR DE TEPOSCOLULA INGENIERÍA EN SISTEMAS COMPUTACIONALES PROBABILIDAD Y ESTADISTICA TEMAS: 2.8 Variables aleatorias conjuntas. 2.9 Modelos analíticos de fenómenos aleatorios discretos. 2.10 Modelos analíticos de fenómenos aleatorios continuos. DORIS LÁZARO CHÁVEZ CATEDRÁTICO: ING. IVAN ESPINOSA LÓPEZ SAN PEDRO Y SAN PABLO TEPOSCOLULA, A 14 DE MARZO DE 2011.

Upload: doris-lazaro-chavez

Post on 04-Jul-2015

3.989 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: PROBABILIDAD

INSTITUTO TECNOLÓGICO

SUPERIOR DE TEPOSCOLULA

INGENIERÍA EN SISTEMAS COMPUTACIONALES

PROBABILIDAD Y ESTADISTICA

TEMAS:

2.8 Variables aleatorias conjuntas. 2.9 Modelos analíticos de fenómenos aleatorios discretos. 2.10 Modelos analíticos de fenómenos aleatorios continuos.

DORIS LÁZARO CHÁVEZ

CATEDRÁTICO: ING. IVAN ESPINOSA LÓPEZ

SAN PEDRO Y SAN PABLO TEPOSCOLULA, A 14 DE MARZO DE 2011.

Page 2: PROBABILIDAD

2

ÍNDICE

INTRODUCCIÓN----------------------------------------------------------------------- 3

2.8 Variables aleatorias conjuntas. --------------------------------------------------------- 4 Distribuciones De Probabilidad Conjunta --------------------------------------- 4

Distribuciones marginales de probabilidad -------------------------------------- 5 Distribuciones condicionales de probabilidad ---------------------------------- 6 Media y varianza para variables aleatorias conjuntas------------------------ 7 Covarianza ------------------------------------------------------------------------------- 8

2.9 Modelos analíticos de fenómenos aleatorios discretos. ------------------------- 10

2.9.1 Funciones de Probabilidad (Discreto). --------------------------------------- 10

2.9.1.1 Definición de variables aleatoria discreta. --------------------- 10

2.9.2 Función de probabilidad y de distribución, valor esperado, varianza y

desviación estándar. --------------------------------------------------------------------------- 11

Función de probabilidad -------------------------------------------------------------- 11

Distribución de probabilidad --------------------------------------------------------- 11

Definición de función de distribución ---------------------------------------------- 12

Esperanza matemática --------------------------------------------------------------- 12

Desviación estándar de una variable aleatoria discreta --------------------- 14

2.9.3 Distribuciones y otros (Discreto). ---------------------- 15

Distribución Binomial. --------------------------------- 15

Distribución hipergeométrica. ---------------------------------------- 16

Aproximación de la hipergeométrica por la binomial. ---------- 17

Distribución geométrica ------------------------------------------------ 18 Distribución poisson ---------------------------------------------------- 18

2.10 Modelos analíticos de fenómenos aleatorios continuos. ---------------------- 20 Definición de variables aleatorias continuas. -------------------------------- 20

Función de distribución ------------------------------------------------------ 21

Distribuciones y otros (Continuos). --------------------------- 22 Distribución Uniforme y Exponencial --------------------- 22

Distribución normal. ---------------------------------------------------------- 22

CONCLUSION ----------------------------------------------------------------------------------- 24

BIBLIOGRAFIA ---------------------------------------------------------------------------------- 25

Page 3: PROBABILIDAD

3

INTRODUCCIÓN

En la vida cotidiana sin darnos cuenta nos enfrentamos a situaciones en las cuales

existen sucesos difíciles de cuantificar, es en este caso cuando hacemos uso de

las Técnicas de Conteo, sin embargo, en los temas vistos anteriormente durante el

curso hemos visto técnicas que no son muy complejas, pero a como avanza el

curso se muestran técnicas cada vez más complicadas es por eso que para

entender un poco mejor en qué consisten estas técnicas se realizó la siguiente

investigación.

Primero que nada queda claro que en esta unidad hemos trabajado utilizando

términos como lo que son las variables y estas se pueden entender como términos

que no tienen bien definido su valor, es decir, puede tomar diferentes valores

dependiendo de la situación en la que nos encontremos.

Algunos experimentos estadísticos pueden incluir más de una variable aleatoria

las cuales actúan en forma conjunta, y es de interés determinar la probabilidad

correspondiente a los diferentes valores que estas variables puedan tomar, debido

a que el que suceda una u otra afectará directamente la ocurrencia del siguiente.

En esta sección revisamos las distribuciones de probabilidad para dos variables

aleatorias que intervienen en forma conjunta, así como también se hace mención

de modelos analíticos de Fenómenos Aleatorios Continuos y Discretos.

Se abordaran los 3 últimos temas de la segunda unidad de la asignatura de

Probabilidad y Estadística:

2.8 Variables aleatorias conjuntas. 2.9 Modelos analíticos de fenómenos aleatorios discretos. 2.10 Modelos analíticos de fenómenos aleatorios continuos.

A lo largo de cada uno de estos temas se hará mención de las diferentes medidas

de tendencia central, así como sus propiedades, características y lo principal cada

una de sus formulas .

Page 4: PROBABILIDAD

4

2.8 Variables aleatorias conjuntas.

DISTRIBUCIONES DE PROBABILIDAD CONJUNTA

Caso discreto

Definición Sean X, Y: variables aleatorias discretas. Entonces su función de distribución de probabilidad conjunta es f(x,y) Esta función satisface las siguientes propiedades

1) xy (f(x,y)0)

2) x y

1yxf ),(

3) P(X=x,Y=y) = f(x,y) También se puede definir la distribución de probabilidad acumulada conjunta:

F(x,y) = P(Xx,Yy) = xs yt

tsf ),( , -x,y .

Caso continuo

Definición

Sean X, Y: dos variables aleatorias continuas, entonces su función de densidad conjunta

es f(x,y)

Esta función satisface las siguientes propiedades

1) f(x,y)0, x, y

2)

1dxdyyxf ),(

3) P(aXb, cYd) = d

c

b

a

dxdyyxf ),(

La función de densidad de probabilidad de dos variables aleatorias continuas

X, Y, es una superficie en el espacio.

La probabilidad P(aXb, cYd) es entonces una porción del volumen debajo de la

superficie y sobre el rectángulo aXb, cYd

La función de distribución conjunta acumulada es:

P(Xx, Yy) = F(x,y) =

y x

dudvvuf ),( .

Page 5: PROBABILIDAD

5

DISTRIBUCIONES MARGINALES DE PROBABILIDAD

Estas definiciones corresponden a funciones de probabilidad de cada variable.

Definición

Caso discreto (dos variables)

Sean X,Y variables aleatorias discretas y f(x,y) su función de probabilidad conjunta.

Entonces, las funciones de probabilidad

g(x)=P(X=x)=y

yxf ),(

h(y)=P(Y=y)= x

yxf ),(

Se denominan funciones marginales de probabilidad .

Caso continuo (dos variables)

Sean X,Y variables aleatorias continuas y f(x,y) su función de densidad de probabilidad

conjunta.

Entonces, las funciones de densidad de probabilidad

g(x)=

dyyxf ),(

h(y)=

dxyxf ),(

Se denominan funciones marginales de densidad de probabilidad .

Para cada variable la distribución marginal se obtiene sumando la función de probabilidad

sobre la otra variable.

Page 6: PROBABILIDAD

6

DISTRIBUCIONES CONDICIONALES DE PROBABILIDAD

Recordemos la fórmula de probabilidad condicional para eventos

P(A|B) = P(AB)/P(B)

Si definimos los eventos

A: X=x

B: Y=y

Siendo X, Y variables aleatorias discretas con distribución de probabilidad conjunta f(x,y),

entonces,

P(X=x|Y=y) = )(

),(

yYP

yYxXP

Que se puede expresar con la notación establecida para las distribuciones conjuntas:

f(x|y) = )(

),(

yh

yxf

f(x|y) también satisface las propiedades de las funciones de probabilidad

Definición

Sean X, Y variables aleatorias discretas con distribución de probabilidad f(x,y)

Entonces, la distribución condicional de X dado que Y=y, es

f(x|y) = )(

),(

yh

yxf

Y la distribución condicional de Y dado que X=x, es

f(y|x) = )x(g

)y,x(f .

Definición

Sean X, Y variables aleatorias continuas con densidad de probabilidad f(x,y)

Entonces, la densidad condicional de X dado que Y=y, es

f(x|y) = )(

),(

yh

yxf

Y la densidad condicional de Y dado que X=x, es

f(y|x) = )(

),(

xg

yxf.

Las distribuciones condicionales también se pueden usar para calcular probabilidad:

Caso discreto: P(aXb|Y=y) =

b

ax

yxf )|(

Caso continuo: P(aXb|Y=y) = b

a

dxyxf )|(

Sustituyendo en la densidad condicional inicial se obtiene f(x,y) = g(x) h(y)

Page 7: PROBABILIDAD

7

Definición

Se dice que X, Y son variables aleatorias continuas estadísticamente independientes si y

solo si f(x,y) = g(x) h(y), en el dominio de x, y .

Esta definición se puede extender a más variables aleatorias continuas.

En el caso de variables aleatorias discretas, para que esta definición sea cierta, debe

cumplirse que en cada punto, el producto de las distribuciones marginales sea igual a la

distribución conjunta .

MEDIA Y VARIANZA PARA VARIABLES ALEATORIAS CONJUNTAS

Sean X, Y variables aleatorias con distribución de probabilidad conjunta f(x,y) Sea G(X,Y), alguna expresión con X,Y. Por lo tanto G también es una variable aleatoria. Definición Si X, Y son variables aleatorias discretas . La media o valor esperado de G(X,Y), es

X Y

YXG yxfyxGYXGE ),(),(),(),(

Si X, Y son variables aleatorias continuas. La media o valor esperado de G(X,Y), es

dxdyyxGYXGEYXG ),(),(),( .

. CASO ESPECIAL

Si G(X,Y) = X

)(),(),( xgxyxfxyxxfXEX Y x y x

X

Si G(X,Y) = Y

X Y y x y

Y yyhyxfyyxyfYE )(),(),( .

en donde g(x), h(y) son las distribuciones marginales Igualmente para el caso continuo: Si G(X,Y) = X

dxxxgXEX )(

Si G(X,Y) = Y

dyyyhYEY )( .

en donde g(x), h(y) son las densidades marginales

Page 8: PROBABILIDAD

8

COVARIANZA

La definición de varianza se extiende a variables aleatorias conjuntas y se denomina

covarianza

Definición

Sean X, Y variables aleatorias discretas con distribución conjunta f(x,y)

Entonces, la covarianza de X, Y es

x y

YXYXXY yxfyxYXEYXCov ),())(())((,

Sean X, Y variables aleatorias continuas con densidad conjunta f(x,y)

Entonces, la covarianza de X, Y es

dxdyyxfyxYXEYXCov YXYXXY ),())(())((,

Igualmente, se puede obtener una fórmula alterna para calcular la covarianza:

YXXY XYEYXCov , .

Demostración

Cov[X,Y] = E[(X-X)(Y-Y)] = E[XY - XY - YX + XY]

= E[XY] - YE[X] - XE[Y] + XY

= E[XY] - YX - XY + XY

= E[XY] - XY Propiedades de la covarianza Si X, Y son variables aleatorias estadísticamente independientes, entonces Cov[X,Y] = 0 .

Signos de la covarianza

La covarianza tiene signo positivo si valores grandes de X están asociados con valores

grandes de Y, o si valores pequeños de X están asociados con valores pequeños de Y.

La covarianza tiene signo negativo si valores grandes de la una variable están asociados

con valores pequeños de la otra variable.

Este comportamiento se puede observar en la definición de covarianza:

x y

YXYX yxfyxYXEYXCov ),())(())((,

Si los valores de X, Y son ambos grandes o ambos pequeños, el producto de sus

diferencias con respecto a sus medias tendrá signo positivo, y la suma de estos términos

tendrá signo positivo. También es cierto con variables continuas

Page 9: PROBABILIDAD

9

Definición Sean X, Y variables aleatorias conjuntas (discretas o continuas) entonces, el coeficiente de correlación de X, Y es:

YX

XY

YX

XY

YXCov

,, 11 XY .

El símbolo del alfabeto griego se lee “ro” y es una medida estandarizada de la

covarianza.

Esta definición puede extenderse a más variables aleatorias conjuntas

Page 10: PROBABILIDAD

10

2.9 Modelos analíticos de fenómenos aleatorios discretos. 2.9.1 Funciones de Probabilidad (Discreto).

Toda distribución de probabilidad es generada por una variable aleatoria x, la que

puede ser de dos tipos (discreto y continuo), en este caso únicamente vamos a ver la

discreta:

2.9.1.1 Definición de variables aleatoria discreta.

Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes

valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo

puede tomar valores enteros y un número finito de ellos.

Ejemplos:

x Variable que nos define el número de burbujas por envase de vidrio que son

generadas en un proceso dado.

x0, 1, 2, 3, 4, 5, etc, etc. burbujas por envase

xVariable que nos define el número de productos defectuosos en un lote de 25

productos.

x0, 1, 2, 3,....,25 productos defectuosos en el lote

xVariable que nos define el número de alumnos aprobados en la materia de

probabilidad en un grupo de 40 alumnos.

x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad

Con los ejemplos anteriores nos damos cuenta claramente que los valores de la

variable x siempre serán enteros, nunca fraccionarios.

Page 11: PROBABILIDAD

11

2.9.1.2 Función de probabilidad y de distribución, valor

esperado, varianza y desviación estándar.

Función de probabilidad

En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia a cada punto de su espacio muestral X la probabilidad de que ésta lo asuma.

En concreto, si el espacio muestral, E de la variable aleatoria X consta de los puntos x1, x2, ..., xk, la función de probabilidad P asociada a X es

donde pi es la probabilidad del suceso X = xi.

Por definición de probabilidad,

Hay que advertir que el concepto de función de probabilidad sólo tiene sentido para variables aleatorias que toman un conjunto discreto de valores. Para variables aleatorias continuas el concepto análogo es el de función de densidad.

Distribución de probabilidad

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los eventos rango de valores de la variable aleatoria.

Cuando la variable aleatoria toma valores en el conjunto de los números reales, la distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x.

Page 12: PROBABILIDAD

12

Definición de función de distribución

Dada una variable aleatoria todos son puntos , su función de distribución, , es

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice y se escribe, simplemente, .

Propiedades Como consecuencia casi inmediata de la definición, la función de distribución:

Es una función continua por la derecha. Es una función monótona no decreciente.

Además, cumple

y

Para dos números reales cualesquiera a y b tal que (a < b), los sucesos

y son mutuamente excluyentes y su unión es el suceso

, por lo que tenemos entonces que:

y finalmente

Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable. Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.

Esperanza matemática

En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X, es el número

que formaliza la idea de valor medio de un fenómeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser

Page 13: PROBABILIDAD

13

"esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.

Definición

Para una variable aleatoria discreta con valores posibles y sus probabilidades representadas por la función de probabilidad p(xi) la esperanza se calcula como:

Para una variable aleatoria continua la esperanza se calcula mediante la integral

de todos los valores y la función de densidad :

La definición general de esperanza se basa, como toda la teoría de la probabilidad, en el marco de la teoría de la medida y se define como la siguiente integral:

La esperanza también se suele simbolizar con

Las esperanzas para se llaman momentos de orden . Más

importantes son los momentos centrados .

No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la distribución de Cauchy no lo tiene.

Propiedades

La esperanza es un operador lineal, ya que:

Page 14: PROBABILIDAD

14

Combinando estas propiedades, podemos ver que -

donde e son variables aleatorias y y y son tres constantes cualesquiera.

La varianza de una variable aleatoria discreta se define como el promedio ponderado de los cuadros de las diferencias entre cada resultado posible y su media.

Esta medida se puede obtener multiplicando el cuadrado de cada diferencia posible. por su probabilidad correspondiente y luego sumando los productos obtenidos.

DESVIACIÓN ESTANDAR DE UNA VARIABLE ALEATORIA DISCRETA

Se dice que un modelo es la representación en miniatura de algunos fenómenos relevantes. En particular, un modelo matemático es una expresión matemática que representa algún fenómeno relevante. Para variables aleatorias discretas, esta expresión matemática se conoce como función de distribución de probabilidad.

Page 15: PROBABILIDAD

15

2.9.2 Distribuciones y otros (Discreto).

2.9.2.1 Distribución Binomial.

Supongamos que un experimento aleatorio tiene las siguientes características:

En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su contrario (fracaso).

El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.

La probabilidad del suceso A es constante, la representamos por p, y no varía de una prueba a otra. La probabilidad es 1- p y la representamos por q .

El experimento consta de un número n de pruebas.

Todo experimento que tenga estas características diremos que sigue el modelo de la distribución Binomial. A la variable X que expresa el número de éxitos obtenidos en cada prueba del experimento, la llamaremos variable aleatoria binomial.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas. Como hay que considerar todas las maneras posibles de obtener k-éxitos y (n-k) fracasos debemos calcular éstas por combinaciones (número combinatorio n sobre k).

La distribución Binomial se suele representar por B(n,p) siendo n y p los parámetros de dicha distribución.

Función de Probabilidad de la v.a. Binomial

Función de probabilidad de la distribución Binomial o también denominada función de la distribución de Bernoulli (para n=1). Verificándose:

Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido tablas para algunos valores de n y p que nos facilitan el trabajo.

Page 16: PROBABILIDAD

16

Parámetros de la Distribución Binomial

Función de Distribución de la v.a. Binomial

siendo k el mayor número entero menor o igual a xi.

Esta función de distribución proporciona, para cada número real xi, la probabilidad de que la variable X tome valores menores o iguales que xi.

han construido tablas para algunos valores de n y p que nos facilitan el trabajo. Sea X una variable aleatoria discreta correspondiente a una distribución binomial.

DISTRIBUCIÓN HIPERGEOMÉTRICA.

Los experimentos que tienen este tipo de distribución tienen las siguientes

características:

a) Al realizar un experimento con este tipo de distribución, se esperan dos tipos de resultados. b) Las probabilidades asociadas a cada uno de los resultados no son constantes. c) Cada ensayo o repetición del experimento no es independiente de los demás. d) El número de repeticiones del experimento (n) es constante.

nN

xnaNxa

C

C*C)n,x(p

Page 17: PROBABILIDAD

17

APROXIMACIÓN DE LA HIPERGEOMÉTRICA POR LA BINOMIAL.

Diremos en general que una v.a. X sigue una distribución hipergeométrica de parámetros, N, n y p,

lo que representamos del modo , si su función de probabilidad es

Observación

Cuando el tamaño de la población (N) es muy grande, la ley hipergeométrica tiende a aproximarse

a la binomial:

El valor esperado de la hipergeométrica es el mismo que el de la binomial,

sin embargo su varianza

no es exactamente la de la binomial, pues está corregida por un factor, , que tiende a 1

cuando . A este factor se le denomina factor de corrección para población finita.

Page 18: PROBABILIDAD

18

DISTRIBUCIÓN GEOMETRICA

Esta distribución indica exactamente el número de repeticiones del experimento hasta lograr la característica de interés.

Se genera la simulación de variables aleatorias tipo Geométrica a partir del método de la transformada inversa.

DISTRIBUCIÓN POISSON

Sirve para trabajar en teoría de colas.

Para simular una distribución Poisson se deben usar sus propiedades estadísticas.

Page 19: PROBABILIDAD

19

APROXIMACIÓN DE LA BINOMIAL POR LA DE POISSON.

APROXIMACIÓN DE POISSON A LA BINOMIAL.

En este caso se determinarán probabilidades de experimentos Binomiales, pero que dadas sus características, es posible aproximarlas con la distribución de

Poisson, estas características son, n ( n es muy grande) y p0 (p es muy pequeña), por lo que:

La expresión anterior solo se cumple cuando n y p0, solo en este caso, si esto no se cumple, la aproximación no se puede llevar a efecto, por lo que la fórmula a utilizar en este caso sería:

Donde:

== np = número esperado de éxitos = tasa promedio de éxitos

n = número de repeticiones del experimento

p = probabilidad de éxito = p(éxito)

Una regla general aceptable es emplear esta aproximación si n20 y p0.05: sí n100,

la aproximación es generalmente excelente siempre y cuando np10.

!xqpC)p,n,x(p

x

xnx

xn

!x),x(p

x

Page 20: PROBABILIDAD

20

2.10 Modelos analíticos de fenómenos aleatorios continuos.

Definición de variables aleatorias continuas.

Variable aleatoria continua (x). Se le denomina variable porque puede tomar

diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y

continua porque puede tomar tanto valores enteros como fraccionarios y un

número infinito de ellos.

Ejemplos:

xVariable que nos define el diámetro de un engrane en pulgadas

x5.0”, 4.99, 4.98, 5.0, 5.01, 5.0, 4.96

xVariable que nos define la longitud de un cable o circuito utilizado en un arnés

de auto

x20.5 cm, 20.1, 20.0, 19.8, 20,6, 20.0, 20.0

xVariable que nos define la concentración en gramos de plata de algunas

muestras de mineral

x14.8gramos, 12.0, 10.0, 42.3, 15.0, 18.4, 19.0, 21.0, 20.8

Función de densidad

Una función y=f(x) es una función de densidad de una variable aleatoria continua si cumple las siguientes condiciones :

Page 21: PROBABILIDAD

21

FUNCIÓN DE DISTRIBUCIÓN

En general, la función de distribución de una variable aleatoria continua X es el modelo teórico de la curva de frecuencias acumuladas que se espera obtener para X, y debe cumplir, evidentemente, estas propiedades:

Ser creciente Tomar valores de 0 a 1

Es decir, la función de distribución F(x) es una primitiva de la función de densidad f(x), o dicho de otra forma, la función de densidad es la derivada de la función de distribución.

Indica la probabilidad de que la variable aleatoria continua X sea menor o igual que un valor dado, es decir, proporciona la probabilidad acumulada hasta un determinado valor de la variable.

Page 22: PROBABILIDAD

22

4.2. Distribuciones y otros (Continuos).

4.2.1. Distribución Uniforme y Exponencial.

La distribución uniforme

Las distribuciones uniformes corresponden al experimento de elegir dos puntos al azar entre dos fijos m y n. Como la probabilidad de elegir cualquier punto es la misma, la función de densidad tendrá la misma altura en todos los puntos entre m y n, es decir se trata de una función constante desde m a n, de altura 1/(m-n).

La distribución exponencial

Las distribuciones exponenciales se utilizan como modelo para representar tiempos de funcionamiento o tiempos de espera. Su función de densidad que depende de un parámetro k es de la forma f(x)=ke-kx

La media de esta distribución es 1/k y la desviación típica también es 1/k

DISTRIBUCIÓN NORMAL.

Características:

a) Es generada por una variable de tipo continuo, denominada x;

- x

b) La función que nos define esta distribución es:

- x

Al dar a la función los valores de , 2 y valores a x, obtendremos la distribución en

cuestión, la que tiene forma de campana, por lo que también se le conoce como campana

de Gauss. Hay un número infinito de funciones de densidad Normal, una para cada

combinación de y . La media mide la ubicación de la distribución y la desviación

estándar mide su dispersión.

c) Es simétrica con respecto a su eje vertical.

22 22

2

1

/)x(),,x(f

Page 23: PROBABILIDAD

23

d) Es asintótica con respecto a su eje horizontal; esto quiere decir que jamás va a tocar el

eje de las equis.

e) El área total bajo la curva es 1.

f) Sí sumamos a , se observará que aproximadamente el 68.26% de los datos

se encuentran bajo la curva, si sumamos a 2, el 95.44% de los datos estará entre

esos límites y si sumamos a 3, entonces el 99.74% de los datos caerá dentro de

esos límites. Esta característica es a la vez una forma empírica y rápida de demostrar si

los datos que se analizan tienen una distribución Normal; ya que para trabajar los datos

con esta distribución, debe verificarse que efectivamente así se distribuyen, ya que de no

hacerlo, las decisiones que en un momento dado se tomarán de un análisis de los datos

con la distribución Normal, serían erróneas.

¿Cómo se determinan probabilidades con la distribución Normal?

De acuerdo a como se trataron las distribuciones de probabilidad continuas en la unidad

III, lo más lógico es que la función f(x, , 2), se integre entre los límites de la variable x;

esto es,

La integral anterior nos daría el área bajo la curva de la función, desde a hasta b, que

corresponde o es igual a la probabilidad buscada.

Debido a la dificultad que se presenta para integrar esta función cada vez que sea

necesario, lo que se hace es tipificar el valor de la variable x, esto es, x se transforma en

un valor de z, de la siguiente manera:

Este valor de z es buscado en una tabla donde vienen áreas asociadas a este valor, y

haciendo uso de los valores tabulados, se determina la probabilidad requerida. La tabla

que es usada para calcular las probabilidades es la que nos dá el área.

b

a

dx),,x(f)bxa(p 2

valorx

z

Page 24: PROBABILIDAD

24

CONCLUSION

Una vez terminada la investigación concluyo que en la probabilidad existen

diferentes términos que ahora ya han quedado bien definidos como los son las

medidas de tendencia central eéste tipo de medidas con ciertas tendencias

centrales o dispersas son muy importantes y tienen una gran aplicación en la

solución de problemas en el área de estudio a partir de datos agrupados o datos

no agrupados para poder entender mejor el comportamiento de algunas variables

que para algunas empresas representa tiempo, esfuerzo o costos y que se pueden

optimizar mediante la aplicación de este tipo de cálculos estadísticos y que se

pueden representar de una manera fácil y entendible mediante de gráficos e

histogramas con la información necesaria para el interesado ayudándolo a un

mejor entendimiento y comprensión del problema en cuestión.

Así también se hizo mención de algunos teoremas éstos son aplicables para

resolver diferentes tipos de problemas tomando en cuenta cierto tipo de

limitaciones o característicos del problema que una vez entendiendo el tema se

pueden aplicar estas características que son de suma importancia para resolver

diversos problemas en el área de estudio partiendo de datos reales encontrando

soluciones reales. Con la finalidad de minimizar costos, esfuerzos y tiempos y

optimizar adecuadamente ciertos procesos logrando una mayor productividad para

la empresa.

En la mayoría de las veces para hacer uso de los métodos mencionados

anteriormente se necesita de datos agrupados, que es para ellos donde se utilizan

las formulas de varianza, desviación estándar, entre otras.

Page 25: PROBABILIDAD

25

BIBLIOGRAFIA www.ocw.espol.edu.ec/instituto-de-ciencias-matematicas/estadistica/ http://www.itescam.edu.mx/principal/sylabus/rptSylabus.php?tipo=PDF&id_asignatura=256&clave_asignatura=INB-0402&carrera=IIND0405001 http://centros.edu.xunta.es/iesaslagoas/metodosesta/0documentos/T01_1_EstadisticaDescriptiva.pdf http://thales.cica.es/rd/Recursos/rd97/UnidadesDidacticas/53-1-u-punt11.html http://es.wikipedia.org/wiki/Funci%C3%B3n_de_probabilidad http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad http://www.itch.edu.mx/academic/industrial/sabaticorita/_private/04Distr%20Hipergeometrica%20Gral.htm http://www.itch.edu.mx/academic/industrial/sabaticorita/index.html http://es.wikipedia.org/wiki/Esperanza_matem%C3%A1tica http://www.itch.edu.mx/academic/industrial/sabaticorita/index.html http://personal5.iddeo.es/ztt/Tem/t19_distribucion_binomial.htm http://www.virtual.unal.edu.co/cursos/sedes/manizales/4060015/Lecciones/Capitulo%20VI/distribuciones1.htm Luna, Rita. Curso: PROBABILIDAD Y ESTADÍSTICA-DISTRIBUCIÓN

HIPERGEOMÉTRICA. Instituto Tecnológico de Chihuahua. México 2005. pp. 5.

Cetina López Wendy. APROXIMACIÓN DE LA HIPERGEOMÉTRICA POR LA BINOMIAL. México. 2005. pp. 3.