distribución de probabilidad estadistica

Upload: ana-rocio

Post on 06-Jul-2015

315 views

Category:

Documents


0 download

TRANSCRIPT

Distribucin normalDe Wikipedia, la enciclopedia libre Saltar a navegacin, bsquedaDistribucin normal Funcin de densidad de probabilidad

La lnea verde corresponde a la distribucin normal estndar

Funcin de distribucin de probabilidad

Parmetros >0 Dominio Funcin de densidad (pdf)

Funcin de distribucin (cdf)

Media Mediana Moda Varianza Coeficiente de simetra 0 Curtosis Entropa Funcin generadora de momentos (mgf) Funcin caracterstica 0

En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de variable continua que con ms frecuencia aparece en fenmenos reales. La grfica de su funcin de densidad tiene una forma acampanada y es simtrica respecto de un determinado parmetro. Esta curva se conoce como campana de Gauss. La importancia de esta distribucin radica en que permite modelar numerosos fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenmenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observacin se obtien como la suma de unas e pocas causas independientes. De hecho, la estadstica es un modelo matemtico que slo permite describir un fenmeno, sin explicacin alguna. Para la explicacin causal es preciso eldiseo experimental, de ah que al uso de la estadstica en psicologa y sociologa sea conocido como mtodo correlacional. La distribucin normal tambin es importante por su relacin con la estimacin por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos. Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son:y y y y y

caracteres morfolgicos de individuos como la estatura; caracteres fisiolgicos como el efecto de un frmaco; caracteres sociolgicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicolgicos como el cociente intelectual; nivel de ruido en telecomunicaciones;

y y

errores cometi os al medir ciertas magnit des; etc.

La distri ci n normal tambi n aparece en muchas reas de la propia estadstica. Por ejemplo, la distribuci n muestral de las medias muestrales es aproximadamente normal, cuando la distribuci n de la poblaci n de la cual se extrae la muestra no es normal.1 Adems, la distribuci n normal maximiza la entropa entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elecci n natural de la distribuci n subyacente a una lista de datos resumidos en t rminos de media muestral y varianza. La distribuci n normal es la ms extendida en estadstica y muchos tests estadsticos estn basados en una supuesta "normalidad". En probabilidad, la distribuci n normal aparece como el lmite de varias distribuciones de probabilidad continuas y discretas.

Conteni o[ocultar]y y

y

y y y y

y

1 Historia 2 Definici n formal o 2.1 Funci n de densidad o 2.2 Funci n de distribuci n 2.2.1 Lmite inferior y superior estrictos para la funci n de distribuci n o 2.3 Funciones generadoras 2.3.1 Funci n generadora de momentos 2.3.2 Funci n caracterstica 3 Propiedades o 3.1 Estandarizaci n de variables aleatorias normales o 3.2 Momentos o 3.3 El Teorema del Lmite Central o 3.4 Divisibilidad infinita o 3.5 Estabilidad 4 Desviaci n tpica e intervalos de confianza o 4.1 Forma familia exponencial 5 Distribuci n normal compleja 6 Distribuciones relacionadas 7 Estadstica descriptiva e inferencial o 7.1 Resultados o 7.2 Tests de normalidad o 7.3 Estimaci n de parmetros 7.3.1 Estimaci n de parmetros de mxima verosimilitud 7.3.1.1 Sorprendente generalizaci n 7.3.2 Estimaci n insesgada de parmetros 8 Incidencia o 8.1 Recuento de fotones o 8.2 Medida de errores o 8.3 Caractersticas fsicas de especmenes biol gicos

y

y y y

8.4 Variables financieras 8.5 Distribuciones en tests de inteligencia 8.6 Ecuacin de difusin 9 Uso en estadstica computacional o 9.1 Generacin de valores para una variable aleatoria normal o 9.2 Aproximaciones numricas de la distribucin normal y su funcin de distribucin 10 Vase tambin 11 Referencias 12 Enlaces externoso o o

Historia

Abraham de Moivre, descubridor de la distribucin normal La distribucin normal fue presentada por ve primera por Abraham de Moivre en un artculo del ao 1733,2 que fue reimpreso en la segunda edicin de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximacin de la distribucin binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teora analtica de las probabilidades (1812), y en la actualidad se llama Teorema de De Moivre-Laplace. Laplace us la distribucin normal en el anlisis de errores de experimentos. El importante mtodo de mnimos cuadrados fue introducido por Legendre en 1805. Gauss, que afirmaba haber usado el mtodo desde 1794, lo justific rigurosamente en 1809 asumiendo una distribucin normal de los errores. El nom de Gauss se ha bre asociado a esta distribucin porque la us con profusin cuando anali aba datos astronmicos3 y algunos autores le atribuyen un descubrimiento indepen diente del de 4 De Moivre. Esta atribucin del nombre de la distribucin a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler.

El nombre de "campana" viene de Esprit Jouffret que us el trmino "bell surface" (superficie campana) por primera ve en 1872 para una distribucin normal bivariante de componentes independientes. El nombre de "distribucin normal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.[cita requerida] A pesar de esta terminologa, otras distribuciones de probabilidad podran ser ms apropiadas en determinados contextos; vase la discusin sobre ocurrencia, ms abajo.

Definicin formalHay varios modos de definir formalmente una distribucin de probabilidad. La forma ms visual es mediante su funcin de densidad. De forma equivalente, tambin pueden darse para su definicin la funcin de distribucin, los momentos, la funcin caracterstica y la funcin generatri de momentos, entre otros.

Funcin de densidad

Se dice que una variable aleatoria continua X sigue una distribucin normal de parmetros y y se denota X~N( , ) si su funcin de densidad est dada por:

donde (miu) es la media y (sigma) es la desviacin tpica (

2

es la varian a).5

Se llama distribucin normal "estndar" a aqulla en la que sus parmetros toman los valores = 0 y = 1. En este caso la funcin de densidad tiene la siguiente expresin:

Su grfica se muestra a la derecha y con frecuencia se usan ...tablas para el clculo de los valores de su distribucin.

Funcin de distribucin

La funcin de distribucin de la distribucin normal est definida como sigue:

Por tanto, la funcin de distribucin de la normal estndar es:

Esta funcin de distribucin puede expresarse en trminos de unafuncin especial llamada funcin error de la siguiente forma:

y la propia funcin de distribucin puede, por consiguiente, expresarse as:

El complemento de la funcin de distribucin de la normal estndar, 1 (x), se denota con frecuencia Q(x), y es referida, a veces, como simplemente funcin Q, especialmente en textos de ingeniera.6 7 Esto representa la cola de probabilidad de la distribucin gaussiana. Tambin se usan ocasionalmente otras definiciones de la funcin Q, las cuales son todas ellas transformaciones simples de .8 La inversa de la funcin de distribucin de la normal estndar (funcin cuantil) puede expresarse en trminos de la inversa de la funcin de error:

y la inversa de la funcin de distribucin puede, por consiguiente, expresarse como:

Esta funcin cuantil se llama a veces la funcin probit. No hay una primitiva elemental para la funcin probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal funcin. Existen varios mtodos exactos para aproximar la funcin cuantil mediante la distribucin normal (vase funcin cuantil). Los valores (x) pueden aproximarse con mucha precisin por distintos mtodos, tales como integracin numrica, series de Taylor, series asintticas y fracciones continuas. Lmite inferior y superior estrictos para la funcin de distribucin Para grandes valores de x la funcin de distribucin de la normal estndar prxima a 1 y est muy cerca de 0. Los lmites elementales es muy

en trminos de la densidad son tiles. Usando el cambio de variable v = u/2, el lmite superior se obtiene como sigue:

De forma similar, usando

y la regla del cociente,

Resolviendo para

proporciona el lmite inferior.

Funciones generadorasFuncin generadora de momentos

La funcin generadora de momentos se define como la esperan a de e(tX). Para una distribucin normal, la funcin generadora de momentos es:

como puede comprobarse completando el cuadrado en el exponente.

Funcin caracterstica La funcin caracterstica se define como la esperan a de eitX, donde i es la unidad imaginaria. De este modo, la funcin caracterstica se obtiene reempla andot por it en la funcin generadora de momentos. Para una distribucin normal, la funcin caracterstica es9

PropiedadesAlgunas propiedades de la distribucin normal son: 1. Es simtrica respecto de su media, ;

Distribucin de probabilidad alrededor de la media en una distribucin N( , ). 2. La moda y la mediana son ambas iguales a la media, ; yx= 3. Los puntos de inflexin de la curva se dan para x = 4. Distribucin de probabilidad en un entorno de la media:

+ .

1. en el intervalo [ - , + ] se encuentra comprendida, aproximadamente, el 68,26% de la distribucin; 2. en el intervalo [ - 2 , + 2 ] se encuentra, aproximadamente, el 95,44% de la distribucin; 3. por su parte, en el intervalo [ -3 , + 3 ] se encuentra comprendida, aproximadamente, el 99,74% de la distribucin. Estas propiedades son de gran utilidad para el establecimiento de intervalos de confian a. Por otra parte, el hecho de que prcticamente la totalidad de la distribucin se encuentre a tres desviaciones tpicas de la media justifica los lmites de las tablas empleadas habitualmente en la normal estndar. 5. Si X ~ N( , 2) y a y b son nmeros reales, entonces (aX + b) ~ N(a +b, a2 2). 6. Si X ~ N( x, x2) e Y ~ N( y, y2) son variables aleatorias normales independientes, entonces: 2 o Su suma est normalmente distribuida con U = X + Y ~ N( x + y, x + 2 y ) (demostracin). Recprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crmer). o Su diferencia est normalmente distribuida con . Si las varian as de X e Y son iguales, entonces U y V son independientes entre s. o La divergencia de Kullback-Leibler,o

Si e son variables aleatorias independientes normalmente distribuidas, entonces: o Su producto XY sigue una distribucin con densidad p dada por

donde K0 es una funcin de Bessel modificada de segundo tipo.o

Si Si

Su cociente sigue una distribucin de Cauchy con X / YCauchy(0, X / Y). De este modo la distribucin de Cauchy es un tipo especial de distribucin cociente. son variables normales estndar independientes, entonces sigue una distribucin con n grados de libertad. son variables normales estndar independientes, entonces la y la varian a muestral

media muestral

son independientes. Esta propiedad caracteri a a las distribuciones normales y contribuye a explicar por qu el test-F no es robusto respecto a la no-normalidad).

Estandarizacin de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables aleatorias normales con la distribuci n normal estndar. Si X ~ N( , 2), entonces

es una variable aleatoria normal estndar: Z ~ N(0,1). La transformaci n de una distribuci n X ~ N( , ) en una N(0, 1) se llama normali aci n, estandari aci n o ti i icaci n de la variable X. Una consecuencia importante de esto es que la funci n de distribuci n de una distribuci n normal es, por consiguiente,

A la inversa, si Z es una distribuci n normal estndar, Z ~ N(0,1), entonces X= Z+ es una variable aleatoria normal tipificada de media y varianza2

.

La distribuci n normal estndar est tabulada (habitualmente en la forma de el valor de la funci n de distribuci n ) y las otras distribuciones normales pueden obtenerse como transformaciones simples, como se describe ms arriba, de la distribuci n estndar. De este modo se pueden usar los valores tabulados de la funci n de distribuci n normal estndar para encontrar valores de la funci n de distribuci n de cualquier otra distribuci n normal.

MomentosLos primeros momentos de la distribuci n normal son:

Nmero

Momento

Momento central Cumulante

0

1

1

1

0

2

2

+

2

2

2

3

3

+3

2

0

0

4

4

+6

2 2

+3

4

3

4

0

5

5

+ 10

3 2

+ 15

4

0

0

6

6

+ 15

4 2

+ 45

2 4

+ 15

6

15

6

0

7

7

+ 21

5 2

+ 105

3 4

+ 105

6

0

0

8

8

+ 28

6 2

+ 210

4 4

+ 420

2 6

+ 105

8

105

8

0

Todos los cumulantes de la distribucin normal, ms all del segundo, son cero.

Los momentos centrales de orden superior (2k con = 0) vienen dados por la frmula

El Teorema del Lmite CentralArtculo principal: Teorema del lmite central

Grfica de la funcin de distribucin de una normal con = 12 y funcin de distribucin de una binomial con n = 48 y p = 1/4

= 3, aproximando la

El Teorema del lmite central establece que bajo ciertas condiciones (como pueden ser independientes e idnticamente distribuidas con varian a finita), la suma de un gran nmero de variables aleatorias se distribuye aproximadamente como una normal. La importancia prctica del Teorema del lmite central es que la funcin de distribucin de la normal puede usarse como aproximacin de algunas otras funciones de distribucin. Por ejemplo:y

Una distribucin binomial de parmetros n y p es aproximadamente normal para grandes valores de n, y p no demasiado cercano a 1 0 (algunos libros recomiendan usar esta aproximacin slo si np y n(1 p) son ambos, al menos, 5; en este caso se deber a aplicar una correccin de continuidad). La normal aproximada tiene parmetros = np, 2 = np(1 p). Una distribucin de Poisson con parmetro es aproximadamente normal para grandes valores de . La distribucin normal aproximada tiene parmetros = 2 = .

y

La exactitud de estas aproximaciones depende del propsito para el que se necesiten y de la tasa de convergencia a la distribucin normal. Se da el caso tpico de que tales aproximaciones son menos precisas en las colas de la distribucin. ElTeorema de Berry-Essen proporciona un lmite superior general del error de aproximacin de la funcin de distribucin.

Divisibilidad infinitaArtculo principal: Divisibilidad infinita (probabilidad)

Las normales tienen una distribucin de probabilidad infinitamente divisible: dada una media , una varian a 2 0, y un nmero natural n, la suma X1 + . . . + Xn de n variables aleatorias independientes

tiene esta especfica distribucin normal (para verificarlo, sese la funcin caracterstica de convolucin y la induccin matemtica).

EstabilidadLas distribuciones normales son estrictamente estables.

Desviacin tpica e intervalos de confianzaAlrededor del 68% de los valores de una distribucin normal estn a una distancia < 1 (desviacin tpica) de la media, ; alrededor del 95% de los valores estn a dos desviaciones tpicas de la media y alrededor del 99,7% estn a tres desviaciones tpicas de la media. Esto se conoce como la "regla 68-95-99,7" o la "regla emprica".

Para ser ms precisos, el rea bajo la curva campana entre de la funcin de distribucin normal viene dada por

n y

+ n en trminos

donde erf es la funcin error. Con 12 decimales, los valores para los puntos 1 2-, hasta -, 6- son:

1

0,682689492137

2

0,954499736104

3

0,997300203937

4

0,999936657516

5

0,999999426697

6

0,999999998027

La siguiente tabla proporciona la relacin inversa de mltiples correspondientes a unos pocos valores usados con frecuencia para el rea bajo la campana de Gauss. Estos valores son tiles para determinar intervalos de confian a para los niveles especificados basados en una curva normalmente distribuida (o estimadores asintticamente normales):

0,80

1,28155

0,90

1,64485

0,95

1,95996

0,98

2,32635

0,99

2,57583

0,995

2,80703

0,998

3,09023

0,999

3,29052

0,9999

3,8906

0,99999

4,4172

donde el valor a la i quierda de la tabla es la proporcin de valores que caern en el intervalo dado y n es un mltiplo de la desviacin tpica que determina la anchura de el intervalo.

Forma familia exponencialLa distribucin normal tiene forma de familia exponencial biparamtrica con dos parmetros naturales, y 1/ 2, y estadsticos naturales X y X2. La forma cannica tiene como parmetros y y estadsticos suficientes y

Distribucin normal complejaConsidrese la variable aleatoria compleja gaussiana

donde X e Y son variables gaussianas reales e independientes con igual varian a funcin de distribucin de la variable conjunta es entonces

. La

Como compleja Z es

, la funcin de distribucin resultante para la variable gaussiana

Distribuciones relacionadasy

RRayleigh( ) es una distribucin de Rayleigh si y independientes. son dos distribuciones normales

donde

y

es una distribucin con grados de libertad si XkN(0,1) para y son independientes. YCauchy( = 0, = 1) es una distribucin de Cauchy si Y = X1 / X2 para X1N(0,1) y X2N(0,1) son dos distribuciones normales independientes. YLog-N( , 2) es una distribucin log-normal si Y = eX y XN( , 2). Relacin con una distribucin estable: si entonces XN( , 2).

donde

y

y

y

y

Distribucin normal truncada. si entonces truncando X por debajo de A y por encima de B dar lugar a una variable aleatoria de media donde

yy

es la funcin de densidad de una variable normal estndar.

Si X es una variable aleatoria normalmente distribuida e Y = | X | , entonces Y tiene una distribucin normal doblada.

Estadstica descriptiva e inferencialResultadosDe la distribucin normal se derivan muchos resultados, incluyendorangos de percentiles ("percentiles" o "cuantiles"), curvas normales equivalentes, stanines, scores, y T-scores. Adems, un nmero de procedimientos de estadsticos de comportamiento estn basados en la asuncin de que esos resultados estn normalmente distribuidos. Por ejemplo, el test de Student y el anlisis de varian a (ANOVA) (vase

ms abajo). La gradacin de la curva campana asigna grados relativos basados en una distribucin normal de resultados.

Tests de normalidadArtculo principal: Test de normalidad

Los tests de normalidad se aplican a conjuntos de datos para determinar su similitud con una distribucin normal. La hiptesis nula es, en estos casos, si el conjunto de datos es similar a una distribucin normal, por lo que un P-valor suficientemente pequeo indica datos no normales.y y y y y y y y

Prueba de Kolmogrov-Smirnov Test de Lilliefors Test de AndersonDarling Test de RyanJoiner Test de ShapiroWilk Normal probability plot (rankit plot) Test de JarqueBera Test omnibs de Spiegelhalter

Estimacin de parmetrosEstimacin de parmetros de mxima verosimilitudVase tambin: Mxima verosimilitud

Supngase que

son independientes y cada una est normalmente distribuida con media y varian a 2 > 0. En trminos estadsticos los valores observados de estas n variables aleatorias constituyen una "muestra de tamao n de una poblacin normalmente distribuida. Se desea estimar la media poblacional y la desviacin tpica poblacional , basndose en las valores observados de esta muestra. La funcin de densidad conjunta de estasn variables aleatorias independientes es

Como funcin de y , la funcin de verosimilitud basada en las observaciones X1, ..., Xn es

con alguna constante C > 0 (de la cual, en general, se permitira incluso que dependiera de X1, ..., Xn, aunque desapareciera con las derivadas parciales de la funcin de log verosimilitud respecto a los parmetros tenidos en cuenta, vase ms abajo). En el mtodo de mxima verosimilitud, los valores de y que maximi an la funcin de verosimilitud se toman como estimadores de los parmetros poblacionales y . Habitualmente en la maximi acin de una funcin de dos variables, se podran considerar derivadas parciales. Pero aqu se explota el hecho de que el valor de que maximi a la funcin de verosimilitud con fijo no depende de . No obstante, encontramos que ese valor de , entonces se sustituye por en la funcin de verosimilitud y finalmente encontramos el valor de que maximi a la expresin resultante. Es evidente que la funcin de verosimilitud es una funcin decreciente de la suma

As que se desea el valor de que minimiza esta suma. Sea

la media muestral basada en las n observaciones. Ntese que

Slo el ltimo trmino depende de y se minimi a por

Esta es la estimacin de mxima verosimilitud de basada en las n observaciones X1, ..., Xn. Cuando sustituimos esta estimacin por en la funcin de verosimilitud, obtenemos

Se conviene en denotar la "log-funcin de verosimilitud", esto es, el logaritmo de la funcin de verosimilitud, con una minscula , y tenemos

entonces

Esta derivada es positiva, cero o negativa segn

2

est entre 0 y

o sea igual a esa cantidad, o mayor que esa cantidad. (Si hay solamente una observacin, lo que significa que n = 1, o si X1 = ... = Xn, lo cual slo ocurre con probabilidad cero, entonces por esta frmula, refleja el hecho de que en estos casos la funcin de verosimilitud es ilimitada cuando decrece hasta cero.) Consecuentemente esta media de cuadrados de residuos es el estimador de mxima verosimilitud de 2, y su ra cuadrada es el estimador de mxima verosimilitud de basado en las n observaciones. Este estimador es sesgado, pero tiene un menor error medio al cuadrado que el habitual estimador insesgado, que es n/(n 1) veces este estimador.Sorprendente generalizacin

La derivada del estimador de mxima verosimilitud de la matri de covarian a de una distribucin normal multivariante es despreciable. Involucra el teorema espectral y la ra n por la que puede ser mejor para ver un escalar como la tra a de una matri 1 1 matrix que como un mero escalar. Vase estimacin de la covarian a de matrices. Estimacin insesgada de parmetros El estimador de mxima verosimilitud de la media poblacional , es un estimador insesgado de la media poblacional. El estimador de mxima verosimilitud de la varian a es insesgado si asumimos que la media de la poblacin es conocida a priori, pero en la prctica esto no ocurre. Cuando

disponemos de una muestra y no sabemos nada de la media o la varian a de la poblacin de la que se ha extrado, como se asuma en la derivada de mxima verosimilitud de arriba, entonces el estimador de mxima verosimilitud de la varian a es sesgado. Un estimador insesgado de la varian a 2 es la cuasi varian a muestral:

que sigue una distribucin Gamma cuando las Xi son normales independientes e idnticamente distribuidas:

con media

y varian a

La estimacin de mxima verosimilitud de la desviacin tpica es la ra cuadrada de la estimacin de mxima verosimilitud de la varian a. No obstante, ni sta, ni la ra cuadrada de la cuasivarian a muestral proporcionan un estimador insesgado para la desviacin tpica (vase estimacin insesgada de la desviacin tpica para una frmula particular para la distribucin normal.

IncidenciaLas distribuciones aproximadamente normales aparecen por doquier, como queda explicado por el teorema central del lmite. Cuando en un fenmeno se sospecha la presencia de un gran nmero de pequeas causas actuando de forma aditiva e independiente es ra onable pensar que las observaciones sern "normales". Hay mtodos estadsticos para probar empricamente esta asuncin, por ejemplo, eltest de Kolmogorov-Smirnov. Hay causas que pueden actuar de forma multiplicativa (ms que aditiva). En este caso, la asuncin de normalidad no est justificada y es el logaritmo de la variable en cuestin el que estara normalmente distribuido. La distribucin de las variables directamente observadas en este caso se denomina log-normal. Finalmente, si hay una simple influencia externa que tiene un gran efecto en la variable en consideracin, la asuncin de normalidad no est tamp justificada. Esto es cierto oco incluso si, cuando la variable externa se mantiene constante, las distribuciones marginales resultantes son, en efecto, normales. La distribucin completa ser una superposicin de variables normales, que no es en general no rmal. Ello est relacionado con la teora de errores (vase ms abajo). A continuacin se muestran una lista de situaciones que estaran, aproximadamente, normalmente distribuidas. Ms abajo puede encontrarse una discusin detallada de cada una de ellas:

y

y

y

y

En problemas de recuento, donde el teorema central del lmite incluye una aproximaci n de discreta a continua y donde las distribuciones infinitamente divisibles y descomponibles estn involucradas, tales como: o variables aleatorias binomiales, asociadas con preguntas s/no; o variables aleatorias de Poisson, asociadas con eventos raros; En medidas fisiol gicas de especmenes biol gicos: o El l g it de las medidas del tamao de tejidos vivos (longitud, altura, superficie de piel, peso); o La l git de apndices i t (pelo, garras, rabos, dientes) de especmenes biol gicos l i i l i t ; o Otras medidas fisiol gicas podran estar normalmente distribuidas, aunque no hay raz n para esperarlo a pri ri; Se asume con frecuencia que los errores de medida estn normalmente distribuidos y cualquier desviaci n de la normalidad se considera una cuesti n que debera explicarse; Variables financieras, en el modelo Black-Scholes: de o Cambios en el l garit

Cambios en el l garit de tasas de cambio, ndices de precios, ndices de existencias de mercado; estas variables se comportan como el inters compuesto, no como el inters simple, por tanto, son multiplicativas;y o

y

Mientras que el modelo Black-Scholes presupone normalidad, en realidad estas variables exhiben colas pesadas, como puede verse en crash de las existencias de mercado; o Otras variables financieras podran estar normalmente distribuidas, pero no hay raz n para esperarlo a pri ri; Intensidad de la luz: o La intensidad de la luz lser est normalmente distribuida; o La luz trmica tiene una distribuci n de Bose-Einstein en escalas de tiempo muy breves y una distribuci n normal en grandes escalas de tiempo debido al teorema central del lmite.

Es relevante para la biolga y la economa el hecho de que los sistemas complejos tienden a mostrar la ley de potencias ms que normal.

Recuento de fotonesLa intensidad de la luz de una sola fuente vara con el tiempo, as como las fluctuaciones trmicas que pueden observarse si la luz se analiza a una resoluci n suficientemente alta. La mecnica cuntica interpreta las medidas de la intensidad de la luz como un recuento de fotones, donde la asunci n natural es usar la distribuci n de Poisson. Cuando la intensidad de la luz se integra a lo largo de grandes periodos de tiempo mayores que el tiempo de coherencia, la aproximaci n Poisson - Normal es apropiada.

Medida de errores

La normalidad es la asunci n central de la teora matemtica de errores. De forma similar en el ajuste de modelos estadstico, un indicador de la bondad del ajuste es que el error residual (as es como se llaman los errores en esta circunstancia) sea independiente y normalmente distribuido. La asunci n es que cualquier desviaci n de la normalidad necesita ser explicada. En ese sentido, en ambos, ajuste de modelos y teora de errores, la normalidad es la nica observaci n que no necesita ser explicada, sino que es esperada. No obstante, si los datos originales no estn normalmente distribuidos (por ejemplo, si siguen una distribuci n de Cauchy, entonces los residuos tampoco estarn normalmente distribuidos. Este hecho es ignorado habitualmente en la prctica. Las medidas repetidas de la misma cantidad se espera que cedan el paso a resultados que estn agrupados entorno a un valor particular. Si todas las fuentes principales de errores se han tomado en cuenta, se asume que el error que queda debe ser el resultado de un gran nmero de muy pequeos y aditi s efectos y, por consiguiente, normal. Las desviaciones de la normalidad se interpretan como indicaciones de errores sistemticos que no han sido tomados en cuenta. Puede debatirse si esta asunci n es vlida. Una famosa observaci n atribuida a Gabriel Lippmann dice:[cita requerida]Todo el mundo cree en la ley normal de los errores: los matemticos, porque piensan que es un hecho experimental; y los experimentadores, porque suponen que es un teorema matemtico

Otra fuente podra ser Henri Poincar.

Caractersticas fsicas de especmenes biol

Los tamaos de los animales adultos siguen aproximadamente una distribuci n lognormal. La evidencia y explicaci n basada en modelos de crecimiento fue publicada por primera vez en el libro Problemas de crecimiento relati o, de 1932, por Julian Huxley. Las diferencias de tamao debido a dimorfismos sexuales u otros polimorfismos de insectos, como la divisi n social de las abejas en obreras, znganos y reinas, por ejemplo, hace que la distribuci n de tamaos se desve hacia la lognormalidad. La asunci n de que el tamao lineal de los especmenes biol gicos es normal (ms que lognormal) nos lleva a una distribuci n no normal del peso (puesto que el peso o el volumen es proporcional al cuadrado o el cubo de la longitud y las distribuciones gaussianas slo mantienen las transformaciones lineales). A la inversa, asumir que el peso sigue una distribucin normal implica longitudes no normales. Esto es un problema porque, a priori, no hay razn por la que cualquiera de ellas (longitud, masa corporal u otras) debera estar normalmente distribuida. Las distribuciones lognormales, por otro lado, se mantienen entre potencias, as que el "problema" se desvanece si se asume la lognormalidad. Por otra parte, hay algunas medidas biolgicas donde se asume normalidad, tales como la presin sangunea en humanos adultos. Esta asuncin slo es posible tras separar a hombres y mujeres en distintas poblaciones, cada una de las cuales est normalmente distribuida.

Variables financieras

"

!

icos

El modelo normal de movimiento de activos no incluye movimientos extremos tales como quiebras financieras. Ya en 1900 Louis Bachelier propuso representar los precios de cambio usando la distribucin normal. Esta aproximacin se ha modificado desde entonces ligeramente. A causa de la naturale a multiplicativa del inters compuesto, los indicadores financieros como valores de mercado y precios de las materias primas exhiben un "comportamiento multiplicativo". Como tales, sus cambios peridicos (por ejemplo, cambios anuales) no son normales, sino lognormales. Esta es todava la hiptesis ms comnmente aceptada en economa. No obstante, en realidad las variables financieras exhiben colas pesadas y as, la asuncin de normalidad infravalora la probabilidad de eventos extremos como quiebras financieras. Se han sugerido correcciones a este modelo por parte de matemticos como Benot Mandelbrot, quien observ que los cambios en el logaritmo durante breves periodos de tiempo (como un da) se aproximan bien por distribuciones que no tienen una varian a finita y, por consiguiente, el teorema central del lmite no puede aplicarse. Ms an, la suma de muchos de tales cambios sigue una distribucin de log-Levy.

Distribuciones en tests de inteligenciaA veces, la dificultad y nmero de preguntas en un test de inteligencia se selecciona de modo que proporcionen resultados normalmente distribuidos. Ms an, las puntuaciones "en crudo" se convierten a valores que marcan el cociente intelectual ajustndolas a la distribucin normal. En cualquier caso se trata de un resultado causado deliberadamente por la construccin del test o de una interpretacin de las puntuaciones que sugiere normalidad para la mayora de la poblacin. Sin embargo, l cuestin acerca de si la a inteligencia en s est normalmente distribuida es ms complicada porque se trata de una variable latente y, por consiguiente, no puede observarse directamente.

Ecuacin de difusin

La funcin de densidad de la distribucin normal est estrechamente relacionada con la ecuacin de difusin (homognea e istropa) y, por tanto, tambin con la ecuacin de calor. Esta ecuacin diferencial parcial describe el tiempo de evolucin de una funcin de densidad bajo difusin. En particular, la funcin de densidad de masa

para la distribucin normal con esperanza 0 y varianza t satisface la ecuacin de difusin:

Si la densidad de masa para un tiempo t = 0 viene dada por la delta de Dirac, lo cual significa, esencialemente que toda la masa est inicialmente concentrada en un punto, entonces la funcin de densidad de masa en el tiempo t tendr la forma de la funcin de densidad de la normal, con varianza creciendo linealmente con t. Esta conexin no es coincidencia: la difusin se debe a un movimiento Browniano que queda descrito matemticamente por un proceso de Wiener, y tal proceso en un tiempo t tambin resultar normal con varianza creciendo linealmente con t'. Ms generalmente, si la densidad de masa inicial viene dada por una funcin ( ), entonces la densidad de masa en un tiempo t vendr dada por la convolucin de y una funcin de densidad normal.

Uso en estadstica computacionalGeneraci n de valores para una variable aleatoria normalPara simulaciones por ordenador es til, en ocasiones, generar valores que podran seguir una distribucin normal. Hay varios mtodos y el ms bsico de ellos es invertir la funcin de distribucin de la normal estndar. Se conocen otros mtodos ms eficientes, uno de los cuales es la transformacion de Box-Muller. Un algoritmo incluso ms rpido es el algoritmo zigurat. Ambos se discuten ms abajo. Una aproximacin simple a estos mtodos es programarlos como sigue: simplemente smense 12 desviaciones uniformes (0,1) y rstense 6 (la mitad de 12). Esto es bastante til en muchas aplicaciones. La suma de esos 12 valores sigue la distribucin de Irwin-Hall; son elegidos 12 para dar a la suma una varianza de uno, exactamente. Las desviaciones aleatorias resultantes estn limitadas al rango (6, 6) y tienen una densidad que es una doceava seccin de una aproximacin polinomial de undcimo orden a la distribucin normal .10 El mtodo de Box-Muller dice que, si tienes dos nmeros aleatorios U y V uniformemente distribuidos en (0, 1], (por ejemplo, la salida de un generador de nmeros aleatorios), entonces X e Y son dos variables aleatorias estndar normalmente distribuidas, donde:

#

Esta formulacin aparece porque la distribucin con dos grados de libertad (vase la propiedad 4, ms arriba) es una variable aleatoria exponencial fcilmente generada (la cual corresponde a la cantidad lnU en estas ecuaciones). As, un ngulo elegido uniformemente alrededor de un crculo va la variable aleatoria V y un radio elegido para ser exponencial se transforman entonces en coordenadasx e y normalmente distribuidas. Un mtodo mucho ms rpido que la transformacin de Box -Muller, pero que sigue siendo exacto es el llamado algoritmo Zigurat, desarrollado por George Marsaglia. En alrededor del 97% de los casos usa slo dos nmeros aleatorios, un entero aleatorio y un uniforme aleatorio, una multiplicacin y un test-si . Slo un 3% de los casos donde la combinacin de estos dos cae fuera del "cora n del igur un tipo de recha o at", muestral usando logaritmos, exponenciales y nmeros aleatorios ms uniformes deberan ser empleados. Hay tambin alguna investigacin sobre la conexin entre la rpidatransformacin de Hadamard y la distribucin normal, en virtud de que la transformacin emplea s lo adicin y sustraccin y por el teorema central del lmite los nmeros aleatorios de casi cualquier distribucin sern transformados en la distribucin normal. En esta visin se pueden combinar una serie de transformaciones de Hadamard con permutaciones aleatorias para devolver conjuntos de datos aleatorios normalmente distribuidos.

Aproximaciones numricas de la distribucin normal y su funcin de distribucinLa funcin de distribucin normal se usa extensamente en computacin cientfica y estadstica. Por consiguiente, ha sido implementada de varias formas. Abramowit y Stegun (1964) dan la conocida como "mejor aproximacin de Hastings" para (x) con x > 0 con un error absoluto | (x)| < 7.510 8 (algoritmo 26.2.17):

donde (x) es la funcin de densidad de la distribucin normal estndar,

y las constantes son b0 = 0.2316419, b1 = 0.319381530, b2 = 0.356563782, b3 = 1.781477937, b4 = 1.821255978, b5 = 1.330274429. La Biblioteca Cientfica GNU calcula valores de la funcin de distribucin normal estndar usando aproximaciones por funciones racionales a tro os. Otro mtodo de 11 aproximacin usa polinomios de tercer grado en intervalos. El artculo sobre el lenguaje de programacin bc proporciona un ejemplo de cmo computar la funcin de distribucin en GNU bc.

$

Para una discusin ms detallada sobre cmo calcular la distribucin normal, vase la seccin 3.4.1C. de The Art of Computer Programming (El arte de la programaci n por ordenador), de Knuth.http://es.wikipedia.org/wiki/Distribuci%C3%B3n_normal

Distribucin de Probabilidad NormalUna variable aleatorio se dice que sigue una distribucin normal de media y varianza si su funcin de densidad se escribe de la forma:

Propiedades:y y

Toma valores en todo . Es una funcin simtrica respecto de .

y y y y

Es estrictamente creciente si . Posee un mximo en .

y estrictamente decreciente si

Posee puntos de inflexin en y En posee una asntota horizontal.

.

Caractersticas: 1. Esperanza: La esperanza de la distribucin es . 2. Varianza: La varianza de la distribucin es . 3. Funcin Generatriz de Momentos: La funcin de generatriz de momentos es

4. Cambio de origen y escala: La variable no se ve afectada por cambios de origen ni escala, es decir, si entonces posee la siguiente distribucin

%

http://todoestadistica.blogspot.com/2009/ 06/distribucion-de-probabilidadnormal.html Distribucin binomialDe Wikipedia, la enciclopedia libre Saltar a navegacin, bsquedaDistribucin binomial Funcin de probabilidad

Funcin de distribucin de probabilidad

Parmetros

nmero de ensayos (entero) probabilidad de xito (real)

Dominio

Funcin de probabilidad (fp) Funcin de distribucin (cdf) Media Mediana Moda Varianza Uno de1

Coeficiente de simetra

Curtosis

Entropa

Funcin generadora de momentos (mgf) Funcin caracterstica

En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que mide el nmero de xitos en una secuencia de n ensayos independientes de Bernoulli con una probabilidad fija p de ocurrencia del xito entre los ensayos. Un experimento de Bernoulli se caracteri a por ser dicotmico, esto es, slo s on posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado nmero de xitos. Paran = 1, la binomial se convierte, de hecho, en una distribucin de Bernoulli. Para representar que una variable aleatoria X sigue una distribucin binomial de parmetros n y p, se escribe:

La distribucin binomial es la base del test binomial de significacin estadstica.

Contenido[ocultar]y y y y y y y y

1 Ejemplos 2 Experimento Binomial 3 Caractersticas analticas o 3.1 Ejemplo 4 Propiedades caractersticas 5 Relaciones con otras variables aleatorias 6 Propiedades reproductivas 7 Referencias 8 Enlaces externos

[editar] E emplosLas siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribucin:

y

[editar] E perimento BinomialExisten muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). Se designa por X a la variable que mide el nmero de xitos que se han producido en los n experimentos. Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de probabilidad binomial, y se denota (n,p).

[editar] Caractersticas analticasSu funcin de probabilidad es

(

'

y

&

y

Se lanza un dado diez veces y se cuenta el nmero X de tres obtenidos: entonces X ~ (10, 1/6) Se lanza una moneda dos veces y se cuenta el nmero X de caras obtenidas: entonces X ~ (2, 1/2) Una partcula se mueve unidimensionalmente con probabilidad q de moverse de aqui para all y 1-q de moverse de all para ac

donde

siendo en )

las combinaciones de

en

(

elementos tomados de

[editar] EjemploSupongamos que se lan a un dado 50 veces y queremos la probabilidad de que el nmero 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sera P(X=20):

[editar] Propiedades caractersticas

[editar] Relaciones con otras variables aleatoriasSi n tiende a infinito y p es tal que producto entre ambos parmetros tiende a , entonces la distribucin de la variable aleatoria binomial tiende a una distribucin de Poisson de parmetro . Por ltimo, se cumple que cuando n es muy grande (usualmente se exige que la distribucin binomial puede aproximarse mediante la distribucin normal. )

[editar] Propiedades reproductivasDadas n variables binomiales independientes, de parmetros ni (i = 1,..., n) y p, su suma es tambin una variable binomial, de parmetros n1+... + nn, y p, es decir,

3. La distribucin binomial

8

http://es

765)413 121 0)pe

/wiki/Distribuci%C3%B3 _binomial

Consideremos los llamados ensayos Bernoulli, stos son aquellos experimentos cuyo resultado es uno de dos posibles y mutuamente excluyentes, a los que se denominarn xito y fracaso. Por ejemplo: Los siguientes son ensayos Bernoulli. y y y Un tornillo, puede estar defectuoso o no defectuoso. El sexo de un beb al nacer: nio o nia. La respuesta correcta o incorrecta en un examen.

Si consideramos una serie de ensayos Bernoulli que tiene como caractersticas: 1. la probabilidad de xito permanece constante, ensayo tras ensayo; y 2. los ensayos son independientes entre s; Entonces se tiene lo que se denomina experimento binomial, donde el nmero de ensayos se denota con n, la probabilidad de xito con p y la de fracaso con q. Hay que notar que las probabilidades de xito y de fracaso estn relacionadas de la siguiente manera: p+q=1. Por ejemplo: Consideremos un examen con tres preguntas de opcin mltiple, con cuatro opciones, y que ser contestado al azar. Podemos utilizar el siguiente ejemplo < Lydia Lic. la por proporcionadas fueron preguntas>: 1.- Las flores de la carrastrana frislea son: a) rojas b) azules c) amarillas d) naranjas 2.- Don Luis Inocuo descubri el trideralto de magnesio en: a) 1518 b) 1635 c) 1457 d) 1706 3.- El significado de la palabra es a) lpiz b) rbol c) miedo d) fiera Con esto contamos con un experimento binomial, ya que la probabilidad de xito permanece constante en las tres preguntas (p=) y las respuestas de una a otra pregunta son independientes entre s. Se cuenta con una cantidad n=3 de ensayos y q=1-p=3/4. Hay que decir que n y p son los llamados parmetros de la distribucin. Tenemos ahora la variable aleatoria X que representar el nmero de respuestas correctas, siendo sus posibles valores: 0, 1, 2, y 3. Para calcular la distribucin de probabilidad correspondiente, consideraremos como E los xitos y como F los fracasos (el subndice indica el nmero de pregunta). As pues, tenemos que: X=0) = X=1) = P(F1F2F3)P[(E1 F2 F 3)(F1 E2 F3 ) (F 1 F 2 E3)]

=

P(F1)P(F2)P(F3) =

=

( 3/ 4) 3 = 27 /6481

= 1( 3/4)3 = 3( 3/4)2

/256

P(X=2) = P(X=3) =

P[(E1 E2 F3 )(E1 F2 E3) (F1 E2 E3 )]

= = P(E 1)P(E2)P(E3)

9

/64

= 3( 3/4)1(1/4)2

P(E1E2E3)

= (1/4)3 = 1/64 = 1( 3/4)0(1/4)3

Al presentar esta informacin como tabla y su respectivo histograma se obtiene:

X 0 1 2 3

P(X=x) 0.422 0.422 0.141 0.016

En general, si se tienen n ensayos Bernoulli con probabilidad de xito p y de fracaso q, entonces la distribucin de probabilidad que la modela es la distribucin de probabilidad binomial y su regla de correspondencia es:

, para x=0,1,2,,n.

Utilizando la funcin DISTR.BINOM de Excel, o bien las tablas, se pueden obtener los valores que toma esta distribucin.

8.2 La media y la desviaci n estndar de la distribuci n binomialLa media de una distribucin probabilstica binomial con parmetros n y p es: Q = np

Por otro lado, la desviacin estndar de una distribucin probabilstica binomial con parmetros n y p es:

s quiere decir que si se aplicara es e examen, en teora, el promedio de aciertos sera de 0 75 (casi de un acierto) con una dispersin de 0 75

http://www.uaq.mx/matematicas/estadisticas/xu4-5.html

Distribucin de PoissonDe Wikipedia, la enciclopedia libre Saltar a navegacin, bsquedaDistribucin De Poisson Funcin de probabilidad

El eje hori ontal es el ndice k. La funcin solamente est definida en valores enteros de k. Las lneas que conectan los puntos son solo guas para el ojo y no indican continuidad. Funcin de distribucin de probabilidad

a

a

f

egf

edc cb

Y la des ac

C @PA IHADG AB FE CB FABC FE C @9G@C Y U W X W @9 9DGC SDFQ IV U D9ADCG@F 9EQ C C T ECB C@C SRC 9E DF AEQF CB CG@FGEI CD @PA IHADG AB FE 9 CDCBA @9sQ = (3) (0 25) = 0 75

Por ejemplo: C m s c s:

s

m s m

s ss

c n 3

s p 0 25

c c s

s m

m

s

es

dar es:

a

a `

p

a

if h

El eje hori ontal es el ndice k.

Parmetros Dominio Funcin de probabilidad (fp) Funcin de distribucin (cdf) Media Mediana Moda Varianza Coeficiente de simetra Curtosis

gamma incompleta)

Entropa

Funcin generadora de momentos (mgf) Funcin caracterstica

q

(dnde (x,y) es la Funcin

En teora de probabilidad y estadstica, la distribuci n de Poisson es una distribucin de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado nmero de eventos durante cierto periodo de tiempo. Fue descubierta por Simon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilit des jugements en matires criminelles et matire ci ile (Investigaci n sobre la probabilidad de los juicios en materias criminales y civiles).

Contenido[ocultar]y y

y y y y

1 Propiedades 2 Relacin con otras distribuciones o 2.1 Sumas de variables aleatorias de Poisson o 2.2 Distribucin binomial o 2.3 Aproximacin normal o 2.4 Distribucin exponencial 3 Ejemplos 4 Procesos de Poisson 5 Enlaces externos 6 Vase tambin

[editar] PropiedadesLa funcin de masa de la distribucin de Poisson es

dondey y

y

k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la probabilidad de que el evento suceda precisamente k veces). es un parmetro positivo que representa el nmero de veces que se espera que ocurra el fenmeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribucin de Poisson con = 104 = 40. e es la base de los logaritmos naturales (e = 2,71828 ...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribucin de Poisson son iguales a . Los momentos de orden superior son polinomios de Touchard en cuyos coeficientes tienen una interpretacin combinatorio. De hecho, cuando el valor esperado de la distribucin de Poisson es 1, entonces segn la frmula de Dobinski, el n-simo momento iguala al nmero de particiones de tamao n.

s

r

t

La moda de una variable aleatoria de distribucin de Poisson con un no entero es igual a , el mayor de los enteros menores que (los smbolos representan la funcin parte entera). Cuando es un entero positivo, las modas son y 1. La funcin generadora de momentos de la distribucin de Poisson con valor esperado es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parmetro 0 a otra de parmetro es

[editar] Relacin con otras distribuciones[editar] Sumas de variables aleatorias de PoissonLa suma de variables aleatorias de Poisson independientes es otra variable aleatoria de Poisson cuyo parmetro es la suma de los parmetros de las originales. Dicho de otra manera, si

son N variables aleatorias de Poisson independientes, entonces

.

[editar] Distribucin binomialLa distribucin de Poisson es el caso lmite de la distribucin binomial. De hecho, si los parmetros n y de una distribucin binomial tienden a infinito y a cero de manera que se mantenga constante, la distribucin lmite obtenida es de Poisson.

[editar] Aproximacin normalComo consecuencia del teorema central del lmite, para valores grandes de , una variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente

converge a una distribucin normal de media nula y varianza 1.

[editar] Distribuci n exponencialSupngase que para cada valor t > 0, que representa el tiempo, el nmero de sucesos de cierto fenmeno aleatorio sigue una distribucin de Poisson de parmetro t. Entonces, los tiempos discurridos entre dos sucesos sucesivos sigue la distribucin exponencial.

[editar] E emplosSi el 2% de los libros encuadernados en cierto taller tiene encuadernacin defectuosa, para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas usamos la distribucin de Poisson. En este caso concreto, k es 5 y , , el valor esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la probabilidad buscada es

Este problema tambin podra resolverse recurriendo a una distribucin binomial de parmetros k = 5, n = 400 y =0,02.

[editar] Procesos de PoissonArtculo principal Proceso de Poisson

La distribucin de Poisson se aplica a varios fenmenos discretos de la naturaleza (esto es, aquellos fenmenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de tiempo o en un rea determinada) cuando la probabilidad de ocurrencia del fenmeno es constante en el tiempo o el espacio. Ejemplos de estos eventos que pueden ser modelados por la distribucin de Poisson incluyen:y

y y y y y y

El nmero de autos que pasan a travs de un cierto punto en una ruta (suficientemente distantes de los semforos) durante un periodo definido de tiempo. El nmero de errores de ortografa que uno comete al escribir una nica pgina. El nmero de llamadas telefnicas en una central telefnica por minuto. El nmero de servidores web accedidos por minuto. El nmero de animales muertos encontrados por unidad de longitud de ruta. El nmero de mutaciones de determinada cadena de ADN despus de cierta cantidad de radiacin. El nmero de ncleos atmicos inestables que decayeron en un determinado perodo en una porcin de sustancia radiactiva. La radiactividad de la sustancia se debilitar con el tiempo, por lo tanto el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de la sustancia.

u

y y y

El nmero de estrellas en un determinado volumen de espacio. La distribucin de receptores visuales en la retina del ojo humano. La inventiva de un inventor a lo largo de su carrera.

http://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson