teoremas wiki

525
Contenidos Artículos Teorema de Bayes 1 Paradoja del cuervo 2 Probabilidad condicionada 4 Distribución de probabilidad continua 8 Distribución Box-Cox 10 Distribución de Cauchy 11 Distribución de Erlang 14 Distribución de Gumbel 15 Distribución de Pareto 18 Distribución de Rayleigh 22 Distribución exponencial 23 Distribución F 25 Distribución gamma 27 Distribución log-normal 28 Distribución t de Student 30 Distribución χ² 33 Distribución de Fréchet 36 Distribución T² de Hotelling 37 Distribución de Laplace 40 Distribución logística 43 Distribución normal multivariante 46 Distribución normal 53 Distribución Triangular 70 Distribución uniforme continua 72 Distribución de Weibull 77 Función de densidad de probabilidad 81 Teorema fundamental del álgebra 84 Teorema fundamental del cálculo 87 Teorema de muestreo de Nyquist-Shannon 91 Teorema del límite central 95 Varianza 97 Teorema de Stokes 100 Teorema de Sarkovskii 102 Teorema del valor medio 103

Upload: m1f2p3

Post on 26-Nov-2015

408 views

Category:

Documents


3 download

TRANSCRIPT

  • ContenidosArtculos

    Teorema de Bayes 1Paradoja del cuervo 2Probabilidad condicionada 4Distribucin de probabilidad continua 8Distribucin Box-Cox 10Distribucin de Cauchy 11Distribucin de Erlang 14Distribucin de Gumbel 15Distribucin de Pareto 18Distribucin de Rayleigh 22Distribucin exponencial 23Distribucin F 25Distribucin gamma 27Distribucin log-normal 28Distribucin t de Student 30Distribucin 33Distribucin de Frchet 36Distribucin T de Hotelling 37Distribucin de Laplace 40Distribucin logstica 43Distribucin normal multivariante 46Distribucin normal 53Distribucin Triangular 70Distribucin uniforme continua 72Distribucin de Weibull 77Funcin de densidad de probabilidad 81Teorema fundamental del lgebra 84Teorema fundamental del clculo 87Teorema de muestreo de Nyquist-Shannon 91Teorema del lmite central 95Varianza 97Teorema de Stokes 100Teorema de Sarkovskii 102Teorema del valor medio 103

  • Teorema del punto fijo de Brouwer 106Teorema del punto fijo de Banach 111Teorema de Picard-Lindelf 112Funcin lipschitziana 114Teorema de Kirszbraun 115Teorema fundamental de la aritmtica 115Teorema del binomio 118Coeficiente binomial 121Teorema de Green 131Teorema de Gauss-Mrkov 132Homocedasticidad 133Regresin lineal 135Regresin no lineal 141Teorema de Bell 146Teorema de imposibilidad 159Teorema de Bloch 160Teorema de equiparticin 162Teorema de la estadstica del espn 181Teorema de Fortescue 182Teorema de la energa cintica 183Teorema de Hellman-Feynman 184Teorema de Huygens 185Teorema de Kirkwood-Frohlich 187Teorema de Kutta-Yukovski 187Lineal 188Teorema de Liouville (mecnica hamiltoniana) 190Teorema de mxima potencia 192Teorema de Noether 194Teorema de Poynting 198Principio de superposicin 200Teorema del transporte de Reynolds 201Teorema de Rivlin-Ericksen 204Teorema adiabtico 205Teorema de Earnshaw 206Teorema de Mermin-Wagner 207Teorema de Steiner 210Teorema de Taylor-Proudman 212Teorema de Torricelli 213

  • Teorema de unicidad del potencial 215Teorema de Vaschy-Buckingham 216Teorema de Varignon (mecnica) 219Teorema de la velocidad media 220Teorema de virial 221Vis viva 226Teorema 227Teorema de Kirchhoff 229Teorema del programa estructurado 229Teorema de compacidad 230Teorema de completitud de Gdel 230Demostracin original del teorema de completitud de Gdel 231Teorema de la deduccin 232Teorema de Frege 233Teoremas de incompletitud de Gdel 234Teorema de Lb 243Teorema de Lwenheim-Skolem 244Programa de Hilbert 245Desigualdad matemtica 247Desigualdad de Boole 250Cota de Cramr-Rao 252Desigualdad de Bernoulli 255Desigualdad de Bessel 256Desigualdad de Cauchy-Schwarz 257Desigualdad de Chebyshov 258Desigualdad de Hardy 259Desigualdad de Hoeffding 260Desigualdad de Hlder 261Desigualdad de Jensen 262Desigualdad de Kraft 264Desigualdad de las medias aritmtica y geomtrica 264Desigualdad de Minkowski 266Desigualdad de Mrkov 268Desigualdad de Opial 269Desigualdad de Shapiro 269Desigualdad de Nesbitt 270Teorema de Jung 271Teorema de Cauchy 272

  • Constante de Apry 273Teorema de Euclides (desambiguacin) 275Teorema de existencia 275Teorema de Lagrange 275Teorema de Liouville 276Teorema maestro 276Teorema de multiplicacin 278Teorema de Knaster-Tarski 279Teorema de restriccin cristalogrfica 280Teorema de Rice 283Teorema de la amistad 285Lema de Berge 287Teorema de Brooks 287Teorema de los cuatro colores 288Teorema de Kuratowski 293Teorema de Rao-Blackwell 294Teorema de Karhunen-Love 295Teorema de Aumann 297Teorema de Cochran 298Teorema de convergencia de Lvy 298Ley de Benford 299Teorema de Shannon-Hartley 301Teorema de la invariancia (teora de la informacin) 306Teorema de Bernoulli 307Lema de Borel-Cantelli 307Frmula de Tanaka 308Teorema del mono infinito 309Ley cero-uno de Kolmogrov 314Ley de los grandes nmeros 314Teorema de la probabilidad total 315Teorema de De Moivre-Laplace 316Teorema fundamental 317Teorema fundamental de la teora de Galois 317Teorema fundamental de la geometra de Riemann 319Teorema fundamental de homomorfismos 320Teoremas fundamentales de la economa del bienestar 321Lema fundamental de teora de cribas 329Teora de cribas 331

  • Criba de Brun 332Constante de Brun 334Conjetura de los nmeros primos gemelos 335Nmeros primos gemelos 336Nmero primo 337Teorema de los nmeros primos 355Teorema de Beatty 357Teorema de Bombieri-Vinogrdov 359Teorema de Carmichael 360Teorema chino del resto 361Teorema de congruencia lineal 362Conjetura de Catalan 364Conjetura de modularidad de Serre 365Teorema de los cuatro cuadrados 366Teorema de Dirichlet 367Lema de Euclides 370Teorema de Euclides 371Teorema de Euler 373Criterio de Euler 377Teorema de Fermat 378Teorema del nmero poligonal de Fermat 378Pequeo teorema de Fermat 379Demostraciones del pequeo teorema de Fermat 384Teorema de Fermat sobre la suma de dos cuadrados 387ltimo teorema de Fermat 389Teorema de Gelfond-Schneider 393Teorema de Herbrand-Ribet 394Identidad de Proizvolov 395Teorema de Lochs 396Teorema de Lucas 397Teoremas de Mertens 398Teorema de Mills 399Teorema del nmero pentagonal 400Teorema de Ostrowski 404Postulado de Bertrand 405Teorema de Proth 405Teorema de Ribet 406Serie de los inversos de los nmeros primos 408

  • Teorema de Taniyama-Shimura 412Teorema de Hurwitz (teora de nmeros) 413Teorema de Popoviciu 414Teorema de SiegelWalfisz 415Teorema de Vinogrdov 416Teorema de Wilson 417Teorema de Wolstenholme 420Teora de Donaldson 421Teora de campo de gauge 421Grado de libertad (fsica) 426Grado de libertad (ingeniera) 428Grado de libertad (estadstica) 429Regla de las fases de Gibbs 430Dimensin 430Espacio topolgico 434Alfombra de Sierpinski 436Arco conexo 438Conjunto de Cantor 439Conjunto de Smith-Volterra-Cantor 442Continuo dimensional 443Dimensin topolgica 443Espacio con un nmero transfinito de dimensiones 444Espacio de caminos 444Espacio eucldeo 445Espacio regular 446Esponja de Menger 447Plano de Sorgenfrey 448Primer ordinal no numerable 449Recta larga (topologa) 450Recta numrica 451Topologa de Alexandrov 452Topologa de los complementos finitos 453Topologa de los complementos numerables 453Topologa del lmite inferior 454Topologa euclideana 455Topologa trivial 456Tringulo de Sierpinski 457Teorema de Euler sobre funciones homogneas 460

  • Funcin homognea 461Espacio de Banach 463Teorema de la divergencia 467Teorema de descomposicin espectral 469Operador hermtico 470Espacio de Hilbert 472Ondcula 477Transformacin 479Clculo 480Clculo infinitesimal 490Clculo lambda 497

    ReferenciasFuentes y contribuyentes del artculo 507Fuentes de imagen, Licencias y contribuyentes 514

    Licencias de artculosLicencia 518

  • Teorema de Bayes 1

    Teorema de BayesEn la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763[1] queexpresa la probabilidad condicional de un evento aleatorio A dado B en trminos de la distribucin de probabilidadcondicional del evento B dado A y la distribucin de probabilidad marginal de slo A.En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula laprobabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolorde cabeza dado que se tiene gripe, se podra saber (si se tiene algn dato ms), la probabilidad de tener gripe si setiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia entodas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causalesdados los efectos observados.

    Sea un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que laprobabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen lasprobabilidades condicionales . Entonces, la probabilidad viene dada por la expresin:

    donde:

    son las probabilidades a priori. es la probabilidad de en la hiptesis . son las probabilidades a posteriori.

    Thomas Bayes (1763)

    Frmula de BayesCon base en la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como laRegla de Bayes:

    AplicacionesEl teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay unacontroversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional sloadmiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que losllamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicarcmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de unexperimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en elconocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia empricaes lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son los clasificadoresbayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptancon el uso.

    Como observacin, se tiene y su demostracin resulta trivial.

  • Teorema de Bayes 2

    Enlaces externos Calculadora en internet [2]

    Inferencia estadstica segn el modelo bayesiano [3], en la web de la Sociedad Andaluza de EnfermedadesInfecciosas [4]

    Enciclopedia Stanford de filosofa [5]

    Simulacion del Teorema de Bayes con R-Project [6]

    Referencias[1][1] *[2] http:/ / www. ugr. es/ ~jsalinas/ bayes. htm[3] http:/ / saei. org/ hemero/ epidemiol/ nota3. html[4] http:/ / saei. org[5] http:/ / plato. stanford. edu/ entries/ bayes-theorem/[6] http:/ / cajael. com/ mestadisticos/ T2Probabilidad/ node10. php

    Paradoja del cuervo

    Cuervo negro.

    No-negro, no-cuervo.

    La paradoja del cuervo es una paradoja propuesta porel filsofo alemn Carl Hempel en la dcada de 1940para ilustrar un problema donde la lgica inductivadesafa a la intuicin. Esta paradoja se conoce tambincomo paradoja de la negacin o paradoja deHempel.

    Cuando durante miles de aos la gente ha observadohechos que se acomodan bien en el marco de una teoracomo la ley de la gravedad, tendemos a creer que dichateora tiene una alta probabilidad de ser cierta y nuestraconfianza en ella aumenta con cada nueva observacinde acuerdo con ella. Este tipo de razonamiento puedesintetizarse en el principio de induccin:

    Si se observa un caso particular X consistente con lateora T, entonces la probabilidad de que T sea ciertaaumenta.

    Hempel da un ejemplo del principio de induccin.Propone como teora "Todos los cuervos son negros".Si ahora examinamos a un milln de cuervos, yobservamos que todos son negros, nuestra creencia enla teora "todos los cuervos son negros" crecerligeramente con cada observacin. En este caso, elprincipio de induccin parece razonable.

    Ahora bien, la afirmacin "todos los cuervos sonnegros" es equivalente en lgica a la afirmacin "todas las cosas no-negras son no-cuervos". Por lo tanto, observaruna manzana roja proporciona evidencia emprica para sostener esta segunda afirmacin. Una manzana roja es unacosa no-negra, y cuando la examinamos, vemos que es un no-cuervo. As que, por el principio de induccin, elobservar una manzana roja debera incrementar nuestra confianza en la creencia de que todos los cuervos son negros.

  • Paradoja del cuervo 3

    Hay filsofos que han ofrecido varias soluciones a este desafo a la intuicin. El lgico estadounidense NelsonGoodman ha sugerido aadir restricciones a nuestro propio razonamiento, como no considerar nunca que un casovlido "Todos los P son Q" si valida tambin "Ningn P es Q".Otros filsofos han cuestionado el "principio de equivalencia". A lo mejor, la manzana roja debe aumentar nuestracreencia en la teora "todas las cosas no-negras son no-cuervos" sin aumentar nuestra creencia en la teora "todos loscuervos son negros". Esta sugerencia tambin ha sido cuestionada, sin embargo, con el argumento de que no puedestener distinto nivel de creencia en dos afirmaciones si sabes que ambas son o ciertas o falsas al mismo tiempo.Goodman, y ms tarde, Quine, usaron el trmino predicado proyectable para describir las expresiones, como cuervoy negro, que s permiten el uso de generalizaciones inductivas. Los predicados no proyectables son aquellos comono-negro y no-cuervo, que aparentemente no lo permiten. (Ver tambin verjo, otro predicado no proyectableinventado por Goodman.) Quine sugiri que es una cuestin emprica cules, si alguno, de los predicados sonproyectables, y observa que en un universo de infinitos objetos, el complemento de un predicado proyectable debeser siempre no proyectable. Esto tendra la consecuencia de que, a pesar de que "todos los cuervos son negros" y"todas las cosas no-negras son no-cuervos" deben ser validados al mismo tiempo, ambos derivan su apoyo decuervos negros, y no de no-cuervos no-negros.Algunos filsofos han defendido que es nuestra intuicin la que falla. Observar una manzana roja realmenteincrementa la probabilidad de que todos los cuervos sean negros. Despus de todo, si alguien te diese todas las cosasno-negras del universo, y pudieses ver que no hay ningn cuervo entre ellas, podras concluir entonces que todos loscuervos son negros. El ejemplo solo desafa a la intuicin porque el conjunto de cosas no-negras es con diferenciams grande que el conjunto de cuervos. As, observar otra cosa no-negra que no sea un cuervo debera cambiar muypoco nuestra creencia en la teora si lo comparamos con la observacin de otro cuervo que s sea negro.Hay una alternativa al "principio de induccin" descrito anteriormente.Sea X una instancia de la teora T, e I toda nuestra informacin sobre el entorno.

    Sea la probabilidad de dado . Entonces,

    Este principio se conoce como "teorema de Bayes". Es una de las bases de la probabilidad y la estadstica. Cuandolos cientficos publican anlisis de resultados experimentales y obtienen que son significativos estadsticamente o nosignificativos estadsticamente, estn usando este principio de forma implcita, por lo que podra afirmarse que esteprincipio describe mejor el razonamiento cientfico que el "principio de induccin" original.Si se usa este principio, no aparece la paradoja. Si pides a alguien que escoja una manzana al azar y te la muestre,entonces la probabilidad de ver una manzana roja es independiente del color de los cuervos. El numerador ser igualal denominador, por lo que la divisin ser igual a uno, y la probabilidad permanecer inalterada. Ver una manzanaroja no afectar a tu creencia de que todos los cuervos son negros.Si pides a alguien que escoja una cosa no-negra al azar, y te muestran una manzana roja, entonces el numerador sersuperior al denominador por una diferencia mnima. Ver la manzana roja slo aumentar ligeramente tu creencia deque todos los cuervos son negros. Tendrs que ver casi todas las cosas del universo (y comprobar que sonno-cuervos) para que aumente de modo apreciable tu creencia en "todos los cuervos son negros". En ambos casos, elresultado es de acuerdo a la intuicin.

  • Paradoja del cuervo 4

    Referencias Hempel, Carl. G. A Purely Syntactical Definition of Confirmation. J. Symb. Logic 8, 122-143, 1943. Hempel, Carl. G. Studies in Logic and Confirmation. Mind 54, 1-26, 1945. Hempel, Carl. G. Studies in Logic and Confirmation. II. Mind 54, 97-121, 1945. Hempel, Carl G, Studies in the Logic of Confirmation. In Marguerite H. Foster and Michael L. Martin [1], eds.

    Probability, Confirmation, and Simplicity. New York: Odyssey Press, 1966. Pp 145-183 Falletta, Nicholas. The Paradoxicon: a Collection of Contradictory Challenges, Problematical Puzzles, and

    Impossible Illustrations. 1983. Pp 126-131. ISBN 0-385-17932-4

    Enlaces externos Hempel [2] (Ingls, informacin general) PRIME Encyclopedia [3](Ingls, informacin general) J. L. Mackie. The British Journal for the Philosophy of Science, 13, 265-277 (1963) [4] (Ingls, anlisis

    exhaustivo)

    Referencias[1] http:/ / www. bu. edu/ philo/ faculty/ martin. html[2] http:/ / homepage. powerup. com. au/ ~mindgym/ rumpus/ hempel. htm[3] http:/ / www. mathacademy. com/ pr/ prime/ articles/ paradox_raven/ index. asp[4] http:/ / www. uwichill. edu. bb/ bnccde/ ph29a/ parconf. htm

    Probabilidad condicionadaProbabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que tambin sucede otro evento B.La probabilidad condicional se escribe P(A|B), y se lee la probabilidad de A dado B.No tiene por qu haber una relacin causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo opueden ocurrir simultneamente. A puede causar B, viceversa o pueden no tener relacin causal. Las relacionescausales o temporales son nociones que no pertenecen al mbito de la probabilidad. Pueden desempear un papel ono dependiendo de la interpretacin que se le d a los eventos.El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.

  • Probabilidad condicionada 5

    DefinicinDado un espacio de probabilidad y dos eventos (o sucesos) con , laprobabilidad condicional de A dado B est definida como:

    se puede interpretar como,

    tomando los mundos en los que B se cumple, lafraccin en los que tambin se cumple A.

    Interpretacin

    se puede interpretar como, tomando los mundos en los queB se cumple, la fraccin en los que tambin se cumple A. Si el eventoB es, por ejemplo, tener la gripe, y el evento A es tener dolor decabeza, sera la probabilidad de tener dolor de cabezacuando se est enfermo de gripe.Grficamente, si se interpreta el espacio de la ilustracin como elespacio de todos los mundos posibles, A seran los mundos en los quese tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zonaverde de la interseccin representara los mundos en los que se tienegripe y dolor de cabeza . En este caso , esdecir, la probabilidad de que alguien tenga dolor de cabeza sabiendoque tiene gripe, sera la proporcin de mundos con gripe y dolor de cabeza (color verde) de todos los mundos congripe: El rea verde dividida por el rea de B. Como el rea verde representa y el rea de B representa a

    , formalmente se tiene que:

    Propiedades1.1.Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor decabeza dado que tengo gripe es 1.

    1.

  • Probabilidad condicionada 6

    La proporcin de zona verde dentro de B es lamisma que la de A en todo el espacio y, de lamisma forma, la proporcin de la zona verde

    dentro de A es la misma que la de B en todo elespacio. Son sucesos dependientes.

    Independencia de sucesos

    Dos sucesos aleatorios A y B son independientes si y slo si:

    O sea que si A y B son independientes, su probabilidad conjunta,

    puede ser expresada como el producto de las probabilidadesindividuales. Equivalentemente:

    En otras palabras, si A y B son independientes, la probabilidadcondicional de A dado B es simplemente la probabilidad de A yviceversa.

    Exclusividad mutua

    Los conjuntos A y B no intersecan. Sonmutuamente excluyentes.

    Dos sucesos A y B son mutuamente excluyentes si y slo si. Entonces, .

    Adems, si entonces es igual a 0.

    La falacia de la probabilidad condicional

    La falacia de la probabilidad condicional se basa en asumir que P(A|B)es casi igual a P(B|A). El matemtico John Allen Paulos analiza en sulibro El hombre anumrico este error muy comn cometido porpersonas que desconocen la probabilidad.

    La verdadera relacin entre P(A|B) y P(B|A) es la siguiente:

    (Teorema de Bayes)

    Problemas de ejemplo---La paradoja del falso positivo---La magnitud de este problema es la mejor entendida en trminos de probabilidades condicionales.Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto est bien. Escogiendo unindividuo al azar:

    y Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una posibilidad del 1 % deconseguir un falso positivo, esto es:

    y Finalmente, supongamos que aplicando la prueba a una persona que tiene la enfermedad, hay una posibilidad del 1% de un falso negativo, esto es:

  • Probabilidad condicionada 7

    y Ahora, uno puede calcular lo siguiente:La fraccin de individuos en el grupo que estn sanos y dan negativo:

    La fraccin de individuos en el grupo que estn enfermos y dan positivo:

    La fraccin de individuos en el grupo que dan falso positivo:

    La fraccin de individuos en el grupo que dan falso negativo:

    Adems, la fraccin de individuos en el grupo que dan positivo:

    Finalmente, la probabilidad de que un individuo realmente tenga la enfermedad, dado un resultado de la pruebapositivo:

    En este ejemplo, debera ser fcil ver la diferencia entre las probabilidades condicionadas P (positivo | enfermo) (quees del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la probabilidad de que un individuo enfermo dpositivo en la prueba; la segunda es la probabilidad de que un individuo que da positivo en la prueba tenga realmentela enfermedad. Con los nmeros escogidos aqu, este ltimo resultado probablemente sera considerado inaceptable:la mitad de la gente que da positivo en realidad est sana.

    La probabilidad de tener una enfermedad rara es de 0,001: La probabilidad de que cuando el paciente est enfermo se acierte en el diagnstico es de 0,99:

    La probabilidad de falso positivo es de 0,05: Pregunta: Me dicen que he dado positivo, Qu probabilidad hay de que tenga la enfermedad?

  • Distribucin de probabilidad continua 8

    Distribucin de probabilidad continua

    Una distribucin de probabilidad continua, la distribucin normal.

    En teora de la probabilidad una distribucin deprobabilidad se llama continua si su funcin dedistribucin es continua. Puesto que la funcin dedistribucin de una variable aleatoria X viene dada por

    , la definicin implica que enuna distribucin de probabilidad continua X se cumpleP[X = a] = 0 para todo nmero real a, esto es, laprobabilidad de que X tome el valor a es cero paracualquier valor de a. Si la distribucin de X es continua,se llama a X variable aleatoria continua.

    En las distribuciones de probabilidad continuas, ladistribucin de probabilidad es la integral de la funcinde densidad, por lo que tenemos entonces que:

    Mientras que en una distribucin de probabilidad discreta un suceso con probabilidad cero es imposible, no se da elcaso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de una hoja de roble, el resultado 3,5 cmes posible, pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esosvalores individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no lo es. Esta aparente paradojase resuelve por el hecho de que la probabilidad de que X tome algn valor en un conjunto infinito como un intervalo,no puede calcularse mediante la adicin simple de probabilidades de valores individuales. Formalmente, cada valortiene una probabilidad infinitesimal que estadsticamente equivale a cero.

    Existe una definicin alternativa ms rigurosa en la que el trmino "distribucin de probabilidad continua" se reservaa distribuciones que tienen funcin de densidad de probabilidad. Estas funciones se llaman, con ms precisin,variables aleatorias absolutamente continuas (vase el Teorema de Radon-Nikodym). Para una variable aleatoria Xabsolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo nmero real a, en virtud deque hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).Una variable aleatoria con la distribucin de Cantor es continua de acuerdo con la primera definicin, pero segn lasegunda, no es absolutamente continua. Tampoco es discreta, ni una media ponderada de variables discretas yabsolutamente continuas.En aplicaciones prcticas, las variables aleatorias a menudo ofrece una distribucin discreta o absolutamentecontinua, aunque tambin aparezcan de forma natural mezclas de los dos tipos.

    DefinicinPara una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos se pueden definirinfinitos valores ms. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable;como se puede hacer en el caso de variables discretas, pero es posible calcular la probabilidad acumulada hasta uncierto valor (funcin de distribucin de probabilidad), y se puede analizar como cambia la probabilidad acumuladaen cada punto (estos cambios no son probabilidades sino otro concepto: la funcin de densidad.En el caso de variable continua la distribucin de probabilidad es la integral de la funcin de densidad, por lo quetenemos entonces que:

  • Distribucin de probabilidad continua 9

    Sea una variable continua, una distribucin de probabilidad o funcin de densidad de probabilidad (FDP) de es una funcin tal que, para cualesquiera dos nmeros y siendo .

    La grfica de se conoce a veces como curva de densidad, la probabilidad de que tome un valor en elintervalo es el rea bajo la curva de la funcin de densidad; as, la funcin mide concentracin de probabilidadalrededor de los valores de una variable aleatoria continua.

    rea bajo la curva de entre y Para que sea una FDP ( ) legtima, debe satisfacer las siguientes dos condiciones:

    1. 0 para toda .

    2.

    Ya que la probabilidad es siempre un nmero positivo, la FDP es una funcin no decreciente que cumple:

    1. . Es decir, la probabilidad de todo el espacio muestral es 1.

    2. . Es decir, la probabilidad del suceso nulo es cero.Algunas FDP estn declaradas en rangos de a , como la de la distribucin normal.

    Distribuciones continuasLas distribuciones de variable continua ms importantes son las siguientes: Distribucin Beta Distribucin exponencial Distribucin F Distribucin Gamma Distribucin ji cuadrado Distribucin normal Distribucin t de Student

    Enlaces externos. Wikimedia Commons alberga contenido multimedia sobre Distribuciones de probabilidad. Commons

  • Distribucin Box-Cox 10

    Distribucin Box-CoxEn la estadstica, la distribucin Box-Cox (tambin conocida como la distribucin de energa de lo normal) es ladistribucin de una variable aleatoria X para la que la transformacin Box-Cox en X sigue una distribucin normaltruncada. Se trata de una distribucin de probabilidad continua que tiene la funcin de densidad de probabilidad dadapor:

    para y> 0, donde m es el parmetro de localizacin de la distribucin, s es la dispersin, f es el parmetro de lafamilia, I es la funcin indicadora , es la Funcin de distribucin de la distribucin normal estndar, y sgn es lafuncin signo.Fue propuesta por George E. P. Box y David Cox.

    Caso especial = 1 da una distribucin normal truncada.

    Referencias Properties of the Power-Normal Distribution [1]. U.S. Environmental Protection Agency.

    Referencias[1] http:/ / www. udc. edu/ docs/ dc_water_resources/ technical_reports/ report_n_190. pdf

  • Distribucin de Cauchy 11

    Distribucin de Cauchy

    Cauchy-Lorentz

    La lnea verde es la distribucin estndar de CauchyFuncin de densidad de probabilidad

    Leyenda de colores para la PDF de la imagen superiorFuncin de distribucin de probabilidad

    Parmetros (real)escala (real)

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media no definida

    Mediana

    Moda

    Varianza no definida

    Curtosis no definida

    Entropa

    Funcin generadora de momentos (mgf) no definida

    Funcin caracterstica

  • Distribucin de Cauchy 12

    La distribucin Cauchy-Lorentz, llamada en honor a Augustin Cauchy y Hendrik Lorentz, es una distribucin deprobabilidad continua. Es conocida como la distribucin de Cauchy y en el mbito de la fsica se conoce como ladistribucin de Lorentz, la funcin Lorentziana la distribucin de Breit-Wigner. Su importancia en la fsica esdada por ser la solucin de la ecuacin diferencial que describe la resonancia forzada. En espectroscopia describe laforma de las lneas espectrales que son ampliadas por diversos mecanismos, en particular, el mecanismo deensanchamiento por colisin [1].

    Caracterizacin

    Funcin de densidad (PDF)En estadstica la distribucin de Cauchy (a veces tambin distribucin de Lorentz) es una distribucin deprobabilidad continua cuya funcin de densidad es

    donde x0 es el parmetro de corrimiento que especifica la ubicacin del pico de la distribucin, y es el parmetro deescala que especifica el ancho medio al mximo medio (half-width at half-maximum, HWHM).En el caso especial donde x0 = 0 y = 1 es denominado la distribucin estndar Cauchy con la funcin dedensidad de probabilidad

    En general la distribucin de Cauchy no tiene valor esperado ni varianza.

    Sean y dos variables aleatorias uniformes dentro -1 y 1 y , entonces el nmero tiene ladistribucin Cauchy.

    Funcin de distribucinLa funcin de distribucin acumulativa (CDF) es:

    y la funcin inversa de distribucin acumulativa para la distribucin Cauchy es

  • Distribucin de Cauchy 13

    PropiedadesLa distribucin de Cauchy es un ejemplo de una distribucin que no tiene valor esperado, varianza o momentosdefinidos. Su moda y su mediana estn bien definidas y son ambas iguales a x0.Cuando U y V son dos variables aleatorias independendientes y normalmente distribuidas con un valor esperado = 0y una variancia = 1, luego la tasaU/V tiene la distribucin estndar de Cauchy.S X1, , Xn son variables aleatorias, independientes e idnticamente distribuidas, cada una con una distribucinCauchy, luego la media de la muestra (X1 + + Xn)/n tiene la misma distribucin Cauchy estndar (la media de lamuestra, la cul no es afectada por los valores extremos, puede ser usada como medida de la tendencia central). Paracomprobar que esto es cierto se calcula la funcin caracterstica de la media de la muestra:

    donde es la media de la muestra. Este ejemplo sirve para demostrar que la hiptesis de variancia finita en elteorema del lmite central no puede ser depuesta, al igual que la hiptesis de esperanza finita en la ley de los grandesnmeros. Es tambin un ejemplo de una versin ms generalizada del teorema de lmite central que es caractersticade todas las distribuciones asimtricas alpha-estables de Lvy, de las cuales es la distribucin de Cauchy un casoespecial.La distribucin de Cauchy es una funcin de distribucin infinitamente divisible. Es tambin una distribucinestrictamente estable.La distribucin de Cauchy concide con la distribucin t de Student con un grado de libertad.

    Funcin CaractersticaSea X una variable aleatoria con una distribucin Cauchy. Luego la funcin caracterstica de la distribucin Cauchyest bien definida:

    Enlaces externos MathWorld [2]

    GNU Scientific Library - Reference Manual [3]

    ensanchamiento por colisin [1]

    Diccionario Estadstico [4]

    Referencias[1] http:/ / www. astro. puc. cl/ ~dante/ cursofia2000/ apuntes/ node55. html[2] http:/ / mathworld. wolfram. com/ CauchyDistribution. html[3] http:/ / www. gnu. org/ software/ gsl/ manual/ gsl-ref. html#SEC294[4] http:/ / www. estadistico. com/ dic. html

  • Distribucin de Erlang 14

    Distribucin de Erlang

    Distribucin de Erlang

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros

    alt.:

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media

    Mediana

    Moda for

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf) for

    Funcin caracterstica

    En estadstica, la distribucin Erlang, es una distribucin de probabilidad continua con dos parmetros y cuya funcin de densidad para valores es

    La distribucin Erlang es el equivalente de la distribucin gamma con el parmetro y . Para eso es la distribucin exponencial. Se utiliza la distribucin Erlang para describir el tiempo de espera

  • Distribucin de Erlang 15

    hasta el suceso nmero en un proceso de Poisson.

    Su esperanza viene dada por: Su varianza viene dada por: La funcin generadora de momentos responde a la expresin:

    Enlaces externos Calculadora Distribucin de Erlang [1]

    Referencias[1] http:/ / www. elektro-energetika. cz/ calculations/ distrerlang. php?language=espanol

    Distribucin de Gumbel

    Distribucin de Gumbel

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros location (real)

    scale (real)

    Dominio

    Funcin de densidad (pdf)

    where Funcin de distribucin (cdf)

    Media

    Mediana

    Moda

  • Distribucin de Gumbel 16

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf)

    Funcin caracterstica

    En teora de probabilidad y estadstica la distribucin de Gumbel (llamada as en honor de Emil Julius Gumbel(1891-1966) es utilizada para modelar la distribucin del mximo (o el mnimo), por lo que se usa para calcularvalores extremos. Por ejemplo, sera muy til para representar la distribucin del mximo nivel de un ro a partir delos datos de nveles mximos durante 10 aos. Es por esto que resulta muy til para predecir terremotos,inundaciones o cualquier otro desastre natural que pueda ocurrir.La aplicabilidad potencial de la distribucin de Gumbel para representar los mximos se debe a la teora de valoresextremos que indica que es probable que sea til si la muestra de datos tiene una distribucin normal o exponencial.

    Propiedades

    Una muestra de papel para graficar que incorpora ladistribucion Gumbel

    La funcin de distribucin acumulada de Gumbel es:T

    La mediana es

    La media es donde = Constante de Euler-Mascheroni0.5772156649015328606.

    La desviacin estndar es:

    La moda es .

    Distribucin estndar de GumbelLa distribucin estndar de Gumbel es el caso donde = 0 y = 1 con la funcin acumulada

    y la funcin de densidad

    La mediana es 0.36651292058166432701.La media es , the EulerMascheroni constant 0.5772156649015328606.La desviacin estndar es

    1.28254983016186409554.La moda es 0.

  • Distribucin de Gumbel 17

    Estimacin de parmetrosUn modo prctico de usar la distribucin puede ser:

    donde M es la mediana. Para ajustar los valores es posible tomar la median directamente y a continuacin de vara hasta que se ajusta al conjunto de valores.

    Generacin de variables de GumbelSea una variable aleatoria U extraa de una distribucin uniforme y continua, en el intervalo [0,1], entonces lavariable:

    tiene una distribucin de Gumbel con parmetros and . Esto se deduce de la forma de la funcin de distribucinacumulada dada anteriormente.a todos los valores anteriores se les debe multiplicar por 100 y divir por 33,33 para tener mayor confiabilidad

    Distribuciones relacionadasCuando la cdf de Y es la inversa de la distribucin estndar de Gumbel acumulada, ,entonces Y tiene una Distribucin de Gompertz.[1]

    Distribucin de Gumbel OpuestaAlgunos autores emplean una versin modificada de la distribucin de Gumbel.[2] La funcin de distribucinacumulada opuesta de Gumbel es:

    La funcin de densidad de probabilidad es:

    References[1] Willemse, W. J. and Kaas, R., "Rational reconstruction of frailty-based mortality models by a generalisation of Gompertz law of mortality",

    Insurance: Mathematics and Economics, 40 (3) (2007), 468484.[2][2] Moncho, R.; Caselles, V.; Chust, G. (2012): "Alternative model of probability distribution of precipitation: application to Spain". Climate

    Research, 51: 23:33

    SoftwareSe puede usar software y un programa de computadora para el ajuste de una distribucin de probabilidad, incluyendola de Gumbel, a una serie de datos: Easy fit (http:/ / www. mathwave. com/ articles/ distribution_fitting. html), "data analysis & simulation" MathWorks Benelux (http:/ / www. mathworks. nl/ products/ statistics/ demos. html?file=/ products/ demos/

    shipping/ stats/ cfitdfitdemo. html) ModelRisk (http:/ / www. vosesoftware. com/ ), "risk modelling software" Ricci distributions, fitting distrubutions with R (http:/ / cran. r-project. org/ doc/ contrib/ Ricci-distributions-en.

    pdf) , Vito Ricci, 2005 Risksolver, automatically fit distributions and parameters to samples (http:/ / www. solver. com/ risksolver8. htm)

  • Distribucin de Gumbel 18

    StatSoft distribution fitting (http:/ / www. statsoft. com/ textbook/ distribution-fitting/ ) CumFreq (http:/ / www. waterlog. info/ cumfreq. htm) , libre sin costo, incluye intervalos de confianza a base de

    la distribucin binomial

    Distribucin de Pareto

    Pareto

    Funciones de densidad de probabilidad para diferentes con xm=1. El eje horizontal es el parmetro x&nbsp. Como la distribucin seaproxima (xxm) donde es la delta de Dirac.

    Funcin de densidad de probabilidad

    unciones de densidad de probabilidad para diferentes con xm=1. El eje horizontal es el parmetro x&nbsp.Funcin de distribucin de probabilidad

    Parmetros escala (real)forma (real)

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media

    Mediana

    Moda

  • Distribucin de Pareto 19

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf)

    Funcin caracterstica

    En estadstica la distribucin Pareto, formulada por el socilogo Vilfredo Pareto, es una distribucin deprobabilidad continua con dos parmetros, que tiene aplicacin en disciplinas como la sociologa, geofsica yeconoma. En algunas disciplinas a veces se refieren a la ley de Bradford. Por otro lado, el equivalente discreto de ladistribucin Pareto es la distribucin zeta (la ley de Zipf).

    Probabilidad acumuladaSi X pertenece al dominio de la variable de la distribucin de pareto, entonces la probabilidad de que X sea mayorque un nmero x viene dada por:

    donde xm es el valor mnimo posible (positivo) de X, y es un parmetro. La familia de las distribuciones de Paretose parametrizan por dos cantidades, xm y . Cuando esta distribucin es usada en un modelo sobre la distribucin deriqueza, el parmetro es conocido como ndice de Pareto.

    Funcin de densidadA partir de la probabilidad acumulada, se puede deducir mediante una derivada que la funcin de densidad deprobabilidad es:

    Propiedades La media o valor esperado de una variable aleatoria X, que sigue una distribucin de Pareto con parmetro >1

    es

    (if 1, the expected value does not exist). La varianza es

    (Si 2, la varianza no existe). Los momentos son

  • Distribucin de Pareto 20

    pero el n-simo momento existe slo para n

  • Distribucin de Pareto 21

    o

    de nuevo, para , y si

    SoftwareSe puede usar software y un programa de computadora para el ajuste de una distribucin de probabilidad, incluyendola de Pareto, a una serie de datos: Easy fit [2], "data analysis & simulation" MathWorks Benelux [3]

    ModelRisk [4], "risk modelling software" Ricci distributions, fitting distrubutions with R [5] , Vito Ricci, 2005 Risksolver, automatically fit distributions and parameters to samples [6]

    StatSoft distribution fitting [7]

    CumFreq [8] , libre sin costo, incluye intervalos de confianza a base de la distribucin binomial

    Citas[2] http:/ / www. mathwave. com/ articles/ distribution_fitting. html[3] http:/ / www. mathworks. nl/ products/ statistics/ demos. html?file=/ products/ demos/ shipping/ stats/ cfitdfitdemo. html[4] http:/ / www. vosesoftware. com/[5] http:/ / cran. r-project. org/ doc/ contrib/ Ricci-distributions-en. pdf[6] http:/ / www. solver. com/ risksolver8. htm[7] http:/ / www. statsoft. com/ textbook/ distribution-fitting/[8] http:/ / www. waterlog. info/ cumfreq. htm

    Barry C. Arnold (1983). Pareto Distributions, International Co-operative Publishing House, Burtonsville,Maryland. ISBN 0-899974-012-1.

    Christian Kleiber and Samuel Kotz (2003). Statistical Size Distributions in Economics and Actuarial Sciences,New York:Wiley. xi+332 pp. ISBN 0-471-15064-9.

    Lorenz, M. O. (1905). "Methods of measuring the concentration of wealth". Publications of the AmericanStatistical Association. 9: 209219.

  • Distribucin de Rayleigh 22

    Distribucin de Rayleigh

    Distribucin de probabilidad Rayleigh.

    En la teora de la probabilidad y estadstica, la distribucin deRayleigh es una funcin de distribucin continua. Se suelepresentar cuando un vector bidimensional (por ejemplo, el querepresenta la velocidad del viento) tiene sus dos componentes,ortogonales, independientes y siguen una distribucin normal. Suvalor absoluto seguir entonces una distribucin de Rayleigh. Estadistribucin tambin se puede presentar en el caso de nmeroscomplejos con componentes real e imaginaria independientes ysiguiendo una distribucin normal. Su valor absoluto sigue unadistribucin de Rayleigh.

    Distribucin Rayleigh cumulativa.

    La funcin de densidad de probabilidad es:

    Su esperanza es:

    y su varianza:

    Estimacin del parmetroLa estimacin de mxima verosimilitud del parmetro viene dado por:

    Distribuciones relacionadas es una distribucin de Rayleigh si donde y

    son dos distribuciones normales independientes. Si entonces sigue una distribucin chi-cuadrado con dos grados de libertad: Si sigue una distribucin exponencial entonces

    . La distribucin chi es una generalizacin de la distribucin de Rayleigh. La distribucin de Rice es una generalizacin de la distribucin de Rayleigh. La distribucin de Weibull es una generalizacin de la distribucin de Rayleigh.

  • Distribucin de Rayleigh 23

    Enlaces externos Calculadora Distribucin de Rayleigh [1]

    Referencias[1] http:/ / www. elektro-energetika. cz/ calculations/ distrrayl. php?language=espanol

    Distribucin exponencial

    Distribucin exponencial

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media

    Mediana

    Moda

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf)

    Funcin caracterstica

    En estadstica la distribucin exponencial es una distribucin de probabilidad continua con un parmetro cuya funcin de densidad es:

  • Distribucin exponencial 24

    Su funcin de distribucin es:

    Donde representa el nmero e.El valor esperado y la varianza de una variable aleatoria X con distribucin exponencial son:

    La distribucin exponencial es un caso particular de distribucin gamma con k = 1. Adems la suma de variablesaleatorias que siguen una misma distribucin exponencial es una variable aleatoria expresable en trminos de ladistribucin gamma.

    EjemploEjemplos para la distribucin exponencial es la distribucin de la longitud de los intervalos de variable continua quetranscuren entre la ocurrencia de dos sucesos, que se distribuyen segn la distribucin de Poisson.

    Calcular variables aleatoriasSe pueden calcular una variable aleatoria de distribucin exponencial por medio de una variable aleatoria dedistribucin uniforme :

    o, dado que es tambin una variable aleatoria con distribucin , puede utilizarse la versin mseficiente:

    RelacionesLa suma de variables aleatorias independientes de distribucin exponencial con parmetro es una variablealeatoria de distribucin gamma.

    SoftwareSe puede usar software y un programa de computadora para el ajuste de una distribucin de probabilidad, incluyendola exponencial, a una serie de datos: Easy fit [2], "data analysis & simulation" MathWorks Benelux [3]

    ModelRisk [4], "risk modelling software" Ricci distributions, fitting distrubutions with R [5] , Vito Ricci, 2005 Risksolver, automatically fit distributions and parameters to samples [6]

    StatSoft distribution fitting [7]

    CumFreq [8] , libre sin costo, incluye intervalos de confianza a base de la distribucin binomial

  • Distribucin exponencial 25

    Enlaces externos Calculadora Distribucin exponencial [1]

    [2]Calcular la probabilidad de una distribucin exponencial con R (lenguaje de programacin)

    Referencias[1] http:/ / www. elektro-energetika. cz/ calculations/ ex. php?language=espanol[2] http:/ / cajael. com/ mestadisticos/ T7DContinuas/ node20. php

    Distribucin F

    Fisher-Snedecor

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros grados de libertad

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Mediapara

    Modapara

    Varianzapara

  • Distribucin F 26

    Coeficiente de simetra

    para

    Usada en teora de probabilidad y estadstica, la distribucin F es una distribucin de probabilidad continua.Tambin se le conoce como distribucin F de Snedecor (por George Snedecor) o como distribucin F deFisher-Snedecor.Una variable aleatoria de distribucin F se construye como el siguiente cociente:

    donde U1 y U2 siguen una distribucin chi-cuadrado con d1 y d2 grados de libertad respectivamente, y U1 y U2 son estadsticamente independientes.La distribucin F aparece frecuentemente como la distribucin nula de una prueba estadstica, especialmente en elanlisis de varianza. Vase el test F.La funcin de densidad de una F(d1, d2) viene dada por

    para todo nmero real x 0, donde d1 y d2 son enteros positivos, y B es la funcin beta.La funcin de distribucin es

    donde I es la funcin beta incompleta regularizada.

    Distribuciones relacionadas es una distribucin ji-cuadrada cuando para .

    Enlaces externos Tabla de valores crticos de una distribucin F [1]

    Prueba de significacin mediante la distribucin F [2]

    Distribution Calculator [3] Calcula las probabilidades y valores crticos para las distribuciones normal, t,ji-cuadrada y F

    [4] Calcular la probabilidad de una distribucin F-Snedecor con R (lenguaje de programacin)

    Referencias[1] http:/ / www. itl. nist. gov/ div898/ handbook/ eda/ section3/ eda3673. htm[2] http:/ / home. clara. net/ sisa/ signhlp. htm[3] http:/ / www. vias. org/ simulations/ simusoft_distcalc. html[4] http:/ / cajael. com/ mestadisticos/ T7DContinuas/ node17. php

  • Distribucin gamma 27

    Distribucin gamma

    Distribucin gamma.

    En estadstica la distribucin gamma es una distribucin deprobabilidad continua con dos parmetros y cuya funcin dedensidad para valores es

    Aqu es el nmero e y es la funcin gamma. Para valoresla aquella es (el factorial de

    ). En este caso - por ejemplo para describir un proceso dePoisson - se llaman la distribicin distribucin Erlang con unparmetro .El valor esperado y la varianza de una variable aleatoria X de distribucin gamma son

    RelacionesEl tiempo hasta que el suceso nmero ocurre en un Proceso de Poisson de intensidad es una variable aleatoriacon distribucin gamma. Eso es la suma de variables aleatorias independientes de distribucin exponencial conparmetro .Vase tambin: Distribucin Beta, Distribucin Erlang, Distribucin Chi-cuadrada

    Enlaces externos http:/ / mathworld. wolfram. com/ GammaDistribution. html [1] Calcular la probabilidad de una distribucin Gamma con R (lenguaje de programacin)

    Referencias[1] http:/ / cajael. com/ mestadisticos/ T7DContinuas/ node29. php

  • Distribucin log-normal 28

    Distribucin log-normalEn probabilidades y estadsticas, la distribucin log-normal es una distribucin de probabilidad de cualquiervariable aleatoria con su logaritmo normalmente distribuido (la base de una funcin logartmica no es importante, yaque loga X est distribuida normalmente si y slo si logb X est distribuida normalmente). Si X es una variablealeatoria con una distribucin normal, entonces exp(X) tiene una distribucin log-normal.Log-normal tambin se escribe log normal o lognormal.Una variable puede ser modelada como log-normal si puede ser considerada como un producto multiplicativo demuchos pequeos factores independientes. Un ejemplo tpico es un retorno a largo plazo de una inversin: puedeconsiderarse como un producto de muchos retornos diarios.La distribucin log-normal tiende a la funcin densidad de probabilidad

    para , donde y son la media y la desviacin estndar del logaritmo de variable. El valor esperado es

    y la varianza es

    .

    Relacin con media y la desviacin estndar geomtricaLa distribucin log-normal, la media geomtrica, y la desviacin estndar geomtrica estn relacionadas. En estecaso, la media geomtrica es igual a y la desviacin estndar geomtrica es igual a .Si una muestra de datos determina que proviene de una poblacin distribuida siguiendo una distribucin log-normal,la media geomtrica de la desviacin estndar geomtrica puede utilizarse para estimar los intervalos de confianza talcomo la media aritmtica y la desviacin estndar se usan para estimar los intervalos de confianza para un datodistribuido normalmente.

    Lmite de intervalo de confianza log geomtrica

    3 lmite inferior

    2 lmite inferior

    1 lmite inferior

    1 lmite superior

    2 lmite superior

    3 lmite superior

    Donde la media geomtrica y la desviacin estndar geomtrica

  • Distribucin log-normal 29

    MomentosLos primeros momentos son:

    o de forma general:

    Estimacin de parmetrosPara determinar los estimadores que ms se aproximan a los parmetros y de la distribucin log-normal,podemos utilizar los mismos procedimientos que para la distribucin normal. Para no repetirlo, obsrvese que

    donde por denotamos la funcin densidad de probabilidad de distribucin log-normal, y por a la de ladistribucin normal. Por lo tanto, utilizando los mismos ndices para denotar las distribuciones, podemos escribir que

    Ya que el primer trmino es constante respecto a y , ambas funciones logartmicas, y , obtienen sumximo con el mismo y . Por tanto, utilizando las frmulas para los estimadores de parmetros de la distribucinnormal, y la igualdad de arriba, deducimos que para la distribucin log-normal se cumple:

    Distribucin relacionada Si es una distribucin normal, entonces . Si son variables independentes log-normalmente distribuidas con el

    mismo parmetro y permitiendo que vare , y , entonces Y es una variable distribuida

    log-normalmente como: .

    SoftwareSe puede usar software o programa de computadora para el ajuste de una distribucin de probabilidad, incluyendo lalognormal, a una serie de datos: Easy fit [2], "data analysis & simulation" MathWorks Benelux [3]

    ModelRisk [4], "risk modelling software" Ricci distributions, fitting distrubutions with R [5] , Vito Ricci, 2005 Risksolver, automatically fit distributions and parameters to samples [6]

    StatSoft distribution fitting [7]

  • Distribucin log-normal 30

    CumFreq [8] , libre sin costo, incluye la distribucin normal, la lognormal, raz-normal, cuadrado-normal, eintervalos de confianza a base de la distribucin binomial

    Distribucin t de Student

    Distribucin t de Student

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros grados de libertad (real)

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    donde es la funcin hipergeomtrica

    Media para , indefinida para otros valores

    Mediana

    Moda

    Varianza para , indefinida para otros valores

    Coeficiente de simetra para

    Curtosispara

  • Distribucin t de Student 31

    Entropa

    : funcin digamma, : funcin beta

    Funcin generadora de momentos (mgf) (No definida)

    En probabilidad y estadstica, la distribucin t (de Student) es una distribucin de probabilidad que surge delproblema de estimar la media de una poblacin normalmente distribuida cuando el tamao de la muestra es pequeo.Aparece de manera natural al realizar la prueba t de Student para la determinacin de las diferencias entre dosmedias muestrales y para la construccin del intervalo de confianza para la diferencia entre las medias de dospoblaciones cuando se desconoce la desviacin tpica de una poblacin y sta debe ser estimada a partir de los datosde una muestra.

    CaracterizacinLa distribucin t de Student es la distribucin de probabilidad del cociente

    donde Z tiene una distribucin normal de media nula y varianza 1 V tiene una distribucin ji-cuadrado con grados de libertad Z y V son independientes

    Si es una constante no nula, el cociente es una variable aleatoria que sigue la distribucin t de Student no

    central con parmetro de no-centralidad .

    Aparicin y especificaciones de la distribucin t de StudentSupongamos que X1,..., Xn son variables aleatorias independientes distribuidas normalmente, con media y varianza2. Sea

    la media muestral. Entonces

    sigue una distribucin normal de media 0 y varianza 1.Sin embargo, dado que la desviacin estndar no siempre es conocida de antemano, Gosset estudi un cocienterelacionado,

    donde

    es la varianza muestral y demostr que la funcin de densidad de T es

  • Distribucin t de Student 32

    donde es igual a n 1.La distribucin de T se llama ahora la distribucin-t de Student.El parmetro representa el nmero de grados de libertad. La distribucin depende de , pero no de o , locual es muy importante en la prctica.

    Intervalos de confianza derivados de la distribucin t de StudentEl procedimiento para el clculo del intervalo de confianza basado en la t de Student consiste en estimar la

    desviacin tpica de los datos S y calcular el error estndar de la media , siendo entonces el intervalo de

    confianza para la media = .

    Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dosdistribuciones normales se distribuye tambin normalmente, la distribucin t puede usarse para examinar si esadiferencia puede razonablemente suponerse igual a cero.para efectos prcticos el valor esperado y la varianza son:E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3

    HistoriaLa distribucin de Student fue descrita en 1908 por William Sealy Gosset. Gosset trabajaba en una fbrica decerveza, Guinness, que prohiba a sus empleados la publicacin de artculos cientficos debido a una difusin previade secretos industriales. De ah que Gosset publicase sus resultados bajo el seudnimo de Student.[1]

    Distribucin t de Student No EstandarizadaLa distribucin t puede generalizarse a 3 parmetros, introduciendo un parmero locacional y otro de escala .El resultado es una distribucin t de Student No Estandarizada cuya densidad est definida por:[]

    Equivalentemente, puede escribirse en trminos de (correspondiente a la varianza en vez de a la desviacinestndar):

    Otras propiedades de esta versin de la distribucin t son:[]

  • Distribucin t de Student 33

    Referencias

    Enlaces externos Tabla de distribucin de T de Student (http:/ / tablas-estadisticas. blogspot. com/ 2010/ 06/ t-de-student. html) Prueba t de Student en la UPTC de Colombia (http:/ / virtual. uptc. edu. co/ ova/ estadistica/ docs/ libros/ tstudent.

    pdf) Tabla distribucin t de Student Distribucin t-Student: Puntos porcentuales para probabilidad superior (http:/ / www. vaxasoftware. com/

    doc_edu/ mat. html) (http:/ / cajael. com/ mestadisticos/ T7DContinuas/ node11. php) Calcular la probabilidad de una distribucin

    t-Student con R (lenguaje de programacin)

    Distribucin

    Distribucin (ji-cuadrado)

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros grados de libertad

    Dominio

    Funcin de densidad (pdf)

  • Distribucin 34

    Funcin de distribucin (cdf)

    Media

    Mediana aproximadamente

    Moda if

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf) for

    Funcin caracterstica

    En estadstica, la distribucin (de Pearson), llamada Ji cuadrado, es una distribucin de probabilidad continuacon un parmetro que representa los grados de libertad de la variable aleatoria

    donde son variables aleatorias normales independientes de media cero y varianza uno. El que la variablealeatoria tenga esta distribucin se representa habitualmente as: .Es conveniente tener en cuenta que la letra griega se transcribe a otros idiomas (como el latn,[1] el ingls o elalemn) como chi. En cualquier caso, la pronunciacin en castellano es ji.[2][3] Tal diferencia es debida a la ausenciauna letra para el sonido j espaol en tales idiomas, y el sonido se imita con el digrafo ch.

    Propiedades

    Funcin de densidadSu funcin de densidad es:

    donde es la funcin gamma.

    Demostracin

  • Distribucin 35

    La funcin densidad de si Z es tipo N(0,1) viene dada por

    Despejando y teniendo en cuenta contribuciones positivas y negativas de z

    La funcin distribucin de viene dada por su convolucin

    Aplicando transformada de Laplace

    Aplicando antitransformada se obtiene f(x;k)

    Funcin de distribucin acumuladaSu funcin de distribucin es

    donde es la funcin gamma incompleta.El valor esperado y la varianza de una variable aleatoria X con distribucin son, respectivamente, k y 2k.

    Relacin con otras distribuciones

    La distribucin es un caso especial de la distribucin gamma. De hecho, Como

    consecuencia, cuando , la distribucin es una distribucin exponencial de media .Cuando k es suficientemente grande, como consecuencia del teorema central del lmite, puede aproximarse por unadistribucin normal:

    AplicacionesLa distribucin tiene muchas aplicaciones en inferencia estadstica. La ms conocida es la de la denominadaprueba utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimacin devarianzas. Pero tambin est involucrada en el problema de estimar la media de una poblacin normalmentedistribuida y en el problema de estimar la pendiente de una recta de regresin lineal, a travs de su papel en ladistribucin t de Student.Aparece tambin en todos los problemas de anlisis de varianza por su relacin con la distribucin F de Snedecor,que es la distribucin del cociente de dos variables aleatorias independientes con distribucin .

  • Distribucin 36

    Referencias[1] Lectiones: Textos clasicos para aprender Latin I (http:/ / books. google. com/ books?id=ZQxvTp0CInUC& printsec=frontcover&

    hl=es#v=onepage& q=ch ph tomadas del griego& f=false)[2] Omniglot, greek alphabet (http:/ / www. omniglot. com/ writing/ greek. htm)[3] Omniglot, spanish alphabet (http:/ / www. omniglot. com/ writing/ spanish. htm)

    Enlaces externos (http:/ / cajael. com/ mestadisticos/ T7DContinuas/ node7. php)Calcular la probabilidad de una distribucin de

    Pearson con R (lenguaje de programacin)

    Distribucin de Frchet

    Frchet

    Parmetros shape

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media

    Mediana

    Moda

    Varianza

    La distribucin de Frchet es un caso especial de la distribucin de valores extremos generalizada. Su funcin dedistribucin es

    donde >0 es el parmetro de forma. Puede generalizarse para incluir un parmetro de localizacin m y escala s>0quedando entonces de la forma

    Recibe su nombre de Maurice Frchet, que escribi un artculo relacionado con ella en 1927. Tambin trabajaron conella Fisher and Tippett en 1928 y Gumbel en 1958.

  • Distribucin de Frchet 37

    Enlaces externos Bank of England working paper [1]

    An application of a new extreme value distribution to air pollution data [2]

    Wave Analysis for Fatigue and Oceanography [3]

    Extreme value distributions: Theory and Applications, Kotz & Nadarajah [4]

    Publicaciones Frchet, M., (1927). "Sur la loi de probabilit de l'cart maximum." Ann. Soc. Polon. Math. 6, 93. Fisher, R.A., Tippett, L.H.C., (1928). "Limiting forms of the frequency distribution of the largest and smallest

    member of a sample." Proc. Cambridge Philosophical Society 24:180-190. Gumbel, E.J. (1958). "Statistics of Extremes." Columbia University Press, New York.

    Referencias[1] http:/ / www. bankofengland. co. uk/ publications/ workingpapers/ wp287. pdf[2] http:/ / www. emeraldinsight. com/ Insight/ ViewContentServlet?Filename=Published/ EmeraldFullTextArticle/ Articles/ 0830160102.

    html#0830160102006. png[3] http:/ / www. maths. lth. se/ matstat/ wafo/ documentation/ wafodoc/ wafo/ wstats/ wfrechstat. html[4] http:/ / www. worldscibooks. com/ mathematics/ etextbook/ p191/ p191_chap1_1. pdf

    Distribucin T de HotellingEn estadstica la distribucin T (T-cuadrado) de Hotelling es importante porque se presenta como la distribucinde un conjunto de estadsticas que son una generalizacin natural de las estadssticas subayacentes distribucin t deStudent. En particular, la distribucin se presenta en estadsticas multivariadas en pruebas de diferencias entre lasmedias (multivariadas) de diferentes poblaciones, donde las pruebas para problemas univariados usaran la Prueba t.Es proporcional a la distribucin F.La distribucin recibe su nombre de Harold Hotelling, quien la desarrollo[] como una generaliizacin de ladistribucin t de Student.

    La distribucinSi la notacin es usada para denotar una variable aleatoria distribucin T-cuadrado de Hotelling con

    parmetros p ym, entonces, si una variable aleatoria X distribucin T-cuadrado de Hotelling,

    entonces[]

    donde es una distribucin F con parmetros p y mp+1.

  • Distribucin T de Hotelling 38

    Estadstica T-cuadrado de HotellingLa estadstica T-cuadrado de Hotelling es una generalizacin de la estadstica t de Student que se usa en las pruebasde hiptesis multivariadas, y se define como sigue:[]

    Sea , que denota una distribucin normal p-variada con vector de medias y covarianza . Sean

    n variables aletorias independientes, las cuales pueden representarse como un vector columna de orden denmeros reales. Defnase

    como la media muestral. Puede demostrarse que

    donde es una distribucin ji-cuadrado con p grados de liberatd. Para demostrar eso se usa el hecho que

    y entonces, al derivar la funcin caracterstica de la variable aletoria. Esto se hizo bajo,

    Sin embargo, es por lo general desconocida y se busca hacer una prueba de hiptesis sobre el vector de medias.

    Defnase

    como la covarianza muestral. La traspuesta se ha denotado con un apstrofo. Se demuestra que es una matrizdefinida positiva y sigue una distribucin Wishart p-variada con n1 grados de libertad.[1] Laestadstica T-cudrado de Hotelling se define entonces como

    porque se demuestra que [citarequerida]

    es decir

    donde es una distribucin F con parmetros p y np. Para calcular un p-valor, multiplique la estadstica t2 yla constante anterior y use la distribucin F.

  • Distribucin T de Hotelling 39

    Estadstica T-cuadrado de Hotelling para dos muestrasSi y , con the samples independently drawn from twoindependent multivariate normal distributions con la misma media y covarianza, y definimos

    como las medias muestrales, y

    como el estinador de la matriz de covarianza pooled insesgado the unbiased pooled covariance matrix estimate, thenHotelling's two-sample T-squared statistic is

    and it can be related to the F-distribution by[1]

    The non-null distribution of this statistic is the noncentral F-distribution (the ratio of a non-central Chi-squaredrandom variable and an independent central Chi-squared random variable)

    with

    where is the difference vector between the population means.

    See also Student's t-test in univariate statistics Student's t-distribution in univariate probability theory Multivariate Student distribution. F-distribution (commonly tabulated or available in software libraries, and hence used for testing the T-squared

    statistic using the relationship given above) Wilks' lambda distribution (in multivariate statistics Wilks's is to Hotelling's T2 as Snedecor's F is to Student's t

    in univariate statistics).

    References[1] K.V. Mardia, J.T. Kent, and J.M. Bibby (1979) Multivariate Analysis, Academic Press.

    External links Plantilla:SpringerEOMPlantilla:ProbDistributions Plantilla:Common univariate probability distributions

  • Distribucin de Laplace 40

    Distribucin de Laplace

    Laplace

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros Parmetro de localizacin

    (real)Parmetro de escala (real)

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf) ver texto

    Media

    Mediana

    Moda

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf)for

  • Distribucin de Laplace 41

    Funcin caracterstica

    En estadstica y en teora de la probabilidad la distribucin de Laplace es una densidad de probabilidad continua,llamada as en honor a Pierre-Simon Laplace. Es tambin conocida como distribucin doble exponencial puestoque puede ser considerada como la relacin las densidades de dos distribuciones exponenciales adyacentes. Ladistribucin de Laplace resulta de la diferencia de dos variables exponenciales aleatorias, independientes eidnticamente distribuidas.

    Caracterizacin

    Densidad de probabilidadUna variable aleatoria posee una distribucin de Laplace(, b) si su densidad de probabilidad es

    Siendo un parmetro de localizacin y b > 0 un parmetro de escala. Si = 0 y b = 1, la distribucin de Laplace sedice que es estndar y su restriccin a los nmeros reales positivos es la distribucin exponencial de parmetro 1/2.La funcin de densidad de probabilidad de la distribucin de Laplace recuerda la de la distribucin normal, peromientras la distribucin normal se expresa en trminos de la diferencia al cuadrado , la distribucin deLaplace hace intervenir la diferencia absoluta . As la distribucin de Laplace presenta colas ms gruesasque la distribucin normal.

    Funcin de distribucin acumulativaLa integral de la distribucin de Laplace se obtiene con facilidad gracias al uso del valor absoluto. Su funcin dedistribucin acumulativa es:

    La inversa de la funcin de distribucin acumulativa es:

  • Distribucin de Laplace 42

    Generacin de una variable aleatoria con la distribucin de LaplaceDada una variable aleatoria U, generada por una distribucin uniforme continua dentro del intervalo (-1/2,1/2], lavariable aleatoria

    presenta una distribucin de Laplace de parmetros y b. Esto resulta de la inversa uncin de distribucinacumulativa y del mtodo de la transformada inversa.Una variable Laplace(0, b) puede tambin generarse como la diferencia de dos variables exponenciales, deparmetros 1/b, independientes. As mismo, un distribucin de Laplace(0, 1) puede obtenerse como el logaritmo delcociente de dos variables uniformes independientes.

    Estimacin de los parmetrosDada una muestra de N variables independientes e idnticamente distribuidas (iid) x1, x2, ..., xN, un estimador de

    es la mmdiane emprica,[1] y un estimador para mxima verosimilitud de b es

    Momentos

    Distribuciones relacionadas Si entonces es una distribucin exponencial; Si y independiente de , entonces

    ; Si y independientes de , entonces

    . Si y independiente de , entonces

    . La distribucin normal generalizada (version 1) iguala a la distribucin de Laplace cuando su parmetro es

    igual a 1. El parmetro de escala es entonces igual a .

    Referencias

  • Distribucin logstica 43

    Distribucin logstica

    Distribucin logstica

    Funcin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros location (real)

    scale (real)

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media

    Mediana

    Moda

    Varianza

    Coeficiente de simetra

    Curtosis

    Entropa

    Funcin generadora de momentos (mgf)

    for , Beta function

  • Distribucin logstica 44

    Funcin caracterstica

    for

    En teora de la probabilidad y estadstica, la distribucin logstica es una distribucin de probabilidad continua cuyafuncin de distribucin es la funcin logstica, que aparece en el contexto de la regresin logstica y determinadostipos de redes neuronales. Se parece a la distribucin normal en su forma, pero tiene colas ms pesadas (y, por lotanto, mayor curtosis).

    Especificacin

    Funcin de distribucinLa distribucin logstica recibe su nombre de su funcin de distribucin, que pertenece a la familia de las funcioneslogsticas:

    Funcin de densidadSu funcin de densidad es:

    Ntese que puede expresarse en funcin del cuadrado de la secante hiperblica "sech".

    Si se realiza la sustitucin , la funcin de densidad queda de la forma:

    Funcin de distribucin inversaLa inversa funcin de distribucin de la distribucin logstica es una generalizacin de la funcin logit:

    AplicacionesLa distribucin logstica ha sido usada extensamente en reas como:? Biologa: para describir cmo se comportan las especies en entornos competitivos[1]

    ? Epidemiologa - para describir la propagacin de epidemias[2]

    ? Sicologa - para describir el proceso de aprendizaje[3]

    ? Tecnologa - para describir cmo las tecnologas se popularizan y compiten entre s[4]

    ? Mrketing - para estudiar la difusin de nuevos productos[5]

    ? Energa - para estudiar la difusin y sustitucin de unas fuentes de energa primarias por otras[6]

  • Distribucin logstica 45

    El clculo del elo en ajedrez utiliza actualmente la distribucin logstica en lugar de la normal con la que fuediseado originalmente.

    Distribuciones relacionadasSi log(X) sigue la distribucin logstica, entonces X sigue la distribucin log-logstica y X - a la distribucinlog-logstica desplazada.

    Demostraciones

    Media

    Substituyendo:

    Ntese que para la funcin impar:

    Momentos de orden superiorEl n-simo momento central puede expresarse as en funcin de la funcin de probabilidad inversa:

    Esta integral es bien conocida[7] y puede expresarse en funcin de los nmeros de Bernouilli:

    Notas[1] P. F. Verhulst, "Recherches mathmatiques sur la loi d'accroissement de la population", Nouveaux Mmoirs de l'Acadmie Royale des

    Sciences et des Belles-Lettres de Bruxelles, vol. 18 (1845); Alfred J. Lotka, Elements of Physical Biology, (Baltimore, MD: Williams &Wilkins Co., 1925).

    [2] Theodore Modis, Predictions: Society's Telltale Signature Reveals the Past y Forecasts the Future, Simon & Schuster, New York, 1992, pp97-105.

    [3] Theodore Modis, Predictions: Society's Telltale Signature Reveals the Past y Forecasts the Future, Simon & Schuster, New York, 1992,Chapter 2.

    [4] J. C. Fisher y R. H. Pry , "A Simple Substitution Model of Technological Change", Technological Forecasting & Social Change, vol. 3, no. 1(1971).

    [5] Theodore Modis, Conquering Uncertainty, McGraw-Hill, New York, 1998, Chapter 1.[6] Cesare Marchetti, "Primary Energy Substitution Models: On the Interaction between Energy y Society", Technological Forecasting & Social

    Change, vol. 10, (1977).

  • Distribucin logstica 46

    Referencias N., Balakrishnan (1992). Handbook of the Logistic Distribution. Marcel Dekker, New York. ISBN 0-8247-8587-8. Johnson, N. L., Kotz, S., Balakrishnan N. (1995). Continuous Univariate Distributions. Vol. 2 (2nd Ed. edicin).

    ISBN 0-471-58494-0.

    Distribucin normal multivariante

    Normal multivariante

    Parmetros (vector real)matriz de covarianza (matriz real definida positiva de dimensin )

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf) Sin expresin analtica

    Media

    Mediana

    Moda

    Varianza

    Coeficiente de simetra 0

    Curtosis 0

    Entropa

    Funcin generadora de momentos (mgf)

    Funcin caracterstica

    En probabilidad y estadstica, una distribucin normal multivariante, tambin llamada distribucin gaussianamultivariante, es una generalizacin de la distribucin normal unidimensional a dimensiones superiores.

    Caso generalUn vector aleatorio sigue una distribucin normal multivariante si satisface las siguientescondiciones equivalentes: Toda combinacin lineal est normalmente distribuida. Hay un vector aleatorio , cuyas componentes son independientes son variables aleatorias

    distribuidas segn la normal estndar, un vector y una matriz tal que.

    Hay un vector y una matriz semidefinida positiva simtrica tal que la funcin caracterstica de X es

    Si es una matriz no singular, entonces la distribucin puede describirse por la siguiente funcin de densidad:

  • Distribucin normal multivariante 47

    donde es el determinante de . Ntese como la ecuacin de arriba se reduce a la distribucin normal si esun escalar (es decir, una matriz 1x1).El vector en estas circunstancias es la esperanza de X y la matriz es la matriz de covarianza de lascomponentes Xi.Es importante comprender que la matriz de covarianza puede ser singular (aunque no est as descrita por la frmulade arriba, para la cual est definida).Este caso aparece con frecuencia en estadstica; por ejemplo, en la distribucin del vector de residuos en problemasordinarios de regresin lineal. Ntese tambin que los Xi son en general no independientes; pueden verse como elresultado de aplicar la transformacin lineal A a una coleccin de variables normales Z.Esta distribucin de un vector aleatorio X que sigue una distribucin normal multivariante puede ser descrita con lasiguiente notacin:

    o hacer explcito que X es n-dimensional,

    Funcin de distribucin

    La funcin de distribucin se define como la probabilidad de que todos los valores de un vector aleatorio sean menores o iguales que los valores correspondientes de un vector . Aunque F no tenga una frmula, hay unaserie de algoritmos que permiten estimarla numricamente.[1]

    Un contraejemploEl hecho de que dos variables aleatorias X e Y sigan una distribucin normal, cada una, no implica que el par (X,Y)siga una distribucin normal conjunta. Un ejemplo simple se da cuando Y = X si |X| > 1 e Y = X si |X| < 1. Estotambin es cierto para ms de dos variables aleatorias.[2]

    Normalmente distribuidas e independenciaSi X e Y estn normalmente distribuidas y son independientes, su distribucin conjunta tambin est normalmentedistribuida, es decir, el par (X,Y) debe tener una distribucin normal bivariante. En cualquier caso, un par devariables aleatorias normalmente distribuidas no tienen por qu ser independientes al ser consideradas de formaconjunta.

    Caso bivarianteEn el caso particular de dos dimensiones, la funcin de densidad (con media (0, 0) es

    donde es el coeficiente de correlacion entre e . En este caso,

  • Distribucin normal multivariante 48

    Transformacin afnSi es una transformacin afn de donde es un vector de constantes y

    una matriz, entonces tiene una distribucin normal multivariante con esperanza yvarianza esto es, . En particular, cualquier subconjunto de las tiene unadistribucin marginal que es tambin una normal multivariante.Para ver esto, considrese el siguiente ejemplo: para extraer el subconjunto , sese

    lo que extrae directamente los elementos deseados.Otro corolario sera que la distribucin de , donde es un vector de la misma longitud que y elpunto indica un producto vectorial, sera una distribucin gaussiana unidimensional con .Este resultado se obtiene usando

    y considerando slo la primera componente del producto (la primera fila de es el vector ). Obsrvese cmo ladefinicin positiva de implica que la varianza del producto vectorial debera ser positiva.

    Interpretacin geomtricaLas curvas de equidensidad de una distribucin normal multivariante son elipsoides (es decir, transformacioneslineales de hiperesferas) centrados en la mdia.[3] Las direcciones de los ejes principales de los elipsoides vienendados por los vectores propios de la matriz de covarianza . Las longitudes relativas de los cuadrados de los ejesprincipales vienen dados por los correspondientes vectores propios.

    Si es una descomposicin espectral donde las columnas de U son vectorespropios unitarios y es una matriz diagonal de valores propios, entonces tenemos

    Adems, U puede elegirse de tal modo que sea una matriz de rotacin, tal que invirtiendo un eje no tenga ningnefecto en , pero invirtiendo una columna, cambie el signo del determinante de U'. La distribucin

    es en efecto escalada por , rotada por U y trasladada por .Recprocamente, cualquier eleccin de , matriz de rango completo U, y valores diagonales positivos cede elpaso a una distribucin normal no singular multivariante. Si cualquier es cero y U es cuadrada, la matriz decovarianza es una singular. Geomtricamente esto significa que cada curva elipsoide es infinitamentedelgada y tiene volumen cero en un espacio n-dimensional, as como, al menos, uno de los principales ejes tienelongitud cero.

  • Distribucin normal multivariante 49

    Correlaciones e independenciaEn general, las variables aleatorias pueden ser incorreladas, pero altamente dependientes. Pero si un vector aleatoriotiene una distribucin normal multivariante, entonces cualesquiera dos o ms de sus componentes que seanincorreladas, son independientes.Pero no es cierto que dos variables aleatorias que estn (separadamente, marginalmente) normalmente distribuidas eincorreladas sean independientes. Dos variables aleatorias que estn normalmente distribuidas pueden que no loestn conjuntamente. Para un ejemplo de dos variables normalmente distribuidas que sean incorreladas pero noindependientes, vase normalmente distribuidas e incorreladas no implica independencia.

    Momentos ms altosEl momento estndar de k-simo orden de X se define como

    donde Los momentos centrales de orden k viene dados como sigue:

    (a) Si k es impar, .(b) Si k es par, con , entonces

    donde la suma se toma sobre todas las disposiciones de conjuntos en parejas (no ordenadas). Estoes, si se tiene un k-simo ( ) momento central, se estarn sumando los productos de covarianzas(la notacin - se ha despreciado para facilitar la lectura):

    Esto da lugar a trminos en la suma (15 en el caso de arriba), cada uno siendo elproducto de (3 en este caso) covarianzas. Para momentos de cuarto orden (cuatro variables) hay tres trminos.Para momentos de sexto orden hay 35 = 15 trminos, y para momentos de octavo orden hay 357 = 105trminos.Las covarianzas son entonces determinadas mediante el reemplazo de los trminos de la lista por lostrminos correspondientes de la lista que consiste en unos, entonces doses, etc... Para ilustrar esto, examneseel siguiente caso de momento central de cuarto orden:

  • Distribucin normal multivariante 50

    donde es la covarianza de y . La idea del mtodo de arriba es que primero se encuentra el caso generalpara el momento -simo, donde se tiene diferentes variables - y entonces se puedensimplificar apropiadamente. Si se tiene entonces, simplemente sea y se sigue que

    .

    Distribuciones condicionalesSi y son divididas como sigue:

    con tamaos

    con tamaos

    entonces la distribucin de condicionada a es una normal multivariante donde

    y matriz de covarianza

    Esta matriz es el complemento de Schur de en . Esto significa que para calcular la matriz condicional decovarianza, se invierte la matriz global de covarianza, se desprecian las filas y columnas correspondientes a lasvariables bajo las cuales est condicionada y entonces se invierte de nuevo para conseguir la matriz condicional decovarianza.Ntese que se sabe que altera la varianza, aunque la nueva varianza no dependa del valor especfico de ;quizs ms sorprendentemente, la media se cambia por ; comprese esto con la situacin en laque no se conoce el valor de , en cuyo caso tendra como distribucin

    .La matriz se conoce como la matriz de coeficientes de regresin.

    Esperanza condicional bivarianteEn el caso

    entonces

    donde esta ltima razn se llama a menudo razn inversa de Mills.

  • Distribucin normal multivariante 51

    Matriz de informacin de FisherLa matriz de informacin de Fisher (MIF) para una distribucin normal toma una formulacin especial. El elemento

    de la MIF para es

    donde

    es la funcin traza de una matriz.

    Divergencia de Kullback-LeiblerLa divergencia de Kullback-Leibler de a es:

    El logaritmo debe tomarse con base e en los dos trminos (logaritmos neperianos), siguiendo el logaritmo estn loslogaritmos neperianos de las expresiones que son ambos factores de la funcin de densidad o si no, surgennaturalmente. La divergencia de arriba se mide en nats. Dividiendo la expresin de arriba por loge2 se da paso a ladivergencia en bits.

  • Distribucin normal multivariante 52

    Estimacin de parmetrosLa derivacin del estimador de mxima verosimilitud de la matriz de covarianza de una distribucin normalmultivariante es, quizs sorprendentemente, sutil y elegante. Vase estimacin de matrices de covarianza.En pocas palabras, la funcin de densidad de probabilidad de una normal multivariante N-dimensional es

    y el estimador MV de la matriz de covarianza para una muestra de n observaciones es

    lo cual es, simplemente, la matriz muestral de covarianza. Este es un estimador sesgado cuya esperanza es

    Una covarianza muestral insesgada es

    EntropaLa entropa diferencial de la distribucin normal multivariante es[4]

    donde es el determinante de la matriz de covarianza .

    Tests de normalidad multivarianteLos tests de normalidad multivariante comprueban la similitud de un conjunto dado de datos con la distribucinnormal multivariante. La hiptesis nula es que el conjunto de datos es similar a la distribucin normal, porconsiguiente un p-valor suficientemente pequeo indica datos no normales. Los tests de normalidad multivarianteincluyen el test de Cox-Small[5] y la adaptacin de Smith y Jain [6] del test de Friedman-Rafsky.

    Dibujando valores de la distribucinUn mtodo ampliamente usado para el dibujo de un vector aleatorio de la distribucin normal multivariante -dimensional con vector de medias y matriz de covarianza (requerida para ser simtrica y definida positiva)funciona como sigue:1. Se calcula la descomposicin de Cholesky de , esto es, se encuentra la nica matriz triangular inferior tal

    que . Ntese que cualquier otra matriz que satisfaga esta condicin, o sea, que es uno la razcuadrada de , podra usarse, pero a menudo encontrar tal matriz, distinta de la de la descomposicin deCholesky, sera bastante ms costoso en trminos de computacin.

    2. Sea un vector cuyas componentes normales e independientes varan (lo cual puedegenerarse, por ejemplo, usando el mtodo de Box-Muller.

    3. Sea

  • Distribucin normal multivariante 53

    Referencias[1] Vase MVNDST en (http:/ / www. math. wsu. edu/ faculty/ genz/ software/ software. html) (incluye cdigo FORTRAN) o (http:/ / alex.

    strashny. org/ a/ Multivariate-normal-cumulative-distribution-function-(cdf)-in-MATLAB. html) (incluye cdigo MATLAB).[2] Vase tambin normalmente distribuidas e incorreladas no implica independencia

    Distribucin normal

    Distribucin normal

    La lnea verde corresponde a la distribucin normal estndarFuncin de densidad de probabilidad

    Funcin de distribucin de probabilidadParmetros

    Dominio

    Funcin de densidad (pdf)

    Funcin de distribucin (cdf)

    Media

    Mediana

    Moda

    Varianza

  • Distribucin normal 54

    Coeficiente de simetra 0

    Curtosis 0

    Entropa

    Funcin generadora de momentos (mgf)

    Funcin caracterstica

    En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss o distribucin gaussiana, a unade las distribuciones de probabilidad de variable continua que con ms frecuencia aparece aproximada en fenmenosreales.La grfica de su funcin de densidad tiene una forma acampanada y es simtrica respecto de un determinadoparmetro estadstico. Esta curva se conoce como campana de Gauss y es el grfico de una funcin gaussiana.La importancia de esta distribucin radica en que permite modelar numerosos fenmenos naturales, sociales ypsicolgicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenmenos son desconocidos,por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puedejustificarse asumiendo que cada observacin se obtiene como la suma de unas pocas causas independientes.De hecho, la estadstica es un modelo matemtico que slo permite describir un fenmeno, sin explicacin alguna.Para la explicacin causal es preciso el diseo experimental, de ah que al uso de la estadstica en psicologa ysociologa sea conocido como mtodo correlacional.La distribucin normal tambin es importante por su relacin con la estimacin por mnimos cuadrados, uno de losmtodos de estimacin ms simples y antiguos.Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son: caracteres morfolgicos de individuos como la estatura; caracteres fisiolgicos como el efecto de un frmaco; caracteres sociolgicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicolgicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc.La distribucin normal tambin aparece en muchas reas de la propia estadstica. Por ejemplo, la distribucinmuestral de las medias muestrales es aproximadamente normal, cuando la distribucin de la poblacin de la cual seextrae la muestra no es normal.[1] Adems, la distribucin normal maximiza la entropa entre todas las distribucionescon media y varianza conocidas, lo cual la convierte en la eleccin natural de la distribucin subyacente a una listade datos resumidos en trminos de media muestral y varianza. La distribucin normal es la ms extendida enestadstica y muchos tests estadsticos estn basados en una supuesta "normalidad".En probabilidad, la distribucin normal aparece como el lmite de varias distribuciones de probabilidad continuas ydiscretas.

  • Distribucin normal 55

    Historia

    Abraham de Moivre, descubridor de ladistribucin normal

    La distribucin normal fue presentada por primera vez por Abraham deMoivre en un artculo del ao 1733,[2] que fue reimpreso en la segundaedicin de su The Doctrine of Chances, de 1738, en el contexto decierta aproximacin de la distribucin binomial para grandes valores den. Su resultado fue ampliado por Laplace en su libro Teora analticade las probabilidades (1812), y en la actualidad se llama Teorema deDe Moivre-Laplace.

    Laplace us la distribucin normal en el anlisis de errores deexperimentos. El importante mtodo de mnimos cuadrados fueintroducido por Legendre en 1805. Gauss, que afirmaba haber usado elmtodo desde 1794, lo justific rigurosamente en 1809 asumiendo unadistribucin normal de los errores. El nombre de Gauss se ha asociadoa esta distribucin porque la us con profusin cuando analizaba datosastronmicos[3] y algunos autores le atribuyen un descubrimientoindependiente del de De Moivre.[4]Esta atribucin del nombre de ladistribucin a una persona distinta de su primer descubridor es un claroejemplo de la Ley de Stigler.

    El nombre de "campana" viene de Esprit Jouffret que us el trmino "bell surface" (superficie campana) por primeravez en 1872 para una distribucin normal bivariante de componentes independientes. El nombre de "distribucinnormal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia1875.[citarequerida] A pesar de esta terminologa, otras distribuciones de probabilidad podran ser ms apropiadas endeterminados contextos; vase la discusin sobre ocurrencia, ms abajo.

    Definicin formalLa funcin de distribucin de la distribucin normal est definida como sigue:

    Por tanto, la funcin de distribucin de la normal estndar es:

    Esta funcin de distribucin puede expresarse en trminos de una funcin especial llamada funcin error de lasiguiente forma:

    y la propia funcin de distribucin puede, por consiguiente, expresarse as:

    El complemento de la funcin de distribucin de la normal estndar, , se denota con frecuencia ,y es referida, a veces, como simplemente funcin Q, especialmente en textos de ingeniera.[5][6] Esto representa lacola de probabilidad de la distribucin gaussiana. Tambin se usan ocasionalmente otras definiciones de la funcinQ, las cuales son todas ellas transformaciones simples de .[7]

  • Distribucin normal 56

    La inversa de la funcin de distribucin de la normal estndar (funcin cuantil) puede expresarse en trminos de lainversa de la funcin de error:

    y la inversa de la funcin de distribucin puede, por consiguiente, expresarse como:

    Esta funcin cuantil se llama a veces la funcin probit. No hay una primitiva elemental para la funcin probit. Estono