variable aleatoria y riesgo

52
DOCUMENTOS DE INVESTIGACIÓN Una aproximación de la variable aleatoria a procesos de toma de decisión que implican condiciones de riesgo e incertidumbre Diego Cardona Miller Rivera Jesús Romero Facultad de Administración No. 128, ISSN: 0124-8219 Marzo de 2012

Upload: jesus-romero

Post on 12-Sep-2015

31 views

Category:

Documents


0 download

DESCRIPTION

Uso de las variables aleatorias en aplicación a situaciones que impliquen alguna toma de decisión bajo condiciones de riesgo

TRANSCRIPT

  • DOCUMENTOS DE INVESTIGACIN

    Una aproximacin de la variable aleatoria a procesos de toma de

    decisin que implican condicionesde riesgo e incertidumbre

    Diego CardonaMiller Rivera

    Jess Romero

    Facultad de Administracin

    No. 128, ISSN: 0124-8219Marzo de 2012

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones

    de riesgo e incertidumbreDocumento de investigacin No. 128

    Diego CardonaMiller Rivera

    Jess Romero

    Grupo de Investigacin en Perdurabilidad Empresarial (GIPE)Lnea de Investigacin en Estrategia

    Universidad del RosarioFacultad de Administracin

    Editorial Universidad del RosarioBogot D.C.

    2012

  • Diego CardonaMiller RiveraJess Romero

    Correccin de estiloLina Morales

    DiagramacinFredy Johan Espitia Ballesteros

    Editorial Universidad del Rosariohttp://editorial.urosario.edu.co

    ISSN: 0124-8219

    * Las opiniones de los artculos slo comprometen a los autores y en ningn caso a la Universidad del Rosario. No se permite la reproduccin total ni parcial sin la autorizacin de los autores.Todos los derechos reservados.

    Primera edicin: Marzo de 2012Hecho en ColombiaMade in Colombia

    Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre / Diego Cardona, Miller Rivera y Jess Romero.Bogot: Editorial Universidad del Rosario, 2012.

    50 p. (Documento de Investigacin; 128) ISSN: 0124-8219

    Toma de decisiones en administracin / Probabilidad / Variables aleatorias / Administracin de empresas /I. Rivera, Miller / II. Romero, Jesus / III. Universidad del Rosario, Facultad de Administracin, Grupo de Investigacin en Perdurabilidad Empresarial. (GIPE)Lnea de Investigacin en Estrategia / IV. Ttulo. / V. Serie.

    519.2 SCDD 20

  • Contenido

    1. Introduccin ................................................................................... 7 2. Hitos histricos ............................................................................... 8

    3. Conceptos bsicos ........................................................................... 11

    4. Variable aleatoria ............................................................................. 14

    4.1. Variable aleatoria discreta ........................................................ 15

    4.2. Variable aleatoria continua ....................................................... 18

    4.3. Funcin de distribucin acumulada ........................................... 23

    4.4. Parmetros de la variable aleatoria ............................................ 23

    4.5. Funciones ms usadas ............................................................. 30

    5. Aplicacin de la variable aleatoria ..................................................... 42

    6. Conclusiones ................................................................................... 48 Bibliografa ........................................................................................ 49

  • ndice

    Figuras

    Figura 1. Distribucin de frecuencias asociada para n = 100 ................... 19

    Figura 2. Distribucin de frecuencias asociada para n = 1.000 ................ 20

    Figura 3. Distribucin de frecuencias asociada para n = 10.000 .............. 20

    Figura 4. Distribucin de frecuencias asociada para n = 100.000 ............ 21

    Figura 5. Distribucin de frecuencias asociada para n = 1.000.000 ......... 21

    Figura 6. Distribucin de frecuencias asociada para n = 10.000.000 ....... 21

    Figura 7. Distribucin normal ............................................................... 37

    Tablas

    Tabla 1. Frecuencia relativa del nmero de clientes que arriban a una central de servicio ....................................... 19

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    5

    Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones

    de riesgo e incertidumbre

    Diego CardonaMiller Rivera

    Jess Romero

    Matemtico, Ingeniero Civil, MSc y PhD en Ciencias Administrativas; profesor asociado de la Facultad de Administracin de la Universidad del Rosario con funciones de Director de Investigaciones. Correo electrnico: [email protected]

    Ingeniero de Sistemas, MSc en Administracin; coordinador del Laboratorio de Modelamiento y Simulacin de la Facultad de Administracin de la Universidad del Rosario. Correo electrnico: [email protected]

    Estudiante de matemticas, joven investigador, Universidad Distrital Francisco Jos de Caldas. Correo electrnico: [email protected]

    *

    **

    ***

    *

    **

    ***

    Resumen

    La variable aleatoria es una funcin matemtica que permite asignar valores numricos a cada uno de los posibles resultados obtenidos en un evento de naturaleza aleatoria. Si el nmero de estos resultados se puede contar, se tiene un conjunto discreto; por el contrario, cuando el nmero de resultados es infinito y no se puede contar, se tiene un conjunto continuo. El objetivo de la variable aleatoria es permitir adelantar estudios probabilsticos y esta-dsticos a partir del establecimiento de una asignacin numrica a travs de la cual se identifiquen cada uno de los resultados que pueden ser obtenidos en el desarrollo de un evento determinado.

    El valor esperado y la varianza son los parmetros por medio de los cuales es posible caracterizar el comportamiento de los datos reunidos en el desa-rrollo de una situacin experimental; el valor esperado permite establecer el valor sobre el cual se centra la distribucin de la probabilidad, mientras que la varianza proporciona informacin acerca de la manera como se distribu-yen los datos obtenidos. Adicionalmente, las distribuciones de probabilidad son funciones numricas asociadas a la variable aleatoria que describen la asignacin de probabilidad para cada uno de los elementos del espacio

  • Diego Cardona, Miller Rivera, Jess Romero

    6

    muestral y se caracterizan por ser un conjunto de parmetros que establecen su comportamiento funcional, es decir, cada uno de los parmetros propios de la distribucin suministra informacin del experimento aleatorio al que se asocia.

    El documento se cierra con una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incer-tidumbre.

    Abstract

    The random variable is a mathematical function to assign numerical values to each of the possible outcomes of a random event in nature, if the number of these results can tell, we have a discrete set, however when the number of results is infinite and cannot be counted, there is a continuum. The objective of the random variable is to allow advancing probabilistic and statistical studies from establishing a numerical assignment through which to identify each of the results that can be found in the course of a given event.

    The expected value and variance are the parameters through which we can characterize the behavior of the data collected in the development of an experimental situation; the expected value sets the value which focuses on the probability distribution, while variance provides information about how data is distributed. Additionally, probability distributions are numerical functions associated with the random variable describing the probability as-signment for each of the elements of the sample space and are characterized by a set of parameters to establish their functional behavior, ie each of the characteristic parameters of distribution of the random experiment provides information that is associated.

    Document finishes with an application of the random variables to decision making process involving risk and uncertainty situations.

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    7

    1. Introduccin

    El presente texto corresponde al primero de una serie que busca reconocer la importancia de los modelos de probabilidad, en particular de las variables aleatorias, tanto discretas como continuas, para la modelacin de situacio-nes asociadas con aleatoriedad en diversas reas del conocimiento, haciendo nfasis en procesos de toma de decisin que implican condiciones de riesgo e incertidumbre, teniendo en cuenta que las variables aleatorias permiten matematizar o cuantificar situaciones de la vida real, mediante la asigna-cin de un valor numrico a cada uno de los resultados que se pueden obtener en el desarrollo de situaciones complejas.

    La teora de la probabilidad es la principal herramienta de la que hace uso la reciente ciencia de la estadstica, considerada tambin por aquellos que no le asignan carcter cientfico, como la herramienta del mtodo cien-tfico; ciencia o herramienta, da tras da, encuentra mayor aplicacin en la ejecucin de procesos que apoyan el quehacer de la toma de decisiones operativa, de gestin y estratgica.

    La incorporacin de la teora de la probabilidad en los distintos escenarios acadmicos ha permitido obtener modelos que posibilitan un mejor entendi-miento de la situacin dentro de un experimento. Los escenarios aleatorios estn asociados a diversas situaciones tan comunes como el comportamiento del clima, el resultado de un juego de lotera, la cantidad de artculos de-fectuosos dentro de un proceso de produccin y el comportamiento de la bolsa de valores, entre otros.

    El contenido del presente documento incluye un acercamiento histrico del desarrollo de la variable aleatoria, mostrando su utilizacin implcita durante un largo espacio de tiempo, al no habrsele prestado la atencin y el reconocimiento requerido que exiga su formalizacin matemtica; ade-lanta adems el texto un tratamiento de las variables aleatorias continuas y discretas, as como de las distribuciones de probabilidad reconocidas para cada tipo; finalmente, expone una aplicacin propia de la variable aleatoria en el entorno de la toma de decisiones, para cerrar con algunas recomen-daciones al respecto.

  • Diego Cardona, Miller Rivera, Jess Romero

    8

    2. Hitos histricos

    El clculo de probabilidad se ha asociado de manera usual con los juegos de azar, de los que surgieron la probabilidad y la estadstica, ramas que ms adelante se separaran; la primera como una divisin de las matemticas y la segunda como una naciente ciencia independiente de estas (Blanco, 2010).

    Entre las primeras obras destacadas en el clculo de probabilidad relacio-nado con el juego de azar, se encuentra la publicacin de Girolamo Cardano (1501-1576), denominada El libro de los juegos de azar, que presentaba los juegos de este tipo conocidos para la fecha y la forma en que un jugador debera actuar con el fin de evitar que su rival le jugara de mala fe. Posterior-mente, el gran matemtico Galileo Galilei (1564-1642), en su obra Sobre la puntuacin de tiradas de dados, muestra el nmero de resultados posibles en el lanzamiento de tres dados; no obstante, la principal contribucin de Galileo al escenario probabilstico fue la creacin de la teora de medidas de errores. Galileo consider que los errores en la medicin son inevitables y los clasific en sistemticos y aleatorios, definiendo que los primeros obede-cen a los mtodos y a las herramientas de medida, y los segundos varan de forma impredecible de un resultado a otro (Hald, 1990).

    Ms adelante, con los grandes matemticos Blaise Pascal (1623-1662) y Pierre de Fermat (1601-1665), se da inicio a la verdadera teora de la proba-bilidad, con la correspondencia por cartas, cuatro en total, que sostuvieron los dos al tratar de dar solucin al problema planteado a Pascal por Antoine Gombaud (1607-1684), Caballero de Mer, escritor francs y jugador compul-sivo; el problema consista en determinar cuntas veces se tenan que lanzar dos dados para que fuera mayor la probabilidad de ganar a la de perder, si la apuesta consista en obtener al menos un doble seis (Blanco, 2010). Tanto Pascal como De Fermat, de forma distinta e independiente, dieron solucin a este problema (Blanco, 2010); al respecto Pascal afirm: En adelante, estos sucesos hasta ahora rebeldes a la experiencia no pueden ya escapar al imperio de la razn (Campos, 2004).

    En esta etapa, sobresali tambin el matemtico y fsico holands Chris-tiaan Huygens (1629-1695), quien, al familiarizarse con las obras de Pascal y De Fermat, public en el ao de 1656 el tratado Sobre los clculos en los juegos de azar, artculo en el que Huygens introduce el concepto de

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    9

    esperanza matemtica, conocida hoy en da tambin como valor esperado y media; con los matemticos anteriores entran en escena conceptos y teo-remas de probabilidad, como el teorema de la adicin y el teorema de la multiplicacin de probabilidad (Hald, 1990).

    Continuando con el desarrollo de la teora de la probabilidad, entre los nombres de reconocidos cientficos que aportaron a la construccin del quehacer del clculo de probabilidad, Jackes Bernoulli (1654-1705), en su obra Ars Conjectandi, pstumamente publicada en 1713, desarroll la teora de las combinaciones y permutaciones.

    En 1718, el gran matemtico Abraham de Moivre (1667-1754), en su publicacin The doctrine of chances or a method of calculating the proba-bilities of events in play, adopt la definicin dada por Bernoulli de la pro-babilidad y la defini en trminos modernos como una fraccin en la que el denominador es igual al nmero de apariciones del suceso y el denominador es igual al nmero total de casos en los que ese suceso pueda o no ocurrir; fruto de este trabajo es lo que se conoce como Teorema de Bernoulli-de Moivre-Stirling (Todhunter, 1965).

    Del reverendo Thomas Bayes (1701-1763), ministro protestante en el Tunbridge Wells, lugar cercano a Londres, se public en 1764, de forma pos-terior a su muerte, por parte de su amigo Richard Price, en la Philosophical Transactions, el artculo denominado An Essay Toward Solving a Problem in the Doctrine of Chances, en el que se daba a conocer a la comunidad cientfica lo que se denomin como el Teorema de Bayes, llamado tambin el teorema de las causas; este permite recalcular una probabilidad a la inversa a partir de probabilidad condicionales, sin embargo, fue Pierre Simon Laplace quien demostr su resultado (Todhunter, 1965).

    Dentro de las contribuciones a la probabilidad, una de las ms conoci-das ha sido la obra de Laplace (1749-1827), matemtico que se destac en mecnica, astronoma y naturalmente en las matemticas; su obra Thorie Analitique des Probabilits, publicada en el ao de 1812, contena la de-finicin clsica de probabilidad. De manera paradjica, su publicacin no fue aceptada en un principio debido en parte a su complejidad, de la que el matemtico Augusto de Morgan (1806-1871) afirm las siguientes palabras: Con mucho, el trabajo matemtico ms difcil con el que me he encontrado nunca (Todhunter, 1965).

  • Diego Cardona, Miller Rivera, Jess Romero

    10

    El trabajo publicado por Laplace es la recopilacin de otros varios artculos publicados por l, como Essai philosopie sur les probabilits, en 1814; fue Laplace el encargado de recopilar y estructurar lo que hasta entonces era conocido en el campo de las matemticas como una naciente rama, la proba-bilidad; encontr adems Laplace una aplicacin conocida como inferencia estadstica. Con respecto a Laplace (Todhunter, 1965), dijo: En general la teora de la probabilidad est ms en deuda con Laplace que con cualquier otro matemtico.

    Aun cuando grandes matemticos se haban ocupado del tema de la probabilidad, esta no era considerada por muchos como una ciencia o parte de alguna de ella; su fundamentacin como tal solo se dio en el ao de 1933 por el extraordinario matemtico ruso Andrei Kolmogorov (1903-1987) en su libro titulado Fundamentos de la teora de la probabilidad (Blanco, 2010).

    Otros matemticos destacados en el siglo XX han sido Fisher (1890-1962), a quien se atribuye la invencin de la inferencia en 1920, y Brunno de Finneti (1906-1985), reconocido como el principal promotor de la proba-bilidad subjetiva. La teora de la probabilidad necesit que se desarrollaran otros conceptos matemticos como fueron la teora de conjuntos y la teora de la medida, con el fin de lograr darle rigurosidad y axiomatizacin cien-tfica (Brousseau, 1997).

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    11

    3. Conceptos bsicos

    En toda rama del conocimiento cientfico y en particular en el de las mate-mticas, el proceso de construccin y aceptacin de una definicin exige generalmente para su desarrollo un espacio amplio de tiempo; la aparicin en el escenario probabilstico del concepto de variable aleatoria es un claro ejemplo de maduracin y validez de uno de los conceptos ms importantes de la teora moderna de la probabilidad (Hald, 1990). Con el fin de realizar una exposicin que permita su entendimiento y aplicacin, se presentan a continuacin un conjunto de definiciones necesarias para su posterior desarrollo. Las siguientes definiciones pueden ser revisadas con mayor profundidad en Canavos (1988) y Meyer (1992):

    Experimento aleatorio: tambin conocido como fenmeno aleatorio, es aquel que, al ser repetido bajo las mismas condiciones, conduce a resultados no necesariamente iguales, dentro de un conjunto de posibles resultados. Si bien el trmino conjunto es una asercin in-definida en la teora de conjuntos, es posible caracterizar e identificar un conjunto por sus caractersticas.Conjuntofinito: es aquel que tiene un nmero conocido de elemen-tos, su cardinal es un entero positivo.Conjuntoinfinito: es un conjunto que no es finito; en matemticas suele definirse un conjunto por la(s) caracterstica(s) que pueda o no tener en comparacin a otro conjunto dado. Para este caso, los conjuntos infinitos son aquello para los cuales el proceso de contar sus elementos no acaba.Conjunto numerable: es un conjunto que puede ponerse en corres-pondencia uno a uno con un subconjunto de los nmeros naturales o los mismos naturales. Es decir, se pueden etiquetar cada uno de los elementos del conjunto de tal forma que puedan contarse. Hay conjun-tos infinitos, algunos numerables y otros que no lo son; en particular, cualquier subconjunto (a,b) con a b, de los nmeros reales es no enumerable o no contable. Una caracterstica de los nmeros reales consiste en poder encontrar entre dos nmeros reales otro nmero, lo

  • Diego Cardona, Miller Rivera, Jess Romero

    12

    que imposibilita la opcin de poder etiquetarlos a fin de ser contable, conocido como densidad de los nmeros reales.Espacio muestral: es el conjunto de todos los posibles resultados asociados con un experimento aleatorio; es comn en la terminologa matemtica notarlo con la letra griega omega .Punto muestral: es cada uno de los resultados dentro del espacio muestral del experimento.Evento: tambin conocido como suceso, es un subconjunto del espacio muestral.Probabilidad: es un valor que se asocia con un evento, este valor est en el intervalo [0,1], que permite medir la incertidumbre asociada con algn evento.Eventos independientes: dos eventos A y B se dicen independientes si:

    P(AB) = P(A)P(B)

    Este importante concepto de independencia permite, por ejemplo, poder determinar la probabilidad de un evento, sin verse afectada por la ocurrencia o no de algn otro evento.Funcin de probabilidad: sea un espacio muestral dado y A cualquier evento asociado a l, se tiene una funcin de probabili-dad cuando se cumplen las siguientes propiedades:

    0 P(A) 1; la probabilidad asociada a cualquier evento es un nmero real positivo menor o igual a uno.P () = 1 ; la probabilidad de todo el espacio muestral es uno, dado que all se encuentran todos los resultados posibles.Si los eventos A1, A2, A3, A4...... son mutuamente excluyentes, esto es, Ai Aj = si i j, luego se tiene que

    P(A1 U A2 U A3 U A4 U.) = P(A1) + P(A2) + P(A3) + P(A4) +

    Cuando se tienen dos o ms eventos mutuamente excluyentes, es decir, aquellos que su interseccin es vaca, la probabilidad de la unin de este tipo de eventos es la suma de cada uno de los valores de proba-bilidad asociados a cada evento.

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    13

    Probabilidad del complemento: si Ac es el evento complementario de A, entonces:

    P(Ac) = 1 P(A)

    En algunas ocasiones, es ms fcil determinar la probabilidad de un evento, conociendo con anterioridad la probabilidad de la no ocurren-cia de un evento dado, es decir, la del evento complementario.Variable discreta: es una variable cuyos resultados son un conjunto finito o infinito numerable. Se sabe que es posible etiquetar cualquier conjunto finito, a fin de poderlo numerar, en cuyo caso se convierte en un conjunto discreto; de forma anloga, si este es infinito numera-ble, tambin lo convierte en un conjunto discreto, es decir, es posible contar sus elementos.Variable continua: es una variable que puede tomar cualquier valor de un subconjunto de los nmeros reales. A diferencia de la variable discreta, que puede ser un conjunto finito o infinito numerable, la variable continua siempre es un conjunto infinito pero no numerable, es decir, no es posible etiquetar sus valores para poderlos contar. El tiempo tomado como variable en un experimento permitira observar que los resultados obtenidos en una medicin pueden ser cualquier valor en un intervalo continuo dado, debido a que no es posible es-tablecer cul es el siguiente valor a uno previamente alcanzado en el experimento; de esta forma, la obtencin de los resultados logra-dos est sujeta a la precisin de los instrumentos de medida.

  • Diego Cardona, Miller Rivera, Jess Romero

    14

    4. Variable aleatoria

    La variable aleatoria fue utilizada en los estudios de diferentes matemticos, sin embargo, no siempre se conoci por este nombre, su utilizacin se haca evidente a travs de las propiedades que la caracterizaban, como el valor esperado y la varianza.

    Hyugens introduce la variable aleatoria conocida como hipergeomtrica en su artculo De Ratiociniis in Ludo Aleae, publicado en 1714 (Hald, 1990); de igual forma, Bernoulli define una variable aleatoria que puede tomar valores entre 1 y n, al abordar el problema de las urnas para deter-minar el nmero de esferas que deban ser extradas a fin de alcanzar un xito; este experimento motiv a Bernoulli a enunciar la ley de los grandes nmeros (Hald, 1990).

    Otros matemticos como Gauss, Moivre y Laplace, pese a utilizarla en sus experimentos, no se preocuparon por estudiar a fondo y definir el con-cepto de variable aleatoria propia de los experimentos de naturaleza azarosa; es Poisson, en su libro publicado en 1832, quien introduce el concepto de variable aleatoria a partir de afirmar alguna cosa que uno puede entender como un conjunto x1, x2, , xn con sus respectivas probabilidad p1, p2, , pn para hacer alusin una variable aleatoria discreta (Todhunter, 1965).

    La variable aleatoria permite relacionar el espacio muestral con un subconjunto de los nmeros reales (Meyer, 1992). El espacio muestral asociado con un experimento tiene la caracterstica de ser cualitativo o cuantitativo. Ejemplos de experimentos de carcter cualitativo, como el lanzamiento de una moneda, con resultados cara o sello; el proceso de ma-nufactura de cierto artculo del que puede obtenerse un producto defectuoso o no defectuoso; o el gnero de una poblacin de animales, identificados como macho o hembra, no permiten realizar un estudio estadstico o pro-babilstico, debido a la necesidad de contar con datos numricos a fin de poder establecer proporciones y frecuencias que permitan construir una distribucin de probabilidad en la realizacin del experimento.

    Un ejemplo de la explicacin anterior se da al considerar el desarrollo de un experimento a travs del cual se realiza el lanzamiento de tres monedas de forma simultnea, con el objetivo de establecer la cantidad de sellos que se pueden obtener en cada uno de los lanzamientos que se ejecuten. Los

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    15

    posibles resultados pueden identificarse utilizando, por ejemplo, las letras C para representar cara y S para sello, de tal forma que el espacio muestral asociado al evento de inters fijado estara dado por = {CCC, CCS, CSC, CSS, SSS, SSC, SCS, SCC}, por lo tanto, a cada uno de los puntos muestrales es posible asociarles un valor numrico de acuerdo con la cantidad de sellos obtenidos en cada lanzamiento, como se presenta a continuacin:

    CCC 0 SSS 3CCS 1 SSC 2CSC 1 SCS 2CSS 2 SCC 1

    Se observa que esta situacin obedece a un escenario donde la caracte-rstica es de tipo cualitativo (cara, sello), sin embargo, fue posible asociar a esta caracterstica un valor numrico (variable aleatoria) que permite construir una funcin de probabilidad. Es importante notar que el anterior ejemplo corresponde a una variable aleatoria discreta.

    De manera formal, se puede definir variable aleatoria por medio del si-guiente enunciado: Sea un experimento y el espacio muestral asociado con l. Una funcin X que asigna a cada uno de los elementos , un nmero real X (), se denomina variable aleatoria (Meyer, 1992).

    Es conveniente distinguir dos tipos de variables aleatorias, discretas y continuas, conceptos que se precisan a continuacin y que ms adelante se presentarn de forma individual (Canavos, 1988):

    Variable aleatoria discreta: una variable aleatoria es discreta si el nmero de valores que puede tomar es contable, bien sea finito o infinito numerable.Variable aleatoria continua: una variable aleatoria es continua si sus valores se corresponden con uno o ms intervalos de los nmeros reales. (Conjuntos infinitos numerables).

    4.1. Variable aleatoria discreta

    Una variable aleatoria discreta X, define para cada uno de los resultados del espacio muestral , una probabilidad notada por P(X = x), entendida como

  • Diego Cardona, Miller Rivera, Jess Romero

    16

    la probabilidad de que X tome el valor x. De esta forma, el fin de la variable aleatoria es construir una funcin matemtica que permita asignarle un valor de probabilidad a cada uno de los posibles resultados; esto se conoce como la distribucin de probabilidad de la variable aleatoria, tambin denominada funcin msica de probabilidad (Canavos, 1988).

    La distribucin de probabilidad de la variable aleatoria debe satisfacer las siguientes propiedades:

    p(x) 0 todo x en X; toda probabilidad es mayor o igual a cero.

    =o p(x) = 1x ; la suma de todos los valores de probabilidad del espacio muestra l es uno.

    Es importante destacar que la variable aleatoria discreta puede ser infi-nita pero numerable. Por ejemplo, el conjunto de los nmeros enteros pares positivos es un conjunto infinito pero contable, es decir, se puede encontrar una numeracin de estos; por el contrario, un conjunto infinito, como lo son los nmeros reales, no se puede contar.

    A continuacin, se desarrollar el ejemplo presentado anteriormente correspondiente al lanzamiento de tres monedas, a travs del cual se justific la necesidad de asignar valores numricos a datos cualitativos con el fin de poder adelantar estudios probabilsticos. Para el ejemplo referenciado, se fij como evento de inters la cantidad de sellos (S) obtenidos en el lanza-miento de tres monedas, establecindose como espacio muestral asociado a = {CCC, CCS, CSC, CSS, SSS, SSC, SCS, SCC} y asignndose un valor numrico de acuerdo con la funcin de la variable aleatoria, con la idea de hacer corresponder a cada uno de los puntos del espacio muestral original un valor numrico, que consista justamente en el total de sellos (S) obtenidos en el lanzamiento.

    Siguiendo con el desarrollo del ejemplo, se establece primero un nuevo espacio muestral notado por * = {0,1,2,3};. Posteriormente, se adelanta la asignacin de probabilidad a cada uno de los puntos que conforman el espacio muestral a partir de la definicin clsica de probabilidad, la cual interpreta esta como un cociente dado por el total de casos favorables sobre el total de casos posibles (Canavos, 1988):

    P(0) =

    P(1) =

    18

    38

    P(2) =

    P(3) =

    38

    18

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    17

    La anterior asignacin de valores define una funcin de probabilidad a travs de la cual se asocia una probabilidad a cada punto muestral con nmeros reales dentro del intervalo (0,1), de tal forma que el resultado de la suma de los valores de probabilidad asociada es:

    Con la asignacin de probabilidad realizada, se incorpora para el presente ejemplo un concepto importante en el tratamiento de una variable aleatoria denominado funcin de distribucin acumulada, definida de la siguiente manera:

    Funcin de distribucin acumulada: brevemente notada por fda, es la probabilidad de que x sea menor o igual que algn valor especfico de X. Se define de la siguiente forma (Canavos, 1988):

    F(x) = P(X x) = xi

    x P(xi )

    Ilustrando esta propiedad para el ejemplo de la variable aleatoria discreta que se viene construyendo, se tiene:

    Adicionalmente, la fda goza de algunas propiedades importantes, todas ellas consecuencia de ser creciente. Una funcin es creciente si x < y implica f (x) f (y): (Apostol, 1984):

    0 F (x) 1 para todo x.

    F (xi) F (xj), si xi xj F (x), es no decreciente.

    P (X > x) = 1 F (x); probabilidad del complemento.

    18

    18

    38

    38++ + = 1

    18F(0) = P (x 0) =

    18

    38

    48F(1) = P (x 1) = P(0) + P(1) = + =

    F(2) = P (x 2) = P(0) + P(1) + P(2) = 7818

    38

    38+ + =

    F(3) = P (x 3) = P(0) + P(1) + P(2) + P(3) = 8818

    38

    38+ + + =

    18 = 1

  • Diego Cardona, Miller Rivera, Jess Romero

    18

    Las siguientes propiedades de la fda permiten calcular en el primer caso una probabilidad puntual y, en el segundo, la probabilidad de que la variable tome resultados entre dos valores dados.

    P (X = x) = F (x) F (x 1); utilizada para calcular la probabilidad puntual de algn valor x, para lo cual se calcula la fda de los valores x y x - 1, y luego se hace su respectiva diferencia.P (xi X xj) = F (xj) F(xi-1); utilizada para calcular la probabilidad de que x, tome los valores entre xi y xj, se hace la diferencia entre F(xj) y F(xi), donde F(x) es la fda de la funcin de probabilidad.

    Los conceptos presentados tambin son aplicables a las variables alea-torias continuas con algunas variaciones, las sumas son reemplazadas por integrales y no interesa la probabilidad puntual que pueda tomar una variable aleatoria continua, sino los valores en algn intervalo donde est definido su dominio. La idea central es que la variable aleatoria construida debe satisfacer las propiedades de una funcin de probabilidad; en el caso de la variable discreta, el conjunto o bien era finito o infinito numerable, lo que en el caso continuo no se da, all se tiene un conjunto infinito pero no numerable, por lo tanto, no se puede calcular la probabilidad puntual para algn valor. Esta se define como cero P(X = x) = 0 para cualquier x.

    4.2. Variable aleatoria continua

    Una variable continua puede tomar cualquier valor en un intervalo de los nmeros reales; a diferencia de la discreta, la continua, adems de valores en-teros, puede tomar valores racionales e irracionales; ejemplos de variables continuas son el tiempo que emplea un avin en recorrer alguna distancia dada, la cantidad de combustible que pueda quemar el mismo avin en de-terminado tiempo y la estatura o el peso de un conjunto de personas; la determinacin de los valores por ser tomados queda sujeta a la precisin de los instrumentos utilizados en el experimento para adelantar la medicin respectiva (Canavos, 1988).

    El siguiente experimento, propio de una variable aleatoria, trata de medir los tiempos entre llegadas de clientes a un almacn de autoservicio; para

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    19

    un total de 100 clientes, se establecen 10 intervalos de un minuto cada uno, como se muestra en la tabla 1.

    Tabla 1. Frecuencia relativa del nmero de clientes que arriban a una central de servicio

    Intervalo Nmero de llegadas Frecuencia relativa

    0 < x

  • Diego Cardona, Miller Rivera, Jess Romero

    20

    Al incrementar el nmero de llegadas para 1.000 clientes y dividir el tiempo en 20 intervalos de 30 segundos cada uno, se tiene en esencia la misma distribucin anterior ms refinada, ver figura 2.

    Figura 2. Distribucin de frecuencias asociada para n = 1.000

    Fuente: elaboracin propia.

    Continuando con la divisin del tiempo en intervalos ms pequeos de llegada, se podra observar una curva lmite que representara la distribu-cin de carcter continuo de la situacin anterior; por medio de un proceso de simulacin, se han generado distintos registros de clientes para valores diferentes de n, con el fin de observar que, a medida que se aumenta el nmero de llegadas e intervalos, la figura que representa dicha distribu-cin tiende a tomar la forma de una funcin continua a trozos, ver figura 3, con n = 10.000; figura 4, con n = 100.000; figura 5, con n = 1.000.000, y figura 6, con n = 10.000.000.

    Figura 3. Distribucin de frecuencias asociada para n = 10.000

    Fuente: elaboracin propia.

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    21

    Figura 4. Distribucin de frecuencias asociada para n = 100.000

    Fuente: elaboracin propia.

    Figura 5. Distribucin de frecuencias asociada para n = 1.000.000

    Fuente: elaboracin propia.

    Figura 6. Distribucin de frecuencias asociada para n = 10.000.000

    Fuente: elaboracin propia.

  • Diego Cardona, Miller Rivera, Jess Romero

    22

    La distribucin de probabilidad de la variable aleatoria continua comparte las propiedades presentadas para el caso discreto, de tal forma que todos los valores de probabilidad calculados en un intervalo deben ser mayores o iguales a cero, y la suma de los valores asociados al espacio muestral es tambin uno; naturalmente, en este caso la funcin est definida en un in-tervalo de los nmeros reales e interesa la probabilidad de algn intervalo en el cual X est contenido, es decir, se necesita calcular una probabilidad tal como P(a X b).

    Es comn llamar a una funcin de variable aleatoria continua funcin de densidad de probabilidad o densidad de probabilidad. Una funcin f(x), que satisface las siguientes propiedades, es una funcin de densidad de probabilidad (Canavos, 1988):

    f(x) 0 para todo nmero real; la funcin de probabilidad evaluada en cualquier punto muestral siempre es mayor o igual o cero. f(x)dx = 1; a fin de que esta funcin cumpla con las propiedades de una funcin de probabilidad, la suma de los valores de probabi-lidad de estos infinitos puntos muestrales se convierte en una integral, donde la probabilidad est dada por el rea bajo la curva, la funcin de densidad se integra sobre todo en el intervalo de los nmeros reales. P(a x b) = ba f(x)dx; la probabilidad de estar x en un intervalo (a,b), se reduce a evaluar la integral de la funcin de densidad entre los lmites a y b; al igual que el tem anterior, esta probabilidad co-rresponde al rea bajo la curva entre los lmites dados.

    Para entender las propiedades presentadas a travs de las cuales se carac-teriz una funcin de densidad, los parmetros de la variable aleatoria, valor esperado y varianza, y las distribuciones de probabilidad que se presentarn ms adelante, se requiere que el lector cuente con conocimientos bsicos de clculo integral, de no tenerlos se recomienda consultar Leithold (1998).

    Para el tratamiento oportuno de la variable aleatoria continua, es rele-vante considerar tambin la funcin de distribucin acumulada, presentada anteriormente para la variable aleatoria discreta:

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    23

    4.3. Funcin de distribucin acumulada

    Esta funcin calcula la probabilidad de que X tome un valor menor o igual a algn otro valor en particular, de acuerdo con (Meyer, 1992):

    F(x) = P(X x) =x

    _ f(t)dt

    La fda de una variable aleatoria continua debe cumplir las siguientes propiedades:

    F (-) = 0; significa que la funcin acumulada evaluada en el valor extremo izquierdo es un valor muy pequeo.F () = 1; como f(x), es una funcin de probabilidad definida sobre todos los nmeros reales, al calcular la integral sobre todos su espacio muestral, el resultado es uno.P (a x b) = F(b) F(a); esta propiedad es consecuencia del primer teorema fundamental del clculo, al estar interesados en encontrar un rea bajo la curva; su clculo se realiza mediante la aplicacin de tal teorema (ver Leithold, 1998). dF(x)

    dx = f(x); esta propiedad al igual que la anterior es consecuencia del segundo teorema fundamental del clculo, bsicamente indica que la fda F(x) es una integral indefinida de f(x). (ver Leithold, 1998).

    Es de importancia que la funcin f(x) sea continua en alguno o varios intervalos de los nmeros reales, a fin de que ella se pueda integrar y esto permita el clculo de la probabilidad.

    Es conveniente, una vez presentadas la variable aleatoria discreta y continua, conocer los parmetros propios de la variable aleatoria que per-miten identificar la variabilidad de los datos y predecir un comportamiento futuro.

    4.4. Parmetros de la variable aleatoria

    De la misma forma como una ecuacin del tipo ax + by = c define en geometra analtica la ecuacin de una recta; el nmero m = ab llamado

  • Diego Cardona, Miller Rivera, Jess Romero

    24

    pendiente de la recta brinda informacin acerca de la inclinacin de la recta; y f1(x) es conocido como la primera derivada de una funcin f(x) y entrega informacin del crecimiento o decrecimiento de la funcin, en el caso de las variables aleatorias, los parmetros conocidos como valor esperado y varianza permiten obtener informacin propia de su comportamiento (Meyer, 1992). Estos se precisan a continuacin.

    4.4.1. Valor esperado

    Con cada distribucin de probabilidad, hay asociado un parmetro llamado valor esperado, tambin conocido como esperanza matemtica, valor pro-medio o media. Su origen deviene de los juegos de azar: los apostadores deseaban saber, adems del chance (probabilidad) de ganar en el juego, cunto se esperaba ganar o en su defecto perder (Blanco, 2010).

    Segn sea X la variable aleatoria discreta o continua, se define su valor esperado como (Meyer, 1992):

    XVariable aleatoria discreta

    XVariable aleatoria continua

    Sean {x1,x2,,xn,} los valores de una variable aleatoria discreta y p(x1),p(x2),,p(xn), sus respectivos valores de probabilidad, el valor esperado de X, notado de las siguientes maneras E(X), x, est dado por:

    E(X) = i=1

    xip(xi)

    Sea X una variable aleatoria continua, el valor esperado de X se define de la siguiente manera:

    E(X) =

    _ xf(x)dx

    La definicin anterior involucra otros conceptos tales como convergen-cia de una serie, convergencia de una integral impropia, series de Taylor y series de Maclaurin, entre otros, que no son tratados en este documento (el lector interesado puede consultarlos en Blanco, 2010).

    Para ejemplificar la manera de calcular el valor esperado de una varia-ble aleatoria discreta, se considerar el espacio muestral ={0,1,2,3,4} asociado con alguna variable aleatoria X que tiene la siguiente distribucin de probabilidad:

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    25

    P(X = 0) =

    P(X = 1) =

    110

    110

    P(X = 3) =

    P(X = 4) =

    310

    110

    P(X = 2) = 410

    A partir de la definicin anterior, encontrar el valor esperado de X para

    la distribucin de probabilidad descrita es:

    E(X) = 0 + 1 + 2 + 3 + 4 = = 2( )110 ( ) 110 ( ) 410 ( ) 310 ( ) 110 2010

    Algn experimento que tenga asociada esta distribucin, despus de un buen nmero de ensayos, cabe esperarse que su promedio se aproxime al valor 2. Un acercamiento acerca del significado del valor esperado es inter-pretarlo como el promedio ponderado del conjunto de resultados; es posible que el valor esperado no haga siquiera parte de los puntos muestrales.

    Las siguientes propiedades del valor esperado se cumplen tanto para variables aleatorias discretas como continuas (Meyer, 1992):

    Sea k una constante, y X=k para todo valor de X, entonces: E(X) = k Sea k una constante y X una variable aleatoria, entonces: E(kX) = kE(X) Sea k una constante y X una variable aleatoria, entonces: E(X + k) = E(X) + k

    Tales propiedades se generalizan de manera natural a una funcin g(x) de una variable aleatoria X:

    E(g(X)) = i=1

    g(xi)p(xi); en el caso discreto.

    E(g(X)) =

    _ g(X) f(X)dx; en el caso continuo.

    Para ms detalles, consultar Meyer (1992).

  • Diego Cardona, Miller Rivera, Jess Romero

    26

    El valor esperado de una variable aleatoria permite establecer el valor sobre el cual se centra la distribucin de la probabilidad (Walpole, 1990); sin embargo, no es suficiente para brindar una clara informacin acerca del comportamiento de la distribucin, por ello se aboga a otro parmetro, la varianza de una variable aleatoria, que brinda informacin de su compor-tamiento.

    4.4.2. Varianza

    El conjunto de notas obtenidas por dos estudiantes universitarios, que se identificarn en adelante para el presente ejemplo como A y B, se comportan de manera aleatoria y corresponden a cuatro perodos, cada uno de los cua-les tiene un peso del 25% sobre el 100% de la nota final. Las notas para el estudiante A se tratarn como X y las del estudiante B como Y, codificadas con un valor numrico comprendido entre 1 y 10.

    Las notas alcanzadas en los cuatro perodos por los estudiantes fueron para A = {6,7,8,8} y para B = {4,5,10,10}; aunque las notas representan el primero, segundo, tercero y cuarto perodo, respectivamente, en este caso el orden en que sean tratadas no importa debido a que todos los perodos tienen el mismo peso 25% = 14 . Calculando el promedio de las notas re-portadas, se tiene:

    E(X) = 6 + 7 + 8 + 8 = = 7,25( )14 ( ) 14 ( ) 14 ( ) 14 294E(Y) = 4 + 5 + 10 + 10 = = 7,25( )14 ( ) 14 ( ) 14 ( ) 14 294

    Pese a que el promedio de notas calculado, correspondiente a la nota final para los dos estudiantes es el mismo, se observa que, en el caso del estudiante A, las notas son ms estables, menos dispersas; mientras que, en el caso del estudiante B, sucede lo contrario, las notas son muy dispersas. Se podra afirmar que el estudiante B hizo un gran esfuerzo en los dos ltimos perodos. En situaciones como estas, se hace necesario introducir otro parmetro que permita abordar de forma oportuna los temas de dispersin; el parmetro conocido para este fin es denominado como varianza (Ross, 2005).

    Sea X una variable aleatoria, la varianza de X, notada V(X) o tambin x

    2, se define como sigue:

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    27

    V(X) = E[[X E(X)]2] = E[(X - )2]

    La raz cuadrada positiva de la varianza, notada x, se denomina la des-viacin estndar de la variable aleatoria X.

    x = V(X)

    Al igual que el valor esperado, la varianza es una medida de tendencia central (Walpole, 1990). En la prctica, es ms usada la desviacin estndar que la varianza, debido a que est en las mismas unidades de la variable, a diferencia de la varianza que est en unidades cuadradas (Meyer, 1992).

    La definicin de varianza presentada est definida como un valor espera-do; mediante manipulaciones algebraicas, es posible obtener una expresin de ms fcil manejo para su clculo en funcin de valores esperados ms sencillos de calcular, como se muestra a continuacin (Meyer, 1992):

    V(X) = E(X2) E(X)2

    O bien la otra expresin:

    V(X) = E(X2) 2

    La demostracin de este resultado, aplicando la definicin de la varianza,

    utilizando las propiedades del valor esperado y considerando la notacin E(X) = , permite obtener la siguiente expresin (Meyer, 1992):

    V(X) = E[[X - ]2]

    V(X) = E[X2 2X + 2]

    V(X) = E(X2) - 2E(X) + 2

    V(X) = E(X2) - 2() + 2

    V(X) = E(X2) - 22 + 2

    V(X) = E(X2) - 2

  • Diego Cardona, Miller Rivera, Jess Romero

    28

    Se ha obtenido la segunda expresin para la varianza de una variable aleatoria, donde, una vez conocido su valor esperado, el clculo se reduce aencontrar el siguiente valor esperado E(X2), el que se ha de calcular de acuerdo con su definicin.

    A continuacin, se encontrar la varianza para las notas de los estudiantes A y B, utilizando la expresin anterior. Recordar que el valor de calculado para los dos estudiantes fue de 7,25, quedando pendiente el de E(X2). De esta forma, se tienen los valores esperados para el clculo de la varianza:

    Para el estudiante A

    E(X2) = (62) + (72) + (82) + (82) = = 53,25( )14 ( )14 ( )14 ( )14 2134Para el estudiante B:

    E(Y2) = (42) + (52) + (102) + (102) = = 60,25( )14 ( )14 ( )14 ( )14 2414Por lo tanto, la varianza sera:

    Para el estudiante A:

    V(X) = 53,25 7,252 = 0,6875

    Para el estudiante B:

    V(Y) = 60,25 7,252 = 7,6875

    Una vez se calcula la varianza referente a las notas de los estudiantes A y B, se encuentra la desviacin estndar, recordando que esta se defini como la raz cuadrada positiva de la varianza, x = V(X). Las desviaciones estndar para las notas asociadas a cada uno de los estudiantes sern:

    Para el estudiante A:

    A = 0,6875 = 0,8291

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    29

    Para el estudiante B:

    B = 7,6875 = 2.7726

    La importancia de la varianza de una variable aleatoria radica en la in-formacin que brinda acerca de la distribucin de los datos de una variable aleatoria, permitiendo identificar el comportamiento de esta; la desviacin es-tndar propiamente es quien brinda la informacin acerca de la dispersin delos datos respecto al promedio o valor esperado de estos.

    Al cuantificar la varianza, por ende, la desviacin estndar de las notas registradas para cada uno de los estudiantes, se observa la dispersin o variabilidad de las notas de los estudiantes, comprobando que las califica-ciones del estudiante B son menos homogneas que las del estudiante A; lo que permite realizar un estudio ms completo acerca de la dispersin lo da un anlisis de varianza.

    De igual forma que el valor esperado de una variable aleatoria, la varianza tambin tiene algunas propiedades tiles y de manera anlogas a las que se mencionaron anteriormente:

    Sean X, Y variables aleatorias, k una constante, se satisfacen las siguientes propiedades para la varianza:

    V(X + K) = V(X) V(KX) = K2V(X)

    V(X + Y) = V(X) + V(Y) V(XY) = V(X)V(Y)

    Esta ltima propiedad se satisface si X e Y son variables independientes. Para ms detalles y propiedades ms generales, consultar Blanco (2010).

    Sea f(x) una funcin que define una distribucin de probabilidad asociada a un experimento aleatorio, para el clculo de su valor esperado y varianza considerar la funcin que se define como:

    f(x) = x23 si - 1 x 2

    o en otros casos{A partir de la definicin de valor esperado anterior, se obtiene el siguiente

    resultado:

  • Diego Cardona, Miller Rivera, Jess Romero

    30

    _ E(X) = xf(x)dx

    ( )x232

    _ 1E(X) = x dx

    13

    2

    _ 1E(X) = x3dx

    54E(X) = = 1,25

    Una vez obtenido el valor esperado de X de la distribucin anterior, solo falta encontrar el valor esperado de x2,; este resultado se obtiene de la misma forma a partir de la definicin del valor esperado mediante una integracin inmediata:

    ( )x232

    _ 1E(X2) = x2 dx

    13

    2

    _ 1E(X2) = x4 dx115E(X

    2) =

    Ahora, resta hacer uso de la ltima expresin encontrada para la varianza de la variable aleatoria; por lo tanto, su varianza es:

    V(X) = E(X2) - (E(X))2

    V(X) = - 115 ( )542

    V(X) = = 0,6375 5180

    En resumen, la varianza de una variable aleatoria es una medida de dis-persin de la distribucin de probabilidad de la variable aleatoria (Canavos, 1988).

    4.5. Funciones ms usadas

    La eleccin de una distribucin de probabilidad para representar un fen-meno de inters prctico debe estar motivada tanto por la comprensin de la

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    31

    naturaleza del fenmeno en s como por la posible verificacin de la distri-bucin seleccionada a travs de evidencia emprica. En todo momento debe evitarse aceptar de manera tcita una determinada distribucin de probabilidad como modelo de un problema prctico (Canavos, 1988).

    En el apartado siguiente, se adelanta una exposicin general de las prin-cipales funciones de distribucin de probabilidad para variable aleatoria discreta y continua.

    4.5.1. Variables aleatorias discretas

    Se caracterizan a continuacin las siguientes variables aleatorias discretas: uniforme, binomial, Poisson e hipergeomtrica, mostrando los parme-tros ms relevantes y su respectivo valor esperado y varianza; para ms detalles de cada una de estas variables o los dos parmetros que se van a tratar, ver Blanco (2010).

    Distribucin discreta uniforme

    La ms simple y sencilla de las distribuciones discretas de probabilidad es ladistribucin discreta uniforme; esta variable aleatoria asume cada uno de sus valores con la misma probabilidad, espacios laplacianos; en total, esta variable aleatoria consta de k puntos muestrales, los que podemos etiquetar de alguna manera como: x1,x2,xk-1,xk.

    Sea X una variable aleatoria discreta, X tiene una distribucin uniforme de parmetro k con k un entero positivo si su funcin de probabilidad est dada por:

    P(X = x) = 1k si x = 0,1,2,...ko en otro caso{

    Para el caso de la distribucin uniforme, su valor esperado y varianza son:

    E(X) = K+12

    V(X) = K2-1

    12

  • Diego Cardona, Miller Rivera, Jess Romero

    32

    Distribucin binomial

    En la prctica, es una de las ms usadas; esta distribucin de probabilidad se encuentra en diversas reas de aplicacin tales como el control de calidad, la mercadotecnia, la medicina y la investigacin de opinin, entre otras.

    Dicha distribucin est caracterizada por la ocurrencia o no ocurrencia de algn evento en algn experimento, ensayo de Bernoulli; suele llamar-se xito a la ocurrencia del evento, mientras que la no ocurrencia de este se denomina fracaso. La probabilidad de xito se nota p y la probabilidad de fracaso 1 - p,; al suponer que se realizan n repeticiones del experimento, todos ellos independientes, y precisar que p permanece constante durante los n ensayos, aqu interesa encontrar la probabilidad de tener x xitos en los n ensayos, esto es, P(X = x).

    Lo clave para tener un escenario donde se aplica una distribucin binomial son las dos consideraciones siguientes:

    La probabilidad 1. p permanece constante durante las n repeticiones.Las 2. n repeticiones son independientes entre s.

    Sea X una variable aleatoria, se dice que X tiene una distribucin de probabilidad binomial si ella define la cantidad de xitos en los n ensayos y p la probabilidad asociada a cada uno de estos xitos; por lo tanto, se define la funcin de probabilidad asociada a la distribucin binomial como:

    b(x;n,p) ={ nx pxpn-x si x = 0,1,2...,no en otro caso( )

    nx( ) llamado coeficiente binomial, se define as:

    n!(n-k)k!

    nx( ) =

    En la anterior definicin, se tom q = 1 - p,; la distribucin binomial queda completamente determinada con los dos parmetros n y p,; su valor esperado y varianza son:

    E(X) = np

    VAR(X) = npq

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    33

    Distribucin de Poisson

    Llamada as en honor de Simen Denis Poisson, matemtico y fsico fran-cs del siglo XIX, esta distribucin de probabilidad representa la cantidad de eventos independientes que ocurren a una velocidad constante en algn intervalo de tiempo. La distribucin de Poisson es el principal modelo pro-babilstico usado en problemas de lneas de espera, tal como lo pueden ser la cantidad de clientes que llegan a un banco en determinada hora del da; tambin modela situaciones como el nmero de bacterias en un cultivo, la cantidad de seguros tramitada en una empresa en determinada fecha, etc. (Canavos, 1988).

    Una variable aleatoria X tiene una distribucin de Poisson, donde esta representa el nmero de eventos aleatorios independientes que ocurren en un intervalo de tiempo dado a velocidad constante sobre el tiempo o el espacio. Su funcin de probabilidad est dada por (Canavos, 1988):

    P(X = x) ={ x = 0,1,2,...; > 0o en otro caso

    e-xx!

    E(X) =

    VAR(X) = Es de inters notar que tanto el valor esperado como la varianza de la

    distribucin de Poisson son iguales; de las distribuciones de probabilidad ms conocidas, es la nica que goza de esta caracterstica.

    Distribucin hipergeomtrica

    En un lote de N artculos donde r de ellos tienen una caracterstica deter-minada, el complemento N - r no tiene la caracterstica. Al escoger una muestra de tamao n N (sin reemplazo), se define la variable aleatoria X como el nmero de artculos r con la caracterstica r dentro de la muestra seleccionada, claramente x r. Esta distribucin de probabilidad se define por la siguiente expresin:

  • Diego Cardona, Miller Rivera, Jess Romero

    34

    P (X = x) ={ x = 0,1,2, n N, n, r enteros positivos0 para cualquier caso

    rx

    rx

    Nn

    Nn

    ( )( )

    ( )

    La distribucin hipergeomtrica queda completamente determinada por los parmetros N, n, r,.

    Sus parmetros de dispersin, valor esperado y varianza, estn dados por:

    E(X) = nrN

    ( )N - nN - 1VAR(X) = npq con q = 1 - p

    4.5.2. Variables aleatorias continuas

    Las variables aleatorias continuas son en muchos casos un escenario que permite modelar situaciones en distintas reas de la ingeniera, las ciencias aplicadas, la economa y los negocios, entre otros; el que una variable pueda tomar cualquier valor dentro de algn intervalo facilita en cierta medida los clculos y permite un mejor desarrollo terico con la utilizacin de estos, sean diferenciales, integrales, multivariados, y hasta las ecuaciones diferenciales. Se pretende mostrar, a continuacin, la forma general de poder caracterizar algn experimento que cumpla ciertas condiciones, a fin de encontrar su modelo entre las distintas distribuciones continuas de probabilidad.

    Distribucin uniforme

    Dentro de las variables aleatorias continuas, la ms sencilla es esta; su caracterstica principal es establecer para todos los eventos asociados a un experimento la misma probabilidad en un intervalo dado, lo que quiere decir que la variable est distribuida uniformemente en un intervalo dado; una definicin ms precisa es la siguiente:

    Sea X una variable aleatoria continua, definida en un intervalo (a,b) de los nmeros reales, la variable aleatoria est distribuida de manera uniforme si su funcin de probabilidad es:

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    35

    f (x; a, b) ={ si a x b

    0 para cualquier caso

    1b - a

    En el caso continuo, no interesa el clculo de una probabilidad puntual, lo relevante es el valor de probabilidad que se le pueda asignar a un intervalo sobre el cual est definida la funcin de probabilidad; por lo tanto, apli-cando la definicin de fda F (x) = P (X x) = x f (t) d t8 y el segundo teorema fundamental del clculo P(a x b) = F(b) F(a), se tiene la siguiente distribucin de probabilidad acumulada para una distribucin de probabi-lidad uniforme continua:

    dtb - a

    1b - a

    F (x) = P (X x) = x = x dt s i a x b;8 a

    Al aplicar las propiedades de la integral, se llega al siguiente resultado:

    x - ab - a

    F (x) = P (X x) = { 0 s i x < asi a x b1 s i x > b

    La distribucin anterior, cuando a = 0 y b = 1, se conoce como distribucin uniforme sobre el intervalo unitario (0,1), fundamental en la generacin de nmeros aleatorios, instrumento muy utilizado en la simulacin por com-putador (Canavos, 1988).

    El valor esperado y la varianza de esta funcin de probabilidad estn dados por:

    E(X) = a + b2

    VAR(X) = (b - a)2

    12

    Distribucin normal

    Esta distribucin de probabilidad es una de las ms usadas, por no decir que es la de mayor empleo, tanto a nivel terico como prctico en la teora de la probabilidad y la estadstica; es conocida tambin como distribucin

  • Diego Cardona, Miller Rivera, Jess Romero

    36

    gaussiana, en honor a Carl Friedrich Gauss (1777-1855) (Blanco, 2010), gran matemtico alemn considerado uno de los tres grandes matemticos de todos los tiempos. La curva que representa esta distribucin de proba-bilidad en forma de campana describe de manera muy acertada muchos de los fenmenos que ocurren en la naturaleza, investigacin e industria. La utilizacin de esta distribucin de probabilidad debe hacerse de manera cuidadosa, dado que antes de utilizarla se debe estar seguro de que el expe-rimento obedece a una situacin normal; de ella se abusa mucho, el hecho de llamarse normal hace pensar literalmente que tiene un patrn estndar aceptado (Canavos, 1988).

    Se utiliz de manera extensa durante el siglo XIX por parte de cientficos como Laplace y Gauss, al notar que los errores al llevar a cabo mediciones fsicas tenan un comportamiento normal.

    La distribucin normal queda determinada por los parmetros y ,; su media (valor esperado) y su desviacin estndar, respectivamente, se encuentran definidas en los siguientes intervalos - < < y > 0; es comn caracterizar esta distribucin con la notacin N(,2).

    Sea X una variable aleatoria continua, X tiene una distribucin normal si su funcin de probabilidad est dada por:

    f (x) = e , si < x

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    37

    La funcin que define la distribucin normal no ofrece un camino rpido y fcil para el clculo de los distintos valores, por ello se procede a considerar una sustitucin que transforma la distribucin normal de parmetros y , en otra distribucin normal de parmetros 0 y 1, respectivamente, notada N(0,1) y llamada distribucin normal estndar. Los valores de esta distribucin de probabilidad se encuentran tabulados de manera extensa en prcticamente todo texto de probabilidad y estadstica (Canavos, 1988).

    La sustitucin utilizada es Z = x - ; as, la nueva distribucin normal es una funcin que depende de la variable aleatoria Z.

    La distribucin normal tiene la propiedad de ser una funcin par, esto es, f(x) = f(-x), lo que hace que su grfica sea simtrica respecto al eje y (figura 7):

    Figura 7. Distribucin normal

    Fuente: Meyer (1992).

    La distribucin normal permite aproximar varias otras distribuciones de probabilidad, tanto discretas como continuas (Meyer, 1992).

    El clculo de la probabilidad de cierto intervalo (a,b) est dado por P(a X b), que, mediante la sustitucin Z = x -

    , toma la forma

    P = Z a -

    ( b -

    ) ; tal como se dijo antes, estos valores se encuen-tran de manera extensa en tablas estadsticas.

    Distribucin gama

    A fin de poder caracterizar la distribucin gama, es necesario hacer una presentacin de una de las funciones ms importantes en las matemticas, tanto en la teora como en la prctica, que es de especial inters en el clculo de probabilidad.

    Y

    X

  • Diego Cardona, Miller Rivera, Jess Romero

    38

    Definicin: la funcin gama notada , se define de la siguiente forma:

    (p) = xp-1e-x dx, definida para p > 08

    0

    Esta funcin tiene una til forma de recursin:

    (p) = (p 1)(p - 1);

    En particular, para n entero positivo, la funcin gama define el factorial de n.

    (n) = (n 1)!

    Una vez presentada la funcin gama, se est en condiciones de formular la distribucin gama a travs del siguiente enunciado:

    Sea X una variable aleatoria continua, que recorre o toma valores no negativos, se dice que X tiene una distribucin de probabilidad gama si su fdp es:

    1(a) af(x) =

    (- )xxa-1e si x > 0 a, > 0 o para cualquier otro valor{

    La distribucin gama queda completamente determinada por los par-metros a y , donde tanto a y son nmeros reales positivos.

    La fda de la distribucin gama se obtiene mediante la siguiente relacin:

    8

    01

    (a) aF(X) = P(X x) = ta-1e dt(- )

    t

    El valor esperado y la varianza de la distribucin gama estn dados por:

    E(X) = a

    VAR(X) = a2

    La variacin de los parmetros a y , dan una diversidad de formas para algunas distribuciones de probabilidad particulares; estos parmetros se conocen como los parmetros de forma y escala (Canavos, 1988).

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    39

    Una de las distribuciones que se presentan como caso particular de la distribucin gama es la de Erlang, que se da cuando el parmetro es un entero positivo, llamada as en honor del cientfico dans Agner Krarup Earlan (1878-1929), quien, a principios de 1900, la utilizara para describir problemas de trfico en lneas telefnicas. De hecho, a Erlang se le conoce como el padre de la reciente lnea de la investigacin de operaciones deno-minada lneas de espera o tambin teora de colas.

    Distribucin exponencial negativa

    En la distribucin gama, al tomar a = 1 se tiene la distribucin exponencial negativa; esta tiene extensas aplicaciones en temas de lneas de espera, tiempos de falla, entre otros (Meyer, 1992).

    Como a = 1, la funcin de la distribucin exponencial negativa, adopta la siguiente forma:

    f(x) = e si x > 0(- )x( )1

    De igual modo, la fda de la distribucin exponencial negativa es:

    x

    0F(x) = P(X x) = e dt(- )

    t1

    Y, por lo tanto, su valor esperado y varianza son:

    E(X) =

    VAR(X) = 2

    Para detalles completos de esta distribucin de probabilidad, ver Canavos (1988).

    Distribucin ji cuadrada

    Otra distribucin de probabilidad que se obtiene como caso particular de la distribucin gama es la distribucin ji cuadrada, que se obtiene al hacer a = y = 2 v2 , quedando esta distribucin determinada por el parmetro

  • Diego Cardona, Miller Rivera, Jess Romero

    40

    v, conocido como grados de libertad; la distribucin ji cuadrada es utilizada de manera frecuente en la inferencia estadstica; la funcin de distribucin de probabilidad ji cuadrada es:

    1

    ( )v2 2( )v2f(x) =

    (- )x2x e si x > 0

    o en otro caso{ ( 1) v2

    La fda para la distribucin ji cuadrada es:

    x

    0F(x) = P(X x) = t e dt si x > 0(- )

    t21

    ( )v2 2( )v2

    ( -1)v2

    Su valor esperado y varianza estn dados por:

    E(X) = v

    VAR(X) = 2v

    Distribucin beta

    Esta distribucin se ha empleado de manera extensa en la representacin de magnitudes fsicas, cuyos resultados estn acotados por algn intervalo finito; su utilidad tambin se evidencia al calcular lmites de tolerancia, sin necesidad de recurrir a la distribucin normal, adems de la extensa aplica-cin que tiene en la estadstica bayesiana (Canavos, 1988).

    De la misma forma que la distribucin gama, la distribucin beta est relacionada con la funcin beta, que se define a continuacin:

    Definicin: la funcin beta, notada B(a,), se define de la siguiente manera:

    B(a,) = xa-1(1 x)-1dx0

    1

    Una relacin importante, adems de til, de la funcin beta es:

    B(a,) = (a) ()

    (a+) Donde (X) es la funcin gama descrita anteriormente.

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    41

    Sea X una variable aleatoria continua, X tiene una distribucin beta, de parmetros a y , si su funcin de probabilidad est dada por:

    f(x) = { xa-1 (1 x) 1 0 < X < 1, a y > 0o para cualquier otro valor

    (a + )

    (a) ()

    La fda de la distribucin, atendiendo que ella toma un valor no nulo en el intervalo (0,1), queda determinada as:

    F (x) = P ( X x) ={ x t a-1 (1 t) 1 dt si 0 < x < 1(a + )(a) () 0 si x 00 1 si x 1

    El valor esperado y varianza de la distribucin beta estn dados por las siguientes relaciones:

    E(X) = aa +

    VAR(X) = a (a + )2 (a + + 1)

  • Diego Cardona, Miller Rivera, Jess Romero

    42

    5. Aplicacin de la variable aleatoria

    Se adelanta, a continuacin, la aplicacin de conceptos propios de la in-vestigacin de operaciones para las lneas de falla, con el fin de mostrar a travs de un ejemplo la funcin e importancia que tiene la variable alea-toria en este campo del conocimiento, especficamente la distribucin de probabilidad de Poisson.

    Cierto componente de tipo electrnico es sometido a una prueba de laboratorio a partir de la cual el fabricante concluye que en promedio tan solo fallarn antes de lograr 2.000 horas de operacin 4 componentes. Un comprador del componente electrnico nota que fallan 10 componentes antes de las 2.000 horas de uso. El nmero de componentes que fallan es una variable aleatoria discreta con distribucin de Poisson; una pregunta que surge de manera natural es: hay suficiente evidencia para dudar acerca de la afirmacin del fabricante?

    La duda o incertidumbre en matemticas, en particular en las aplicacio-nes estadsticas, se da en trminos probabilsticos; la ocurrencia o no de un evento bajo ciertas condiciones se decide en trminos de la probabilidad asociada al evento; una probabilidad pequea asociada a un evento no impide la ocurrencia de este, a no ser que sea idnticamente nula.

    Como se defini con anterioridad, la distribucin de Poisson tiene la siguiente distribucin de probabilidad:

    P ( X = x) ={ x = 0,1,2, ...; > 0o en otro caso

    e - x

    x!

    En el ejemplo, el parmetro lambda = 2, por lo tanto, la funcin de distribucin de probabilidad es:

    P ( X = x) ={ x = 0,1,2, ...; o en otro caso

    e -2 2x

    x!

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    43

    La incertidumbre del comprador se calcula mediante la siguiente ex-presin:

    P(X = 10) = = 0,0052e-2210

    10!

    Y la probabilidad de que fallen por lo menos 10 componentes en 2.000 horas de uso, a partir de la fda de la distribucin de Poisson, es P(X 10); por ser esta una funcin de distribucin discreta, aplicando la probabilidad del complemento, se calcula la probabilidad mediante la expresin:

    1 P(X 9)

    Por lo tanto, lo anterior se reduce a:

    P(X 10) = 1 P(X 9)

    P(X 10) = 1 e-22xx!9

    x = 0

    P(X 10) = 1 0,9999

    P(X 10) = 0,0001

    Los dos valores de probabilidad obtenidos anteriormente son, de alguna forma, valores muy pequeos. En resumidas cuentas, si el nmero de fallas presentadas durante las 2.000 horas de operacin est caracterizado de mane-ra acorde con la distribucin de Poisson, con una constante igual a 5, se tiene una probabilidad de 0,0052 de encontrar exactamente 10 unidades defec-tuosas; por el contrario, la probabilidad de encontrar 10 o ms unidades defectuosas es de 0,0001. Pero, antes de tomarse alguna medida en contra del fabricante, se deben hacer algunas preguntas como, por ejemplo, si la tasa de falla siempre es constante?, si el medio en el cual se hicieron los ensayos o pruebas tiene las mismas caractersticas?, si existen factores extraos queestn incidiendo en la situacin? Estas preguntas solo se contestaran al tener un conocimiento completo de la situacin en estudio.

  • Diego Cardona, Miller Rivera, Jess Romero

    44

    Algunos modelos asociados a ciertas situaciones obedecen a comporta-mientos de tipo aleatorio, permitiendo un modelamiento probabilstico; entre ellos estn los modelos de falla en la teora de la confiabilidad, un campo reciente de gran aplicacin (Meyer, 1992).

    Para el estudio de los modelos de falla, se hace imprescindible tener algn conocimiento acerca de conceptos tales como confiabilidad y tasa de falla, los cuales se precisarn a continuacin:

    Considrese un sistema o un conjunto de componentes de este, por ejem-plo, podra pensarse en un fusible de cierto circuito, un instrumento electrni-co, etc.; interesa el tiempo T que este producto puede estar en servicio, dado que la variable de inters, en este caso el tiempo que se sabe de ella, que es una variable continua, puede tomar cualquier valor a partir de algn momen-to que llamamos tiempo inicial t = 0,; la aleatoriedad es evidente, debido a que, por ejemplo, sean dos bombillos fabricados con las mismas caractersticas, no se espera que ambos bombillos tengan el mismo tiempo de duracin y, de hecho, no se sabe con certeza cul es el tiempo determinado de uso. En tal caso, se estara hablando de un fenmeno determinista; adems, se tiene in-formacin emprica que indica el comportamiento aleatorio de los modelos de falla (Meyer, 1992).

    El tiempo T que transcurre hasta que el componente de inters deja de fun-cionar se considera una variable aleatoria continua, como se dijo antes, esta puede tomar cualquier valor positivo; adems de la aleatoriedad presente, no es posible determinar de antemano un resultado para la variable de inters, debido a que tiene asociada alguna funcin de probabilidad f(t). Se for-mulan a continuacin algunos conceptos importantes para el desarrollo de la situacin planteada:

    Definicin: la confiabilidad de un componente (o sistema) en el tiempo t, denominada R(t), est definida como R(t) = P(T > t) donde T es la duracin del componente, R se llama funcin de confiabilidad (Meyer, 1992).

    En la definicin anterior, la probabilidad P(T > t), segn la definicin de probabilidad de una funcin de variable aleatoria continua, es:

    R ( t ) = t f ( s ) ds

    8

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    45

    Recordando la fda de una funcin de probabilidad de una variable alea-toria, en este caso T, se tiene:

    R ( t ) = 1 P ( T t ) = 1 F ( t )

    Otra funcin de gran importancia en la teora de la confiabilidad es la tasa instantnea de falla, funcin que se presenta a continuacin a travs de la siguiente definicin:

    Definicin: la tasa de falla (instantnea) Z (algunas veces llamada funcin de riesgo) asociada con la variable aleatoria T est dada por:

    Z (t) = definida para F(t) < 1 (Meyer, 1992)f (t)R (t)

    Suponiendo que la variable aleatoria T, debe tener asociada una distri-bucin f(t) de probabilidad, pero no se conoce como encontrarla, mediante una serie de consideraciones adicionales de la variable aleatoria T, se logra el siguiente resultado (ver Meyer, 1992):

    Teorema: si T, el tiempo para que ocurra la falla, es una variable aleatoria continua con fdp f(t) y si F(0) = 0, donde F(t) es la fda de T, entonces f(t) puede expresarse en trminos de la tasa de falla Z como sigue:

    f ( t ) = Z ( t ) e - t Z ( y ) dy 0

    Otro resultado interesante es el valor esperado de la variable aleatoria T; este resultado relaciona la funcin de confiabilidad R(t) con el tiempo promedio de falla (valor esperado de T):

    E ( T ) = 0 R ( t ) dt

    8

    Volviendo al planteamiento inicial, dado un experimento, decidir acerca del modelo empleado para el experimento, una vez analizado y visto que obedece a una situacin aleatoria, la pregunta cul es el modelo proba-bilstico que mejor se acomoda a nuestra situacin? no es tarea fcil de responder (Meyer, 1992).

  • Diego Cardona, Miller Rivera, Jess Romero

    46

    Se puede pensar en varios tipos de modelos de fallas, uno de ellos es la ley normal de falla, la cual obedece a una distribucin normal de variable T; su funcin de distribucin de probabilidad es:

    f (t) = e 1(2) ()

    12 ( )t -

    2

    Sin embargo, este no es el caso que interesa aqu, por el contrario, in-teresa una ley de falla que tenga la caracterstica de tener una ley de falla constante, es decir, Z(t) = a para alguna constante a.

    Por lo tanto, al ser la tasa de falla una constante, nuestra funcin de distri-bucin de probabilidad, f (t) = Z (t) e

    t Z ( y ) dy0 , adopta la forma f (t) = ae a t,;

    haciendo a = 1, se tiene una funcin con distribucin exponencial negativa de parmetro , dado por f (t) = para t > 0.

    1

    t1

    e

    Entonces, una variable aleatoria continua T, que representa el tiempo de falla de algn componente o sistema, si tiene una tasa de falla constante, la variable aleatoria continua t, tendr una distribucin exponencial nega-tiva.

    Como se dijo anteriormente, hay evidencias de tipo emprico que susten-tan la aleatoriedad de modelos de falla, en particular que el modelo apropiado siga una distribucin de tipo exponencial negativa (Meyer, 1992).

    Al suponer que la duracin de un fusible de un componente electrnico se encuentra distribuida de forma exponencial, se sabe que la confiabilidad del fusible (para una operacin de 150 horas) es 0,8. Qu cantidad de ho-ras deben tenerse en cuenta a fin de obtener una confiablidad de 0,95?

    Con el propsito de poder describir el tiempo requerido para cualquier confiabilidad deseada, es necesario conocer la distribucin de la probabili-dad; se sabe que esta se distribuye exponencialmente, es decir, f(t) adopta la siguiente distribucin de probabilidad:

    f (t) = ae -at

    Aqu me indica la tasa de falla, que se supone constante, por eso se supuso un modelo exponencial negativo; este parmetro es desconocido para encontrarlo y construir la funcin de probabilidad, as que se hace uso de la informacin suministrada; recurdese que ella indica, segn la funcin de confiabilidad, lo siguiente:

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    47

    R (150) = 150 ae dt = 0,8

    8 -at

    La integral anterior se puede calcular de forma ms fcil al considerar la propiedad del complemento, esto es:

    1 R (150) = 150 ae dt = 0,2 0

    -at

    La integral anterior, mediante un clculo sencillo, es 1 e-at por lo tanto, se tiene:

    1 R(150) = (1 e-150 ) (1 e-0a) = 0,21 R(150) = 1 e-150 = 0,2

    Tal resultado da la siguiente ecuacin exponencial, que, mediante apli-cacin del logaritmo natural, da el resultado siguiente:

    e-150 = 0,8

    -150a = In 0,8 aplicando el logaritmo a ambos miembros de la ecuacin

    a = = 0,00148In 0,8-150

    Una vez obtenido el clculo del parmetro, es inmediato el resultado de inters; la funcin de distribucin de probabilidad es:

    f (t) = 0,00148e-0,00148t

    Por lo tanto, interesa un tiempo t, tal que:

    R (t) =t 0,00148e dt = 0,950,00148t

    8

    Procediendo de manera anloga al caso anterior, utilizando la propiedad del complemento, la integral anterior se transforma como:

    t 0,00148e dy = 0,050,00148y0

    Con t = 34,65 horas

    La solucin del sistema anterior se hizo mediante el software Derive.

  • Diego Cardona, Miller Rivera, Jess Romero

    48

    6. Conclusiones

    Los procesos de toma de decisin que impliquen actuar bajo condiciones de riesgo e incertidumbre requieren mtodos que permitan establecer las po-sibilidades de xito o fracaso en el alcance de los objetivos propuestos. La teora de la probabilidad cuantifica esas posibilidades, asignndoles valores de probabilidad a cada uno de los eventos que pueden ocurrir en la ejecu-cin del proceso; de esta forma, la probabilidad es una medida de creencia cuando existe incertidumbre sobre el conocimiento.

    La variable aleatoria permite modelar situaciones de naturaleza azarosa que implican incertidumbre, con el fin de predecir el comportamiento re-sultante de la ocurrencia del evento asociado a un experimento. La teora de la probabilidad es aceptada como una ciencia a partir de la axiomatizacin de la probabilidad de Kolmogorov en los aos 30, quien la defini como un sistema consistente de axiomas y posteriores teoremas.

    A partir de los mtodos probabilsticos entregados por la teora de la probabilidad, la ciencia de la estadstica ha tenido un crecimiento signifi-cativo que ha permitido encontrar espacios de aplicacin en diversas reas del conocimiento, como la ingeniera, las ciencias econmicas, de la salud y, ms recientemente, en las sociales.

    El estudio adelantado a una situacin de carcter aleatorio parte de reco-nocer las variables y las relaciones entre estas, con el propsito de encontrar una distribucin de probabilidad a travs de la cual se construyen modelos matemticos estocsticos o probabilsticos que permiten representar y en-tender el comportamiento del fenmeno de inters.

    El desconocimiento y no apropiacin formal de la teora de la probabili-dad impide adelantar estudios estadsticos a situaciones de carcter aleatorio, quedando sujetos los procesos de toma de decisin a valores subjetivos establecidos por los individuos a partir de su experiencia o conocimiento de los fenmenos en estudio.

    Al establecer la distribucin de probabilidad que mejor se ajusta a la situacin analizada, es costumbre, de modo errneo, determinar que el comportamiento de los datos obtenidos se distribuye de forma normal, situacin en la que se incurre al ser esta distribucin la ms importante y la ms utilizada en el desarrollo de anlisis estadsticos.

  • Una aproximacin de la variable aleatoria a procesos de toma de decisin que implican condiciones de riesgo e incertidumbre

    49

    Bibliografa

    Allen, A. O. (1990). Probability, Statistics and Queueing Theory. Academic Press.

    Blanco, L. (2010). Probabilidad. Bogot: Editorial Unibiblos.Berman, S. (1969). The Elements of Probability. Addison-Wesley Publishing

    Co. Inc.Brosseau, G. (1997). Theory of didactical situations in mathematics. Di-

    dactique des mathmatiques, 1970-1990. Dordrecht: Kluwer Academic Publishers.

    Canavos, G. C. (1988). Probabilidad y estadstica. Aplicaciones y mtodos. McGraw-Hill.

    Devore, J. L. (1987). Probability and Statistics for Engineering and the Sciences. (2 ed.). Brooks/Cole Publishing Co.

    Fienberg, S. E. (1992). The history of statistics: a review essay. Statistical Science.

    Girn, F. J. (1994). Historia del clculo de probabilidad: de Pascal a Laplace. En: Historia de la ciencia estadstica. Madrid: Real Academia de Ciencias Exactas Fsicas y Naturales.

    Gorostiza, L. (2001). La probabilidad del siglo XX. Nmero 33. Mxico: Miscelnea Matemtica, Sociedad Matemtica Mexicana.

    Hald, A. A. (1990). History of Probability and Statistics and their Aplications before 1750. New York: John Wiley & Sons.

    Hogg, R. V. & Ledolter, J. (1987). Engineering Statistics. (4 ed.). Nueva York: McMillan Publishing Company.

    Leithold, L. (1998). El clculo. (7 ed.). Mxico: Mapasa.Meyer, P. L. (1992). Probabilidad y aplicaciones estadsticas. (Ed. rev.).

    Adisson-Wesley Iberoamericana.Montgomery, D. C. (1996). Probabilidad y estadstica aplicada a la inge-

    niera. Mxico: McGraw-Hill.Muoz, J. (2002). Introduccin a la teora de conjuntos. (2 ed.). Bogot:

    Facultad de Ciencias, Universidad Nacional de Colombia.Neyman, J. (1968). The World of Mathematics. (1 ed.). Vol. III. Nueva York:

    Simon and Shusters, Inc.

  • Diego Cardona, Miller Rivera, Jess Romero

    50

    Parzen, E. (1971). Teora moderna de probabilidad y sus aplicaciones. Mxico: Limusa.

    Pearson, E. S. & Kendall M. (1970). Studies in the History of Statistics and Probability. Vol. I. London: Charles Griffin & Company Limited.

    Petrov, V. & Mordecky, E. (2002). Teora de probabilidad. Mosc: Ed. URSS.

    Ross, S. (1998). A Firts Course in Probability. Prentice Hall. Shiryaev, A. N. (1975). Probability. (2 ed.). Academic Press.Stigler, S. M. (1986). The History of Statistics: The Measl, lrement of Un-

    certainty before 1900. Harvard University Press.Todhunter, I. (1965). A History of the Mathematical Theory of Probability from

    the time of Pascal to that of Laplace. New York: Chelsea Pub. Co.Walpole, R. E. (1990). Probability and Statistics for Engineers and Scientists.

    (4 ed.). McMillan Publishing Company

  • DOCUMENTOS DE INVESTIGACIN

    El modelamiento logstico enla prestacin de servicios:

    caso sociedad hotelera

    Andrs Felipe Santos Hernndez

    Facultad de Administracin

    No. 96, ISSN: 0124-8219Junio de 2011