1. repaso de teoria de probabilidad

Upload: ana-laura-baeza-romero

Post on 14-Jul-2015

103 views

Category:

Documents


0 download

TRANSCRIPT

Modelos Deterministas Cada variable y parmetro puede asignarse a un numero fijo definido o una serie de nmeros fijos, para una serie dada de condiciones.Ej. Cada Libre Cuerpo puntual(suf. Pequeo), gravedad constante(cercano a la Tierra), sin aire( en un tubo con vacio) Ej. Modelo que permita predecir si una moneda cae en cara o cruz. Modelos Probabilistas Se introduce el principio de incertidumbre. Las variables o parmetros utilizados para describir las relaciones entrada- salida. la estructura de los elementosy las restricciones no son conocidos con precisin.Ej. El valor de x es (a+ b) con un 95% de probabilidad.Ej. Cantidad de lluvia que caer en una tormenta y en un lugar especficos.221gt h = La incertidumbre surge cuando se tiene un conocimiento incompleto o incorrecto del mundo o por limitaciones en la forma de representar dicho conocimiento, por ejemplo: Un sistema experto medico, Un robot mvil, Un sistema de anlisis financiero, Un sistema de reconocimiento de voz o imgenes, monitoreo/ control de procesos industriales. Causas: Informacin: Incompleta, Poco confiables, ruido Conocimiento: Impreciso, Incompleto, Contradictorio Representacin: No adecuado, falta de poder descriptivo Los sistemas basados en lgicas o reglas, no tienen incertidumbre. Un sistema de reglas es modular, para saber la verdad de una regla, solo se considera a la misma, sin importar el resto del conocimiento. SI hay incertidumbre ya no se puede considerar solo a la regla, se deben tomar en cuenta otras reglas. Un sistema es monotnico si al agregar nueva informacin a su base de datos, no se alteran las conclusiones que seguan de la bd original. Si hay incertidumbre ya no se puede considerar que la certeza en una hiptesis ya no puede cambiar, se deben tomar en cuenta nuevas reglas, as como nuevos datos. Para tratar la incertidumbre hay que considerarla en forma explicita en la representacin e inferencia.. Una forma de representar y manejar la incertidumbre, son las tcnicasnumricas probabilistas, dentro de las cuales se encuentran los modelos grficos probabilistas. Permiten hacer estimaciones de la probabilidad de que ocurra un evento, basndose en el conocimiento de datos pasados o histricos. Se basan en la teora de probabilidad Se utilizan las probabilidades para modelarla creencia sobre los posibles valores que pueden tomar los hechos Cada hecho tiene una distribucin de probabilidad asociada quenos permitir tomar decisiones La probabilidad de un hecho podr ser modificada por nuestra creencia en otros hechos que estn relacionados. Dentro de la IA se han desarrollado diferentes formalismos que permiten hacer razonamiento con incertidumbre: Modelos probabilistas (Redes bayesianas) Modelos posibilistas (Lgica difusa) Modelar la evolucin del cncer de ovario Explicar la evolucin del VIH ante la presin farmacolgica Creacin de terapias de rehabilitacin motriz que se adapten a necesidades de pacientes de infarto cerebral Evaluar el coste-efectividad de la vacuna del virus del papiloma humano. Entrenamiento y control de plantas elctricas Experimento: Proceso que se lleva a cabo de acuerdo a un conjunto de reglas bien definido. Su resultado depende de la casualidad. Espacio Muestral. Conjunto de posibles resultados de un experimento Evento: Subconjunto del espacio muestral. El resultado de un experimento puede pertenecer o no al evento. I. La probabilidad es un numero entre 0 y 1 Prob. de sacar par en un dado equilibrado? II. La probabilidad de que ocurra el espacio muestral es 1 Prob. de sacar un numero de 1 a 6 en un dado? III. Si A y B son sucesos mutuamente excluyentes P(AUB) = P(A) + P(B) Prob. de sacar en un dado 1 o sacar numero par? 1 ) ( 0 s s A P1 ) ( = S P La probabilidad de que ocurra el evento A dado que ocurre el evento B es: P(A|B) =P(A B) / P(B) esto equivale a calcular la probabilidad de A, cuando el espacio muestral se reduce a B Dado que el dado cayo par, cual es la probabilidad de que sea un numero primo La probabilidad conjunta de A y B, es la probabilidad de que ocurran el evento A y el evento B de manera simultnea. De la definicin de probabilidad condicional se tiene que:P(A B) = P(A|B) P(B) P(A B) = P(B|A) P(A) Probabilidad marginal de un evento es la probabilidad simple de ese evento, pero expresada como una suma de probabilidades conjuntas. En un curso de verano de regularizacin los alumnos inscritos se distribuyen como se muestra en la tabla. A cierto profesor se le asignar aleatoriamente a un alumno. La probabilidad del evento A es simplemente 143/350, pero tambin: P(A) = P(A F) + P(A Q) + P(A M) = 46/350 + 45/350 + 52/350 = 143/350 Dos eventos A y B son independientes si la ocurrencia de uno no altera la probabilidad de ocurrencia del otro P(A|B) =P(A) P(B|A) =P(B) Los eventos A y B son independientes si y solo si:P(A B) = P(A)P(B) Ejemplo:Deunacajacon30tornillos,5deloscualesestn defectuososeextraendosCONREEMPLAZO,determine laprobabilidaddequeambostornillosextradosestn defectuosos (5/30)(5/30)=1/36 Dados dos subconjuntos disjuntos de variables, X e Y, se cumple que: Dados tres subconjuntos de variables, X,Y y Z, si P(Z)>O, se cumple que Utilizando el teorema de la probabilidad total Si se conoce la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener gripe si se tiene un dolor de cabeza Estareglaylapropiedaddeindependenciasernelfundamento delrazonamientoprobabilsticoynospermitirrelacionarlas probabilidades de unas evidencias con otras. Se llama proceso de normalizacin, porque del Teorema de Bayes, toma a 1/P(A) como una constante de normalizacin, la cual permitir que los trminos condicionales sumen uno.P(B|A) = P(A|B)P(B) Donde es la constante de normalizacin, necesaria para hacer que todas las P(B|A) sumen uno. Se puede realizar calculando los valores no normalizados, y despus escalarlos de tal manera que sumen uno. Una variable aleatoria es una funcin X: E R que asigna un valor numrico a cada elemento del espacio muestral. Puede ser discreta o continua. Discreta: el numero de valores de la variable es finito o contablemente infinito Continua: puede asumir todos los posibles valores en cierto intervalo. Ejemplos: X: Suma de los nmeros obtenidos al lanzar dos dados. X es una variable aleatoria discreta que puede tomar los valores 2,3,4,,12 X: Numero de caras obtenidas al lanzar dos monedas. X es una variable aleatoria discreta que puede tomar los valores 0,1 y 2 X_: tiempo en que falle cierto dispositivo X es una variable aleatoria continua La distribucin de una variable aleatoria X se puede ver como una tabla del tipo: Tambin se le llama funcin de probabilidad. La funcin de probabilidad es la funcin que a cada valor de la variable le asocia su correspondiente probabilidad.La grafica de una funcin de probabilidad viene dada por un diagrama de barras.La integral definida de la funcin de densidad en dichos intervalos coincidecon la probabilidad de los mismos Probabilidad de un intervalo rea bajo la funcin de densidad El valor esperado de una variable aleatoria discreta X con distribucin de probabilidad f(x) es El valor esperado de una variable aleatoria continua X con densidad f(x) es Juan arroja un dado y gana $1 si obtiene 1 o 2, $2 si obtiene un 3 o un 4, $4 si sale 5 y $8 si sale 6. Cuanto dinero debera pagar antes de arrojar el dado para que el juego sea justo? = (1)1/3+ (2)1/3+ (4)1/6+ (8)1/6= 3 Juan debera pagar $3 antes de arrojar el dado Los momentos de una variable aleatoria X son los valores esperados de algunas funciones de X Momentos de orden k con respecto al origen Momentos de orden k con respecto a la media Tenemos un experimento de Bernoulli si al realizar un experimentos slo son posibles dos resultados: X=1 (xito, con probabilidad p) X=0 (fracaso, con probabilidad q=1-p) Lanzar una moneda y que salga cara. p=1/2 Elegir una persona de la poblacin y que est enfermo. p=1/1000 = prevalencia de la enfermedad Aplicar un tratamiento a un enfermo y que ste se cure. p=95%, probabilidad de que el individuo se cure Como se aprecia, en experimentos donde el resultado es dicotmico, la variable queda perfectamente determinada conociendo el parmetro p. Si se repite un nmero fijo de veces, n, un experimento de Bernoulli con parmetro p, el nmero de xitos sigue una distribucin binomial de parmetros (n,p). Lanzar una moneda 10 veces y contar las caras. Bin(n=10,p=1/2) Lanzar una moneda 100 veces y contar las caras. Bin(n=100,p=1/2) Difcil hacer clculos con esas cantidades. El modelo normal ser ms adecuado. El nmero de personas que enfermar (en una poblacin de 500.000 personas) de una enfermedad que desarrolla una de cada 2000 personas. Bin(n=500.000, p=1/2000) Difcil hacer clculos con esas cantidades. El modelo de Poisson ser ms adecuado. n k q pknk X Pk n ks s||.|

\|= =0 , ] [ Tambin se denomina de sucesos raros. Se obtiene como aproximacin de una distribucin binomial con la misma media, para n grande (n>30) y p pequeo (p30) y p ni pequeo (np>5) ni grande (nq>5). Est caracterizada por dos parmetros: La media, , y la desviacin tpica, . Su funcin de densidad es: 22121) (|.|

\|=ot oxe x f Interpretacin Geomtrica Se puede interpretar la media como un factor de traslacin. Y la desviacin tpica como un factor de escala, grado de dispersin, Interpretacin probabilista Entre la media y una desviacin tpica tenemos siempre la misma probabilidad: aprox. 68% Entre la media y dos desviaciones tpicas aprox. 95% Cuando hay ms de una variable aleatoria presente (es decir, hay dos o ms), siempre est la posibilidad de que de alguna manera estnrelacionadas.Poresosetrabajaconsufuncinde distribucinconjunta(ysufuncindedensidadconjunta, continua o discreta). Ejemplos: Mido la temperatura ambiente, y adems la presin atmosfrica. Lanzo dos dados, y mido su suma, y tambin el valor ms alto de los dos. Escojo un punto al azar en una esfera, y veo sus coordenadas. Con las frecuencias marginales estudiaremos el comportamiento de una variable independientemente de lo que ocurra la otra. La probabilidad de que la variable aleatoria discreta X tome el valor de 3 se denota P(X = 3). La funcin de probabilidad de X se denota f(x) y se define como: f(x) = P(X = x) f(x) tambin se conoce como distribucin de probabilidad Se debe cumplir que: f(x) 0 sum(f(x)) = 1 Condicional. Cul es la prob.de que la 2 canica sea roja dado que la 1 es azul? P(R2|R1)? Conjunta Cul es la prob.de que la 1 sea roja y la 2 azul? P(R1 y R2)? P(R1 R2)=P(R1|R2)P(R2) R1 canica azul R2 canica roja Una medida intuitiva de incertidumbre es la probabilidad, en la que la distribucin conjunta de un conjunto de variables se usa para describir las relaciones de dependencia entre ellas, y se sacan conclusiones usando formulas muy conocidas de la teora de la probabilidad. Cuando se utiliza la probabilidad como medida de incertidumbre , la estrategia de razonamiento, se conoce como razonamiento probabilstico o inferencia probabilstica.Las leyes de la probabilidad permiten establecer diferentes mtodos de inferencia Marginalizacin: Probabilidad de una proposicin atmica con independencia de los valores del resto de proposiciones Probabilidades condicionadas: Probabilidad de una proposicin dados unos valores para algunas proposiciones e independiente del resto de proposiciones (a partir de la regla del producto) El valores un factor de normalizacin que corresponde a factores comunes que hacen que las probabilidades sumen 1 Consideremos un problema en el que intervengan las proposiciones Fumador = {fumador,fumador}, Sexo = {varon, mujer}, Enfisema = {enfisema, enfisema} Hacer estos procesos de inferencia requiere almacenar y recorrer la distribucin de probabilidad conjunta de todas las proposiciones Necesitamos mecanismos que nos simplifiquen el coste del razonamiento