ejemplo de inferencia bayesiana para la clasificación

2
 Elaborado por: Jesús David Sandoval. EJEMPLO DE INFERENCIA BAYESIANA PARA LA CLASIFICACIÓN CODIGO Se utiliza un marco bayesiano para optimizar los parámetros de ajuste y para obt ener la sali da moderado. La reg ular ización óptima gam parámet ro y el parámetro sig2 kernel se puede encontrar mediante la optimización de los costos en el segundo y el tercer nivel de la inferencia, respectivamente. [am, sig2! " bay#initlssvm $%&, ', tipo, gam, sig2, ()*+#kernel(- /ptimi zacn en el segund o niv el conduce a un pametro ópt imo regularización0 [1odelo, gam#opt! " bay#optimize $%&, ', tipo, gam, sig2, ()*+#kernel(, 2- /ptimización en el tercer nivel conduce a un parámetro óptimo kernel0 [ost#L3, sig2#opt! " bay#optimize $%&, ', tipo, gam#opt, sig2, ()*+#kernel(, 3- Las probables clases posteriores se encuentran mediante la incorporación de la incertidumbre de los parámetros del modelo0 am " 45 Sig2 " 4 'modout " bay#modoutlass $%&, ', tipo, 45,4, ()*+#kernel(, (figura(- Se puede especificar una clase de probabilidad previa en la salida moderada con el fin de compensar un n6mero dese7uilibrado de puntos de datos de entrenamie nt o en las dos clases. uand o el conjunto de entrenamiento contiene 8 9 casos positivos y los negativos 8:, la salida moderada se calcula como0 8p " 45 8n " ;5 <rior " 8p = $8n 9 8p-

Upload: david-sandoval

Post on 06-Oct-2015

217 views

Category:

Documents


0 download

DESCRIPTION

Archivo de ejemplos de inferencia bayesiana para el uso de maquinas de soporte vectorial, inteligencia artificial

TRANSCRIPT

Elaborado por:

Jess David Sandoval.

EJEMPLO DE INFERENCIA BAYESIANA PARA LA CLASIFICACINCODIGO Se utiliza un marco bayesiano para optimizar los parmetros de ajuste y para obtener la salida moderado. La regularizacin ptima gam parmetro y el parmetro sig2 kernel se puede encontrar mediante la optimizacin de los costos en el segundo y el tercer nivel de la inferencia, respectivamente.[Gam, sig2] = bay_initlssvm ({X, Y, tipo, gam, sig2, 'RBF_kernel'}); Optimizacin en el segundo nivel conduce a un parmetro ptimo regularizacin: [Modelo, gam_opt] = bay_optimize ({X, Y, tipo, gam, sig2, 'RBF_kernel'}, 2); Optimizacin en el tercer nivel conduce a un parmetro ptimo kernel: [Cost_L3, sig2_opt] = bay_optimize ({X, Y, tipo, gam_opt, sig2, 'RBF_kernel'}, 3); Las probables clases posteriores se encuentran mediante la incorporacin de la incertidumbre de los parmetros del modelo: Gam = 10; Sig2 = 1; Ymodout = bay_modoutClass ({X, Y, tipo, 10,1, 'RBF_kernel'}, 'figura'); Se puede especificar una clase de probabilidad previa en la salida moderada con el fin de compensar un nmero desequilibrado de puntos de datos de entrenamiento en las dos clases. Cuando el conjunto de entrenamiento contiene N + casos positivos y los negativos N-, la salida moderada se calcula como:

Np = 10; Nn = 50; Prior = Np / (Nn + Np); Posterior_class_P = bay_modoutClass({X,Y,type,10,1,RBF_kernel},figure, prior);

RESULTADOS.