redes neuronal es def

Upload: luis-amaro-villanueva-tapia

Post on 03-Apr-2018

221 views

Category:

Documents


0 download

TRANSCRIPT

  • 7/28/2019 Redes Neuronal Es Def

    1/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    2 Las Redes Neuronales:

    En este captulo se va a describir uno de los mtodos de clasificacin ms utilizados

    por su potencia, su fcil implementacin y su flexibilidad: las Redes Neuronales (RN). Por

    estas caractersticas es el mtodo que hemos utilizado en este proyecto para obtener

    resultados a partir de nuestros experimentos con el fin de poder clasificar los argumentos

    de entrada a la Red Neuronal como buenos o malos para nuestros propsitos.

    2.1 IntroduccinLas Redes Neuronales constituyen una familia muy variada de arquitecturas. Estn

    basadas en el modelo cerebral: las neuronas establecen conexiones entre ellas

    (sinapsis), de manera que cuando un animal recibe un estmulo, ciertas conexiones se

    refuerzan ms que otras, provocando una cierta respuesta. Siempre que el animal reciba

    un estmulo (entrada) similar, generar la misma respuesta (aprendizaje): se puede decir

    que el cerebro reconoce diferentes patrones.

    Este comportamiento es fcilmente caracterizable mediante un modelado

    matemtico (simulacin). El tratamiento de la informacin (computacin) no va a ser el

    tradicional: se basa en la evolucin temporal del sistema y en la interpretacin de ciertos

    parmetros (informacin). El sistema se compone de un nmero elevado de unidades

    muy simples (neuronas) altamente interconectadas: el paralelismo es masivo. Se puede

    decir que una neurona es un tipo de autmata (sistema dinmico), de ah el carcter

    temporal. Las Redes Neuronales artificiales pueden aprender modificando el peso de

    las conexiones entre las unidades; as es posible distinguir patrones.

    La idea de las Redes Neuronales es definir una funcin a partir de la cual poder

    distinguir patrones con los datos de salida: dependiendo del valor obtenido catalogamos

    la entrada como perteneciente a un cierto grupo. El tipo de entradas y su nmero

    determinar la capacidad de discriminacin de la Red [Martn-01].

    En el ejemplo siguiente, una entrada (x1) no es suficiente para determinar si estamos

    en el patrn A o el B. Con otra entrada (x2) ya somos capaces de discriminar.

    Captulo 2:Las Redes Neuronales Pgina 12

  • 7/28/2019 Redes Neuronal Es Def

    2/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Figura 2-1: Ejemplo de clasificacin.

    2.2 HistoriaMcCullogh y Pitts realizaron en 1943 un estudio biolgico del cerebro obteniendo un

    modelo formal de neurona, con lo que introdujeron as el concepto de umbral: una

    neurona responde a un cierto estmulo siempre que ste sobrepase un cierto umbral de

    activacin.

    Posteriormente, en 1949, Hebb desarroll el Hebbian Learning: aprendizaje mediante

    adaptacin de sinapsis o reforzamiento de las conexiones.

    En 1959, Rosenblat defini el perceptrn, uno de los conceptos ms importantes

    dentro del desarrollo de las Redes Neuronales: el perceptrn consiste en una estructura

    ms una regla de aprendizaje o regla del perceptrn. Esa estructura es la combinacin de

    una neurona y una funcin de salida que es la que define el umbral de activacin. La

    misin de la neurona es implementar una combinacin lineal de las entradas. Cada

    entrada posee un peso, que se adapta temporalmente. Es esto lo que se conoce como

    aprendizaje.

    Misky y Papert desarrollaron en 1969 un perceptrn unicapa que consegua una

    clasificacin de primer orden (XOR). Se plante entonces el problema del entrenamiento

    de varias capas. As, en 1974 Werbos defini el algoritmo de retropropagacin y el uso de

    la funcin sigmoidal como funcin de salida de un perceptrn. El algoritmo de

    retropropagacin permite modificar los pesos partiendo de la ltima capa hasta la inicial

    basndose en el error cometido en la iteracin anterior. Ese error es la diferencia entre la

    salida de la Red Neuronal y la salida real que deberamos haber obtenido. Como el

    algoritmo de retropropagacin est basado en la derivada del error, se decidi utilizar la

    Captulo 2:Las Redes Neuronales Pgina 13

  • 7/28/2019 Redes Neuronal Es Def

    3/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    funcin sigmoidea en vez del escaln para representar el umbral de activacin (la funcin

    escaln tiene derivada infinita en el origen).

    Posteriormente se desarrollaron otros tipos de redes: Kohonen en los 70 cre los

    mapas topolgicos y las memorias asociativas, y en 1982 Hopfield defini las redes de

    Hopfield.

    Finalmente, en 1986 Rumelhart y McClelland desarrollaron el perceptrn multicapa,

    popularizndose as el algoritmo de retropropagacin. En 1989, Cybenko, Hornik et al. y

    Funahashi definieron el perceptrn multicapa como el aproximador universal [Martn-01].

    2.3 ClasificacinExisten diferentes criterios de clasificacin para las Redes Neuronales:

    o Caracterizacin temporal: se refiere a la caracterizacin temporal de las

    entradas.

    Continua en el tiempo: cuando la funcin de entrada es una funcin continua.

    Este tipo de redes se utiliza en sistemas donde es necesario una clasificacin

    inmediata de las entradas, como por ejemplo un sistema de alarma que seactive ante la presencia de ciertos parmetros peligrosos.

    Discreta: cuando las entradas se toman en determinados instantes de tiempo.

    Se utilizan en sistemas donde no es necesario un control inmediato de las

    entradas y slo se busca ver su evolucin sin saturar demasiado el sistema

    con una gran cantidad de datos.

    Entrada: se refiere a los valores que toman las entradas.

    Binaria: cero o uno. Se puede utilizar cuando las entradas son codificadas,por ejemplo, representando el intervalo sobre el que caen dentro de un rango.

    Si el rango se divide enxintervalos, cada entrada se representa conxvalores,

    todos a cero menos uno, el que corresponde al intervalo de valores de la

    entrada.

    Continua: el valor de la entrada puede ser cualquiera dentro de un rango. Es

    posible definir diferentes rangos de variacin.

    o Entrenamiento: se refiere al aprendizaje seguido por la Red.

    Captulo 2:Las Redes Neuronales Pgina 14

  • 7/28/2019 Redes Neuronal Es Def

    4/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Supervisado: cuando se vigila la evolucin de la Red. Por ejemplo, cuando se

    le ofrecen a la Red ejemplos sealando las salidas que se deberan obtener.

    Con recompensa/castigo: cuando la Red acierta se le ofrece una

    recompensa. Cuando falla se le castiga. As aprende cmo debe comportarse.

    No supervisado: no se le dice a la Red lo que debe dar. Esto se suele utilizar

    en aquellos casos en que tenemos una serie de entradas y no sabemos cmo

    clasificarlas. Dependiendo de lo que se obtenga tras el entrenamiento

    tendremos un criterio de clasificacin.

    o Realimentacin:

    Feedforward: realimentacin hacia delante. Es la estructura normal, donde las

    salidas de una capa se introducen en la siguiente.

    Feedback: realimentacin hacia atrs. Las salidas de ciertas capas se

    introducen en capas anteriores para que stas sepan cul ha sido el

    comportamiento posterior y se adapten en consecuencia.

    Entre los modelos ms representativos se encuentran los mapas asociativos, el

    perceptrn multicapa, las redes de Hopfield (memorias autoasociativas), los mapas

    topolgicos autoorganizativos de Kohonen y las redes hebbianas [Martn-01].

    2.4 Caracterizacin de una Red NeuronalLos tres puntos clave para desarrollar una Red Neuronal son:

    o Caracterizacin de la neurona (unidad bsica de computacin).

    o Definicin de una topologa de interconexin.

    o Definicin de unas reglas de aprendizaje.

    2.4.1 Propiedades

    Las propiedades que comparten todas las Redes Neuronales son:

    o Alto grado de paralelismo: varias neuronas pueden estar trabajando a la vez.

    o Fcil implementacin Hardware (o Software).

    o Robustez frente a posibles fallos: la informacin est distribuida.

    Captulo 2:Las Redes Neuronales Pgina 15

  • 7/28/2019 Redes Neuronal Es Def

    5/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    o Naturaleza adaptativa que sustenta la capacidad de aprendizaje.

    o Capacidad de generalizacin: a partir de unas entradas definimos un patrn.

    2.4.2 Neurona

    Una neurona artificial se implementa de la siguiente manera: las entradas (x) se

    introducen en las dendritas. Cada una posee un peso (wij, neurona j entrada i). Dentro

    del cuerpo se aplican diferentes funciones de procesamiento (propagacin, activacin,

    salida) hasta llegar al axn (salida y). Todo esto queda reflejado en la siguiente grfica:

    Figura 2-2: Neurona fsica.

    Figura 2-3: Representacin matemtica de una neurona.

    En la prctica, las funciones de propagacin y activacin no suelen diferenciarse y

    constituyen una combinacin lineal de las entradas o su distancia eucldea. La funcin de

    salida se establece fuera de la neurona.

    Captulo 2:Las Redes Neuronales Pgina 16

  • 7/28/2019 Redes Neuronal Es Def

    6/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Figura 2-4: Representacin final de una neurona.

    Aparte de las entradas propias de la neurona, se puede considerar un cierto umbral

    (qi) que comporta una cierta decisin como se ver ms adelante.

    2.4.3 Topologa

    Comprende varios aspectos:

    o Definicin de conectividad: se refiere a la forma de conectarse las neuronas

    para formar una cierta estructura. De esta forma, podemos obtener redes

    monocapa o multicapa. Las redes monocapa consiguen una clasificacin de

    primer orden como puede ser un XOR. Sin embargo, una red de varias capas

    puede diferenciar entre diferentes regiones, como se ver prximamente.

    o Temporizacin o sincronizacin del flujo de informacin:

    Tiempo continuo-discreto: se refiere a si la informacin se actualiza

    continuamente o slo en ciertos instantes de tiempo.

    Secuencia de computaciones: flujo directo o bucles de realimentacin. El

    flujo directo consiste en un mero paso de informacin de una capa a la

    siguiente. Pero con la realimentacin una capa obtiene informacin sobre lo

    que estn haciendo las capas que la siguen, y as, se obra en consecuencia.

    Captulo 2:Las Redes Neuronales Pgina 17

  • 7/28/2019 Redes Neuronal Es Def

    7/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Figura 2-5: Ejemplos de topologas.

    En una red multicapa se definen tres tipos de capas: de entrada, oculta y de salida.

    Figura 2-6: Red Neuronal de tres capas.

    Dependiendo del nmero de capas ocultas que consideremos y movindonos dentro

    de un espacio bidimensional, se pueden definir regiones (conjunto de entradas que

    conforman un patrn) de diferentes formas, como se puede apreciar en la figura 2-7.

    Captulo 2:Las Redes Neuronales Pgina 18

  • 7/28/2019 Redes Neuronal Es Def

    8/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Figura 2-7: Regiones que se pueden delimitar segn el nmero de Capas Ocultas que se

    consideren.

    2.4.4 Entrenamiento o aprendizaje

    El aprendizaje consiste en el ajuste de pesos de interconexin entre las neuronas.

    Existen diferentes criterios de ajuste:

    o Supervisado:

    Heurstico: perceptrn.

    Minimizan funcin de coste (algoritmos tradicionales de adaptacin): se

    minimiza la funcin de error de evaluacin para ajustar los pesos. Un ejemplo

    es el perceptrn multicapa.

    o Mediante refuerzo (con recompensa/castigo):

    Actor/crtico.

    Q-learning.

    o No supervisado:

    Hebbiano: Hopfield.

    Competitivo: Mapas topolgicos de Kohonen.

    Mquinas de Boltzmann.

    Captulo 2:Las Redes Neuronales Pgina 19

  • 7/28/2019 Redes Neuronal Es Def

    9/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    El aprendizaje es un algoritmo por el cual se le dan datos a la neurona y sta

    aprende a reconocer patrones con ellos. El aprendizaje no supervisado es aqul en el

    que se tienen un conjunto de patrones pero no estn catalogados. El objetivo es que sea

    la Red la que los clasifique segn los criterios que se le suministran (similitudes que

    deben cumplir los patrones para pertenecer a una clase) y segn posibles analogas que

    pueda encontrar en los datos de entrada. El aprendizaje supervisado es aqul en el que

    se cuenta con patrones catalogados que sirven de ejemplo a la Red.

    2.5 El perceptrn multicapaEste tipo de redes se caracterizan por su facilidad de implementacin. Su

    aprendizaje se basa en la retropropagacin: se parte de unos pesos iniciales en las

    conexiones interneuronales. Para un conjunto de entradas se obtiene una cierta salida.

    Basndose en que se conoce la salida que deberamos haber obtenido (patrn

    catalogado aprendizaje supervisado), calculamos el error. A partir de este error se

    modifican los pesos siguiendo el sentido inverso al de evolucin de la Red (se parte de la

    salida hasta llegar a la entrada). De la misma manera se opera con el resto de entradas

    de entrenamiento. Se puede observar que el error ir disminuyendo a medida que se

    aplique el algoritmo.

    Sin embargo un entrenamiento reiterado con las mismas entradas acaba provocando

    un sobre-entrenamiento a la Red Neuronal, memorizando caractersticas de un conjunto,

    impidiendo as que aprenda a generalizar. Por eso tras cada iteracin hay que evaluar:

    introducir nuevos valores distintos a los de entrenamiento y calcular el error de salida. De

    esta manera se obtiene una funcin (error de evaluacin) de la que nos interesa hallar su

    mnimo absoluto (puede haber mnimos locales). Determinando el nmero de iteraciones

    con que se alcanza dicho valor, nos aseguramos, en cierta forma, obtener un bajo error

    para cualquier conjunto de datos de entrada. Despus, se puede aplicar un test con un

    conjunto nuevo de entradas que nos dar una medida de la capacidad de discriminacin

    de la Red.

    2.5.1 Qu es un perceptrn?

    Un perceptrn es una estructura neuronal ms una regla de aprendizaje. Como se

    explicaba anteriormente, una neurona se compone de un conjunto de entradas, cada una

    con un peso, que se introducen en el cuerpo de la misma para su procesamiento. Ese

    procesamiento puede consistir en:

    Captulo 2:Las Redes Neuronales Pgina 20

  • 7/28/2019 Redes Neuronal Es Def

    10/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    o Combinacin lineal:

    =i

    iixy

    o Distancia eucldea:

    ( ) = i

    iixy2

    Este resultado se introduce posteriormente en un bloque caracterizado por una de

    las siguientes funciones:

    Figura 2-8: Tabla de las posibles funciones de salida del perceptrn.

    La funcin que representa el comportamiento ideal de una neurona es la funcin

    escaln: dependiendo de la entrada se activa la conexin entre neuronas (salida = 1) o no

    (salida = 0). Esta decisin puede depender de un cierto umbral (que la salida sea capaz

    de superarlo), representado en las expresiones anteriores por q: introducir este trmino

    negativo equivale a considerar que la funcin vale uno a partir de q y no a partir de cero

    como se representa en la tabla.

    Captulo 2:Las Redes Neuronales Pgina 21

  • 7/28/2019 Redes Neuronal Es Def

    11/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Aunque ste sea el comportamiento ideal, en la prctica se suele utilizar la funcin

    sigmoidea. Esto se debe a que es una funcin muy parecida al escaln y derivable en el

    entorno de cualquier punto del eje x. Como se ver, esto es necesario en el algoritmo de

    retropropagacin ya que est basado en la minimizacin del error con respecto al valor

    de los pesos, por lo que hay que derivar e igualar a cero.

    El algoritmo de aprendizaje para un perceptrn aislado es el siguiente:

    ( )yyXWW dtkk =+ 1

    donde:

    o W = vector de pesos.

    o k = iteracin actual.

    o h = factor de aprendizaje.

    o X = vector de entradas.

    o yd = salida deseada.

    o y = salida obtenida en la iteracin k.

    Una propiedad muy importante de este algoritmo es la convergencia en presencia de

    solucin y la posibilidad de implementar ciclos lmite en ausencia de la misma.

    El factor de aprendizaje h determina la rapidez del algoritmo pero tambin su

    exactitud. Cuanto mayor sea, necesitaremos menos iteraciones (antes alcanzaremos las

    cercanas del mnimo error de evaluacin) pero el aprendizaje es muy grosero (es ms

    probable que nos quedemos oscilando en las cercanas del mnimo error de evaluacin

    que lo alcancemos realmente). Cuanto menor sea, ms lento es pero ms fino en el

    aprendizaje. Por lo tanto hay que llegar a un compromiso.

    2.5.2 Retropropagacin

    A continuacin, se va a explicar el mtodo utilizado para entrenar un perceptrn

    multicapa.

    Captulo 2:Las Redes Neuronales Pgina 22

  • 7/28/2019 Redes Neuronal Es Def

    12/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    2.5.2.1 Algoritmo

    El aprendizaje de un perceptrn multicapa es ms complejo. Como se apunt

    anteriormente, el entrenamiento de este tipo de Redes Neuronales es un entrenamiento

    supervisado. Se define un conjunto de pares de patrones (X i, Yi) de entrenamiento y se

    define una funcin de error (diferencia entre la salida deseada y la obtenida). Una vez

    obtenido dicho error se actualizan los pesos para minimizarlo. El procedimiento que se

    emplea es el descenso en la direccin del gradiente: una manera muy eficiente de

    implementarlo es a travs de un procedimiento equivalente a computar la Red hacia

    atrs. Esto da lugar al algoritmo de retropropagacin:

    ( ) = =

    ==P

    p

    P

    p

    SpppT OdEE

    1 1

    2

    21

    donde:

    o ET = error total de salida.

    o Ep = error de la salida p.

    o P = nmero de neuronas de la ltima capa.

    o OpS = salida obtenida en la neurona p de la capa S (la de salida).

    o dp = salida esperada en la neurona p.

    El algoritmo de aprendizaje es:

    ( ) ( )( )k

    Ekk

    L

    ij

    TL

    ij

    L

    ij

    =+ 1

    donde:

    o wijL = peso de la entrada i de la neurona j en la capa L.

    o k = iteracin actual.

    o m = factor de aprendizaje.

    La derivada del error es equivalente a:

    Captulo 2:Las Redes Neuronales Pgina 23

  • 7/28/2019 Redes Neuronal Es Def

    13/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    ( ) ( )=

    =

    P

    pL

    ij

    p

    L

    ij

    T

    k

    E

    k

    E

    1

    La salida es una funcin sigmoidea de la combinacin lineal de las variables de

    entrada:

    =

    =

    +=

    L

    Lj

    N

    i

    L

    i

    L

    ij

    L

    jy

    L

    j Oye

    O1

    1;

    1

    1

    donde:

    o NL = nmero de neuronas de la capa L.

    o OjL = salida de la neurona j de la capa L.

    o yjL = estado de activacin de la neurona j de la capa L.

    ( ) ( )k

    y

    y

    O

    O

    E

    k

    EL

    ij

    L

    j

    L

    j

    L

    j

    L

    j

    T

    L

    ij

    T

    =

    ( )( )Lj

    L

    jy

    y

    yy

    y

    L

    j

    L

    jOO

    e

    e

    ee

    e

    y

    OLj

    L

    j

    Lj

    Lj

    L

    j

    =+

    +

    =+

    =

    1

    11

    1

    1

    ( ) ( )i

    ij

    jL

    iL

    ij

    L

    ji

    k

    ycapaprimeralaparaO

    k

    y=

    =

    1

    1

    1,

    donde ii = entrada i de la Red.

    Para la ltima capa:

    ( ) ( ) ( ) ==

    =

    =

    S

    j

    S

    j

    S

    jjS

    j

    TS

    jj

    SL

    L

    j

    T OOOdy

    EOd

    O

    E1

    ( ) ( ) SjS

    j

    S

    jj yfOd == '

    donde jS = seal de error.

    Captulo 2:Las Redes Neuronales Pgina 24

  • 7/28/2019 Redes Neuronal Es Def

    14/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    Para el resto de las capas, cuando vara la salida de la neurona de una de ellas

    afecta a la salida de las neuronas de la siguiente capa:

    =

    ++

    +

    =

    +

    +

    +

    +

    +

    +

    +

    +

    L

    j

    L

    N

    L

    N

    T

    L

    j

    L

    L

    T

    L

    j

    L

    L

    T

    L

    j

    T

    O

    y

    y

    E

    O

    y

    y

    E

    O

    y

    y

    E

    O

    EL

    L

    1

    1

    1

    21

    1

    21

    1

    1

    1

    1

    1

    1

    ...

    ( ) + +

    =

    +

    =

    +

    +

    +=

    1 1

    1

    1

    1

    1

    1

    1

    L LN

    i

    L

    ij

    N

    i

    L

    iL

    j

    L

    i

    L

    i

    T kO

    y

    y

    E

    ( ) ( ) ( )

    + +

    =

    +

    =

    +++===

    1 1

    1

    1

    1

    111'1

    L LN

    i

    L

    j

    L

    ij

    N

    i

    L

    i

    L

    j

    L

    ij

    L

    i

    L

    j

    L

    jLj

    T yfkOOy

    E

    2.5.2.2 Resumen

    En resumen, el algoritmo de actualizacin de pesos queda:

    ( ) ( ) LjL

    i

    L

    ij

    L

    ij Okk =+1

    1

    donde las seales de error son:

    ( ) ( )SjjS

    j

    S

    j Odyf = '

    ( ) ( )+

    =

    ++=

    1

    1

    11'

    LN

    i

    L

    j

    L

    k

    L

    j

    L

    j kyf

    2.5.2.3 Pasos del algoritmo

    Los pasos a seguir son:

    1. Inicializar pesos y umbrales.

    2. Presentar nuevo patrn y salida deseada.

    3. Calcular salida de todos los nodos en red.

    4. Calcular seales de error de todos los nodos: nodos de salida a nodos de primera

    capa.

    5. Adaptar pesos en funcin de seales de error.

    Captulo 2:Las Redes Neuronales Pgina 25

  • 7/28/2019 Redes Neuronal Es Def

    15/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    6. Ir al paso 2.

    2.5.2.4 Mejoras y variantes

    Se pueden introducir algunas mejoras a este algoritmo que pretenden asegurar la

    convergencia o hacer ms rpido el proceso:

    o Inicializacin de pesos: enfocado a la convergencia.

    o Factor de aprendizaje: enfocado a la convergencia.

    o Tamao de la red: enfocado a la generalizacin.

    o

    Trmino del momento: enfocado a obtener mnimos locales en la funcin deerror y a acelerar el proceso.

    ( ) ( ) +=+ LjL

    j

    L

    ij

    L

    ijOkk 1 ( ) ( )( )1 kk Lij

    L

    ij

    2.5.3 Caractersticas del perceptrn multicapa

    Para finalizar, cabe destacar algunas de las caractersticas de este tipo de Redes

    Neuronales:

    o Puede aproximar cualquier funcin continua Y = F (X) con soporte compacto hasta

    una precisin dada.

    o Generaliza la respuesta frente a nuevos patrones de entrada (basado en

    aproximacin/interpolacin).

    o Idnea cuando sabemos qu queremos conseguir pero no cmo hacerlo y

    adems disponemos de patrones de referencia: queremos que generalice a

    nuevos patrones.

    o Aplicaciones:

    Reconocimiento de patrones:

    - Reconocimiento de caracteres en imgenes.

    - Reconocimiento de fonemas en voz.

    Prediccin de series temporales (demandas, etc):

    -Identificacin y control de sistemas.

    Captulo 2:Las Redes Neuronales Pgina 26

  • 7/28/2019 Redes Neuronal Es Def

    16/16

    MODELADO DE LA FRECUENCIA FUNDAMENTAL MEDIANTE REDESNEURONALES PARA SNTESIS DE VOZ EN DOMINIO RESTRINGIDO

    Carlos Martn Valle

    - Compresin de imgenes y reduccin de dimensionalidad.

    - etc.

    Todas las ideas de este ltimo apartado han sido extradas de [Martn-01], [Pardo,

    00]y [Zufiria, 98].

    Captulo 2:Las Redes Neuronales Pgina 27