fonetica fonologia

Post on 23-Jun-2015

605 Views

Category:

Documents

4 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Reconocimiento Automático del Habla

Fonética/Fonología

Tecnologías del Lenguaje

2

Contenido

¿Qué es un reconocedor automático de habla? Forma y contenido del habla Principios físicos del sonido / habla Mecanismos del lenguaje humano

3

¿Qué es un reconocedor de habla?

Es un proceso que convierte una señal acústica (sonido) capturada por micrófono -u otro dispositivo- a un conjunto de palabras (texto) Es la identificacion de las palabras de una elocución (habla >> transcrición ortográfica)

Basado en técnicas de reconocimiento de patrones Dichos patrones son aprendidos a partir de grandes

conjuntos de datos, usando técnicas estocásticas

Laboratorio de Tecnologías del Lenguaje 4

¿Para qué sirve un reconocedor de habla?

Su principal objetivo es facilitar/mejorar la comunicación entre el hombre y la computadora, ya que la comunicación hablada es un medio natural para intercambio de información

Además, casi toda actividad humana es social y el habla es parte esencial de esa actividad

Problemática El habla es una compleja combinación de procesos

a diferentes niveles que es usada para transmitir información

Variabilidad de la señal: Variabilidad intra-locutor: estado emocional, ambiente, estado

de salud, etc. Variabilidad inter-locutor: diferencias fisiológicas, acento,

dialectos, etc. Canal acústico: Teléfono, micrófono, ruido ambiental, etc.

6

Características de un Reconocedor

• Tipo de habla: aislada, continua

• Dependiente o Independiente del locutor

• Número de palabras que reconocen

• Tipo de texto que reconocen

• Tipo de canal

Características de un Reconocedor

Tipo de habla Hablantes Ambiente Vocabulario

Palabra aisladaDependiente del

locutorLibre de ruido Pequeño (<50)

Palabras conectadas

Multilocutor Oficina Mediano (<500)

Habla continuaIndependiente del

locutorTeléfono Grande (<5000)

Habla espontánea Con ruidoMuy grande

(>5000)

8

Dos grandes áreas:

Principios físicos del sonido en particular del habla

Mecanismos del lenguaje a diferentes niveles (los primeros)

9

Principios físicos del sonido

Todos los sonidos, incluyendo el habla, provocan el movimiento de las moléculas del aire

Algunos producen un movimiento del aire en patrones regulares: Al tocar una cuerda de una guitarra

Casos contrarios: Cerrar una puerta

Gráficamente representamos un sonido como una curva senoidal En un eje la presión del aire en otro eje el tiempo

10

11

Frecuencia y Amplitud

El número de vibraciones producidas por segundo es llamada frecuencia

Una vibración de 100 veces por segundo tiene una frecuencia de 100 ciclos por segundo o 100 Hertz (Hz)

Los sonidos agudos tienen una alta frecuencia los graves baja

La intensidad de un sonido es la cantidad de aire desplazado La intensidad se describe en términos de la amplitud de la

curva La amplitud es medida en decibeles dB

12

Frecuencia Dominante

Los ejemplos anteriores son tonos puros La mayoría de los sonidos son compuestos

Una frecuencia dominante o fundamental (pitch) Acompañada de un conjunto de frecuencias secundarias

(timbre) En particular para el habla ciertas frecuencias secundarias

llamadas formantes sirven para distinguir entre los fonemas

13

14

Visualización del sonido

Tiempo

Am

plitu

d

Tiempo

Fre

cuen

cia

Espectrograma

Transcripción ortográfica

•Comunícame con Javier

Transcripción ortográfica

• risas, ruidos, respiraciones, silencios, tartamudeos, etc.

Transcripción fonética

Transcripción fonética

19

Transcripción fonética

20

Fonética

Entrada Señal acústica

Salida Alfabeto fonético

Estudia: Formación de las consonantes y las vocales en el tracto vocal Clasificación de vocales, consonantes por su forma, posición de

la lengua y músculos bucales involucrados

21

Características de la Percepción Humana

El oído humano está especializado en el reconocimiento de voz Aunque es capaz de detectar frecuencias de

20 Hz a 20000 Hz Es mucho más sensible en el rango de la voz: 1000 Hz a

6000 Hz No procesa las frecuencias de forma individual, sino por

grupos de frecuencias

22

Ruido, voz y expectativa

Un oído especializado en el lenguaje Discriminar entre ruido y palabra

¡A pesar de que el ruido sea voz! Capacidad para reconstruir un mensaje

Y si yo viera… Que elocuente…

23

Ruido, voz y expectativa

Un oído especializado en el lenguaje Discriminar entre ruido y palabra

¡A pesar de que el ruido sea voz! Capacidad para reconstruir un mensaje

Y si yo viera… te mojabas Que elocuente… a todos los niños

24

Reconocer y Entender

RAH

El primer paso para entender es reconocer

En los seres humanos estos dos procesos están fuertemente entrelazados

RAH Entendimiento

25

Reconocer Adquisición de la señal hablada Extracción de características Clasificación y modelado de las señales

(dentro de esta parte se encuentran los modelos acústicos, léxicos y los de lenguaje).

Métodos de búsqueda y reconocimiento

26

Capturando la señal

La señal de voz es redundante y algunos datos irrelevantes para el proceso de reconocimiento

Para reducir la cantidad de datos: Usar filtros para eliminar frecuencias arriba de 3100 Hz y

debajo de 100 Hz

27

Capturando la señal...

El muestreo: Tomamos rebanadas muestras de la señal

(el cine es el mismo caso) El número de muestras depende de las

frecuencias que deseamos incluir en nuestro análisis: La tasa de muestreo mínima es el doble de la más alta

frecuencia de interés Para una frecuencia de 3100 Hz necesitamos 6200

muestras por segundo

28

Procesamiento de Señal

Extracción de características Llevar la señal digital a una representación matemática

simple con la cual trabajar Transformada de fourier discreta (DFT) o FFT

LPC MFCC

29

Reconocimiento a partir de Patrones

Comparación de patrones

Funcionamiento general de un comparador de patrones

30

Reconocimiento a partir de Patrones

Comparación de patrones Vocabularios pequeños Variabilidad fonética Operación a nivel de palabra Alineación temporal

31

Reconocimiento a partir de Patrones

Modelos estocásticos Selección no-determinística entre un conjunto de

posibilidades A diferencia del apareo de patrones no existe una

comparación entre los modelos almacenados y la entrada Un análisis probabilístico es la base de la selección

(modelos ocultos de Markov) Grandes cantidades de datos para entrenamiento Operación a nivel de fonemas y semi-fonemas

32

Reconocimiento a partir de Patrones

Modelos estocásticos Estructura típica de un modelos ocultos de Markov (HMM)

33

Fenómenos del habla espontánea

La enunciación de una locución es un proceso complejo donde la construcción de la oración y su pronunciación son procesos interdependientes

“Speech is more than just an audible version of text”

(M. Hunt)

34

Aplicación: Búsqueda en Audio

Objetivo: Dado un término en forma textual deseamos localizar dicho

término en una colección de grabaciones (conversaciones, discursos, etc.)

Organizar las colecciones de audio por temas tratados, personajes entrevistados, etc.

35

Primer enfoque

Indexado a partir de la transcripción: Después de transformar el audio en texto, con ayuda de

un reconocedor gran vocabulario de habla continua, generamos un índice de las palabras presentes en la transcripción

Tratamos la transcripción con las técnicas actuales de recuperación y extracción de información.

36

Segundo enfoque

Indexado basado en fonemas: La transformación del audio sólo llega hasta la etapa de

fonemas, ésta es la base a partir de la cual se hará la búsqueda del texto deseado.

La búsqueda puede dar un mayor número de respuestas falsas que el enfoque anterior, pero tiene un mejor comportamiento con palabras fuera del diccionario (nombre de personas, lugares, términos extranjeros, etc.)

37

A notar…

El reconocimiento fonético aun está lejos de un reconocimiento perfecto

Usando información lingüística (modelos de lenguaje) es posible incrementar su rendimiento Un modelo de lenguaje captura (probabilísticamente) las

secuencias propias de un lenguaje “El que madruga … “A buen entendedor …

38

A notar…

El reconocimiento fonético aun está lejos de un reconocimiento perfecto

Usando información lingüística (modelos de lenguaje) es posible incrementar su rendimiento Un modelo de lenguaje captura (probabilísticamente) las

secuencias propias de un lenguaje “El que madruga, Dios le ayuda” “A buen entendedor, pocas palabras”

39

A notar…

Los modelos acústicos recuperan pistas auditivas las cuales son la base para la reconstrucción del mensaje.

Los modelos de lenguaje aportan información sobre el lenguaje y el contexto para la reconstrucción del lenguaje Un modelo de lenguaje es más fácil de construir mientras más

acotado sea el dominio

40

A notar…

El comportamiento de los reconocedores es mejor si el contexto es limitado. En noticieros de 5 a 20% de error Otros contenidos de 30 a 60% de error

Se puede indexar una hora de audio en 5 minutos (no se menciona la calidad)

Existen ya sistemas multilingües!

41

Una solución posible

Llegar a la transcripción pero apoyarse también en su información fonética

Proponer un método para recuperación de información en documentos orales enriqueciendo su representación a través de codificación fonética.

42

Tipos Errores

Correcta Unix Sun War in Iraq

Transcrita Unique Some Ware in Irak

Correcta Osama Bin Laden Our slugger encourage

Transcrita Usama Bin Ladin Our sluggard emigrate

Correcta I helped Apple recognize speech

a country independent

Transcrita I helped Apple

wreck a nice beach

a country in the pendant

Substitución

Más complejos (Combinación Inserción+Substitución)

43

Ej. Codificación Fonética

Correcta Unix Sun War in Iraq

Transcrita Unique Some Ware in Irak

Soundex U520 S500 W600 I500 I620

Correcta Osama Bin Laden Our slugger encourage

Transcrita Usama Bin Ladin Our sluggard emigrate

Soundex O250 B500 L350

U250 B500 L350

O600 S426 E526

Mantiene la primera letra de la palabra Convierte las letras a dígitos

44

Método

1. Filtrar las transcripciones eliminando palabras vacías.

2. Codificar las transcripciones usando el algoritmo Soundex.

3. Obtener las frecuencias de los códigos en la colección

4. Eliminar códigos frecuentes.

5. Agregar la codificación resultante a la transcripción.

45

Aplicación: Personalizando la Interfaz

• Una interfaz dinámica que cambie su apariencia o que proponga los elementos más comúnmente utilizados por un usuario específico

La señal de voz abarca diferentes tipos de información: Un mensaje. Un lenguaje. La emoción. El género. La edad. La identidad del hablante.

46

Reconocimiento del hablante

diferente a la Verificación de usuarios.

En la verificación del hablante lo que se desea es comprobar cuando la persona que habla es, o no es, la persona que afirma ser, en este caso, el sistema tiene información sobre la identidad del usuario.

Reconocimiento del hablante busca hacer una caracterización y reconocimiento de la identidad del hablante gracias a su señal de voz.

47

window

window

X1

X2

X13

… Cálculo de coeficientes MFCC ó LPC

Caracterización de la Señal de Voz

48

Sin solapamiento

Algoritmo 100ms 120ms 500ms

MFCC

knn (50) 29.35% 30.92% 32.70%

knn (60) 29.19% 30.88% 31.58%

LWR 56.42% 57.83% 47.11%

SVM 62.65% 63.57% 42.49 %

ANN 56.02% 55.78% 46.14%

49

Con solapamiento

Tamaño del segmento

Solapamiento 80ms 100ms 120ms

MFCC &

SVM

10ms64.13% 63.05% 63.05%

20ms68.80% 67.64% 64.41%

30ms65.54% 70.05% 69.20%

50

Conclusiones

Método sencillo basado en un procesamiento directo de la señal acústica

Los resultados alentadores: 70% al usar SVM 100 hablantes 3.5 seg de señal de voz

51

Trabajo futuro

Extender los experimentos incluyendo más información descriptiva de la señal acústica Deltas de los coeficientes Componente de energía

Usar otras metodologías en el aprendizaje Estudio de un Kernel no polinomial Uso de ensambles

Extender el tamaño de las muestras de señal acústica

52

Aplicación: Personalizando la Interfaz

• Una interfaz dinámica que cambie su apariencia o que proponga los elementos más comúnmente utilizados por un usuario específico

La señal de voz abarca diferentes tipos de información: Un mensaje. Un lenguaje. La emoción. El género. La edad. La identidad del hablante.

53

¿Cómo se ha abordado?

Primer enfoque: Basan la IAL en el empleo de características lingüísticas propias de cada lenguaje. Realizan segmentación de fonemas y utilizan modelos de lenguaje.

Sistemas basados en reconocimiento de fonemas

Segundo enfoque: Explotar directamente la señal acústica para la IAL, obteniendo características tales como la prosodia, ritmo, entonación, entre otras.

Sistemas no basados en reconocimiento de fonemas.

54

Dificultades del primer enfoque

Necesidad de un estudio previo de cada lenguaje Un módulo para la segmentación de la señal de voz en fonemas Un proceso de etiquetado manual realizado por expertos a nivel fonético

Necesidad de la creación de modelos de lenguaje Corpus grandes de texto y/o transcripciones ortográficas de grabaciones Estadística de todos las posibles combinaciones de fonemas

No son de utilidad para lenguas que no cuentan con convenciones claramente establecidas para su escritura

55

Segundo enfoque

Los lingüistas parten de que existe otro tipo de características las cuales no pueden segmentarse como los fonemas, porque actúan simultáneamente sobre más de un segmento.

Suprasegmentos: el acento, el tono (sucesión de ellos – entonación-) y la duración.

El acento: Español normalmente grave Francés normalmente agudo

56

Características suprasegmentales

Tono: como recurso de diferenciación léxica, para lenguas como el chino o el vietnamita.

Por ejemplo: /ma/ puede significar varias cosas: con un tono estático alto significa madre con tono dinámico ascendente significa cáñamo con un tono dinámico ascendente-descendente significa caballo con un tono descendente significa riña

Las lenguas de la familia congo-nigerianas, sino-tibetanas y algunas de las lenguas indígenas de México (otomí, mazahua, chichimeca entre otras)

57

Características suprasegmentales

Entonación: sucesión de tonos, como recurso de función expresiva, para lenguas románicas

Por ejemplo: ¿Cómo estás? ¿cómo? ¡estás!

Ritmo: es la pauta de tensión formada por la combinación de las sílabas tónicas y atonas, largas y breves Ritmos: stress timed, syllable timed, acentual y

silábico.

58

El problema Como extraer las características suprasegmentales del

habla, como la prosodia, el ritmo, la entonación entre otras.

•[Li 1994] Localizar automáticamente el núcleo-silábico (por ejemplo las vocales). Generar vectores espectrales de regiones cercanas al núcleo silábico, tanto para entrenamiento como prueba.

•[Itahasi 1994 y 1995] Uso la frecuencia fundamental (pitch) ya que su estimación es más robusta en ambientes ruidosos que los parámetros espectrales de Li

•[Thyme-Gobbel y Hutchins 1996] Caracterizaron la prosodia a través contornos del pitch y la amplitud entre una sílaba y otra

59

Estado del arte

Cummins et al 1999: El trabajo recae en la suposición de que las variaciones de amplitud en la frecuencia fundamental son importantes para percibir el ritmo en el habla.

Alemán Español Japonés Mandarín

Inglés 52 62 57 58

Alemán - 51 58 65

Español - - 66 47

Japonés - - - 60

60

Estado del arte Rouas et al 2003 y 2005: Propone un método para identificar los

lenguajes en bases a su entonación y ritmo: caracteriza el ritmo en función de intervalos vocálicos y consonánticos.

Alemán Español Mandarín Vietnamita Japonés Coreano Tamil Farsi

Inglés 60 68 75 68 68 79 77 76

Alemán _ 59 62 66 66 71 70 72

Español _ _ 81 62 63 76 65 67

Mandarín _ _ _ 50 51 74 74 76

Vietnamita _ _ _ _ 69 56 71 67

Japonés _ _ _ _ _ 66 59 67

Coreano _ _ _ _ _ _ 62 75

Tamil _ _ _ _ _ _ _ 70

61

Objetivo

Desarrollar un método para la identificación del lenguaje hablado sin recurrir a la representación fonética de la señal de voz, con un nuevo método de caracterización de los elementos suprasegmentales del habla.

Suposición: el ritmo puede ser una característica fundamental para la identificación y éste se localiza en las frecuencias bajas

62

Nueva caracterización del ritmo Procesamiento basado en Wavelets:

Hablante japonés Hablante español

63

Nueva caracterización

Uso de la transformada Daubechies 4 coeficientes

Muestras de 30 y 50 seg.

Reducción de la información por medio de truncado de aproximación con un umbral del 1%

64

Nueva caracterización del ritmo

Señal de vozLenguaje 1Inglés

Señal de vozLenguaje 2Español

Señal de vozLenguaje 1Inglés

Señal de vozLenguaje 9Farsi

AplicaciónTransformada wavelet

Aplicación Transformada wavelet

Truncadopor método deaproximación

Truncado por método deaproximación

AplicaciónTransformadawavelet

AplicaciónTransformadawavelet

Truncadopor método deaproximación

Truncadopor método deaproximación

Reducción de dimensionalidad:•Eliminar los coeficientes irrelevantes•Ganancia de información

Construccióndel clasificadorpara lenguajes 1 y 2

Reducción de Dimensionalidad:•Eliminar los coeficientes irrelevantes•Ganancia de información.

Clasificador BinarioLenguajes1 y 9

65

Nueva caracterización del ritmo Resultados entre paréntesis Rouas:

Alemán Español Mandarín Vietnamita Japonés Coreano Tamil Farsi

Inglés 97 (59.5) 97 (67.7) 93 (75.0) 94 (67.7) 96 (67.6) 95 (79.4) 99 (77.4) 96 (76.3)

Alemán - 93 (59.4) 94 (62.2) 93 (65.7) 98 (65.8) 98 (71.4) 94 (69.7) 91 (71.8)

Español - - 91 (80.6) 86 (62.1) 92 (62.5) 98 (75.9) 91 (65.4) 94 (66.7)

Mandarín - - - 95 (50.0) 95 (50.6) 93 (73.5) 89 (74.2) 94 (76.3)

Vietnamita - - - - 93 (68.6) 96 (56.2) 95 (71.4) 95 (66.7)

Japonés - - - - - 93 (65.7) 89 (59.4) 94 (66.7)

Coreano - - - - - - 95 (62.1) 91 (75.0)

Tamil - - - - - - - 90 (69.7)

66

Resultados promedio

50556065707580859095

100

Inglés Alemán Español J aponés Mandarín Vietnamita Coreano Tamil Farsi

Rouas wavelet 10 seg wavelet 50 seg

67

Nueva caracterización del ritmo

La nueva caracterización con wavelets obtiene mejores resultados que los alcanzados por Rouas.

Nos permite enfocarnos a las bajas frecuencias

Buenos resultados con muestra de señal de voz más grandes.

Umbral de truncado se obtuvo al procesar todos los idiomas, podría determinarse por pares de idiomas.

68

Trabajo futuro Extender el método para trabajar con clasificadores

multiclase. Con la finalidad de comparar nuestra técnica con los métodos que utilizan información fonotáctica de los lenguajes.

Mezclar diferentes extracciones de características de la señal de voz tales como el ritmo de Rouas con los coeficientes wavelet para generar características suprasegmentales del habla híbridas.

Utilizar los modelos de mezclas gaussianas, con la idea de probar los métodos propuestos en la tarea de verificación del idioma (NIST)

69

Lenguas indígenas mexicanas

Corpus utilizado: el archivo de lenguas indígenas de Latinoamérica, http://www.ailla.org

Náhuatl Zoque

Español

20 diferentes hablantes por cada lengua. Los tamaños de muestras variaron. El algoritmo de clasificación usado fue el de Naïve Bayes y

se utilizó la validación cruzada en 10 pliegues para su evaluación.

70

Resultados utilizando MFCC:

3 segundos 7 segundos 10 segundos

Náhuatl Español Náhuatl Español Náhuatl Español

Zoque 85 95 94 93 87 93

Náhuatl - 100 - 97 - 94

71

Un clasificador con los tres lenguajes.

Resultados multiclase

% Identificación de los tres lenguajes

3 segundos 85

7 segundos 89

10 segundos 88

% Identificación de los tres lenguajes

10 segundos 85

30 segundos 94

50 segundos 95

192 atributos de MFCC

Transformada wavelet

72

Experimentos Lengua no materna

Grabaciones con la misma calidad Inglés 6 personas Francés 5 personas Español 6 personas

Método utilizado wavelet Daubechies con 4 coeficientes y truncado de aproximación

Clasificador Naïve Bayes

inglés-español español-francés inglés-francés91.67% 81.82% 100%

a b a b a b 5 1 a=inglés 5 1 a=español 6 0 a=inglés 0 6 b=español 1 4 b=francés 0 5 b=francés

top related