machine learning: evaluación de hipótesis

Post on 28-Jan-2018

117 Views

Category:

Data & Analytics

3 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Evaluación de hipótesisMachine Learning

EstudiantePaola Cárdenas

Universidad de CuencaEscuela de Ingeniería de Sistemas

Objetivo

Comparar los resultados que dan diferentes modelos luego del entrenamiento para poder escoger el mejor modelo a utlizar.

Contenido

● Comparación entre modelos● Comparación de algoritmos de aprendizaje

○ Análisis ROC● Ejemplo

Comparación entre modelos

Comparación entre modelos

Error

● Medida natural de rendimiento de un clasifcador

● Tasa de error: proporción del número de errores cometdos sobre un conjunto de instancias

Comparación entre modelos

Error de resubsttución

● Tasa de error calculada sobre el conjunto de entrenamiento.

● Muy optmista. Estma tasas de error menores que el error verdadero.

Comparación entre modelos

Validación de Modelos

Un modelo que puede sufrir de:

● Underfing (alto sesgo o bias) si el modelo es demasiado simple.

● Overfing en los datos de entrenamiento (alta varianza) si el modelo es demasiado complejo.

Comparación entre modelos

Comparación entre modelos

Validación de Modelos

Para encontrar un compromiso aceptable entre el bias y la varianza tenemos las técnicas:

● cross-validaton● holdout● k-fold cross-validaton,

Estmaciones fables de error de generalización.

Comparación entre modelos

El método holdout (reserva)

● Dividir los datos originales en entrenamiento y prueba.

● Típicamente 2/3 , 1/3 , de forma aleatoria. � �● Estratfcación para muestras representatvas.

Comparación entre modelos

k-fold cross-validaton

En la validación cruzada k veces, dividimos aleatoriamente el conjunto de datos de entrenamiento en k sub-conjuntos sin reemplazo, donde se usan k-1 para el entrenamiento modelo y se usa 1 para la prueba.

k-fold cross-validaton

Comparación entre modelos

k-fold cross-validaton

Por lo general, utlizamos k-fold cross-validaton para el ajuste del modelo, es decir, encontrar los valores de hiperparámetro óptmos que producen un rendimiento de generalización satsfactorio.

Comparación entre modelos

k-fold cross-validaton

Una vez encontrados valores de hiperparámetros satsfactorios, se vuelve a entrenar el modelo en el conjunto de entrenamiento completo y obtener una estmación de rendimiento fnal utlizando el conjunto de pruebas independiente.

Comparación entre modelos

Validación de Modelos

.

Comparación entre modelos

Se evaluan los modelos utlizando la precisión (accuracy) del modelo, que es una medida útl para cuantfcar el rendimiento de un modelo en general.

Sin embargo, hay otras métricas de rendimiento que se pueden usar para medir la relevancia de un modelo, como la precisión, la recuperación y el score-F1.

Comparación algoritmos de aprendizaje

Comparación algoritmos de aprendizaje

Comparar la precisión promedio de hipótesis producidas por dos métodos distntos de aprendizaje es más difcil dado que se debe promediar sobre múltples casos de entrenamiento.

Comparación algoritmos de aprendizaje

Matriz de Confusión

Establece el rendimiento de un algoritmo de aprendizaje.

● verdadero positvo,● verdadero negatvo,● falso positvo ● falso negatvo

predicciones de un clasifcador

Análisis ROC

Análisis ROC

El Análisis ROC (Receiver operatng characteristcs) es una metodología desarrollada para analizar un sistema de decisión

El Análisis ROC trabaja con las nociones de Sensibilidad y Especifcidad. (Valor predictvo positvo y Valor predictvo negatvo)

Análisis ROC

El objetvo básico del Análisis ROC es dibujar la llamada curva ROC e incluso calcular un área bajo dicha curva

La llamada AUC (Area Under Curve). Que es un valor que va de 0 a 1

Curvas ROC

Característica operativa del receptor

La diagonal de un gráfco ROC se puede interpretar como adivinar al azar, y los modelos de clasifcación que se encuentran debajo de la diagonal se consideran peores que las adivinanzas al azar.

Característica operativa del receptor

Un clasifcador perfecto caería en la esquina superior izquierda del gráfco con una tasa positva verdadera de 1 y una tasa de falsos positvos de 0.

Sobre la base de la curva ROC, podemos calcular el área bajo la curva (AUC) para caracterizar el rendimiento de un modelo de clasifcación.

Ejemplo

Curvas ROC de un dataset evaluado con 4 algoritmos de clasifcación.

Regresión Logistca, Árbol de decisión, Knn, Majority Votng.

Fuentes

[1] Raschka, S., 2016. Python machine learning. Community experience distlled. Packt Publishing, Birmingham Mumbai.

[2] Curso de Estadístca. Jaume Llopis Pérez.htps://estadistcaorquestainstrumento.wordpress.com/2013/02/13/tema-23-analisis-roc/

top related