Capítulo 4. Validación de Características mediante AdaBoost- Uso de características no lineales para identificar llantos de recién nacidos con un conjunto clasificador - Departamento de Computación, ElectrónReportar como inadecuado




Capítulo 4. Validación de Características mediante AdaBoost- Uso de características no lineales para identificar llantos de recién nacidos con un conjunto clasificador - Departamento de Computación, Electrón - Descarga este documento en PDF. Documentación en PDF para descargar gratis. Disponible también para leer online.

Capítulo 4. Validación de Características mediante AdaBoost- Uso de características no lineales para identificar llantos de recién nacidos con un conjunto clasificador - Departamento de Computación, Electrónica y Mecatrónica. - Licenciatura en Ingeniería Mecatrónica. - Escuela de Ingeniería - Universidad de las Américas Puebla.

Autor: Morales Sánchez, Alberto Alejandro

Fuente: http://catarina.udlap.mx/


Introducción



Capı́tulo 4 Validación de Caracterı́sticas mediante AdaBoost A lo largo de este trabajo se han extraı́do las caracterı́sticas lineales y no lineales de las grabaciones de llantos disponibles en la base de datos del INAOE.
Posteriormente se habló acerca de los algoritmos boosting y los árboles de decisiones, ya que estos son los algoritmos de que clasificación que se utilizaron para realizar la validación de las caracterı́sticas extraı́das.
La Figura 4.1 muestra, en forma de diagrama, el proceso que se ha seguido hasta ahora pra llegar al resultado. Figura 4.1: Proceso para identificar llantos 32 A continuación se expondrán los resultados obtenidos en la última etapa que se encuentra descrita en la Figura 1.1, la cual es la etapa de clasificación.
Durante la clasificación se utilizaron las matrices que se obtuvieron durante la etapa de extracción; los datos contenidos en estas matrices representan las caracterı́sticas lineales y no lineales de cada tipo de llanto. Como se mencionó anteriormente, para realizar la validación de las caracterı́sticas se utilizó el Toolbox de MATLAB GML AdaBoost creada por Alexander Vezhnevets [Vezhnevets, 2007].
Este algoritmo está formado por un árbol de decisión CART (Classification and Regression Tree), el cual trabaja en conjunto con tres algoritmos boosting: Gentle AdaBoost, Modest AdaBoost y Real AdaBoost. De los tres diferentes algoritmos boosting que se tienen a disposición, se dio énfasis a los resultados obtenidos con el método Modest AdaBoost.
Esto se debe a que la estructura de su algoritmo está diseñada para evadir el overfitting y tener un menor porcentaje de error de generalización a cambio de un mayor error en la etapa de training; sin embargo también se realizaron las pruebas con Gentle y Real AdaBoost para poder realizar una comparación entre todos los resultados y comprobar si en verdad el método elegido era el óptimo. Este Toolbox está divido ...





Documentos relacionados