Preprocessing Techniques for more Robust Deep Learning ModelsApplication to Biomedical and Satellite Images
- Benhammou, Yassir
- Siham Tabik Codirectora
- Boujemâa Achchab Codirector/a
Universidad de defensa: Universidad de Granada
Fecha de defensa: 16 de noviembre de 2022
- El Hassan Essoufi Presidente/a
- Pablo Mesejo Santiago Secretario
- Lamia Karim Vocal
- Rafik Lasri Vocal
- Hamid Hrimech Vocal
Tipo: Tesis
Resumen
La visión por ordenador (CV) es un campo de la Inteligencia Artificial (AI) que replica la capacidad de los ojos y el cerebro humanos para percibir imágenes y comprenderlas. Los modelos de aprendizaje profundo (DL) y, en especial, las redes neuronales convolucionales (CNNs) se han convertido en el estado del arte en las tareas más complejas de CV. Estos modelos aprenden automáticamente a tomar decisiones en función de los datos sin necesidad de ser programados explícitamente para ello, como ocurre en los coches autoconducidos o en los sistemas de reconocimiento facial de los smartphones. Las CNNs consisten en un gran cantidad de redes neuronales artificiales (ANNs) interconectadas con parámetros entrenables inspirados de la forma en que las neuronas del cerebro humano aprenden y se transmiten conocimientos. Por lo tanto, entrenarlas para una tarea específica requiere un gran cantidad de imágenes cuidadosamente anotadas. Sin embargo, para problemas complejos, como los que se abordan en esta tesis, la creación de datos de entrenamiento de alta calidad es muy cara y requiere un alto nivel de experiencia. Para superar estas limitaciones, las principales técnicas adoptadas en la literatura son el preprocesamiento de datos y el aprendizaje por transferencia (TL). En este ´ultimo, las CNNs se preentrenan primero en grandes conjuntos de datos de imágenes naturales como ImageNet, y luego se reentrenan en datos del dominio de destino. Por su parte, el preprocesamiento de datos implica todas las transformaciones aplicadas a los datos para mejorar su tamaño y valor. En esta tesis, propusimos técnicas de preprocesamiento para mejorar la robustez de modelos DL en dos aplicaciones complejas: la clasificación de imágenes biomédicas y de satélite. En la primera aplicación, combinamos la CNN de última generación, los métodos de preprocesamiento y de aprendizaje de transferencia más adecuados con el conjunto de datos de referencia utilizado en ese problema llamado BreakHis, para elaborar un sistema automático ideal para el diagnóstico del cáncer de mama tanto desde el punto de vista clínico como técnico. Y nuestro análisis ha demostrado que la complejidad de este problema relacionada con la calidad de sus datos y su anotación, afecta enormemente al rendimiento del modelo DL entrenado incluso en un enfoque metodológico bien construido. En el segundo caso, entrenamos modelos DL con nuestro propio conjunto de datos para la clasificación automática del uso y la cobertura del suelo (LULC). Hasta donde sabemos, el conjunto de datos que propusimos, llamado Sentinel2LULC, es el mayor conjunto de datos global de imágenes de satélite de alta resolución y gratuitas adaptado para el uso de DL. Este conjunto de datos fue cuidadosamente construido utilizando la gran cantidad de datos de teledeteccón disponibles hoy en plataformas gratuitas como Google Earth Engine (GEE) y una metodología cuidadosamente diseñada para transformar todos estos datos en un conjunto de datos de alto valor. El análisis experimental con los modelos DL en este segundo escenario ha logrado resultados muy prometedores y ha demostrado la importancia de la calidad de datos. La conclusión particular en cada uno de estos estudios nos permitió construir nuestra conclusión principal de esta tesis: incluso cuando se adoptan y combinan los modelos y métodos más avanzados, la calidad de los datos sigue siendo el factor clave para alcanzar un buen rendimiento en tareas complejas de CV.