Desarrollo de modelos de inteligencia artificial interpretables en aprendizaje federado : fusión de árboles de decisión

  1. Argente del Castillo Garrido, Alberto
Dirigida por:
  1. Victoria Luzón García Codirectora
  2. Francisco Herrera Triguero Codirector

Universidad de defensa: Universidad de Granada

Fecha de defensa: 07 de junio de 2024

Tipo: Tesis

Resumen

Los sistemas de Inteligencia Artificial están presentes en el día a día de las personas, ofreciendo múltiples avances a los usuarios de estos. El aumento de estos sistemas crece en paralelo con la preocupación por la privacidad de los datos que se usan para crear estos sistemas por parte de los usuarios, y de diversas instituciones oficiales. Algunos de estos sistemas de Inteligencia Artificial pueden tener un impacto muy alto en las personas, como por ejemplo un sistema de diagnóstico de cáncer, y es inaceptable correr el riesgo de usar estos sistemas en beneplácito de sus características. Es necesaria la creación de sistemas de Inteligencia Artificial fiables para garantizar que estos sean robustos, transparentes, no discriminatorios, accesibles y respetuosos con la privacidad de los datos de los usuarios. El Aprendizaje Federado es un paradigma de Aprendizaje Automático distribuido y colaborativo que surge como una solución para asegurar la privacidad y gobernanza de los datos de los usuarios, dado que no es necesario el intercambio de datos privados entre los nodos que entrenan el modelo de Inteligencia Artificial. Además de que un sistema de Inteligencia Artificial mantenga la privacidad y la seguridad de los datos de los usuarios, es necesario que ´este sea interpretable, sobre todo en campos donde manejan datos sensibles. De esta forma se podrían utilizar estos sistemas, que ayudarían a los expertos en la toma de decisiones final, no sólo por ofrecer la predicción del sistema, sino porque también proporcionan los motivos por los que se ha tomado esta decisión. La hipótesis central de esta tesis es que los modelos interpretables tradicionales del Aprendizaje Automático centralizado pueden mantener su interpretabilidad en un entorno federado. La creación de estos modelos permitirá crear sistemas de Inteligencia Artificial fiables que puedan llegar a ser utilizados en ámbitos donde la privacidad de los datos sea imperativa. Para corroborar la hipótesis de partida, se han marcado los siguientes objetivos: 1. Desarrollo de una metodología que permita unificar el proceso de entrenamiento de nuevos modelos en entornos de Aprendizaje Federado. 2. Diseño, implementación y evaluación de un agregador de Aprendizaje Federado para ´Arboles de Decisión basados en reglas. Como resultado se ha desarrollado la propuesta de agregación de ´arboles de decisión ICDTA4FL. 3. Desarrollar un software de Aprendizaje Federado que permita la implementación de agregadores para los diferentes modelos de Aprendizaje Federado interpretables y explicables. Este software permitirá a˜nadir agregadores para modelos de Aprendizaje Automático interpretables, y que permita realizar la experimentación en diferentes entornos federados. Como resultado se ha desarrollado el software FLEX-Trees. Esta tesis logra aunar la privacidad de los datos junto a la interpretabilidad de sistemas de Inteligencia Artificial en entornos de Aprendizaje Federado, con la creación de un proceso de agregación de modelos interpretables, que permite adaptar un modelo clásico de Aprendizaje Automático, como lo son los ´Arboles de Decisión, a un entorno de Aprendizaje Federado. También se ha realizado un software que incluye algunos de los modelos interpretables del estado del arte para Aprendizaje Federado, y todo esto llevando a cabo una metodología de trabajo de entrenamiento y evaluación en entornos de Aprendizaje Federado.