Caracterización de imágenes cerebrales mediante distribuciones alfa-estables e isosuperficies

  1. CASTILLO BARNES, DIEGO
Dirigida por:
  1. Diego Salas González Director

Universidad de defensa: Universidad de Granada

Fecha de defensa: 02 de septiembre de 2021

Tribunal:
  1. José Manuel Ferrández Vicente Presidente/a
  2. Fermín Segovia Román Secretario
  3. Yu-Dong Zhang Vocal
  4. Carmen Serrano Gotarredona Vocal
  5. María Ruz Cámara Vocal
Departamento:
  1. TEORÍA DE LA SEÑAL, TELEMÁTICA Y COMUNICACIONES

Tipo: Tesis

Resumen

Motivación La incorporación de nuevas técnicas de análisis de datos e inteligencia artificial en el campo de la neurociencia está dando paso a sistemas de ayuda al diagnóstico cada vez más precisos (Sakai and Yamada 2018; Raghavendra et al. 2019). No obstante, la mayoría de estos sistemas, muchos de ellos basados en técnicas de aprendizaje máquina, se han limitado al estudio de un solo tipo de imagen clínica para cuantificar el estado o la evolución de cada paciente, o a tratar de identificar la relación subyacente entre algún tipo de marcador aislado y el desarrollo de patologías como la demencia (Khedher et al. 2015; Nicastro et al. 2019; Kim et al. 2021). La evolución de bases de datos como las de las iniciativas PPMI o DIAN (Marek et al. 2011; Morris et al. 2012), que ahora incorporan cientos o miles de marcadores genéticos, de proteínas, o de derivados metabólicos, entre otros; ha despertado el interés de la comunidad científica en desarrollar nuevas herramientas de análisis que permitan combinar toda esta información para poder predecir el estado (diagnóstico) y la evolución (pronóstico) de los pacientes con demencia. Sin embargo, la aplicación de estas propuestas en la práctica clínica habitual ha sido criticada debido a la falta de interpretabilidad física de sus resultados, al número de muestras necesarias para su correcto entrenamiento, o en relación a su eficiencia computacional y/o coste de ejecución (Choi 2017; Li et al. 2019). Objetivos Esta tesis tiene como objetivo fundamental mejorar el análisis de los datos procedentes de pacientes con demencia en base a tres líneas de actuación: Desarrollar nuevas metodologías que consigan un mejor ajuste de los datos de entrada. Proponer nuevos marcadores de imagen que ayuden a caracterizar los trastornos neurodegenerativos más frecuentes (Alzheimer y Parkinson). Establecer un modelo de aprendizaje de conjuntos (ensemble) capaz de combinar la información procedente de diferentes tipos de datos en escenarios con inteligencia artificial y que sea capaz de identificar y descartar aquellas fuentes de entrada poco fiables. Metodología Siguiendo los objetivos marcados para esta tesis doctoral, se han presentado varias contribuciones que ayudan a mejorar los procedimientos habituales de análisis de datos en neuroimagen. Por un lado, el uso de distribuciones alfa-estables ha demostrado ser una herramienta muy eficaz a la hora de modelar variables de entrada con fuerte impulsividad y/o colas pesadas en campos de estudio como la astrofísica, la economía o la ingeniería (Nolan 2001). En neuroimagen, estas distribuciones de probabilidad se han utilizado como base para el desarrollo de modelos de segmentación de los tejidos cerebrales (materia gris, materia blanca y líquido cefalorraquídeo) en imágenes estructurales de manera más precisa a como lo hacían sus equivalentes empleando distribuciones gaussianas (Salas-Gonzalez et al. 2013). Con el fin de mejorar estos modelos, en esta tesis se ha desarrollado un nuevo procedimiento de segmentación de imágenes de resonancia magnética que también tiene en cuenta la relación de dependencia entre cada vóxel de intensidad de la imagen y sus valores vecinos. El planteamiento de esta propuesta ha precisado del desarrollo de un modelo de mezclas de distribuciones alfa-estables con el algoritmo de maximización de la expectación que resulta más eficiente que su equivalente bayesiano desde el punto de vista computacional (Salas-Gonzalez et al. 2010). Otra de las propuestas presentadas ha sido el desarrollo de un modelo de ayuda al diagnóstico para pacientes con Parkinson mediante un análisis de la morfología de los patrones de intensidad presentes en imágenes funcionales FP-CIT SPECT. Este sistema hace uso de isosuperficies (el equivalente a las isolíneas pero en tres dimensiones) calculadas mediante el algoritmo Marching Cubes (Lewiner et al. 2003), que se ajustan de manera precisa a la forma de los focos de intensidad en cada imagen de entrada. A partir de cada isosuperficie calculada, se extraen características como el área, el volumen, la esfericidad, la posición del centro de masas o la orientación de cada una de estas capas; derivándose así un conjunto de características con una gran capacidad predictiva de la pérdida de transportadores dopaminérgicos en la vía nigroestriada (Segovia et al. 2019). Continuando con lo mencionado anteriormente sobre el reciente desarrollo de repositorios como DIAN, también se ha propuesto el primer análisis mediante técnicas de aprendizaje máquina de esta base de datos para el estudio de la variante hereditaria del Alzheimer. Este modelo predictivo ha ayudado a identificar los patrones que diferencian a sujetos sanos de pacientes con alguna mutación en sus genes PSEN1, PSEN2 y/o APP; incluso en etapas presintomáticas de su enfermedad (Cash et al. 2013; Oxtoby et al. 2018). Además, el sistema justifica un modelo teórico de referencia a nivel mundial sobre la evolución del Alzheimer (Jack et al. 2010), y ayuda a identificar qué tipos de marcadores son los que mejor predicen el curso de la enfermedad en diferentes instantes de tiempo anteriores a la aparición de los primeros síntomas cognitivos. Por último, en esta tesis también se ha propuesto una nueva metodología de aprendizaje de conjuntos que permite combinar toda la información procedente de varias fuentes de datos heterogéneas (aquellas que proceden de diferentes tipos de pruebas clínicas como análisis de sangre, punciones lumbares o la propia imagen cerebral) aplicando una técnica de voto por mayoría ponderado (Breiman 1996; Rokach 2009). Para ello, el sistema combina el aprendizaje de todas las fuentes de entrada disponibles mediante el uso de un doble bucle de validación cruzada. En el bucle anidado, se calculan los pesos de cada tipo de dato de entrada, mientras que el bucle externo se genera el modelo real que pondera la influencia que tiene cada tipo de dato sobre la clasificación/regresión final en función del resultado de la métrica que se haya calculado en el bucle anidado. Este método tiene la particularidad de que el bucle externo penaliza la contribución de las fuentes de entrada con bajo rendimiento de manera no-lineal (acentuando la relevancia de las características con mayor capacidad predictiva). Conclusiones El avance de la neurociencia ha impulsado la comprensión que hoy en día tenemos sobre el funcionamiento del cerebro humano y sus dolencias. La neuroimagen, desarrollada en principio como una herramienta de apoyo visual para confirmar un posible diagnóstico, ha dado paso al desarrollo de una gran variedad de propuestas que, en combinación con su análisis mediante métodos estadísticos, no solo sirven como herramientas de apoyo al diagnóstico sino que también nos permiten medir su evolución. En los últimos veinte años hemos pasado de análisis estadísticos tradicionales que solo mencionaban las diferencias entre dos o más grupos de sujetos, a técnicas de análisis más avanzadas como el aprendizaje máquina que son capaces de predecir la condición de los pacientes con demencia e incluso el posible curso de la enfermedad. Pero para que esta capacidad de predicción sea lo más acertada posible, hace falta que se desarrollen nuevos modelos matemáticos más precisos, que consigan un mejor ajuste de los datos de entrada con los que se trata de explicar el curso de enfermedades como la demencia; proponer nuevos marcadores (también de imagen) que ayuden a caracterizar mejor los procesos biológicos del sistema nervioso central; y desarrollar nuevas metodologías de aprendizaje mediante las cuales se pueda combinar todo el aprendizaje procedente de varias fuentes de información relevantes de manera automática y sin que la influencia de los marcadores de entrada poco relevantes puedan afectar al ajuste final de estos modelos. Referencias Breiman 1996, “Bagging predictors,” Machine Learning, vol. 24, no. 2, pp. 123-140, 1996. Cash et al. 2013, “The pattern of atrophy in familial alzheimer disease,” Neurology, vol. 81, no. 16, pp. 1425-1433, 2013. Choi 2017, “Deep learning in nuclear medicine and molecular imaging: Current perspectives and future directions,” Nuclear Medicine and Molecular Imaging, vol. 52, pp. 109-118, nov 2017. Jack et al. 2010, “Hypothetical model of dynamic biomarkers of the alzheimer’s pathological cascade,” The Lancet Neurology, vol. 9, no. 1, pp. 119-128, 2010. Khedher et al. 2015, “Early diagnosis of alzheimer’s disease based on partial least squares, principal component analysis and support vector machine using segmented MRI images,” Neurocomputing, vol. 151, pp. 139-150, mar 2015. Kim et al. 2021, “Prediction of tau accumulation in prodromal alzheimer’s disease using an ensemble machine learning approach,” Scientific Reports, vol. 11, mar 2021. Lewiner et al. 2003, “Efficient implementation of marching cubes’ cases with topological guarantees,” Journal of Graphics Tools, vol. 8, no. 2, pp. 1-15, 2003. Li et al. 2019, “Radiomics: a novel feature extraction method for brain neuron degeneration disease using 18f-FDG PET imaging and its implementation for alzheimer’s disease and mild cognitive impairment,” Therapeutic Advances in Neurological Disorders, vol. 12, p. 175628641983868, jan 2019. Marek et al. 2011, “The parkinson progression marker initiative (PPMI),” Progress in Neurobiology, vol. 95, pp. 629-635, dec 2011. Morris et al. 2012, “Developing an international network for alzheimer research: The dominantly inherited alzheimer network,” Clinical investigation, vol. 2, pp. 975-984, Oct 2012. Nicastro et al. 2019, “Classification of degenerative parkinsonism subtypes by support-vector-machine analysis and striatal 123I-FP-CIT indices,” Journal of Neurology, vol. 266, pp. 1771-1781, Apr 2019. Nolan 2001, “Maximum likelihood estimation and diagnostics for stable distributions,” in Lévy Processes, pp. 379-400, Birkhäuser Boston, 2001. Oxtoby et al. 2018, “Data-driven models of dominantly-inherited alzheimer’s disease progression,” Brain, vol. 141, no. 5, pp. 1529-1544, 2018. Raghavendra et al. 2019, “Artificial intelligence techniques for automated diagnosis of neurological disorders,” European Neurology, vol. 82, no. 1-3, pp. 41-64, 2019. Rokach 2009, Pattern Classification Using Ensemble Methods. World Scientific Publishing Company, 2009. Sakai and Yamada 2018, “Machine learning studies on major brain diseases: 5-year trends of 2014-2018,” Japanese Journal of Radiology, vol. 37, pp. 34-72, nov 2018. Salas-Gonzalez et al. 2013, “Parameterization of the distribution of white and grey matter in MRI using the alpha-stable distribution,” Computers in Biology and Medicine, vol. 43, pp. 559-567, jun 2013. Salas-Gonzalez et al. 2010, “Modelling with mixture of symmetric stable distributions using Gibbs sampling,” Signal Processing, vol. 90, no. 3, pp. 774-783, 2010. Segovia et al. 2019, “Assisted diagnosis of parkinsonism based on the striatal morphology,” International Journal of Neural Systems, vol. 29, p. 1950011, mar 2019.