Inferencia de la respuesta afectiva de los espectadores de un video

  1. Pardo Muñoz, José Manuel
  2. Fernández Martínez, Fernando
  3. Callejas Carrión, Zoraida
  4. Kleinlein, Ricardo
  5. Luna Jiménez, Cristina
  6. Montero Martínez, Juan Manuel
Revista:
Procesamiento del lenguaje natural

ISSN: 1135-5948

Año de publicación: 2019

Número: 63

Páginas: 155-158

Tipo: Artículo

Otras publicaciones en: Procesamiento del lenguaje natural

Resumen

Este proyecto propone el análisis de la posible dependencia entre el contenido audiovisual de una producción multimedia y el impacto causado por ésta en sus espectadores. Para ello, nos apoyamos en diferentes áreas de conocimiento tales como comunicación audiovisual, visión por computador, sistemas multimodales, sensores biométricos, análisis de redes sociales, análisis de opinión o computación afectiva, entre otras, con el objetivo de diseñar nuevos modelos computacionales que permitan predecir las reacciones de los espectadores de un video de forma transversal a los medios y momentos en que éstas se producen. Trabajamos principalmente con dos tipos de respuesta: la respuesta cognitiva y emocional inmediata de los espectadores durante el visionado, que medimos utilizando técnicas de neurociencia y sensores biométricos, y la reacción expresada en redes sociales, cuyo impacto es cuantificado mediante el análisis automático de diferentes metadatos recabados para dichos videos, tales como popularidad, patrones de compartición, valoraciones y comentarios realizados en las redes.

Referencias bibliográficas

  • Baveye, Y., E. Dellandrea, C. Chamaret, and L. Chen. 2015. Liris-accede: A video database for affective content analysis. IEEE Transactions on Affective Computing.
  • Demarty, C.-H., M. Sj¨oberg, B. Ionescu, T.- T. Do, H. Wang, N. Q. K. Duong, and F. Lefèbvre. 2016. Predicting media interestingness task. In MediaEval 2016.
  • Fernández-Martínez, F., A. H. García, A. Gallardo-Antolín, and F. D. de María. 2014. Combining audio-visual features for viewers’ perception classification of youtube car commercials. In 2nd International Workshop on Speech, Language, and Audio in Multimedia, SLAM’14.
  • Fernández-Martínez, F., A. Hernández-García, and F. D. de María. 2015. Succeeding metadata based annotation scheme and visual tips for the automatic assessment of video aesthetic quality in car commercials. Expert Systems with Ap- plications.
  • García-Faura, A., A. Hernández-García, F. Fernández-Martínez, F. Díaz-de María, and R. San-Segundo. 2019. Emotion and attention: Audiovisual models for grouplevel skin response recognition in short movies. Web Intelligence, 17.
  • Hernández-García, A., F. Fernández-Martínez, and F. Díaz-de María. 2016. Comparing visual descriptors and automatic rating strategies for video aesthetics prediction. Image Communications.
  • Hernández-García, A., F. Fernández-Martínez, and F. Díaz-de María. 2017. Emotion and attention: Predicting electrodermal activity through video visual descriptors. In International Conference on Web Intelligence, WI ’17.
  • Luo, W., X. Wang, and X. Tang. 2011. Content-based photo quality assessment. In Proceedings of the 2011 International Conference on Computer Vision, ICCV ’11.