Diseño y construcción de un guante de datos para el reconocimiento gestual de lenguajes gestuales complejos

  1. J.A. Holgado
Revista:
Enseñanza y aprendizaje de ingeniería de computadores: Revista de Experiencias Docentes en Ingeniería de Computadores

ISSN: 2173-8688

Año de publicación: 2018

Número: 8

Páginas: 197-212

Tipo: Artículo

Otras publicaciones en: Enseñanza y aprendizaje de ingeniería de computadores: Revista de Experiencias Docentes en Ingeniería de Computadores

Resumen

La interacción Hombre-Máquina está en constante evolución siendo la interacción gestual una de las interfaces más estudiadas en este ámbito. Sin embargo, las interfaces actualmente disponibles presentan diferentes tipos de problemas (oclusión, lecturas erróneas, etc.) para que puedan ser aplicadas al reconocimiento e interpretación de lenguajes complejos como el lenguaje de los sordomudos. Para establecer los mecanismos necesarios para lograr una solución al problema de la detección y reconocimiento gestual en este artículo se estudia la fisiología humana gestual en la realización del gesto, la lengua de signos española (LSE) como lenguaje de gestos base, los dispositivos gestuales actuales, las técnicas utilizadas y sus mecanismos electrónico-sensoriales. Además, proponemos el diseño y construcción de un guante de datos junto con un sistema que lo controle con la finalidad de llevar a la práctica los estudios y conclusiones adoptadas de nuestra investigación.

Referencias bibliográficas

  • V. I. Pavlovic, R. Sharma, and T. S. Huang “Visual interpretation of hand gestures for human-computer interaction: a review,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 19, no. 7, pp. 677–695, Jul 1997.
  • S. S. Rautaray and A. Agrawal, “Vision based hand gesture recognition for human computer interaction: a survey,” Artif. Intell. Rev., vol. 43, no. 1, pp. 1–54, Jan 2015.
  • C. K. Lim, Z. Luo, I.-M. Chen, and S. H. Yeo, “Wearable wireless sensing system for capturing human arm motion,” Sensors Actuators A Phys., vol. 166, no. 1, pp. 125–132, Mar 2011.
  • A. Asokan, A. J. Pothen, and R. K. Vijayaraj, “ARMatron? A wearable gesture recognition glove: For control of robotic devices in disaster management and human Rehabilitation,” in 2016 International Conference on Robotics and Automation for Humanitarian Applications (RAHA), 2016, pp. 1–5.
  • T. G. Zimmerman, J. Lanier, C. Blanchard, S. Bryson, and Y. Harvill, “A hand gesture interface device,” ACM SIGCHI Bull., vol. 17, no. SI, pp. 189–192, May 1986.
  • M. A. Arenas, J. M. Palomares, J. Olivares, and J. Castillo, “Diseño y Construcción de un Guante de Datos mediante Sensores de Flexibilidad y Acelerómetro,” in Jornadas Sarteco 2012, 19-21 Sep., 2012.
  • J. Y. Tung, T. Lulic, D. a Gonzalez, J. Tran, C. R. Dickerson, and E. a Roy, “Evaluation of a portable markerless finger position capture device: accuracy of the Leap Motion controller in healthy adults.,” Physiol. Meas., vol. 36, no. 5, pp. 1025–35, May 2015.
  • A. Erol, G. Bebis, M. Nicolescu, R. D. Boyle, and X. Twombly, “Vision-based hand pose estimation: A review,” Comput. Vis. Image Underst., vol. 108, no. 1–2, pp. 52–73, Oct. 2007.
  • G. Sanahuja, A. Valera, A. J. Sánchez, C. Ricolfe-Viala, M. Vallés, and L. Marín, “Control Embebido de Robots Móviles con Recursos Limitados Basado en Flujo Óptico,” Rev. Iberoam. Automática e Informática Ind. RIAI, vol. 8, no. 3, pp. 250–257, Jul. 2011.
  • I. Oropesa, T. L. de Jong, P. Sánchez-González, J. Dankelman, and E. J. Gómez, “Feasibility of tracking laparoscopic instruments in a box trainer using a Leap Motion Controller,” Measurement, vol. 80, pp. 115–124, Feb. 2016.
  • A. Sanna, F. Lamberti, G. Paravati, and F. Manuri, “A Kinect-based natural interface for quadrotor control,” Entertain. Comput., vol. 4, no. 3, pp. 179–186, Aug. 2013.
  • S. Ljubic, V. Glavinic, and M. Kukec, “Finger-Based Pointing Performance on Mobile Touchscreen Devices: Fitts’ Law Fits,” in Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 9175, no. 2, M. Antona and C. Stephanidis, Eds. Cham: Springer International Publishing, 2015, pp. 318–329.
  • Z. Lv, A. Halawani, S. Feng, S. ur Réhman, and H. Li, “Touch-less interactive augmented reality game on vision-based wearable device,” Pers. Ubiquitous Comput., vol. 19, no. 3–4, pp. 551–567, Jul. 2015.
  • G. Pomboza-Junez and J.A. Holgado-Terriza, “Hand gesture recognition based on sEMG signals using Support Vector Machines,” in 2016 IEEE 6th International Conference on Consumer Electronics Berlin (ICCE-Berlin), 2016, pp. 174–178.
  • F. Erden and A. Çetin, “Hand gesture based remote control system using infrared sensors and a camera,” IEEE Trans. Consum. Electron., vol. 60, no. 4, pp. 675–680, Nov. 2014.
  • G. Pomboza-Junez and J.A. Holgado-Terriza, “Control of home devices based on hand gestures,” in 5th IEEE International Conference on Consumer Electronics Berlin, ICCE-Berlin 2015, 2016, pp. 510–514.
  • J. A. Jimenez-Monañes, G. Pomboza-Junez and J. A. Holgado-Terriza, “El gesto aplicado al control de dispositivos en tiempo real usando un guante de interacción de bajo costo” in Jornada Sarteco 2017, 2017, pp. 605-611.
  • J.-U. Chu, I. Moon, Y.-J. Lee, S.-K. Kim, and M.-S. Mun, “A Supervised Feature-Projection-Based Real-Time EMG Pattern Recognition for Multifunction Myoelectric Hand Control,” IEEE/ASME Trans. Mechatronics, vol. 12, no. 3, pp. 282–290, Jun. 2007.