Fotografía en donde aparece Citlalli Selene Avalos Montiel presentando cómo interactúa el guante al interpretar la Lengua de Señas.
Actualidad

‘Manos que hablan’: los guantes con sensores para traducir LSM

Egresadas del Instituto Politécnico Nacional (IPN) desarrollan los guantes que, a través de un dispositivo móvil, pueden traducir con voz y texto la Lengua de Señas Mexicana.

Por Redacción Yo También

Citlalli Selene Avalos Montiel y Flor Yelitze Pérez García, dos egresadas de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA), son las creadoras de “Manos que hablan”, un prototipo capaz de detectar la Lengua de Señas Mexicana.

Se trata de unos guantes con sensores que envían señales a un dispositivo móvil, con sistema operativo Android, previamente precargado con la aplicación Traductor, para que muestre las letras una por una hasta formar una palabra, que también puede escucharse.

“Es sencillo registrar el dispositivo del guante en el celular, primero se debe buscar el apartado Bluetooth de Configuración y elegir GuanteDer, posteriormente, en el menú de las aplicaciones, elegimos el icono del traductor que tiene dos manos con fondo blanco y contorno rosa”, cita un comunicado del Instituto Politécnico Nacional.

El prototipo consta de un par de guantes, cada uno con un sensor flexible que se extiende por la curvatura de los dedos y un acelerómetro, también tiene interruptores diseñados por las politécnicas que se ajustan a las articulaciones de la mano.

También elaboraron una placa de adquisición de datos, con comunicación vía Bluetooth, además utilizaron hilo conductor y cable flexible.

Collage de fotografías en donde aparecen Citlalli Selene Avalos, una joven de cabello color negro, lentes color rojo que lleva puesta una playera color morada y Flor Yelitze Pérez García, una joven de cabello negro con expresión seria que lleva puesta una blusa color azul de cuello alto con estampado de gatos. Adicional, aparece una fotografía de un par de guantes color gris a lado de un dispositivo móvil.
Imágenes por el Instituto Politécnico Nacional.

Aprovechan redes neuronales

Asesoradas por los maestros Miguel Félix Mata Rivera y Susana Araceli Sánchez Nájera, de la UPIITA, las estudiantes retomaron como base de su proyecto otro prototipo elaborado en 2015, pero en esta ocasión, gracias a los avances en Inteligencia Artificial, hicieron uso de redes neuronales artificiales, que mejoran el reconocimiento y que fueron entrenadas para detectar señas de las letras “A” a la “O”.

“Lograr que la red neuronal detecte con fidelidad cada una de las señas ejecutada requiere de un entrenamiento amplio con refuerzos positivos de hasta 15 repeticiones o más, es como cuando le enseñamos el nombre de un objeto a un niño, se lo repetimos una y otra vez, pero cuando va acompañado con la retroalimentación es más efectivo”.

Para Avalos Montiel y Pérez García, la Lengua de Señas es similar a cualquier otro idioma, y es necesario conocerla para que las personas con alguna discapacidad auditiva puedan sentirse integradas a la sociedad.

Por ello, la idea de desarrollar este dispositivo es aprovechar el desarrollo de la tecnología para que cualquier persona tenga la posibilidad de comunicarse y facilitar su vida cotidiana.

*Las notas relacionadas en este texto, que están fuera del sitio yotambien.mx, no necesariamente contienen un lenguaje inclusivo, o cumplen con criterios de accesibilidad web, compatibles con el uso de tecnologías de apoyo para pcd. yotambién.mx no es responsable de lo que publican estos sitios de referencia