Bajío

Estudiante de la UAQ desarrolla guante que traduce lenguaje de señas

Brayan Tarre, con su “Intelligent Talking Hand”, fue uno de los ganadores de la fase regional del cuarto Concurso de Ciencia, Tecnología e Innovación "ViveconCiencia" en el área de Salud Pública.
Alan Contreras
14 noviembre 2017 10:27 Última actualización 14 noviembre 2017 10:27
Guante inteligente

Intelligent Talking Hand.

QUERÉTARO, Qro.- Brayan Howard Tarre Álvarez, alumno de cuarto semestre de la carrera de Ingeniería Electromecánica en Campus San Juan del Río de la Universidad Autónoma de Querétaro (UAQ) desarrolla un guante con un sistema decodificador inteligente de movimientos que ayuda a la traducción básica de la lengua de señas.

“Intelligent Talking Hand” es una propuesta que busca mejorar la calidad de vida de personas con discapacidad auditiva, la cual puede ser total (anacusia) o parcial (hipoacusia).

Este proyecto fue una de las iniciativas financiadas por el Fondo de Proyectos Estudiantiles de la Facultad de Ingeniería, asesorado por el investigador doctor Martín Valtierra Rodríguez y fue uno de los ganadores de la fase regional del 4to. Concurso de Ciencia, Tecnología e Innovación “Vive conCiencia” en el área de Salud Pública.

De acuerdo con el universitario, el sistema está conformado por un guante y un software. El primero cuenta con sensores tipo flexores en cada uno de los dedos que, cuando éstos se curvan, dan como resultado una resistencia variable. Ésta es adquirida por un microcontrolador tipo Arduino para ser evaluada por una base de datos que contiene cada una de las señas; de esta manera, el software arroja una letra específica en la pantalla del ordenador y reproducida por voz en un dispositivo móvil.

Uno de los aspectos fundamentales del proyecto es el uso de redes neuronales, un tópico de programación avanzada de nivel posgrado, que constituye un modelo matemático por medio del cual un algoritmo de actualización y entrenamiento es capaz de aprender a reconocer patrones, tal como lo hacen los humanos.

Para ello fue necesario elaborar una base de datos con cada una de las señas, en la que registraron cierto número de repeticiones de cada una.

“Hicimos, por ejemplo, 200 veces la letra “a”, después 200 veces la letra “e” y así con todas las vocales”, detalló.

Posteriormente, la red neuronal fue entrenada para aprender y generalizar los patrones a base de la experiencia, con lo cual el algoritmo es capaz de escoger la mejor decisión, como lo haría un humano. Asimismo, el sistema está desarrollado para adaptarse a cada usuario, ya que la biomecánica de cada persona es distinta.