Ingenieros de la UV transformarán comunicación entre oyentes y sordos
Dos ingenieros de la Universidad Veracruzana desarrollaron un sistema que traduce voz a lenguaje de señas en video para facilitar la comunicación con personas sordas.

Erika Mendoza Salvador y Erick Alejandro Borges Galindo, egresados de la Maestría en Ciencias de la Ingeniería con especialidad en Electrónica y Telecomunicaciones de la Universidad Veracruzana (UV), han desarrollado un sistema innovador que promete revolucionar la comunicación entre personas oyentes y sordas. Este proyecto, titulado Sistema de traducción de voz a lenguaje de señas, busca romper las barreras comunicativas que enfrentan las personas sordas en una sociedad estructurada principalmente alrededor del lenguaje hablado.
El sistema, desarrollado en lenguaje Python utilizando librerías como Speech Recognition para captar la voz y convertirla en texto, posteriormente vincula este texto a una base de datos visual de señas presentada en formato de video. La creación de esta base de datos contó con el apoyo de una fundación especializada en lengua universal y recursos recopilados de fuentes abiertas.
Mendoza Salvador explicó que el objetivo principal del proyecto es fomentar la empatía y la inclusión de las personas sordas, ampliando sus oportunidades de interacción en entornos sociales, educativos y laborales. En una sociedad donde el lenguaje hablado predomina, la lengua de señas aún se encuentra poco conocida, lo que limita seriamente la inclusión social y profesional de esta comunidad.
El sistema funciona como un traductor automático, similar a un intérprete en tiempo real. Al reconocer la palabra pronunciada, busca su equivalente en la base de datos y muestra un video con la seña correspondiente. Además, Borges Galindo desarrolló el componente inverso del proyecto: la conversión de lengua de señas a texto y audio, cerrando así el ciclo completo de comunicación entre personas oyentes y aquellas con discapacidad auditiva.
Los ingenieros coincidieron en que no existe un lenguaje de señas universal, incluso dentro de México hay diferencias regionales notables. Por ello, optaron por crear un corpus propio con 20 palabras clave de uso cotidiano, grabanado 30 videos para cada una que muestren la seña correspondiente, asegurando variedad y calidad en los datos. Esta base de datos fue utilizada para entrenar una red neuronal recurrente, un modelo especialmente útil para analizar secuencias temporales, como los movimientos de manos en la lengua de señas.
Este proyecto representa una propuesta concreta desde la UV para atender una necesidad social urgente, combinando tecnología, sensibilidad y compromiso con la inclusión. Durante las pruebas, el sistema fue capaz de identificar señas en tiempo real a través de una cámara, analizando la posición y movimiento de las manos sin importar el color de piel, género o etnia, evitando así sesgos visuales.
Además, se consultó a una agencia especializada en lengua de señas para garantizar que el proyecto no solo fuera inclusivo en su propósito, sino también en su implementación. Una de las recomendaciones clave fue evitar dispositivos que se acerquen al rostro, por considerarse invasivos. En su lugar, se optó por cámaras de computadoras o laptops, ideales para videollamadas y conferencias.