La innovación tecnológica también puede contribuir a reducir barreras de comunicación. Un grupo de estudiantes universitarios peruanos desarrolló un dispositivo que permite traducir lengua de señas a voz en tiempo real, facilitando la interacción entre personas con discapacidad auditiva o del habla y quienes no dominan este lenguaje. El prototipo, denominado NeuroSign, combina inteligencia artificial, visión artificial y proyección holográfica para interpretar gestos captados por una cámara y convertirlos en mensajes audibles de forma inmediata.
NeuroSign: tecnología que traduce lengua de señas con inteligencia artificial
El dispositivo NeuroSign fue desarrollado por Néstor Ramos y Angie Herrera, estudiantes de Ingeniería Industrial e Ingeniería Mecatrónica de la Universidad Continental.
Según sus creadores, el sistema permite interpretar gestos de lengua de señas mediante una cámara y traducirlos a voz en tiempo real. La información se proyecta como un holograma dentro de una estructura piramidal de acrílico, lo que facilita visualizar el mensaje generado por el dispositivo.

“Miles de personas con discapacidad auditiva o del habla tienen muchas dificultades para comunicarse con quienes no comprenden la lengua de señas. Esto afecta su acceso a la educación, al trabajo y la participación social, generando una exclusión silenciosa que la tecnología puede y debe ayudar a derribar. Con esa misión desarrollamos NeuroSign”, sostuvo Angie Herrera.
Para el reconocimiento de gestos, el sistema utiliza herramientas de inteligencia artificial y aprendizaje automático como MediaPipe y TensorFlow Lite. Estas plataformas permiten analizar los movimientos captados por la cámara, interpretarlos mediante algoritmos de IA y traducirlos en mensajes audibles de fácil comprensión.
Un proyecto nacido de una experiencia cotidiana
De acuerdo con Néstor Ramos, la idea del proyecto surgió a partir de una experiencia personal.
“Estando en una tienda se me acercó una persona que trató de comunicarse conmigo con lengua de señas, pero yo no le entendía. Lo único que pude hacer era esperar a que llegara su amistad para entender lo que necesitaba”, señaló.
Posteriormente, ambos estudiantes participaron en el programa FellowShip del FabLab de la Universidad Continental, donde tuvieron la oportunidad de desarrollar una solución tecnológica para responder a esa situación de comunicación.
Durante el proceso de desarrollo, el prototipo fue sometido a pruebas con usuarios, análisis de usabilidad y simulaciones persona-máquina. Según sus creadores, estos procesos permitieron comprobar que el dispositivo puede operar de manera autónoma y portátil en distintos entornos, como espacios públicos o educativos.
Dispositivo busca facilitar la comunicación sin intérpretes
Entre las características del dispositivo se encuentran la traducción automática de señas a voz, la proyección holográfica en tiempo real y la capacidad de adaptarse a distintos idiomas mediante inteligencia artificial.
Además, el sistema puede funcionar sin conexión a internet ni intermediarios, lo que permite su uso en diversos contextos.
“Su propósito es convertir la comunicación en un derecho accesible para todos, sin depender de intérpretes, aplicaciones móviles o conexión a internet”, finalizó Néstor Ramos.




















