Crean guantes que traducen lengua de señas a texto en tiempo real
Apple ha introducido nuevas características de accesibilidad en iOS, como el "Seguimiento de Ojos", que permite a los usuarios controlar su iPad con movimientos oculares, y "Music Haptics", diseñado para personas con discapacidad auditiva, convirtiendo la música en vibraciones táctiles sincronizadas con el ritmo y matices del sonido
Estudiantes de la Universidad de Washington desarrollaron unos guantes para interpretar el lenguaje de señas al habla, con el objetivo de facilitar la comunicación entre personas con discapacidad auditiva y oyentes. Navid Azodi y Thomas Pryor, los creadores de este innovador dispositivo, explicaron que los guantes están equipados con sensores avanzados que detectan los movimientos y posiciones de las manos del usuario. Estos sensores recopilan datos sobre la orientación, posición y gestos específicos utilizados en el lenguaje de señas.
LEE: Representante de Amazon revela si es o no seguro conectar a Alexa todo el día
Los datos capturados se transmiten de manera inalámbrica a una computadora que utiliza algoritmos de aprendizaje automático para traducir los gestos en tiempo real o en texto. Esta tecnología está diseñada para reconocer una amplia gama de gestos y combinaciones, permitiendo una traducción precisa y fluida del lenguaje de señas.
El potencial de SignAloud para integrarse en diferentes contextos cotidianos es notable. En el ámbito educativo, por ejemplo, un estudiante con dificultades auditivas podría usar estos guantes para participar activamente en clases y discusiones, facilitando la comprensión por parte de compañeros y profesores.
En entornos laborales, los empleados con discapacidades auditivas podrían comunicarse de manera más efectiva con colegas y supervisores, derribando barreras y promoviendo la inclusión.
SignAloud ha sido ampliamente reconocido por su enfoque innovador y su impacto significativo. En 2016, los inventores recibieron el prestigioso Premio Lemelson-MIT para estudiantes, que premia a jóvenes creadores que desarrollan tecnologías revolucionarias.
A pesar de sus capacidades, SignAloud enfrenta varios desafíos, como la necesidad de desarrollar un sistema que reconozca y traduzca con precisión la diversidad de signos y dialectos del lenguaje de señas. Cada región y comunidad tiene variaciones en su uso del lenguaje de señas, lo que requiere una adaptabilidad continua del sistema.
Otro reto es asegurar la aceptación y adopción de esta tecnología por parte de la comunidad sorda, asegurándose de que el diseño y funcionamiento del dispositivo respondan a las necesidades y preferencias de los usuarios. La colaboración estrecha con personas sordas y expertos en lenguaje de señas es crucial durante el proceso de desarrollo para garantizar que el producto final sea realmente útil y bien recibido.
Por otra parte, Apple ha introducido nuevas características de accesibilidad en iOS, como el "Seguimiento de Ojos", que permite a los usuarios controlar su iPad con movimientos oculares, y "Music Haptics", diseñado para personas con discapacidad auditiva, convirtiendo la música en vibraciones táctiles sincronizadas con el ritmo y matices del sonido. Además, “Vocal Shortcuts” simplifica el uso del dispositivo mediante comandos de voz personalizados, mejorando la eficiencia y el acceso a funciones clave para todos los usuarios.
LEE: Más de la mitad de ventas en línea provienen de Instagram
BB