El nuevo Kinect puede leer el lenguaje de señas humano con facilidad

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Microsoft Kinect está creando toda una revolución en el campo de la interfaz de usuario natural. La cámara de profundidad 3D de bajo costo como Kinect abre infinitas posibilidades en nuestro mundo informático. El lenguaje de señas es el idioma principal para muchas personas sordas y con problemas de audición, pero actualmente no es posible que estas personas interactúen con las computadoras usando su idioma nativo. Microsoft Research Asia ha desarrollado un sistema usando Kinect que puede detectar lenguajes de señas usados ​​por estas personas y funciona bien.

Aquí hay algo de información sobre el proyecto,

Kinect, con su capacidad para proporcionar información de profundidad y datos de color simultáneamente, facilita el seguimiento de las acciones de la mano y el cuerpo con mayor precisión y rapidez.

En este proyecto, que se muestra durante la Fiesta de demostración Una porcion de Cumbre de Facultad 2013, que reúne a más de 400 investigadores académicos en la sede de Microsoft para compartir información sobre investigaciones impactantes: el seguimiento manual conduce a un proceso de alineación de trayectorias de movimiento en 3D y coincidencia de palabras individuales en lenguaje de señas. Las palabras se generan a través del seguimiento manual por parte del Kinect para Windows software y luego se normaliza, y se calculan las puntuaciones coincidentes para identificar los candidatos más relevantes cuando se analiza una palabra firmada.

El algoritmo para esta comparación de trayectorias en 3D, a su vez, ha permitido construir un sistema de reconocimiento y traducción de lenguaje de signos, que consta de dos modos. El primero, Modo de traducción, traduce el lenguaje de señas a texto o voz. La tecnología actualmente es compatible con el lenguaje de señas estadounidense, pero tiene potencial para todas las variedades de lenguaje de señas.

El segundo, Modo de comunicación, permite la comunicación entre una persona oyente y una persona sorda o con problemas de audición mediante el uso de un avatar. Guiado por la entrada de texto desde un teclado, el avatar puede mostrar la oración correspondiente en lenguaje de señas. La persona sorda o con problemas de audición responde usando lenguaje de señas y el sistema convierte esa respuesta en texto.

Lea más en el siguiente enlace.

Fuente: Microsoft

Más sobre los temas: kinect, microsoft, la investigación, Lenguaje de signos

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *