Novo Kinect pode ler a linguagem de sinais humana com facilidade

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

O Microsoft Kinect está criando uma grande revolução no campo da Interface Natural do Usuário. A câmera de profundidade 3D de baixo custo como Kinect abre infinitas possibilidades em nosso mundo da computação. A língua de sinais é a língua principal para muitas pessoas surdas e com deficiência auditiva, mas atualmente não é possível para essas pessoas interagirem com computadores usando sua língua nativa. A Microsoft Research Asia desenvolveu um sistema usando Kinect que pode detectar linguagens de sinais usadas por essas pessoas e funciona bem.

Aqui estão algumas informações sobre o projeto,

O Kinect, com sua capacidade de fornecer informações de profundidade e dados de cores simultaneamente, facilita o rastreamento das ações das mãos e do corpo com mais precisão e rapidez.

Neste projeto - que está sendo exibido durante a DemoFest porção de Cúpula do Corpo Docente 2013, que traz mais de 400 pesquisadores acadêmicos à sede da Microsoft para compartilhar insights sobre pesquisas impactantes – o rastreamento manual leva a um processo de alinhamento de trajetória de movimento 3D e correspondência de palavras individuais em linguagem de sinais. As palavras são geradas via rastreamento manual pelo Kinect para Windows software e, em seguida, normalizado, e as pontuações correspondentes são computadas para identificar os candidatos mais relevantes quando uma palavra sinalizada é analisada.

O algoritmo para esta correspondência de trajetória 3-D, por sua vez, possibilitou a construção de um sistema de reconhecimento e tradução da língua de sinais, composto por dois modos. O primeiro, Modo de Tradução, traduz a linguagem de sinais em texto ou fala. A tecnologia atualmente suporta a linguagem de sinais americana, mas tem potencial para todas as variedades de linguagem de sinais.

O segundo, Modo de Comunicação, permite a comunicação entre uma pessoa ouvinte e uma pessoa surda ou com deficiência auditiva por meio de um avatar. Guiado pela entrada de texto de um teclado, o avatar pode exibir a frase em linguagem de sinais correspondente. A pessoa surda ou com deficiência auditiva responde usando a linguagem de sinais e o sistema converte essa resposta em texto.

Leia mais no link abaixo.

Fonte: Microsoft

Mais sobre os tópicos: kinect, microsoft, pesquisa, Linguagem de sinais

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *