REGIÃO

REGIÃO -

Investigadores do Politécnico de Viana do Castelo estão a desenvolver plataforma digital de interpretação de Língua Gestual Portuguesa

Criar uma solução digital «mais amigável e prática» para a população surda é o objectivo do projecto “IVLinG” que investigadores da Escola Superior de Tecnologia e Gestão (ESTG) do Instituto Politécnico de Viana do Castelo (IPVC) começaram a desenvolver no início deste ano. O projecto tem a duração de dois anos e meio e é financiado pelo Programa Operacional Fatores de Competitividade (COMPETE).

O projecto “IVLinG” compreende o «desenvolvimento de uma plataforma digital de interpretação de Língua Gestual Portuguesa que visa agilizar a comunicação entre a população surda e a comunidade ouvinte». 

«Em termos de língua gestual não há muitas soluções disponíveis e as que existem são consideradas insuficientes, pouco amigáveis e pouco práticas, já que não consideram alguns aspectos como a expressão facial», justificou o professor e investigador da ESTG-IPVC, Luís Romero, adiantando que o objectivo é «colmatar algumas das falhas existentes nas soluções atuais e criar um sistema mais fácil para que seja adotado pelas pessoas com deficiência auditiva».

Na base desta solução estará um intérprete virtual em tempo real de Língua Gestual Portuguesa, que irá efectuar o reconhecimento automático de gestos e expressões faciais e corporais. Estes movimentos são posteriormente traduzidos para texto e/ou áudio, sendo que a pessoa ouvinte recebe essa informação no computador. O ouvinte, por sua vez, exprime a sua resposta em linguagem natural via áudio, que é convertido em texto e traduzido para língua gestual. A resposta em Língua Gestual Portuguesa é visualizada por meio de um avatar. Este sistema de interpretação virtual terá por base a utilização de câmaras de vídeo que captam todos os movimentos da pessoa que comunica através de língua gestual.

PARCERIAS

O projecto está a ser realizado em parceria com o Centro de Computação da Universidade do Minho (UMinho) e a empresa First Solutions.

«O IPVC vai fazer a tradução da linguagem natural para língua gestual, enquanto o parceiro vai fazer a tradução de língua gestual para linguagem natural. Depois do IPVC e da UMinho criarem a solução, o conceito e o protótipo, a empresa coloca no mercado», explicou Luís Romero, que conta ainda com a participação do também professor e investigador da ESTG-IPVC, Pedro Faria, na concretização deste projecto.

Este processo de tradução envolve dois estágios principais: a tradução da linguagem natural em língua gestual representada por gestos singulares de expressão gestual denominados de glosses. Estes, por sua vez, traduzem termos e expressões definidos na Língua Gestual Portuguesa. Cada gloss tem um gesto associado e uma frase que consiste num conjunto de glosses sequenciais que representam a expressão gestual de uma frase/termo/ideia. Notar que a Língua Gestual Portuguesa tem estrutura gramatical própria, pelo que a tradução não é directa.

«Vamos tentar fazer uma solução mais completa, envolvendo a computação gráfica com o avatar, pretendendo-se que seja o mais realista possível e envolva a expressão facial e emotiva, que os sistemas actuais não usam», referiu ainda Luís Romero, destacando que as pessoas com deficiência auditiva poderão, por exemplo, ir às compras ou até comunicar durante uma consulta médica com a ajuda desta solução.

Neste momento, já existem alguns resultados «muito preliminares», mas a partir de Setembro e Outubro, com a chegada dos bolseiros, o projecto vai ser acelerado. O “IVLinG” conta ainda com a participação da Multisector, empresa que faz a gestão do projecto e com a colaboração da Associação Portuguesa de Surdos (APF) e da Federação Portuguesa das Associações de Surdos (FPAS), que «vão disponibilizar professores da Língua Gestual Portuguesa para fazer a ponte e perceber se o projeto está no caminho certo», garantiu.

Partilhe este artigo no Facebook
Twitter
OUTRAS NOTÍCIAS

PUBLICIDADE