Notícia

Cadeira de rodas controlada por expressões faciais

Nova aplicação tecnológica permite que pessoas sem movimentos nos membros superiores possam se locomover em cadeira de rodas

eprodução, Agência Fapesp

Fonte

Agência Fapesp

Data

quinta-feira, 5 maio 2016 18:25

Áreas

Bioeletrônica. Bioinformática. Biomecânica. Mobilidade. Empreendedorismo.

Uma cadeira de rodas que pode ser controlada por pequenos movimentos da face, da cabeça ou da íris foi desenvolvida por pesquisadores da Faculdade de Engenharia Elétrica e de Computação da Universidade Estadual de Campinas (FEEC/Unicamp).

O equipamento ainda é considerado experimental e de alto custo. Porém, um projeto aprovado recentemente pelo Programa Pesquisa Inovativa em Pequenas Empresas (PIPE), da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), tem como objetivo adaptar a tecnologia para torná-la mais acessível e colocá-la no mercado brasileiro dentro de dois anos.

“Nosso objetivo é que o produto final custe no máximo o dobro de uma cadeira motorizada comum, dessas que são controladas por joystick e hoje custam em torno de R$ 7 mil”, disse o professor da FEEC/Unicamp Dr. Eleri Cardozo, que apresentou resultados da pesquisa durante o 3rd BRAINN Congress, realizado em Campinas de 11 a 13 de abril de 2016.

Segundo o professor Cardozo, a tecnologia poderá beneficiar pessoas com tetraplegia, vítimas de acidente vascular cerebral (AVC), portadores de esclerose lateral amiotrófica ou outras condições de saúde que impedem o movimento preciso das mãos.

O trabalho, iniciado em 2011, contou inicialmente com apoio da Financiadora de Estudos e Projetos (Finep) e hoje é desenvolvido no âmbito do Instituto de Pesquisa sobre Neurociências e Neurotecnologia (BRAINN), um Centro de Pesquisa, Inovação e Difusão (CEPID) apoiado pela FAPESP.

“Nosso grupo estudava técnicas de interface cérebro-computador (BCI, na sigla em inglês, métodos de aquisição e processamento de sinais que permitem a comunicação entre o cérebro e um dispositivo externo) e achamos que seria interessante avaliar a tecnologia em uma situação real”, contou o Dr. Eleri Cardozo.

O grupo então adquiriu uma cadeira motorizada convencional, retirou o joystick e a equipou com diversos dispositivos normalmente encontrados em robôs, como sensores capazes de medir a distância de paredes e de outros objetos ou detectar diferenças de profundidade no piso.

O protótipo também foi equipado com um notebook que envia os comandos diretamente para a cadeira e com uma câmera 3D com a tecnologia RealSense, da Intel, que permite interagir com o computador por meio de expressões faciais ou movimentos corporais.

“A câmera identifica mais de 70 pontos da face – em torno da boca, do nariz e dos olhos – e, a partir da movimentação desses pontos, é possível extrair comandos simples, como ir para frente, para trás, para a esquerda ou direita e, o mais importante, parar”, explicou o professor.

Também é possível interagir com o computador por meio de comandos de voz, mas essa tecnologia é considerada menos confiável que as expressões faciais por causa das diferenças de timbre e da possível interferência de ruído ambiente.

“Essas limitações podem ser contornadas com a definição de um número reduzido de comandos e com uma função de treinamento incorporada ao software que otimiza a identificação dos comandos para um usuário específico”, disse o professor Cardozo.

Pensando em pacientes com quadros ainda mais graves – que impedem até mesmo a movimentação facial – o grupo também trabalha em uma tecnologia de BCI que permite extrair sinais diretamente do cérebro, por meio de eletrodos externos, e transformá-los em comandos. O equipamento, no entanto, ainda não está embarcado na cadeira robotizada.

“Fizemos demonstrações em que uma pessoa fica sentada na cadeira e outra sentada próximo a uma mesa usando o capacete com os eletrodos e controlando a cadeira. Antes de embarcar o equipamento de BCI na cadeira precisamos solucionar algumas limitações, como a alimentação de energia. Ainda é uma tecnologia muito cara, mas está saindo uma nova geração de baixo custo, na qual o capacete pode ser impresso em 3D”, disse o professor.

A cadeira também foi equipada como uma antena wifi que permite a um cuidador dirigir o equipamento remotamente, pela internet. “Essas interfaces exigem do usuário um nível de concentração que pode ser cansativo. Por isso, se houver necessidade, a qualquer momento outra pessoa pode assumir o comando da cadeira”, contou o professor Cardozo.

Assista ao vídeo de apresentação do protótipo:

 

Startup

Dentre as metodologias já testadas pela equipe da Unicamp, a interface baseada em captura e processamento de expressões faciais tem se mostrado a mais promissora no curto prazo e, portanto, será o foco do projeto desenvolvido no âmbito do programa PIPE sob a coordenação do pesquisador Dr. Paulo Gurgel Pinheiro. Para isso, o grupo criou a startup HOO.BOX Robotics.

“A empresa é um spin-off do meu pós-doutorado, cujo objetivo era desenvolver interfaces para dirigir uma cadeira de rodas com o mínimo de esforço possível do usuário. Inicialmente testamos sensores capazes de captar contrações dos músculos da face, depois evoluímos para tecnologias de imagem capazes de captar expressões faciais sem a necessidade de sensores”, contou o Dr. Paulo Gurgel.

Em vez de criar uma cadeira robotizada, como é o caso do protótipo da Unicamp, o grupo pretende, para reduzir o custo, desenvolver um software e uma minigarra mecânica que poderiam ser implantados em qualquer cadeira motorizada com joystick já existente no mercado.

“Nossa ideia é que o usuário possa baixar o software que fará o processamento das expressões faciais em seu notebook. O computador ficará conectado a essa minigarra por meio de uma porta USB. Quando ele fizer as expressões-chave, como um beijo, um meio sorriso, franzir o nariz, inflar as bochechas ou levantar as sobrancelhas, o software manda o comando para a garra e essa movimenta o joystick. Dessa forma, não mexemos na estrutura da cadeira e ela não perde a garantia”, explicou Pinheiro.

O pesquisador estima que um protótipo do sistema, batizado de Wheelie, estará pronto até o início de 2017. Dois desafios deverão ser vencidos nesse período: melhorar a classificação das expressões faciais, de modo a evitar que a interpretação dos sinais fique prejudicada por diferenças na iluminação ambiente, e garantir que apenas as expressões faciais do usuário da cadeira sejam capturadas quando houver outras pessoas próximas.

“A tecnologia também poderá, no futuro, ajudar na recuperação de pessoas que sofreram AVC ou outro tipo de lesão cerebral, pois o paciente poderá observar o avanço na realização de movimentos e ficará mais motivado a seguir o tratamento”, disse Pinheiro.

Fonte: Karina Toledo, Agência Fapesp. Imagem: Reprodução.

Em suas publicações, o Portal Tech4Health da Rede T4H tem o único objetivo de divulgação científica, tecnológica ou de informações comerciais para disseminar conhecimento. Nenhuma publicação do Portal Tech4Health tem o objetivo de aconselhamento, diagnóstico, tratamento médico ou de substituição de qualquer profissional da área da saúde. Consulte sempre um profissional de saúde qualificado para a devida orientação, medicação ou tratamento, que seja compatível com suas necessidades específicas.

Os comentários constituem um espaço importante para a livre manifestação dos usuários, desde que cadastrados no Portal Tech4Health e que respeitem os Termos e Condições de Uso. Portanto, cada comentário é de responsabilidade exclusiva do usuário que o assina, não representando a opinião do Portal Tech4Health, que pode retirar, sem prévio aviso, comentários postados que não estejam de acordo com estas regras.

Leia também

2025 tech4health t4h | Notícias, Conteúdos e Rede Profissional em Saúde e Tecnologias

Entre em Contato

Enviando
ou

Fazer login com suas credenciais

ou    

Esqueceu sua senha?

ou

Create Account