https://frosthead.com

O membro protético 'vê' o que seu usuário quer agarrar

Quando você pega algo, sua mão faz a maior parte do trabalho. Seu cérebro apenas diz: “vá, você não se preocupa com o que acontece”. Mas com uma prótese, mesmo a mais avançada, essa ação requer muito mais intencionalidade. Como resultado, muitos pacientes abandonam seus membros de ponta.

Conteúdo Relacionado

  • Como redes neurais de hackers podem ajudar os amputados a quebrar um ovo sem falhas
  • Obtendo a prótese é fácil, em comparação com obtê-lo para fazer o que você quer

As próteses modernas recebem comandos na forma de sinais elétricos dos músculos aos quais estão ligados. Mas mesmo as melhores próteses não podem fazer muito ainda. Os usuários precisam de um longo período de treinamento para se acostumar com o membro. Eles geralmente podem se mover apenas de maneiras limitadas, e os usuários precisam alternar manualmente entre as alças para realizar diferentes tarefas - por exemplo, abrir uma porta versus apertar e virar uma chave. Tudo somado, significa que a mão não pode funcionar perfeitamente com o cérebro.

Uma ferramenta que pode ajudar a resolver esse problema é a visão computacional. Pesquisadores da Universidade de Newcastle montaram uma webcam em uma mão protética, conectaram-na a uma rede neural de aprendizagem profunda e deram os dispositivos a dois amputados cujos braços foram amputados acima do pulso, mas abaixo do cotovelo. O computador usou a câmera para ver o que o usuário estava procurando e ajustou automaticamente o aperto da prótese.

Os resultados, até agora, foram promissores. Em um artigo no Journal of Neural Engineering, a equipe de Newcastle informou que os usuários tiveram taxas de sucesso acima de 80% para pegar e mover objetos.

"Se pudermos melhorar isso, obter cem por cento, seria muito mais confiável usar a mão para os amputados", diz Ghazal Ghazaei, estudante de doutorado em Newcastle e principal autora do artigo. usado na vida real, deve ser sem erro ”.

O dispositivo em si era uma prótese chamada i-limb ultra, e a webcam era um Logitech Quickcam Chat de baixa resolução e baixo custo. A verdadeira inovação foi como a equipe de Ghazaei desenvolveu um esquema de aprendizado de computador para usar as informações da webcam.

O software reconhece padrões na forma do objeto a ser levantado e os classifica em categorias com base na aderência necessária para efetivamente compreendê-los. Para ensinar ao computador esta técnica, Ghazaei alimentou 72 imagens cada, tiradas em incrementos de 5 graus, de 500 objetos. O software filtra os objetos por seus recursos e aprende, por meio de tentativa e erro, quais se encaixam em quais categorias.

Então, quando a prótese é apresentada com um objeto, a rede classifica a imagem de baixa resolução com base em sua forma ampla e abstrata. Não precisa ser algo que o sistema tenha visto antes - a forma geral do objeto é suficiente para dizer à mão que pegada usar. Ghazaei e sua equipe usaram quatro tipos de pegada, incluindo pinça (dois dedos), tripé (três pontas dos dedos), palmar neutro (como segurar uma xícara de café) e pronar palmar (onde a palma da mão está voltada para baixo).

A visão computacional tem sido usada em mãos robóticas antes, tanto em próteses quanto em robôs industriais. Mas esses esforços envolveram objetos de tamanho e formato padrão, como em um ambiente de fabricação ou algoritmos mais lentos. O sistema desenvolvido em Newcastle foi capaz de passar por este processo rápido o suficiente para classificar corretamente os objetos em 450 microssegundos, ou cerca de 1/2000 de segundo. "A principal diferença é o tempo que leva para fornecer uma compreensão e fazer a tarefa", diz Ghazaei. “Para alguns deles, são cerca de quatro segundos e alguns deles precisam de vários instantâneos. Para nós, é apenas um instantâneo e é muito rápido ”.

Os impactos dessa tecnologia vão muito além da coleta de utensílios domésticos. Os sistemas de imagem podem ajudar as pernas protéticas a saber até que ponto estão longe do chão e ajustar-se de acordo, por exemplo. O que ambas as instâncias têm em comum é um sistema robótico que trabalha em conjunto com o cérebro.

"A idéia principal é ter uma interação entre o dispositivo robótico e o humano, adicionando alguma inteligência ao sistema robótico", diz Dario Farina, professor de engenharia de neurorreabilitação do Imperial College London, cujo laboratório estuda interfaces neuromusculares para corpos e cérebros e os dispositivos aos quais eles se conectam.

"Não é só o paciente que controla, com seu cérebro e através da interface neural, a prótese, mas é também o paciente que é auxiliado por uma segunda entidade inteligente, que é montada na prótese e que consegue enxergar o meio ambiente". diz Farnia, que não esteve envolvido no estudo de Newcastle: "O principal desafio é poder compartilhar o controle entre o sistema humano e o sistema de inteligência".

É uma incursão precoce na fusão da inteligência artificial com o cérebro, descobrindo quais ações funcionam melhor para cada um sem criar conflito. Ghazaei encontrou esse problema; ela ainda está trabalhando para gerenciar quanto do movimento amplo é controlado pelo computador da prótese, em comparação com as ações do usuário. Neste momento, o usuário aponta a prótese para o item, induz a uma foto, e então o braço escolhe o aperto e agarra.

É apenas um dos muitos desafios remanescentes. Neste momento, o sistema não consegue entender objetos longos que se estendem fora da vista. Tem problemas com fundos lotados. Às vezes, ele interpreta um objeto mais distante como menor e mais próximo. E Ghazaei diz que aumentar o número de tipos de compreensão para 10 ou 12 é outro objetivo. Mas já, ela diz, os dois usuários do estudo apreciaram o aumento no desempenho e a simplicidade que ele empresta ao ato básico de pegar alguma coisa.

O membro protético 'vê' o que seu usuário quer agarrar