https://frosthead.com

Dentro do Laboratório Humano Aumentado Futurista do Professor Nanayakkara

À medida que as interfaces de usuário vão, manipular um clicker flexível e habilitado para Bluetooth do tamanho de um chiclete é uma das maneiras mais estranhas de selecionar, mover, clicar ou controlar um computador. Mas para certas situações, isso faz muito sentido. Digamos que você esteja andando de bicicleta e queira atender uma chamada em seu fone de ouvido ou procure direções, mas não queira tirar as mãos das barras. Ou, se você estiver paralisado e precisar dirigir uma cadeira de rodas elétrica, um protetor direcional discreto em sua boca será muito menos perceptível do que um dispositivo padrão de controle de boca ou queixo, ou mesmo um que você pressione com o ombro.

“Como podemos reproduzir essas interações enquanto mantemos a discrição da interface?”, Diz Pablo Gallego, um dos inventores do dispositivo, chamado ChewIt. “As pessoas não sabem dizer se você está interagindo com o ChewIt, ou se você tem chicletes ou gomas na boca. Ou talvez um caramelo.

Gallego resolveu essa idéia, determinado a refiná-la e criar um protótipo em busca de seu mestrado em engenharia na Universidade de Auckland, na Nova Zelândia. Pesquisas mostraram que humanos podem reconhecer formas distintas em suas bocas, muito parecido com as pontas dos dedos. E ele sabia que podemos tolerar goma e outros objetos estranhos. O que se seguiu foram anos de trabalho, otimizando o fator de forma. Um objeto redondo não funcionaria; o usuário não sabia dizer como estava orientado. Tinha que ser grande o suficiente para controlar, mas pequeno o suficiente para se enfiar na bochecha. Juntamente com o colega de pesquisa Denys Matthies, Gallego fez ChewIt fora de uma bolha assimétrica de resina de polímero que continha uma placa de circuito com um botão que pode controlar e mover uma cadeira.

ChewIt prototype.jpg Este protótipo do ChewIt mostra a resina de polímero e a placa de circuito. (Universidade de Auckland)

Gallego e Matthies conceberam e construíram ChewIt no Augmented Human Lab da Universidade de Auckland, um professor de engenharia do grupo de pesquisa Suranga Nanayakkara reunido para inventar ferramentas projetadas para adaptar a tecnologia para uso humano, e não o contrário. Há um desencontro, segundo Nanayakkara, entre o que nossa tecnologia faz e como ela interage conosco. Nós não deveríamos ter que aprender; deveria nos aprender.

"A tecnologia poderosa, mal projetada, fará com que os usuários se sintam deficientes", diz Nanayakkara. “A tecnologia poderosa com a interface homem-máquina certa fará com que as pessoas se sintam fortalecidas, e isso fará com que a interação entre humanos e humanos fique em primeiro plano [e] mantenha a tecnologia em segundo plano. Isso ajuda a aproveitar todo o potencial da tecnologia. ”

Nanayakkara se esforçou para garantir que estudantes e cientistas em seu prolífico laboratório pudessem criar com base em seus interesses e colaborar uns com os outros em suas ideias. A variedade de tecnologias que eles desenvolveram é notável. Há um tapete de boas-vindas que reconhece os residentes com base em sua pegada, incluindo o peso do usuário e os perfis de desgaste das solas, e destranca a porta para eles. Há um treinador de memória pessoal que se envolve com o áudio às vezes quando reconhece que o usuário tem tempo e atenção para praticar. Há um taco de críquete inteligente que ajuda os usuários a praticarem a pegada e o swing. Há um detector de degraus para auxiliares de locomoção para idosos, porque os FitBits e smartwatches muitas vezes evitam os passos quando as pessoas estão usando rolos.

E há o GymSoles. Essas palmilhas inteligentes agem como um treinador de levantamento de peso, ajudando os usuários a manter a forma correta e postura durante agachamentos e deadlifts. "Eles têm posturas muito distintas", diz Samitha Elvitigala, que está construindo o dispositivo como parte de sua candidatura ao doutorado. "Há alguns movimentos sutis que você deve seguir, caso contrário, você vai acabar com ferimentos." Sensores nas solas rastreiam o perfil de pressão dos pés, calculam o centro de pressão e comparam com o padrão que deveria ser - digamos, se o levantador de peso está inclinado muito para trás ou muito para frente. Em seguida, o dispositivo fornece feedback tátil na forma de vibrações sutis, indicando como o levantador deve se alinhar. Ajustando sua inclinação e o posicionamento de seus pés, pernas e quadris corretamente, o corpo inteiro cai na forma apropriada. Elvitigala ainda está refinando o projeto e analisando como ele poderia ser usado para outras aplicações, como melhorar o equilíbrio em pacientes com Parkinson ou vítimas de derrame.

A origem do Laboratório Humano Aumentado remonta a uma experiência que Nanayakkara teve no ensino médio. Trabalhando com alunos de uma escola residencial para surdos, ele percebeu que todos, menos ele, estavam se comunicando perfeitamente. Isso o fez repensar a comunicação e as habilidades. "Não é sempre sobre a correção de incapacidade, é sobre a conexão com as pessoas", diz ele. “Senti que precisava de algo para estar conectado a eles”. Mais tarde, ele percebeu um problema semelhante na comunicação com computadores.

Ele aprendeu a pensar nisso como um problema de design enquanto estudava engenharia, e depois como pós-doutorando no grupo Fluid Interfaces da cientista de computação Pattie Maes, parte do MIT Media Lab. Como o Augmented Human Lab, o grupo Fluid Interfaces constrói dispositivos projetados para melhorar a capacidade cognitiva por meio de interfaces de computador perfeitas.

"Os dispositivos desempenham um papel em nossas vidas e, no momento, o impacto deles é muito negativo, no bem-estar físico, no bem-estar social", diz Maes. "Precisamos encontrar maneiras de integrar melhor os dispositivos em nossas vidas físicas, nossas vidas sociais, para que eles sejam menos prejudiciais e tenham menos efeitos negativos".

O objetivo, diz Maes, não é fazer com que os computadores façam tudo por nós. Estaremos melhor se puderem nos ensinar a fazer melhor as coisas e nos ajudar como fazemos. Por exemplo, seus alunos projetaram um par de óculos que rastreiam os movimentos dos olhos dos usuários e o EEG, e os lembram a se concentrar em uma palestra ou em uma leitura quando a atenção deles está sinalizando. Outro usa a realidade aumentada para ajudar os usuários a mapearem suas memórias nas ruas enquanto caminham, uma técnica de memorização espacial que os defensores da memória chamam de “palácio da memória”. Compare isso com o Google (talvez você pesquise “fantasias de Halloween” em vez de ser criativo, diz Maes. ) ou o Google Maps, que substituiu em grande parte a nossa necessidade de reter informações ou entender onde estamos.

“Muitas vezes esquecemos que quando usamos algum serviço como esse, isso nos aumenta, sempre há um custo”, diz ela. “Muitos dos dispositivos e sistemas que construímos aumentam a pessoa com certas funções. Mas sempre que você aumenta alguma tarefa ou habilidade, às vezes você também perde um pouco dessa habilidade. ”

Talvez o dispositivo mais conhecido de Nanayakkara, o FingerReader, tenha começado em seu tempo no MIT. Projetado para deficientes visuais, o FingerReader é simples em sua interface - aponte a câmera em anel para algo, clique e o dispositivo informará o que é, ou leia o texto, através de um conjunto de fones de ouvido.

FingerReader seguiu Nanayakkara para Cingapura, onde começou o Laboratório Humano Aumentado na Universidade de Tecnologia e Design de Cingapura, e depois para a Universidade de Auckland, onde mudou sua equipe de 15 pessoas em março de 2018. * Nesse tempo, ele e sua equipe os alunos refinaram o FingerReader e fizeram versões subsequentes. Como muitos dos outros dispositivos, o FingerReader é patenteado (provisoriamente) e pode um dia encontrar seu caminho para o mercado. (Nanayakkara fundou uma startup chamada ZuZu Labs para produzir o dispositivo e está produzindo um teste de algumas centenas de peças.)

De certa forma, a expansão de assistentes virtuais como Siri, Alexa e Google Assistant está lidando com problemas semelhantes. Eles permitem uma interface mais natural, uma comunicação mais natural entre as pessoas e seus computadores onipresentes. Mas para Nanayakkara, eles não evitam seus dispositivos, eles apenas oferecem uma nova ferramenta para complementá-los.

“Essas tecnologias facilitadoras são ótimas, elas precisam acontecer, é como o campo avança”, diz ele. “Mas alguém tem que pensar em como melhor aproveitar todo o poder deles. Como posso aproveitar isso para criar a próxima interação homem-máquina mais excitante? ”

* Nota do Editor, 15 de abril de 2019: Uma versão anterior deste artigo afirmava incorretamente que Suranga Nanayakkara mudou sua equipe da Universidade de Tecnologia e Design de Cingapura para a Universidade de Auckland em maio de 2018, quando, na verdade, foi em março de 2018. A história foi editada para corrigir esse fato.

Dentro do Laboratório Humano Aumentado Futurista do Professor Nanayakkara