https://frosthead.com

Um dia seu telefone saberá se você está feliz ou triste

Análise facial no trabalho. Imagem cortesia de Affectiva

Quanto mais gastamos com nossos celulares, laptops e tablets, ainda é um relacionamento unidirecional. Nós agimos, eles respondem. Claro, você pode conversar com a Siri no seu iPhone e, embora seja rápida, dificilmente se qualifica como brincadeira lúdica. Você faz perguntas, ela dá respostas.

Mas e se esses dispositivos pudessem realmente ler nossas emoções? E se eles pudessem interpretar todos os pequenos gestos, todas as dicas faciais para que pudessem avaliar nossos sentimentos, assim como - talvez melhor que - nossos melhores amigos? E então eles respondem, não com informação, mas o que pode passar por empatia.

Ainda não chegamos lá, mas estamos nos movendo rapidamente nessa direção, impulsionados por um campo da ciência conhecido como computação afetiva. Ele é construído em torno de software que pode medir, interpretar e reagir aos sentimentos humanos. Isso pode envolver a captura de seu rosto na câmera e a aplicação de algoritmos em todos os aspectos de suas expressões para tentar entender cada risadinha e sorriso no queixo. Ou pode envolver a leitura do seu nível de aborrecimento ou prazer, acompanhando a velocidade ou a força com que você toca um texto ou se usa emoticons. E se você parece muito agitado - ou bêbado - você pode receber uma mensagem sugerindo que você pode querer esperar pressionando o ícone de envio.

Vendo como é difícil para nós humanos entendermos outros humanos, essa noção de máquinas de programação para ler nossos sentimentos não é um desafio pequeno. Mas está aumentando a velocidade, à medida que os cientistas aprimoram seu foco no ensino de dispositivos de inteligência emocional.

Cada movimento que você faz

Um dos melhores exemplos de como a computação afetiva pode funcionar é a abordagem de uma empresa chamada apropriadamente Affectiva. Ele registra expressões e, em seguida, usando algoritmos proprietários, examina os sinais faciais, digitando em um banco de dados de quase 300 milhões de quadros de elementos de rostos humanos. O software foi refinado ao ponto de associar várias combinações desses elementos a emoções diferentes.

Quando foi desenvolvido no Laboratório de Mídia do MIT por dois cientistas, Rosalind Picard e Rana el Kaliouby, o software, conhecido como Affdex, foi projetado com o objetivo de ajudar crianças autistas a se comunicar melhor. Mas claramente tinha muito potencial no mundo dos negócios, e por isso o MIT transformou o projeto em uma empresa privada. Desde então, levantou US $ 21 milhões de investidores.

Então, como o Affdex está sendo usado? Na maioria das vezes, está assistindo pessoas assistindo comerciais. Ele registra as pessoas quando elas visualizam anúncios em seus computadores - não se preocupe, você precisa optar por isso - e, em seguida, com base em seu banco de dados de dicas faciais, avalia como os espectadores se sentem em relação ao que viram. E o software não fornece apenas um veredicto geral positivo ou negativo; Ele quebra as reações dos espectadores, segundo a segundo, o que permite aos anunciantes identificar, com mais precisão do que nunca, o que funciona em um comercial e o que não funciona.

Também é capaz de ver que, enquanto as pessoas dizem uma coisa, seus rostos podem dizer outra. Durante uma entrevista com o Huffington Post, el Kaliouby deu o exemplo da resposta a um anúncio de loção para o corpo que foi ao ar na Índia. Durante o comercial, um marido toca de brincadeira o estômago exposto da esposa. Depois, várias mulheres que assistiram disseram que acharam a cena ofensiva. Mas, de acordo com el Kaliouby, os vídeos dos telespectadores mostraram que cada uma das mulheres respondeu à cena com o que ela chamou de "sorriso de prazer".

Ela vê oportunidades além do mundo da publicidade. As smart TVs podem ser muito mais inteligentes sobre o tipo de programas que gostamos se forem capazes de desenvolver um banco de memória de nossas expressões faciais. E os políticos seriam capazes de obter reações em tempo real para cada linha que proferem durante um debate e serem capazes de adaptar suas mensagens na hora. Além disso, diz El Kaliouby, pode haver aplicações de saúde. Ela diz que é possível ler a frequência cardíaca de uma pessoa com uma webcam, analisando o fluxo de sangue em seu rosto.

“Imagine ter uma câmera ligada o tempo todo monitorando sua frequência cardíaca”, disse ela ao Huffington Post, “para que ela possa dizer se algo está errado, se você precisa melhorar ou se está franzindo a testa. tempo e necessidade de relaxar. ”

Então, o que você acha, assustador ou legal?

Dispositivos de rastreamento

Aqui estão cinco outras maneiras pelas quais as máquinas estão reagindo às emoções humanas:

  • E como foi o meu dia ?: Pesquisadores da Universidade de Cambridge desenvolveram um aplicativo para dispositivos móveis Android que monitora o comportamento de uma pessoa durante o dia, usando chamadas e textos, além de postagens de mídia social para rastrear seu humor. O aplicativo, chamado “Emotion Sense”, foi projetado para criar uma “jornada de descoberta”, permitindo que os usuários tenham um registro digital dos picos e vales de suas vidas diárias. Os dados podem ser armazenados e usados ​​para sessões de terapia.
  • E esta sou eu depois da terceira xícara de café: Depois, há Xpression, outro aplicativo de rastreamento de humor criado por uma empresa britânica chamada EI Technologies. Em vez de confiar em pessoas em terapia para manter diários de suas mudanças de humor, o aplicativo escuta mudanças na voz de uma pessoa para determinar se ela está em um dos cinco estados emocionais: calma, feliz, triste, zangada ou ansiosa / assustada. Em seguida, ele mantém uma lista dos humores de uma pessoa e quando ela muda. E, se a pessoa desejar, esse registro pode ser enviado automaticamente para um terapeuta no final de cada dia.
  • E se você simplesmente odeia digitar em um telefone? : Os cientistas da Samsung estão trabalhando em software que irá avaliar sua disposição de como você digita seus tweets no seu smartphone. Ao analisar a rapidez com que você digita, quanto o telefone treme, com que freqüência você retrocede a erros e quantos emoticons você usa, o telefone deve ser capaz de determinar se você está irritado, surpreso, feliz, triste, com medo ou enojado. E com base na conclusão que ele tira, pode incluir com seu tweet o emoticon apropriado para alertar seus seguidores sobre o seu estado de espírito.
  • Só não convide seus amigos para assistir: usando um sensor usado no pulso e uma câmera de smartphone ao redor do pescoço, pesquisadores do MIT criaram um sistema de “lifelogging” que coleta imagens e dados projetados para mostrar a uma pessoa quais eventos representavam seus altos e baixos emocionais. O sistema, chamado Inside-Out, inclui um bio-sensor em uma pulseira que rastreia emoções elevadas através de cargas elétricas na pele, enquanto o smartphone rastreia a localização da pessoa e tira várias fotos por minuto. Então, no final do dia, o usuário pode ver suas experiências, juntamente com todos os dados do sensor.
  • Sua testa diz que você tem problemas: isso provavelmente era inevitável. Pesquisadores da Universidade do Sul da Califórnia criaram um terapeuta robótico que não apenas é programado para encorajar pacientes com “Uh-huhs” oportunos, mas também é especialista, usando sensores de movimento e análise de voz, na interpretação de todos os gestos e vozes de um paciente. inflexão durante uma sessão de terapia.

Bônus de vídeo: Quer ver como essa tendência de dispositivos que lêem emoções humanas pode ser bizarra? Confira esta promoção de Tailly, uma cauda mecânica que capta o seu nível de excitação ao rastrear a sua frequência cardíaca e, em seguida, sacode de forma adequada.

Mais de Smithsonian.com

Este novo robô tem um senso de toque

Cozinhando Com Robôs

Um dia seu telefone saberá se você está feliz ou triste