Não adianta mentir. Computadores já interpretam gestos

O Eclipse Solar de 2017
Voz dos Alienados 96

Eu me lembro de um antigo livro chamado O Corpo Fala: A linguagem silenciosa da comunicação não-verbal, de Pierre Weil. Neste livro ele aborda situações e como reagimos instintivamente, de forma que pudesse ser interpretado como mensagens. Sacam o seriado Lie To Me? Pois, é. Daí fica o pensamento. E se nós montássemos um banco de dados com situações e gestos, analisando o significado e montando uma espécie de tradutor de linguagem corporal?

Pesquisadores tiveram esta mesma ideia, e desenvolveram um sistema em que um computador fosse capaz de compreender poses, gestos e movimentos do corpo de várias pessoas por meio de um vídeo em tempo real.

O dr. Yaser Sheikh é professor-adjunto de Robótica na Universidade Carnegie Mellon. Seu foco de pesquisa é analisar o dinamismo em cenas de câmeras móveis. Em particular se concentrando na reconstrução de movimentos dinâmicos, na análise do comportamento humano, na estimativa do movimento não-rígido e na modelagem das câmeras em movimento no espaço-tempo.

Tendi nada.

Ele estuda como um computador pode interpretar o que acontece simultaneamente com o acontecimento em questão, retornando dados. No caso, ele colocou várias câmeras para filar pessoas e seus trejeitos, e desenvolvendo com seu pessoal um sistema tradutor, onde o computador vai dizer o que enfiar o dedo anelar no nariz enquanto pula num pé só e fica-se estrebuchando significa. Muitos maridos descobriram essa pesquisa e querem um que traduza “Ok, você que sabe” das esposas. O dr. Yaser preferiu trabalhar com coisas possíveis de se fazer.

A técnica desenvolvida contou com a ajuda do Panoptic Studio, um sistema massivo de múltipla visualização, que nada mais é que um gigantesco domo com 480 câmeras de vídeo. É um um sistema modular, capaz de dar conta de 480 sinais de entrada em vídeo, devidamente sincronizados. É lindo de tão esquisito.

Se o sistema conseguir detectar as nuances da comunicação não-verbal entre os indivíduos, podemos ter uma imensa gama de aplicações, como melhorar a interface robôs-humanos, determinar o momento exato que um pedestre vai colocar os pés fora da calçada, estudo de síndromes como o autismo e doenças comportamentais e até saber se a loira do 302 está só sendo gentil ou realmente quer alguma coisa com a sua esposa quando vive indo na sua casa quando você não está e pega umas xícaras de açúcar. As demais possibilidades também são muitas, muito além de você stalkeando vizinhas para saber das intenções delas com sua esposa. Desde análise de jogadas de futebol, até detectores de mentira.

Claro, nem tudo é perfeito. O movimentos das mãos é extremamente traiçoeiro para o sistema, e isso sem levar em conta que ela não foi testada com italianos.

Ainda não tem artigo publicado, mas Yaser e seu pessoal irão apresentar seu trabalho na CVPR 2017, a Computer Vision and Pattern Recognition Conference, a ser realizada entre 21 e 26 de julho em Honolulu, no Havaí.

O Eclipse Solar de 2017
Voz dos Alienados 96

Sobre André Carvalho

και γνωσεσθε την αληθειαν και η αληθεια ελευθερωσει υμας

Quer opinar? Ótimo! Mas leia primeiro a nossa Polí­tica de Comentários, para não reclamar depois. Todos os comentários necessitam aprovação para aparecerem. Não gostou? Só lamento!

  • Claudio Roberto Cussuol

    Primeira coisa pra ensinar ao sistema:
    “Ok, você que sabe” NUNCA significa que é realmente VOCÊ quem sabe.
    Na prática significa: O que quer que você escolha será solenemente ignorado para valer o que ELA quer. Nem tente decidir alguma coisa depois de um “Ok, você que sabe”.

  • Agora que o pessoal que tem medo da IA fica com pânico nível over 9000 (se é que já não está).

    E por falar em Pierre Weil, aqui em Campinas tem uma escolinha (de ensino infantil, como se poderia imaginar) que tem o nome dele. Para um pedagogo ganhar destaque positivo aqui é porque ele devia ser bom mesmo. Devia ser a antítese de Vygotsky, Piaget, Emilia Ferrero e Paulo Freire