O que torna Tom Hanks o Tom Hanks? Como seria Tom Hanks discursando como George W. Bush?
Cientistas da computação reconstruíram modelos 3-D de celebridades como Tom Hanks por intermédio de grandes coleções de fotografias na Internet. Os modelos também podem ser controlados e animados por vídeos de uma outra pessoa.
Pesquisadores da Universidade de Washington (UW) demonstraram ser possível para os algoritmos de aprendizagem de máquina capturar a "persona" e criar um modelo digital de uma pessoa muito fotografada como Tom Hanks, partindo do seu grande número de imagens disponíveis na Internet. Com dados visuais suficientes para a mineração, os algoritmos também conseguem animar o modelo digital de Tom Hanks de forma que ele faça um discurso que o ator de verdade nunca realizou.
Tom Hanks aparece em diversos papéis no quais actua ao longo dos anos, encarnando jovens ou velhos, esperto ou retardado (lembra-se de Forrest Gump?). No entanto, sempre conseguimos reconhecê-lo como Tom Hanks. Por quê? É a sua aparência? Seus maneirismos? A maneira como ele se move?
A tecnologia baseia-se em avanços na reconstrução tridimensional da face, no rastreamento, no alinhamento, na modelagem multi-textura, e no puppeteering (técnica de controle de modelos digitais de modo análogo ao usado por titereiros em marionetes) que foram desenvolvidos ao longo dos últimos cinco anos por um grupo de pesquisa liderado pelo professor assistente de ciência da computação e engenharia da UW, Ira Kemelmacher-Shlizerman. Os novos resultados serão apresentados em um artigo de acesso aberto na Conferência Internacional sobre Visão Computacional no Chile em 16 de dezembro de 2015.
Entre os mais recentes avanços da equipe incluem a capacidade de transferir expressões e o modo como uma determinada pessoa fala com o rosto de outra pessoa - por exemplo, o mapeamento de maneirismos do ex-presidente George W. Bush para os rostos de outros políticos e celebridades.
É um passo em direção a um grande objetivo compartilhado pelos pesquisadores da visão de computador UW: a criação de personas digitais totalmente interativos, tridimensionais a partir de álbuns de fotos de família e vídeos, coleções históricas ou outros recursos visuais existentes.
E com as tecnologias de Realidade Virtual e Realidade Aumentada se desenvolvendo, eles consideram usar fotografias de família e vídeos para criar um modelo interativo de um parente vivo no exterior ou um avô distante, ao invés de uma simples sessão de Skype em duas dimensões.
Você poderia um dia ser capaz de colocar em um par de óculos de realidade aumentada e ter um modelo 3-D de sua mãe no sofá. Essa tecnologia ainda não existe - a tecnologia de exibição está avançando muito rápido - mas como você realmente recriar sua mãe em três dimensões?
Kemelmacher-Shlizerman. Autor sênior
Um dia, a tecnologia de reconstrução poderia dar mais um passo, dizem os pesquisadores.
Tecnologias para criar modelos tridimensionais detalhados existentes para hologramas ou personagens de filmes digitais como Benjamin Button muitas vezes dependem de trazer uma pessoa em um estúdio elaborado. Eles meticulosamente capturam todos os ângulos da pessoa e a forma como eles se movem - algo que não pode ser feito em uma sala de estar.
Outras abordagens ainda necessitam de uma pessoa ser digitalizada por uma câmera para criar avatares básicos para videogames ou outros ambientes virtuais. Mas os especialistas de visão computacional da UW querem reconstruir digitalmente uma pessoa com base unicamente em uma coleção aleatória de imagens existentes.
Para reconstruir celebridades como Tom Hanks, Barack Obama e Daniel Craig, os algoritmos de aprendizado de máquina mineram um mínimo de 200 imagens da Internet tomadas ao longo do tempo em vários cenários e poses - um processo conhecido como aprendizagem "in the wild".
Suwajanakorn mais recentemente tem desenvolvido técnicas para capturar texturas dependentes de expressão - pequenas diferenças que ocorrem quando uma pessoa sorri ou olha intrigado ou muda a sua boca, por exemplo.
Ao manipular as condições de iluminação em diferentes fotografias, ele desenvolveu uma nova abordagem para mapear densamente as diferenças de características e expressões de uma pessoa no rosto de outra pessoa. Esse avanço permite que a equipe "controle" o modelo digital com um vídeo de uma outra pessoa, e pode potencialmente permitir uma série de novas animações e aplicações de realidade virtual.
[Visto no Brasil Acadêmico]
Pesquisadores da Universidade de Washington (UW) demonstraram ser possível para os algoritmos de aprendizagem de máquina capturar a "persona" e criar um modelo digital de uma pessoa muito fotografada como Tom Hanks, partindo do seu grande número de imagens disponíveis na Internet. Com dados visuais suficientes para a mineração, os algoritmos também conseguem animar o modelo digital de Tom Hanks de forma que ele faça um discurso que o ator de verdade nunca realizou.
Tom Hanks aparece em diversos papéis no quais actua ao longo dos anos, encarnando jovens ou velhos, esperto ou retardado (lembra-se de Forrest Gump?). No entanto, sempre conseguimos reconhecê-lo como Tom Hanks. Por quê? É a sua aparência? Seus maneirismos? A maneira como ele se move?
Uma resposta para o que faz com que Tom Hanks se pareça com Tom Hanks pode ser demonstrado com um sistema de computador que imita o que Tom Hanks fará.
Supasorn Suwajanakorn. Principal autor do estudo e estudante graduado em ciência da computação e engenharia da UW
A tecnologia baseia-se em avanços na reconstrução tridimensional da face, no rastreamento, no alinhamento, na modelagem multi-textura, e no puppeteering (técnica de controle de modelos digitais de modo análogo ao usado por titereiros em marionetes) que foram desenvolvidos ao longo dos últimos cinco anos por um grupo de pesquisa liderado pelo professor assistente de ciência da computação e engenharia da UW, Ira Kemelmacher-Shlizerman. Os novos resultados serão apresentados em um artigo de acesso aberto na Conferência Internacional sobre Visão Computacional no Chile em 16 de dezembro de 2015.
O processo de criar uma animação-marionete de um modelo 3D controlada por um vídeo do rosto de outra pessoa. |
Entre os mais recentes avanços da equipe incluem a capacidade de transferir expressões e o modo como uma determinada pessoa fala com o rosto de outra pessoa - por exemplo, o mapeamento de maneirismos do ex-presidente George W. Bush para os rostos de outros políticos e celebridades.
É um passo em direção a um grande objetivo compartilhado pelos pesquisadores da visão de computador UW: a criação de personas digitais totalmente interativos, tridimensionais a partir de álbuns de fotos de família e vídeos, coleções históricas ou outros recursos visuais existentes.
E com as tecnologias de Realidade Virtual e Realidade Aumentada se desenvolvendo, eles consideram usar fotografias de família e vídeos para criar um modelo interativo de um parente vivo no exterior ou um avô distante, ao invés de uma simples sessão de Skype em duas dimensões.
Você poderia um dia ser capaz de colocar em um par de óculos de realidade aumentada e ter um modelo 3-D de sua mãe no sofá. Essa tecnologia ainda não existe - a tecnologia de exibição está avançando muito rápido - mas como você realmente recriar sua mãe em três dimensões?
Kemelmacher-Shlizerman. Autor sênior
Um dia, a tecnologia de reconstrução poderia dar mais um passo, dizem os pesquisadores.
Imagine ser capaz de ter uma conversa com alguém que você não pode realmente encontrar-se pessoalmente - LeBron James, Barack Obama, Charlie Chaplin - e interagir com eles. Estamos tentando chegar lá através de uma série de etapas de investigação. Um dos verdadeiros testes é que você pode tê-los dizer coisas que eles não disseram, mas ele ainda sentiremos que são eles? Este trabalho está demonstrando essa capacidade.
Steve Seitz. Co-autor e professor de ciências da computação e engenharia da UW
Tecnologias para criar modelos tridimensionais detalhados existentes para hologramas ou personagens de filmes digitais como Benjamin Button muitas vezes dependem de trazer uma pessoa em um estúdio elaborado. Eles meticulosamente capturam todos os ângulos da pessoa e a forma como eles se movem - algo que não pode ser feito em uma sala de estar.
Outras abordagens ainda necessitam de uma pessoa ser digitalizada por uma câmera para criar avatares básicos para videogames ou outros ambientes virtuais. Mas os especialistas de visão computacional da UW querem reconstruir digitalmente uma pessoa com base unicamente em uma coleção aleatória de imagens existentes.
Para reconstruir celebridades como Tom Hanks, Barack Obama e Daniel Craig, os algoritmos de aprendizado de máquina mineram um mínimo de 200 imagens da Internet tomadas ao longo do tempo em vários cenários e poses - um processo conhecido como aprendizagem "in the wild".
Nós perguntamos: 'Você pode tirar fotos da Internet ou sua coleção de fotos pessoais e animar um modelo sem ter essa pessoa interagir com uma câmera? ' Ao longo dos anos nós criamos algoritmos que trabalham com este tipo de dados sem restrições, o que é um grande negócio.
Kemelmacher-Shlizerman
Suwajanakorn mais recentemente tem desenvolvido técnicas para capturar texturas dependentes de expressão - pequenas diferenças que ocorrem quando uma pessoa sorri ou olha intrigado ou muda a sua boca, por exemplo.
Ao manipular as condições de iluminação em diferentes fotografias, ele desenvolveu uma nova abordagem para mapear densamente as diferenças de características e expressões de uma pessoa no rosto de outra pessoa. Esse avanço permite que a equipe "controle" o modelo digital com um vídeo de uma outra pessoa, e pode potencialmente permitir uma série de novas animações e aplicações de realidade virtual.
Como você mapeia o desempenho de uma pessoa no rosto de outra pessoa, sem perder a sua identidade? Esse é um dos aspectos mais interessantes deste trabalho. Nós mostramos que você pode ter expressões e boca e movimentos de George Bush, mas ele ainda se parecer com George Clooney.Fonte: Kurzweil Accelerating Intelligence
Steve Seitz
[Visto no Brasil Acadêmico]
Comentários