A captura de movimento móvel aprimora o rastreamento 3D em tempo real

A captura de movimento móvel aprimora o rastreamento 3D em tempo real

Num recente comunicado de imprensa de Universidade do Noroesteos pesquisadores anunciaram avanços significativos na tecnologia de captura de movimento móvel. Esta tecnologia visa democratizar o acesso a experiências imersivas em vários setores. Os sistemas tradicionais de captura de movimento, frequentemente usados ​​em filmes e jogos, exigem configurações caras e ambientes especializados, tornando-os inacessíveis a muitos usuários em potencial.

Estudar: Novo aplicativo realiza captura de movimento de corpo inteiro em tempo real com um dispositivo móvel. Crédito da imagem: Anton Vierietin/Shutterstock.com

A pesquisa liderada por Karan Ahuja, professor assistente de ciência da computação, concentra-se na utilização de unidades de medição inercial (IMUs) encontradas em dispositivos do dia a dia, como smartphones, para criar uma solução mais acessível e prática para captura de movimento em tempo real.

Fundo

A tecnologia de captura de movimento tem sido a base na criação de personagens CGI realistas em filmes, como Gollum em “O Senhor dos Anéis” e os Na’vi em “Avatar”. Esses sistemas normalmente envolvem atores vestindo trajes especializados equipados com numerosos sensores, que rastreiam seus movimentos em ambientes controlados. No entanto, os altos custos associados a essas configurações, muitas vezes superiores a US$ 100.000, limitam seu uso a estúdios e projetos bem financiados.

Além disso, as alternativas existentes, como o Microsoft Kinect, dependem de câmeras estacionárias que só podem capturar movimentos dentro de um campo de visão fixo, tornando-as impraticáveis ​​para aplicações móveis. A investigação de Ahuja procura abordar estas limitações, aproveitando as capacidades dos dispositivos de consumo, tornando assim a tecnologia de captura de movimento mais acessível a um público mais vasto.

O Estudo Atual

Para melhorar o desempenho dos IMUs para captura de movimento, a equipe de Ahuja desenvolveu um algoritmo personalizado de inteligência artificial (IA) de vários estágios. Este algoritmo foi treinado usando um grande conjunto de dados disponível publicamente que sintetizou medições IMU derivadas de dados de captura de movimento de alta qualidade. A abordagem envolveu a integração de acelerômetros, giroscópios e magnetômetros para medir com precisão o movimento e a orientação de um corpo. Ao refinar os dados coletados desses sensores, a equipe teve como objetivo melhorar a fidelidade da captura de movimento em dispositivos móveis, permitindo a estimativa da pose de corpo inteiro em tempo real e a tradução humana em 3D.

A pesquisa foi apresentada em uma sessão intitulada “Poses as Input” na conferência Interface Software and Technology em Pittsburgh. Ahuja, que dirige o Laboratório de Sensoriamento, Percepção, Computação Interativa e Experiência (SPICE) na Escola de Engenharia McCormick, enfatizou a importância de criar um sistema que qualquer pessoa com acesso à tecnologia comum de consumo possa utilizar. O objetivo era desenvolver um aplicativo fácil de usar que pudesse operar de forma eficaz em vários ambientes, expandindo assim os casos de uso potenciais para a tecnologia de captura de movimento.

Resultados e Discussão

Os resultados da pesquisa de Ahuja indicam que o algoritmo de IA personalizado aumenta significativamente a precisão da captura de movimento usando IMUs. O sistema demonstrou a capacidade de fornecer feedback em tempo real sobre os movimentos corporais, o que é crucial para aplicações em jogos, realidade virtual e outras experiências interativas. Ao utilizar os sensores já presentes em smartphones e wearables, a equipe de pesquisa criou com sucesso uma solução mais econômica que não compromete o desempenho.

As implicações desta tecnologia são vastas. Ele abre novos caminhos para criadores e desenvolvedores que antes não podiam pagar pelos sistemas tradicionais de captura de movimento. A capacidade de capturar movimento em tempo real usando dispositivos que muitas pessoas já possuem pode levar a aplicações inovadoras em áreas como educação, saúde e entretenimento. Por exemplo, os educadores poderiam utilizar esta tecnologia para criar experiências de aprendizagem interativas, enquanto os profissionais de saúde poderiam empregá-la para exercícios de reabilitação que requerem um acompanhamento preciso dos movimentos.

Além disso, a pesquisa destaca o potencial para novos avanços na captura de movimento móvel. À medida que a tecnologia continua a evoluir, ela pode incorporar recursos adicionais, como processamento de dados aprimorado e integração com sistemas de realidade aumentada (AR). Isto poderá levar a experiências ainda mais imersivas, onde os utilizadores podem interagir com conteúdos digitais em tempo real, melhorando tanto o entretenimento como as aplicações práticas.

Conclusão

Concluindo, a pesquisa de Ahuja representa um passo fundamental para tornar a tecnologia de captura de movimento mais acessível e prática para um público mais amplo. Ao aproveitar as capacidades das IMUs e desenvolver um algoritmo sofisticado de IA, a equipe criou um sistema que permite a captura de movimento em tempo real usando dispositivos do dia a dia.

Este avanço não só democratiza o acesso a experiências imersivas, mas também abre caminho para aplicações inovadoras em vários setores.

À medida que a tecnologia amadurece, ela promete transformar a forma como interagimos com o conteúdo digital, tornando-a uma área interessante para exploração e desenvolvimento futuros. O potencial da captura de movimento móvel para aumentar a criatividade e a interatividade em vários campos sublinha a importância da investigação e do investimento contínuos nesta área.

Referência do diário

Novo aplicativo realiza captura de movimento de corpo inteiro em tempo real com um dispositivo móvel. Comunicado de imprensa, Northwestern University. https://www.mccormick.northwestern.edu/news/articles/2024/10/new-app-performs-real-time-full-body-motion-capture-with-a-mobile-device/. Acessado em 15o Outubro de 2024.

FONTE DO ARTIGO