Beyoncé en el escenario el pasado 25 de julio en Cleveland (EE UU)
Beyoncé en el escenario el pasado 25 de julio en Cleveland (EE UU)

Cualquiera puede bailar como Beyoncé gracias a la inteligencia artificial

Una nueva técnica de 'machine learning' hace posible que una persona baile, corra o dispare como cualquier otra. Así, cambia la forma en que los cineastas, animadores y diseñadores de juegos crean la acción

Cuando escuchas música y quieres bailar tu cerebro manda señales que se pierden por el camino y nunca llegan a tus extremidades en el orden correcto. Te sientes fabricado de cemento armado. Se te ha olvidado cómo mover tus articulaciones. Se te hace bola bailar. No te preocupes: a pesar de todo ello, tú también puedes ser Beyoncé gracias al machine learning. Un programa de ordenador puede coger los movimientos de la diosa del pop y transferirlos a tu cuerpo para que aparezcas en la pantalla como si hubieras nacido para ganar Fama. La tecnología (casi) todo lo puede. Esta técnica que, a bote pronto, no parece muy útil para tu vida, ha cambiado la forma en que los cineastas, diseñadores de videojuegos y animadores desarrollan la acción de sus creaciones.

La técnica más novedosa para transferir digitalmente el movimiento de una persona a otra consiste en monitorearlo usando sensores y cámaras para construir una imagen 3D. Pero este proceso es bastante caro y consume mucho tiempo. Por lo tanto, una técnica que realice el mismo truco pero con un vídeo de toda la vida, tomado de una sola cámara, sería enormemente innovadora. Esto es exactamente lo que han hecho la investigadora Caroline Chan y sus colegas de la Universidad de California. La técnica les permite transferir la coreografía de un bailarín profesional a un aficionado con relativa facilidad.

Para conseguir hacerte bailar como Beyoncé solo hacen falta dos vídeos: una muestra de la diva y otra del individuo cuyo movimiento debe adaptarse: tú. "Nuestro objetivo es generar un nuevo video de la persona de destino con los mismos movimientos que la fuente", explica Chan en MIT Technology Review. Pero hace falta un paso intermedio. Para hacer el traspaso los investigadores redujeron la figura humana a un muñeco de palo que coge los movimientos del bailarín y los aplica en el aficionado. Ese muñeco codifica la posición de las extremidades pero no la apariencia: es el mínimo común que ambos comparten (cabeza, tronco, dos piernas y dos brazos) y es la clave para que la técnica funcione.

Es tan sencillo que todavía tiene algunas limitaciones. El software no tiene en cuenta las diferentes longitudes de extremidades entre la fuente y el objetivo y tampoco identifica cuándo las cámaras y los distintos ángulos pueden manipular o acortar ciertas poses. A veces tampoco puede detectar la postura correcta porque el sujeto se está moviendo demasiado rápido. La única pregunta, explican en MIT Technology Review, es cómo llegará la técnica al mercado.

Por el momento, la tecnología 3D de la que hablábamos al principio ya participa activamente en la grabación de series y películas, sobre todo en las escenas de acción y en las que actúan personajes que no existen en la vida real y han sido creados solo para la película. Los efectos especiales en películas como La guerra del planeta de los simios, estrenada el año pasado, se basan en esta tecnología de captación de movimientos e hicieron posible dar un movimiento más natural y creíble a los simios para que realizaran acciones tradicionalmente humanas, como montar a caballo, de forma fluída.

Retina

21/10/2018
Normas