La inteligencia artificial ya puede crear vídeos inventados a partir de audios

La inteligencia artificial ya puede crear vídeos inventados a partir de audios

La herramienta creada por SenseTime, el gigante tecnológico de Hong Kong, detecta emociones en el audio y las asocia a expresiones faciales que representa en un vídeo

La habilidad de la inteligencia artificial para generar contenido falso está alcanzando límites preocupantes. Después de conseguir falsear vídeos para cambiar el discurso de distintos personajes públicos (entre ellos, el expresidente de los Estados Unidos Barack Obama) o de aprender a imitar voces conocidas, ahora, una herramienta creada por SenseTime, el gigante tecnológico de Hong Kong, puede detectar emociones en un audio y asociarlas a expresiones faciales que representa en un vídeo. Es decir, analiza un archivo de audio y es capaz de generar un vídeo hiperrealista a partri de él donde aparece una persona recitando el audio.

¿Cómo funciona? La inteligencia artificial analiza primero las facciones de la cara de la persona que aparecerá en el vídeo final y almacena la pose y características del rostro del sujeto. Después, el algoritmo escucha el audio, el discurso que va a hacer pronunciar a esa persona, y analiza las emociones que se expresan en él. Al unificar las dos cosas, es capaz de generar un vídeo nuevo en el que la persona representa el audio falseado de forma hiperrealista, con expresiones faciales acordes a las emociones expresadas en el audio.  

La inteligencia artificial de SenseTime puede coger un clip de cualquier persona y hacer que diga lo que sea respetando la expresión facial del sujeto y sus movimientos, pero aplicando las expresiones faciales extraídas del clip de audio. Tal y como pudieron comprobar los autores del estudio, es complicado detectar a simple vista por los usuarios si es un vídeo auténtico o si es creado por un sistema de inteligencia artificial.

La existencia de estos vídeos falsos hiperrealistas, que utilizan técnicas de inteligencia artificial para editar los rasgos físicos de una persona y confundirla con otra, ha hecho saltar varias alarmas. No cabe duda de que las posibilidades que tendría esta tecnología en la difusión de noticias falsas son numerosas.Pero también tiene algunos usos útiles: un grupo de investigadores de la Universidad Noruega de Ciencia y Tecnología utiliza estas técnicas para anonimizar a ciertas personas. El anonimato facial suele utilizarse para proteger la identidad de un individuo como podrían ser denunciantes o víctimas, pero con las técnicas tradicionales, como el desenfoque o la pixelación, se pierden matices expresivos y, en algunos casos, puede llegar a descubrirse la identidad de la persona. Las redes generativas de confrontación —GAN, por sus siglas en inglés— recrean expresiones faciales en alta resolución y eliminan los rasgos originales del sujeto, con lo que ambos problemas quedan solucionados.

Retina

25/05/2020
07
‘Streaming’: el presente de la música

‘Streaming’: el presente de la música

Vivimos una era en la que escuchamos más música que nunca, y, como todo, esta es cada vez más fragmentada, con un peso cada día mayor de las playlists. Los algoritmos deciden por nosotros. Para bien y para mal. Estas son las principales cifras del sector

Normas