El español que creó una IA que aprende a falsificar discursos de la ONU en solo 13 horas

El español que creó una IA que aprende a falsificar discursos de la ONU en solo 13 horas

Dos investigadores de Global Pulse, una agencia de la ONU que trabaja con 'big data', han conseguido que un software genere discursos hiperrealistas sobre temas que van desde el desarme nuclear hasta los refugiados

El uso de la inteligencia artificial para generar y compartir información falsa ya es un asunto preocupante para muchas instituciones. Uno de los ejemplos más visuales son los deep fakes: vídeos falsos donde aparecen personajes públicos diciendo cosas que nunca han dicho. Es el caso de Barack Obama hablando, precisamente, de noticias falsas, o de Scarlett Johansson, que se encontró su cara en un vídeo porno protagonizado por otra persona. Los resultados son sorprendentemente realistas. Pero, más allá de los vídeos, la inteligencia artificial también se puede utilizar como generadora de textos falsos: puede crear discursos impecables, al nivel de los que grandes líderes mundiales pronuncian en la ONU, pero que nunca han sido pronunciados por nadie.

Utilizar la IA con este objetivo es cada vez más sencillo. Para comprobar cómo de fácil es conseguirlo, dos investigadores de Global Pulse, una iniciativa de la ONU que trabaja con big data y su aplicación a la acción humanitaria, han puesto a prueba a un software que ha sido entrenado con textos de Wikipedia y refinado con las transcripciones de texto de 7.507 discursos pronunciados por los representantes de los estados miembros en la Asamblea General de la ONU de 1970 a 2015.

Necesitaron solo datos y herramientas de código abierto y una inversión de menos de diez euros (por el coste de los servidores). Trece horas después, el algoritmo era capaz de generar discursos sobre una amplia variedad de temas delicados y de gran importancia, desde el desarme nuclear hasta los refugiados. "El software produce un párrafo sobre temas relevantes discutidos en la ONU en base a unas pocas palabras introducidas por una persona", explica Miguel Luengo-Oroz, chief data scientist de UN Global Pulse de la ONU y uno de los responsables del proyecto. "Este texto es generalmente coherente y, con una edición mínima, en algunos casos podría ser indistinguible del escrito por un humano".

Los investigadores comprobaron que el discurso del modelo coincidía con el estilo y la cadencia de los discursos reales de la ONU en el 90% de los casos cuando los temas eran genéricos, como el cambio climático. Los resultados eran menos convincentes (coincidían en el 60% de los casos) cuando los temas eran más concretos e incendiarios, como cuando se hablaba de inmigración o racismo.

Por qué es importante

El estudio demuestra la velocidad y la facilidad con la que es posible diseminar noticias falsas, generar discursos de odio y personificarlos en figuras de alto perfil. "Hemos realizado este experimento para llamar la atención sobre la disponibilidad de tecnología de inteligencia artificial que puede ser usada para difundir fake news, suplantar personalidades o incluso escribir automáticamente un discurso inflamatorio y de odio en las redes", explica Luengo-Oroz. Este trabajo destaca la facilidad con que esto se puede lograr, así como las amenazas de combinar estas técnicas con otras tecnologías.

Los investigadores de Global Pulse concluyen que se necesita un mayor esfuerzo global para encontrar formas de detectar y responder al contenido generado por inteligencia artificial. "Es importante que como sociedad establezcamos barreras contra los deep fakes a varios niveles. El primer paso es educación y visibilidad para entender los riesgos", asegura Luengo-Oroz. Uno de los objetivos de su proyecto es precisamente resaltar los riesgos políticos y sociales potenciales que surgen del uso malicioso del software de generación de textos y su impacto potencial en los derechos humanos. "Es importante desarrollar soluciones sociales y tecnológicas que puedan asegurar la veracidad de la información".

Retina

14/10/2019
Normas