tecnología terrorismo

Lo que la tecnología puede hacer para combatir el horror

La inteligencia artificial ayuda a anticipar ataques y detectar y eliminar contenido extremista de las redes

Las redes sociales se han convertido en los últimos años en uno de los canales preferidos por los terroristas para difundir sus mensajes y conseguir nuevos adeptos. Por eso también son una de las principales vías de actuación para las autoridades, que identifican y estudian los perfiles; y para las tecnológicas, que contribuyen utilizando la inteligencia artificial para eliminar mensajes radicalizados, alertar al resto de compañías e incluso anticiparse a algunos delitos. Así es como se utiliza la tecnología para combatir el terrorismo.

  • IA para anticipar ataques

Quizá la iniciativa más novedosa se encuentra ahora mismo en China, donde están probando un nuevo sistema para anticiparse a los crímenes que combina el reconocimiento facial y la inteligencia artificial. Un algoritmo recopila las imágenes de las cámaras ubicadas en lugares públicos que graban a los transeúntes. Luego las analiza con un sistema de reconocimiento facial y tiene en cuenta información como cuántas veces ha pasado esa persona por esa calle, en qué dirección, cuánto tiempo ha pasado allí o si ha hablado con alguien más en varias ocasiones.

El sistema de inteligencia artificial coteja los datos y alerta a la policía si encuentra algo sospechoso. Sería el caso de que una persona visitase varias veces alguna zona turística con mucha gente y en un margen de tiempo cercano, antes o después, acudiese a una tienda de armas, productos químicos o incluso de alquiler de coches, teniendo en cuenta la naturaleza de los últimos atentados. En este caso, las autoridades estarían sobre alerta, podrían valorar esa información junto con los datos de la persona identificada y la posibilidad de que pudiera cometer un atentado. A lo Minority Report.

Aunque parece útil, el sistema no se libra de las críticas en cuanto a la privacidad de los ciudadanos. Es, literalmente, un Gran Hermano vigilando nuestros pasos, sabiendo todo de todos y no solo de los terroristas.

  • Los algoritmos son clave

Otra forma de combatir el terrorismo es a través de las redes sociales, debido a la proliferación de contenido extremista de los últimos años. Como consecuencia, las tecnológicas han comenzado a compartir información en una base de datos conjunta. En diciembre de 2016, Twitter, Facebook, YouTube y Microsoft hicieron pública su unión contra el terrorismo. Según el acuerdo que firmaron, cuando una de estas cuatro tecnológicas identifique en sus redes alguna pieza con contenido extremista, la registrará en la base de datos que comparte con las demás. Así las otras pueden usar esa información para localizar y eliminar ese mismo vídeo o imagen de su plataforma.

La inteligencia artificial facilita la tarea de identificar contenido extremista porque las compañías tienen recursos limitados para revisar todo lo que se publica en sus redes. El volumen de información es ingente para ser analizado por seres humanos: un algoritmo puede hacer esas labores tediosas de forma automática y hacer este proceso más sostenible. La inteligencia artificial se encarga de leer las publicaciones, las fotos y los vídeos, los compara y aprende cuáles no cumplen con los requisitos mínimos de publicación. En los casos que generan dudas, se reportan a trabajadores que toman la decisión final.

Estos algoritmos hacen también que tener un perfil radical en Twitter, por ejemplo, sea ahora más difícil que nunca: no permanecen abiertos más de un par de horas. Las redes sociales son cada vez más hostiles con los terroristas. Por eso, ellos se convierten en early adopters: se mantienen a la vanguardia para ser los primeros en utilizar un servicio novedoso y poco conocido. Así lo explica Manuel R. Torres, experto en terrorismo y nuevas tecnologías. "Los terroristas actúan como usuarios tempranos para poder disfrutar de espacios de impunidad antes de que las autoridades detecten que son una de sus fuentes de actuación".

Esto implica que los terroristas siempre van un paso por delante las autoridades y a veces no queda más remedio que esperar a que actúen en redes para eliminar el contenido. Los vídeos en directo son un ejemplo de que "es necesario introducir mecanismos de inteligencia artificial que permitan detectar el contenido en tiempo real", cuenta Torres. "Este es uno de los grandes retos a los que nos enfrentamos ahora".

En esta misma línea funciona Dante, un sistema de inteligencia artificial semántica que entiende el significado de las palabras por su contexto. Según los expertos, los terroristas suelen usar lenguaje en clave y con estos algoritmos se podrá interpretar y facilitar que los cuerpos y fuerzas de seguridad del Estado se adelanten a posibles ataques terroristas. El sistema rastrea y revisa textos y vídeos en España, Francia, Bélgica e Italia. También permite cruzar y esclarecer las relaciones entre los mensajes, en caso de que las haya.

Pero aquí viene el dilema: con algoritmos vigilando todo lo que escribimos, ¿dónde queda nuestra privacidad? Aplicaciones como Whatsapp o Telegram permiten la comunicación cifrada, es decir, chats en los que se puede acceder al emisor y al receptor pero no al contenido del mensaje. Alegando que los terroristas utilizan chats con información cifrada, el gobierno de Theresa May propuso tras los atentados de Londres una nueva regulación antiterrorista centrada en las aplicaciones que permiten el cifrado de mensajes. En este momento el debate se abre entre los que defienden que la seguridad es lo primero y los que piensan que los gobiernos aprovechan estas coyunturas para vigilarnos a todos un poco más, y no solo a los terroristas.

  • Para qué sirven las redes

Como decíamos, las redes sociales se han convertido en un megáfono global para los terroristas. Ya en 2012 la ONU advertía de que los terroristas utilizan cada vez más Facebook, Twitter y Youtube para llevar su mensaje y difundir el terror entre más gente y con unos costes y riesgos mínimos. También son cada vez más los casos de personas que se han radicalizado a través de internet. Tras los atentados de Orlando, en Estados Unidos en 2016, los familiares de las víctimas demandaron a Facebook, Twitter y Google alegando que sin su soporte la expansión internacional del Estado Islámico no habría sido posible.

Pero en el ámbito psicológico también son un método para paliar el terror cuando la gente se muestra solidaria y ofrece su casa o su coche para las víctimas tras un atentado. Sirven de catarsis colectiva, como sucedió la semana pasada con los memes sobre El Cordobés, el terrorista de origen español militante del Estado Islámico que protagoniza un vídeo amenazando con más atentados a España. En lugar de atemorizarse, los tuiteros tiraron de humor e inundaron Twitter con bromas y montajes. Los mismos canales que los yihadistas utilizan para lanzar sus mensajes de terror al mundo son los que sirven para reducirlos.

También en los crímenes de odio

Google ha creado Documenting Hate News Index, una base de datos con información sobre delitos de odio en Estados Unidos, donde hace dos semanas una mujer murió atropellada por un neonazi durante una marcha convocada por supremacistas blancos.

El algoritmo creado ahora repasa los artículos de prensa publicados sobre casos de delitos de odio: analiza el texto y extrae información sobre personas, lugares y eventos. El objetivo es ayudar a encontrar y raestrar a sujetos específicos y contribuir a la documentación y el estudio de los crímenes de odio.

Más información

Retina

25/09/2017
Normas
Entra en EL PAÍS