machine learning en la política
Getty Images
Retina papers

¿Tendremos políticos más eficientes gracias al ‘machine learning’?

Los datos son fundamentales para plantear medidas adecuadas. Los economistas empiezan a sacarle partido al 'big data' para diseñar políticas

Código azul en la 303!". Los fans de las series americanas de hospitales ya sabrán que hay un paciente en parada cardiorrespiratoria. Médicos y enfermeros acudirán corriendo a la habitación para tratar de reanimar al enfermo. El tiempo es vital en estas situaciones, cada segundo es determinante. Pero claro, tampoco nadie tiene el poder de anticipar cuándo y quién va a sufrir un código azul. Un momento. ¿He dicho nadie?

Un algoritmo parece que es capaz de hacerlo... hasta con cuatro horas de antelación. Un grupo de investigadores de la Universidad de Carnegie Mellon, Harvard, Chicago y de la consultora Accenture lo entrenó con los datos de 133.000 pacientes. La máquina aprendió de manera supervisada con la información médica del paciente: datos demográficos, historial clínico, constantes vitales... Hasta 72 parámetros por persona. ¿Qué tal se le dio? Acertó en dos de cada tres pacientes. No está mal considerando que los médicos con su protocolo interno de clasificación de riesgo solo atinaron con un tercio de los enfermos que sufrieron una parada cardiorrespiratoria.

El campo de la economía y las políticas públicas es también un terreno fértil para aprovechar este poder predictivo de las maquinas. Solo hay que cambiar las preguntas que se plantean. En lugar de tratar de identificar las variables que provocan determinado resultado (¿por qué se ha parado el corazón?) hay que buscar situaciones en las que una buena predicción pueda mejorar el resultado final. Sendhil Mullainathan es uno de los economistas más destacados adoptando esta nueva herramienta de investigación y es el autor junto a Kleinberg, Lakkaraju, Leskovec y Ludwig, del estudio Decisiones humanas y predicciones automáticas.

“El aprendizaje de las máquinas es sorprendentemente efectivo en una gran variedad de tareas tradicionalmente asociadas a la inteligencia humana, desde el reconocimiento de rostros en fotos, a la calificación de ensayos escritos”, señalan los autores. “Si estas herramientas se pueden aplicar con éxito a funciones que requieren de la visión y del lenguaje de las personas, ¿por qué no aplicarlo también a decisiones humanas más complejas?”

  • Algoritmos en los tribunales

Cambiemos la escena del hospital por otra en un juzgado. "¡Silencio en la sala!". Los jueces tienen que resolver constantemente si a un arrestado lo mandan a la cárcel hasta la fecha del juicio o lo dejan en libertad (con o sin fianza). Esta decisión tiene importantes consecuencias sociales y económicas. Los magistrados lo que hacen realmente es predecir el comportamiento de esa persona: ¿se presentará el día del juicio? ¿Cuál es el riesgo de que cometa más delitos?

Un algoritmo fue entrenado con los datos de casi 760.000 arrestados en Nueva York entre 2008 y 2013 para que diera una predicción sobre el riesgo de cada persona. “En este caso, los datos de entrada (la analogía de la foto en el caso de la aplicación de reconocimiento de rostro) son los atributos del acusado: antecedentes penales, delito actual… El dato de salida del algoritmo es una predicción del riesgo de crimen”, reza el paper.

En el estudio se entiende como “riesgo de crimen” la probabilidad de que el detenido no aparezca el día del juicio. Es lo que la ley les pide a los jueces de Nueva York que tengan en cuenta. (En otros estados se considera también el peligro de cometer otro delito.)

Getty Images

El primer paso fue analizar si había muchas diferencias entre lo que habían decidido los jueces y el pronóstico de la máquina.

“Los jueces tratan como detenidos de bajo riesgo a muchos de los que el algoritmo señala como de alto riesgo. Por ejemplo, mientras el algoritmo predice que el 1% de los acusados con más riesgo tiene una probabilidad de crimen del 62,6%, los jueces dejan en libertad al 48,5% de ellos. Estos errores en la clasificación de los detenidos indican que existen potenciales ganancias de bienestar si se utilizan las predicciones del algoritmo”.

  • ¿Mejores resultados?

Los acusados a los que la máquina había señalado como muy peligrosos demostraron serlo: tras quedar libres por decisión del juez, la mayoría o no apareció en el juicio o siguieron delinquiendo. Incluso un pequeño porcentaje de ellos cometió alguno de los crímenes más graves (asesinato, violación y robo).

Si los magistrados hubieran seguido las indicaciones de la máquina, según este estudio, “se podría haber conseguido reducir el porcentaje de crímenes un 24,7% manteniendo la misma tasa de puesta en libertad de los jueces (del 74% de los detenidos)”. Simplemente se habrían quedado en la cárcel los que realmente eran más peligrosos.

El paper es muy interesante ya no solo por sus llamativas conclusiones (que no varían mucho cuando se toman datos a nivel nacional), sino porque ofrece un recorrido por todas las preguntas que se plantearon los investigadores para asegurarse de que las predicciones del algoritmo eran correctas. ¿Es posible que el juez tenga en cuenta otro tipo de información no observable (aspecto físico, situación laboral y familiar del acusado…)? ¿Se incrementan las diferencias raciales siguiendo el consejo de la máquina? ¿Por qué fallan los magistrados? ¿Tienen otro tipo de objetivos que el algoritmo no considera? ¿Fijan los jueces fianzas demasiado bajas?

El algoritmo salió muy bien parado de todas estas preguntas, así que según los autores, sus predicciones podrían ser de gran utilidad al sistema judicial. Los tribunales podrían utilizarlos como un sistema de alerta.

  • Un piloto automático

“Cuidado señor juez, el programa cree que este acusado tiene un alto riesgo de crimen”. Un cambio más dramático sería que el algoritmo clasificara al detenido y ofreciera una solución sobre dejarlo libre o mandarlo a la cárcel. Sería el equivalente al piloto automático de los aviones. El magistrado siempre tendría la opción de coger el volante y corregir el rumbo.

“Reducir la población en la cárcel y prisión sin incrementar la tasa de criminalidad es una prioridad política. Tradicionalmente, los estudios empíricos económicos en este ámbito se han centrado en cuestiones de causalidad como identificar factores de prevención o medidas de rehabilitación. Nuestro análisis plantea un enfoque diferente: la predicción.”

Las empresas privadas utilizan esta técnica constantemente: predicen qué consumidor es más receptivo a su publicidad, a quién se le puede dar una cobertura sanitaria o un crédito, a qué usuarios les puede gustar determinada película o canción... Los recursos públicos se podrían optimizar si fuéramos capaces de predecir cuestiones como cuáles son los alumnos con mayor riesgo de dejar los estudios, cómo organizar de manera más efectiva las patrullas de policía, a qué restaurante mandamos a los inspectores sanitarios. El machine learning ya ha empezado a ofrecer respuestas a estas preguntas.

Pero este arma predictiva en manos de un gobierno puede generar dudas, en muchos casos éticas. ¿Dejamos que los cálculos de una máquina determinen cuestiones importantes como la asignación de recursos humanos y monetarios en función de sus predicciones? La transparencia será fundamental para confiar y aceptar este tipo de decisiones automatizadas, tal y como reclamó recientemente Elon Musk entre otras muchas voces. Por eso la Unión Europea ya ha preparado una ley que entrará en vigor en 2018 por la que tendremos derecho a pedir explicaciones sobre la decisión que una máquina haya tomado sobre nosotros.

Más información

Retina

20/07/2019
07
¿De verdad es tan peligrosa FaceApp?

¿De verdad es tan peligrosa FaceApp?

FaceApp, una aplicación de origen ruso, ha vivido una segunda juventud dos años después de hacerse viral. Su éxito repentino ha propagado la preocupación por todo el mundo. ¿Se la merece?

Ya estamos viajando en la nave de Bowman
09

Ya estamos viajando en la nave de Bowman

Hoy ya viajamos en la nave de Bowman, el astronauta de '2001: una odisea del espacio' que concibió Arthur C. Clarke. la nuestra, sin embargo, es una odisea por el espacio digital

Normas