Fotograma de la película 'Chappie'.
Fotograma de la película 'Chappie'.

El aprendizaje automático puede aprender a evitar prejuicios

Una reciente investigación explora cómo evitar que las máquinas presenten comportamientos indeseables esquivando sesgos de raza o género sin afectar a la calidad de sus resultados

La inteligencia artificial (IA) está dejando de ser un concepto difuso y académico para instalarse en nuestro día a día con naturalidad. Aunque no entendamos a la perfección su funcionamiento, como nos sucede con tantas otras tecnologías cotidianas, cada vez está más presente en nuestras vidas: tenemos IA en el móvil, en el coche y en el correo electrónico. Su éxito comercial es posible porque nos ayuda a tomar todo tipo de decisiones, desde el ámbito financiero al de la salud pasando por la educación.

El principal problema que presenta es que, como nosotros, la máquina tiene ciertos prejuicios. Uno de los casos más conocidos fue el de COMPAS, un algoritmo que se utiliza en EE UU para predecir la probabilidad de reincidencia de cada criminal. Una investigación de ProPublica desveló que, para este sistema, los acusados negros tenían más probabilidades de volver a delinquir que los blancos.

Un grupo de investigadores de las universidades de Massachusetts Amherst y Stanford ha publicado un artículo en la revista Science en el que abordan una nueva técnica para minimizar, si no evitar por completo, sesgos en algoritmos de aprendizaje automático.

Su solución articula un sistema en el que los desarrolladores son capaces de definir una serie de condiciones de funcionamiento que impiden que los sistemas de IA crucen ciertos umbrales durante su entrenamiento y optimización para evitar que perjudiquen o discriminen a las personas. Los investigadores han bautizado estos algoritmos como seldonianos en referencia a uno de los personajes que articulan la serie de libros Fundación, de Isaac Asimov, en la que se definen las leyes de la robótica.

La investigación parte de la base de que, si es posible definir matemáticamente los resultados que podríamos considerar injustos, se pueden crear algoritmos que aprendan de los datos para evitar o reducir al mínimo estos comportamientos sin que esto perjudique al resultado. Para ello, trabajaron en un conjunto de técnicas para que los usuarios puedan especificar qué tipo de comportamiento quieren restringir —prejuicios raciales, de género, de edad...— al emplear un sistema de aprendizaje automático y que este pueda ser confiable cuando se aplique en entornos reales.

Tasa de error en función del género de los métodos tradicionales de aprendizaje automático frente a la del sistema planteado en el estudio.

De acuerdo con el estudio, cuando los algoritmos exhiben un comportamiento indeseable o prejuicio que le lleva a alterar los resultados negativamente —”puede causar pérdidas financieras o retrasar diagnósticos médicos”, detallan—, es al usuario del sistema de IA, que no siempre tiene conocimientos de informática, a quien corresponde evitarlo. Mediante este sistema de filtrado de sesgos, la responsabilidad deja de estar en la persona que utiliza el algoritmo para situarse en el nivel anterior: en los desarrolladores de los algoritmos.

Para poner a prueba sus tesis, entrenaron a un algoritmo con instrucciones matemáticas para que predijera la nota media de un grupo de estudiantes universitarios. El sistema identificó una manera de predecirlas con un sesgo de género menos sistemático que los métodos existentes, que no contaban con filtros para evitar estos prejuicios o eran demasiado limitados.

También realizaron una prueba en medicina, para la que diseñaron un algoritmos que equilibrara una bomba de insulina autónoma, un aparato que decide qué dosis dar a un paciente diabético a la hora de la comida. Si la dosis es muy reducida, los niveles de azúcar en sangre del paciente pueden aumentar y puede derivar en enfermedades cardiovasculares. Si es demasiado alta, el azúcar en sangre puede bloquearse, con un resultado potencialmente mortal. Mediante un simulador de glucosa en la sangre, los investigadores entrenaron las bombas para fijar la dosis adecuada evitando complicaciones por exceso o defecto teniendo en cuenta patrones que otros métodos conocidos no llegaron a valorar.

Retina

07/04/2020
07
La inteligencia artificial de ‘El Pirata’

La inteligencia artificial de ‘El Pirata’

Esteban Granero es el típico futbolista atípico: universitario, lector voraz, crítico literario para el proyecto Newtral de la periodista Ana Pastor y fundador de Olocip, 'startup' que ofrece inteligencia artificial para optimizar la toma de decisiones de clubes y empresas deportivas.

La app que promete acabar con el papeleo
10

La app que promete acabar con el papeleo

Un grupo de grandes corporaciones y el consorcio de ‘blockchain’ Alastria trabajan para devolver a las personas el control de sus datos (y obtener de ellos información de mayor calidad). Aspiran a cumplir el sueño de la identidad digital soberana.

Normas
Entra en El País para participar