El juicio del rey Salomón
El juicio del rey Salomón

Las redes neuronales tienen derecho a no poner la mano en el fuego

Investigadores del BBVA han desarrollado un sistema para "modelar la incertidumbre" que permitiría a las redes neuronales abstenerse de tomar una decisión cuando el escenario es demasiado complejo

Las redes neuronales no tienen tantos recursos como el rey Salomón. En principio, no van a urdir un plan para amenazar con partir y repartir al niño y lograr que la madre falsa se delate. Igual van y optan por trinchar directamente. Y tú ahí mirando.

El relato bíblico es tan extremo como improbable, pero no invalida el hecho de que las máquinas inteligentes también van a necesitar una manera de decir "solo sé que no sé nada", sobre todo si nos interesa evitar que se tiren a la piscina y la líen parda. "La industria usa cada vez más procesos automatizados con esta tecnología -machine learning-, y cada vez requiere más soluciones porque se van usando estos métodos en procesos más complejos y se encuentran más situaciones donde la incertidumbre aumenta", explica Axel Brando, doctorando industrial y científico de datos de la Factoría de Inteligencia Artificial de BBVA.

El escenario en que Brando y su equipo se enfrentaron por primera vez a este problema, en 2016, era mucho más mundano que el juicio salomónico. "El objetivo del trabajo era responder a la siguiente pregunta: ¿Es posible predecir los gastos que hará un usuario teniendo en cuenta su histórico?", recuerda. La respuesta que obtuvieron después de probar con distintos modelos de aprendizaje automático fue un poco ambivalente: a veces sí, a veces no. "El problema es que estábamos hablando de un escenario muy complejo. Había casos donde el error era muy bajo, pero en otros era extremadamente elevado".

  • La decisión de la red neuronal

La incertidumbre de las máquinas puede nacer en dos tipos de escenarios: aleatorio y epistémico. En este último, la red neuronal sencillamente carece de información suficiente como para operar con un mínimo de precisión o no está modelada teniendo en cuenta las particularidades de la realidad que intenta capturar. Un ejemplo de esto podría ser un clasificador de imágenes de animales entrenado únicamente con gatos y perros que se encuentra con un ornitorrinco.

El caso de la incertidumbre que nace de la aleatoriedad es el que ha abordado Brando en una nueva investigación realizada por un equipo de la Factoría de Inteligencia Artificial de BBVA, en colaboración con la Universidad de Barcelona, y cuyos resultados han sido presentados en la conferencia NeurIPS en Vancouver (Canadá). Brando pone de ejemplo un predictor de precios de viviendas en AirBnb. "Tú puedes tener un apartamento con el mismo número de habitaciones y baños con un precio u otro porque depende también de quien pone el precio. Y eso depende de muchos factores que tú no controlas y no están en la base de datos", explica.

En este contexto, la red neuronal puede proponer múltiples precios para un mismo apartamento y, de acuerdo con su entrenamiento, estar en lo cierto en todos los casos. O puede decir "mira, esto es muy difícil de predecir" y abstenerse, en lugar de emitir una única respuesta pese a que sus certezas son limitadas.

La importancia de modelar la incertidumbre aumenta cuando los riesgos son tangibles. ¿Qué prefieres que haga tu vehículo autónomo, en caso de duda? "Puede ser que una mala decisión tenga un coste mucho más elevado que acertar", precisa Brando.

  • El turno del humano

 Cuando la falta de certezas deja a la red neuronal sin herramientas para tomar una decisión, la pelota vuelve al tejado del humano. "En estos casos, lo que se hace es reportar. Cuando el sistema detecta algo que no está capacitado para atacar de forma estándar, como mínimo tiene que reportar a quien tiene la responsabilidad. Entonces esa persona toma la decisión".

Además, a partir de esos reportes se pueden conocer mejor las limitaciones de la máquina, es decir, los escenarios en los que aún necesita mejorar su rendimiento. "Al final te está dando transparencia sobre las predicciones que hace ese modelo", añade el autor del estudio.

En este sentido, el modelado de la incertidumbre se convierte en un paso intermedio en el camino hacia modelos algorítmicos no tan opacos. "Pero realmente, el tema de la interpretabilidad es mucho más complejo, porque estamos hablando de una cosa subjetiva que da para mucho más debate. La probabilidad no es subjetiva".

En el más utópico extremo del largo plazo quedarían las redes neuronales capaces de operar con absoluta certeza. "Está claro que tendremos sistemas que serán cada vez mejores. Estoy seguro de que iremos mejorando, pero al final asumir que tu sistema es infalible es asumir que es capaz de anticipar cualquier cambio que va a ocurrir en el futuro", explica Brando. Y eso ni el rey Salomón lo tenía claro.

Retina

30/03/2020
Normas
Entra en El País para participar