Inteligencia artificial
Getty Images
Inteligencia artificial

Aprendizaje profundo o el peligro de no saber cómo piensa una máquina

La IA ha evolucionado desde su creación. Repasamos la forma que ha ido adoptando

El concepto inteligencia artificial ha experimentado una resurrección en el último lustro, pero lleva con nosotros desde la década de los 50. A pesar de esta larga convivencia (o quizás por ella), hay gente que dice que es ciencia ficción, el futuro o que forma parte de nuestra vida diaria. En realidad, es un concepto que se usa para abarcar muchos territorios distintos, como explica el periodista y empresario Michael Copeland, ex editor de la revista Wired.

Así, se le llama inteligencia artificial a la máquina capaz de saber cuándo un correo es spam, de ganar a un ajedrecista como Garry Kasparov o al jugador de Gi Lee Se-dol, a los programas capaces de reconocer a tu abuela en una foto, a los que permiten la conducción autónoma o al asistente que tienes en tu smartphone. La inteligencia está evolucionando tanto y tan rápido, que la sociedad puede encontrarse con un problema: depender de las máquinas para tomar decisiones cruciales y, sin embargo, no ser capaces de entender el razonamiento que los llevó a ellas.

Sir Martin Rees, por ejemplo, lleva tiempo demandando acción inmediata para prevenir las consecuencias oscuras de nuestro desarrollo científico y tecnológico. “¿Va a ser este siglo el último de nuestra existencia?, se preguntó recientemente en una charla Ted.

El punto de partida debería ser, quizás, estar seguros a qué nos referimos con inteligencia artificial (artificial intelligence), aprendizaje automático (machine learning) y aprendizaje profundo (deep learning).

 

  • Inteligencia artificial

Es el concepto padre. Surgió por primera vez en la conferencia de Dartmouth (Nueva Hampshire, EE UU) en verano de 1956, aunque en realidad se remonta hasta el mismísimo Alan Turing, uno de los padres de la computación. Se popularizó y languideció, para reverdecer en los últimos años gracias al aluvión de datos que nos ha invadido, la mayor capacidad de almacenamiento y sobre todo, a la proliferación de unidades de procesamiento gráfico (GPU), que han dado la potencia necesaria para implementar lo que se llama procesamiento paralelo (no en vano, uno de los grandes nombres en este campo es Nvidia, uno de los principales fabricantes de microprocesadores).

En la década de los 50, el sueño de aquellos pioneros era construir máquinas que tuviesen nuestros sentidos y capacidad de raciocinio. Es lo que se ha dado en llamar IA fuerte o inteligencia general artificial. Hasta ahora solo se ha conseguido en la ficción, por ejemplo con C3PO, HAL 9000, el agente Smith o Terminator.

Getty Images

También existe la inteligencia artificial débil o estrecha, que es la que se centra en un tipo específico de problema. Podemos llamarla estrecha o débil, pero esa tarea concreta pueden hacerla mejor que nosotros, ya sea jugar al ajedrez, o buscar nombres que comiencen en y.

¿De dónde proviene esta creciente inteligencia? En un principio de lo que llamamos aprendizaje automático.

  • Aprendizaje automático

Es un campo que se deriva de la inteligencia artificial. Básicamente, consiste en desarrollar procesos que permitan a las máquinas aprender por sí solas a partir de un conjunto de datos que un instructor va introduciendo trabajosamente primero y corrigiendo manualmente después. En este proceso, el ordenador extrae conocimiento a través de experiencia supervisada. Hacemos hincapié en lo de supervisada: el aprendizaje profundo no se suele considerar una verdadera inteligencia, dado que se apoya en las pautas concedidas por los humanos para tomar sus decisiones.

Los procedimientos para lograr este aprendizaje han sido variados: métodos de regresión (redes bayesianas o árboles de decisión) módulos de clasificación (regresión logística, por ejemplo) y por agrupación (clustering).

Una de las mejores aplicaciones del aprendizaje profundo ha sido la visión artificial, que permite que, mediante código, las máquinas son capaces de detectar curvas, lados, colores, letras y puedan determinar si es una señal de stop o un escaparate después de aprendérselas de memoria. Pero este procedimiento es defectuoso: ¿qué pasa si está oscuro, si no se ve bien la señal, o si la letra es de un tipo nuevo que se ha inventado el último diseñador escandinavo? Esto nos lleva al siguiente punto.

Aprendizaje profundo

El verdadero salto cualitativo lo se produce con el llamado deep learning o aprendizaje profundo. Este se basa en redes neuronales, un concepto que data de los años 40 y 50 y que ha vuelto a resurgir con fuerza gracias, de nuevo, al desarrollo de la computación. Se pasa de la lógica lineal y se abandonan las instrucciones del estilo si algo es falso, entonces haz esto. El aprendizaje automático supone un paso exponencial hacia delante: permite que la máquina aprenda sola.

Los líderes de la IA

Los grandes nombres en esto del deep learning son IBM, Google y Facebook y, quizás, Nvidia. La primera, pionera desde los primeros pasos de la IA, saltó a los medios a principios de la década ganando un concurso con su ordenador Watson, uno de los ejemplos más claros de deep learning. Google es, cómo no, una de las principales puntas de lanza del aprendizaje profundo, sobre todo tras el fichaje en 2012 de Raymond Kurzweil. Por ejemplo, un equipo de Google Brain, el proyecto de aprendizaje profundo de la empresa del buscador, ha sido capaz de enseñarle a sus máquinas a crear su propio cifrado sin necesidad de intervención humana. Para ello, han necesitado tres redes neuronales.

El año pasado, Facebook creó la Unidad de Investigación en IA con el objeto de lograr identificar rostros y objetos que aparecen en los cerca de 350 millones de vídeos y fotografías que se transfieren diariamente a Facebook.

China también se mueve: Baidu ha sido logrado recientemente que una máquina lleve a cabo un aprendizaje zero shot usando lenguaje natural.

Una red neuronal artificial consiste, de esta manera, en un sistema de programas y estructuras de datos que trata de funcionar como un cerebro humano, en el que las neuronas trabajan en paralelo para lograr un objetivo común. Todas estas redes se alimentan de datos de una memoria local. De una forma muy simple, una red neuronal artificial cuenta con capas anidadas compuestas por nodos interconectados, que se reacomodan después de cada nueva experiencia.

Las distintas capas permiten al sistema reconocer las cosas en distintos niveles de abstracción. Imaginemos que el sistema tiene delante un perro. Las capas inferiores se dedicarán a reconocer cosas sencillas como las formas básicas, o el color. Las superiores, por su parte, se dedicarán más bien a cosas más complejas como el pelo, los ojos. Las de más arriba, por último, serán las que sumen todos los datos y le hagan llegar a la conclusión de que el objeto en cuestión es un perro. Este es el modelo de trabajar que se aplica en otros procesos y es lo que permite a la máquina enseñarse a sí misma. Los sonidos que forman una palabra o los movimientos de volante que hacen fata para conducir un coche.

Red neuronal

Estas capas permiten mejorar aspectos como el procesamiento del lenguaje natural por parte de las máquinas, la traducción automática o puede participar decisivamente en el desarrollo de coches sin conductor. También se usa para la detección temprana de enfermedades en clinicas como Monte Sinaí.

Y aquí viene algo que puede constituir un problema, si no es que lo constituye ya: El aprendizaje profundo puede hacer ganar millones con inversiones financieras, detectar enfermedades o mil cosas más que cambien todas las industrias. Pero va a llegar el momento (o, más bien, ha llegado el momento) en que lo hagan sin que los humanos seamos capaces de comprender sus razonamientos. Si todo va bien, no hay problema. La cuestión es: ¿qué pasa si algo sale mal?

Imagen generada por Deep Dream, de Google

“Podemos construir los modelos que nos permiten esta detección, aseguró recientemente Joel Dudley, el responsable de este programa al MIT Technology Review. “Pero no sabemos cómo funcionan”. Dudley se une a voces como la antes citada de Sir Martin Rees o la del mismísimo Stephen Hawking, que cree que la AI puede ser "o lo mejor o lo peor para la humanidad"

Google ha puesto en marcha algunos experimentos que han tratado de demostrar qué es lo que ocurre mientras trabaja una de esas redes neuronales. Uno de ellos es el famoso Deep Dream. Lo que hicieron los ingenieros de la compañía fue hacerlo funcionar marcha atrás, lo que les permitió comprobar los trucos que la máquina usaba para reconocer un coche o un edificio. Cierto, las imágenes que ofrecía eran grotescas o dignas de una letra de John Lennon en 1967. Pero también dieron a entender que sus procesos no son del todo inescrutables.

La cuestión es que para comprender cómo funcionan estos sistemas avanzados de inteligencia artificial hace falta mucho más. Una simple red neuronal puede ser fácilmente comprensible para una persona preparada. Pero las grandes operaciones, las que hacen falta para conducir un coche de forma autónoma o para diagnosticar un cáncer de páncreas, requieren muchas capas y miles de nodos. Algo que puede ser inalcanzable, incluso para sus creadores. 

“La inteligencia artificial no es solo un accesorio guay o una cosita ingeniosa: es el último invento que el ser humano va a tener que hacer”, aseguró el filósofo Nick Bostrom en 2016 al diario Financial Times. “Ante el escenario de una explosión de la inteligencia, los humano somos como niños pequeños jugando con una bomba. Así es el desequilibrio entre el poder de nuestro juguete y la inmadurez de nuestra conducta”, sentencia en su libro Superintelligence: Paths, Dangers, Strategies.

Entender cómo piensa la inteligencia artificial no tiene por qué ser necesario para grandes objetivos. Nuestro día a día puede verse afectado. Por ejemplo, cuando llegue el momento de que Siri nos recomiende un restaurante, puede ser interesante saber qué es lo que le ha movido a hacerte esa recomendación. O eso, o tener fe en que tu asistente te va a proporcionar la felicidad. O No usarla, directamente.

Más información

Retina

26/06/2017
09

"El conocimiento es cada vez menos importante”

El responsable tecnológico en Europa, África, Oriente Medio e India de Fujitsu, Joseph Reger, asegura que tenemos que entrenar la creatividad y vigilar que los políticos sepan de tecnología

Normas
Entra en EL PAÍS