En nuestraRevista Retina

Búscala en el quiosco
La inteligencia artificial no va a ser más inteligente que nosotros
Retina #02 / Negocios

La inteligencia artificial no va a ser más inteligente que nosotros

El sueño de crear una inteligencia superior o siquiera similar a la humana se ha demostrado casi imposible. El futuro no será pasear por ciudades de replicantes sino complementar la capacidad humana con ayuda de las máquinas.

Cirro. Sócrates. Partícula. Decibelio. Huracán. Delfín. Tulipán. Siete palabras que invocaban algo tan extraordinario y genuinamente humano como es el amor. Se las decía Monica, humana, a David, robot, en un clásico infravalorado de Steven Spielberg de título inevitable: Inteligencia artificial (2001). Tras oírlas, el robot al que interpretaba Haley Joel Osment pasaba de ser un inquietante autómata sonriente a un niño enamorado de su madre en un inolvidable primer plano. Spielberg, como Asimov, Kubrick y tantos otros soñadores del siglo XX, planteó el dilema moral definitivo: ¿qué responsabilidad tendrá que asumir el ser humano el día que sea capaz de crear una inteligencia igual o superior a la suya?

El mundo puede respirar con alivio. Porque ese día, si es que llega alguna vez, parece infinitamente lejano. 2017 fue un año en el que la inteligencia artificial (IA) se desmitificó. Ian Bogost escribía para The Atlantic un esmerado artículo con un titular demoledor: La inteligencia artificial ha perdido el sentido. El subtítulo era un clavo más en la tumba de este sueño de la ciencia-ficción: A menudo no es más que un nombre resultón para un programa informático.

Jerry Kaplan, profesor de la Universidad de Stanford especializado en el análisis económico y social de la IA, escribía el pasado marzo en MIT Review: “Deberíamos dejar de describir estas modernas maravillas como protohumanos y en vez de eso empezar a hablar de ellas como la nueva generación de flexibles y poderosas máquinas […] y aceptarlas por lo que realmente son, herramientas para lograr un futuro más próspero y confortable”.

El ordenador no es capaz de enfrentarse a lo desconocido, solo de procesar la información que se le da

En el foro Retina LTD —evento de EL PAÍS Retina que reunió a líderes de la transformación digital—, el director de IA del CSIC, Ramón López de Mántaras, tiró de ironía para despejar preocupaciones sobre futuros a lo Terminator: “Las películas lo han hecho muy bien, nos han transmitido una imagen muy alejada de lo que realmente ocurre”.

¿Y qué ocurre en el hoy? ¿Esta decepción esconde un fracaso de toda tecnología de aprendizaje artificial? Ni mucho menos. Dos palabras, machine learning [aprendizaje automático], encierran la gran esperanza de este campo para transformar la sociedad. Pero exigen de un ajuste de expectativas: no se trata de un futuro habitado por humanoides sino de tecnología de automatización mediante algoritmos. La veta, que la consultora PwC estima en 13 billones de euros de aquí al 2030 —un espectacular incremento del 14% en el PIB mundial—, está en una conjunción hombre-máquina para afrontar problemas que antes no eran posibles.

Las máquinas aprenden a ver

Desierto del Gobi. De pronto, sobre el paisaje nevado, una silueta espectral y moteada cruza fugaz el encuadre de una cámara. Es un irbis, también conocido como leopardo de las nieves, uno de los mil que aún sobreviven en territorio mongol. La cámara que lo captó tiró una foto, una entre más de un millón que luego tendrían que analizar, manualmente, un equipo de investigadores científicos. Si no fuera por el machine learning.

“Es uno de los proyectos que más me fascina”, apunta Matthew Winkler, gerente principal de machine learning en Azure, la plataforma en la nube de Microsoft. “Antes, un montón de científicos y voluntarios tenían que contar manualmente el número de leopardos de las nieves para llevar un control de población entre ese millón de fotografías. Ahora es tan sencillo como recuperar los USB de las cámaras y subirlos a la nube. El machine learning cuenta por ellos”. Este caso concreto es una colaboración de Azure con la asociación Snow Leopard Trust, que se dedica a luchar por este animal en peligro de extinción.

El reto actual es que cualquier empresa o individuo no experto pueda beneficiarse del aprendizaje de las computadoras, según Swami Sivasubramanian,vicepresidente de IA en Amazon Web Services.

Es una de miles de aplicaciones bajo una misma realidad: las máquinas han aprendido a ver. Y esto es una llave de inmenso potencial económico para resolver cualquier problema que implique reconocer objetos en una imagen. “Agricultura robótica, conducción autónoma, genómica. Las aplicaciones tienen un abanico enorme”, explica Arjun Bansal, vicepresidente y manager de Inteligencia Artificial de Intel. “La visión artificial es un hito por el cual podemos resolver problemas a los que antes no podíamos enfrentarnos”.

Salto de latitud y longitud, de las estepas mongolas a Washington DC. Una comisaría de policía reabre un caso cerrado gracias a una aplicación de machine learning. En solo dos días, revisa 300.000 registros fotográficos y encuentra al elusivo sospechoso. Se produce un arresto. La tecnología usada era Rekognition, el brazo de visión artificial de Amazon Web Services, la división del gigante de Silicon Valley dedicada a ofrecer soluciones en la nube para empresas e instituciones de todos los tamaños.

“El sistema era el siguiente: los ciudadanos, las cámaras de vigilancia y cualquier registro visual en torno a un caso llegaban al ordenador de un agente que se tenía que pasar dos o tres días tratando de encontrar al sospechoso”, explica Swami Sivasubramanian, vicepresidente y director general de IA en Amazon Web Services. “Pero aplicando machine learning pudimos ayudar a capturar un criminal que, sin contar con esta tecnología, habría quedado libre”.

La historia se repite con los grandes nombres en el machine learning como Azure de Microsoft o Google Cloud. Todas ofrecen su propia solución, API en el argot, que permite desplegar la capacidad de reconocer cualquier tipo de objeto en una imagen. Los resultados dependen de la imaginación y de la pericia del humano a la hora de acotar el problema.

“Por ejemplo, tenemos un socio, Schneider Electric, que ha elegido aplicarlo para el mantenimiento de maquinaria. Hablamos de plataformas petrolíferas, donde la avería de una pieza puede suponer unos costes enormes. La aplicación que estamos desarrollando detecta visualmente las piezas en riesgo en tiempo real y diagnostica cuándo deben sustituirse adelantándose a su rotura”, apunta Winkler, ejecutivo de Azure.

No solo la visión comienza a ser artificial, también el habla: la traducción automática y la conversión de texto a audio y viceversa. Son tareas muy concretas que permiten, con la imaginación suficiente, transformar modelos de negocio. “Estamos en la edad de oro del machine learning. Y ahora el reto es mejorar las herramientas para que su uso sea fácil para cualquier empresa, entidad o individuo, sin ser un experto en la materia”, resume Sivasubramanian.

El hombre aprende de la máquina

Antes de que la primera ficha se moviera, Lee Sedol lo tenía claro: “Una máquina no puede vencer a un humano al Go, porque el Go es un arte”. Después de una extenuante partida, Lee Sedol claudicada: “Reconozco que la he subestimado”. Sedol, el mejor jugador de Go del planeta, reconocido como el juego humano más complejo, se mostraba asombrado de la capacidad de una computadora, el AlphaGo de Google, para torcerle la mano en el pulso y derrotarlo.

Pero ante la primera lectura pesimista, la claudicación del humano ante la todopoderosa máquina, la escena mundial del milenario juego de origen chino empezó a darse cuenta de un hallazgo todavía más inaudito: “Una vez cada medio siglo, un maestro del Go conseguía inventar una nueva estrategia nunca vista. Gracias a AlphaGo, los humanos observaron todo un abanico de movimientos que jamás habían sido usados por ningún jugador. La decepción se transformó en entusiasmo al entender que nuestra máquina había inyectado ‘sangre joven’ en el juego”, apunta Emmanuel Mogenet, jefe de Google Research Europe.

Mogenet, dado a acuñar frases pegadizas y evocadoras, define esta sorprendente vuelta de tuerca que el machine learning proporciona a una actividad humana de la siguiente manera: “No hay que entenderlo como un competidor, como un sustituto. Esta tecnología es como un exoesqueleto de la mente”. De manera menos colorida, todos los entrevistados, directivos de las principales compañías del mundo en explotar los algoritmos automatizados, coinciden en la misma idea: el machine learning sirve para “aumentar” al ser humano. No para reemplazarlo.

La gran preocupación que se deriva de esta tecnología es cuánto podría llegar a impactar al empleo. Consultoras de prestigio como McKinsey han puesto en liza cifras aterradoras: 73 millones de empleos perdidos en Estados Unidos para 2030. Pero muchos expertos creen que estas predicciones son exageradas. Ramón López de Mántaras, director de inteligencia artificial del CSIC, afirmó lo siguiente en el evento Retina LTD: “La gran mayoría de los puestos de trabajo verán aparecer binomios persona-máquina en los que el conjunto de ambos será más valioso que cualquiera de los dos por separado. Esto hará peligrar muchos menos puestos de trabajo de los que pensamos”.

Ejemplos palpables de esta tendencia copan portadas de medios como The New York Times, que recientemente publicó un artículo de cómo los trabajadores de Amazon están reciclando sus funciones para trabajar en alianza con los robots de la compañía, llevándole la contraria a las predicciones del presidente de EE UU Donald Trump sobre la catastrófica destrucción del empleo que traerá la nueva era de automatización.

Pero el efecto dominó del machine learning podría llegar mucho más lejos que la mera potenciación de las habilidades humanas. Podría romper definitivamente la baraja de la desigualdad que vertebra el modelo capitalista. “Yo soy un inútil para dibujar”, apunta Mogenet, directivo de Google. “Pero con un sistema de machine learning, que me permitiera plasmar mis ideas proporcionándome la destreza de la que carezco, igualaría las tornas con un artista. Si abstraemos y aplicamos este concepto a cualquier área de conocimiento, vemos que el valor económico de las personas tendería a igualarse porque su diferencia en educación y talento se reduciría. Y al reducir la necesidad de asumir las tareas tediosas liberaría la creatividad de todo el planeta”.

Arjun Bansal, directivo de Intel, va más lejos: “Conceptos como el salario universal deben ser estudiados detalladamente si, como esperamos, cada vez hay que trabajar menos. Hay que ser muy cuidadosos pero estoy convencido de que, globalmente, el machine learning va a ser una fuerza benefactora para la humanidad”.

A años luz de la cognición

El machine learning parece prometer un futuro más esperanzador para asumir los múltiples desafíos ecológicos, económicos y sociales del presente. Pero una palabra sigue siendo clave: desmitificar. Creer que de aquí a la cognición, a esa IA de la ciencia- ficción, se puede tender un puente de plata, es caer en lo ilusorio. “Ahora somos capaces de hacer lo equivalente al cerebro de una serpiente”, resume Mogenet, directivo de Google. “Algo tan complejo como el ser humano nos queda completamente fuera de nuestro alcance”.

Cómo se casa esta concepción humilde de la tecnología de automatización con las mediáticas victorias en ajedrez o Go a genios humanos tiene una explicación sencilla. “Una máquina puede superar a un humano en una tarea muy concreta mediante este tipo de algoritmos. Pero una persona puede hacer muchísimas tareas distintas con brillantez. Es más, puede enfrentarse a un problema que no se le haya presentado jamás y resolverlo. Esta capacidad de enfrentarse a lo desconocido está muy por delante de lo que puede hacer hoy en día una máquina”, explica Sivasubramanian, de Amazon.

Pero el aceptar esta realidad no quiere decir que no haya que trabajar por lograr una cognición artificial. El reto es lograr que una computadora se cree una imagen del mundo, como las que tenemos los seres humanos, porque una computadora no entiende el significado de las imágenes, textos o datos que maneja. No sabe qué es un presidente de un país o una manzana. Sin embargo, empieza a tener las capacidades básicas para posibilitar esa inferencia. Empieza a ver y a escuchar.

“El desafío es combinar las habilidades que ya tenemos para lograr sistemas artificiales más flexibles. Si miras al cerebro humano, tienes una función para ver, otra para hablar… El reto es lograr esa fusión”, explica, entusiasta, Arjun Bansal, ejecutivo de Intel, informático y neurólogo. Eso sí, el primer sueño a cumplir para este experto en IA es mucho más pedestre. Y provechoso: “Creo que es algo que no solo me haría ilusión a mí, sino a toda la humanidad. Un robot que lave los platos, prepare la comida y haga la colada [risas]. Y aún estamos muy lejos de lograrlo”.

Vocabulario para no iniciados

Inteligencia artificial: Es la ciencia que se ocupa de diseñar máquinas que emulan el pensamiento humano.

'Machine learning': Área de la inteligencia artificial enfocada en desarrollar programas informáticos capaces de aprender por sí mismos y realizar predicciones.

'Deep learning': Técnica para aplicar machine learning que se basa en un tipo específico de algoritmos conocidos como redes neuronales. Es la responsable del actual boom de la automatización artificial. Red neuronal: Modelo matemático que emula el comportamiento estructural del cerebro humano, tomando como base la interacción entre las neuronas.

'Machine vision': Aplicación de machine learning para análisis y categorización de imágenes.

Procesamiento de Lenguajes Naturales (PLN): Área de la ciencia informática dedicada al estudio de cómo las computadoras manejan, comprenden y generan el lenguaje humano.

API: Aplicaciones concretas que utilizan machine learning para resolver un problema o plantear un marco en el que resolverlo. Reconocimiento de audio: Aplicación de machine learning que permite reconocer el lenguaje hablado y pasarlo a texto.

Más información

Retina

20/11/2018
02

Zuckerberg se pone el casco militar con Facebook en guerra

Facebook está en guerra. Así se lo comentó el propio fundador y CEO de la compañía, Mark Zuckerberg, a 50 de sus principales directivos hace algunos meses. También les informó de que era su intención llevar la compañía en consecuencia.

Zuckerberg se pone el casco militar con Facebook en guerra
Normas