Microsoft: “La inteligencia artificial actual no alcanza el nivel de un bebé”

Microsoft: “La inteligencia artificial actual no alcanza el nivel de un bebé”

El gigante de la informática repasa el pasado, presente y futuro de una carrera, la tecnológica, en la que lleva 26 años

Anirudn Koul dirige su teléfono al público. Seeing AI responde: “Probablemente un grupo de gente rodeando algo”. Se acerca a uno de sus integrantes, que sonríe a la cámara: “Un hombre de 59 años y pelo cano que parece feliz”. Apunta a la ventana: “Probablemente un puente sobre un río en una ciudad”. Al fondo, el Támesis resplandece a su paso por Lambeth Bridge. “Reconoce lo que tengamos delante: caras, billetes, chocolatinas...”, afirma Koul, especializado en deep learning. Él no necesita Seeing AI para identificar personas o productos, leer textos, mirar por la ventana. Para Shaqib Shaik, desarrollador de software líder en el proyecto y ciego, la voz que sale del smartphone es esencial. “Cuando detecta algo, empieza a emitir señales sonoras que ayudan a mejorar el enfoque. Después procesa la imagen y genera la descripción”, asegura.

InnerEye. Microsoft Research

Seeing AI bebe de las APIs de Microsoft Cognitive Service y de 26 años de investigación que comenzaron en un laboratorio británico, el primero de la compañía fuera de los Estados Unidos. “Estamos entrando en la fase más extraordinaria de la revolución digital. Lo que estamos viendo es una transformación profunda en los sistemas de computación, la mayor desde que nacieron”, asegura Chris Bishop, director del Microsoft Research Lab de Cambridge. Bajo su batuta se han combinado sistemas de machine learning y visión artificial para crear aplicaciones como InnerEye, que asiste a los profesionales médicos en el análisis de imágenes y reduce a mínimos imposibles el tiempo necesario para delimitar, por ejemplo, el contorno de un tumor.

En los últimos 60 años ha habido un goteo de contribuciones que ya ni consideramos AI

Eric Horvitz, Microsoft Research

La actualidad de la inteligencia artificial (AI) dejaría pasmados a quienes la bautizaron, en 1955, y propusieron un campo en el que desarrollar tecnologías para hacer que las máquinas resolvieran problemas reservados para las competencias humanas. "Ahora las cosas se mueven muy rápido, pero durante los últimos sesenta años ha habido un goteo de contribuciones que ya forman parte de nuestro día a día y ni consideramos AI", señala Eric Horvitz, director del área de investigación de Microsoft.

  • En pañales
Harry Shum (Microsoft)

Sin embargo, todo este progreso aún palidece ante la capacidad humana en la más elemental de sus formas. "Ni siquiera estamos al nivel de un bebé", sentencia Harry Shum, vicepresidente ejecutivo de la división de AI. "El cerebro de un niño puede procesar todo tipo de estímulos: luz, sonido, comodidad... Esto puede parecer sencillo para un humano, pero es arduo para la inteligencia artificial".

¿Cómo es posible que las capacidades de un recién nacido superen a sistemas capaces de delinear un órgano, cambiar la hora de un vuelo o escribir un libro de poesía? "En 1955 se definieron los pilares de lo que, parece, se nos da bien a los seres humanos: percepción, aprendizaje, raciocinio y lenguaje natural. Los cuatro persisten hoy, pero son campos que han crecido y avanzado en diferentes direcciones", explica Horvitz. Así, somos capaces de agilizar y automatizar tareas de gran exigencia, pero de manera aislada y dentro de entornos con poco margen para el azar. "Estamos hablando de sistemas entrenados en laboratorios, el mundo es mucho más grande y complejo".

Queremos combinar nuestras competencias para crear sinfonías de inteligencia

Eric Horvitz, Microsoft Research

La solución de Microsoft para fusionar los significativos pero atomizados avances del último cuarto de siglo y progresar en el desarrollo de una inteligencia artificial general pasa por reagrupar el rebaño y devolverlo al redil. "Queremos combinar estas competencias para crear sinfonías de inteligencia que nos permitan avanzar en nuestra comprensión del intelecto humano. Hacer esto bien es un reto técnico, social, psicológico y organizacional", resume Horvitz.

  • Carne y hueso de AI

"Si diseñamos para el futuro, es esencial que invoquemos lo aprendido del pasado", afirma Emma Williams, responsable del diseño de UX (experiencia de usuario) en AI. Según ella, como homo sapiens y responsables de la progresiva desaparición del resto de homínidos que convivían con nosotros hace 300.000 años, estamos evolutiva e intuitivamente programados para percibir y temer la amenaza de otra especie dominante dotada de conciencia. Esta convicción marca los principios de diseño para la era de la inteligencia artificial: "Los humanos son el centro de lo que estamos intentando crear. Queremos equilibrar la inteligencia tradicional (IQ) y la emocional (EQ), honrar los valores sociales y el contexto que nos rodea; y seguir progresando", resume Williams.

Ilustración de un juguete

En la creación de esta interfaz están participando psicólogos, antropólogos y hasta músicos que modularán la voz de la AI del futuro. "Durante cuarenta años, los humanos hemos tenido que aprender cómo hablar con los ordenadores. Mi padre es un genio, un matemático genial, pero tengo que enseñarle cómo insertar palabras clave en un buscador para encontrar los resultados que busca", comenta Williams. Ahora estamos en la víspera de un mundo donde los ordenadores podrán hablar a cualquiera, desde al niño de cinco años al anciano de 85. "Creo sinceramente que vamos a cerrar la brecha digital entre generaciones", afirma.

Por lo pronto, Microsoft sigue perdiendo en la competición contra el cerebro humano, capaz de procesar unos 14 millones de estímulos por minuto -por supuesto, la mayoría de ellos en segundo plano- y de soñar, crecer, crear arte e historias, expresar emociones, sentir y entender cómo se sienten otros. "Ahora tenemos muchísimo impulso, pero antes de emocionarnos demasiado debemos entender qué nos hace humanos y únicos", admite Harry Shum.

Retina

24/09/2017
Normas
Entra en EL PAÍS