Melanie Mitchell es profesora de Ciencias de la Computación en Portland State University
Melanie Mitchell es profesora de Ciencias de la Computación en Portland State University
Cognición

Melanie Mitchell: “Mi mayor miedo es que confiemos en una inteligencia artificial que no es tan lista”

La investigadora norteamericana descarta que seamos capaces de crear máquinas que nos sometan y advierte que estamos infravalorando la complejidad de la mente humana

La inteligencia artificial que imaginamos es ese magnífico abrigo que vemos en la foto antes de comprarlo por internet. La que tenemos es el harapo amorfo que nos llega a casa. Más de cincuenta años llevamos atascados en esta grieta entre realidad y expectativas. Y según Melanie Mitchel, aún nos queda: "Esto empezó en los principios de la era de la inteligencia artificial, en los cincuenta la gente decía que en cuestión de 10, 15, 25 años íbamos a tener una inteligencia artificial completa y capaz de remplazar al ser humano en todos los empleos. Nada de eso ha ocurrido".

El primero en tirarse a la piscina fue el New York Times, envalentonado por los avances Frank Rosenblatt, padre del Perceptron: "Se espera que el ordenador sea capaz de caminar, hablar, ver escribir, reproducirse y ser consciente de su existencia".

La cabecera inauguró así una tendencia que no es ajena a la prensa global actual. "El público general y los intelectuales todavía sobrestiman la inteligencia artificial, en parte, por la desinformación que se da en los medios", señala la investigadora norteamericana, profesora de Ciencias de la Computación en Portland State University. Pero no hemos estado solos en esto.

En 1961, Claude Shannon se subió al carro: "Espero con seguridad que en cuestión de diez o quince años algo no lejano de los robots de ciencia ficción emergerá del laboratorio". Cuatro años después se columpió Herbert Simon, premio Nobel de Economía: "En veinte años, las máquinas serán capaces de hacer cualquier trabajo que pueda hace un humano". Y en esas seguimos.

¿Ha disminuido en algo la distancia que nos separa de esas máquinas tan inteligentes como nosotros?

Diría que la mayoría de las personas que realmente trabajan en el campo de la inteligencia artificial se han dado cuenta de que esto es mucho más difícil de lo que se estimó y están empezando a entender por qué. La gente infravalora lo compleja que es la inteligencia humana.

Ha afirmado que las limitaciones humanas son precisamente lo que hace que tengamos esa codiciada inteligencia general y lo que evita que pueda desarrollarse una hipotética superinteligencia que someta a la raza humana. ¿Cómo funciona esto?

Los humanos tenemos una inteligencia que podemos aplicar a muchas y muy distintas situaciones, pero tenemos defectos: nos aburrimos, no prestamos atención, necesitamos dormir, tenemos un montón de emociones que nublan nuestro pensamiento racional... Hay quien defiende que los ordenadores serán más inteligentes porque no tendrán estos límites. Mi argumento es que esto que consideramos limitaciones, en realidad puede ser fundamental para nuestra inteligencia.
El mundo funciona así. Interactuamos constantemente con otras personas y eso es clave en nuestra inteligencia. Todavía estamos muy lejos de entender la inteligencia humana y cómo funciona. Por eso pienso que es ingenuo asumir que un ordenador con inteligencia general no tendría el mismo tipo de limitaciones, como si esta pudiera separarse de todas sus cualidades humanas.

¿Qué papel ha tenido la ciencia ficción en estos desajustes?

Creo que los no expertos que han leído mucha ciencia ficción y visto muchas películas piensan que estamos mucho más próximos a la inteligencia artificial general de lo que realmente estamos. La gente del sector también está muy influenciada por ella, realmente quieren que sus máquinas sean como el ordenador de Star Trek. La ciencia ficción ha tenido un gran impacto en la cultura y las creencias relacionadas con la inteligencia artificial.

¿Esto es bueno o malo?

Es difícil decirlo. La ciencia ficción siempre ha sido una gran fuente de inspiración. La gente se interesa en las ciencias porque se interesó antes en ciencia ficción. Eso es bueno. Pero tomarlo demasiado en serio y creer demasiado en ello puede ser peligroso.
Mucha gente teme que vayamos a tener sistemas superinteligentes y malvados por lo que ha visto en la ciencia ficción, mientras que mi mayor miedo no es que vayamos a tener una inteligencia artificial demasiado inteligente, sino que acabemos confiando en una que no es tan lista.

Mitchell desembarcó en la inteligencia artificial en los años ochenta, después esquivar una potencialmente descorazonadora carrera como profesora de matemáticas en Nueva York y mudarse a Boston para hacer un curso de introducción a las Ciencias de la Computación. En los noventa obtuvo su doctorado, bajo la tutela -entre otros- de Douglas Hofstadter, autor del célebre Gödel Escher Bach: un eterno y grácil bucle. "Sin duda, GEB inspiró a más gente joven a meterse en inteligencia artificial que cualquier otra obra. Yo fui una de ellos", recuerda.

La profesora repasa en su último libro -Artificial Intelligence: A Guide for Thinking Humans- todo cuanto ha visto y oído en estos años: desde las funestas profecías de Nick Bostrom hasta la absoluta indiferencia del psicólogo e investigador Gary Marcus, para quien en las últimas y alabadas décadas "apenas ha habido avances".

¿Cómo es posible que la comunidad investigadora esté tan dividida en torno a este tema?

Diría que la facción que predice que vamos a tener inteligencia artificial de nivel humano muy pronto es muy pequeña, pero recibe más atención que la gente que es menos optimista. Otra razón es que la investigación en inteligencia artificial solía hacerse en universidades y laboratorios puramente académicos, pero ahora se ha vuelto corporativa. Las empresas han apostado por la inteligencia artificial y están intentando promocionar sus productos y sus marcas. En esto se da una tendencia natural a sobreprometer que no solo existe en este sector, sino en todas las tecnologías.

Ahora mismo, hasta las aplicaciones más avanzadas que ya hemos desarrollado parecen poco realistas, considerando los recursos que exigen...

Sí. Las aplicaciones más avanzadas a la inteligencia artificial implican lo que la gente llama big data. Un ejemplo serían los programas de reconocimiento facial que se usan en todo tipo de aplicaciones, buenas y malas. Esto requiere un número enorme de fotos de caras que han sido etiquetadas manualmente por humanos. Y también se precisa lo que llamamos redes neuronales, que tienen que ser cuidadosamente construidas por humanos para procesar los datos. Hay muchísima implicación humana, mucho dinero y mucha potencia de computación dedicada a entrenar estos sistemas.
Esto nos lleva a una gran pregunta: ¿Llevará esta tendencia de bases de datos más y más grandes y poder computacional cada vez mayor a mejores sistemas de inteligencia artificial? ¿O estamos tocando techo? Creo que nadie lo sabe realmente, pero hay evidencias que muestran que estamos agotando nuestra habilidad para mejorar el rendimiento de estos sistemas.

Entre las voces que confluyen con esta última idea, está la del responsable de inteligencia artificial de Facebook, Jerome Pesenti, para quien "en muchos sentidos" ya hemos llegado al límite de nuestras capacidades. Y el mundo empresarial parece darle la razón: según las predicciones de PWC, solo un 4% de los ejecutivos se plantean implementar inteligencia artificial en el grueso de sus empresas durante el inminente 2020. Hace un año eran el 20%.

La consultora habla de un baño de realidad que se soluciona con un reajuste de estrategias. Pesenti prescribe el aprovechamiento extremo de las capacidades actuales. Mitchell, que ha visto su campo de estudio florecer y marchitarse en varias ocasiones, no descarta que se avecine un nuevo invierno de la inteligencia artificial. "Los inviernos son una cuestión de expectativas. Normalmente tenemos primaveras cuando se anuncian grandes proyectos y entra mucho dinero al campo bien a través de startups con capital riesgo o bien con fondos públicos. Entonces resulta que la gente fue demasiado optimista y ocurre una gran decepción porque nadie reconoció lo difícil que era el problema. El ejemplo perfecto de esto son los coches autónomos".

¿Estaríamos teniendo esta conversación si John McCarthy no hubiera puesto a este campo un nombre tan ambicioso como "inteligencia artificial"?

Eso ha sido objeto de debate. Herbert Simon propuso otro nombre: "Procesamiento de información compleja". Es mucho menos sexi que "inteligencia artificial", ¿verdad? Pero tal vez es más preciso. Estos nombres acaban imbuidos de cierto encanto. Hay un atractivo en "inteligencia" que no ves en "procesamiento de información".
Ocurre lo mismo con el deep learning, que suena muy importante y profundo, pero la palabra "hondo" (deep) no hace referencia a ninguna idea de comprensión o inteligencia profunda, sino al tamaño de la red neuronal, a cuantas capas de neuronas simuladas tiene. Además, utilizamos la palabra "aprendizaje" (learning) para estos sistemas, que distan mucho del aprendizaje humano. Pero bueno, si los llamamos así, suenan mucho más inteligentes de lo que realmente son.

En múltiples ocasiones ha señalado que el deep learning ha acumulado demasiada atención, en detrimento de otras aproximaciones. ¿Otro gallo cantaría si no hubiera sido así?

Sí. Creo que en la comunidad investigadora existe la tendencia a trabajar en los sistemas que han resultado más exitosos. Ahora todo el mundo está trabajando en deep learning y desatendiendo otras áreas que podrían producir resultados útiles. Todo el mundo se sube al carro del deep learning y eso genera una falta de diversidad en la investigación. Si esto no ocurriese, tal vez tendríamos otros métodos que nos condujesen a mayores progresos.

Pese a todo, ¿diría que vale la pena seguir aspirando a una inteligencia artificial que emule nuestras capacidades?

Es muy difícil predecir como de rápido va a progresar el campo en el futuro. ¿Eliminará empleos? No lo sabemos. Es realmente complicado determinar qué impacto van a tener estas tecnologías. Mucha gente especula, pero hay mucho desacuerdo en esas especulaciones.
Como con cualquier tecnología poderosa, mucho es compensar. No creo que debamos parar la investigación, pero tenemos que ser muy conscientes de las posibles implicaciones. Creo que la gente está empezando a hacer esto. Hace veinte años la inteligencia artificial no era tan famosa. No había mucha necesidad de hablar de éticas y regulación. Ahora empezamos a forcejear con estos asuntos.

Ya que hay que temer la rebelión de las máquinas, ¿de qué tenemos que cuidarnos?

Tenemos que preocuparnos por el uso humano de la inteligencia artificial. Esta tecnología no se va a volver repentinamente inteligente. No va a dominar el mundo. Eso está muy lejos de lo que tenemos ahora. Creo que lo único que sí podemos predecir es que eso no va a ocurrir en ningún momento del futuro cercano.
Lo que sí pienso es que tenemos tecnologías de inteligencia artificial a las que estamos dando autonomía. Las ponemos a tomar decisiones sobre gente, cárceles, solicitudes de préstamos... La cuestión es: ¿confiamos en ellas?, ¿estamos aplicándolas como deberíamos?, ¿reconocemos sus limitaciones?, ¿necesitamos regularlas? En Estados Unidos ya hay ciudades que están prohibiendo el reconocimiento facial en las fuerzas de seguridad, por sus potenciales usos indebidos. Creo que empezaremos a ver más y más regulación conforme la gente se vaya dando cuenta de que estos sistemas tal vez no son tan listos como nos hemos pensado.

Retina

08/04/2020
06

Famosos que no existen

Las celebridades virtuales cada vez son más populares y acumulan una legión de seguidores en las redes sociales.

Famosos que no existen
La aplicación para cualquier emergencia
09

La aplicación para cualquier emergencia

Andrés Maldonado es el creador de Welppy, una aplicación para gestionar alertas de todo tipo, desde incendios a mascotas perdidas. Su vocación: implicar a la comunidad en la alerta y resolución de incidencias.

La inteligencia artificial de ‘El Pirata’
10

La inteligencia artificial de ‘El Pirata’

Esteban Granero es el típico futbolista atípico: universitario, lector voraz, crítico literario para el proyecto Newtral de la periodista Ana Pastor y fundador de Olocip, 'startup' que ofrece inteligencia artificial para optimizar la toma de decisiones de clubes y empresas deportivas.

Normas
Entra en El País para participar