Por qué debemos tener en cuenta la ética con la inteligencia artificial… antes de que sea demasiado tarde
FIRMA INVITADA

Por qué debemos tener en cuenta la ética con la inteligencia artificial… antes de que sea demasiado tarde

En una escena memorable de la película Ex Machina, el CEO de una multinacional al más puro estilo de Google explica cómo sus máquinas han aprendido a ser humanas. Durante unos segundos, dice, y sin que nadie lo supiera, encendió las cámaras de los smartphones de todo el mundo y recopiló datos. “Boom. Un recurso ilimitado de interacción vocal y facial”.

A veces la realidad supera a ficción. La inteligencia artificial se hace más sofisticada mientras los desarrolladores siguen reconociendo que la información, las imágenes y los vídeos que compartimos en las redes sociales y en internet de forma voluntaria representan una de las fuentes más ricas de datos. Una verdadera instantánea de la humanidad en cualquier momento.

Datos como estos pueden ser algún día el alma del machine learning, una aplicación de inteligencia artificial en la que las máquinas, al tener acceso a todos los datos, aprenden por sí solas. Pero para aprender, necesitan un gran entrenamiento. En general, bastaría con analizar cómo millones de personas realizamos comportamientos repetitivos —jugar a Pokémon Go, responder peticiones de atención al cliente o etiquetar una foto de un caniche con la palabra ‘perro’— para eliminar a los humanos del proceso.

Muchas de estas cosas ya se han quedado obsoletas. Apple recurre a una inteligencia artificial que ha sido entrenada innumerables veces para transcribir nuestra voz y activar Siri. Facebook la usa para aprender de las interacciones pasadas y garantizar así que los anuncios se dirijan correctamente a miles de millones de usuarios. Google ha incorporado, de alguna forma, esta tecnología desde el principio en sus motores de búsqueda.

  • El peligro (y la promesa) de los datos sociales

Aplicaciones recientes de inteligencia artificial como el Tay bot de Microsoft ponen de manifiesto el gran desafío del tratamiento los datos sociales. El chatbot Tay, implementado en Twitter a principios de 2016, aprendía de las interacciones del usuario. En su perfil podíamos leer “Cuanto más hablas, más inteligente se vuelve Tay”. Pero esta aplicación terminó llenándose de comentarios racistas, antisemitas y misóginos. Aprendiendo de su entorno, Tay empezó a utilizar una serie de respuestas incendiarias, como “Bush atentó contra las torres gemelas”, o “Hitler habría hecho un trabajo mejor que el mono que tenemos ahora”. Los desarrolladores de Microsoft cerraron la aplicación apenas 16 horas después de su lanzamiento.

Este es solo un ejemplo, pero resalta el próximo desafío. Miles de millones de personas publican sus pensamientos, sentimientos y experiencias en las redes sociales todos los días. Entrenar una plataforma de inteligencia artificial a partir de datos de redes sociales y con la intención de reproducir una experiencia humana tiene muchos riesgos. Podría compararse con un bebé que aprendiese solo viendo Fox News o la CNN sin la aportación de padres y educadores. En cualquier caso, se estaría creando un monstruo.

La realidad es que, aunque los datos sociales pueden reflejar bien nuestra huella digital, no tienen por qué ser ciertos o buenos. Algunas publicaciones reflejan un yo imaginado, tan perfecto que no parece humano. Otras, favorecidas por el anonimato, demuestran un comportamiento que raramente se ve en la vida real. En resumen, los datos sociales, por sí solos, no representan ni quiénes somos en realidad ni quiénes deberíamos ser.

Si profundizamos un poco más, y por muy útil que pueda ser el gráfico social a la hora de entrenar una inteligencia artificial, lo que falta es un sentido de la ética o un marco moral para evaluar todos estos datos. De todas las experiencias humanas compartidas en Twitter, Facebook y otras redes sociales, ¿qué comportamientos deben seguirse y cuáles deben ser evitados? ¿Qué acciones son correctas y cuáles no? ¿Qué es bueno y qué es malo?

  • Codificar la religión en la inteligencia artificial

Buscar la forma de aplicar ética a la tecnología no es algo nuevo. Ya en la década de los 40, Isaac Asimov formuló las Leyes de la Robótica. La primera ley: un robot no puede dañar a un ser humano o permitir que sufra daño alguno.

Estas preocupaciones ya no son ciencia ficción. Hay una gran necesidad de encontrar una guía moral para dirigir las máquinas inteligentes con las que cada vez más compartimos nuestras vidas. Esto se vuelve aún más crítico a medida que la inteligencia artificial comienza a desarrollar software de aprendizaje automático sin orientación humana, como es el caso del AutoML de Google. Hoy en día, Tay es una molestia relativamente inofensiva en Twitter. Mañana, puede que esté ideando una estrategia para nuestras empresas o nuestros gobiernos. ¿Qué reglas debe seguir? ¿Cuáles debe desobedecer?

Aquí es donde la ciencia se queda corta. Las respuestas no pueden obtenerse de ningún conjunto de datos sociales. Las mejores herramientas analíticas no las resolverán, sin importar lo grande que sea el tamaño de la muestra. Sin embargo, esas respuestas sí podrían encontrarse en la Biblia.

Y el Corán, la Torá, el Bhagavad Gita y los sutras budistas. Están en la obra de Aristóteles, Platón, Confucio, Descartes y otros filósofos, tanto antiguos como modernos. Hemos pasado literalmente miles de años ideando reglas de conducta humana, los preceptos básicos que nos permiten (al menos idealmente) convivir y prosperar juntos. Lo principal ha sobrevivido milenios con pocos cambios; una prueba de su utilidad y validez. Y lo más importante, en su esencia, es que estas escuelas de pensamiento comparten puntos notablemente similares sobre el comportamiento moral y ético.

A medida que la inteligencia artificial crece en sofisticación y aplicación, nosotros necesitamos, más que nunca, que la religión, la filosofía y las humanidades florezcan. En muchos sentidos, el éxito o el fracaso de esta tecnología de vanguardia depende de la eficacia con la que apliquemos algunos de los conocimientos más atemporales. El enfoque no debería ser dogmático ni estar alineado con ninguna otra corriente o filosofía concreta. Pero está claro que es necesaria una base ética: los datos por sí solos no son suficientes.

En lugar de padres o sacerdotes, la responsabilidad de esta educación ética recaerá cada vez más en desarrolladores y científicos. Tradicionalmente, la ética no se ha tenido en cuenta en la formación de los ingenieros informáticos y esto tiene que cambiar. Entender sólo la ciencia no es suficiente cuando los algoritmos tienen implicaciones morales.

Como destacó el eminente investigador en inteligencia artificial Will Bridewell, es muy importante que los futuros desarrolladores sean “conscientes de las implicaciones éticas de su trabajo y entiendan las consecuencias sociales de lo que desarrollan”. Bridewell va más allá y defiende el estudio de la ética de Aristóteles y la ética budista para que puedan “seguir mejor las intuiciones sobre el comportamiento moral y ético”.

A un nivel más profundo, la responsabilidad recae en las organizaciones que contratan a estos desarrolladores, las industrias de las que forman parte, los gobiernos que regulan esas industrias y, al final, en nosotros mismos. En la actualidad, las políticas públicas respecto a inteligencia artificial son muy recientes o ni siquiera existen. Pero se empieza a notar una preocupación sobre este tema. Open AI, creada por Elon Musk y Sam Altman, está presionando para que sea controlada. Los líderes tecnológicos se han reunido en la Asociación sobre Inteligencia Artificial para explorar cuestiones éticas. Están surgiendo órganos como AI Now para identificar los prejuicios y así poder erradicarlos. Se está buscando crear un marco ético para dilucidad cómo la inteligencia artificial puede convertir datos en decisiones de una manera justa, sostenible y representativa de lo mejor de la humanidad.

Esto no es un sueño. Está a nuestro alcance. Recientemente han aparecido algunos informes que hablaban de que el sistema DeepMind de Google se había vuelto "altamente agresivo" cuando se le dejaba a su libre albedrío. Los investigadores de Google hicieron que los agentes de inteligencia artificial se enfrentasen a 40 millones de partidas de un juego de ordenador donde el objetivo era recolectar fruta. Cuando las manzanas escaseaban, los agentes empezaban a atacarse entre sí, matando a sus rivales, dejando aflorar los peores impulsos de la humanidad. Después, los investigadores cambiaron el contexto. Los algoritmos se modificaron para que la cooperación fuera el objetivo. Finalmente, los agentes que aprendieron a trabajar juntos fueron los que triunfaron. La inteligencia artificial puede reflejar lo mejor de nosotros, si le enseñamos cómo hacerlo.

Ryan Holmes es CEO de Hootsuite.

Por

Retina

27/06/2019
07
No hay un ‘plan b’ para Madrid Central

No hay un ‘plan b’ para Madrid Central

Llevamos un siglo incorporando y entronizando el automóvil en la ciudad, ahora que conocemos los efectos de esa decisión, no podremos esperar otro para restringirlo.

Cómo adivinar la obesidad mundial con cuatro alimentos
09

Cómo adivinar la obesidad mundial con cuatro alimentos

Investigadores de la Universidad de Chile y Johns Hopkins (EE UU) demuestran que es posible predecir la prevalencia de la obesidad aplicando técnicas de aprendizaje automático a los datos de compra de alimentos de cada país

Normas