Gerd Leonhard en un momento de la entrevista realizada durante la última edición de South Summit 2018

“No descartaría que algún país use 100 millones de genomas para crear un ‘supersoldado”

"Las grandes empresas tecnológicas tienen más poder del que jamás acumularon las petroleras o la banca", asegura el divulgador Gerd Leonhard. Si no se regula la IA o la ingeniería genética, augura, llegarán conflictos internacionales de nuevo cuño

De profesión, futurólogo. Así podría presentarse Gerd Leonhard (Bonn, Alemania, 1961), muy a su pesar porque a él no le gusta el término. Tras dedicarse durante décadas a la industria del entretenimiento, este músico y compositor acabó reenfocando su carrera casi por accidente a la escritura y las conferencias. En su último libro (Tecnología versus humanidad. El futuro choque entre hombre y máquina, The Futures Agency), el alemán explora los límites de la tecnología y su relación con el ser humano. Leonhard fue uno de los ponentes estrella de enLIGHTED, el evento paralelo organizado por Telefónica en el South Summit 2018.

¿Debemos temer a las máquinas?

Deberemos hacerlo si las dejamos crecer hasta parecerse a nosotros. También deberíamos temer a las máquinas que aprendan a hacer lo que nosotros hacemos, aunque eso sea inevitable. Tener algo de miedo es útil, pero creo que nos quedan al menos 50 años antes de que las máquinas lleguen a razonar y pensar de forma parecida a los humanos. Será entonces cuando debamos temerlas. Entre tanto, debemos atender los cambios sociales, educativos y laborales que ya están provocando.

¿Crees entonces que llegaremos a ver una inteligencia artificial general?

Los ordenadores llegarán a tener una potencia casi ilimitada. Habrá datos por todas partes y máquinas inteligentes, aunque no tendrán inteligencia emocional. ¿Llegarán a tenerla algún día? Puede, pero eso queda muy, muy lejos. En lo que deberíamos centrarnos ahora es en cómo están cambiando las máquinas nuestra cultura y en qué deberíamos impedir que hagan. Las empresas están explorando sin ninguna restricción qué se puede automatizar y qué no. La cuestión sería decidir qué es lo que no deberíamos dejar que se automatice para seguir siendo lo que somos.

¿Cómo deberíamos gestionar estos 50 años que, como mínimo, quedan hasta que llegue una IA general?

Necesitamos una moratoria del desarrollo de tecnología como arma, como ya existe por ejemplo con las nucleares. La inteligencia artificial, la edición del genoma y la ingeniería genética tienen mucho que aportar al mundo, pero debemos asegurarnos de que no se usen para el mal. Estas tecnologías están ahora fuera de control, las empresas pueden investigar lo que quieran. El genoma nos puede ayudar a erradicar el cáncer y el mundo seguro que será mejor con la IA, pero depende de nosotros que no se cruce la línea roja.

Propongo la creación de un Comité Ético Digital, una organización global que se dedique a pensar de forma profesional qué deberíamos y qué no deberíamos hacer y a tratar de que nos pongamos de acuerdo en torno a unas reglas simples de funcionamiento. Por ejemplo, que si automatizamos pagamos un impuesto, de manera que podamos hacer que la gente aprenda otro empleo. Tampoco hay que usar las máquinas como armas ni dejar que se controlen ellas mismas, por ejemplo para matar. Creo que todos podríamos estar de acuerdo en ello.

Tenemos unos diez años para decidir cómo vamos a querer que sea el ser humano del futuro” 

Es verdad que las empresas no tienen restricciones ahora mismo en cuanto a desarrollo e investigación. ¿Cómo se deberían fijar los límites?

El mayor problema que tenemos hoy es que las grandes empresas y plataformas de internet tienen más poder del que jamás tuvieron las petroleras o bancos. Microsoft fue una empresa poderosa, un cuasi monopolio, pero Google, Amazon o Facebook, Alibaba, Baidu o Tencent están literalmente gobernando el mundo. El futuro es suyo, no de la gente. Los sectores energético y financiero se regularon; el suyo es un terreno completamente virgen y libre. Eso es extremadamente peligroso, porque ¿cómo regulas algo que implique que alguien deje de ganar decenas o centenares de miles de millones? Si queremos que se autorregulen, debemos deshacer parte de lo que se ha hecho. De eso va la ética. Puede que lo que hagan no sea ilegal, pero sí poco ético. Al final ambas cosas atentan contra los humanos.

Ya estamos viendo que los algoritmos tienen sesgos. ¿Qué más podemos esperar de ellos?

El problema es que las compañías enfocadas en tecnologías complejas, como el internet de las cosas (IoT, en sus siglas inglesas), prueban sus desarrollos y, si funcionas comercialmente, siguen para adelante. El problema es que todo lo que esté conectado es transparente, y por tanto tú también te conviertes en algo transparente. Y nadie se preocupa por eso, porque no forma parte del negocio. Necesitamos hacer que las empresas sean responsables de lo que hacen. Si desarrollas productos en el IoT debes ser responsable de su seguridad. Es una tecnología genial, pero en manos de un gobierno autocrático puede servir para tener a un país entero vigilado, como pasa en Turquía. Debemos asegurarnos de tener unas buenas reglas. Todo político debería superar un examen ético, una especie de carnet de conducir de la tecnología. Hay que asegurarse de que los responsables públicos entienden qué hace falta hacer exactamente para construir un buen futuro.

No podemos sentarnos a ver cómo China desarrolla un programa de edición del genoma y luego tratar de negociar con ellos”

¿Hasta qué punto crees que los robots y la tecnología en sentido amplio nos cambiarán como humanos?

Los cambios van rápido, pero no tanto. Las máquinas no son tan listas. No tenemos robots en nuestro flujo sanguíneo. Y eso no se aprobará el año que viene… pero quizás sí en cinco. Tenemos tiempo, pero no podemos sentarnos a esperar cómo China desarrolla un programa de edición del genoma y luego tratar de hablar con ellos para que recapaciten. Sería muy mala idea. Todo esto ya está sucediendo. Tenemos unos diez años para decidir cómo vamos a querer que sea el ser humano del futuro. La mayoría de la gente quiere ser humana, y el objetivo de la vida es la felicidad. La tecnología, por sí sola, no nos hará más felices.

Dentro de unos 50 años, en caso de que se llegue a desarrollar una IA general, ¿hasta qué punto seremos humanos?

Para entonces habrá que trazar una línea gruesa entre las máquinas y nosotros para controlarlas, si todavía podemos hacerlo. Seremos como una especie de parque temático: estaremos protegidos y las máquinas harán todo el trabajo. Si podemos llegar a ese punto, realmente viviremos en un planeta distinto. Es difícil saber qué reglas lo regirán. Pero es altamente improbable que podamos controlar una inteligencia artificial general. Porque lo primero que hará la computadora es asegurarse de existir, y ya habrá previsto la posibilidad de que alguien pueda a desenchufarla.

Debemos centrarnos en ser muy humanos. Preferiría que mi hijo se fuera tres meses a la India y se relacionara con mucha gente distinta a que se saque un MBA”

¿Es realista pensar en acuerdos internacionales para regular la IA? Hace décadas que se habla de que hay que combatir el cambio climático y el primer acuerdo se rubricó hace dos años…

Los humanos responden ante las malas situaciones, no cambiamos las cosas voluntariamente. Efectivamente, se ha visto con el cambio climático: vamos a comer mierda en los próximos 20 años. Con la IA puede que asistamos a un gran accidente, como por ejemplo el uso de 100 millones de genomas para crear un superhumano, una especie de supersoldado. Eso podría causar una enorme cantidad de problemas en términos de muertes. Y entonces nos movilizaríamos. Incluso puede que veamos una guerra en torno a la ingeniería genética.

Antes has mencionado a China antes. ¿Estás pensando en ese país?

Sí. Es bastante probable que en siete u ocho años podamos tener un incidente internacional en el que haya que forzar al gobierno chino a parar el desarrollo de la IA. Pero, afortunadamente, la gente responde cuando pasan cosas. Tras Fukushima vimos que no queríamos energía nuclear.

¿Cómo deberían prepararse los niños de hoy, quienes realmente vivirán todos estos cambios, para afrontarlos en condiciones?

Los niños deben aprender que la tecnología no es la salvadora de la humanidad, sino una herramienta. Las habilidades que las máquinas tardarán en adquirir son innatas para nosotros, por eso debemos estimularlas: pasión, entendimiento, intuición, imaginación, creatividad… Debemos centrarnos en ser muy humanos. El futuro no está en saber hacer bien un trabajo, sino en inventarlo. Y eso es lo que debemos enseñarle a los niños. El problema es que eso no se aprende en las escuelas, sino en la vida real. Preferiría que mi hijo se fuera tres meses a la India y se relacionara con mucha gente distinta a que se saque un MBA.

Retina

19/12/2018
02

La empresa española que le pone voz a Alexa

Airtouch New Media se está especializando en desarrollar aplicaciones para el asistente de voz de Amazon. Un mercado nuevo y basto: todas las compañías quieren su ‘skill’.

La empresa española que le pone voz a Alexa
04

Así es pasar un día entero al lado de Siri

Apple entra en el salón con el altavoz inteligente HomePod. Y lo hace, a diferencia de sus competidores, sin pantalla, solo con un cilindro blanco que sabe contestar cuando se le dice: “Hola, Siri”

Así es pasar un día entero al lado de Siri
08

El futuro de los pagos, en cinco innovaciones

La biometría es una de las grandes apuestas tecnológicas desarrolladas por Mastercard que, junto al 'machine learning' y la 'tokenización', hacen saltar por los aires las antiguas formas de identificación y autenticación en los pagos electrónicos

El futuro de los pagos, en cinco innovaciones Ver vídeo 1 min
David Broncano: tecnología hecha chiste
10

David Broncano: tecnología hecha chiste

David Broncano, presentador de 'La resistencia', se inspira en la tecnología para sus monólogos, usa las redes para ‘trolear’ y un reloj con GPS para escalar

Normas