Lecciones de ética para máquinas que ‘piensan’ y toman decisiones

Lecciones de ética para máquinas que ‘piensan’ y toman decisiones

La inteligencia artificial precisa de unas normas que regulen los procesos de diseño y evaluación de esa tecnología para anticiparse a posibles usos inmorales, inapropiados o maliciosos

La creciente autonomía de cualquier aparato con inteligencia artificial, desde un teléfono móvil hasta un dron o un androide, abre un nuevo tipo de relaciones hombre-máquina que deben ser estudiadas desde la ética, entre otros muchos puntos de vista.

“Si estos robots interaccionan con humanos y toman sus propias decisiones racionales a partir de la información captada por sensores, la posibilidad de que produzcan una inteligencia superior causa cierta inquietud porque se percibe que esta capacidad podría ser usada contra un sector de la población o, en el caso extremo, contra la humanidad”. Así lo entiende Ulises Cortés, profesor de Inteligencia Artificial de la Universidad Politécnica de Cataluña y coordinador de programas académicos del Barcelona Supercomputing Center - Centro Nacional de Supercomputación (BSC-CNS).

Está claro que los algoritmos que soportan los servicios de la robótica necesitan gestionar cantidades ingentes de datos personales cuya seguridad y confidencialidad deben quedar garantizadas, así como el compromiso de que sólo se usarán para fines exclusivamente autorizados por el usuario. Pero además, según Ricardo Malhado, analista de IDC, “preservar la ética es fundamental para corroborar que no se están utilizando algoritmos parciales con relación a raza, género y religión ni para favorecer los intereses de determinadas empresas”. De este modo, se trata de erradicar desde el principio cualquier atisbo de comportamiento inmoral, como ocurrió en marzo de 2016 con Tay, un chatbot creado por Microsoft para hablar por Twitter con jóvenes de entre 18 y 24 años y que tuvo que ser retirado porque “aprendió” a escribir mensajes racistas.

Por ello, entre otras cosas, se pide a los fabricantes transparencia en sus desarrollos. ¿Pero qué más es necesario para garantizar este comportamiento ético de la inteligencia artificial? Algunas de las respuestas a esta pregunta son competencia de la Roboética, una disciplina cuyo origen se remonta al cuento Círculo vicioso, publicado en 1942 en el libro Yo, robot, de Isaac Asimov. Según comenta a EL PAÍS Retina Ulises Cortés, uno de los objetivos de esta rama de la ética es afianzar que el diseño de este tipo de máquinas garantiza la seguridad de todos los humanos. En este sentido, los expertos en esta materia se enfrentan a cuestiones como las siguientes: ¿Qué reglas deben seguirse para diseñar la inteligencia de estos robots? ¿Qué principios éticos deben aprender? ¿Cómo se evalúa que aplican lo aprendido de forma correcta? ¿Quién y de qué forma regula que el diseño de este tipo de aparatos cumple con un conjunto mínimo de requerimientos que garanticen la seguridad de los humanos? ¿Quién y de qué manera vigila el cumplimiento de lo legislado?

En principio, los progresos en inteligencia artificial, por sí mismos, no deberían plantear problemas morales ya que muchos llegan precisamente para salvaguardar esa seguridad de las personas o para facilitar que la relación hombre-máquina sea más natural y empática. Este es el caso de los nuevos móviles Huawei Mate 10, cuyo procesador Kirin 970 simula el pensamiento humano y es capaz de analizar el entorno, lo cual hace que estos teléfonos sean más “conscientes” de las necesidades de los usuarios en cada momento. Pero lo que Cortés sí deja claro que hay que tener en cuenta desde el principio es “el posible mal uso de esos avances”. Como ejemplo, este profesor alude a la falta de regulación sobre la responsabilidad de una máquina diseñada para ser un robot de compañía que debe tener localizado a su dueño de forma permanente y, a veces, tomar decisiones por él. ¿Cómo se regula la cesión de la responsabilidad que acarrean esas decisiones? ¿Quién es el responsable último? Asimismo, se debe pensar en un escenario donde los robots de compañía estén preparados para detectar cambios en el estado de ánimo de sus dueños e informar a los cuidadores legales, que a su vez pueden ser humanos o no, para que tomen las decisiones adecuadas. Y en el caso de que una persona opte por no tomar la medicación ¿qué debe hacer el robot? ¿Informar al cuidador humano o guardar el secreto de esa decisión voluntaria? “Además, todo esto implica pasar información privada de un sitio a otro”, puntualiza Cortés.

 

Autocontrol versus regulación

Ante la falta de una regulación, algunos gigantes tecnológicos decidieron unirse para tratar conjuntamente las cuestiones morales ante los avances de la robótica y compartir las mejores prácticas en el desarrollo de la inteligencia artificial. Así nació en septiembre de 2016 la asociación Partnership on AI, impulsada por Amazon, Apple, Google, IBM y Microsoft y a la que ya se han unido más de 60 entidades. Se trata de una iniciativa inspirada por movimientos anteriores como un manifiesto que en julio de 2015 alertaba de los peligros de la inteligencia artificial, pidiendo su regulación, y que fue firmado por un millar de expertos entre los que se encontraban el físico Stephen Hawking; el cofundador de Apple, Steve Wozniak; el fundador de Tesla, Elon Musk; el lingüista Noam Chomsky; o Demis Hassabis, cofundador y CEO de Google DeepMind.

De igual modo, en el ámbito académico destacan proyectos como AI100, de la Universidad de Stanford, liderado por Eric Horvitz, investigador de Microsoft, y que se ha comprometido a elaborar cada cinco años un informe detallado sobre la repercusión de la inteligencia artificial en la sociedad. El primero de estos informes fue publicado a finales de 2016.

Más cercana y reciente nos queda la iniciativa de los profesores Luc Steels y Ramon López de Mántaras, que en marzo de este año propiciaron un B·Debate, iniciativa de Biocat y la Obra Social “la Caixa”, que derivó en la publicación de la Declaración de Barcelona para el Uso Apropiado de la Inteligencia Artificial. Este manifiesto, abierto a nuevas firmas y comentarios, recoge la preocupación por el posible uso “inapropiado, prematuro o malicioso” de las nuevas tecnologías y como contrapartida propone un código de conducta basado en seis puntos: prudencia, fiabilidad, transparencia, responsabilidad, autonomía restringida y el papel humano.

A pesar de esos movimientos de autocontrol y de las recomendaciones procedentes del ámbito académico, Cortés estima que no sólo se hace “muy necesaria” una regulación que en el caso de Europa debe realizarse a nivel comunitario y estatal, sino que además “debe existir un esfuerzo de estandarización de los procesos de diseño y evaluación de los sistemas inteligentes autónomos, es decir, de las máquinas capaces de tomar por sí mismas decisiones racionales e inteligentes”. En este sentido, ya existen iniciativas en el Parlamento Europeo para estudiar la legislación pertinente que regule el uso apropiado de la inteligencia artificial.

“Los retos están cambiando día a día y la educación de los ciudadanos, los investigadores y los políticos en cuestiones éticas es indispensable para resolver estas cuestiones. Los políticos deberían entender el alcance de estas tecnologías y la asesoría debería venir de expertos del sector público para evitar cualquier contaminación o sesgo. Pero queda claro que lo de estudiar o diseñar las reglas de interacción entre humanos y máquinas no puede esperar más”, remata Cortés.

Retina

16/10/2018
03
Todo lo que debes saber de tus futuros socios

Todo lo que debes saber de tus futuros socios

Al establecer una nueva relación comercial no basta con conocer al cliente o proveedor en sí, sino que también debe tenerse en cuenta su árbol de relaciones, algo que puede automatizarse con las aplicaciones de vinculaciones empresariales que existen hoy en día.

Normas