Un musculado Sócrates impart sus enseñanzas a sus discípulos atenienses
Un musculado Sócrates impart sus enseñanzas a sus discípulos atenienses
FIRMA INVITADA

Cuatro reflexiones sobre los ‘componentes éticos’ de la Inteligencia Artificial

Todos advierten sobre cuestiones éticas ante la explosión de la inteligencia artificial. Este debate, sin embargo, presenta cuestiones que merece la pena destacar

Hace tiempo, con ocasión del Día Internacional de la Mujer, escribí aquí mismo sobre los sesgos machistas que, de una forma inconsciente, podían tener los algoritmos y las decisiones de las máquinas o los sistemas autónomos basados en inteligencia artificial, debido a que quienes las programan suelen ser, en su mayoría, hombres. Y la importancia de que se incorporen mujeres a esta tarea.

Ayer se celebró en Alcalá de Henares, organizado por Red.es, un Conversatorio sobre Inteligencia artificial y sociedad, dentro del cual tuvo lugar un interesante Panel, protagonizado, por cierto, por tres mujeres, grandes expertas en Big Data e Inteligencia Artificial: Elena Gil (Telefónica), Cristina San José (Santander) y Elena Alfaro (BBVA), y que fue moderado por Guillermo Sánchez Vega (Retina).

El tema y título del Panel era La responsabilidad de las empresas en la sociedad hiperconectada y las preguntas planteadas a las ponentes eran: “¿Cuáles son los componentes éticos y sociales que deben asumir las grandes empresas para lograr un desarrollo de la inteligencia artificial equilibrado y sostenible? Nuevas dimensiones en la relación entre individuos y sistemas artificiales”.

1. ¿Ética o éticas?

La primera reflexión que me provocó este debate fue el acierto de utilizar el plural al hablar de los componentes éticos de la inteligencia artificial, porque no hay una sola Ética, hay muchas éticas. Y, sin embargo, cuando hablamos de “la Ética aplicada a la Inteligencia Artificial”, pareciera que nos referimos a una sola Ética, como si todos los países -y todas las personas- compartiéramos la misma.

Quizá la clave esté en que pecamos de cierto ombliguismo y, desde Occidente, pensamos que nuestro sistema de valores es -o debería ser- universal, como si no pudiera haber Inteligencias Artificiales y algoritmos que se basaran en otros sistemas de valores, como -por ejemplo- el de los países islámicos, o el de países como China, que utiliza la Inteligencia Artificial para el control de los ciudadanos.

Pero es que, incluso entre las democracias occidentales, hay diferentes éticas y tradiciones religiosas y culturales: unas más próximas a la ética católica y otras, a la ética protestante. No olvidemos el famoso libro de Max Weber sobre la ética protestante y el espíritu del capitalismo, que parece ser lo que ha triunfado, muy unido a una economía de mercado y a una sociedad consumista.

2. Ética y Derecho

En cierta forma es explicable ese ombliguismo ético, si se tiene en cuenta dónde han surgido estas tecnologías y, por tanto, querámoslo o no, con qué sesgo han nacido y, sobre todo, se están aplicando por grandes empresas en un mercado muy globalizado. Y, en el terreno de los valores, no podemos olvidar la vocación universal de la Declaración Universal de Derechos Humanos de la ONU (1948).

Pero, incluso las democracias occidentales que firmaron y comparten los valores de esa Declaración, presentan diferencias en sus sistemas jurídicos, que dichas tecnologías y, sobre todo, su aplicación por grandes empresas multinacionales, deben respetar y a las que han de adaptarse. Como ha ocurrido recientemente con empresas de fuera de la UE y el nuevo Reglamento de Protección de Datos.

Quiere esto decir que el primer ‘componente ético’ de la Inteligencia Artificial ha de ser el derecho vigente, pues todo sistema jurídico tiene unos valores que han de respetarse y el código informático debe adaptarse al código jurídico, que, por ahora y en muchos campos, es distinto en cada país (el gran problema de la aplicación territorial de las leyes), aunque se buscan estándares internacionales.

3. Algoritmo y Libertad

Un tema que me preocupa mucho, y del que ya he hablado en otras ocasiones, es la utilización del big data y de la inteligencia artificial para el cumplimiento de las leyes. La utilización de máquinas inteligentes (perfectas) para la vigilancia exhaustiva del cumplimiento de las normas humanas (imperfectas) por los seres humanos (imperfectos) nos pondría a todos en el lado de la ilegalidad.

En el debate se habló de la Agencia Tributaria, pero también podríamos citar a la Dirección General de Tráfico. Un uso intensivo del big data y de la inteligencia artificial, unido a sensores de geolocalización, podrían ‘resolver’ el problema del tráfico definitivamente, porque, en muy poco tiempo, todos habríamos perdido los puntos del carnet y, de paso, gran parte de nuestro dinero, por las sanciones.

Sería la estrategia perfecta para aquellos que todavía se nieguen a la utilización de coches autónomos, en cuya inteligencia artificial está inserto el código de la circulación, por lo que éste ya no sería necesario, porque no tendríamos siquiera la posibilidad de infringirlo. ¿Qué pasaría entonces con nuestro Libre Albedrío? Eso sí, como no tendríamos ya Libertad, tampoco tendríamos Responsabilidad.

4. Data4Good

En cuanto a la “responsabilidad de las empresas en la sociedad hiperconectada”, el debate derivó hacia la responsabilidad social corporativa en el uso del Big Data y de la Inteligencia Artificial, utilizando los datos (convenientemente agregados) -y, sobre todo, la tecnología que tienen las grandes empresas- para proyectos sociales sin ánimo de lucro, en lo que se llama Data4Good (datos para el bien).

Lo malo del nombre Data4Good es que puede parecer que las otras cosas que hacen las empresas con el big data y la inteligencia artificial, con ánimo de lucro, no son para el bien. Hay que distinguir entre el bien común (o el interés general) y el bien o interés particular, y explicar que no es malo. No hay que demonizarlo, ni criminalizar el ánimo de lucro, porque parece que fuera, en sí mismo, un delito.

Cuando unos laboratorios farmacéuticos invierten muchos miles de millones en investigación para la cura de enfermedades, por supuesto que tienen ánimo de lucro, que es lo que mueve a cualquier empresa. Pero si, gracias al big data y a la inteligencia artificial, que es como se investiga ahora, se consigue encontrar un medicamento que salva vidas, también se beneficia de ello el Bien Común.

Borja Adsuara es profesor, abogado, consultor y experto en Derecho, Estrategia y Comunicación Digital

Retina

25/05/2019
02

¿Que me quiten el trabajo? No me preocupa...

Apenas uno de cada diez participantes en un estudio de Future for Work Institute y la Universitat Oberta de Catalunya está muy preocupado porque las máquinas o el software puedan hacer innecesario su trabajo o poner en riesgo su futuro en su empresa a corto plazo

¿Que me quiten el trabajo? No me preocupa...
04

El líder y yo (y nadie en medio)

El mismo fenómeno que acaba con las tiendas, los cines y las agencias de viaje afecta a la política, y nos lleva al cesarismo y la frivolidad.

El líder y yo (y nadie en medio)
Somos vagos y por eso nos tragamos las noticias falsas
10

Somos vagos y por eso nos tragamos las noticias falsas

¿Nos mueve la pasión o la pereza? Esa es la pregunta que se hacen los psicólogos y otros científicos sociales para tratar de averiguar por qué la gente se cree las noticias falsas. Saber qué nos mueve a aceptarlas es fundamental para luchar contra ellas.

Normas