Las máquinas no son feministas ni hacen huelga

Las máquinas no son feministas ni hacen huelga

En la víspera del Día Internacional de la Mujer y la huelga feminista convocada bajo el lema “Si las mujeres paramos, se para el mundo”, es bueno recordar que las máquinas no paran (especialmente, las basadas en sistemas autónomos o de Inteligencia Artificial) y que gran parte -cada vez mayor- de las decisiones que se toman en la actualidad se toman por dichas máquinas.

Se ha escrito mucho sobre el sesgo discriminatorio (negativo) que pueden tener las decisiones automatizadas, por los prejuicios, muchas veces inconscientes, que han transmitido a las máquinas quienes las han programado. En este caso, el sesgo machista que se observa en algunos algoritmos, debido a que quienes programan la inteligencia artificial suelen ser, en su mayoría, hombres.

Por eso, como ya he dicho en alguna ocasión, se me ocurren pocas tareas más importantes para avanzar en la lucha por la igualdad que, no sólo supervisar, sino participar activamente en la educación de las máquinas, porque en un futuro muchas decisiones van a depender de ellas. Por lo que resulta imprescindible que cada vez más mujeres se impliquen en estas tareas.

Derecho de información y de acceso

Una novedad -poco conocida por ahora- es el derecho que viene a reconocer el Reglamento europeo de Protección de Datos a los titulares de datos personales a ser informados por el responsable del tratamiento en el momento en que se obtengan los datos (arts. 13.2.f y 14.2.g) y a obtener la confirmación (art. 15.1.h) de la existencia de decisiones automatizadas, incluida la elaboración de perfiles.

Ante la sospecha de que en las decisiones individuales automatizadas haya un sesgo machista y una discriminación (negativa) por razón de género, podemos pedir a una empresa o administración que nos expliquen “la lógica aplicada” 

Estos derechos (de información y acceso) de los titulares de datos personales, que, al mismo tiempo, son obligaciones de los responsables de los tratamientos, se establecen “para garantizar un tratamiento de datos leal y transparente”, pues la lealtad es un principio recogido no sólo en el RGPD (art. 5.1.a), sino también en la Carta de los Derechos Fundamentales de la UE (art. 8.2).

Además, añade el RGPD que, en el caso de que existan decisiones individuales automatizadas, el titular de los datos tiene el derecho a recibir del responsable del tratamiento “información significativa” sobre 1) la lógica aplicada (algoritmos), así como 2) la importancia y las consecuencias previstas (jurídicas o similares) de dicho tratamiento -de datos personales- para el titular.

Decisiones automatizadas y derecho de impugnación

Estos derechos (y obligaciones) de información sobre la existencia de decisiones individuales automatizadas, en realidad, son una excepción al derecho de toda persona “a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar” (art. 22.1).

Pero, como ocurre muchas veces en el RGPD, primero se enuncia un principio o prohibición general para, a continuación, enumerar las múltiples excepciones: cuando la decisión individual automatizada: 1) sea necesaria para la celebración o ejecución de un contrato entre el interesado y un responsable del tratamiento, 2) esté autorizada por ley, o 3) se base en el consentimiento explícito del titular.

Eso sí, siempre se deben adoptar las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del titular (incluido el derecho a la igualdad y a la no discriminación). Y el RGPD añade que, como mínimo, el titular de los datos personales tiene el derecho a: 1) obtener intervención humana por parte del responsable, 2) expresar su punto de vista, y 3) impugnar la decisión.

Algoritmos y discriminación positiva

Así que, ante la sospecha de que, en las decisiones individuales automatizadas, incluida la elaboración de perfiles, haya un sesgo machista y una discriminación (negativa) por razón de género, podemos pedir a una empresa o administración que nos expliquen “la lógica aplicada” (es decir, cómo funcionan los algoritmos) y, en el caso de no estar conformes, impugnar dichas decisiones. 

Aunque no queda claro en el RGPD hasta qué nivel de detalle se pueden exigir explicaciones sobre el funcionamiento de los algoritmos (habla de “información significativa”). Si bien, aplicando los principios de lealtad y transparencia, debe ser suficientemente clara como para que el titular de los datos lo entienda. Y, por otra parte, tampoco queda claro el procedimiento de impugnación y sus efectos.

Por último, y como propuesta de reflexión para el Día Internacional de la Mujer, cabe preguntarse si, en virtud de la Carta de los Derechos Fundamentales de la UE, se puede exigir que en las decisiones individuales automatizadas (basadas en algoritmos) no sólo no se produzca una discriminación negativa (art. 21), sino que se adopten criterios o medidas de discriminación positiva (art. 23).

Borja Adsuara es experto en derecho, estrategia y comunicación digital

Por

Retina

23/04/2019
La tabaquera que pretende vender menos humo
05

La tabaquera que pretende vender menos humo

Philip Morris Internacional se vuelca con la investigación científica en su centro de innovación, conocido como El Cubo, en una apuesta por transformar una industria controvertida e involutiva

Normas