“Tendremos que tomar decisiones para controlar la inteligencia artificial”

“Tendremos que tomar decisiones para controlar la inteligencia artificial”

Peter Ecksersley se dedica a evaluar las amenazas de las tecnologías. La pérdida de privacidad experimentada en lo que va de siglo, advierte, ha sido solo el principio

Hoy en día tenemos muchísima menos privacidad que hace 20 años. El hecho de que gobiernos y empresas lo sepan todo sobre nosotros es una amenaza estructural a la democracia. Debemos rediseñar la tecnología para que sea menos invasiva”. Peter Eckersley (Melbourne, 1978) no se anda con rodeos: en las dos últimas décadas el mundo ha visto avances tecnológicos increíbles como Internet, la secuenciación genética o el machine learning. Pero su desarrollo no ha tenido en cuenta la protección de la privacidad de las personas. Revertir esa situación, así como velar por los derechos y libertades civiles de internautas y usuarios de tecnología, es el objetivo declarado de la Electronic Frontier Foundation (EFF).

A eso se dedica Eckersley, informático jefe de la citada organización estadounidense. Fundada en 1990, la labor de la EFF se ha centrado durante años en litigar contra Washington y grandes multinacionales. Su primera victoria fue conseguir que los servicios secretos no pudieran acceder (al menos legalmente) a ordenadores privados. Lograron que Sony retirara un software que creaba vulnerabilidades que permitían a la compañía obtener datos de los usuarios y contribuyeron a hacer que el Gobierno no pueda rastrear la localización de un móvil sin tener antes pruebas de que hacerlo salvaguarda la seguridad nacional, según destacan en su web.

“Vivimos en un mundo en el que, especialmente en EE UU, la información acerca de a dónde va la gente, qué hace, cómo se relaciona o qué opiniones políticas tiene ha sido recopilada por unas docenas de empresas”, asegura el australiano. La firma 23andMe tiene una extensa base de datos con los datos más personales que existen: el genoma de algunos millones de estadounidenses, algo que la actual legislación europea prohíbe. “Las agencias de inteligencia, por su lado, han tomado datos a su antojo directamente de servidores y de cables de fibra óptica”, apunta este ingeniero informático.

Tenemos parte de la culpa de que esto suceda. Se ha aceptado que mejorar la seguridad implica necesariamente ceder privacidad. Eckersley lo considera un error inmenso, aunque reparable. “La mejor protección contra una filtración de datos es no tener esos datos. Si puedes diseñar tus sistemas de manera que no conserven una copia de la tarjeta de crédito del usuario o de su historial de localizaciones, entonces no te pueden hackear”, argumenta. Eso se podría conseguir creando incentivos económicos para que las empresas que están detrás de las distintas tecnologías vean con buenos ojos respetar la privacidad y se estrujen los sesos para lograrlo. “La razón por la que la computación en la nube es un desastre para la privacidad es que implica ceder datos a terceros. Hay que acabar con eso”, apostilla.

Eckerseley, durante la entrevista con EL PAÍS RETINA en Madrid.

  • Y llegó la IA

En lo que va de década, la EFF se ha focalizado en la encriptación de datos, promoviendo el reemplazo de la versión insegura (http) por la segura (https). Pero están surgiendo nuevos desafíos. “Nos estamos preguntando cómo queremos que funcione la inteligencia artificial (IA). Tendremos que tomar decisiones al respecto. Algunas de sus aplicaciones serán geniales; otras pueden ser fatales”, sentencia.

Debido a una serie de errores estadísticos muy complicados, los algoritmos tienen tremendos sesgos raciales”

No habla en clave de futuro. Uno de los casos en los que ya trabaja su equipo tiene que ver con el sistema penitenciario estadounidense. Ahogado como está EE UU por un ritmo de encarcelación que multiplica por cinco la media de la OCDE, están surgiendo movimientos reformistas que buscan la forma de descongestionar las cárceles. “Una de las propuestas planteadas es que las sentencias se basen no en una noción de castigo, sino de riesgo”, explica Eckersley. ¿Cómo de peligroso es para la sociedad tener a cierto individuo fuera de la cárcel? Eso se decidiría en base a unas puntuaciones de riesgo que son calculadas por algoritmos de machine learning para establecer si un reo reincidirá o no en caso de ser puesto en libertad.

“Esto ha demostrado ser un desastre, porque los algoritmos resultan tener tremendos sesgos raciales. Un inocente negro puntúa más alto que un inocente blanco. Debido a una serie de errores estadísticos muy complicados, estos modelos piensan de una forma sesgada. Esto está bien documentado por el sistema judicial de EE UU”, señala. También se está viendo algo parecido, dice, en el mundo de los seguros de vida. “Si comparamos dos personas con características exactamente iguales excepto la raza, el negro pagará más”, añade.

  • ¿Hacia una superinteligencia artificial?

No debe subestimarse la capacidad de la IA para hacer daño. Lo que no tardaremos en ver es cómo aprovecharán los hackers esta tecnología para vulnerar los sistemas de una forma mucho más compleja y eficiente de lo que hemos visto hasta ahora. Ante esta situación, Eckersley solo ve una salida: “tendremos que saber usar la IA para defendernos mejor que quienes la empleen para atacar”.

La privacidad es un escudo interpuesto ante el Estado por el próximo movimiento de libertades civiles”

Pero los desafíos serán mayores a largo plazo. “El machine learning permite que los ordenadores hagan muy bien una tarea concreta. Si les das 100.000 imágenes de ríos, mares y bosques, las procesarán y aprenderán a distinguir cada cosa por sí mismos. Esa es la mecánica que sigue Alexa para reconocer tu voz o Facebook para identificar a tus amigos a partir de fotografías”, describe.

Luego tenemos la llamada inteligencia artificial general o fuerte, que hasta el momento solo existe en un plano teórico. “Este tipo de IA podría aprender cualquier cosa que se le ponga delante, como si fuera un niño. Hay quien opina que esta tecnología será una realidad, aunque no se sabe si dentro de 15 o 30 años”, subraya el informático. “Si llega a existir, entraremos en una era digna de la ciencia ficción. Ahora parece improbable que suceda, pero no perdemos nada empezando a pensar sobre las consecuencias que puede tener el desarrollo de una inteligencia de este tipo. Porque lo cambiaría todo”, advierte el australiano.

  • Libertad VS seguridad

Acabe o no viendo la luz esta tecnología, el binomio libertad-seguridad se seguirá vendiendo como un juego de suma cero. Quien quiera más protección deberá estar dispuesto a ceder datos personales; quien los quiera proteger a toda costa se verá expuesto a más amenazas. Eckersley y la organización en la que trabaja velan por que estos dos conceptos no se retroalimenten. “Creemos que la defensa contra las dictaduras necesita incluir una sociedad civil robusta y libertades fundamentales tales como libertad de expresión. La privacidad en esencia trata de protegerte contra las leyes y la sociedad”, sostiene. El movimiento sufragista se consideró en su momento algo parecido al terrorismo, a pesar de reclamar lo que hoy consideramos un derecho fundamental. “La privacidad es un escudo interpuesto ante el Estado por el próximo movimiento de libertades civiles que cambiará lo que pensamos como democracia sobre algún tema”.

Más información

Retina

21/08/2017
Normas
Entra en EL PAÍS