#TwitterNosEcha y la Directiva europea sobre propiedad intelectual
Getty Images
Derecho y Tecnología

#TwitterNosEcha y la Directiva europea sobre propiedad intelectual

¿Necesitamos un mecanismo de autocontrol sectorial, una especie de VAR, para supervisar las decisiones de las redes sociales de borrado de contenidos y cuentas?

Esta semana ha habido un gran revuelo en Twitter a raíz del cierre de algunas cuentas por incumplimiento de los términos de servicio de esta red social -entre ellos, por supuesto incumplimiento de los derechos de propiedad intelectual- que algunos tuiteros han interpretado como un ataque a la libertad de expresión por la ideología y la actitud de denuncia de sus titulares.

Especialmente curioso desde el punto de vista jurídico fue el cierre (temporal, porque ya lo ha recuperado) de la tuitera @protestona1 por, entre otros motivos y al parecer, utilizar como avatar un dibujo ‘inspirado’ en Mafalda, sin contar con los oportunos derechos. Lo cual sería una medida desorbitada, pues parece que entra dentro del derecho de parodia.

Ya dije entonces que “el problema de #TwitterNosEcha está en que los Términos y Condiciones de Uso no están claros, ni cómo se interpretan y aplican. Debería haber un organismo sectorial independiente con un código deontológico claro al que poder recurrir en caso de borrado de contenidos o de cuentas”. Y aprovecho este artículo para ampliarlo y explicarlo un poco mejor.

  • El artículo 13 de la Directiva europea sobre propiedad intelectual

El pasado 5 de julio, tras una campaña llena de exageraciones e intoxicaciones, con los mensajes apocalípticos de siempre de que “Internet se va a acabar” -tal y como la conocemos- (que ya es el nuevo “Internet ha venido para quedarse”), el Pleno del Parlamento europeo rechazó el informe de la Comisión de Asuntos jurídicos sobre la Directiva de propiedad intelectual en el mercado único digital.

Los contrarios a la norma, capitaneados por la eurodiputada del Partido Pirata, Julia Reda, decían que la propuesta de Directiva (art. 13) imponía “una censura previa”, porque, con la excusa de respetar los derechos de propiedad intelectual, iba a limitar la libertad de expresión de los usuarios, al obligar a las plataformas de compartición de contenidos a implantar unos filtros previos (upload filters).

Sin embargo, parece que los críticos con la propuesta de Directiva no se leyeron las enmiendas aprobadas en la Comisión de Asuntos Jurídicos del Parlamento, que habían suprimido, por un lado, aquellas referencias que provocaban dudas, en gente de buena fe, o interesadas interpretaciones, en gente de no tan buena fe, para dejar del todo clara la imposibilidad de dicha censura previa.

Así, se suprimió la referencia a las “medidas pertinentes para impedir que estén disponibles en sus servicios obras u otras prestaciones identificadas por los titulares de los derechos en cooperación con los proveedores de servicios” y la referencia a las “tecnologías efectivas de reconocimiento de contenidos”, que, parece, fue lo que más alarmó, aunque en ningún lugar decía previas (art. 13.1).

Pero, sobre todo, se añadió un nuevo apartado (13.1b), que dice expresamente: “Los Estados miembros velarán por que… no se imponga una obligación general sobre proveedores de servicios de compartición de contenidos en línea para supervisar la información que transmiten o almacenan”. Así que queda claro que se actuará caso por caso y ‘a posteriori’, no un filtro general antes de compartir.

  • Mecanismos de reclamación y supervisión

Pero, sobre todo, el mayor avance que, a mi juicio, se produjo en la Comisión de Asuntos Jurídicos tiene que ver con una queja que vengo repitiendo desde hace tiempo: que la Comisión europea y, ahora, el Parlamento europeo dejan cada vez más competencias de los Estados en manos de las grandes empresas de internet, a las que obligan a hacer de policías y jueces, sin ninguna supervisión.

Por un lado se han reforzado los mecanismos internos de reclamación (art. 13.2): “Para evitar usos indebidos o limitaciones en el ejercicio de excepciones y límites al derecho de autor, los Estados miembros velarán por que los proveedores de servicios… establezcan mecanismos eficaces y expeditos de reclamación y recurso disponibles para los usuarios en caso de litigio”.

Por otro lado, se ha añadido un nuevo párrafo referido a las garantías judiciales: “Los Estados miembros garantizarán también que… los usuarios tengan acceso a un tribunal u otra autoridad judicial pertinente para hacer valer el uso de una excepción o límite a los derechos de autor”. Lo cual parece que no era necesario, pero se hace con la idea de obligar a las multinacionales a pleitear en Europa.

Pero lo más importante, a mi juicio, es la adición de un nuevo artículo (13 a), que dice: “Los Estados miembros dispondrán que las controversias… puedan estar sujetas a un sistema alternativo de solución de controversias”. Y “establecerán o designarán un organismo imparcial con los conocimientos especializados necesarios, con el objetivo de ayudar a las partes a resolver sus diferencias”.

De esta forma quedaría establecido un sistema de garantías de triple trinchera (mecanismos internos de reclamación, organismo imparcial de resolución de controversias y tribunales) frente a las posibles decisiones que pudieran tomar las plataformas digitales de compartición de contenidos, retirando o suprimiendo (a posteriori) un contenido subido por un usuario, por estar sujeto a copyright.

  • El VAR de las redes sociales

Actualmente existe un organismo independiente en España, la Sección Primera de la Comisión de Propiedad Intelectual, que tiene encomendadas, entre otras tareas, las de mediación y arbitraje, pero entre las entidades de gestión colectiva de derechos de propiedad intelectual y los grandes usuarios de dichos derechos. Por lo que, en principio, no parece que sea el adecuado para esta nueva función.

Parece que sería mucho más ágil un organismo sectorial de autocontrol, como es autocontrol de la publicidad, en colaboración público-privada (corregulación), que funcionase como una especie de VAR en los partidos de fútbol, en el que se pudiesen revisar y corregir las decisiones polémicas de los árbitros, que serían los algoritmos y moderadores de las redes sociales.

De esta forma, se obtendría un código deontológico transparente, que aportaría seguridad jurídica tanto a los usuarios como a las propias empresas de internet. Sistema que podría aplicarse no sólo a controversias de propiedad intelectual, sino también de protección de datos y de libertad de expresión, para que no sea una empresa la que decida sobre el ejercicio de estos derechos fundamentales.

Retina

23/07/2018
Normas