Читать книгу La lucha contra el terrorismo en el marco del sistema de seguridad nacional - Jorge Lozano Miralles - Страница 13

2. ¿Un control previo (proactivo) de los contenidos terroristas por parte de las empresas suministradoras de servicios de internet?

Оглавление

Responder a esta cuestión requiere comenzar haciendo una referencia a la Directiva 2000/31/CE de comercio electrónico, implementada en España mediante Ley 34/2002, de 11 de julio, de servicios de la sociedad de la información y del comercio electrónico. La Directiva prohíbe el establecimiento de una obligación a los suministradores de servicios electrónicos de realizar un control previo de los contenidos ilegales publicados en sus plataformas, y no establece una responsabilidad general de aquellos por tales publicaciones32. La exención de responsabilidad está justificada por la necesidad de evitar que los intermediarios sean sobrecargados con una actividad de verificación ex ante en línea que suponga de facto un sobrecoste o ralentización excesiva que impida el ágil funcionamiento del servicio o del negocio. Sin embargo, ello no lo hace con carácter absoluto. El proveedor de servicios no puede acogerse a la exención de responsabilidad mencionada cuando (a) tenga conocimiento de que la actividad o la información es ilícita, o (b) no actúe con prontitud para retirar los datos o no haga que el acceso a ellos sea imposible en cuanto tenga conocimiento de estos puntos (art. 14.1).

Precisamente, sobre esta cuestión, el Tribunal de Justicia de la UE resolvía el asunto Eva Glawischnig-Piesczek y Facebook Ireland Limited (sentencia de 3 de octubre de 2019). Se trata de un caso que, aunque no refería a la eliminación de contenidos ilícitos relacionados con el terrorismo, sí lo hacía respecto de contenidos declarados ilícitos y la aplicación de la Directiva de comercio electrónico, y se pronunciaba sobre la obligación de los proveedores de servicios de red de eliminar tales contenidos. Se planteaba si la publicación de un mensaje que contenía declaraciones que atentaban contra el honor de la Sra. Glawischnig-Piesczek en la página de un usuario alojada en el sitio de la red social Facebook, debía ser eliminado por esta compañía si así se le solicitaba por un juez. El Tribunal de la Unión entendió que una exigencia de ese tipo por parte de un tribunal de un Estado miembro era perfectamente compatible con el Derecho de la Unión y, en concreto, con la mencionada Directiva. Y ello, principalmente, porque en el caso en cuestión Facebook no se encontraba en uno de los dos supuestos en los que dicha Directiva exime de responsabilidad al prestador de servicios de alojamiento de datos que hemos señalado más arriba: (a) haber tenido conocimiento del contenido ilícito (b) actuar con prontitud en la retirada de dichos contenidos.

En la misma línea jurisprudencial, la reciente sentencia del TJUE de 6 de octubre de 2020 (Privacy International Case) ha considerando que es contrario al Derecho de la UE el que un Estado pueda obligar a las compañías proveedoras de servicios de comunicaciones electrónicas a realizar una transmisión y retención de datos de tráfico y de localización de una forma general e indiscriminada, alegando necesidad de la salvaguarda de la seguridad nacional. La Corte sí permite el control de los datos de un grupo determinado de personas, en tiempo real o por periodo breve, cuando haya elementos que hagan creer que los titulares de esos datos puedan estar involucrados en actividades terroristas, pero no se puede ordenar la retención y control masivo e indiscriminado de datos de todos los ciudadanos.

Por lo tanto, a priori, la normativa y la jurisprudencia parecen dirigirse hacia una prohibición del establecimiento de la obligación de las plataformas de internet de controlar de una forma generalizada y proactiva los mensajes que circulan por sus redes.

Sin embargo, contrariamente a lo que acabamos de decir, sí se ha contemplado en algunos ordenamientos la posibilidad de que se establezca ese control general de contenidos ilícitos en algunos ordenamientos, como en el caso de Francia donde el Código de Seguridad Interior ya preveía que se podía imponer a los operadores de datos la puesta en marcha, en su red, de un tratamiento automatizado de datos para detectar conexiones que fueran susceptibles de revelar una amenaza terrorista (art. 851.3)33.

Y el Proyecto de Reglamento UE para la erradicación de contenidos terroristas, en su redacción inicial, incluía la obligación de los prestadores de servicios de alojamiento de datos de supervisar los datos que almacenen o de realizar búsquedas activas de hechos o circunstancias que indiquen actividades terroristas, convirtiendo a dichas empresas en instrumentos al servicio de los poderes públicos en la lucha antiterrorista. Analicemos esta cuestión.

Efectivamente, el Proyecto de Reglamento europeo sobre contenidos terroristas no solo contemplaba el deber de las empresas proveedores de servicios de red de colaborar con las autoridades cuando sean requeridas, sino también de adoptar medidas proactivas a través de instrumentos automatizados para detectar y bloquear o eliminar los contenidos terroristas motu proprio (art. 6). Esto es, exigía que los proveedores de servicios de alojamiento de datos, cuando procediera, tomasen medidas proactivas proporcionadas al nivel de riesgo y retirasen el material terrorista de sus servicios mediante la utilización de instrumentos de detección automatizada, entre otros medios.

Aquí es donde volvieron a suscitarse discrepancias en la discusión del texto que aún está por aprobar definitivamente. Y es que, frente a esa voluntad de la Comisión y del Consejo de imponer a los prestadores de servicios la obligación de adoptar medidas para detectar e identificar contenido ilícito de forma automática, el Parlamento Europeo no tiene tan claro que los prestadores de servicios deban ser obligados a utilizar herramientas automatizadas (como herramientas de filtrado de contenido). Es importante recordar que este debate surge tras la aprobación de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital, cuyo artículo 17 estableció un nuevo régimen de responsabilidad para los prestadores de servicios de la sociedad de la información que permiten o facilitan la compartición online de contenidos subidos por el usuario, sin poder establecerse una obligación general de supervisión por parte de la plataforma.

En esa línea discrepante del Parlamento, en el informe que este elaboró en abril de 201934, se propuso cambiar la palabra “medidas proactivas” por “medidas específicas”35 en un intento de afianzar la idea de que esa exigencia no conlleva una obligación general de supervisión. Con el fin de reducir la accesibilidad de los contenidos terroristas en sus servicios, los prestadores de servicios de alojamiento de datos deben evaluar si resulta adecuado tomar medidas “específicas” (lo que el Proyecto inicial denominaba proactivas), atendiendo a los riesgos y el nivel de exposición a los contenidos terroristas, así como a los efectos sobre los derechos de terceros y el interés público de recibir y comunicar información. En consecuencia, los prestadores de servicios de alojamiento de datos tendrían que determinar qué medida adecuada, específica, eficaz y proporcionada debe emplearse.

Existe la preocupación de que, con esta habilitación normativa, especialmente en su redacción originaria, los organismos de radiodifusión, los proveedores de servicios de Internet, así como las organizaciones y personas que representan a determinadas categorías de opinión política legítima y que actúan permanentemente en redes, puedan practicar todo tipo de censura previa36.

A mi parecer, el riesgo mayor del Proyecto de Reglamento, en los términos que inicialmente se recogían, se encontraba en esa especie de deber proactivo que encomendaba a las empresas de servicios de red en determinadas ocasiones, porque en el momento en que estas empiecen a bloquear páginas o contenidos, a establecer un determinado tipo de filtrado de contenidos para detectar los de carácter “terrorista”, se les estaría convirtiendo en censores privados del ejercicio de determinadas libertades públicas. Ello supone habilitar a las empresas a ejercer una función que tradicionalmente ha correspondido a la autoridad judicial. Permitiría despojar a los órganos tradicionales legitimados para determinar cuándo puede limitarse la libertad de expresión, esto es, los jueces.

Las importantes funciones que podrían asumir los proveedores de servicios de alojamiento de datos para enjuiciar la “licitud” de los mensajes que se difundan a través de los mismos y para bloquearlos cuando concluyan que son “contenidos terroristas” los podría convertir en censores de la Red con potestades semi-públicas. Desde el punto de vista de las libertades y del pluralismo, esto debiera preocuparnos.

La lucha contra el terrorismo en el marco del sistema de seguridad nacional

Подняться наверх