Читать книгу Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales - José Juan Castelló Pastor - Страница 21
IV. VALORACIÓN CRÍTICA
ОглавлениеLa Comisión Europea desveló el pasado 15 de diciembre de 2020 dos propuestas legislativas de significativa trascendencia para el futuro de los servicios digitales en la Unión Europea. Por lo que respecta a la Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a un mercado único de servicios digitales (Ley de servicios digitales), en términos generales debe ser bien recibida porque moderniza el marco jurídico aplicable a los prestadores de servicios de intermediación necesario para afrontar los retos planteados por los nuevos actores y los actuales modelos de negocio en línea y, sobre todo, para combatir eficazmente la propagación de contenidos y actividades ilícitas en la red (el gran desafío de cualquier legislador desde que internet se popularizaba escasamente hace poco más dos décadas), respetando en todo momento los derechos humanos y libertades en el mundo digital.
Sorprende positivamente el instrumento previsto, el Reglamento en detrimento de la Directiva, por cuanto garantiza un nivel uniforme de protección en toda la Unión Europea: es decir, evitará las posibles divergencias entre las legislaciones de los Estados miembros –que obstaculizan la libre circulación de los servicios en el mercado de la Unión– y asegurará la protección uniforme de los derechos y obligaciones no solo de los operadores económicos sino también de los consumidores y usuarios en toda la Unión Europea. Y ello es ciertamente necesario, a mi juicio, por la fragmentación jurídica actual.
A los efectos apuntados, es meritorio el esfuerzo por crear un conjunto de disposiciones que redefinen las actuales reglas de internet, alterando el desequilibrio existente entre el poder de los «oligarcas» tecnológicos y devolviendo, en lo posible, el control a los usuarios. Aunque el empleo excesivo de conceptos jurídicos indeterminados puede ensombrecer el objetivo de la propuesta legislativa por las divergencias que pueden surgir en su interpretación por los órganos nacionales competentes. Por ello, debe evitarse esta inseguridad jurídica y, en todo caso, confiar en la labor interpretativa que pueda realizar el Tribunal de Justicia de la Unión Europea.
De corte continuista, la propuesta legislativa mantiene las actuales categorías de puertos seguros, creándose un conjunto de obligaciones procedimentales y de transparencia, necesarios para la protección de los derechos de los usuarios de los servicios digitales. No obstante, a mi modo de ver, es conveniente que se introduzca alguna categoría adicional de puerto seguro (v.gr. para los servicios de infraestructura en la nube, las redes de distribución de contenido, los servicios de mensajería instantánea y las DNS por citar algún ejemplo) en su largo tramo legislativo con el propósito de mejorar, sin duda, la seguridad jurídica de los operadores económicos, necesaria para que la Unión Europea alcance la ambicionada soberanía tecnológica.
Con respecto a la prohibición general de supervisar los datos que se transmitan o almacenen o la de realizar búsquedas activas de hechos y circunstancias que indiquen actividades ilícitas, tal y como se refleja en la propuesta legislativa, ésta sigue presente (es decir, los intermediarios no tienen una obligación de investigación activa).
Sin embargo, plantea ciertos interrogantes la figura del buen samaritano, porque, si bien es cierto que supone un paso razonable para aumentar la seguridad jurídica de los prestadores de servicios de intermediación que implementen mecanismos voluntarios para detectar, identificar y retirar (o bloquear) el contenido ilícito en sus servicios, pues, si actúan de buena fe y con diligencia, no deben perder su protección como puerto seguro. Esperemos que esta proactiva moderación de contenidos en la red, con el tiempo, no vire hacia una obligación general de supervisión de la red (sustituyendo este principio del buen samaritano por la consolidada prohibición del artículo 15 DCE, actual artículo 7 PRLSD). Esencialmente porque las plataformas en línea tienden a moderar los contenidos en la red (principalmente mediante sistemas algorítmicos o basados en la inteligencia artificial) y a decidir, por lo tanto, sobre la legalidad de este contenido. A fin de cuentas, no deja de ser la privatización de unas funciones que son o deberían ser públicas, y pueden menoscabar las libertades garantizadas en el TFUE. Como se ha puesto de relieve en más de una ocasión a lo largo del trabajo, los intermediarios suelen actuar especialmente de forma restrictiva –eliminando el potencial contenido ilícito– para no perder la exención de la responsabilidad, lo que perjudica, en definitiva, la libertad de expresión e información de los usuarios de los servicios en particular y de la sociedad en general.
Al hilo de lo anterior, una cuestión fundamental de la propuesta legislativa, que venía demandándose por parte de la doctrina, es el mecanismo de «notificación y acción». En términos generales no puedo sino manifestar mi conformidad con la propuesta. Es un paso fundamental en la erradicación del contenido supuestamente ilícito en la red; aunque intuyo que debe ser objeto de mejora en la medida en que nuevamente recae en la plataforma en línea la evaluación de la legalidad del contenido notificado, y, sirva lo antedicho, se deja en manos de estas empresas privadas la cuestión de la gobernanza de los contenidos de la red (con el negativo impacto que genera la posible censura en la protección de los derechos fundamentales en el ámbito de internet), sobre todo, porque se les imputa el conocimiento efectivo tras el aviso. A mi modo de ver, es más adecuado sustituirlo por un conocimiento de la información posiblemente ilícita si se quiere evitar, como se ha avanzado, la segura tendencia de los prestadores a retirar el contenido controvertido para asegurarse la exención de responsabilidad.
Mas allá de las garantías procedimentales al destinatario del servicio, que, por descontado, son pertinentes, debería buscarse el modo de atenuar, en lo posible, que la decisión del operador económico tras recibir el aviso sea prácticamente inaudita parte. Es decir, debe introducirse cierta equidad procedimental, porque, tal y como se plantea el procedimiento propuesto, no se prevé la obligación de notificar al proveedor del contenido antes de tomar la decisión de la retirada (mejor dicho, indica la disposición «a más tardar» en el momento de la retirada). Razón por la que, a mi juicio, es aconsejable evitar directamente esta ejecutoria e introducir, en favor del destinatario del servicio, el derecho a exponer su argumentación, con carácter previo, a la retirada del contenido. Tras ello, el prestador del servicio de intermediación que tome la correspondiente decisión. Aunque tal posibilidad solo debe ofrecerse a los avisos que no estén relacionados, a modo de ejemplo, con contenido terrorista, producción y distribución de material de abuso y explotación de personas menores de 18 años, discurso del odio (racismo o xenofobia) o aquellos en que manifiestamente se evidencie la ilicitud del contenido notificado.
Cabe subrayar, también, la valoración positiva de la figura de los alertadores fiables, consolidada en otros sistemas de Derecho comparado, con el objetivo de luchar contra el contenido manifiestamente ilícito de la red. Este estatus privilegiado supone un salvoconducto a sus avisos. Sin embargo, la preocupación puede venir por cómo se eligen estos actores especializados. Esperemos que no se trate de decisiones tomadas de forma arbitraria por el Coordinador de Servicios Digitales de cada Estado miembro de turno, en función del interés político de la autoridad nacional que los designe, por el interés social que pueden llegar a representar estos trusted flaggers y que tanto podrían perjudicar a la red.
Con todo, es muy positivo el esfuerzo que la Comisión efectúa para garantizar las condiciones para la prestación de los servicios digitales en la Unión Europea, para contribuir a la seguridad en línea y, sobre todo, para proteger los derechos fundamentales y los intereses legítimos de todas las partes implicadas. Aunque, como se ha puntualizado, el deber de diligencia marcado en la propuesta legislativa construido sobre la base de un excesivo recurso a conceptos jurídicos indeterminados puede dar lugar a interpretaciones que, a fin de cuentas, perjudicarán a los destinatarios del servicio y supondrán un obstáculo al propio fin de la normativa reguladora de las reglas de internet. Sería oportuno que el largo tramo legislativo centrara, al menos, algunos de estos aspectos.
Por otro lado, el reto de esta ambiciosa propuesta legislativa se centra en el cumplimiento por parte de las plataformas en línea «muy grandes» de las obligaciones de transparencia, información y rendición de cuentas –fundamental para garantizar que internet sea más abierta, justa e inclusiva– y alcanzar el necesario equilibrio de los derechos fundamentales en el ecosistema digital. Es necesario esta perspectiva regulatoria asimétrica por cuanto las plataformas en línea «muy grandes» poseen mayores recursos para afrontar los riesgos sistémicos causados por sus propios servicios.
A la vista de todo ello, no es difícil aventurar un largo debate en el Parlamento Europeo, en el Consejo y en los gobiernos nacionales, con fuertes presiones por parte del lobby de las tecnológicas y de las organizaciones de la sociedad civil (v.gr., ONGs, organizaciones de derechos humanos, de consumidores, de derechos digitales, entre otros), que alzarán su voz en defensa de la protección de sus intereses.
Quedan muchos meses por delante para que la propuesta logre su aprobación, sin modificaciones o con alguna sustancial. Esperemos, en todo caso, que los intereses comerciales no frenen el proceso legislativo ni perjudiquen el complicado equilibrio del respeto a la protección de los derechos humanos en el mundo digital. Como desea la Comisión, confiemos que se contrarreste el poder de las grandes plataformas para devolver el control a las personas. Tiempo al tiempo.