Читать книгу Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales - José Juan Castelló Pastor - Страница 22

V. BIBLIOGRAFÍA

Оглавление

ANGELOPOULOS, C., European Intermediary Liability in Copyright: A Tort-Based Analysis, Wolters Kluwer, 2017.

ARROYO I AMAYUELAS, E., «La responsabilidad de los intermediarios en internet: ¿puertos seguros a prueba de futuro?», en ARROYO I AMAYUELAS, E. y CÁMARA LAPUENTE, S. (Coords.), El derecho privado en el nuevo paradigma digital, Marcial Pons, 2020.

BARATA, J., Positive Intent Protections: Incorporating a Good Samaritan principle in the EU Digital Services Act, Center for Democracy & Technology (2020).

BECHTEL, M., «Algorithmic Notification and Monetization: Using YouTube’s Content ID System as a Model for European Union Copyright Reform», Michigan State International Law Review, vol. 28 (2020).

BUSTO LAGO, J., «La responsabilidad civil de los prestadores de servicios de la sociedad de la información», en REGLERO CAMPOS, L. F. y BUSTO LAGO, J. M. (Coords.), Tratado de Responsabilidad Civil, 4.ª ed., Cizur Menor, Thomson-Aranzadi, 2008.

CASTELLÓ PASTOR, J. J., «Exoneración de responsabilidad de los prestadores de servicios de la información en la sección 230 de la Communications Decency A ct estadounidense», Revista Aranzadi de derecho y nuevas tecnologías, n.º 39 (2015).

– Id., Motores de búsqueda y derechos de autor: infracción y responsabilidad, Aranzadi, Cizur Menor, 2016.

– Id., «Detección y retirada de contenidos que vulneren derechos de autor en la red: necesidad de un código de buenas prácticas», Actas de Derecho Industrial, núm. 37 (2016-2017).

– Id., «El ranquin de los resultados ofrecidos por buscadores, asistentes digitales y altavoces inteligentes: un problema no resuelto», Actas de derecho industrial y derecho de autor, tomo 40 (2019-2020).

– Id., «Disponibilidad de productos y servicios en línea en el mercado único digital», en CASTELLÓ PASTOR, J. J., GUERRERO PÉREZ, A., MARÍNEZ PÉREZ, M. (Dirs.), Derecho de la contratación electrónica y comercio electrónico en la Unión Europea y en España, Tirant lo Blanch, Valencia, 2021.

COMISIÓN EUROPEA, EU study on the New rules for a new age? Legal analysis of a Single Market for the Information Society, 2009.

CORDERO ÁLVAREZ, C. I., «Plataformas digitales, economía colaborativa y cuestiones de Derecho internacional privado de los contratos», en Plataformas digitales: problemas jurídicos derivados de su actuación, Centro de Estudios Financieros, 2020, pp. 101-142.

DE MIGUEL ASENSIO, P., Derecho Privado de Internet, 5.ª ed., Civitas, Cizur Menor-Navarra, 2015.

– Id., «Servicios y mercados digitales: modernización del régimen de responsabilidad y nuevas obligaciones de los intermediarios», LA LEY Unión Europea, núm. 88 (2021).

DE STREEL, A. y HUSOVEC, M. «The e-commerce Directive as the cornerstone of the Internal Market», Study for the committee on Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg (2020).

EUROPEAN DATA PROTECTION SUPERVISOR, Privacy and competitiveness in the age of big data: The interplay between data protection, competition law and consumer protection in the Digital Economy, 2014.

FLAQUER RIUTORT, J., «Obligaciones de transparencia y equidad en la prestación de servicios de intermediación en línea: orientaciones futuras en el ordenamiento comunitario», Revista Aranzadi de Derecho y Nuevas Tecnologías, núm. 50 (2019).

FROSIO, G., «Algorithmic Enforcement Online», en TORREMANS, P. (ed.), Intellectual Property and Human Rights, 4.ª ed., Kluwer Law Int’l, 2020.

– Id., «Enforcement of European Rights on a Global Scale» en ROSATI, E. (ed.), Handbook of European Copyright Law, Routledge, 2021.

GARROTE FERNÁNDEZ-DIEZ, I., La responsabilidad de los intermediarios en Internet en materia de propiedad intelectual. Un estudio de derecho comparado, ed. Tecnos D.L., Madrid, 2014.

GASCÓN MARCÉN, A., «Los intermediarios de internet y la protección de los derechos humanos», en Las empresas transnacionales en el derecho internacional contemporáneo: Derechos humanos y objetivos de desarrollo sostenible, Tirant lo Blanch, 2019.

– Id., «La lucha contra el discurso de odio en línea en la Unión Europea y los intermediarios de internet», en Libertad de expresión y discurso de odio por motivos religiosos, Laboratorio sobre la libertad de Creencias, 2019.

HOBOKEN, J., QUINTAIS, J. P., POORT, J., VAN EIJK, N., Hosting intermediary services and illegal content online – an analysis of the scope of Article 14 E-Commerce Directive in light of developments in the Online service landscape, 2018.

HUSOVEC, M., Injunctions Against Intermediaries in the European Union – Accountable But Not Liable?, Cambridge University Press, Cambridge, 2017.

KELLER, D., «Facebook Filters, Fundamental Rights, and the CJEU’s Glawischnig-Piesczek Ruling», GRUR International, vol. 69, núm. 6 (2020).

LEE, E., «Decoding the DMCA Safe Harbours», Colum. J. L. & Arts, vol. 32 (2009).

LAPIEDRA ALCAMÍ, R., «Hacia la transparencia y la equidad en el ranking de resultados a la luz del Reglamento 2019/1150», en CASTELLÓ PASTOR, J. J. (Dir.), Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

LLOPIS NADAL, P., Tutela judicial civil de la propiedad intelectual en internet, Thomson Reuters-Aranzadi, 2018.

LÓPEZ RICHART, J., «Un nuevo régimen de responsabilidad para las plataformas de almacenamiento de contenidos generados por usuarios en el mercado único digital», Pe. i.: Revista de propiedad intelectual, núm. 60 (2018).

NORDEMANN, J.B., «Liability of Online Service Providers for Copyrighted Content – Regulatory Action Needed?», Study commissioned by European Parliament, Policy Department A: Economic and Scientific Policy (2017).

OECD, Going Digital: Shaping Policies, Improving Lives, OECD Publishing, Paris (2019).

– Id., An Introduction to Online Platforms and their Roles in the Digital Transformation, OECD Publishing, Paris (2019).

– Id., Digital Economy Outlook 2020, OECD Publishing, Paris (2020).

PEGUERA POCH, M., La exclusión de responsabilidad de los intermediarios en Internet, Comares, Granada, 2007.

REIG FABADO, I., «La adaptación del derecho de competencia europeo a la era digital: algunos aspectos de la propuesta legislativa para las grandes plataformas digitales», en CASTELLÓ PASTOR, J. J. (Dir.), Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

RIORDAN, J., The Liability of Internet Intermediaries, Oxford University Press, Oxford, 2016.

ROSATI, E., Copyright and The Court of Justice of The European Union, Oxford University press, 2019.

SENFTLEBEN, M. y ANGELOPOULOS, C., The Odyssey of the Prohibition on General Monitoring Obligations on the Way to the Digital Services Act: Between Article 15 of the E-Commerce Directive and Article 17 of the Directive on Copyright in the Digital Single Market, Amsterdam/Cambridge (2020).

SARTOR, G., «The impact of algorithms for online content filtering or moderation “Upload filters”», Policy Department for Citizens’ Rights and Constitutional Affairs. Directorate-General for Internal Policies, PE 657.101 (2020).

SAVIN, A., Eu Internet Law, Elgar European Law series, 2.ª edición, 2017.

STALLA-BOURDILLON, S., «Internet Intermediaries as Responsible Actors? Why It Is Time to Rethink the E-Commerce Directive as Well», en TADDEO, M. y FLORIDI, L. (eds), The Responsibilities of Online Service Providers. Springer, 2017.

1. Este trabajo se ha realizado en el marco del proyecto emergente «La tutela de los derechos en el entorno digital: nuevos retos, desafíos y oportunidades» GV/2019/118 (Investigador Principal José Juan Castelló Pastor). Todos los enlaces a páginas web han sido consultados por última vez el 10 de febrero de 2021. Cualquier comentario es bienvenido: josejuan.castello@uv.es

2. Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico). Diario Oficial n.º L 178 de 17/07/2000 p. 0001 – 0016. La DCE fue incorporada en nuestro ordenamiento jurídico en la Ley 34/2002, de 11 de julio, de servicios de la sociedad de la información y de comercio electrónico, publicada en el BOE número 166, de 12/07/2002.

3. SAVIN, A., Eu Internet Law, Elgar European Law series, 2.ª edición, 2017, pp. 39 y ss.

4. «Cuarenta y cinco minutos que estremecieron el mundo: qué pasaría si Google desapareciera para siempre», véase la noticia en: https://www.elmundo.es/papel/historias/2020/12/20/5fdcb1e9fdddff780b8b4593.html

5. Véase la Resolución del Parlamento Europeo, de 21 de septiembre de 2010, sobre la realización del mercado interior del comercio electrónico [2010/2012(INI)]. DO C 50E de 21.2.2012, p. 1/15.

6. Sobre la transformación digital, véase el informe de la Organización para la Cooperación Económica y el Desarrollo, Going Digital: Shaping Policies, Improving Lives, OECD Publishing, Paris (2019), pp. 18-31 (disponible en https://doi.org/10.1787/9789264312012-en).

7. Léase el discurso pronunciado por la presidenta electa de la Comisión Europea, Ursula von der Leyen, el 27 de noviembre de 2019 ante la sesión plenaria del Parlamento europeo (disponible en: https://ec.europa.eu/info/sites/info/files/president-elect-speech_es.pdf). Igualmente, véase la Comunicación de la Comisión de 19 de febrero de 2020, Configurar el futuro digital de Europa, COM (2020) 67 final.

8. Visítese la página web de la Comisión Europea para más información sobre las prioridades 2019-2014. En relación con la prioridad «Una Europa adaptada a la era digital. Capacitar a las personas con una nueva generación de tecnologías» (disponible en https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age_es). En esta misma línea, señala la Comunicación de la Comisión de 19 de febrero de 2020, Configurar el futuro digital de Europa, COM (2020) 67 final, p. 11 que «resulta esencial reforzar y modernizar las normas aplicables a los servicios digitales en toda la UE, aclarando las funciones y responsabilidades de las plataformas en línea. La venta de mercancías ilícitas, peligrosas o falsificadas y la difusión de contenidos ilícitos deben combatirse con la misma eficacia que fuera de línea».

9. Bruselas, 15.12.2020 COM (2020) 825 final 2020/0361 (COD). Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a un mercado único de servicios digitales (Ley de servicios digitales) y por la que se modifica la Directiva 2000/31/CE (disponible en: https://ec.europa.eu/digital-single-market/en/news/proposal-regulation-european-parliament-and-council-single-market-digital-services-digital), en adelante: PRLSD.

10. Bruselas, 15.12.2020 COM (2020) 842 final, 2020/0374 (COD). Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre mercados disputables y equitativos en el sector digital (Ley de Mercados Digitales) (disponible en https://ec.europa.eu/info/sites/info/files/proposal-regulation-single-market-digital-services-digital-services-act_en.pdf).

11. Sendos textos de Reglamentos abordan cuestiones que interactúan entre sí. La propuesta de Ley de mercados digitales se ocupa de la falta de competencia en los mercados digitales y sus disposiciones se dirigen a los denominados «guardianes de acceso», en tanto que la Ley de servicios digitales se centra en los prestadores de servicios de intermediación (y, en particular, en las plataformas en línea) incidiendo en las obligaciones de transparencia y de protección de los usuarios de los servicios digitales. Téngase en cuenta, no obstante, que este trabajo se centra únicamente en la futura Ley de servicios digitales.

12. Como la venta de medicamentos falsificados, de juguetes que no cumplen las normas de seguridad o de especies protegidas; la prestación de servicios de alojamiento que no cumplen las normas estatales, autonómicas o locales de alquiler a corto plazo; o la difusión de mensajes que inciten al odio (discurso del odio), de contenido terrorista, de material de abuso sexual infantil, de anuncios de servicios ilegales (sobre explotación sexual) o de contenido que infrinja los derechos de propiedad intelectual e industrial.

13. Se escoge este punto de partida porque la exposición de motivos de la Propuesta de Reglamento de Ley de servicios digitales señala que «sobre la base de los principios esenciales establecidos en la Directiva sobre el comercio electrónico, que mantienen su validez hasta hoy, esta propuesta pretende garantizar las mejores condiciones para la prestación de servicios digitales innovadores en el mercado interior, contribuir a la seguridad en línea y la protección de los derechos fundamentales, y establecer una estructura de gobernanza robusta y duradera para la supervisión efectiva de los prestadores de servicios intermediarios». Vid., la exposición de motivos de la PRLSD, p. 2.

14. Tras publicarse la propuesta de la Comisión Europea, se abre un periodo de consulta pública y de negociación. El Parlamento Europeo y los distintos países de la Unión comenzarán a debatir el borrador, siendo de esperar que las organizaciones no gubernamentales y el lobby de las tecnológicas alcen su voz. En todo caso, quedan muchos meses por delante para que la propuesta logre su aprobación (tal y como está o con alguna modificación sustancialmente. Tiempo al tiempo).

15. En el año 2019, entre el 70% y el 95% de los adultos utilizaron internet en los países de la OCDE, siendo los teléfonos inteligentes el dispositivo preferido para acceder a internet. En este sentido, los ciudadanos pasan cada vez más tiempo conectados, viéndose incrementado el uso diario en la OCDE un promedio de treinta minutos durante los años 2014-19. Véase, OECD Digital Economy Outlook 2020, OECD Publishing, 2020, Paris, p. 14. (disponible en https://doi.org/10.1787/bb167041-en).

16. En efecto, los intermediarios y las plataformas en línea desempeñan un papel esencial en nuestro día a día. Según el EUROSTAT, hay más de diez mil plataformas digitales en la Unión Europea, esencialmente pequeñas y medianas empresas, prestando servicios en casi todos los sectores de la economía (disponible en: https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Digital_economy_and_society_statistics_-_households_and_individuals/es). Un estudio sobre estas plataformas y la indecencia del Derecho internacional privado de los contratos, véase, CORDERO ÁLVAREZ, C. I., «Plataformas digitales, economía colaborativa y cuestiones de Derecho internacional privado de los contratos», en Plataformas digitales: problemas jurídicos derivados de su actuación, Centro de Estudios Financieros, 2020, pp. 101-142.

17. En 2021 se calcula que habrá alrededor de 3.210 millones de usuarios mensuales activos en todo el mundo, según STATISTA (disponible en: https://es.statista.com/temas/3168/panorama-mundial-de-las-redes-sociales/).

18. Public Law 105-304, 105th Congress, Oct. 28, 1998 [112 Statute 2860], cuyo ámbito de aplicación es para asuntos relacionados con copyright.

19. Si se cumplen los criterios establecidos en la sección 4.ª, titulada «Responsabilidad de los prestadores de servicios intermediarios», de la DCE, los intermediarios quedan «exentos de responsabilidad contractual, responsabilidad administrativa, daños/extracontractuales responsabilidad civil, responsabilidad penal, responsabilidad civil o cualquier otro tipo de responsabilidad, por todo tipo de actividades iniciadas por terceros, incluidas las infracciones de derechos de autor y marcas registradas, difamación, publicidad engañosa, prácticas comerciales, competencia desleal, publicaciones de contenido ilegal, etc.». Vid., «Chapter 6. Liability of online intermediaries», COMISIÓN EUROPEA, EU study on the New rules for a new age? Legal analysis of a Single Market for the Information Society, 2009, p. 9.

20. Art. 12 DCE (y art. 14 LSSI/2002).

21. Art. 13 DCE (y art. 15 LSSI/2002).

22. Arts. 14 DCE (y art. 16 LSSI/2002).

23. Véanse los considerandos núm. 40 a 46 DCE, en particular el núm. 42.

24. El TJUE se ha pronunciado sobre este punto en reiteradas ocasiones. Vid., entre otras, las sentencias de 23 de marzo de 2010, Google France y Google c. Louis Vuitton y otros, asuntos acumulados C-236/08 a C-238/08 (EU:C:2010:159), apartados 113-14; de 12 de julio de 2011, LÓréal y otros c. eBay International y otros, asunto C-324/09 (ECLI:EU:C:2011:474), apartado 113; y la de 11 de septiembre de 2014, Papasavvas, asunto C-291/13 (EU:C:2014:2209), apartados 39-40.

25. Además de estos tres puertos seguros configurados en la DCE, el legislador español añadió la exención de la responsabilidad a los prestadores de servicios que faciliten enlaces a contenidos o instrumentos de búsqueda. Un estudio de los prestadores de servicios de intermediación, véase, CASTELLÓ PASTOR, J. J., Motores de búsqueda y derechos de autor: infracción y responsabilidad, Aranzadi, Cizur Menor, 2016, p. 219 y ss.; ARROYO I AMAYUELAS, E., «La responsabilidad de los intermediarios en internet: ¿puertos seguros a prueba de futuro?», en ARROYO I AMAYUELAS, E. y CÁMARA LAPUENTE, S. (Coords.), El derecho privado en el nuevo paradigma digital, Marcial Pons, 2020, pp. 343-384; LÓPEZ RICHART, J., «Un nuevo régimen de responsabilidad para las plataformas de almacenamiento de contenidos generados por usuarios en el mercado único digital», Pe. i.: Revista de propiedad intelectual, núm. 60 (2018), pp. 67-126; BUSTO LAGO, J., «La responsabilidad civil de los prestadores de servicios de la sociedad de la información», en REGLERO CAMPOS, L. F. y BUSTO LAGO, J. M. (Coords.), Tratado de Responsabilidad Civil, 4.ª ed., Cizur Menor, Thomson-Aranzadi, 2008, pp. 971-1123; DE MIGUEL ASENSIO, P. A., Derecho Privado de Internet, 5.ª ed., Civitas, Cizur Menor-Navarra, 2015, pp. 127-290; GARROTE FERNÁNDEZ-DIEZ, I., La responsabilidad de los intermediarios en Internet en materia de propiedad intelectual. Un estudio de derecho comparado, ed. Tecnos D.L., Madrid, 2014, passim; PEGUERA POCH, M., La exclusión de responsabilidad de los intermediarios en Internet, Comares, Granada, 2007, passim.

26. Véase el considerando núm. 47 DCE y el art. 15.1 DCE.

27. Así lo indica el considerando núm. 41 DCE. Aunque encontrar el equilibrio entre los intermediarios y los titulares de los derechos no fue una tarea sencilla, porque una regulación excesivamente proteccionista podía poner en peligro el propio sistema de la red, mientras que la exoneración total de responsabilidad de los intermediarios perjudicaba plenamente a los titulares de derechos. Fueron finalmente las fuertes presiones del lobby de los profesionales de internet durante su tramitación las que comportaron que se fijara el establecimiento de un régimen de responsabilidad mucho menos estricto del inicialmente previsto, adquiriendo así la DCE un marcado carácter minimalista (cfr. considerando núm. 10 DCE).

28. Entre otros, la libertad de expresión e información, el derecho al respeto de la vida privada y a la protección de los datos personales, el derecho de propiedad y a la libertad de empresa. Vid. ROSATI, E., Copyright and The Court of Justice of The European Union, Oxford University press, 2019, p. 155. Y sobre cómo responde las Naciones Unidas, el Consejo de Europa y la Unión Europea al creciente impacto de los intermediarios en el ejercicio de los derechos humanos, véase, GASCÓN MARCÉN, A., «Los intermediarios de internet y la protección de los derechos humanos», en Las empresas transnacionales en el derecho internacional contemporáneo: Derechos humanos y objetivos de desarrollo sostenible, Tirant lo Blanch, 2019, pp. 399-412; Id., «La lucha contra el discurso de odio en línea en la Unión Europea y los intermediarios de internet», en Libertad de expresión y discurso de odio por motivos religiosos, Laboratorio sobre la libertad de Creencias, 2019, pp. 64-86.

29. Conforme señaló LEE, E., «Decoding the DMCA Safe Harbours», Colum. J. L. & Arts, vol. 32 (2009), p. 269. En efecto, piénsese en la presencia de los siguientes contenidos ilícitos: infracciones de derechos de derechos de la propiedad intelectual e industrial, sobre protección de los consumidores, sobre derechos de la personalidad, contenidos terroristas, materiales relacionados con el abuso sexual de menores o delitos de incitación al odio, venta de productos ilegales, por señalar algunos ejemplos actuales.

30. En tal caso, el intermediario se apropia de los datos del usuario. Vid. HUSOVEC, M., Injunctions Against Intermediaries in the European Union – Accountable But Not Liable?, Cambridge University Press, Cambridge, 2017, pp. 56-57. Véase la STJUE Papasavvas, asunto C-291/13, apartados 45 y 46.

31. ANGELOPOULOS, C., European Intermediary Liability in Copyright: A Tort-Based Analysis, Wolters Kluwer, 2017, p. 16.

32. HOBOKEN, J., QUINTAIS, J. P., POORT, J., VAN EIJK, N., «Hosting intermediary services and illegal content online – an analysis of the scope of Article 14 E-Commerce Directive in light of developments in the Online service landscape», 2018, pp. 31 y ss.

33. Señala el considerando núm. 46 que «para beneficiarse de una limitación de responsabilidad, el prestador de un servicio de la sociedad de la información consistente en el almacenamiento de datos habrá de actuar con prontitud para retirar los datos de que se trate o impedir el acceso a ellos en cuanto tenga conocimiento efectivo de actividades ilícitas. La retirada de datos o la actuación encaminada a impedir el acceso a los mismos habrá de llevarse a cabo respetando el principio de libertad de expresión y los procedimientos establecidos a tal fin a nivel nacional. La presente Directiva no afecta a la posibilidad de que los Estados miembros establezcan requisitos específicos que deberán cumplirse con prontitud antes de que retiren los datos de que se trate o se impida el acceso a los mismos».

34. A raíz de la STJUE Google France c. Vuitton, asuntos acumulados C-236/08 a C-238/08, apartados 113 y 116. Algunos autores han considerado incorrecta esta extensión. Entre otros, véase, RIORDAN, J., The Liability of Internet Intermediaries, Oxford University Press, Oxford, 2016, p. 402; LÓPEZ RICHART, J., «Un nuevo régimen…», op. cit., pp. 83-84.

35. De hecho, preocupado por este tipo de prácticas, el legislador de la Unión Europea configura un conjunto de normas con el fin de asegurar que se conceden opciones apropiadas de transparencia y de equidad a los usuarios profesionales de servicios de intermediación en línea y a los usuarios de sitios web corporativos en relación con los motores de búsqueda en línea. Un estudio del Reglamento 1150/2019, véase, LAPIEDRA ALCAMÍ, R., «Hacia la transparencia y la equidad en el ranking de resultados a la luz del Reglamento 2019/1150», en CASTELLÓ PASTOR, J.J. (Dir.), Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021; FLAQUER RIUTORT, J., «Obligaciones de transparencia y equidad en la prestación de servicios de intermediación en línea: orientaciones futuras en el ordenamiento comunitario», Revista Aranzadi de Derecho y Nuevas Tecnologías, núm. 50 (2019); CASTELLÓ PASTOR, J.J., «El ranquin de los resultados ofrecidos por buscadores, asistentes digitales y altavoces inteligentes: un problema no resuelto», Actas de derecho industrial y derecho de autor, tomo 40 (2019-2020), pp. 283-298.

36. Así lo india el considerando núm. 26 de la Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo de 2018, sobre medidas para combatir eficazmente los contenidos ilícitos en línea (DO 2018, L 63, p. 50): «adoptar medidas activas de carácter voluntario no conduce automáticamente a que un prestador de servicios de alojamiento de datos afectado pierda el beneficio de la exención de responsabilidad prevista en el artículo 14 de la Directiva 2000/31/CE». En este mismo sentido, HOBOKEN, J., QUINTAIS, J. P., POORT, J., VAN EIJK, N., Hosting intermediary services and illegal content online – an analysis of the scope of Article 14 E-Commerce Directive in light of developments in the Online service landscape, 2018, pp. 31 y ss.

37. STALLA-BOURDILLON, S., «Internet Intermediaries as Responsible Actors? Why It Is Time to Rethink the E-Commerce Directive as Well», en TADDEO, M. y FLORIDI, L. (eds), The Responsibilities of Online Service Providers. Springer, 2017, pp. 284-85.

38. Vid. art. 15 DCE.

39. El prestador de servicio de caching y el de hosting (e igualmente para el prestador del servicio de que facilite enlaces a contenidos o instrumentos de búsqueda en el sistema legal español, ex. art. 17 LSSI/2002).

40. En efecto, la pérdida del privilegio como puerto seguro no implica directa y automáticamente la responsabilidad del intermediario. La atribución de su posible responsabilidad depende, en todo caso, de ley material o sustantiva aplicable al fondo del asunto. Vid., CASTELLÓ PASTOR, JJ., Motores de búsqueda…, op. cit., pp. 238-239; DE MIGUEL ASENSIO, P.A., Derecho Privado de…, op. cit., p. 225.

41. Nos centramos en el hosting porque tiene un cierto control sobre los facilitados por sus usuarios. En particular, este prestador de servicio de intermediación tiene la capacidad técnica de borrarlos o de hacer imposible el acceso a ellos. Por este motivo, se espera una actuación rápida y diligente cuando se ponga en su conocimiento la existencia de datos ilícitos en su servicio. Vid. la STJUE de 15 de septiembre de 2016, Tobias Mc Fadden y Sony Music Entertainment Germany GmbH, asunto C-484/14 (EU:C:2016:689), apartado 62. Además, se toma como referencia este intermediario por su amplia aplicación: de las redes sociales a los mercados electrónicos.

42. Cuando existen iniciativas sectoriales, v.gr., para las infracciones de derechos de autor, el contenido terrorista, el material de abuso sexual infantil, el discurso de odio ilegal o algunos productos ilegales. Vid. infra. n.p. 88.

43. Pues recurre excesivamente al uso de conceptos jurídicos indeterminados, v.gr. conocimiento efectivo y actuar con diligencia. Un estudio comparado de estos términos, véase, CASTELLÓ PASTOR, J.J., Motores de búsqueda…, op. cit., pp. 313-333.

44. Sobre este último punto, el TJUE ha precisado en reiteradas ocasiones que un intermediario no puede verse obligado a proceder a una supervisión de la totalidad de los datos (vid. las SSTJUE L’Oréal y otros, asunto C-324/09, apartados 139 y 144 y la de 24 de noviembre de 2011, Scarlet Extended c. SABAM, asunto C-70/10, ECLI:EU:C:2011:771, apartados 36 y 40) o de la casi totalidad (vid. la STJUE de 16 de febrero de 2012, SABAM c. Netlog NV, asunto C-360/10, ECLI:EU:C:2012:85, apartados 37 y 38) de los datos respecto de todos sus clientes con el fin de evitar cualquier futura infracción.

45. Entre otras, vid. las SSTJUE de 8 de septiembre de 2016, GS Media BV y Sanoma Media Netherlands BV, Playboy Enterprises International Inc., Britt Geertruida Dekker, asunto C-160/15, (ECLI:EU:C:2016:644), apartado 49; Google France c. Vuitton et al., asuntos acumulados C-236/08 a C-238/08, apartado 120; o L’Oréal c. eBay, asunto C-324/09, apartados 120 y 124.

46. CASTELLÓ PASTOR, J. J., «Detección y retirada de contenidos que vulneren derechos de autor en la red: necesidad de un código de buenas prácticas», Actas de Derecho Industrial, núm. 37 (2016-2017), pp. 284-287.

47. La notificación debe proporcionar elementos suficientes para que el intermediario pueda advertir fácilmente el carácter ilícito. Con algunos supuestos no plantea mayores problemas (pornografía infantil, xenofobia o en muchos supuestos relacionados con intromisiones al derecho del honor, por ejemplo), pero en otros puede ser complicado (en asuntos relacionados con infracciones de los derechos de propiedad intelectual e industrial, difícilmente podrá deducirse que de los propios hechos aportados el intermediario debía conocer la supuesta ilicitud y, por tanto, haber actuado diligentemente bloqueando el acceso o eliminando el material sin necesidad de requerimiento, porque escapa a este sujeto conocer la titularidad de la obra en particular). Existe, en estos casos, un exceso de celo en la retirada del contenido notificado para no perder la inmunidad. Sobre este punto, véase, CASTELLÓ PASTOR, J.J., «Detección y retirada…», op. cit., pp. 284-290.

48. RIORDAN, J., The Liability of…., op. cit., pp. 407– 408.

49. CASTELLÓ PASTOR, J.J., «Detección y retirada…», op. cit., p. 288.

50. Considerando núm. 47 DCE. Así lo indica, respectivamente, el artículo 12.3, 13.2, y 14.3 DCE.

51. Sobre los requerimientos judiciales emitidos frente a los intermediarios, véase, FROSIO, G., «Enforcement of European Rights on a Global Scale» en ROSATI, E. (ed.), Handbook of European Copyright Law, Routledge, 2021 (capítulo disponible en: https://ssrn.com/abstract=3650521 or http://dx.doi.org/10.2139/ssrn.3650521); HUSOVEC, M., Injunctions Against Intermediaires…, op. cit. pp. 57 y 58; LLOPIS NADAL, P., Tutela judicial civil de la propiedad intelectual en internet, Thomson Reuters-Aranzadi, 2018, passim; ROSATI, E., Copyright and the Court…, op. cit., 2019, pp. 154-169. SENFTLEBEN, M. y ANGELOPOULOS, C., The Odyssey of the Prohibition on General Monitoring Obligations on the Way to the Digital Services Act: Between Article 15 of the E-Commerce Directive and Article 17 of the Directive on Copyright in the Digital Single Market, Amsterdam/Cambridge (2020) (disponible en https://ssrn.com/abstract=3717022).

52. Así lo indica la STJUE Glawischnig-Piesczek, asunto C-18/18, apartado 45. Un comentario crítico de la resolución, véase, KELLER, D., «Facebook Filters, Fundamental Rights, and the CJEU’s Glawischnig-Piesczek Ruling», GRUR International, vol. 69, núm. 6 (2020), pp. 620-622.

53. En marco de los derechos de autor, el legislador de la Unión Europea crea de facto un mandato de filtrado al exigir a las plataformas «evitar que se carguen en el futuro», de acuerdo con el artículo 17,4 c) de la Directiva 2019/790. Vid. KELLER, D., «Facebook Filters…», op. cit., p. 619.

54. Sobre el alcance de estos requerimientos, véanse las SSTJUE Scarlett Extended c. SABAM, asunto C-70/10; SABAM c. Netlog, asunto C-360/10; la de 29 enero de 2008, Promusicae, asunto C-275/06, de, (ECLI:EU:C:2008:54), la de 27 de marzo de 2014, UPC Telekabel Wien, asunto C-314/12 (ECLI:EU:C:2014:192); Mac Fadden, asunto C-484/14 y más recientemente Glawischnig-Piesczek, asunto C-18/18.

55. En este sentido véase la Recomendación (UE) 2018/334 de la Comisión de 1 de marzo de 2018 sobre medidas para combatir eficazmente los contenidos ilícitos en línea.

56. Véase el epígrafe tres del apartado siguiente.

57. OECD, An Introduction to Online Platforms and their Roles in the Digital Transformation, OECD Publishing, 2019, Paris (disponible en https://doi.org/10.1787/53e5f593-en).

58. En el mercado electrónico hay plataformas que reúnen al comprador y vendedor y el tercero no vende los productos, solo conecta a los compradores con los vendedores para que formalicen las transacciones (como sería el caso de eBay o Wallapop). También están los mercados propios, que venden sus productos (sea a través del interfaz de su página web, sitio web o aplicación, como puede ser la de El Corte Inglés o Ikea). Y por último está el modelo mixto (o híbrido) en el que la plataforma vende sus propios productos, pero también facilita las transacciones de otros vendedores (como es el caso de Amazon y Zalando).

59. El considerando 1 del Reglamento (UE) 2019/1150 de 20 de junio de 2019, sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediación en línea señala, en este sentido, que «los servicios de intermediación en línea son factores esenciales para el emprendimiento y los nuevos modelos de negocio, el comercio y la innovación que, a su vez, también pueden potenciar el bienestar de los consumidores y cada vez se emplean más tanto en el sector privado como en el público. Facilitan el acceso a nuevos mercados y oportunidades comerciales de modo que permiten a las empresas aprovechar las ventajas del mercado interior. Permiten a los consumidores de la Unión obtener provecho de dichas ventajas, en concreto al ampliar la gama de bienes y servicios y al contribuir a la oferta de precios competitivos en línea, pero también plantean desafíos a los que hay que hacer frente si se quiere garantizar la seguridad jurídica».

60. Vid. las SSTJUE de 20 de diciembre de 2017, Asociación Profesional Élite Taxi contra Uber Systems Spain, SL, asunto C-434/15 (ECLI:EU:C:2017:981) y de 19 de diciembre de 2019, Airbnb Ireland UC, asunto C-390/18 (ECLI:EU:C:2019:1112).

61. En tanto no nos encontremos con una materia excluida por el art. 1.5 DCE.

62. Véase el considerando núm. 17 DCE, el artículo 2 (a) DCE y también el articulo 1 (1) (b) Directiva (UE) 2015/1535 del Parlamento Europeo y del Consejo, de 9 de septiembre de 2015, por la que se establece un procedimiento de información en materia de reglamentaciones técnicas y de reglas relativas a los servicios de la sociedad de la información (OJ L 241, 17.9.2015, p. 1-15).

63. Vid. las SSTJUE Papasavvas, asunto C-291/13, apartados 29-30 y Mc Fadden, asunto C-484/14, apartados 42-43. El primer asunto relacionado con un prestador de servicios de almacenamiento de datos y el segundo de acceso a internet.

64. Señala el considerando núm. 24 de la Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (DO 2019, L 136, p. 1) que «a menudo, los contenidos o servicios digitales se suministran también cuando el consumidor no paga un precio, pero facilita datos personales al empresario. Tales modelos de negocio ya se utilizan de diferentes formas en una parte considerable del mercado […]». En todo caso, recuérdese, que «los datos son el petróleo de la economía digital» vid. EUROPEAN DATA PROTECTION SUPERVISOR, Privacy and competitiveness in the age of big data: The interplay between data protection, competition law and consumer protection in the Digital Economy, 2014, p. 8.

65. Estos servicios han evolucionado también en estos veinte años pasando de las comunicaciones comerciales a través de listas de distribución por correo electrónico al importante volumen de negocio que genera la industria de la publicidad en línea. En efecto, de acuerdo con STATISTA, en el primer semestre 2019 este negocio de la publicidad superó casi 30 billones de euros (vid. https://www.statista.com/topics/3983/digital-advertising-in-europe/).

66. En efecto, algunos de estos supuestos carecen de inmunidad sobre el dato intermediario como puerto seguro si no fuera porque la jurisprudencia realiza, a mi juicio, malabares interpretativos para subsumirlos en alguno de ellos (generalmente en el de mera conducción y el de hosting) y garantizarles la protección. Sobre la dificultad de encajar los actuales servicios digitales en los actuales puertos seguros, véase, ARROYO I AMAYUELAS, E., «La responsabilidad de los intermediarios…», op. cit., pp. 346-350.

67. También porque hay servicios que proporcionan la estructura técnica de internet como el servicio de redes de distribución de contenidos, de operadores de DNS (Sistema de Nombres de Dominio) o de infraestructura en la nube y que necesariamente deberían tener un nuevo marco regulatorio porque difícilmente encajan con lo dispuesto en el art. 12 DCE.

68. Coincido con ARROYO I AMAYUELAS, E., «La responsabilidad de los intermediarios…», op. cit., pp. 350-351. Aunque otros autores consideran que «las disposiciones parecen ser lo suficientemente flexibles como para adaptarse a nuevos modelos de negocio, lo que también las hace en general a prueba de futuro». Vid. NORDEMANN, J.B., «Liability of Online Service Providers for Copyrighted Content – Regulatory Action Needed?», Study commissioned by European Parliament, Policy Department A: Economic and Scientific Policy (2017), p. 18 (disponible en: https://www.europarl.europa.eu/RegData/etudes/IDAN/2017/614207/IPOL_IDA(2017)614207_EN.pdf).

69. Véase el comunicado de prensa de 15 de diciembre de 2020, Una Europa adaptada a la era digital: la Comisión propone nuevas normas aplicables a las plataformas digitales (disponible en: https://ec.europa.eu/commission/presscorner/detail/es/IP_20_2347).

70. Un análisis de esta propuesta legislativa, véase, DE MIGUEL ASENSIO, P., «Servicios y mercados digitales: modernización del régimen de responsabilidad y nuevas obligaciones de intermediarios», La Ley Unión Europea, núm. 88 (2021), versión en línea; REIG FABADO, I., «La adaptación del derecho de competencia europeo a la era digital: algunos aspectos de la propuesta legislativa para las grandes plataformas digitales», en CASTELLÓ PASTOR, J.J. (Dir.), Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

71. Señala VESTAGER, vicepresidenta ejecutiva responsable de la cartera de una Europa adaptada a la era digital, que «las dos propuestas persiguen un único objetivo: garantizar que, como usuarios, tengamos acceso a una amplia gama de productos y servicios seguros en línea, y que las empresas que operan en Europa puedan competir libre y equitativamente en línea del mismo modo que lo hacen fuera de línea. El nuestro es un único mundo. Debemos ser capaces de hacer nuestras compras de manera segura y confiar en las noticias que leamos, porque lo que es ilegal fuera de línea lo es igualmente en línea». Véase el comunicado de prensa de 15 de diciembre de 2020 «Una Europa adaptada a la era digital: la Comisión propone nuevas normas aplicables a las plataformas digitales» (disponible en: https://ec.europa.eu/commission/presscorner/detail/es/ip_20_2347).

72. Aunque no se ha modificado la DCE, las instituciones de la Unión Europea han abordado en esta última década el desafío digital desde otro plano, como p. ej. a través de recomendaciones para intensificar la lucha contra el contenido ilícito o de normas específicas más estrictas para algunos tipos de material especialmente perjudiciales. Vid. DE STREEL, A. y HUSOVEC, M. «The e-commerce Directive as the cornerstone of the Internal Market», Study for the committee on Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg (2020), pp. 25 y ss.

73. Continúan siendo válidos. De hecho, señala el art. 1.5 PRLSD que «el presente Reglamento ha de entenderse sin perjuicio de las disposiciones establecidas en los siguientes instrumentos jurídicos: a) Directiva 2000/31/CE […]».

74. Resulta llamativa la concreción del término «servicio intermediario» (véase el art. 2 (f) PRLSD) porque ciñe exclusivamente a las subcategorías de mera conducción, caching y de hosting; cuando no parece indicar lo mismo el considerando núm. 5 PRLSD («[…] En concreto, el presente Reglamento debe aplicarse a los prestadores de servicios intermediarios, y en particular servicios intermediarios integrados por los servicios conocidos como de “mera transmisión”, de “memoria tampón” y de “alojamiento de datos” (énfasis añadido). Como apunta DE MIGUEL: «al retener esa división tripartita de los artículos 12 a 14 DCE, la PRLSD, a diferencia de la LSSI, no contempla como una categoría de prestadores que deba ser objeto de un régimen específico a los prestadores de servicio que faciliten enlaces a contenidos o instrumentos de búsqueda». DE MIGUEL ASENSIO, P., «Servicios y mercados digitales…», op., cit., versión en línea.

75. A tenor del artículo 1.2 PRLSD.

76. Vid. art. 1.1 PRLSD.

77. De acuerdo con la definición incorporada en el art. 2 (d) PRLSD, se entiende por «ofrecer servicios en la Unión» el hecho de «hacer posible que las personas físicas o jurídicas de uno o varios Estados miembros utilicen los servicios del prestador de servicios de la sociedad de la información que tenga una conexión sustancial con la Unión; se considerará que existe dicha conexión sustancial cuando el prestador tenga un establecimiento en la Unión; en ausencia de dicho establecimiento, la determinación de la conexión sustancial se basará en criterios objetivos específicos, como por ejemplo: un número significativo de usuarios en uno o varios Estados miembros, o que se dirijan actividades hacia uno o varios Estados miembros».

78. Así lo indica el considerando 7 PRLSD que «a fin de garantizar la eficacia de las normas estipuladas en el presente Reglamento y la igualdad de condiciones de competencia en el mercado interior, dichas normas deben aplicarse a los prestadores de servicios intermediarios con independencia de su lugar de establecimiento o residencia, en la medida en que presten servicios en la Unión, según se demuestre por una conexión sustancial con la Unión».

79. Precisa el considerando núm. 8 PRLSD que «existe tal conexión sustancial con la Unión cuando el prestador de servicios tenga un establecimiento en la Unión o, en ausencia de este, cuando exista un número significativo de usuarios en uno o varios Estados miembros, o se orienten actividades hacia uno o más Estados miembros. La orientación de las actividades hacia uno o más Estados miembros puede determinarse en función de todas las circunstancias pertinentes, incluidos factores como el uso de una lengua o una moneda utilizada generalmente en ese Estado miembro, o la posibilidad de encargar bienes o servicios, o el uso de un dominio nacional de alto nivel. La orientación de las actividades hacia un Estado miembro también puede derivarse de la disponibilidad de una aplicación para móvil en la tienda de aplicaciones nacional correspondiente, de la existencia de publicidad local o publicidad en la lengua utilizada en dicho Estado miembro, o de una gestión de las relaciones con los clientes que incluya, por ejemplo, la prestación de servicios a los clientes en la lengua comúnmente utilizada en tal Estado miembro. También se presumirá que existe una conexión sustancial cuando el prestador de servicios dirija sus actividades hacia uno o más Estados miembros, como establece el artículo 17, apartado 1, letra c), del Reglamento (UE) n.º 1215/2012 del Parlamento Europeo y del Consejo. Por otro lado, no cabe considerar que la mera accesibilidad técnica de un sitio web desde la Unión, por ese motivo en exclusiva, demuestre la existencia de una conexión sustancial con la Unión».

80. Como sucede con el «criterio de las actividades dirigidas» del art. 17.1 RBI bis, interpretado ampliamente por el TJUE. Al respecto, véase, CASTELLÓ PASTOR, J.J., «Disponibilidad de productos y servicios en línea en el mercado único digital», en CASTELLÓ PASTOR, J.J., GUERRERO PÉREZ, A., MARÍNEZ PÉREZ, M. (Dirs.), Derecho de la contratación electrónica y comercio electrónico en la Unión Europea y en España, Tirant lo Blanch, Valencia, 2021, pp. 334-337.

81. Art. 1.3 PRLSD.

82. Art. 11 PRLSD.

83. SCHMON, C. y GULLO, K., «European Commission’s Proposed Digital Services Act got several things right, but improvements are necessary to put users in control» (entrada del blog 15.12.2020; disponible en: https://www.eff.org/deeplinks/2020/12/european-commissions-proposed-regulations-require-platforms-let-users-appeal).

84. El art. 2 PRLSD incorpora unas definiciones a efectos del Reglamento. En particular, la letra a) define los servicios de la sociedad de la información como «todo servicio en el sentido del artículo 1, apartado 1, letra b), de la Directiva (UE) 2015/1535».

85. Vid. supra. apartado 3.

86. Que podría ser la Ley de un Estado miembro, pero también la Ley de un tercer Estado, en virtud de las normas conflictuales de los instrumentos de la UE (en concreto, el Reglamento (CE) núm. 593/2008 de 17 de junio de 2008 sobre la Ley aplicable a las obligaciones contractuales o el Reglamento (CE) núm. 864/2007 de 11 de julio de 2007 relativo a la ley aplicable a las obligaciones extracontractuales).

87. Vid. el art. 2 (g) PRLD. Por otro lado, el considerando 12 PRLD indica que «[…] para los efectos del presente Reglamento, el concepto de “contenido ilícito” debe definirse de forma genérica y comprende además información relacionada con contenidos, productos, servicios y actividades de carácter ilícito. En particular, debe entenderse que dicho concepto se refiere a información, sea cual sea su forma, que sea de por sí ilícita en virtud de la legislación aplicable, como los delitos de incitación al odio o los contenidos terroristas y los contenidos discriminatorios ilícitos, o que tengan relación con actividades ilícitas, como el intercambio de imágenes que representen abusos sexuales de menores, la publicación ilícita no consentida de imágenes privadas, el acoso en línea, la venta de productos no conformes o falsificados, el uso no autorizado de material protegido por derechos de autor o actividades que conlleven infracciones de la legislación de protección de los consumidores. En este sentido, es irrelevante si la ilicitud de la información o actividad tiene su origen en el Derecho de la Unión o en legislación nacional coherente con el Derecho de la Unión y cuál es la naturaleza o materia precisa de la legislación en cuestión».

88. Vid. art. 71 PRLSD.

89. Vid. art. 1.5 PRLSA. Sirva a modo de ejemplo de lex specialis, entre otras, las obligaciones establecidas en la Directiva 2010/13/CE, modificada por la Directiva (UE) 2018/1808, sobre proveedores de plataformas de intercambio de vídeos en lo que respecta a los contenidos audiovisuales y las comunicaciones comerciales audiovisuales; el conocido artículo 17 de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital, las medidas establecidas en el Reglamento (UE) 2019/1150 de 20 de junio de 2019, sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediación en línea, o las medidas establecidas en la Propuesta de Reglamento para la prevención de la difusión de contenidos terroristas en línea (COM/2018/640 final).

90. El art. 5.3 PRLSA señala que la exención prevista en «el apartado 1 no se aplicará con respecto a la responsabilidad, en virtud de la legislación de protección al consumidor, de las plataformas en línea que permitan que los consumidores formalicen contratos a distancia con comerciantes, cuando dicha plataforma en línea presente el elemento de información concreto, o haga posible de otro modo la transacción concreta de que se trate, de manera que pueda inducir a un consumidor medio y razonablemente bien informado a creer que esa información, o el producto o servicio que sea el objeto de la transacción, se proporcione por la propia plataforma en línea o por un destinatario del servicio que actúe bajo su autoridad o control».

91. DE MIGUEL ASENSIO, P., «Servicios y mercados digitales…», op. cit., versión en línea.

92. Vid. art. 6 PRLSD y el considerando núm. 25 respectivamente. Véase, también, BARATA, J., «Positive Intent Protections: Incorporating a Good Samaritan principle in the EU Digital Services Act», Center for Democracy & Technology (2020) (disponible en: https://cdt.org/wp-content/uploads/2020/07/2020-07-29-Positive-Intent-Protections-Good-Samaritan-principle-EU-Digital-Services-Act-FINAL.pdf).

93. Un estudio de la protection for «good samaritan» blocking and screening of offensive material y su jurisprudencia, véase, CASTELLÓ PASTOR, J.J., «Exoneración de responsabilidad de los prestadores de servicios de la información en la sección 230 de la Communications Decency A ct estadounidense», Revista Aranzadi de derecho y nuevas tecnologías, n.º 39 (2015), pp. 175-194.

94. Desde hace algún tiempo, los gigantes tecnológicos están implantando estos mecanismos para detectar contenidos nocivos en sus servicios, eliminarlos (o imposibilitar el acceso) e incluso suspender las cuentas de los usuarios reincidentes. Sin embargo, el creciente uso de la inteligencia artificial para controlar los contenidos –posiblemente– ilícitos deja en manos de los algoritmos (de las empresas privadas) la espinosa cuestión de eliminar un contenido que quizás no sea ilícito, por lo que puede fácilmente menoscabar la libertad de expresión y fomentar la censura. Como señalan algunos autores, la inteligencia artificial no entiende de códigos culturales, contextos sociales o, por ejemplo, de los «memes», de modo que llegan a eliminar contenido que pudiera parecer lesivo cuando realmente no lo es, menoscabando la libertad de expresión. Actualmente se borra más contenido con los algoritmos que cuando hay intervención humana. Por poner varios ejemplos, el año pasado YouTube eliminó más de once millones de vídeos, TikTok más de cien millones de videoclips y Twitter casi tres millones de tuits. Facebook, por su parte, elimina más de 17 millones de cuentas falsas al día, según el artículo publicado el 24.10.2020 en The Economist titulado «Big tech and free speech, social media´s struggle with self-censorship» (disponible en: https://www.economist.com/briefing/2020/10/22/social-medias-struggle-with-self-censorship).

Véase, también, la opinión de algunos autores sobre el empleo de los algoritmos en la moderación de contenidos en la red, entre otros: FROSIO, G., «Algorithmic Enforcement Online», en TORREMANS, P. (ed.), Intellectual Property and Human Rights, 4.ª ed., Kluwer Law Int’l, 2020, pp. 709-744; SARTOR, G., «The impact of algorithms for online content filtering or moderation “Upload filters”», Policy Department for Citizens’ Rights and Constitutional Affairs. Directorate-General for Internal Policies, PE 657.101 (2020).

95. Art. 7 PRLSD.

96. Art. 8 PRLSD.

97. Véase el considerando núm. 31, y, en particular, el considerando núm. 33 PRLSD por remarcar la necesidad de respetar el criterio de mercado interior del art. 3 DCE.

98. Art. 9 PRLSD.

99. Las define el art. 2 (h) PRLSD como «un prestador de un servicio de alojamiento de datos que, a petición de un destinatario del servicio, almacena y difunde al público información, salvo que esa actividad sea una característica menor y puramente auxiliar de otro servicio y, por razones objetivas y técnicas, no pueda utilizarse sin ese otro servicio, y la integración de la característica en el otro servicio no sea un medio para eludir la aplicabilidad del presente Reglamento».

100. Así lo indica el considerando núm. 54 PRLSD: «Las plataformas en línea de muy gran tamaño pueden entrañar riesgos para la sociedad, de distinto alcance y repercusión que los generados por plataformas más pequeñas. Una vez que el número de destinatarios de una plataforma asciende a un porcentaje importante de la población de la Unión, los riesgos sistémicos que la plataforma entraña tienen un impacto desproporcionadamente negativo en la Unión. Deberá considerarse que existe un alcance tan significativo cuando el número de destinatarios exceda de un umbral operativo fijado en cuarenta y cinco millones, es decir, una cifra equivalente al 10% de la población de la Unión. El umbral operativo deberá mantenerse actualizado a través de enmiendas promulgadas por medio de actos delegados, cuando sea necesario. Dichas plataformas en línea de muy gran tamaño deberán, por tanto, cumplir las obligaciones de diligencia debida más exigentes, proporcionadas a su impacto social y sus medios».

101. Vid., infra. n.p. 134.

102. Aparte de esta información, las plataformas en línea adicionalmente deben incluir la detallada en el art. 23 PRLSD.

103. Resulta llamativa la inclusión de las plataformas en línea como un subgrupo de los prestadores de servicios de hosting, cuando efectivamente lo es. No obstante, el considerando núm. 13 PRLSD aclara el motivo de la distinción: «cabe definir a las plataformas en línea, como las redes sociales o los mercados en línea, como prestadores de servicios de alojamiento de datos que no solo almacenan información proporcionada por los destinatarios del servicio a petición suya, sino que además difunden dicha información al público, de nuevo a petición suya. Sin embargo, a fin de evitar la imposición de obligaciones excesivamente genéricas, los prestadores de servicios de alojamiento de datos no deberán considerarse plataformas en línea cuando la difusión al público sea tan solo una característica menor y puramente auxiliar de otro servicio y dicha característica no pueda utilizarse, por razones técnicas objetivas, sin ese otro servicio principal, y la integración de dicha característica no sea un medio para eludir la aplicabilidad de las disposiciones del presente Reglamento aplicables a las plataformas en línea. Por ejemplo, la sección de comentarios de un periódico en línea podría ser una característica de esta índole, cuando quede claro que es auxiliar al servicio principal que representa la publicación de noticias bajo la responsabilidad editorial del editor».

104. Vid. arts. 14 y 15 PRLSD.

105. Adicionalmente a las obligaciones de las secciones primera y segunda, la sección tercera impone a las plataformas en línea otras obligaciones más (que no se aplican a las plataformas en línea que sean microempresas o pequeñas empresas, a tenor del art. 16 PRLSD). Vid. infra. apartado núm. 4.

106. La sección cuarta se ocupa de las obligaciones –adicionales a las establecidas en las secciones primera a tercera– para que las plataformas en línea de «muy gran tamaño» gestionen los riesgos sistémicos. Analizadas brevemente infra. apartado núm. 4.

107. Aunque nada impide que un tercero realice este aviso. De hecho, se contempla la figura del alertadores fiables o trusted flaggers (en el art. 19 PRLSD). Con anterioridad, la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, Lucha contra el contenido ilícito en línea. Hacia una mayor responsabilización de las plataformas en línea. Bruselas, 28.9.2017 COM (2017) 555 final, p. 10 ya indicó que: «en la lucha efectiva contra los contenidos ilícitos en línea, debe facultarse a los usuarios corrientes para que llamen la atención de las plataformas sobre contenidos ilícitos en línea contando con que las comunicaciones justificadas serán tenidas en cuenta y tramitadas con rapidez» (énfasis añadido).

108. Buena parte de mi tesis doctoral se centró en el estudio comparado de los diferentes sistemas de «notificación y retirada», concluyendo, al respecto, la necesidad de implantar un sistema común a todos los Estados miembros de la Unión Europea. Vid. CASTELLÓ PASTOR, J.J., Motores de búsqueda…, op. cit., pp. 383-402. Por otro lado, en el año 2018, la Comisión Europea publicó la Recomendación (UE) 2018/334 de 1 de marzo, para combatir eficazmente los contenidos en línea, en particular véase la recomendación quinta y siguientes sobre la presentación y tramitación de notificaciones.

109. En concreto, al artículo 512 c) de la DMCA. Sobre esta disposición y su jurisprudencia, véase, CASTELLÓ PASTOR, J.J., Motores de búsqueda…, op. cit., 2016, pp. 389-400.

110. A tenor del artículo 14.2 PRLSD.

111. Artículo 14.3 PRLSD. Por su parte, señala el considerando núm. 22 que «[…] el prestador puede obtener dicho conocimiento efectivo, en particular, a través de investigaciones realizadas por iniciativa propia o avisos recibidos de personas físicas o entidades de conformidad con el presente Reglamento en la medida en que dichos avisos sean suficientemente precisos y estén adecuadamente fundamentados para que un operador económico pueda detectar de manera razonable, evaluar y, en su caso, actuar contra el contenido presuntamente ilícito».

112. Art. 15 PRLSD.

113. Recuérdese que se trata de un subgrupo de los prestadores de servicios de alojamiento de datos (según el considerando 13 PRLSD, vid. supra n.p. 102).

114. Art. 16 PRLSD. En este sentido, la futura Ley de servicios digitales beneficia (o favorece) a las pequeñas y medianas empresas porque no han de implementar este conjunto de medidas adicionales para combatir el contenido ilegal en la red. Este ahorro a las pequeñas y medianas empresas debe ser bien recibido, pues, como puntualicé en su momento, soportar estas cargas económicas adicionales pueden convertirse un obstáculo para la innovación. Véase, CASTELLÓ PASTOR, J.J., «Detección y retirada…», op.cit., pp. 279-300.

115. Vid. supra, n.p. 93.

116. Art. 17 PRLSD.

117. Y de forma gratuita. Además, las plataformas en línea «velarán por que sus sistemas internos de tramitación de reclamaciones sean de fácil acceso y manejo y habiliten y faciliten el envío de reclamaciones suficientemente precisas y adecuadamente fundamentadas» (art. 17.2 PRLSD).

118. Según el art. 17.3 PRLSD. Aunque no se determina el número máximo de días para resolverlo. Desde mi punto de vista, sería oportuno que se hiciera constar durante la tramitación parlamentaria de la futura Ley.

119. Véase el considerando núm. 46 PRLSD.

120. Sirva a modo de ejemplo de entidad de carácter público: «las unidades de notificación de contenidos de internet de las autoridades policiales nacionales o de la Agencia de la Unión Europea para la Cooperación Policial («Europol») o pueden ser organizaciones no gubernamentales y organismos semipúblicos, como las organizaciones que forman parte de la red INHOPE de líneas directas para denunciar materiales relacionados con abusos sexuales a menores y organizaciones comprometidas con la notificación de expresiones racistas y xenófobas en línea» (mencionadas en el considerando núm. 46 PRLSD).

121. Art. 19 in fine PRLSD.

122. El ruido mediático se ha centrado en estos últimos tiempos por la creación de la Oficina Nacional de Lucha contra los delitos de odio, dependiente del Ministerio del Interior, para convertirse en alertador fiable, con continuas acusaciones de censura previa y secuestro de contenidos en internet. Véase, en este sentido, las noticias de «Interior se reúne con Google, Facebook y Twitter para la intervención rápida en los delitos de odio» y «El Real Decreto Digital propicia la censura previa y el secuestro de contenidos en Internet por parte del gobierno» (disponibles respectivamente en: http://www.informeraxen.es/interior-se-reune-con-google-facebook-y–twitter-para-la-intervencion-rapida-en-los-delitos-de-odio/ y https://www.es.amnesty.org/en-que-estamos/noticias/noticia/articulo/el-real-decreto-digital-propicia-la-censura-previa-y–el-secuestro-de-contenidos-en-internet-por-part/).

123. BECHTEL, M., «Algorithmic Notification and Monetization: Using YouTube’s Content ID System as a Model for European Union Copyright Reform», Michigan State International Law Review, vol. 28 (2020), p. 256.

124. En efecto, una de las más llamativas ha sido la cuenta de Donald Trump (https://twitter.com/realDonaldTrump). El 8 de enero de 2021, Twitter suspendió permanentemente su cuenta (o mejor dicho, la canceló) porque, según el comunicado de la red social: «después de una revisión de los tuits recientes de la cuenta @realDonaldTrump y el contexto que los rodea, hemos suspendido permanentemente la cuenta debido al riesgo de una mayor incitación a la violencia» (disponible en: https://blog.twitter.com/en_us/topics/company/2020/suspension.html). También esta misma red social ha suspendido temporalmente (durante seis días) la cuenta de un partido político español, en plena campaña electoral, «por incumplir las reglas que prohíben las conductas de incitación al odio», según puede leerse en la prensa (disponible en: https://elpais.com/espana/2021-01-28/twitter-cierra-la-cuenta-de-vox-por-incitar-al-odio-contra-los-musulmanes.html).

125. Vid. art. 20.1 PRLSD.

126. Vid. art. 20.2 PRLSD.

127. Vid. art. 20.4 PRLSD.

128. Vid. art. 22 PRLSD.

129. A tenor del art. 22.1 PRLSD: «a) el nombre, la dirección, el número de teléfono y la dirección de correo electrónico del comerciante; b) una copia del documento de identificación del comerciante o de cualquier otra identificación electrónica definida en el artículo 3 del Reglamento (UE) n.º 910/2014 del Parlamento Europeo y del Consejo; c) los datos de la cuenta bancaria del comerciante, cuando este sea una persona física; d) el nombre, la dirección, el número de teléfono y la dirección de correo electrónico del operador económico, en el sentido del artículo 3, apartado 13, y del artículo 4 del Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo o de cualquier acto pertinente del Derecho de la Unión; e) cuando el operador económico esté inscrito en un registro mercantil o en un registro público similar, el registro mercantil en el que esté inscrito el operador económico y su número de registro o medio de identificación equivalente en dicho registro; f) una auto certificación del comerciante en la que se comprometa a ofrecer únicamente productos o servicios que cumplan las normas aplicables del Derecho de la Unión».

130. Vid. Art. 22.3 PRLSD.

131. En ocasiones esta publicidad «puede contribuir a la aparición de riesgos significativos, que van desde la publicidad que es en sí misma un contenido ilegal, hasta la contribución a los incentivos financieros para la publicación o amplificación de contenidos y actividades ilegales o perjudiciales en línea, o la exhibición discriminatoria de publicidad con un impacto en la igualdad de trato y oportunidades de los ciudadanos», recuerda el considerando núm. 52 PRLSD.

132. Además de la información significativa acerca de los principales parámetros utilizados para determinar el destinatario a quién se presenta el anuncio publicitario. Vid. art. 24 in fine PRLSD.

133. Art. 25 PRLSD.

134. Es una plataforma DDS (Data Distribution Service para sistemas en tiempo real); en España es muy conocida la plataforma de https://www.forocoches.com en la que sus usuarios crean grupos de todo tipo. Pues bien, recientemente los supervisores estadounidenses están siguiendo muy de cerca las operaciones promovidas por los usuarios del grupo Reddit WallStreetBets, por la rebelión contra Wall Street por el caso «GameStop» que ha demostrado el poder de estas redes sociales para derruir grandes instituciones en cuestión de horas. Véase la notifica publicada por periódico El Mundo: «Haz clic para reventar el sistema: la amenaza de la espiral revolucionaria que nació en internet» (disponible en: https://www.elmundo.es/papel/historias/2021/02/06/601d4b04fc6c83a8238b45bd.html).

135. Resulta muy relevante el considerando núm. 57 PRLSD por detallar tres categorías de riesgos sistémicos: «[…] la primera categoría se refiere a los riesgos asociados al uso indebido de su servicio mediante la difusión de contenidos ilícitos, como la difusión de materiales de abuso sexual de menores o delitos de incitación al odio, y la realización de actividades ilícitas como la venta de productos o servicios prohibidos por el Derecho de la Unión o nacional, incluidos los productos falsificados […]. Una segunda categoría se refiere a los efectos del servicio para el ejercicio de los derechos protegidos por la Carta de los Derechos Fundamentales, incluida la libertad de expresión e información, el derecho a la vida privada, el derecho a la no discriminación y los derechos del niño. Estos riesgos pueden derivarse, por ejemplo, del diseño de los sistemas algorítmicos utilizados por la plataforma en línea de muy gran tamaño o por el uso indebido de su servicio mediante el envío de avisos abusivos u otros métodos destinados a silenciar la opinión u obstaculizar la competencia. Una tercera categoría de riesgos se refiere a la manipulación deliberada y a menudo coordinada del servicio de la plataforma, con efectos previsibles para la salud, el discurso cívico, los procesos electorales, la seguridad pública y la protección de los menores, en vista de la necesidad de salvaguardar el orden público, proteger la privacidad y combatir las prácticas comerciales fraudulentas y engañosas. Estos riesgos pueden derivarse, por ejemplo, de la creación de cuentas falsas, el uso de bots y otros comportamientos total o parcialmente automatizados, que pueden dar lugar a la difusión rápida y extendida de información que sea un contenido ilícito o incompatible con las condiciones de una plataforma». Por esta razón, y con buen criterio, la Comisión Europea quiere que adopten un enfoque basado en el riesgo, para evitar el abuso de sus sistemas y proteger la integridad de sus servicios.

136. Aclara el artículo 26 PRLSD que esta «esta evaluación de riesgos será específica de sus servicios e incluirá los siguientes riesgos sistémicos: la difusión de contenido ilícito a través de sus servicios; cualquier efecto negativo para el ejercicio de los derechos fundamentales al respeto de la vida privada y familiar, la libertad de expresión e información, la prohibición de la discriminación y los derechos del niño, consagrados en los artículos 7, 11, 21 y 24 de la Carta respectivamente; la manipulación deliberada de su servicio, por ejemplo, por medio del uso no auténtico o la explotación automatizada del servicio, con un efecto negativo real o previsible sobre la protección de la salud pública, los menores, el discurso cívico o efectos reales o previsibles relacionados con procesos electorales y con la seguridad pública. Cuando realicen evaluaciones de riesgos, las plataformas en línea de muy gran tamaño tendrán en cuenta, en particular, cómo influyen sus sistemas de moderación de contenidos, sistemas de recomendación y sistemas de selección y presentación de publicidad en cualquiera de los riesgos sistémicos a que se refiere el apartado 1, incluida la difusión potencialmente rápida y amplia de contenido ilícito y de información incompatible con sus condiciones».

137. Detalla el art. 27 PRLSD, entre otras medidas, cuando proceda: «la adaptación de los sistemas de moderación de contenidos o de recomendación, sus procesos decisorios, las características o el funcionamiento de sus servicios, o sus condiciones; medidas selectivas dirigidas a limitar la presentación de anuncios publicitarios en asociación con el servicio que prestan; el refuerzo de los procesos internos o la supervisión de cualquiera de sus actividades, en particular en lo que respecta a la detección de riesgos sistémicos; la puesta en marcha o el ajuste de la cooperación con los alertadores fiables de conformidad con el artículo 19; la puesta en marcha o el ajuste de la cooperación con otras plataformas en línea mediante los códigos de conducta y los protocolos de crisis a que se refieren los artículos 35 y 37 respectivamente».

138. Vid. arts. 31 a 33 PRLSD.

139. Véase el considerando núm. 62 PRLSD.

140. En particular, el artículo 29 PRLSD señala que «establecerán en sus condiciones, de manera clara, accesible y fácil de comprender, los parámetros principales utilizados en sus sistemas de recomendación, así como cualquier opción que puedan haber puesto a disposición de los destinatarios del servicio para modificar o influir en dichos parámetros principales, incluida al menos una opción que no se base en la elaboración de perfiles, en el sentido del artículo 4, apartado 4, del Reglamento (UE) 2016/679». Además «cuando haya varias opciones disponibles de conformidad con el apartado 1, las plataformas en línea de muy gran tamaño proporcionarán una funcionalidad de fácil acceso en su interfaz en línea que permita al destinatario del servicio seleccionar y modificar en cualquier momento su opción preferida para cada uno de los sistemas de recomendación que determine el orden relativo de información que se les presente».

141. Vid. art. 30 PRLSD.

142. De acuerdo con el art. 31.4 PRLSD, «los investigadores deberán estar afiliados a instituciones académicas, ser independientes de intereses comerciales y tener una historia probada de especialización en los campos relacionados con los riesgos investigados o metodologías de estudio conexas, y adquirirán el compromiso y tendrán la capacidad de preservar los requisitos específicos de seguridad y confidencialidad de los datos correspondientes a cada solicitud».

143. Vid. art. 31 PRLSD.

144. Art. 32 PRLSD.

145. El Capítulo IV (arts. 38-70 PRLSD) se ocupa de la implementación, cooperación, sanciones y ejecución del Reglamento; en particular, se engloban las disposiciones relacionadas con las autoridades competentes y coordinadores nacionales de servicios digitales; la Junta Europea de Servicios Digitales, entre otros aspectos.

Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales

Подняться наверх