Читать книгу Plataformas digitales: Aspectos jurídicos - Apol·lònia Martínez Nadal - Страница 25

IV. BIBLIOGRAFÍA

Оглавление

ARROYO I AMAYUELAS, E., “La responsabilidad de los intermediarios en internet: ¿puertos seguros a prueba de futuro?”, en ARROYO I AMAYUELAS, E. y CÁMARA LAPUENTE, S. (coords.): El derecho privado en el nuevo paradigma digital, Marcial Pons, 2020.

BAKALIS, C. y HORNLE, J., “The role of social media companies in the regulation of online hate speech”, en SARAT, A. (dir.): Studies in Law, Politics, and Society Vol: 85, Emerald Publishing Limited, 2021.

BARATA MIR, J., “Positive Intent Protections: Incorporating a Good Samaritan principle in the EU Digital Services Act”, Center for Democracy & Technology (2020).

– Id., The Digital Services Act and the Reproduction of Old Confusions: Obligations, Liabilities and Safeguards in Content Moderation (2021).

BRADFORD, A., The Brussels Effect. How the European Union Rules the World, Oxford University Press, 2020.

BROADVENT, M.: “The Digital Services Act, the Digital Market act, and the New Competition Tool”, Center for Strategic and International Studies (2020).

CASTELLÓ PASTOR, J. J., “Exoneración de responsabilidad de los prestadores de servicios de la información en la sección 230 de la Communications Decency Act estadounidense”, Revista Aranzadi de derecho y nuevas tecnologías, núm. 39 (2015).

– Id., Motores de búsqueda y derechos de autor: infracción y responsabilidad, Aranzadi, Cizur Menor, 2016.

– Id., “Detección y retirada de contenidos que vulneren derechos de autor en la red: necesidad de un código de buenas prácticas”, Actas de Derecho Industrial, núm. 37 (2016–2017).

– Id., “El ranquin de los resultados ofrecidos por buscadores, asistentes digitales y altavoces inteligentes: un problema no resuelto”, Actas de derecho industrial y derecho de autor, tomo 40 (2019–2020).

– Id., “Disponibilidad de productos y servicios en línea en el mercado único digital”, en CASTELLÓ PASTOR, J. J., GUERRERO PÉREZ, A., MARTÍNEZ PÉREZ, M. (dirs.): Derecho de la contratación electrónica y comercio electrónico en la Unión Europea y en España, Tirant lo Blanch, Valencia, 2021.

– Id., “Nuevo régimen de responsabilidad de los servicios digitales que actúan como intermediarios a la luz de la propuesta de Reglamento relativo a un mercado único de servicios digitales”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

DE MIGUEL ASENSIO, P., Derecho Privado de Internet, 5.ª ed., Civitas, Cizur Menor-Navarra, 2015.

– Id., “Servicios y mercados digitales: modernización del régimen de responsabilidad y nuevas obligaciones de intermediarios”, La Ley Unión Europea, núm. 88 (2021).

DE STREEL, A. y HUSOVEC, M. “The e-commerce Directive as the cornerstone of the Internal Market”, Study for the committee on Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg (2020).

FROSIO, G., “Algorithmic Enforcement Online”, en TORREMANS, P. (ed.), Intellectual Property and Human Rights, 4.ª ed., Kluwer Law Int’l, 2020.

HOBOKEN, J., QUINTAIS, J. P., POORT, J., VAN EIJK, N., Hosting intermediary services and illegal content online – an analysis of the scope of Article 14 E-Commerce Directive in light of developments in the Online service landscape, 2018.

LAPIEDRA ALCAMÍ, R., “Hacia la transparencia y la equidad en el ranking de resultados a la luz del Reglamento 2019/1150”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

LLOPIS NADAL, P., “Protección de los usuarios profesionales en el mercado interior en línea: la legitimación para ejercer acciones colectivas reconocida por el Reglamento 2019/1150”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

NORDEMANN, J.B., “Liability of Online Service Providers for Copyrighted Content – Regulatory Action Needed?”, Study commissioned by European Parliament, Policy Department A: Economic and Scientific Policy (2017).

PEGUERA POCH, M., La exclusión de responsabilidad de los intermediarios en Internet, Comares, Granada, 2007.

REIG FABADO, I., “La adaptación del derecho de competencia europeo a la era digital: algunos aspectos de la propuesta legislativa para las grandes plataformas digitales”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021.

SCHMON, C. y GULLO, K., “European Commission’s Proposed Digital Services Act got several things right, but improvements are necessary to put users in control”.

SCHWEMER, S., “Trusted notifiers and the privatization of online enforcement”, Computer Law & Security Review, vol. 35, núm. 6 (2019).

SPOERRI, T., “On Upload-Filters and other Competitive Advantages for

Big Tech Companies under Article 17 of the Directive on Copyright in the Digital Single Market”, JIPITEC, vol. 10, núm. 2, 2019.

ZITTRAIN, J., “A History of Online Gatekeeping”, Harvard Journal of Law and Technology, vol. 19, núm. 2 (2006).

1. Este trabajo se ha realizado en el marco del proyecto emergente “La tutela de los derechos en el entorno digital: nuevos retos, desafíos y oportunidades” GV/2019/118 (Investigador Principal José Juan Castelló Pastor).

2. Un análisis de la actividad legislativa en pos de la consecución del mercado único en el dominio digital, véase, CASTELLÓ PASTOR, J. J., “Disponibilidad de productos y servicios en línea en el mercado único digital”, en CASTELLÓ PASTOR, J. J., GUERRERO PÉREZ, A., MARTÍNEZ PÉREZ, M. (dirs.): Derecho de la contratación electrónica y comercio electrónico en la Unión Europea y en España, Tirant lo Blanch, Valencia, 2021, pp. 315-321.

3. Léase el discurso de la presidenta electa de la Comisión Europea, Ursula von der Leyen, ante la sesión plenaria del Parlamento europeo pronunciado el 27 de noviembre de 2019 (www.ec.europa.eu consultado el 22 de febrero de 2021).

4. Nuestro interés se centra en estos dos pilares por reforzar el marco de los prestadores de servicios de intermediación, luchar contra la desinformación online y fomentar la diversidad y fiabilidad de los contenidos en los medios de comunicación. Véase la página web de la Comisión Europea para más información sobre las prioridades 2019-2014 (www.ec.europa.eu consultado el 22 de febrero de 2021).

5. Bruselas, 15.12.2020 COM (2020) 842 final, 2020/0374 (COD). Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre mercados disputables y equitativos en el sector digital (Ley de Mercados Digitales).

6. Bruselas, 15.12.2020 COM (2020) 825 final 2020/0361 (COD). Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a un mercado único de servicios digitales (Ley de servicios digitales) y por la que se modifica la Directiva 2000/31/CE; en adelante: PRLSD.

7. Sobre esta propuesta legislativa, véase, DE MIGUEL ASENSIO, P., “Servicios y mercados digitales: modernización del régimen de responsabilidad y nuevas obligaciones de intermediarios”, La Ley Unión Europea, núm. 88 (2021), versión en línea; REIG FABADO, I., “La adaptación del derecho de competencia europeo a la era digital: algunos aspectos de la propuesta legislativa para las grandes plataformas digitales”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021, versión en línea.

8. Es encomiable el esfuerzo por crear este conjunto de disposiciones que redefinirán las actuales reglas de internet, alterando el desequilibrio existente entre el poder de los “oligarcas” tecnológicos y devolviendo, en lo posible, el control a los usuarios. Aunque, en mi opinión, el empleo excesivo de conceptos jurídicos indeterminados puede ensombrecer el objetivo de la propia propuesta legislativa por las divergencias que pueden surgir en su interpretación por los órganos nacionales competentes. Por ello, creo que debería evitarse esta inseguridad jurídica y durante el proceso legislativo centrar alguno de estos conceptos jurídicos indeterminados. Véase CASTELLÓ PASTOR, J. J., “Nuevo régimen de responsabilidad de los servicios digitales que actúan como intermediarios a la luz de la propuesta de Reglamento relativo a un mercado único de servicios digitales”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021, versión en línea.

9. Véase el comunicado de prensa de 15 de diciembre de 2020 “Una Europa adaptada a la era digital: la Comisión propone nuevas normas aplicables a las plataformas digitales” (www.ec.europa.eu consultado el 22 de febrero de 2021).

10. Además, recuérdese, que sus normas suelen tener impacto mundial por su influencia fuera del territorio de la Unión motivado, principalmente, por lo atractivo que resulta el acceso al mercado (con más de 500 millones de potenciales consumidores) a cualquier operador económico. Sobre el conocido “efecto Bruselas”, véase, BRADFORD, A., The Brussels Effect. How the European Union Rules the World, Oxford University Press, 2020.

11. Téngase en cuenta, por otro lado, el escaso número de grandes tecnológicas en la Unión Europea (frente a Estados Unidos, China, Taiwán y Japón), debido esencialmente a la fragmentación del mercado único digital de la UE, vid. BROADVENT, M.: “The Digital Services Act, the Digital Market act, and the New Competition Tool”, Center for Strategic and International Studies (2020) (www.apo.org.au consultado el 22 de febrero de 2021). Igualmente véase el documento de trabajo de la Comisión, Online Platforms Accompanying the document Communication on Online Platforms and the Digital Single Market, SWD/2016/0172 final, p. 8-9.

12. Este nuevo marco regulatorio tiene la intención de cubrir las deficiencias existentes por la evolución de los servicios digitales y la Directiva sobre el comercio electrónico, prácticamente sin modificarse desde su aprobación. Aunque es cierto que el desafío digital se ha abordado desde otro plano. Vid. DE STREEL, A. y HUSOVEC, M. “The e-commerce Directive as the cornerstone of the Internal Market”, Study for the committee on Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg (2020), pp. 25 y ss.

13. En línea con otros instrumentos en vigor para fomentar la transparencia y equidad a los usuarios profesionales de los servicios de intermediación en línea. Un análisis del Reglamento (UE) 2019/1150, de 20 de junio de 2019, véase, CASTELLÓ PASTOR, J. J., “El ranquin de los resultados ofrecidos por buscadores, asistentes digitales y altavoces inteligentes: un problema no resuelto”, Actas de derecho industrial y derecho de autor, tomo 40 (2019–2020), pp. 283-298; LAPIEDRA ALCAMÍ, R., “Hacia la transparencia y la equidad en el ranking de resultados a la luz del Reglamento 2019/1150”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021, versión en línea; LLOPIS NADAL, P., “Protección de los usuarios profesionales en el mercado interior en línea: la legitimación para ejercer acciones colectivas reconocida por el Reglamento 2019/1150”, en CASTELLÓ PASTOR, J. J. (dir.): Desafíos jurídicos ante la integración digital: aspectos europeos e internacionales, Aranzadi Thomson Reuters, 2021, versión en línea.

14. La Comunicación de la Comisión de 19 de febrero de 2020, Configurar el futuro digital de Europa, COM (2020) 67 final, p. 11 señaló que “resulta esencial reforzar y modernizar las normas aplicables a los servicios digitales en toda la UE, aclarando las funciones y responsabilidades de las plataformas en línea. La venta de mercancías ilícitas, peligrosas o falsificadas y la difusión de contenidos ilícitos deben combatirse con la misma eficacia que fuera de línea”.

15. Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico).

16. Tal y como puntualiza el art. 1.5 PRLSD.

17. Sirva a modo de ejemplo de lex specialis, entre otras, las obligaciones establecidas en la Directiva 2010/13/CE, modificada por la Directiva (UE) 2018/1808, sobre proveedores de plataformas de intercambio de vídeos en lo que respecta a los contenidos audiovisuales y las comunicaciones comerciales audiovisuales; el conocido artículo 17 de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital, las medidas establecidas en el Reglamento (UE) 2019/1150 de 20 de junio de 2019, sobre el fomento de la equidad y la transparencia para los usuarios profesionales de servicios de intermediación en línea, o las medidas establecidas en la Propuesta de Reglamento para la prevención de la difusión de contenidos terroristas en línea (COM/2018/640 final). Además, señala el considerando núm. 9 PRLSD que “[…] las disposiciones del presente Reglamento se aplican a problemas que esos otros actos no resuelven, o no por completo, así como a problemas para los que esos otros actos dejan abierta la posibilidad de que los Estados miembros adopten determinadas medidas de ámbito nacional”.

18. A tenor del artículo 1.2 PRLSD.

19. Vid. art. 1.3 PRLSD.

20. Por cuanto remite a todo servicio en el sentido del artículo 1, apartado 1, letra b), de la Directiva (UE) 2015/1535. Vid. art. 2 (a) PRLSD.

21. La propuesta se distancia de la incorporación de nuevos puertos seguros –como algunos autores solicitaban– cuando se trata de una buena oportunidad para ello. Vid. CASTELLÓ PASTOR, J. J., “Nuevo régimen de responsabilidad …”, op. cit., versión en línea. En esta línea, véase también ARROYO I AMAYUELAS, E., “La responsabilidad de los intermediarios en internet: ¿puertos seguros a prueba de futuro?”, en ARROYO I AMAYUELAS, E. y CÁMARA LAPUENTE, S. (coords.): El derecho privado en el nuevo paradigma digital, Marcial Pons, 2020, pp. 350-351. Otros autores consideran, en cambio, que “las disposiciones parecen ser lo suficientemente flexibles como para adaptarse a nuevos modelos de negocio, lo que también las hace en general a prueba de futuro”. Vid. NORDEMANN, J.B., “Liability of Online Service Providers for Copyrighted Content – Regulatory Action Needed? “, Study commissioned by European Parliament, Policy Department A: Economic and Scientific Policy (2017), p. 18 (www.europarl.europa.eu consultado el 21 de febrero de 2021).

22. Art. 2 (f) PRLSD. Aunque el considerando núm. 5 PRLSD no parece indicar lo mismo: “[…] En concreto, el presente Reglamento debe aplicarse a los prestadores de servicios intermediarios, y en particular servicios intermediarios integrados por los servicios conocidos como de ‘mera transmisión’, de ‘memoria tampón’ y de ‘alojamiento de datos’ ” (énfasis añadido).

23. DE MIGUEL ASENSIO, P., “Servicios y mercados digitales…”, op. cit., versión en línea.

24. Vid., art. 1.4 PRLSD.

25. Art. 2 (d) PRLSD. Igualmente véase el considerando núm. 7 y 8 PRLSD sobre la cone-xión sustancial con la Unión Europea.

26. Art. 1.3 PRLSD.

27. Vid. supra, n. p. núm. 11.

28. Art. 11 PRLSD. Aunque algún autor considere que la medida puede desincentivar la prestación de sus servicios en el territorio de la Unión. Vid. SCHMON, C. y GULLO, K., “European Commission’s Proposed Digital Services Act got several things right, but improvements are necessary to put users in control” (www.eff.org consultado el 21.2.2021).

29. Vid. art. 1.1 PRLSD.

30. Definidas en el art. 2 (h) PRLSD.

31. Así lo indica el considerando núm. 54 PRLSD.

32. Véase el considerando núm. 57 PRLSD porque detalla tres categorías de riesgos sistémicos asociados a las plataformas en línea.

33. Por lo que respecta a este puerto seguro, téngase en cuenta el párrafo añadido en el apartado tercero, que, como puntualiza DE MIGUEL, “el contenido de ese añadido en sí mismo no parece cuestionable, pero sí puede serlo el que se configure como algo específico en relación con la eventual responsabilidad derivada del Derecho del consumo, pues cabe entender que un resultado similar en lo relativo a la no aplicación de la exclusión de responsabilidad del prestador de servicio de alojamiento concernido se debe imponer en ese tipo de situaciones cuando la exigencia de responsabilidad deriva de ilícitos de otro tipo, como por ejemplo, la eventual vulneración de derechos de marca derivada de la comercialización de productos a través de la plataforma”. DE MIGUEL ASENSIO, P., “Servicios y mercados digitales…”, op. cit., versión en línea.

34. Vid. art. 71 PRLSD.

35. Vid. art. 7 PRLSD.

36. En particular, la disposición contiene información sobre el alcance de estas medidas, en consonancia con la jurisprudencia del Tribunal de Justicia de la Unión Europea, como: el motivo por el que el contenido es ilícito –con referencia al texto legal infringido–, la localización o el ámbito territorial estrictamente necesario para el cumplimiento de la medida en concreto. Véase el considerando núm. 31, y, en particular, el considerando núm. 33 PRLSD por remarcar la necesidad de respetar el criterio de mercado interior del art. 3 DCE.

37. Aparte de esta información, las plataformas en línea adicionalmente deben incluir la detallada en el art. 23 PRLSD.

38. Es llamativa la inclusión de las plataformas en línea como un subgrupo de los prestadores de servicios de hosting, cuando efectivamente lo son. No obstante, el considerando núm. 13 PRLSD aclara el motivo de la distinción.

39. Vid. arts. 14 y 15 PRLSD.

40. Adicionalmente a las obligaciones de las secciones primera y segunda, la sección tercera impone a las plataformas en línea otras obligaciones más (que no se aplican

a las plataformas en línea que sean microempresas o pequeñas empresas, a tenor del art. 16 PRLSD).

41. La sección cuarta se ocupa de las obligaciones –adicionales a las establecidas en las secciones primera a tercera– para que las plataformas en línea de “muy gran tamaño” gestionen los riesgos sistémicos.

42. Téngase en cuenta que la determinación del carácter ilegal, ilícito, nocivo o dañino del contenido o servicio es esencial para la salvaguarda de los derechos de las partes implicadas y depende, en todo caso, esta calificación del Derecho que resulte aplicable al supuesto en concreto. No obstante, la propuesta legislativa define el término contenido ilegal en el artículo el art. 2 (g) PRLD de forma amplia como “toda información que, por sí sola o en referencia a una actividad, incluida la venta de productos o la prestación de servicios, incumpla las leyes de la Unión o las leyes de un Estado miembro, sea cual sea el objeto o carácter concreto de esas leyes”. Véase también el considerando núm. 12 PRLD.

43. Véase el considerando núm. 13 de la Recomendación (UE) 2018/334 de la Comisión de 1 de marzo de 2018, sobre medidas para combatir eficazmente los contenidos ilícitos en línea (DO 2018, L 63, p. 50).

44. Véanse los considerandos núm. 40 a 46 DCE, en particular el núm. 42 DCE.

45. Vid., entre otras, las STJUE de 23 de marzo de 2010, Google France y Google c. Louis Vuitton y otros, asuntos acumulados C-236/08 a C-238/08 (EU:C:2010:159), apartados 113-14; de 12 de julio de 2011, L´Oréal y otros c. eBay International y otros, asunto C-324/09 (ECLI:EU:C:2011:474), apartado 113; y la de 11 de septiembre de 2014, Papa-savvas, asunto C-291/13 (EU:C:2014:2209), apartados 39-40.

46. Sobre la exención de la responsabilidad de los prestadores de servicios de intermediación, véase, entre otros, CASTELLÓ PASTOR, J. J., Motores de búsqueda y derechos de autor: infracción y responsabilidad, Aranzadi, Cizur Menor, 2016, p. 219 y ss.; DE MIGUEL ASENSIO, P. A., Derecho Privado de Internet, 5.ª ed., Civitas, Cizur Menor-Navarra, 2015, pp. 127-290; PEGUERA POCH, M., La exclusión de responsabilidad de los intermediarios en Internet, Comares, Granada, 2007, passim.

47. Vid. art. 15 DCE.

48. El prestador de servicio de caching y el de hosting (arts. 13 y 14 DCE, igualmente el art. 17 LSSICE).

49. La pérdida del privilegio como puerto seguro no implica directa y automáticamente la responsabilidad del intermediario, sino que la atribución de su posible responsabilidad depende, en todo caso, de ley material o sustantiva aplicable al fondo del asunto. Vid., CASTELLÓ PASTOR, J. J., Motores de búsqueda…, op. cit., pp. 238-239; DE MIGUEL ASENSIO, P.A., Derecho Privado de …, op. cit., p. 225.

50. Y también porque permite exonerar al intermediario su eventual responsabilidad en caso de actuar con diligencia. Vid. CASTELLÓ PASTOR, J. J., “Detección y retirada de contenidos que vulneren derechos de autor en la red: necesidad de un código de buenas prácticas”, Actas de Derecho Industrial, núm. 37 (2016–2017), pp. 284-287.

51. Así lo india el considerando núm. 26 de la Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo. En este mismo sentido, HOBOKEN, J., QUINTAIS, J.P., POORT, J., VAN EIJK, N., Hosting intermediary services and illegal content online – an analysis of the scope of Article 14 E-Commerce Directive in light of developments in the Online service landscape, 2018, pp. 31 y ss. Con anterioridad, ZITTRAIN, J., “A History of Online Gatekeeping”, Harvard Journal of Law and Technology, vol. 19, núm. 2 (2006), p. 254 indicó que los intermediarios eran los mejores posicionados para poner fin a las infracciones.

52. Aunque nada impide que un tercero realice este aviso. De hecho, la figura del alertadores fiables (o trusted flaggers) se contempla en el art. 19 PRLSD. A este respecto, la Comunicación “Lucha contra el contenido ilícito en línea. Hacia una mayor responsabilización de las plataformas en línea”, Bruselas, 28.9.2017 COM (2017) 555 final, p. 10 ya indicó que “en la lucha efectiva contra los contenidos ilícitos en línea, debe facultarse a los usuarios corrientes para que llamen la atención de las plataformas sobre contenidos ilícitos en línea contando con que las comunicaciones justificadas serán tenidas en cuenta y tramitadas con rapidez” (énfasis añadido).

53. Sección segunda, arts. 14 y 15 PRLSD.

54. Tal y como se venía solicitando, entre otros, vid. CASTELLÓ PASTOR, J. J., Motores de búsqueda…, op. cit., pp. 383-402.; Id., “Detección y retirada…”, op. cit., pp. 279-300. Por otro lado, véase la Recomendación (UE) 2018/334 de 1 de marzo. En particular, la recomendación quinta y siguientes sobre la presentación y tramitación de notificaciones.

55. Las disposiciones de la sección tercera no se aplican a las plataformas en línea que sean microempresas o pequeñas empresas, según el art. 16 PRLSD. Esta exclusión es acertada por el ahorro que supone al intermediario no tener que implementar este conjunto de medidas adicionales. Como puntualicé en otra ocasión, estas cargas económicas adicionales pueden ser un obstáculo para la innovación. Véase, CASTELLÓ PASTOR, J. J., “Detección y retirada…”, op. cit., pp. 279-300.

56. Se trata, en puridad, de un conjunto de disposiciones para la lucha contra los contenidos ilícitos en línea similar al régimen previsto en la Digital Millenium Copyright Act. En concreto, al establecido en el art. 512 c) de la DMCA. Sobre esta disposición y su jurisprudencia, véase, CASTELLÓ PASTOR, J. J., Motores de búsqueda …, op. cit., 2016, pp. 389-400.

57. A tenor del art. 14.2 PRLSD.

58. Art. 14.3 PRLSD. Véase también su el considerando núm. 22 PRLSD.

59. CASTELLÓ PASTOR, J. J., “Detección y retirada…”, op. cit., p. 288.

60. Aportando una exposición clara y específica de los motivos, señala el art. 15 PRLSD, que deberá contener, al menos, la información indicada en el apartado segundo de esta disposición.

61. Vid. art. 15 in fine PRLSD.

62. En mi opinión, “debería buscarse el modo de atenuar, en lo posible, que la decisión del operador económico tras recibir el aviso sea prácticamente inaudita parte. Es decir, debe introducirse cierta equidad procedimental, porque, tal y como se plantea el procedimiento propuesto, no se prevé la obligación de notificar al proveedor del contenido antes de tomar la decisión de la retirada (mejor dicho, indica la disposición ‘a más tardar’ en el momento de la retirada). Razón por la que, a mi juicio, es aconsejable evitar directamente esta ejecutoria e introducir, en favor del destinatario del servicio, el derecho a exponer su argumentación, con carácter previo, a la retirada del contenido. Tras ello, el prestador del servicio de intermediación que tome la correspondiente decisión. Aunque tal posibilidad solo debe ofrecerse a los avisos que no estén relacionados, a modo de ejemplo, con contenido terrorista, producción y distribución de material de abuso y explotación de personas menores de 18 años, discurso del odio (racismo o xenofobia) o aquellos en que manifiestamente se evidencie la ilicitud del contenido notificado”, vid. CASTELLÓ PASTOR, J. J., “Nuevo régimen de responsabilidad …”, op. cit., versión en línea.

63. Véase el considerando núm. 46 PRLSD.

64. Algunas están mencionadas en el considerando núm. 46 PRLSD, como la “Europol” o las organizaciones que forman parte de la red INHOPE.

65. Art. 19 in fine PRLSD.

66. Una visión crítica de los alertadores fiables, véase, SCHWEMER, S., “Trusted notifiers and the privatization of online enforcement”, Computer Law & Security Review, vol. 35, núm. 6 (2019).

67. Desde las instituciones europeas se ha favorecido la implantación de medidas proactivas, como p. ej. el Código de conducta para la lucha contra la incitación ilegal al odio en línea (2016) entre la Comisión Europea y Facebook, Microsoft, Twitter, YouTube, Instagram, Snapchat y Dailymotion, entre otras plataformas tecnológicas, el Memo-rándum de Acuerdo sobre la falsificación de mercancías (2016) o la Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo de 2018, sobre medidas para combatir eficazmente los contenidos ilícitos en línea (DO 2018, L 63, p. 50). También desde el punto de vista legislativo, está el conocido art. 17 de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital o el artículo 6 de la Propuesta de Reglamento para la prevención de la difusión de contenidos terroristas en línea (Bruselas, 12.9.2018 COM (2018) 640 final).

68. Así lo indica el considerando núm. 26 de la Recomendación (UE) 2018/334 de la Comisión, de 1 de marzo de 2018: “adoptar medidas activas de carácter voluntario no conduce automáticamente a que un prestador de servicios de alojamiento de datos afectado pierda el beneficio de la exención de responsabilidad prevista en el artículo 14 de la Directiva 2000/31/CE”. También, el considerando núm. 25 PRLSD. Y en este mismo sentido, véase, HOBOKEN, J., QUINTAIS, J. P., POORT, J., VAN EIJK, N., Hosting intermediary services and illegal content online – an analysis of the scope of Article 14 E-Commerce Directive in light of developments in the Online service landscape, 2018, pp. 31 y ss.

69. En efecto, los gigantes tecnológicos vienen implantando estos mecanismos para detectar contenidos nocivos en sus servicios, eliminarlos (o imposibilitar el acceso) e incluso suspender las cuentas de los usuarios reincidentes. Se está borrando más contenido con los algoritmos que si hay intervención humana. En este sentido, el año pasado YouTube eliminó más de once millones de vídeos, TikTok más de cien millones de videoclips, Twitter casi tres millones de tuits, y Facebook elimina más de 17 millones de cuentas falsas al día, según el artículo publicado el 24.10.2020 en The Economist titulado “Big tech and free speech, social media´s struggle with self-censorship” (disponible en: www.economist.com última visita el 21.2.2021). Véase, también, la opinión de algunos autores sobre el empleo de los algoritmos en la moderación de contenidos en la red, como SPOERRI, T., “On Upload-Filters and other Competitive Advantages for Big Tech Companies under Article 17 of the Directive on Copyright in the Digital Single Market”, JIPITEC, vol. 10, núm. 2 (2019), p. 183, que señala “[…] las tecnologías de filtrado están todavía en un estado rudimentario y están lejos de ser capaces de identificar las infracciones de los derechos de autor y ni siquiera son capaces de cotejar con precisión los contenidos. Por lo tanto, habrá (demasiados) falsos positivos, o, en otras palabras, contenidos no infractores que serán (sobre) bloqueados” (traducción del autor). Véase también BAKALIS, C. y HORNLE, J., “The role of social media companies in the regulation of online hate speech”, en SARAT, A. (dir.): Studies in Law, Politics, and Society Vol: 85, Emerald Publishing Limited, 2021, p. 82, FROSIO, G., “Algorithmic Enforcement Online”, en TORREMANS, P. (ed.): Intellectual Property and Human Rights, 4.ª ed., Kluwer Law Int’l, 2020, pp. 709-744.

70. Vid. art. 6 PRLSD y el considerando núm. 25 respectivamente. Véase, también, BARATA MIR, J., “Positive Intent Protections: Incorporating a Good Samaritan principle in the EU Digital Services Act”, Center for Democracy & Technology (2020) (disponible en: www.cdt.org consultado el 21.2.2021).

71. Un estudio de esta disposición y su jurisprudencia, véase, CASTELLÓ PASTOR, J. J., “Exoneración de responsabilidad de los prestadores de servicios de la información en la sección 230 de la Communications Decency Act estadounidense”, Revista Aranzadi de derecho y nuevas tecnologías, núm. 39 (2015), pp. 175-194.

72. Señala el considerando núm. 22 PRLSD que “[…] El prestador puede obtener dicho conocimiento efectivo, en particular, a través de investigaciones realizadas por iniciativa propia […]”. Confróntese, no obstante, con el considerando núm. 25 PRLSD.

73. BARATA, J., The Digital Services Act and the Reproduction of Old Confusions: Obligations, Liabilities and Safeguards in Content Moderation (www.verfassungsblog.de consultado el 8.3.2021).

Plataformas digitales: Aspectos jurídicos

Подняться наверх