Читать книгу Reflexiones para una Democracia de calidad en una era tecnológica - Rosa María Fernández Riveira - Страница 19
2. EL NIVEL EUROPEO SE ENFRENTA A LAS INJERENCIAS EXTRANJERAS EN LOS PROCESOS DEMOCRÁTICOS IMPONIENDO Y SUPERVISANDO LA AUTORREGULACIÓN
ОглавлениеLa ya citada comunicación de la Comisión europea de abril de 2018 enfoca la cuestión desde una óptica totalmente diferente. Aunque tiene en cuenta de manera constante el respeto a la libertad de expresión, su finalidad es establecer mecanismos que permitan salvaguardar las demo-cracias en la UE y en sus Estados miembros frente a desinformaciones que pretendan socavarla. Los antecedentes del texto son meridianamente claros al formular tales preocupaciones que tienen que ver con las amenazas extranjeras “híbridas” a la seguridad interna y los procesos electorales en la UE. La intervención de servicios de seguridad extranjeros en la difusión de desinformación como forma de desestabilizar la UE se asume como un hecho comprobado y se pretende reaccionar contra el riesgo de su aumento futuro.
Entre las causas del fenómeno, la Comisión destaca la existencia de un caldo de cultivo a favor de quienes desean manipular debates públicos y sociales (precariedad económica, creciente extremismo, cambios culturales); la transformación de los medios tradicionales (con la aparición de nuevos mecanismos de información y las dificultades para adaptarse al nuevo entono); y la facilidad para manipular en el marco de las nuevas redes sociales (tanto para la creación de desinformación, como su amplificación a través de las propias redes, de los medios on line y de los propios usuarios).
Respecto a los objetivos y principios generales orientadores de la política europea en la materia, apunta cuatro elementos básicos:
(i) Aumentar la transparencia respecto al origen, forma de producción, patrocinio, difusión y dirección de la información de modo que los ciudadanos tengan elementos suficientes para valorarla.
(ii) Promover la diversidad en la información.
(iii) Fomentar la credibilidad de la información mediante la creación de indicadores de fiabilidad con la ayuda de alertadores fácticos, mejorar la trazabilidad de la información y autenticar los proveedores de información influyente y fiable.
(iv) Crear soluciones inclusivas mediante políticas de alfabetización mediática, la amplia participación de las partes interesadas, la cooperación de las autoridades, las plataformas on line, los anunciantes, las agencias de fact checking, periodistas y medios.
Sin embargo, al entrar a evaluar las políticas concretas el documento de la Comisión centra sus esfuerzos normativos en solo algunas políticas. Y en particular su opción es clara en favor de la autorregulación como mecanismo estrella del sistema.
En primer lugar, considera que los mecanismos de desinformación se asientan en la falta de transparencia y trazabilidad del actual sistema de plataformas por lo que es a estas a la que dirige buena parte de sus iniciativas. En tal sentido propone que las plataformas no solo cumplan con la legalidad, sino que actúen con responsabilidad para crear un entorno seguro para los usuarios en el que se encuentren protegidos frente a la desinformación de manera que se obtenga un suficiente pluralismo. La herramienta recomendada es la elaboración de un código de buenas prácticas en que se obtengan una serie de objetivos predeterminados: (1) mejorar el sistema de publicidad para evitar la difusión y la rentabilidad económica de los proveedores de desinformación; (2) garantizar la transparencia del contenido patrocinado (especialmente la publicidad basada en cuestiones políticas y sociales); (3) intensificar y demostrar los esfuerzos para cerrar cuentas falsas; (4) facilitar a los usuarios la evaluación de contenidos mediante indicadores de fiabilidad (basados en criterios objetivos, avalados por las asociaciones de fuentes de información; transparencia en la propiedad de los medios y verificación de la identidad); (5) reducir la visibilidad de la desinformación facilitando la localización de contenido fiable; (6) establecer reglas claras para los ordenadores zombis (los que no responden a la expresión de una persona, sino que funcionan sobre la base de instrucciones automatizadas); (7) proveer de herramientas a los usuarios para que accedan a fuentes alternativas; (8) garantizar que los servicios on line incluyan información detallada del funcionamiento de los algoritmos que deciden el suministro automático de contenidos a los usuarios; (9) ofrecer sistemas de verificación y transparencia a sus usuarios.
Después de esta lista de medidas, el documento aprobado por la Comisión se ve en la necesidad de volver a destacar que todas ellas han de respetar la libertad de expresión y no generar censura de contenidos críticos, satíricos, discrepantes o escandalosos. Ciertamente, algunas de las medidas propuestas pueden plantear serios problemas desde la óptica de la libertad de expresión. Basten dos ejemplos. Por un lado, los indicadores de fiabilidad pueden fácilmente convertirse en una forma de establecer qué información es correcta y cuál no (lo que sin duda es un problema para el derecho a la información) sin prever garantías de la independencia y profesionalidad en el funcionamiento de dichos indicadores. Por el otro, la determinación de fuentes alternativas “fiables” se pueden convertir fácilmente en una orientación de la formación de la opinión pública hacia posiciones determinadas en función de intereses (económicos, políticos o sociales) desconocidos.
Pero sobre todo, el problema ya denunciado en la declaración conjunta, es que la Comisión está procediendo a privatizar los medios de control de la información al traspasar la responsabilidad del mismo a los intermediarios. Con ello pretende alejar el fantasma de la censura pública sobre contenidos, pero simplemente transfiere la misma a sedes privadas (los intermediarios) no sometidas a control democrático alguno. Desgraciadamente, la evolución posterior alimenta este temor.
El llamamiento a la creación de dicho código fue atendido con inusitada rapidez puesto que en septiembre de 2018 fue aprobado el Código de buenas prácticas sobre desinformación, junto a un anexo de ejemplos de buenas prácticas. Dicho código fue claramente auspiciado y dirigido por la Comisión Europea. Ha sido suscrito por Facebook, Google, Twitter y Mozilla desde un primer momento y después se han incorporado Tik Tok y Microsoft. Igualmente un importante número de empresas anunciantes.
Las empresas signatarias se obligan a la presentación de un informe mensual que es publicado por la Comisión. Igualmente presentan un autoinforme anual sobre la aplicación publicado junto al elaborado anualmente por la Comisión Europea7.
Dicho en otros términos: todo el sistema de autorregulación aparece impulsado, inspirado, coordinado y controlado por la Comisión europea que no ejerce por sí misma funciones de control pero que vigila y super-visa el modo en el que los intermediarios cumplen los objetivos por ella fijados. La solución no parece respetuosa con los estándares fijados en la declaración conjunta.
Un segundo eje del documento de la Comisión es el refuerzo de la verificación de datos fiables e independientes basados en normas muy rigurosas (aquí la referencia de comportamiento será el código de principios de la International Fact Checking Network). Para ello establece los elementos que han de incluirse en sus actividades: (1) seguimiento continuo de la magnitud, las técnicas y las herramientas de desinformación, su naturaleza y su impacto; (2) identificación de los mecanismos de desinformación; (3) desarrollo de indicadores justos, objetivos y fiables de la transparencia de las fuentes; (4) intercambio de conocimientos entre medios on line, plataformas y autoridades públicas para la sensibilidad de los ciudadanos. Para ello, se prevé la creación de una Red Europea independiente de verificadores de datos que, según nuestra noticias, aún no ha sido creada.
Finalmente la Comisión apunta algunas otras actuaciones que puede desarrollar por sí misma o ser realizadas por los Estados miembros o en colaboración con ellos. Así el fomento de la rendición de cuentas en línea; el aprovechamiento de nuevas tecnologías en la lucha contra la desinformación (muy singularmente de la Inteligencia artificial), la garantía de procedimientos electorales sólidos y fiables, la promoción de la educación y de la alfabetización mediática, el apoyo a un periodismo de calidad y el diseño de políticas de comunicación estratégica para contrarrestar las campañas orquestadas de desinformación.
La Comisión desarrolló la comunicación con un Plan de Acción contra la desinformación en diciembre de 20188. La orientación de este plan es muy clara: el desarrollo de un sistema de seguridad frente a amenazas externas y a los ataques de desinformación sufridos en los últimos años. El plan se estructura en 3 pilares. El primero busca una mejora de la capacidad de las instituciones de la unión para detectar, analizar y exponer la desinformación para lo que instan a los Estados a que mejoren su capacidad para detectar las campañas de información. El segundo pretende reforzar la coordinación de respuestas respecto a la desinformación mediante un sistema de alerta temprana, la creación de puntos de contacto con los Estados y el diseño de estructuras de comunicación sobre los valores y las políticas de la Unión. El tercero aboga por la movilización del sector privado para combatir la desinformación a través la aplicación del código de buenas prácticas supervisada por los órganos estatales encargados del control de los servicios de comunicación audiovisual de modo que los compromisos adquiridos se cumplan en la práctica. El cuarto busca aumentar la sensibilización y la capacidad de respuesta de la sociedad a través de la creación y fomento por los Estados de equipos de verificación de datos e investigadores independientes interdisciplinares así como un incremento de la alfabetización de la sociedad en estos temas.
La regulación europea constituye una primera aproximación interesante a la cuestión que presenta indudables novedades y apunta estrategias dignas de ser desarrolladas. Pero desde la óptica de la libertad de expresión resulta decepcionante. En el fondo se asienta en un doble eje. Por un lado, la intervención sobre los intermediarios y, por el otro, la elaboración de una estrategia de seguridad frente a campañas agresivas de otros Estados. Es verdad que la primera se dulcifica bajo un barniz de autorregulación, pero lo cierto es que tanto la elaboración del código de buenas prácticas como su puesta en marcha está permanentemente tutelado por la propia Comisión. Con ello parece haberse incurrido en el peligro puesto de manifiesto en la declaración conjunta de 2017 de intentar que los intermediarios se vean obligados a controlar los contenidos elaborados por terceros. Se incentiva, así, la creación de una suerte de censura interna de los mismos que puede no resultar transparente y ser poco o nada garantista de los derechos de expresarse, informar e informarse libremente en la red. Por otra parte, la adopción de una estrategia de seguridad puede llevar aparejada unos riesgos que se han puesto de manifiesto en la primera regulación española aprobada dos años más tarde.
Otros aspectos más respetuosos y prometedores, como la opción por una red de verificación de datos independiente y profesional, la creación de indicadores de fiabilidad objetivos y justos, la alfabetización de los ciudadanos o el fomento del pluralismo dentro y fuera de la red, no han recibido la misma atención. Finalmente, cuestiones como la participación de los usuarios y de los creadores de contenidos afectados en cualquier medida limitativa de derechos simplemente no han recibido la más mínima atención.