Читать книгу Reflexiones para una Democracia de calidad en una era tecnológica - Rosa María Fernández Riveira - Страница 31

II. REDES SOCIALES, ELECCIONES Y LIBERTAD DE EXPRESIÓN

Оглавление

No es ya ninguna novedad recordar que las redes sociales han tenido un impacto significativo, y quizás determinante, en los resultados electorales en ciertos países. Se ha estudiado con profusión, por ejemplo, cómo estrategias de propaganda hipersegmentada se utilizaron en 2016 durante las elecciones en Estados Unidos1. También es sabida el influjo de What-sApp en las elecciones brasileñas de 20182 y casos análogos podrían ser referenciados en numerosos países. El proceso británico de separación de la Unión Europea (Brexit) o el proceso independentista catalán son asimismo ejemplos en los que se han puesto de manifiesto un uso deliberadamente sesgado de las redes sociales.

También es verdad que las redes sociales han intentado reaccionar estableciendo regulaciones de contenido, aunque por el momento los avances son dispares según la materia. Mientras que, en ciertos ámbitos, como el combate contra terrorismo, han surgido iniciativas destacables que aúnan los esfuerzos de varias plataformas3, no puede afirmarse lo mismo en lo relativo a la contribución de las redes sociales a un debate sano en lo electoral o a consolidar una opinión pública libre e informada4.

Si centramos nuestra atención en una de las redes sociales5, como Twitter, descubriremos, por ejemplo, que actualizó en septiembre de 2020 sus directrices para proteger “the civic conversation”, es decir, lo que se denomina Civic Integrity Policy6. Entre otras medidas, Twitter se compromete a “label or remove false or misleading information intended to undermine public confidence in an election or other civic process” (cursiva añadida), lo que incluiría, a título indicativo,

“1) False or misleading information that causes confusion about the laws and regulations of a civic process, or officials and institutions executing those civic processes.

2) Disputed claims that could undermine faith in the process itself, e.g. unverified information about election rigging, ballot tampering, vote tall-ying, or certification of election results.

3) Misleading claims about the results or outcome of a civic process which calls for or could lead to interference with the implementation of the results of the process, e.g. claiming victory before election results have been certified, inciting unlawful conduct to prevent a peaceful transfer of power or orderly succession”. (cursivas añadidas)7.

A la vista de tales protocolos, resulta legítimo interrogarse si Twitter está respetando las libertades de expresión e información. También nos lleva a plantearnos cuál es el rol de Twitter en lo que ellos mismos denominan debate público. Veamos brevemente algunos de estos dilemas.

Obsérvese, por ejemplo, que uno de los supuestos alude a “disputed claims”, es decir, casos en los que no parece haber todavía una conclusión definitiva e incontrovertida. Su aplicación expansiva podría, por lo tanto, cercenar la capacidad de denuncia de los ciudadanos ante casos de fraude electoral. La red se acoge seguramente a que, en los ejemplos que se adjuntan, alude a que la crítica debe ser unverified, pero el hecho de que no se haya todavía verificado, o más bien no se haya acreditado de forma plena, es compatible con que se trate de supuestos disputados en los que sea necesario una mayor investigación y, en este sentido, limitar la difusión de estos casos puede acabar siendo perjudicial8. Utilizar simultáneamente disputed y unverified, aunque este último se refiera únicamente a las denuncias en sí mismas y no al debate general, puede generar confusión.

Algo parecido ocurre con otros supuestos en los que se anticipa una posible (could lead), que no segura, interferencia en la aplicación de los resultados electorales. Asimismo, el término misleading no invita a muchas esperanzas dada su enorme ambigüedad.

Además, aun aceptando todos estos supuestos, persiste la duda sobre quién es Twitter para arrogarse la toma de estas decisiones y ello nos conduce a un debate de fondo sobre la naturaleza de ésta y también de otras redes sociales. En este sentido, conviene referirse a la forma en la que propia plataforma describe su función en el debate social. Tras plantear una consulta a sus usuarios, Twitter concluye que no nos hallamos ante un fact-checker que debe discernir la verosimilitud de lo publicado: “Twitter shouldn’t determine the truthfulness of Tweets [y] Twitter should provide context to help people make up their own minds in cases where the substance of a Tweet is disputed”9. Si esta es realmente la base de partida, no acaba de entenderse cómo una de las medidas orgánicas que se contem-plan consiste en la eliminación del tuit polémico, lo que priva al lector de la posibilidad de alcanzar sus propias conclusiones y supone aceptar implícitamente la falsedad de lo difundido.

Si atendemos al debate suscitado dos décadas atrás sobre la responsabilidad de los servidores de Internet (Lessig, 1999), rápidamente se distinguieron dos formas de aproximarse a la problemática. Bien los servidores de conexión se asimilaban a un medio de comunicación tradicional, con lo que tal analogía comportaba a la hora de hacerse cargo del contenido que circulaba por sus canales, bien tales servidores se asemejaban a una compañía telefónica, o a un foro público, y su responsabilidad quedaba limitada a la conexión. El contenido de los mensajes quedaría fuera de su alcance. El Tribunal Supremo de Estados Unidos de América fijo su opinión al respecto en la determinante Reno v. American Civil Liberties Union (ACLU), 521 U.S. 844 (1997). Internet se concebía como una plataforma y el canal quedaba desligado del contenido.

Tal patrón se ha revelado útil en la primera etapa de Internet, pero debe modificarse con las redes sociales, donde la interacción comunicativa no responde ya a las pioneras páginas web, que establecían una comunicación unidireccional entre el editor y sus lectores. Entonces lo innovador consistió en la democratización de la difusión de mensajes, pero ahora lo verdaderamente relevante radica en que se produce un auténtico debate social en tiempo real y a través de las redes. Sea como sea, cabe recordar la declaración del Comité de Derechos Humanos de Naciones Unidas cuando, al referirse a la libertad de expresión, asimiló su contenido sea cual sea el canal con el que se difunde: “the same rights that people have offline must also be protected online, in particular freedom of expression, which is applicable regardless of frontiers and through any media of one’s choice” (A/HRC/20/L.13; 29 de junio de 2012).

Las novedades existen, sin embargo, ya que nos enfrentamos ante un fenómeno diferente y es seguramente por ello que Twitter se separa de las dos propuestas anteriores. Twitter no sería ni un tablón de anuncios ni una mero canal de conexión, sino que ejercería de moderador del debate público: “we believe we have a responsibility to protect the integrity of those conversations from interference and manipulation”10. Es en virtud de tal papel que la plataforma entiende razonable modular la difusión de los mensajes colgados en su red pese a desestimar una tarea de verificación más intensa como la desarrollada por los fact-checkers.

Se trata de una propuesta sugestiva ya que no cabe albergar grandes esperanzas de debates sin moderadores, pero al mismo tiempo tales figuras tienen sus propias responsabilidades para garantizar que el debate fluya en unos términos justos para todos los participantes. Se trata, en definitiva, de un papel que necesita también ser adecuadamente controlado y que no está exento de abusos injustificados. Si Twitter se postula como el moderador del debate público, noción aplicable además sin demasiadas cortapisas territoriales, se requiere un esfuerzo analítico y regulador paralelo para determinar en qué debe consistir ese debate y cuáles son las atribuciones que se otorgan al moderador.

No parece aplicarse, en cambio, el concepto de foro público, es decir, espacios de deliberación controlados por el gobierno y en los que, en consecuencia, la libertad de expresión no podrá ser restringida salvo en casos realmente excepcionales. Twitter no sería en principio un foro público, ya que se trata de una plataforma privada, aunque paradójicamente algunas de sus cuentas podrían tener esta consideración, como el polémico caso del perfil de usuario de Donald Trump/@realDonaldTrump (Vázquez Alonso, 2020)11.

Vemos ahí una eventual contradicción de principios que de hecho está en la base de todo el debate de fondo sobre cómo debe comportarse Twitter, y también otras plataformas, ante ciertos comportamientos. Si se había concluido, a partir de Reno v. ACLU, que Internet era un espacio de deliberación, cabe preguntarse si la conclusión de todo ello debería consistir en concebir Internet como uno de esos foros públicos que se hallan bajo control gubernamental. Cabe preguntarse hasta qué punto deben permitirse en su seno ámbitos en los que los principios a aplicar difieran de los presentes en un ágora pública, sobre todo ante ejemplos en los que prima el acceso directo, y no bajo suscripción, a los contenidos, como es el caso de Twitter.

Las plataformas nos sitúan en un terreno intermedio. Nos hallaríamos ante foros privados a los que, por un lado, no cabría aplicar la doctrina de los foros públicos ya que no estarían supeditados a control gubernamental, pero, por otro lado, el funcionamiento de las plataformas, caracterizadas por el acceso universal a sus contenidos y su correspondiente viralización, los asemeja a auténticos foros materialmente públicos, es decir, lo más parecido a un parque en el que todos pueden realmente difundir las ideas que estimen oportunas y establecer los debates consecuentes. Se trataría, en definitiva, de foros de titularidad privada, con proyección universal y, por tanto, materialmente pública que funcionan a través de una red (Internet) calificada por la propia jurisdicción americana, como un espacio abierto de deliberación. Se combinan aspectos públicos y privados que dificultan la adecuada categorización de estos supuestos y es por ello que resulta complejo precisar hasta dónde pueden llegar las acciones de Twitter a la hora de limitar la libertad de expresión en su seno.

De hecho, la aproximación a tal dilema parece ser diferente según el continente que tomemos como referencia. Mientras que en Estados Unidos de América la singularidad de las redes sociales parece no convertirlas en foro público y, por lo tanto, sus usuarios ven supeditada su libertad de expresión a la regulación interna de cada red, en Europa se vislumbran movimientos en sentido contrario.

En relación con Estados Unidos, Barata Mir alude a Prager University v. Google LLC, donde el juez señala que, “despite YouTube’s ubiquity and its role as a public-facing platform, it remains a private forum, not a public forum subject to judicial scrutiny under the First Amendment” (2020: 11). En cambio, el mismo autor aporta decisiones europeas en sentido contrario, como la relativa a la italiana CasaPound, donde se obligó a Facebook “a reactivar el compte del partit d’extrema dreta i pagar-li 800 € per dia en concepte d’indemnització per danys durant el període en què el compte havia estat suspès” (2020: 11).

Sea cual sea el rol que se atribuya a la red, retomemos los protocolos internos de Twitter para lograr un debate público sano. Como continuación a las medidas ya señaladas, además de etiquetar o incluso eliminar determinados mensajes, llaman la atención otras dos reglas consistentes en el arrinconamiento de ciertos comunicados o la adición de información a los datos proporcionados por el titular de la cuenta.

En relación con la primera estrategia, Twitter señala que ciertos mensajes recibirán “reduced visibility across the service. Reducing the visibility of Tweets means that we will not amplify the Tweets on a number of surfaces across Twitter”12. Este mecanismo enlaza con otro aspecto enormemente polémico de las redes sociales consistente en analizar la neutralidad de los algoritmos utilizados para la difusión y visualización de los mensajes. Es sabido, en este sentido, que las redes sociales priorizan determinados contenidos en función de diversos factores y, tras tal estrategia, pueden esconderse intereses inconfesables.

Existen ya asimismo iniciativas, como Algorythm Watch, destinadas a controlar el uso y abuso de los algoritmos para velar por su compatibilidad con el interés público. Ya hicimos alusión de hecho a la micro-segmentación de la propaganda, que no deja de ser un uso perverso de un algoritmo, y ahora vemos como, con finalidades supuestamente saludables, Twitter se arroga la función de esconder aquellos mensajes más cuestionables. Adviértase que no se trata de mensajes que hayan sido eliminados de la red, situación en la que no cabría tal enmascaramiento, sino comunicados formalmente aceptados por Twitter, pero materialmente rechazados por sus directrices internas.

Se trataría, en definitiva, de una innovadora forma de moderar el debate público ya que no nos hallaríamos ya ante una mera atribución de turnos de palabra, medición del tiempo de intervención o adición de sugestivos temas de debate. La moderación consistiría aquí en cambio en el ocultamiento de un mensaje, algo como mínimo cuestionable si de verdad se pretende encajarlo en una noción válida de moderación.

Por otro lado, Twitter también cree conveniente complementar la información proporcionada por el usuario ya que entiende que no hacerlo podría dañar la calidad del debate que se merece la opinión pública: “in instances where misleading information does not seek to directly manipulate or disrupt civic processes, but leads to confusion on our service, we may label the Tweets to give additional context” (cursiva añadida)13. Pese a que, según el inciso resaltado, la explicación parece limitarse a una mala comprensión sobre el propio papel de Twitter a la hora de garantizar un debate público justo y completo, la directiva podría también ir bastante más allá y permitir que Twitter complete lo que la red considera parcial. La red no confiaría, por tanto, en la propia interacción de sus usuarios, quienes en principio deberían ser los que matizaran lo incorrecto, sino que entendería como necesario la inclusión de datos contextuales.

Twitter enumera asimismo determinadas actitudes que no deben ser clasificadas como infracciones de las directrices de comportamiento, entre otras afirmaciones inexactas sobre contendientes, contenido orgánico hiperpolarizado y sesgado o “discussion of public polling information”. La enumeración de no infracciones se completa además con “voting and audience participation for competitions, game shows, or other entertainment purposes; and using Twitter pseudonymously or as a parody, commentary, or fan account to discuss elections or politics”.

La necesidad de precisar qué es lo que no debe entender por infracción a las directrices generales es ya un buen indicador del terreno resbaladizo en el que nos movemos fruto de la ambigüedad calculada de las primeras descripciones de actitudes no toleradas. Adviértase, por ejemplo, que la primera de las excepciones alude a contenido no solo polarizado, sino también sesgado. Establecer, por ejemplo, una nítida distinción entre lo que sería una misleading information, merecedora como advertíamos previamente de medidas correctivas, de un contenido meramente sesgado no se antoja sencillo.

Además, una derivada importante a tener en cuenta consiste en la progresiva automatización de todas estas decisiones (Barata Mir, 2020: 5-6). Es una práctica ya tradicional14, pero que ha tomado un nuevo impulso con las circunstancias excepcionales causadas por la pandemia. Como reconoce la propia red al hilo de las noticias relacionadas con el control del coronavirus, se ha optado por fortalecer la identificación automática de contenidos inapropiados, asumiendo como contrapartida las decisiones erróneas que todo ello pueda comportar15.

Igualmente, todas estas decisiones deben tomar en consideración la diversidad de contextos en los que deben aplicarse. Lo que en una cultura puede considerarse como abusivo puede no soliviantar a usuarios inscritos en otro contexto. La moderación de los debates siempre debe tener en cuenta tales factores, y por ello es tan difícil, pero plantearla entonces como un debate planetario, con un fuerte sesgo estadounidense y además con herramientas de automatización, plantea dudas sobre su capilaridad, es decir, la capacidad para establecer patrones de moderación adaptados a diversas realidades culturales.

En relación con el procedimiento interno, Twitter elimina de la plataforma todos aquellos mensajes que considera contrarios tanto a las condiciones de servicio (terms of service) de Twitter como a sus criterios de uso (rules). Además, ante ciertas violaciones y en caso de reincidencia, la cuenta puede ser “permanently suspended”16. El usuario recibe una notificación señalando que la cuenta ha sido suspendida o bloqueada y se requieren ciertas acciones, como proporcionar mayor información, para revertir la situación.

A título indicativo, será bloqueada una cuenta sospechosa de ser gestionada de forma automatizada y, en caso de ser una conclusión falsa, el usuario podrá utilizar el mensaje de advertencia para re-activar la cuenta proporcionando, por ejemplo, el código enviado a su número de teléfono, lo que despejaría las sospechas iniciales de robotización17.

Interesa destacar de todos modos que la suspensión o bloqueo de cuentas no conlleva a veces la expulsión total de la plataforma. Además de que el titular de la cuenta puede seguir comunicándose de forma bilateral con otros usuarios, en caso de infracción de las reglas internas de Twitter, terceras personas pueden incluso visualizar el contenido comprometido. Tales interesados “may see a message letting them know the account may have violated the Twitter Rules and asking them to confirm they still want to view it”18.

En caso de mensajes relativos a “sensitive media”19, Twitter opta por el etiquetaje a fin de que los lectores sean advertidos sobre el contenido. Todo ello se aplica además con independencia de otros requerimientos legales que procedan de las respectivas jurisdicciones estatales.

Twitter permite apelar20 la decisión exponiendo los motivos por los que se considera que no se ha cometido una infracción21. El formulario es muy sencillo ya que, además de los datos de contacto, se limita a preguntar dónde se está produciendo el problema y a requerir una breve descripción22. Significativamente, sin embargo, las amenazas al discurso público no aparecen como una de las categorías sobre las que es posible remitir una queja a Twitter. Los apartados predefinidos incluyen, entre otros, casos de suplantación de identidad, privacidad, propiedad empresarial, spam o bienes falsificados, pero nada en concreto relacionado directamente con el proceso democrático.

En línea con lo ya afirmado sobre la creciente automatización de todo el proceso, la plataforma reconoce ciertos contratiempos a la hora de tramitar las quejas. En fecha de 3 de noviembre de 2020, por ejemplo, día en la que se cebrababan elecciones presidenciales en Estados Unidos, Twitter advierte que “our support team is experiencing some delays for reviews and responses right now, but we encourage you to report all potential issues”23.

Por último, Twitter ha establecido una alianza con Lumen24 de tal forma que, salvo impedimento legal expreso, todos los casos en los que un mensaje es eliminado son notificados y archivados para su consulta posterior. Lumen constituye un proyecto de investigación adscrito al Berkman Klein Center for Internet & Society de la Universidad de Harvard. En sus propias palabras, Lumen pretende “educate the public, to facilitate research about the different kinds of complaints and requests for removal –both legitimate and questionable– that are being sent to Internet publishers and service providers, and to provide as much transparency as possible about the ‘ecology’ of such notices, in terms of who is sending them and why, and to what effect”25.

Como es lógico, del dicho al hecho hay un buen trecho y aplicar en la práctica categorías como las analizadas hasta aquí puede resultar enormemente delicado. No siempre será claro qué tipo de mensajes transgreden las reglas internas de Twitter y, como ya se ha señalado, parece discutible que lo calificado como transgresión en un determinado país, que normal-mente será Estados Unidos en caso de Twitter, deba tener la misma consideración en otras jurisdicciones.

Todo ello ha podido comprobarse en las elecciones presidenciales de 2020 donde, además del tradicional contexto de debate político agudo que se da en cualquier elección, concurrían otros elementos que convertían en más sensible la tarea de las plataformas. Entre otros, la presencia de Donald Trump como candidato y su particular uso de las redes sociales colocaba en el centro de atención pública el modo en que Twitter, entre otros medios, gestionaban el debate ciudadano.

Encontramos una buena muestra de todo ello en la propia noche electoral, en la que mensajes de Trump fueron etiquetados y ocultados por Twitter. Es el caso, por ejemplo, del siguiente mensaje: “We are up BIG, but they are trying to STEAL the Election. We will never let them do it. Votes cannot be cast after the Polls are closed!”26. Twitter reaccionó a este posicionamiento acompañándolo de la siguiente advertencia: “Alguna parte o todo el contenido compartido en este Tweet ha sido objetado y puede ser engañoso respecto de cómo participar en una elección u otro proceso cívico”. Además, cuando se visitaba el perfil en Twitter de Donald Trump, su mensaje quedaba ocultado y solo se visualizada con un clic suplementario del lector. Se adjuntaba asimismo un enlace a la página donde se explica la estrategia de Twitter a estos efectos27.

Cabe preguntarse, en primer lugar, si este mismo mensaje sería mere-cedor de tales prácticas de ocultamiento y contextualización en otro país e incluso en el propio Estados Unidos, pero en otro tipo de medios de información. Obsérvese que el mensaje fundamenta la contundente acusación inicial con el argumento de que la emisión de sufragios no puede continuar tras la jornada electoral. Más allá del acierto en tal razonamiento, se trata de una afirmación que no causa amenazas directas y debiera en todo caso suscitar los oportunos desmentidos de las autoridades competentes, pero nada de ello se refleja en Twitter. Ni se conoce quién ha objetado el mensaje ni se aclara por qué motivo el mensaje es calificado como engañoso.

En días posteriores, la alarma tanto de las novedosas redes sociales como de los medios de comunicación tradicionales continuó creciendo y alcanzó uno de sus momentos estelares cuando diversas cadenas de televisión se permitieron interrumpir en directo un discurso del Presidente y rebatir sus afirmaciones. Cabe preguntarse de nuevo si la labor de mode-rador que se arroga Twitter o la libertad de prensa que ejercen los medios ampara tales estrategias. Los bulos se rebaten con verdades, pero para ello primero debe saberse la verdadera dimensión de la falsedad. Combatir bulos impidiendo su difusión suscita dudas sobre su compatibilidad con la libertad de expresión, sobre todo cuando no hay una amenaza directa e inmediata sobre el orden público o sobre determinados bienes o personas.

Existen, en este sentido, iniciativas en otros países que despliegan mecanismos diferentes para atajar los bulos en periodos electorales. Es el caso, por ejemplo, del Instituto Nacional Electoral (INE) de México. En 2018, con ocasión de las últimas elecciones presidenciales en el país toto-naca, la autoridad electoral acordó con las principales plataformas una estrategia proactiva en la que era el propio INE quien se encargaba de replicar los datos erróneos que las redes difundían28. Uno de los casos más célebres consistió, por ejemplo, en la cantinela de que el modelo oficial de lápices distribuidos en los locales electorales era deficiente ya que permitía un fácil borrado posterior. De acuerdo con el convenio previamente suscrito con las plataformas, el INE reaccionó con mensajes específicos y las redes colocaron tales réplicas de forma prioritaria cuando el usuario visitaba alguna de las páginas afectadas29.

Se trataba en este caso de afirmaciones directamente relacionadas con la operativa electoral, de algún modo similar a lo que Trump denunciaba, y parece razonable encontrar, al menos en este ámbito, un espacio de colaboración entre las redes sociales y las autoridades electorales. Son pocos, sin embargo, los países que han tomado el mismo camino ya que la mayo-ría contemplan desde el burladero cómo la información electoral queda distorsionada en el debate incesante de las redes sociales30.

Encontramos en Rumanía un ejemplo además extremo de cómo la ausencia de diálogo entre autoridades electorales y redes sociales puede desembocar en situaciones anómalas. Con motivo de las elecciones parlamentarias de diciembre de 2020, los organismos electorales rumanos editaron múltiples videos de información electoral. Se trataba de una estrategia pensada para suplir la ausencia de otras actividades debido a las restricciones derivadas de la pandemia. Lo que nadie esperaba, sin embargo, es que, al intentar visualizar un video institucional de promoción electoral en YouTube, el algoritmo de la plataforma ofreciera antes de forma automática varios spots, alguno de ellos correspondiente a un partido político.

Se trataba lógicamente de algo inesperado e involuntario, pero refleja meridianamente las consecuencias de la ausencia de diálogo constructivo entre plataformas y autoridades electorales. Si se hubiera cultivado tal relación, evitar lo comentado líneas atrás no hubiera planteado problema alguno ya que ambas partes reconocerían lo pernicioso, para ambas, de la situación. Si no se hizo, es porque la comunicación era inexistente o, lo que es peor, porque nadie había reparado en este efecto colateral de la publicidad institucional en línea. Las autoridades electorales suelen contemplar las redes sociales a simple nivel de usuario y no emprenden iniciativas que, como la mexicana y de modo incipiente, acuerden con tales plataformas medidas tendentes a reforzar la opinión pública libre e informada.

Una vez establecida esta recomendable interacción entre organismos electorales y redes sociales, las posibilidades, como se comprobó en México, se antojan enormes y la depuración de los mensajes falsos sobre los procesos electorales no es más que una primera medida que puede dar pie a una estrategia más comprehensiva.

En algunos países, por ejemplo, las autoridades audiovisuales se encargan de vigilar el comportamiento de los medios de comunicación durante el periodo electoral y realizan para ello seguimientos tanto cualitativos como cuantitativos de la cobertura de los candidatos. Pueden imponerse asimismo sanciones y, según el país, se trata de medidas que afectan tanto a medios de titularidad pública como privada.

Cabe preguntarse hasta qué punto tales mecanismos son válidos en el caso de las redes sociales. Por un lado, los medios ya supervisados cuentan con una estructura que hibrida toda clase de soportes y combinan con agilidad difusión audiovisual con redes sociales e incluso, en algunos supuestos, con prensa escrita. En estos casos, la integración de las redes sociales sería solamente un complemento a la tarea ya en curso por parte de los supervisores audiovisuales.

Por otro lado, es cierto que las redes sociales no son un medio de comunicación sometido a licencia, lo que teóricamente daría pie para la intervención de los consejos de lo audiovisual, pero seguramente no sería adecuado entonces alinear las plataformas con la mera prensa en papel, que goza tradicionalmente de un mayor margen de maniobra. El hecho de que hoy en día las redes sociales se arroguen, y no sin razón, un rol crucial, y a veces determinante, en el desenlace de los comicios debe llevarnos a analizar de qué forma sus actividades deben estar sometidas a un control, similar o no, al que se hallan otras ágoras de comunicación social.

En este sentido, las metodologías ya disponibles dejan aún bastante que desear31. Tenemos una buena muestra de ello en los esfuerzos realizados en el campo de la observación electoral para aprehender con rigor cuál es el papel de las redes sociales en el proceso electoral, de qué forma tal actividad puede ser evaluada y cómo pueden formularse recomendaciones que mejoren la situación presente. Mientras que los análisis cualitativos y cuantitativos constituyen ya una herramienta consolidada en toda misión de observación electoral, las redes sociales adolecen todavía de instrumentos analíticos parecidos. Pese a evidencias de manipulación electoral en diversos países, tales como Estados Unidos de América o Brasil, “regulatory and monitoring efforts have lagged behind in addressing the challenges of how public opinion can be manipulated online, and its impact on elections” (Schmuziger Goldzweig, 2019: 3).

Reflexiones para una Democracia de calidad en una era tecnológica

Подняться наверх