Читать книгу El apagón analógico - Paúl Mena Mena - Страница 10

LOS DATOS EN LA INVESTIGACIÓN PERIODÍSTICA

Оглавление

Uno de los mayores retos de la investigación periodística es no naufragar en un mar de datos inconexos. Los métodos analizados dejan ver la gran cantidad de documentos y testimonios que los investigadores tienen que recopilar y analizar para poner a prueba sus hipótesis. Santoro (2004), por ejemplo, plantea que el primer paso de la reportería es buscar los antecedentes de todos los personajes involucrados y propone una lista de quince fuentes dónde conseguirlos aunque, dependiendo de la organización burocrática de cada país, el número de instituciones a consultar puede incrementarse. Junto con los documentos y testimonios van apareciendo datos. Lo que permite el método de investigación es encontrar las conexiones entre esos datos. Por ejemplo, si salta a la vista que una empresa está acaparando los contratos de una institución pública, se revela un dato interesante. Siguiendo el método de investigación, se podría corroborar si esa compañía tiene relación con algún funcionario de esa institución. Lo que se necesita es encontrar los nexos.

La investigación periodística también trabaja con estadísticas. El método sugerido por Atwood (2010) recomienda que el periodista establezca lo que el autor llama la práctica generalizada o la situación normal del tema que está indagando. Para comprender este concepto, pone como ejemplo un reportaje que denunció la falta de atención médica a niños que sufrían el síndrome de Chediak-Higashi, los llamados niños grises, en el estado de Táchira, en Venezuela. Uno de los puntos claves de la historia, resalta el autor, fue que la periodista logró mostrar que la tasa de incidencia de esa enfermedad era muy alta en esa región. Esa era la situación normal. Atwood (2010) indica que el análisis estadístico permite entender el fenómeno para después describírselo al lector, pero para ello no solo es necesario mostrar las cifras, sino también darles contexto y explicación. Una base de datos puede aportar de diferentes maneras a una investigación: puede revelar una tendencia, encontrar patrones, identificar un caso inusual, dar profundidad o proveer contexto (Houston, Bruzzese, & Weinberg, 2002; Lehren, 2018). Lo fundamental es que el dato que salga del análisis estadístico no quede aislado, sino que se conecte con los otros elementos de la investigación.

Los trabajos que incluyen análisis de bases de datos no dejan de lado la reportería de a pie, las entrevistas, ni la búsqueda de documentos. El periodista estadounidense Andrew Lehren (2018) cuenta que cuando participó en la investigación Iraq War Logs, que expuso los archivos secretos de seguridad filtrados por el soldado Chelsea Manning a Wikileaks en 2010, pudo revisar el contenido de los casi 400 mil reportes militares gracias al conocimiento de herramientas de bases de datos. Sin embargo, eso no fue suficiente. Lehren también fue tras los registros públicos: auditorías, contratos, transcripciones de audiencias y noticias. Esto le permitió establecer una lista de cien contratistas de seguridad privada involucrados en la guerra de Irak. El periodista corrió ese listado en los archivos filtrados haciendo nuevas consultas, para asegurar que no se le había escapado algún detalle. Complementar el análisis de bases de datos con reportería tradicional fue un acierto, concluyó el reportero. Si bien la masiva digitalización de la información obliga a la construcción de un nuevo perfil de periodista, esto no implica que el uso de nuevas tecnologías deje de lado las técnicas tradicionales ni que la investigación se confine a un trabajo de escritorio (Hahn & Stalph, 2018; Houston, 2004).

El periodismo de datos, también llamado periodismo dirigido por datos (Data-Driven Journalism, DDJ) o reportería asistida por computador (Computer-Assisted Reporting, CAR), ofrece varias herramientas al periodismo de investigación. Houston, Bruzzese y Weinberg (2002) han identificado cinco herramientas básicas que tienen vigencia hasta la actualidad. La primera son las bases de datos oficiales que se encuentran en los sitios web de las instituciones públicas, aunque también se las puede obtener a través de pedidos de acceso a la información. La segunda herramienta son las hojas de cálculo, que permiten computar los registros de esas bases. También están los administradores de bases, con los que se puede agrupar, filtrar, resumir, unir o comparar enormes cantidades de registros. Otra herramienta son los visualizadores, que permiten graficar los datos en tablas, cuadros y mapas, e incluso diseñar infografías e historias interactivas. Por último, están los programas de estadística, a través de los cuales se pueden identificar patrones significativos en una base de datos. En la actualidad, existen programas informáticos que reúnen varias de las herramientas aquí descritas y otras adicionales como, por ejemplo, la capacidad de recolectar y limpiar datos. Chevalier y otros (2018) ofrecen un catálogo de herramientas utilizadas por nueve especialistas -periodistas, diseñadores e investigadores académicos-, donde se incluyen a trabajadores de The Washington Post, The Guardian y Spiegel Online. Entre las herramientas de acceso gratuito calificadas como de capacidad media-alta y alta están D3, R, Python, JavaSript y Tableau.

Desde mediados de la primera década del presente siglo, varios medios estadounidenses y británicos han contratado programadores informáticos dentro de sus redacciones, que son reconocidos como periodistas programadores (programmerjournalists). El profesor Paul Bradshaw (2018) apunta que la incorporación de esos profesionales y la adopción de técnicas para analizar datos han ofrecido una alternativa al trabajo investigativo basado en la elaboración de hipótesis. “Esto (el uso de hipótesis) puede ser útil para enfocar una investigación, pero también puede pasar por alto información que puede conducir a historias más importantes” (Bradshaw, 2018, la traducción es mía). Es decir que el análisis de datos no se usa solo para confirmar o negar una sospecha, sino para descubrir nuevos lineamientos de la investigación.

Los investigadores Sylvain Parasie y Eric Dagiral (2012) señalan que, si bien el principal deber de los programadores en una redacción es diseñar visualizaciones, estos profesionales, que en su mayoría están relacionados a movimientos activistas que promueven el software libre y el gobierno abierto, han desarrollado una nueva epistemología3 que pone en cuestión el modelo establecido de cómo los datos pueden aportar a una investigación. Los autores identifican tres proposiciones extraídas del trabajo de los programadores, las mismas que cuestionan la forma en que el periodismo tradicional mira al procesamiento de datos.

La primera pone en duda la concepción de la noticia. Los programadores la ven como información estructurada. Esto implica que la noticia no debe ser considerada como algo que está escondido en las bases de datos y que el periodista tiene que descubrir usando conceptos estadísticos (Houston, 2004). Para los programadores, lo importante es que la base de datos esté completa y que sea los más granular posible, es decir, que su unidad de descripción no sea general (países, regiones, estados, provincias o ciudades), sino específica (personas, cuadras, manzanas, escuelas, hospitales…). Si cumple estas condiciones, la base es en sí misma la noticia. No esconde nada. Otra implicación de esta tesis es que las bases ya disponibles no deberían ser consideradas como la única herramienta legítima en que los datos apoyan una investigación periodística, sino que hay otra alternativa: todo lo que los reporteros recolectan es susceptible de ser estructurado en una nueva base. Parasie y Dagiral (2012) plantean que “estas técnicas (computacionales) permiten que una base sea diseñada a partir de datos heterogéneos -números, palabras, fotos, etc.-” (pág. 863, la traducción es mía). Considerar a la noticia como información estructurada rompe las barreras con que el periodismo tradicional mira el potencial de los datos para apoyar una investigación.

La segunda proposición está relacionada al diseño de herramientas que permitan a la audiencia explorar los datos directamente. Los programadores sostienen que el público no solo debería tener la posibilidad de chequear los datos, sino también de combinarlos y usarlos para sus propios propósitos (Parasie & Dagiral, 2012). Esto pone en cuestión el rol mismo del periodista, que tradicionalmente ha sido considerado como un mediador entre la audiencia y la realidad (Restrepo, 2004). No obstante, los investigadores Stolper, Lee, Riche y Statsko (2018) advierten sobre los riesgos de brindar a los lectores una exploración sin límites. Previenen que, si los consumidores pudieran cambiar la visualización significativamente, los datos presentados podrían dejar de tener consistencia con la narrativa que está a su alrededor; además, que el lector podría perderse ya sea por la carga o la filtración exageradas de datos. Frente a ello, estos autores proponen proveer herramientas de exploración contraladas por el periodista. Lo que es imperativo para los programadores es que las herramientas de exploración de datos ayuden a que los ciudadanos puedan tomar decisiones en su vida diaria. Para ellos, el periodista debería dejar de tener un papel central y permitir que los lectores contribuyan legítima y activamente en el proceso (Parasie & Dagiral, 2012).

La última tesis se relaciona con la posibilidad de reducir la dependencia que los periodistas tienen con las agendas gubernamentales. Si bien el descubrimiento de irregularidades en el gobierno ha sido una tradición en el periodismo de investigación, los programadores cuestionan que, en gran medida, esas revelaciones dependen de la disposición del mismo gobierno para transparentar su gestión (Parasie & Dagiral, 2012). La propuesta se entiende bien en el contexto donde los investigadores realizaron el estudio: Chicago. Ahí las autoridades locales publican periódica y automáticamente bases de datos que permiten a los programadores formar sus propias bases enfocadas a rendir cuentas al gobierno federal. De acuerdo con el estudio, el 47% de los proyectos de periodismo de datos publicados por el Chicago Tribune entre el 2009 y 2011 se realizaron con bases diseñadas por el propio equipo del diario, mientras que esa cifra fue de apenas el 7% en las publicaciones hechas entre 2002 y 2009. Con estas herramientas de investigación, subrayan los autores, la revelación de irregularidades depende menos de las autoridades al interior del gobierno federal.

En definitiva, el estudio de Parasie y Dagiral (2012) revela cómo la incorporación de programadores a las redacciones ha generado tensiones con respecto a la tradición periodística. Las tesis extraídas del trabajo de esos especialistas amplían la noción que se tiene de noticia, alientan la participación de las audiencias en la producción de contenido y brindan una alternativa para evitar la dependencia que puede tener el periodista con respecto a las autoridades para revelar irregularidades.

El apagón analógico

Подняться наверх