Читать книгу La imaginación metodológica - Raúl Trejo Delarbre - Страница 13
Equilibrista del software
ОглавлениеEl uso de Gephi fue parte de mi primer experiencia con el análisis de redes sociales, como he comentado. No así con software con enfoque cuantitativo, pues ya había trabajado con estadística descriptiva, inferencial y diseño factorial en el Paquete Estadístico para Ciencias Sociales (spss, por sus siglas en inglés) durante el procesamiento de bases de datos y generación de gráficas derivadas de cuestionarios para encuestas. Sin embargo, fue con Gephi cuando me empecé a dar cuenta de las implicaciones del software en el trabajo metodológico, en concreto con las posibilidades de realizar los cálculos estadísticos, editar directamente las bases de datos, cambiar la apariencia y aplicar algoritmos de espacialización, entre otras herramientas, lo que me dio el sentido para entender Internet como fuente y no solo como objeto de estudio (Rogers, 2013), cuestión que quiero comentar aquí a partir de la experiencia casi a la par en el uso de NodeXL, otro software enfocado en la visualización de grafos.
La primera diferencia entre ambos paquetes fue un aspecto que considero relevante porque condiciona los alcances del investigador. Mientras Gephi era una propuesta de fuente abierta y enfoque comunitario, basada en una filosofía sin ánimos de lucro y utilizable en cualquier computadora y sistema operativo, NodeXL era parte de la Social Media Research Foundation, ligada a Microsoft, un software que únicamente podía correrse como plug-in o dispositivo adicional de Excel, diferencia que resulta considerable si lo analizamos a partir de la matriz analítica que divide las plataformas en constructos tecnoculturales y estructuras socioeconómicas (Van Dijck, 2016) y que también se puede aplicar respecto al software. En este orden de ideas, las coordenadas políticas que han acompañado el fomento de actividades, como la minería de datos, en sectores no comerciales, han estado atravesadas por iniciativas performativas que exponen consignas políticas como el software libre y el acceso abierto. Paradójicamente, a diferencia de Gephi, en ese entonces NodeXL y su ecosistema comercial permitía algo novedoso que me fue muy útil: la extracción de datos directamente desde Twitter, YouTube, Flicker y Wikipedia.
No obstante, pese a no contar con pase directo a los datos de alguna plataforma, Gephi estaba ligado a ellas mediante otras aplicaciones de descarga. En mi primer ejercicio utilicé la aplicación Netvizz, desarrollada por Rieder (2013), de la Universidad de Ámsterdam, para extraer mi red de amigos en Facebook (véase Imagen 2), algo que en ese entonces estaba permitido, pero que se limitaría con el tiempo, incluso en páginas públicas, luego del escándalo por la intervención de Cambridge Analytica en las elecciones estadounidenses de 2016.
Imagen 2
Visualización de la red de contactos de mi perfil personal en Facebook, de 2013
Fuente: Elaboración propia.
Esta conexión entre Gephi y Netvizz fue la que me hizo descubrir que el llamado giro computacional de la cultura no solo aludía a la interacción en las plataformas, sino a la manera de estudiarlas. Fue la primera vez, en 2014, que escuché hablar de las Interfaces de Programación de Aplicaciones, las famosas API, puertas traseras que las propias empresas de redes abren a desarrolladores que con o sin ánimo de lucro otorgan acceso a datos de interacción entre sus usuarios, como en Twitter, o a páginas y grupos públicos como en el caso de Facebook. Mucho se ha discutido sobre la calidad de la información que proporcionan las API, al considerar que puede haber sesgos, restricciones e inconsistencias en los datos recabados. Para revisar estas limitaciones y sus posibilidades sugiero revisar los textos de Bruns y Burgess (2016) y a Brooker, Barnett, Cribbin y Sharma (2016). Un libro que se había publicado un año atrás, Software Takes Command (Manovich, 2013), había comenzado el debate sobre el software como una interfaz con el mundo, idea que a la fecha se ha complementado cada vez de manera más sólida desde la teoría del actor red (TA-R) gracias a su noción de actante.
El software, efectivamente, cambia la asociación entre investigador y conocimiento, incluso lo que entendemos por social. Y no solo el software, sino un extenso ensamblado multiengrane de posibles mediadores que incluye conexiones, antenas, dispositivos, sistemas operativos, navegadores, sitios web o plataformas, aplicaciones, interfaces, códigos programados, protocolos, algoritmos y formatos, etc. De hecho, al investigar he llegado a la conclusión de que es necesario presentar este ensamble con todas las precisiones posibles, al ser un artefacto sociotécnico móvil a deconstruir, en el marco de la problematización de la tecnología como caja negra, y las constelaciones de la ingeniería inversa. En este sentido, sugiero explorar la estrategia de indagación llamada tecnografía (Bucher, 2016) o los recursos de la descripción de las asociaciones desde el punto de vista de la TA-R. En la investigación doctoral que realicé llegué al límite de señalar las versiones de dispositivos, plataformas y navegadores, que tuve que anonimizar para desterritorializar los resultados de mis preferencias personales, de acuerdo con la noción de imaginarios algorítmicos (Bucher, 2017), pertinente en el marco de discusión de las epistemologías del software.
Otro aspecto relevante sobre este tema es el cúmulo de lecciones aprendidas por el uso de sitios desde los cuales he podido realizar descargas libres durante estos años. En primer lugar, como ya mencioné, Netvizz para Facebook, una aplicación que dejó de funcionar para esa red y comenzó en 2019 una nueva versión en YouTube. También utilicé NodeXL para descargar datos de Twitter, así como con Flocker, una plataforma de la española Outliers que estuvo durante mucho tiempo disponible para descargas gratuitas pero que desapareció, mismo caso que Topsy, que permitía la visualización de los tuits con búsquedas particulares, mucho antes que la misma plataforma Twitter y su herramienta de búsqueda avanzada facultara esto mismo con una gran cantidad de posibilidades.
Finalmente, en 2020, cuando escribí este artículo, la extracción se podía realizar de muchas formas, desde modelos de negocios basados en analítica de datos proporcionados por las API, pasando por expertos en vertientes de la disciplina conocida como data science, así como laboratorios académicos que también desarrollan herramientas, varias para generar visualizaciones en tiempo real. Muchas de las herramientas actuales combinan extracción y visualización como un dispositivo inapelable, con la limitante de eliminar instrucciones y con ello posibilidades de plantear hipótesis de datos para el investigador, pues generan redes ‘digeridas’ con base en la centralidad de grado. En lo personal, para exploraciones de la actividad en Twitter en el plano relacional utilizo Hoaxy, del Observatorio de Medios Sociales de la Universidad de Indiana, mientras que para descargas más amplias, he tenido que recurrir a servicios comerciales en el marco de los proyectos y objetivos del Observatorio de Ciudadanía Digital del Departamento de Ciencias de la Comunicación y Diseño de la Universidad Autónoma Metropolitana, unidad Cuajimalpa, ubicada en la Ciudad de México. Respecto a la minería de datos con visualización incluida, en 2019 tuve la oportunidad de conocer y utilizar el proyecto desarrollado por Pérez, Cortés, Gómez y Abascal, en el marco de la Maestría en Diseño, Información y Comunicación de la misma institución.
Derivado de la experiencia en minería de datos, una vez obtenida la información, es claro que un pendiente y a la vez una exigencia más para el investigador es aprender a utilizar paquetes computacionales e invertir en herramientas que permitan la extensión de las capacidades intelectuales e imaginativas para acompañar la participación interpretativa (Masson, 2017). En mi caso me he centrado en Gephi para el procesamiento y la visualización de los datos obtenidos de las plataformas mencionadas, sin embargo hay ejemplos como R Studio que permiten el uso de scripts microdirigidos para extraer información, así como diferentes formas de generar gráficas, lo que requiere un nivel avanzado de programación que pocos logran desde las ciencias sociales, motivo por el cual la colaboración interdisciplinaria se ha vuelto un imperativo en el trabajo de este tipo —en concreto con el auxilio de un experto de las áreas computacionales—, sobre todo cuando los recursos de autodidacta son insuficientes; una transición del hazlo tú mismo al hagámoslo juntos —del do it yourself al do it together— que traspone las metodologías del campo traviesa de lo digital (Ratto y Boler, 2014).