Название | La imaginación metodológica |
---|---|
Автор произведения | Raúl Trejo Delarbre |
Жанр | Социология |
Серия | Brújula |
Издательство | Социология |
Год выпуска | 0 |
isbn | 9786078346578 |
Como señala la misma Meneses, los desafíos respecto al big data en las ciencias sociales son de varios órdenes: en primer lugar, la importancia de tomar distancia de los discursos técnicos y mercadológicos que buscan objetivos más concretos sin fundamento, más que la propia utilidad de los datos, una tendencia explicada por los flujos cuantificables de cascadas mercantiles que caracterizan a la cultura digital. En segundo lugar, señala la autora, existe el reto de no ser avasallados por el saber computacional y, por el contrario, poner a la tecnología al servicio del conocimiento de lo social. Esto, quiero argumentar, supone no reivindicar la dimensión mitológica del big data al cuestionar investigaciones que tienen una menor cantidad de datos, muchas veces obtenidas al límite de las capacidades técnicas, siempre y cuando se encuentren en la lógica de la investigación científica.
De hecho, Brooker, Barnett, Cribbin y Sharma (2016) señalan que a pesar de los límites del data mining, podemos hacer análisis significativos, mientras se tome en cuenta la comprensión profunda de cómo se ha construido el conjunto de datos con la intención de diseñar aproximaciones analíticas apropiadas con las cuales lidiar, esto es pensar en procesos de obtención de los datos, no en los datos exclusivamente, entendiendo que la traducción de lo social convertido en datos envuelve un proceso de abstracción que impone ciertos compromisos en la forma en que los datos son generados, recolectados, seleccionados y analizados (Schäfer y Van Es, 2017).
En este sentido, en la discusión sobre grandes o pequeños datos, fue bastante conocida la mirada antropológica que aportó Wang (2013), con el término datos densos. Como imaginará el lector, en una analogía con la descripción densa que propuso Clifford Geertz (1973), por lo tanto, un enfoque desde la dimensión interpretativa de la cultura, esta autora cuestiona la reverencia al big data al reiterar la importancia de trabajar los datos en el sentido inverso, a conveniencia dela investigación y con estrictas precauciones: cercanía, precisión, descubrimiento, interpretación. Contrario a las bases que puedes descargar en las modernas aplicaciones, el acercamiento desde los datos densos permite elegir el corpus de investigación de la manera tradicional, en concreto las variables que conforman la matriz de información, con compleja comprehensión del fenómeno estudiado y sin imperativos cuantitativos inmanentes. En el sentido de los datos densos, como veremos, mi estrategia ha sido buscar la obtención de datos de abajo hacia arriba.
Equilibrista del software
El uso de Gephi fue parte de mi primer experiencia con el análisis de redes sociales, como he comentado. No así con software con enfoque cuantitativo, pues ya había trabajado con estadística descriptiva, inferencial y diseño factorial en el Paquete Estadístico para Ciencias Sociales (spss, por sus siglas en inglés) durante el procesamiento de bases de datos y generación de gráficas derivadas de cuestionarios para encuestas. Sin embargo, fue con Gephi cuando me empecé a dar cuenta de las implicaciones del software en el trabajo metodológico, en concreto con las posibilidades de realizar los cálculos estadísticos, editar directamente las bases de datos, cambiar la apariencia y aplicar algoritmos de espacialización, entre otras herramientas, lo que me dio el sentido para entender Internet como fuente y no solo como objeto de estudio (Rogers, 2013), cuestión que quiero comentar aquí a partir de la experiencia casi a la par en el uso de NodeXL, otro software enfocado en la visualización de grafos.
La primera diferencia entre ambos paquetes fue un aspecto que considero relevante porque condiciona los alcances del investigador. Mientras Gephi era una propuesta de fuente abierta y enfoque comunitario, basada en una filosofía sin ánimos de lucro y utilizable en cualquier computadora y sistema operativo, NodeXL era parte de la Social Media Research Foundation, ligada a Microsoft, un software que únicamente podía correrse como plug-in o dispositivo adicional de Excel, diferencia que resulta considerable si lo analizamos a partir de la matriz analítica que divide las plataformas en constructos tecnoculturales y estructuras socioeconómicas (Van Dijck, 2016) y que también se puede aplicar respecto al software. En este orden de ideas, las coordenadas políticas que han acompañado el fomento de actividades, como la minería de datos, en sectores no comerciales, han estado atravesadas por iniciativas performativas que exponen consignas políticas como el software libre y el acceso abierto. Paradójicamente, a diferencia de Gephi, en ese entonces NodeXL y su ecosistema comercial permitía algo novedoso que me fue muy útil: la extracción de datos directamente desde Twitter, YouTube, Flicker y Wikipedia.
No obstante, pese a no contar con pase directo a los datos de alguna plataforma, Gephi estaba ligado a ellas mediante otras aplicaciones de descarga. En mi primer ejercicio utilicé la aplicación Netvizz, desarrollada por Rieder (2013), de la Universidad de Ámsterdam, para extraer mi red de amigos en Facebook (véase Imagen 2), algo que en ese entonces estaba permitido, pero que se limitaría con el tiempo, incluso en páginas públicas, luego del escándalo por la intervención de Cambridge Analytica en las elecciones estadounidenses de 2016.
Imagen 2
Visualización de la red de contactos de mi perfil personal en Facebook, de 2013
Fuente: Elaboración propia.
Esta conexión entre Gephi y Netvizz fue la que me hizo descubrir que el llamado giro computacional de la cultura no solo aludía a la interacción en las plataformas, sino a la manera de estudiarlas. Fue la primera vez, en 2014, que escuché hablar de las Interfaces de Programación de Aplicaciones, las famosas API, puertas traseras que las propias empresas de redes abren a desarrolladores que con o sin ánimo de lucro otorgan acceso a datos de interacción entre sus usuarios, como en Twitter, o a páginas y grupos públicos como en el caso de Facebook. Mucho se ha discutido sobre la calidad de la información que proporcionan las API, al considerar que puede haber sesgos, restricciones e inconsistencias en los datos recabados. Para revisar estas limitaciones y sus posibilidades sugiero revisar los textos de Bruns y Burgess (2016) y a Brooker, Barnett, Cribbin y Sharma (2016). Un libro que se había publicado un año atrás, Software Takes Command (Manovich, 2013), había comenzado el debate sobre el software como una interfaz con el mundo, idea que a la fecha se ha complementado cada vez de manera más sólida desde la teoría del actor red (TA-R) gracias a su noción de actante.
El software, efectivamente, cambia la asociación entre investigador y conocimiento, incluso lo que entendemos por social. Y no solo el software, sino un extenso ensamblado multiengrane de posibles mediadores que incluye conexiones, antenas, dispositivos, sistemas operativos, navegadores, sitios web o plataformas, aplicaciones, interfaces, códigos programados, protocolos, algoritmos y formatos, etc. De hecho, al investigar he llegado a la conclusión de que es necesario presentar este ensamble con todas las precisiones posibles, al ser un artefacto sociotécnico móvil a deconstruir, en el marco de la problematización de la tecnología como caja negra, y las constelaciones de la ingeniería inversa. En este sentido, sugiero explorar la estrategia de indagación llamada tecnografía (Bucher, 2016) o los recursos de la descripción de las asociaciones desde el punto de vista de la TA-R. En la investigación doctoral que realicé llegué al límite de señalar las versiones de dispositivos, plataformas y navegadores, que tuve que anonimizar para desterritorializar los resultados de mis preferencias personales, de acuerdo con la noción de imaginarios algorítmicos (Bucher, 2017), pertinente en el marco de discusión de las epistemologías del software.
Otro aspecto relevante sobre este tema es el cúmulo de lecciones aprendidas por el uso de sitios desde los cuales he podido realizar descargas libres durante estos años. En primer lugar,