Читать книгу El helicoide de la investigación: metodología en tesis de ciencias sociales - Jefferson Jaramillo Marín - Страница 5

Оглавление

Introducción

Julio Aibar,[*] Fernando Cortés,[**] Liliana Martínez[***] y Gisela Zaremberg[****]

Consideraciones sobre el helicoide de la investigación

En las ciencias sociales de América Latina suele prevalecer la idea de que el proceso de investigación puede ser adecuadamente representado por una línea recta que inicia con el problema de investigación y que finaliza con la contrastación de la o las hipótesis, o en el mejor de los casos, con el planteamiento de nuevos problemas de investigación.

Un esquema que podría admitir esta lectura es el que proporciona Mario Bunge (1979: 26).[1] El problema de investigación no surge en el vacío sino que adquiere sentido en el cuerpo de conocimientos disponible. Planteada la pregunta, la hipótesis se puede conceptuar como una respuesta provisional cuya validación empírica suele no ser directa, sino a través de sus consecuencias contrastables que se ponen en correspondencia con la evidencia pertinente. Tal vez no esté de más señalar que esta operación requiere emplear las técnicas de contrastación adecuadas. El resultado de la contrastación, independientemente de si la hipótesis se rechaza o no, acrecienta el acervo de conocimiento disponible.

De este modo, se cerraría el proceso iniciado con el planteamiento del problema y finalizado con el nuevo cuerpo de conocimiento, caldo de cultivo de nuevos problemas de investigación. Esta forma de conceptuar la investigación acentúa la impresión de que el proceso no sólo es lineal sino que también podría llevarse a cabo de manera más o menos mecánica, cumpliendo con esmero los pasos que se encuentran secuencialmente ordenados en el esquema 1.


Esquema 1. Un ciclo de investigación.

Si se considera la secuencia de operaciones contenidas en el esquema 1 desde la práctica de la investigación de las ciencias sociales, es posible realizar una lectura distinta que se aparte de aquella que concibe el proceso compuesto por una secuencia ordenada de pasos que desemboca en la producción de nuevo conocimiento —que, por lo demás, marca el punto en que finaliza la investigación—, para enfatizar que la secuencia de pasos en ese esquema se puede entender alternativamente como un helicoide y no como una recta. Esta concepción de las etapas del quehacer científico resalta la idea de que en el transcurso de una investigación particular hay puntos de llegada que se transforman en el arranque de nuevos senderos investigativos, los cuales habitualmente plantean retos al investigador que entrañan mayores niveles de complejidad.

Del esquema 1 también podría desprenderse la concepción de que hay un listado de problemas por resolver que forman parte del conocimiento disponible, como fue el caso de los 23 problemas matemáticos que presentó Hilbert en el I Congreso Internacional de Matemáticas en 1900, mismos que marcaron el curso de gran parte de la investigación matemática del siglo XX. Sin embargo, la inexistencia de un Hilbert en nuestro campo, o la imposibilidad de un planteamiento de esa naturaleza en las ciencias sociales, ha llevado a sistematizar la experiencia en torno al origen del problema de investigación: puede surgir de lagunas en los cuerpos teóricos y en el conocimiento disponible, de problemas sociales por resolver, o bien de explicaciones insatisfactorias a determinados fenómenos sociales (Bechhofer y Paterson, 2000: 1). Como estas fuentes no son excluyentes, el problema de investigación también podría surgir de combinaciones de ellas.

Mirado desde otro ángulo, desde la perspectiva de la lógica, el origen del problema se puede derivar por inducción —a partir del conocimiento empírico, es decir, provenir de la experiencia— o por deducción —sobre la base del conocimiento teórico— (Krathwohl, 1997: 80-83). Si el origen es inductivo podría pensarse erróneamente que la pregunta es netamente empírica, es decir, que surgiría de la observación pura de una situación. Sin embargo, como sabemos, toda observación está cargada de teoría (Hanson, 1989: 216-252) y, por tanto, el problema estaría delimitado indirectamente por el cuerpo de conocimiento disponible. Se debe enfatizar que todo problema, o pregunta de investigación, está conceptualmente condicionado, es decir, no es posible formular una pregunta a menos que se sepa algo. Lo relevante para la investigación social es que ese algo esté en el cuerpo de conocimiento que han acumulado las disciplinas que cultivamos.

Un punto para destacar del proceso de investigación representado por el esquema 1 es que no se someten a prueba las hipótesis teóricas sino sus consecuencias contrastables. En las ciencias sociales se suele distinguir entre las proposiciones teóricas y las proposiciones empíricas. Por ejemplo, “la anomia induce al comportamiento social desviado” podría dar cabida a los siguientes enunciados empíricos: el suicidio será más frecuente entre los solteros que entre los casados; tendrá más incidencia en la población protestante que en la católica; y en los trabajadores profesionales más que en los manuales (Stinchcombe, 1987: 15-17). Debido a la relación lógica que vincula ambos tipos de enunciados, el rechazo de una proposición empírica lleva a la refutación del enunciado conceptual, pero si se considera que de un mismo enunciado teórico se pueden derivar múltiples proposiciones empíricas, el no rechazar un enunciado empírico sólo aumenta la verosimilitud de la teoría, pero no la comprueba.

El tercer y último comentario que sugiere el esquema 1, en aras de su buena comprensión, se refiere al rectángulo rotulado estimación de hipótesis. El término estimación o pruebas de hipótesis convoca a la estadística y, a través de ella, a los métodos cuantitativos. El “test” de hipótesis tradicional compara la distribución de los datos con la distribución que surge del procedimiento de selección de casos; casos que se obtienen por la aplicación de diversas formas de muestreo aleatorio; o bien, con la distribución que se observaría si el fenómeno fuese de azar, es decir, generado por múltiples e infinitas y pequeñas causas (Stinchcombe, 1987: 23). Sin embargo, los métodos más modernos de la estadística desarrollados para responder a las exigencias de las ciencias sociales se caracterizan por contrastar distribuciones teóricas, derivadas de modelos estadísticos basados en hipótesis sustantivas, con la distribución observada de los datos (Hildebrand, Laing y Rosenthal, 1977). La contrastación de las distribuciones teórica y empírica permite decidir acerca del grado de bondad de ajuste del modelo y, por tanto, de la hipótesis.

No obstante, ésta no es la única lectura posible de las operaciones señaladas en el esquema 1 con relación al contraste de las hipótesis, también cabe la posibilidad de examinar cuán plausible o verosímil es la proposición teórica a partir de sus correspondientes enunciados empíricos. Por ejemplo, a partir de la teoría de Alexander Chayanov (1974) se ha planteado la hipótesis de que, en situación de crisis, los pobres emplearán intensivamente su fuerza de trabajo familiar para paliar los efectos sobre sus condiciones de vida (Cuéllar, 1990: 19-53). Para someter a prueba esta hipótesis no necesariamente hay que emplear métodos estadísticos, bastaría con observar el uso de la fuerza de trabajo de los pobres (mujeres, niños y ancianos, además de los adultos) antes, durante y después del período de crisis, lo cual podría hacerse empleando métodos etnográficos (González de la Rocha, 1986: 11-38). El procedimiento de prueba se puede extender en el tiempo (estudio del uso de la fuerza de trabajo del hogar en otras crisis) y en el espacio, es decir, en otros contextos territoriales como zonas rurales, semiurbanas y urbanas, así como en otros países. La hipótesis gana en verosimilitud en la medida en que sean más diversos los ámbitos en que se sostiene, así como mayor sea el lapso de tiempo que cubre (Cortés, 2008: 90-94).

Ahora bien, al someter a contraste las hipótesis, la estadística conmina a admitirlas o rechazarlas si no cumplen con requisitos preestablecidos. Sin embargo, este no es el proceder en la investigación social. De hecho, dada la contradicción, es decir, la no correspondencia entre los enunciados empíricos y los datos (sean o no cuantitativos), el investigador social se vuelca sobre la información, analiza si ha sido bien construida, si las mediciones son válidas y confiables, emprende la búsqueda de posibles distorsiones en el proceso de registro, codificación, o en los criterios de clasificación y, una vez que estabiliza el frente de los datos, revisa sus enunciados empíricos, examina la consistencia con las proposiciones teóricas de carácter más general y, en caso necesario, procede a redefinir su problema o a reelaborar su teoría. El motor de la investigación es la contradicción entre los enunciados que derivan de la teoría y los datos.

A lo largo del proceso de investigación es habitual que el investigador social deba enfrentarse una y otra vez a la contradicción entre las regularidades que deberían observarse si su teoría fuese adecuada y el arisco comportamiento de los datos. Y cada vez emprende el camino empírico que consiste en valorar la información, o el camino teórico que revisa tanto el estado del problema como la teoría. Pero, para seguir apoyándonos en la geometría, estas operaciones no se hacen en un mismo plano, sino en planos de complejidad cada vez mayor, tanto en lo teórico como en lo empírico. Por ejemplo, una investigación puede partir preguntándose si los programas de transferencias condicionadas logran evitar la transmisión intergeneracional de la pobreza y, después de varios pasos intermedios que modifican la pregunta y las conceptuaciones así como la información, terminar analizando la movilidad ocupacional y evaluando el impacto del programa sobre el logro ocupacional de los jóvenes que recibieron los apoyos del programa (Yaschine, 2012), lo que deja abierta la pregunta original que implicaba el análisis de la situación económica general, tema que queda claramente fuera del alcance del programa y de la investigación.

Para representar geométricamente la idea del avance en el grado de complejidad en la delimitación del problema, en la teoría y en los datos, supongamos que se pliega verticalmente el Esquema de Bunge sobre su centro, si este pliegue es tal que el rectángulo del nuevo cuerpo de conocimientos y nuevos problemas no se superpone con el del cuerpo de conocimientos disponibles y problema, sino que se sitúa en un plano superior y que este proceso se repite cada vez que aparece la contradicción, se formaría una espiral (Cortés y Rubalcava, 1987: 13-25) o, con más precisión, un helicoide (García, 1997: 40) que representaría el proceso de la investigación.

Mirado desde esta forma de conceptuar la actividad del investigador social, el planteamiento de Bunge se limitaría a mostrar con detalle las operaciones que tienen lugar en cada “vuelta” de la investigación, en tanto que la imagen del helicoide representaría el proceso dialéctico consistente en las contradicciones entre el producto del pensamiento (los enunciados teóricos y empíricos) y el comportamiento de lo real expresado en los datos (sean o no numéricos). La contradicción, motor del proceso de investigación, desencadena secuencias de operaciones empíricas y conceptuales que elevan la teoría y los datos a niveles de mayor complejidad, donde conceptos, hipótesis y datos que formaban parte de niveles previos se encuentran presentes, aunque envueltos, en nuevas relaciones y acompañados por nuevos datos, conceptos e hipótesis. El proceso de investigación resulta así ser esencialmente dialéctico (García, 2000: 44).

Al parecer, la idea del proceso de investigación que inicia con un problema localizado en un cuerpo de conocimiento disponible y que se enriquece por la agregación de nuevos conocimientos, corresponde más bien a la forma en que se comunican los resultados, es decir, a la lógica de la exposición y no a la que rige la investigación.

Debido a que a los autores de este libro se les pidió que reflexionaran y escribieran sobre la experiencia que vivieron durante el proceso de investigación, no sobre el producto final, los diversos artículos de esta obra muestran, una y otra vez, la operación del helicoide de la investigación.

El contexto de surgimiento del problema

La forma en que surge un problema es uno de los temas más difíciles de exponer de manera sistemática desde la reflexión metodológica. Tal como señalan King, Keohane y Verba (2000) parafraseando a Karl Popper (1962) “no existe un método lógico para tener nuevas ideas”. No debe sorprender, por lo tanto, que al momento de especificar cómo elegir un tema y un problema de investigación los libros de metodología expongan un listado plural de puntos de partida (Greenfield, 1996: 8; King, Keohane y Verba, 2000: 26).

A pesar de ello —y reconociendo que los caminos plurales y creativos no pueden capturarse dentro de lógicas simples—, creemos que se puede dar cuenta de esta tarea investigativa si se considera que la construcción de un problema de investigación implica una actividad dialógica de tipo particular.[2]

En este caso: ¿cómo y sobre qué se construye un problema de investigación? Por una parte, sin duda, la construcción de un problema suele verse motivada por un diálogo con la propia experiencia. Muchos de los capítulos expuestos en este libro dan cuenta de la importancia de una constante reflexividad.[3] En los casos de los investigadores participantes de este libro, provenientes de diferentes realidades de América Latina, es notorio cómo la participación o la militancia social y política se han entretejido con los desarrollos de carreras académicas motivando problemas de investigación: ¿por qué la bibliografía existente en un campo no consigue describir o explicar adecuadamente fenómenos que se están experimentando, de una diferente manera, desde el activismo? Sin embargo, aquí se produce un salto — no lineal, por cierto—. Dado que la ciencia constituye un ejercicio de contrastación pública, las preguntas no dialogan sólo en un plano autorreflexivo, ni tampoco lo hacen contra una lógica superior e incontrastable. Por el contrario, como puede observarse en los capítulos de esta obra, el recorrido por los estudios existentes (“el estado del arte”) constituye un pilar fundamental del contexto de producción de un problema de investigación. Un pilar que demanda un diálogo y una justificación pública en relación directa con el contexto académico de producción. De esta forma, la construcción de un problema no ocurre en un soliloquio, ni en diálogos místicos, sino que incluye la producción de una voz propia en diálogo con las voces de aquellos que han estado investigando sobre el mismo campo problemático.

Considerando este diálogo, una de las formas más citadas en torno a cómo construir un problema supone que podemos encontrar un “vacío” o una “brecha” dentro de un fenómeno que puede considerarse política o socialmente relevante pero que la bibliografía existente no ha abordado de manera suficiente. ¿Por qué si las mujeres participaron activamente en las redes de protección social durante los siglos XVIII y XIX en Estados Unidos, nunca se había analizado el papel de estas redes en la construcción temprana de esquemas de un Estado de bienestar?[4] Seguramente, un vacío así nos llevará a las primeras preguntas de investigación de naturaleza más descriptiva —¿cuáles fueron las redes de protección social protagonizadas por las mujeres? —. Sin embargo, este tipo de problemas, por lo general, suelen ser descalificados en ciencias sociales. Consideramos que este es un error. El estadio de avance en cierto campo en particular puede demandar que nuestro primer problema sea, precisamente, deslindar de manera descriptiva cuáles son los componentes sistemáticos de los no sistemáticos en torno a un fenómeno relevante que, no obstante, ha permanecido invisible. Resolver esta invisibilidad, sin duda, será un aporte, como lo demuestra el ejemplo aquí expuesto. Es casi seguro que, en la descripción analítica del fenómeno, descubriremos por qué la mirada académica elaborada hasta el momento nunca reparó en algo que, al ser investigado, podemos presentar como evidente.

El diálogo con la investigación existente en un campo de interés permite muchísimas posibilidades adicionales, a las que podríamos ordenar admitiendo que hay problemas de investigación que dialogan en tono polémico, y otros, en tono confirmatorio —por supuesto, se pueden presentar problemas que mixturan polémica y confirmación; aquí los presentamos en forma dicotómica con fines analíticos—. En el primer caso, probablemente, escojamos una hipótesis que se ha sostenido como plausible o incluso se ha convalidado en el estado del arte y que nos proponemos impugnar, discutiendo la forma en que se han hecho observables los conceptos involucrados en la misma u ofreciendo una nueva teoría. Por ejemplo, podemos comenzar observando que la teoría de la elección racional prevé que en grandes grupos, los individuos racionales tenderán a obtener beneficios privados a costos públicos. Acto seguido es posible proponernos polemizar con esta hipótesis teórica modificando las formas en que se ha hecho observable la misma —aportando nuevas observaciones que indiquen un grado mayor de casos de cooperación en grandes grupos que aquellos previstos por la teoría—. Podemos también indagar sobre el problema de cooperación en grandes grupos proponiendo una teoría completamente diferente. Por ejemplo, proponiendo investigar cómo las instituciones son importantes al momento de performar comportamientos cooperativos en grandes grupos. La forma en que nuestro problema se erige desde la polémica incluye también otras opciones, como la identificación de posiciones encontradas en torno a un problema proponiéndonos aportar evidencia para uno de los “bandos” en pugna, o idear una tercera posición que oriente la discusión hacia nuevas fronteras.

Por otra parte, en sentido confirmatorio, más que discutir o polemizar con una tesis de investigación existente en el campo, podemos, por ejemplo, escoger una hipótesis relevante en la bibliografía para la que aún no se ha aportado evidencia sistemática o no se ha generado evidencia en cierta latitud o región. Podemos también, al observar una teoría que funciona bien en un campo de estudio, importarla hacia otro campo que aparentemente no parecía relacionado con la misma. Por ejemplo, podemos encontrar que teorías y pruebas de la teoría neoclásica, centrales para explicar el funcionamiento de los mercados económicos, podrían, mediando ciertas adaptaciones, transportarse para explicar comportamientos en los mercados electorales. En todos estos casos es importante notar que un problema necesita la construcción de una pregunta, pero una pregunta no agota la construcción de un problema. En otras palabras, todo problema de investigación contiene una pregunta, pero no toda pregunta constituye un problema de investigación, en la medida en que un problema de investigación es algo más que una pregunta. Por ejemplo, hay una diferencia sustancial entre preguntarse ¿cuáles fueron las principales reformas educativas del sistema chileno en la última década del siglo XX y la primera del XXI?, que enunciar lo siguiente:

La literatura sobre transiciones democráticas prevé que un cambio de régimen político generará modificaciones estructurales en el campo de las políticas públicas de un país. Sin embargo, en el plano estructural de las políticas de financiamiento a la educación superior, las políticas en Chile no han sufrido modificaciones sustanciales sino cambios marginales que no cambiaron premisas mercantilistas inauguradas por la dictadura. ¿Por qué en este caso no se han presentado los cambios que preveía la teoría?[5]

Esto es válido tanto para preguntas originadoras de proyectos explicativos como para aquellas que impulsan proyectos descriptivos, nacidas de la polémica o la confirmación con respecto a teorías, pero también con respecto a aportaciones empíricas existentes. Tomando el ejemplo anterior, aun manteniendo una pregunta cualitativa: ¿cuáles son los cambios y transformaciones de la política de educación superior en Chile?; el hecho de enunciarla en el marco de una paradoja o acertijo paradojal[6] —construido a partir del diálogo con la bibliografía existente en el tema, en este caso, con la literatura sobre transiciones democráticas y políticas públicas—, da solidez a la construcción del problema. Ello, porque ubica con mayor claridad el campo de la contienda o, en su caso, de la confirmación dialógica sobre la cual se desarrollará el proyecto. Una pregunta hecha en el marco de una construcción como la que aquí exponemos, nos permite saber ¿con quién/es y acerca de qué discuto? o ¿a quién/es y acerca de qué confirmo? En otras palabras, la construcción de un problema de investigación sólido permite especificar el aporte concreto que realizaré y la relevancia del mismo.

Diálogo reflexivo y académico en el helicoide de la investigación

El contexto de producción de un problema de investigación ofrece un marco dialógico tanto reflexivo —con la propia experiencia y entorno experiencial— como académico —con la bibliografía que muestra las principales tesis de las investigaciones en un campo temático y los modos de contrastarlas.

¿Cómo se relacionan esos planos dialógicos? Un camino posible, tal como lo muestran los capítulos de este libro, es no desintegrarse de manera esquizofrénica en el intento. En este sentido, un desafío particular de los investigadores que han recorrido experiencias de activismo en América Latina radica en las formas de construir canales de diálogo con las experiencias investigativas desarrolladas en los espacios académicos. Esto implica jugar desde las reglas de la inferencia científica y, como tal, hacerlo públicamente (por escrito, en sucesivas defensas públicas y publicaciones), argumentando con todo rigor por qué la investigación del problema planteado constituye un aporte concreto relevante y original con respecto a lo ya desarrollado en el campo académico en cuestión. Al mismo tiempo, resulta importante notar cómo el motor de lo vivido dirige la mirada hacia vacíos y diálogos —polémicos o confirmatorios— de la investigación existente que de otra manera probablemente no hubieran podido ser vistos como problemáticos. El tercer capítulo de este libro muestra cómo sobre un campo de investigación trillado, la violencia en Colombia, una investigadora logra construir un problema sumamente pertinente al preguntarse algo que no se hallaba presente en las investigaciones: cuáles son las visiones discursivas de los implicados en un problema de investigación abordado por la producción académica en cuestión.

Finalmente, es importante observar que la relación entre el diálogo reflexivo y el cuerpo de trabajos existentes en el campo ocurre con frecuencia en las diferentes vueltas del helicoide de la investigación. Los diversos capítulos de este libro dan muestra de ello. Es posible que en el trabajo de campo, al probar nuestras hipótesis, la información recabada nos interpele tanto desde el plano reflexivo (contrastando nuestras experiencias) como desde el plano de las principales tesis existentes, de manera que esta interpelación modifique el problema de investigación construido en una fase anterior. Por otra parte, es posible que la propia selección del caso sea tan problemática que, una y otra vez, a la luz de las investigaciones existentes, debamos mover y remover el problema del lugar dialógico de polémica y aportación que habíamos previsto.

Alcances sobre el uso de las hipótesis en las ciencias sociales[7]

¿Qué diferentes tipos de hipótesis podemos encontrar en la construcción de conocimiento y cuáles se presentan específicamente en la investigación en ciencias sociales? Podemos comenzar señalando que las ocurrencias son hipótesis que no tienen fundamento ni se someten a contraste; si bien emergen del conocimiento anterior y de la experiencia, no quedan plenamente justificadas ni son avaladas por los hechos. Considérese, por ejemplo, la conjetura de que la desigualdad social es un rasgo cultural de las sociedades de América Latina cuyo origen se hunde en las sociedades prehispánicas. Esta conjetura podría desatar un programa de investigación, pero, por ahora, sólo tenemos elementos difusos para dar cuenta de los procesos sociales que han configurado la elevada y persistente desigualdad que caracteriza a nuestros países, y tampoco disponemos de la información que muestre que ha sido así en toda época y lugar.

Las conjeturas también pueden asumir la forma de hipótesis empíricas aisladas, es decir, sustentadas únicamente en hechos, careciendo de fundamentación teórica. Este tipo de hipótesis se formulan con bastante frecuencia en la vida cotidiana. Por ejemplo, si el autobús tarda generamos hipótesis que, muy a menudo, derivan del conocimiento disponible: i) los autobuses de esta línea son muy viejos y se descomponen con frecuencia, ii) en el periódico de ayer se reportaron tomas de calles en la ruta, iii) a estas horas los embotellamientos suelen provocar demoras, iv) no es poco frecuente que ocurran accidentes de tránsito, etcétera.

Si bien las ocurrencias y las hipótesis empíricas se encuentran expresadas correctamente (están bien formadas sintáctica y semánticamente), se diferencian entre sí en que las segundas recurren a un fondo de conocimiento claramente identificable desde el cual se pueden derivar explicaciones.[8] Además, las hipótesis empíricas son conjeturas aisladas que se basan en los hechos de los cuales dan cuenta y, como se ha señalado, carecen de fundamentación teórica. Las correlaciones estadísticas juegan un papel importante en este tipo de hipótesis; como se sabe, las asociaciones estables entre variables se encuentran ampliamente diseminadas no sólo en las ciencias sociales sino en la ciencia en general.

Ahora bien, el abanico de hipótesis no se agota con las ocurrencias y las hipótesis empíricas, también suelen formularse otras plausibles cuya diferencia radica en que derivan de un cuerpo de conocimiento que aún no ha sido sometido al contraste de la experiencia. Hay que indicar que las hipótesis plausibles suelen señalar los derroteros a seguir para convalidarlas. Por ejemplo, la hipótesis que sostiene que las propensiones son regularidades en las probabilidades asociadas a situaciones (Popper, 1996) ha llevado a una serie de trabajos para identificar empíricamente las situaciones y analizar la estabilidad en las probabilidades a lo largo del tiempo. Rubalcava y Ordaz (2012), al estudiar los municipios en que habitan elevadas proporciones de población indígena en México, encuentran que están localizados en zonas altamente marginadas, territorialmente aisladas y que se caracterizan por tener una tasa alta y estable de pobreza, rasgos que describen una situación que genera no sólo la propensión a concentrar población indígena, sino también propensiones a baja escolaridad, baja participación laboral y viviendas precarias. Si el cuerpo de conocimiento de que deriva la hipótesis plausible corresponde a alguna de las disciplinas científicas, entonces cabe calificarla como hipótesis científica.

La formulación de hipótesis no está circunscrita al campo de la ciencia. Han jugado un papel central en discusiones teológicas relativas a los más diversos temas, como la existencia del purgatorio o del infierno, hasta el sexo de los ángeles; así como largas discusiones filosóficas respecto a la forma como los seres humanos aprehendemos la realidad, concepto mismo que algunas corrientes ponen a debate. Para evitar equívocos, hay que señalar que en este texto la palabra hipótesis se usará en el sentido más restringido de hipótesis científica, limitada, en la mayoría de los casos, a las ciencias sociales.

Las hipótesis convalidadas son aquellas que están teóricamente bien fundadas y empíricamente bien sustentadas. Si una hipótesis forma parte de un sistema teórico general que le da soporte y, además, representa adecuadamente los observables “le honramos con el título de ley” (Bunge, 1979: 284). Las leyes son hipótesis que han superado la prueba de los observables y que pertenecen a sistemas teóricos de validez general. Si ningún nuevo razonamiento ni experiencia pudiera afectar a las hipótesis convalidadas entonces habría que clasificarlas entre las verdades de la lógica (Bunge, 1979: 284). Sin embargo, una rápida mirada sobre la historia de la ciencia permite concluir que toda ley, aun en las ciencias más consolidadas, está sujeta a las consecuencias de los avances conceptuales y empíricos, lo que permite concluir que la distancia entre una hipótesis convalidada y una ley remite a una cuestión de grado.

En síntesis, se pueden distinguir cuatro tipos de hipótesis: i) las ocurrencias, ii) las empíricas, iii) las plausibles, y iv) las convalidadas. Un requisito básico que cruza a estos cuatro tipos es que deben cumplir con la condición de estar bien formuladas, es decir, expresar las ideas de manera que faciliten la comunicación. Dejando de lado las ocurrencias, que parecen emerger de los estadios más simples del trabajo conceptual, desde la perspectiva de las ciencias sociales es conveniente analizar los vínculos posibles entre los tres tipos restantes de hipótesis: las empíricas, las plausibles y las convalidadas.

Las relaciones entre las hipótesis empíricas, teóricas y convalidadas

Es frecuente que en la vida cotidiana se hagan generalizaciones hipotéticas basadas en nuestras experiencias, y no sólo esperando el autobús. Al observar el comportamiento de quienes nos rodean hacemos hipótesis acerca de sus estados de ánimo o de salud. Leyendo el periódico se plantean relaciones, por ejemplo, entre la violencia civil cotidiana y la pobreza o la expansión del narcotráfico infiltrado en las estructuras políticas. Estas relaciones se basan en la forma en que se han organizado las experiencias y muchas veces son útiles al momento de tomar decisiones de la vida cotidiana, especialmente cuando hay que elegir entre varias opciones sin llevar a cabo una investigación propiamente dicha. Las hipótesis empíricas no se formulan en el vacío, suponen conocimiento y observación intencionada e informada.

El derrumbe del empirismo lógico inició con la imposibilidad de sustentar empíricamente la posibilidad de la observación neutral o, como también se denomina, objetiva (Ayer, 1965: 23-27). Así, después de la segunda guerra mundial, empezó a ganar terreno la idea de que toda observación está cargada de conocimiento. Esta idea fue discutida en el nivel filosófico por Russell Hanson (1989) y justificada teórica y empíricamente por la escuela ginebrina con Piaget (1981) a la cabeza.

Con el propósito de analizar los vínculos entre las hipótesis empíricas, las plausibles y las convalidadas como forma de avance del conocimiento, es conveniente distinguir entre las observaciones que realiza una persona que posee conocimiento validado, ya sea técnico especializado o científico, y una persona común. Nuestra experiencia nos permite diagnosticar si alguien “parece enfermo”, mientras que el médico, basado en su conocimiento, selecciona los síntomas del paciente a partir de una primera hipótesis que luego corrobora agregando otros síntomas que pertenecerían al síndrome en cuestión. La mirada del científico social, en contraste con la de quien no dispone de herramientas conceptuales para “mirar lo real”, queda claramente sustanciada en la reflexión que hace Marín (2007) al señalar que, a pesar de compartir la realidad que vivía Argentina en 1973 y 1974: “Realmente me resultaba difícil pensar las razones que a muchos les impedía ver y entender lo que estaba sucediendo. No alcanzaba aún a comprender cuáles eran los obstáculos que nos distanciaban acerca de lo que para mí era ya una realidad cotidiana posible de ser observada. En apariencia vivíamos la misma realidad pero no veíamos ni le atribuíamos el mismo carácter” (Marín, 2007: 44). Para un analista político, la represión policial de una marcha popular puede llevarle a concluir que se vive la amenaza de un aumento en el autoritarismo mientras, para el resto de la población no sea más que una acción gubernamental necesaria para mantener el orden social.

En aquellos casos en que las hipótesis empíricas se generan dentro de un campo disciplinario, pueden transformarse en hipótesis plausibles a través de “una creación libre de la mente humana” (Holton, 1985: 42), pasando a formar parte de una teoría. Sin embargo, su incorporación debe ser coherente con las restantes hipótesis que conforman esa teoría. En resumidas cuentas, la hipótesis empírica elevada al plano teórico debe tener sentido pleno, entendiendo por tal “el conjunto de proposiciones que implica o que la implican” —es decir, la unión de su ascendencia o descendencia lógica (Bunge, 2000: 88). Nótese que el proceso de dar contenido conceptual a una hipótesis empírica tiene lugar en un momento en que predomina la inferencia inductiva (creación libre del intelecto) y que, en un segundo momento, debe subordinarse a la deducción, que opera a través de las relaciones de implicación que garantizan la consistencia lógica de la teoría.

Un ejemplo más sobre la formulación de hipótesis empíricas y su conversión en hipótesis plausibles. El análisis de la relación entre el número y la escolaridad de los hijos que tiene una familia juega un papel destacado en la teoría del capital humano y ha sido uno de los soportes más importantes para diseñar y promover los programas de transferencias monetarias condicionadas. Sin embargo, en países no desarrollados, las políticas de planificación familiar, aunque logren su propósito central de disminuir el número de miembros de las familias (incluidas las familias pobres), no siempre se traducen en aumentos en la escolaridad de los hijos. Esta hipótesis empírica, que surge de la observación de los hechos o de la experimentación, se puede transformar en una hipótesis plausible incorporándola coherentemente a la teoría. Así, la teoría básica del capital humano requeriría tomar en cuenta el papel que juegan las instituciones en la descendencia y la existencia o no de un seguro de vejez proporcionado por el Estado y no por la familia; y la racionalidad de la decisión de los pobres enfrentados al uso de recursos escasos que les lleva a invertir en la educación de los hijos y no de las hijas, considerando las reglas culturales de reproducción doméstica y las formas de transmisión de los escasos activos de los hogares de una generación a otra (Banerjee y Duflo, 2011: 123-129).

Vale la pena insistir que, en la investigación científica, toda observación es intencionada e ilustrada. Intencionada porque selecciona o ve únicamente determinados “hechos”; ilustrada porque, al mismo tiempo, esos hechos son conceptualmente interpretados (Piaget y García, 1982: 23-24). En consecuencia, la consistencia lógica del enunciado empírico con las restantes proposiciones derivadas de la teoría tiene un papel central para que dicho enunciado sea admitido como un miembro más de esa teoría.

Las hipótesis empíricas incorporadas al sistema de enunciados que conforma la teoría se convierten en plausibles. Resta por examinar los modos en que se transforman en hipótesis convalidadas, es decir, identificar cuáles son las operaciones o las complejidades que aparecen al someterlas a la prueba de la experiencia.

Generalmente, las hipótesis mismas dan pie para diseñar las observaciones o los experimentos que permitirán su verificación o su contrastación. Sin embargo, en la medida en que las observaciones son enunciados relativos a los objetos —y se pueden comparar con las proposiciones teóricas porque son de la misma naturaleza— y no son las propiedades de los objetos mismos, se presenta una segunda discontinuidad[9] entre el plano de la experiencia y el de la teoría, la cual fue tratada magistralmente por Holton en su análisis de la obra de Albert Einstein:

Hay una segunda discontinuidad lógica que también interviene para “ser un error el permitir que la descripción teórica dependa directamente de aseveraciones empíricas” (Schlipp 674). Esto concierne a la relación de conceptos entre sí cuando se les emplea en conjunto para formar un esquema de axiomas —por ejemplo, algunas postuladas leyes de la naturaleza— (“proposiciones que expresan una relación entre conceptos primarios”). No sólo cada concepto individual sino todo “el sistema de conceptos es una creación del hombre lograda en un ‘libre juego’”. Su justificación se encuentra en el triunfo pragmático del esquema construido, cuando a la postre da una “medida de supervisión sobre la experiencia de los sentidos que podemos lograr con su ayuda”.

Una y otra vez Einstein vuelve a la doble discontinuidad, con frases como éstas: “No hay camino lógico a estas leyes elementales; sólo la intuición por encontrarse en contacto simpático con la experiencia” (Holton, 1985: 43).

Las dos discontinuidades se originan en la imposibilidad de tener “acceso directo” al objeto, tema ampliamente tratado por los empiristas lógicos (Carnap, 1932-1933; Neurath, 1932-1933). La primera discontinuidad se origina en el momento inductivo, al pasar de las hipótesis empíricas a las plausibles y, la segunda discontinuidad, en el pasaje de las hipótesis conceptuales a lo empírico (derivadas deductivamente en el cuerpo teórico) sin alcanzar a los hechos, por lo que no llegan al plano de la experiencia.

Sobre las pruebas de hipótesis

En las ciencias sociales, la segunda discontinuidad —es decir el salto del plano conceptual al empírico— se efectúa de tres maneras, no necesariamente alternativas: i) hipótesis estadística, ii) inferencia de proposiciones empíricas a partir de enunciados teóricos, y iii) validación de campo.

En las disciplinas que concitan el interés de estas páginas es poco frecuente que las hipótesis teóricas sean directamente observables. En la medida en que deban ser sometidas a contraste es necesario realizar una serie de operaciones para ligarlas a las proposiciones empíricas.[10] En general, a partir de una hipótesis teórica suelen derivarse un gran número de hipótesis empíricas —rara vez se genera sólo una, aunque es habitual que así aparezca en los artículos o libros en que se comunican los resultados de las investigaciones—. La multiplicidad de hipótesis empíricas susceptibles de ser derivadas de una misma hipótesis teórica hace cuestionable, desde el punto de vista lógico, aceptar que la adecuación de la experiencia a las hipótesis empíricas sea condición necesaria y suficiente para convalidarla. A menos que se pueda sostener válidamente que se han sometido a prueba todas las consecuencias lógicas de un enunciado teórico, cabe la posibilidad de derivar una consecuencia —aún no observada— que sea contradictoria con los hechos. Esta es la razón que lleva a concluir que las hipótesis convalidadas no se aceptan sino que, únicamente, no se refutan.

Tómese como ejemplo el enunciado teórico según el cual se postula una relación entre el número de hijos de una familia y la formación de capital humano como medio para salir de la pobreza crónica. Para generar la o las correspondientes proposiciones empíricas habrá que definir, por lo menos con cierta claridad, qué se entenderá por hijo: ¿se limitará sólo a los que tenga la pareja?, ¿qué ocurre si hay más de una unión conyugal a lo largo del tiempo, si hay niños dependientes que no son hijos de ambos?, ¿los hijos a los que refiere la teoría son todos sin importar la edad o sólo los que están en edad escolar?, ¿qué ocurre con la definición de los hijos cuando culturalmente la familia se concibe en forma ampliada? Los caminos para responder estas preguntas deben apuntar, según la teoría del capital humano, al uso de los escasos recursos disponibles para la formación de dicho capital. Entonces, las posibles respuestas deben atender lo que se entenderá por tal. Desde el punto de vista del pensamiento económico, no es difícil concluir que el capital humano debe ser visto como un conjunto de conocimientos y habilidades cuyo uso en el mercado proporciona un rendimiento económico. Si se está de acuerdo con esta definición habría que establecer si los conocimientos y habilidades para el trabajo práctico se consiguen o no en las escuelas y la pregunta inmediata es: ¿en todas las escuelas, o hay escuelas en las cuales sí y otras en las que no? También cabe preguntarse si la relación entre los conocimientos, el desarrollo de las habilidades y la disciplina para el trabajo se acumulan continuamente, año con año, a lo largo del proceso educativo, o bien, el proceso es discontinuo en el sentido de que los logros en cada uno de los niveles —preescolar, básica, media superior y superior— se consolidan al final de cada ciclo. Además, cabe preguntarse si la educación formal es la única fuente de formación de capital humano: ¿aporta o no capital humano la experiencia laboral conseguida en el hogar, en las actividades rurales, en las artesanías, etcétera? Las respuestas a estas preguntas conducen a diferentes proposiciones empíricas. En unos casos, la hipótesis a validar tomaría la forma de una relación entre niveles educativos —por ejemplo, educación básica, media, y superior— y el número de hijos de la familia nuclear; en otros, una relación funcional continua entre años de instrucción formal en escuelas con reconocimiento del sistema educativo y el número de dependientes menores de dieciocho años de edad. Además, se podría agregar, al hacer un poco más compleja la noción de capital humano, la variable experiencia laboral, lo que llevaría a plantearse el problema de cuál es la mejor forma de medirla.

Además de la multiplicidad de proposiciones empíricas que se pueden derivar del correspondiente enunciado teórico, cualquier investigación debe hacer que los conceptos sean operativos, pero también hay que tomar en cuenta que en la operacionalización no sólo interviene cada concepto involucrado en una relación, sino que la relación misma contribuye a darle sentido. En el ejemplo del capital humano y el número de hijos de una familia, la naturaleza misma de la relación empleada en el argumento conduciría a limitar el concepto de hijo a todos aquellos que siendo o no descendientes directos de la pareja principal compiten por los recursos disponibles dedicados a la formación escolar de las nuevas generaciones, limitando dicho período según la edad de los hijos. La especificación de la clase de referencia no es sólo una cuestión demográfica o de definición de familia, sino del sentido y el significado que adquiere dicho concepto dentro de la teoría. En síntesis, el vínculo de los enunciados teóricos y las proposiciones empíricas no es trivial ni está totalmente determinado, se trata de un proceso inferencial y, por lo tanto, sujeto a error.

A pesar de que en las ciencias sociales es habitual que se reduzca la noción de hipótesis a la idea de hipótesis estadística, ésta es sólo una de las tres maneras que se suele emplear para conectar la teoría con la experiencia. Ahora bien, la estadística es una disciplina que trata de las regularidades producidas por el azar, ya sean generadas por la selección de los casos, o bien, como producto de una serie de pequeñas influencias independientes. En principio, se podría dar cuenta de una regularidad observada —que puede asumir la forma de un promedio, un porcentaje, una relación, un conjunto de relaciones— tanto por la proposición teórica sustantivada en un enunciado empírico como por la teoría estadística. De este modo, la estadística se erige en una teoría explicativa alternativa. Hay que recalcar que no siempre la estadística es una teoría rival, sólo cumple este papel si se han tomado muestras aleatorias o se ha introducido el azar en la conceptuación, ya sea por la incapacidad del ser humano para dar cuenta de todos los factores explicativos del fenómeno en estudio o por considerar que el fenómeno en sí es aleatorio (King, Keohane y Verba, 2000: 70-71).

Para ilustrar estas ideas supóngase que interesa analizar la relación entre educación de la madre y el número de hijos, y que no cabe la discusión respecto a qué se entiende por alto o bajo nivel educativo y muchos o pocos hijos. Con las variables observadas, por ejemplo, años de instrucción formal y cantidad de hijos, se puede construir una tabla de contingencia con cuatro casillas en que se registren las frecuencias de las observaciones. Supongamos que interesa someter a prueba la idea —cuyo sostén radica en la sociodemografía— de que el nivel educativo de la madre condiciona su nivel de fecundidad. Si las observaciones se han seleccionado al azar, hay que considerar la posibilidad de que las regularidades observadas se originen en los procesos aleatorios, es decir, que se deban a la operación del principio de regularidad estadística. Es posible calcular las frecuencias que se obtendrían en el caso de que las variables fuesen estadísticamente independientes y contrastarlas con las observadas para saber si la explicación estadística es o no plausible. En el caso de rechazar la hipótesis de independencia estadística, la hipótesis teórica gana en verosimilitud (Stinchcombe, 1987: 15-27). El mismo tipo de razonamiento aplica si se trata del estudio de relaciones funcionales como, por ejemplo, el efecto de los años de instrucción formal sobre el ingreso, en cuyo caso hay que evaluar si el estimador que mide la relación entre ambas variables es o no estadísticamente distinto de cero, caso en el cual no habría relación estadísticamente significativa y se podría sostener que el valor positivo que se observó se debe a fluctuaciones de azar.

La segunda manera de conceptuar la prueba de hipótesis —entendida como el modo particular de contrastar explicaciones alternativas a las regularidades empíricas— se basa en el conjunto de consecuencias que derivan del enunciado teórico en lugar de suponer que hay una teoría que explica las regularidades a partir del azar. La idea central de este procedimiento consiste en aportar evidencia que permita rechazar hipótesis alternativas. En tanto un enunciado teórico enfrenta más teorías rivales cuyas consecuencias empíricas son más diversas, si resultan rechazadas por la evidencia empírica el enunciado conceptual se vuelve cada vez más verosímil.

Tomando pie en la teoría del suicidio egoísta de Durkheim, Stinchcombe (1987: 16) deriva las siguientes proposiciones empíricas: los protestantes en Francia tendrán tasas de suicidio más altas que los católicos; en Alemania, las regiones protestantes tendrán tasas más altas de suicidio que las regiones católicas; en Francia, los hombres casados tendrán tasas de suicidio más bajas que los solteros y menor aún si tienen hijos; los profesionistas liberales con niveles altos de instrucción se suicidarán más que los obreros; en épocas de crisis en Francia las tasas de suicidio se abatirán. El siguiente paso es contrastar estos enunciados con la información empírica. Si, por ejemplo, resultara que la tasa de suicidio entre los protestantes es menor que entre los católicos entonces habría —en sentido estricto— que rechazar la teoría del suicidio egoísta. Ahora, del hecho de que la hipótesis sea consistente con los datos no se deriva inequívocamente que la teoría sea verdadera, ya que aún pueden existir otras explicaciones alternativas que no han sido examinadas como, por ejemplo, el papel de las ocupaciones o la función que desempeña el pecado en el protestantismo en contraste con la posibilidad de recurrir al confesor en la Iglesia Católica (Stinchcombe, 1987:18).

El tercer camino para examinar el papel de las pruebas de hipótesis en la investigación social se encuentra en el trabajo de campo.

During fieldwork, a cyclical pattern of research is taking place quite different from the linear pattern familiar in some kinds of research. We do not start with some ideas we wish to investigate, gather the data, analyze it and then write up. We start with some research questions and with some conceptual ideas, to be sure, and then we gather or absorb data, recorded in our field notes, or sometimes as visual images, which we constantly analyze and write up, leading to further research questions and developing conceptual framework. Of course, this conceptual framework as is develops is tested: and the literature is full of devices for doing this, of which searching for discrepant case and then analyzing it is one excellent example. In interpreting the ‘data’ the researcher constantly ask how good the evidence is for the inference which they are drawing. The data comes from what people say and feel, how they interact with others and what they do in different situations, and these data are constantly cross checked as fieldwork proceeds. As the researcher develops an understanding of what is going on, or an explanation for something, alternative understanding and explanations are considered, modified, incorporated or cast aside (Bechhofer y Paterson, 2000: 99-100).

Esta larga referencia da pie para una serie de consideraciones con respecto al trabajo de campo, sin embargo, en función de los intereses de esta introducción sólo se destacará que la estrategia de investigación reseñada en la cita trata tanto el pasaje de la experiencia al plano conceptual, como el salto desde este último al terreno empírico. En segundo lugar, hay que entender que a pesar de que la técnica de investigación empleada en estos casos no considera la aleatoriedad —y por lo tanto, no da cabida a emplear pruebas de hipótesis estadísticas—, sí se someten a prueba los desarrollos conceptuales contrastando la información con los enunciados conceptuales (casos discrepantes) que han emergido en el proceso de construcción. De la interacción entre las ideas y los datos que proporciona el trabajo de campo, el investigador modifica sus explicaciones, incorpora otras, o bien, las elimina en un diálogo constante, explícito o implícito, con teorías alternativas que compiten por dar cuenta de las observaciones.

En fin, las pruebas de hipótesis se ubican en la discontinuidad de la teoría a la experiencia, sin importar si su origen fue o no una proposición empírica, abstraída de los hechos empleando técnicas diversas, desde las propiamente estadísticas hasta las del trabajo de campo. En algún momento del proceso de investigación hay que enfrentar las explicaciones alternativas o las teorías rivales.

En síntesis:

i) El uso de las pruebas de hipótesis estadísticas se justifica en aquellos casos en que el azar es parte constitutiva de las observaciones. En estas situaciones, la estadística se vuelve una teoría alternativa en tanto los observables pueden presentar regularidades que se deben al azar. El contraste se limita a saber si el comportamiento de los observables es consistente con la explicación estadística o con la explicación sustantiva. El énfasis en esta perspectiva está puesto en la teoría estadística como teoría rival.

ii) El segundo camino consiste en derivar el máximo y más variado número posible de proposiciones empíricas a partir de un enunciado conceptual y someterlo a contraste con los enunciados de las teorías rivales. Esta vía deja abierta la posibilidad de establecer un número ilimitado de nuevas formulaciones conceptuales. En esta perspectiva no tiene cabida la estadística, pues el azar no tiene participación, y aquella deja de ser la teoría rival principal y se hace explícito el diálogo entre teorías que conducen a enunciados empíricos contradictorios. En la medida en que las proposiciones empíricas son consistentes con las observaciones, aumenta la verosimilitud de la teoría, pues en el mismo proceso son eliminadas las hipótesis conceptuales rivales que entrañan consecuencias contradictorias con las observaciones.

iii) El tercer camino para llevar a cabo pruebas de hipótesis puede entenderse como un caso particular del segundo en el que el contraste con las hipótesis alternativas se hace en el terreno y a lo largo del proceso de investigación.

En el campo de las pruebas de hipótesis suele predominar una idea ritualista: la prueba de hipótesis es el último acto del proceso de investigación. Esta imagen poco tiene que ver con dicho proceso puesto que, sea cual sea la aproximación (estadística o no), la prueba de hipótesis es el alma del avance de la investigación, avance impulsado por la dialéctica entre el desarrollo del pensamiento conceptual y el comportamiento del mundo.

Consideraciones sobre las hipótesis de la investigación: las hipótesis interpretativas

No debe sorprendernos que en el esquema 1 propuesto por Bunge para describir el ciclo de la investigación (Bunge, 1983: 26), el recuadro destinado a las hipótesis se localice fuera del cuerpo de conocimiento disponible —en el que incluye al Problema—, aunque se explicite su relación derivada de éste a través de una flecha continua. Sin duda, ello ilustra una de las ideas centrales del autor cuando reflexiona en torno a la ejecución de este diagrama durante el quehacer científico —sobre todo, en lo relativo a su constatación en torno a que los científicos más bien “adoptan una actitud de ensayo y error respecto de las reglas de la investigación” (Bunge, 1983: 29)—, lo que permitiría situar al planteamiento de las hipótesis, o conjeturas, como uno de los momentos más creativos e independientes de todos los procesos investigativos. En palabras del autor: “lo mejor es tener presente la que acaso sea la única regla de oro del trabajo científico: Audacia en el conjeturar, rigurosa prudencia en el someter a contrastación las conjeturas” (Bunge, 1983: 29, las cursivas son del original).

Sin duda, conjeturar supone una tensa y, no pocas veces, contradictoria relación entre el conocimiento socialmente construido y consensuado y las experiencias del mundo de la vida y las expectativas sobre el comportamiento de la naturaleza y la realidad social de los investigadores y las comunidades dedicadas a la observación social, biológica y natural. Así, las incongruencias referidas se constituyen en la principal fuente tanto de la construcción de los principales problemas de investigación, como de la configuración de sus probables respuestas también conocidas como hipótesis.

La creatividad, por lo tanto, es una de las capacidades centrales involucradas en el proceso de gestación y enunciación de las hipótesis de una investigación. También lo es la habilidad para congeniar, durante su elaboración, con las restricciones que le imponen la naturaleza del problema de investigación y el conocimiento previo —espíritu de época o ambiente intelectual, como le llama Bunge— en el que aquél se fundamenta; y con la identificación de las consecuencias observables que permitirán su contrastación o refiguración. Por todo esto, con frecuencia, la concepción de las hipótesis pareciera salir de una creatividad pura no sistematizable que se convierte en la “caja negra” de la investigación o se reduce a la exposición de un ejercicio lógico de relaciones entre variables.

En este sentido, vale la pena resaltar la siguiente reflexión de Bunge al respecto:

Las hipótesis, científicas o no, no nacen nunca en un vacío, ni se estiman nunca aisladas de la herencia intelectual general propia de la atmósfera intelectual de un ambiente o un período. Digámoslo de un modo ligeramente distinto: la invención, la investigación, la aceptación y la recusación de hipótesis no son más que un aspecto de la creación de la cultura. Consiguientemente, el no prestar atención más que a su forma lógica y a su apoyo empírico es revelar una visión muy miope de la cultura (Bunge, 1983: 281-282).

Las hipótesis, en tanto artefactos de creación cultural de la sociedad —y en particular de la comunidad científica—, pueden clasificarse en dos tipos según su finalidad: las que proponen alternativas de interpretación —“descripciones densas” (Geertz, 1992: 19-40)— sobre el comportamiento social, biológico o natural; y las que sugieren explicaciones sobre estos fenómenos.

De este modo, las hipótesis en torno a las preguntas descriptivas o interpretativas suelen presentarse como figuras, esbozos o tramas de los significados, comportamientos o situaciones a estudiar. Su verificabilidad consiste en remarcar las interpretaciones o configuraciones más convincentes, sin descartar del todo aquellas que resultan menos sustentables con los datos conocidos.[11] Esta forma de responder a la o las preguntas de la investigación supone, asimismo, una matriz de consecuencias observables singulares y marcadamente subjetivas, así como una estrategia de recolección-análisis de datos basada, al menos, en tres procedimientos principales: la observación de indicios y síntomas (Ginzburg; 1999: 138-175), la traducción o decodificación de signos, y el diálogo o lectura intertextual. Estas operaciones se reiteran hasta alcanzar la confianza suficiente tanto en la clasificación de los fenómenos estudiados como en la comprensión o interpretación de los mismos, lo que autoriza al investigador a reconfigurar, cuantas veces considere necesario, sus conjeturas iniciales.

Un excelente testimonio de este proceso, pocas veces explicitado por los investigadores sociales, es el comentario de W. F. Whyte sobre el proceso de su investigación:

Las ideas que tenemos en la investigación son nada más en parte un producto que sale al pesar con cuidado las evidencias. No pensamos por lo general los problemas siguiendo una línea recta. Tenemos a menudo la experiencia de estar sumergidos en una masa de datos confusos. Estudiamos los datos con cuidado ejerciendo sobre ellos todas nuestras facultades de análisis lógico. Encontramos una o dos ideas. Pero los datos no caen todavía en ningún patrón coherente. Entonces continuamos viviendo con los datos (y con la gente), hasta que tal vez una ocurrencia fortuita proyecta una luz completamente diferente sobre los datos y comenzamos a ver un patrón que no habíamos visto antes. Este patrón no es una pura creación artística. Una vez que creemos que lo vemos, debemos reexaminar nuestras notas y quizá lanzarnos a recopilar nuevos datos, para decidir si el patrón representa en forma adecuada la vida que estamos observando, o es nada más un producto de nuestra imaginación. La lógica desempeña entonces un papel importante (Whyte, 1971: 338).

En este punto, estamos en condiciones de dilucidar de manera más precisa —abriendo la “caja negra”— el tipo particular de movimiento que asumen las hipótesis en la investigación en ciencias sociales. Como mencionamos, la hipótesis funciona como el motor que permite recorrer el proceso del helicoide de la investigación. Sin embargo, dado que el ejercicio creativo es, en sí mismo, vertiginoso, si no contáramos con un peralte que contuviera este ejercicio, el mismo desbordaría la geometría helicoidal. ¿Cómo aprovechamos, a la vez que contenemos, la velocidad creativa de manera que no se salga de la dimensión de lo real? ¿Cómo logramos que dicha creatividad siga moviéndose dentro del juego de la inferencia científica? Aquí proponemos que el mecanismo de encauzamiento de la creatividad involucrada en la hechura de las hipótesis en la investigación científica es, precisamente, la permanente contrastación entre teoría y observables. Siguiendo con la metáfora espacial, de igual forma que si estuviéramos en un velódromo —con forma helicoidal—, podemos decir que las hipótesis funcionan como un motor que, aunque incierto, nos ayuda a movernos en cada vuelta del helicoide —esto es, nos permiten avanzar en la investigación—. Al mismo tiempo, la regulación de este movimiento y los cauces que asume, son controlados por la rigurosidad de la observación. En otras palabras, las hipótesis contribuyen a recorrer cada vuelta del helicoide, generando un equilibrio peculiar entre creatividad y control (Bechhofer y Paterson, 2000).[12] De esta forma, la investigación no termina siendo una contabilidad plana, sino un proceso cargado de creatividad vertiginosa contenida por la contrastación.

Consideraciones sobre el sesgo de selección

El tema de esta sección suele tener un contenido técnico denso, de modo que sus principales ideas habitualmente están envueltas en formulaciones estadísticas relativamente sofisticadas —modelos Tobit, Cragg, Heckman—.[13] Para los propósitos de esta introducción hemos considerado que sería una tarea inútil intentar sintetizar y exponer, brevemente, el tratamiento del sesgo de selección desde la perspectiva estadística. En lugar de ello optamos por presentar lo que consideramos las ideas básicas en torno a este tema, pero no en abstracto sino vinculadas al proceso de investigación.

Las investigaciones sociales que emplean información generada a partir de muestras aleatorias disponen de un arsenal conceptual proporcionado por la estadística que permite hacer inferencias válidas sobre la población desde la cual se obtuvo la muestra. Dichas muestras pueden provenir de fuentes oficiales, como por ejemplo, la Encuesta Nacional de Ingresos y Gastos de los Hogares (ENIGH) o la Encuesta Nacional de Ocupación y Empleo (ENOE), o bien, ser diseñadas específicamente para analizar un problema determinado (movilidad social, migraciones, consumo de drogas, etcétera).

Las muestras aleatorias se caracterizan, en lo esencial, porque el mecanismo de selección de las observaciones queda en manos del azar, lo que mirado desde otro punto de vista significa que las observaciones que formarán parte de la muestra son elegidas sin la intervención del ser humano, sea éste un estadístico experto en muestreo o un investigador. El supuesto es que la intervención del azar evita que se introduzcan sesgos explícitos o implícitos al seleccionar el conjunto de casos que se analizará; la aleatoriedad sería garantía suficiente de que las variables o indicadores dan cuenta de los fenómenos o procesos a los cuales refieren, así como de sus relaciones. Por ejemplo, en principio, el ingreso corriente total de la ENIGH sería un buen reflejo de su distribución en el país, no sólo en cuanto al ingreso con que contarían los hogares mexicanos sino también en cuanto al promedio y la desigualdad, así como también haría visible la relación del ingreso con la educación. Del mismo modo, la ENOE arroja información válida acerca de la situación del desempleo trimestre a trimestre y de su relación con los ingresos laborales.

En teoría, la selección aleatoria evita sesgos. Sin embargo, hay que considerar que en no pocas ocasiones las muestras suelen presentar variables con una significativa proporción de valores omitidos. Por ejemplo, la variable ingreso laboral en la ENOE registra alrededor de 20% de personas con ingreso nulo aunque son ocupados que debieran recibir un pago por su trabajo. A pesar del volumen de casos perdidos, la muestra podría reflejar adecuadamente los ingresos de la población laboral si se distribuyeran al azar. Si por el contrario, aquellas personas que no respondieron conforman una subpoblación particular, distinta a los que sí lo hicieron, entonces la población original se desdoblaría quedando conformada por dos distribuciones distintas: los que sí respondieron el ingreso devengado y los que no. Si la subpoblación que no proporcionó la información se rehusó a entregarla debido a un conjunto de características particulares —como, por ejemplo, habitantes urbanos con altos niveles educativos y de ingreso—, entonces la muestra deja de representar adecuadamente a toda la población y se limita a aquellos que accedieron a dar la información. Si este fuera el caso, la inferencia sobre el total de la población adolecerá de sesgo de selección y, a pesar de que la muestra se seleccionó siguiendo los cánones de la aleatoriedad, la inferencia sobre la población carecería de validez. De hecho, la muestra sólo permite inferencias válidas sobre una parte de la población, es decir, representa adecuadamente sólo a la población de los que respondieron la pregunta de ingreso.

En el análisis de datos de panel hay que enfrentar una situación similar provocada por la pérdida de casos a lo largo del tiempo, ya que los desertores suelen tener características distintas de los que permanecen en el estudio.

Una manera sintética de expresar la idea de que la no respuesta suele dividir a la población en dos partes distintas es la siguiente:

Whereas the implications of censoring were not well appreciated twenty years ago, they are much better understood today. In particular, social scientists have devoted substantial attention to the selection problem. This is the problem of identifying conditional probability distributions from random sample data in which the realization of the conditioning variables are observed but the realizations of the outcome are censored (Manski, 1995: 22).

En los términos de Manski, “outcome” sería el ingreso laboral y las variables condicionantes serían aquellas que tienen incidencia sobre la probabilidad de responder las preguntas del cuestionario.

No siempre es posible ni apropiado utilizar el muestreo probabilístico para obtener la información que se requiere para llevar adelante una investigación. Por un lado, muchas veces las restricciones presupuestarias y el tiempo disponible hacen imposible contar con tamaños de muestra grandes y, por otro, tomar muestras aleatorias cuando el número de casos es pequeño puede generar sesgos (King, Keohane y Verba, 2000: 136-138) como, por ejemplo, si al tomar una muestra al azar de regímenes políticos para estudiar la transición a la democracia no se incluyese a España o Chile.

De acuerdo con estas ideas, si el número de casos a considerar en el estudio necesariamente debe ser pequeño, entonces lo aconsejable, desde el punto de vista práctico y teórico, es que la selección sea intencional en lugar de aleatoria. Ahora bien, la pregunta que surge es ¿cómo seleccionar los casos? Por ejemplo, para estudiar la transición a la democracia: ¿qué países, además de Chile y España, se debería considerar en la muestra? Y para otros temas: ¿qué casos hay que seleccionar para el estudio del pasaje de los niños en situación de calle a la vida en sociedad? o ¿a quiénes seleccionar para hacer una indagación sobre las condicionantes del divorcio?

Dado que no es conveniente emplear el azar para elegir los casos —no olvidar que el azar garantiza que el criterio de selección no se relaciona con los fenómenos o los procesos, es decir, con las variables que los representan—, la atención se debe centrar en las relaciones que pudiesen existir entre los criterios de selección y las variables examinadas.

Una regla fundamental es que “la selección tiene que permitir que se produzca, al menos, alguna variación en la variable dependiente” (King, Keohane y Verba, 2000: 139). Ésta es una condición lógica elemental, ya que si se desea indagar sobre el cambio en una variable, ¿cómo hacerlo si la variable no cambia? Para satisfacer esta regla, por ejemplo, el análisis de las causales del divorcio podría remontarse al pasado de la pareja y al estudio del entorno de la ruptura, o bien, compararla con matrimonios equivalentes que aún permanecen unidos, pero no centrarse, única y exclusivamente, en la situación actual de los divorciados. Si sólo se analizaran niños en situación de calle que tuvieron éxito en incorporarse a la sociedad civil, la variable dependiente éxito no variaría y, por lo tanto, no se podrían identificar los factores que se asocian con el tránsito.

Seleccionar los casos en función de la variable dependiente aumenta el riesgo de introducir sesgo de selección. En efecto, en la medida que se incluyen casos cuya variable explicada se relaciona con el criterio de selección —por ejemplo, sólo niños que han pasado de situación de calle a incorporarse plenamente a la sociedad, o bien, únicamente parejas en proceso de divorcio—, se viola el supuesto de independencia condicional, ya que los valores que asumen las variables explicativas son función de los valores de la variable dependiente. La doble dependencia funcional de Y con respecto a X, por un lado, y de X con respecto a Y, por el otro, trae como consecuencia que la estimación del efecto de X sobre Y sea sesgada.[14] En los casos en que las observaciones provienen de una muestra aleatoria se dispone de varias formas relativamente estandarizadas de abordar el problema (Wooldridge, 2006: 532-533; Green, 2008: 357-361). Cuando las observaciones se han seleccionado intencionalmente, la solución consiste en ampliar el rango de observación de la variable dependiente (King, Keohane y Verba, 2000: 140).

Si se limita el rango de variación de la variable dependiente al seleccionar los casos, la relación entre las X y las Y se atenúa. En análisis cuantitativos se encontrará que la pendiente de la ecuación de regresión subestima el valor del parámetro poblacional y en el caso en que se empleen técnicas cualitativas sabremos que la verdadera relación entre las variables será mayor que la observada.

Sin embargo, el sesgo de selección no sólo surge de la no respuesta o de los criterios que emplea el investigador para elegir sus casos de estudio, sino que también lo pueden originar el mundo o la naturaleza. Para ilustrar esta idea considérese, a manera de ejemplo, un modelo que postula que no hay relación entre regímenes políticos y crecimiento económico y que las democracias tienen mayor probabilidad de morir ante condiciones económicas adversas. Transcurrido el tiempo, el cruce entre regímenes políticos y crecimiento económico mostrará que las democracias crecen más rápido que las dictaduras. Este resultado será producto del sesgo de selección, ya que se sabe que los regímenes políticos y el crecimiento económico no están asociados (Przeworski, Álvarez, Cheibub y Limongi, 2000: 8-9). La relación observada entre regímenes democráticos y bajas tasas de crecimiento puede deberse a que es más frecuente encontrar democracias en países ricos y éstos, a su vez, son los que sistemáticamente crecen con más lentitud. En este caso, el sesgo de selección se originaría en los vínculos que mantiene el ingreso per cápita tanto con el régimen político como con la tasa de crecimiento de los países.

Algo similar ocurre con el estudio de las culturas por medio del análisis de las esculturas. En algunas sociedades se esculpe la piedra y en otras la madera. Pasado el tiempo, la piedra sobrevive mientras la madera se pudre, pero el historiador de la cultura puede subestimar la calidad del arte de trabajar la madera porque la “historia” ha eliminado de forma selectiva unas esculturas y ha mantenido otras (King, Keohane y Verba, 2000: 146).

Como último ejemplo de sesgo de selección producido por el mundo supóngase que se quiere dar cuenta de los procesos que han originado los estados modernos. Alrededor del año 1500 había una gran variedad de unidades organizativas, pero hacia el año 1900 todas o casi todas eran Estados nación. En el lapso considerado, muchas unidades desaparecieron y, si se emprendiera un estudio retrospectivo, se haría evidente que los Estados actuales son sobrevivientes de una lucha en que la mayoría perdió: pasaron de ser, más o menos, quinientos, alrededor del 1500, a veinticinco, en 1900. Si se eligen los casos a partir del listado de países de 1900, es decir, en función de haber sobrevivido durante cuatrocientos años, la selección se haría a partir de la variable dependiente y, por lo tanto, los resultados de la investigación estarían sesgados (King, Keohane y Verba, 2000: 147).

A lo largo de esta breve sección hemos visto que el sesgo de selección puede surgir: i) en muestras aleatorias cuando hay una proporción significativa de valores perdidos —bajo el supuesto de que no se distribuyen al azar— y ii) en la elección intencional de observaciones cuando los criterios de selección se relacionan con la variable dependiente. Los últimos ejemplos muestran que también puede surgir por sesgos producidos por el mundo. Las dos primeras fuentes de este sesgo se pueden evitar con relativa facilidad pues la solución está en manos del investigador.

Para finalizar, vale la pena tomar consciencia de que el mundo que nos rodea no se genera aleatoriamente, sino que es el resultado de gente cuyas acciones persiguen objetivos. Se nutre de los éxitos y elimina las fallas, estos procesos son sistemáticos y así son sus efectos (Przeworski, Álvarez, Cheibub y Limongi, 2000: 9).

Acerca de la operacionalización

La construcción teórica en las ciencias factuales —entre las cuales se encuentran las ciencias sociales—, a diferencia de las ciencias formales —lógica y matemáticas—, debe “someterse a instancias exteriores que exigen un trabajo de adaptación aún mucho mayor (y psicológicamente más costoso)” (Piaget, 1982: 64). En las ciencias formales, donde impera la deducción y la construcción libre de la inteligencia, se agrega la restricción de poner en correspondencia con el plano de la experiencia las teorías y los conceptos. En nuestro ámbito disciplinario al proceso de hacer observables los conceptos teóricos suele denominársele operacionalización y fue sistematizado por Paul Lazarsfeld (1974).

En este mismo tenor Albert Einstein, en sus reflexiones metodológicas acerca de la física, ciencia también factual, se planteaba como problema examinar el vínculo entre la teoría —es decir, entre los conceptos teóricos, las proposiciones que los vinculan y sus relaciones— y la experiencia. Y, en este sentido, afirmaba que el objetivo último de la ciencia “es el intento de hacer que la diversidad caótica de nuestra experiencia corresponda al sistema lógicamente (unificado) del pensamiento” (Holton, 1985: 39).

Suele discutirse si los conceptos devienen de la experiencia o si se originan y se reproducen en el pensamiento. Esta discusión pierde sentido si se toma como punto de partida que toda observación está cargada de teoría, que la construcción teórica en ciencias sociales, a diferencia de la filosofía social, deviene de la investigación y que el proceso que sigue esta última no es lineal, sino helicoidal, cuyos movimientos en ocasiones se acercan más al plano de la experiencia y, en otras, al de la teoría y, por lo tanto, los conceptos y proposiciones a veces parecen originarse en la teoría y otras en las operaciones relacionadas con la sistematización de la experiencia, como son la observación, la experimentación y la medición.

Ahora bien, Lazarsfeld plantea que para operacionalizar un concepto es necesario: i) realizar la descripción literaria precisa del concepto en cuestión, ii) identificar sus dimensiones y subdimensiones, iii) proceder a identificar los indicadores apropiados, y iv) resumir los indicadores en índices sintéticos.

Sin embargo, para que un concepto tenga significado —en otros términos: que esté bien construido; o, en la terminología de Lazarsfeld, que sea preciso—, se requiere que tenga una clase de referencia y un sentido, entendiendo éste como “lo que dice respecto de su referente o referentes” (Bunge, 1999: 87). Y sólo tiene pleno sentido por las proposiciones de que forma parte, así como por los enunciados que lo implican —su ascendencia lógica— y por los que implica —descendencia lógica—. El significado de una proposición proviene de su clase de referencia y de su sentido (Bunge, 1999: 87-88).

La teoría de la significación de Bunge enriquece el modelo de Lazarsfeld en tanto deja claro que, para hacer una buena descripción literaria del concepto, hay que considerar la teoría en que se inserta. Conceptos aislados, tales como exclusión social, vulnerabilidad, marginalidad, actividades informales, no tienen significado en sí mismos —que, como sabemos, depende de la clase de referencia y el sentido—, sino que lo adquieren en el entramado teórico. Por ejemplo, la clase social en Weber y en Marx es un concepto pleno de significado, pero difiere tanto por la clase de referencia como por el sentido, considerando que este último proviene, en cada caso, de los cuerpos teóricos en que están incluidos.

Por otra parte, hay que consignar que, tal vez la idea más difundida de medición, aun en el campo de las ciencias sociales, es aquella que la concibe como “la asignación de números a los objetos o eventos de acuerdo a reglas” (Stevens, 1951: 22). Esta definición parece ser adecuada para las ciencias naturales, pero en las ciencias sociales no se trabaja con objetos —cosas que se pueden ver y tocar— o con eventos —resultados, consecuencias— (Carmines y Zeller, 1979: 9-10), sino con conceptos abstractos, tales como desigualdad social, representación política, exclusión social, marginación.

Una noción más apropiada de medición para el trabajo de investigación que se realiza en las ciencias sociales, es aquella que la concibe como el puente que permite hacer observables conceptos inobservables (Blalock, 1968: 12). Esta definición convierte en sinónimos a la medición y la operacionalización; ambos conceptos se mimetizan. Además, la medición así concebida estará presente en toda investigación sea cualitativa o cuantitativa porque, independientemente del enfoque conceptual, los métodos empleados o las técnicas utilizadas, cualquier investigación entraña el proceso de hacer observables conceptos inobservables

La medición u operacionalización supone una relación hipotética —que en la década de 1920 se denominó correlación epistémica— entre el concepto inobservable y los observables. En nuestras disciplinas, los conceptos observables se denominan indicadores y, sobre la base de ellos, suelen originarse medidas resumen denominadas índices. Los índices y los indicadores, según sea el caso, serían las medidas del concepto. La relación hipotética involucrada en el proceso de medición debe fundamentarse teóricamente y confirmarse de algún modo; si fuese posible debería contrastarse de manera independiente (Bunge, 1979: 737-740).

En el caso en que la correlación epistémica sea nula, es decir, que no haya un vínculo bien establecido entre los indicadores y los conceptos inobservables, los hallazgos empíricos no podrían trascender al plano teórico. En este caso, las regularidades que exhiban los indicadores, las relaciones que se establezcan entre los índices y las estructuras que se develen en los datos, no tendrán representación en el plano teórico porque no se dispondrá de las relaciones entre inobservables y observables que permitan el tránsito de un plano al otro. Por ejemplo, si interesa someter al rigor de los “hechos” la hipótesis de que el desarrollo económico conlleva a la convergencia del bienestar en el territorio —bajo el supuesto de que es una consecuencia que se deriva de una teoría suficientemente validada—, habría que contar con una buena medida de desarrollo económico —como el producto interno bruto corregido por la desigualdad en la distribución del ingreso o el Índice de Desarrollo Humano elaborado por el Programa de Naciones Unidas para el Desarrollo (PNUD)­— y con otra medición que haga observable la convergencia territorial. Justamente con este propósito se diseñó en México el índice de marginación, que resulta de una combinación lineal de nueve variables que miden carencias en las unidades político-administrativas del país (Conapo/Progresa, 1998: 17). A pesar de que la medición se realiza sobre unidades territoriales, indirectamente permite formarse una idea de algunos aspectos que definen las condiciones de vida de la población que las habita. Si el índice de marginación no fuera una buena medición de las carencias territoriales y, por lo tanto, de la distribución del bienestar sobre el territorio, los resultados arrojados por el índice no serían informativos de lo ocurrido con la convergencia territorial.

La teoría de la medición ha desarrollado los conceptos confiabilidad y validez para dar sustento a la correlación epistémica y, a su vez, ha propuesto varias alternativas para medirlos. El supuesto central en que se basa esta teoría es que las mediciones son realizadas por seres humanos y, por lo tanto, son falibles; así como que se obtienen mediante instrumentos —cuestionarios, entrevistas abiertas, observación, observación participante, etcétera— que distan de tener la precisión con que se trabaja en algunas áreas de las ciencias naturales, por lo que toda medición contendrá un componente de error que se incluye explícitamente.

Para comprender el concepto de confiabilidad supongamos que se aplica varias veces el mismo procedimiento de medición: si el resultado es siempre idéntico, entonces el instrumento es confiable. En teoría, este resultado es idéntico debido a que cualquier medición tiene un componente de error y, en consecuencia, no siempre será igual, aunque nos daremos por satisfechos si es parecido, similar o, dicho en lenguaje estadístico, si la variabilidad de las medidas es pequeña. En estricto sentido, las mediciones siempre serán no confiables en términos absolutos, lo que hay que determinar es el grado de confiabilidad del procedimiento de medición. En síntesis: “la confiabilidad es la tendencia a la consistencia en repetidas mediciones de un fenómeno” (Carmines y Zeller, 1979: 12).

Por su parte, el concepto de validez se refiere a que se mida, efectivamente, lo que se pretende medir. Es decir, que el indicador, la variable o el registro empírico dé cuenta o se relacione con el concepto que no es directamente observable. La validez, así como la confiabilidad, también es una cuestión de grado.

Para juzgar la calidad de la medición deben considerarse ambos conceptos como en tándem. De hecho, una medida como el índice de marginación podría ser confiable, es decir, consistente, pero inválida en la medida que no dé cuenta de la convergencia territorial —a pesar de eso, podría ser una buena medida de la distribución de las carencias de servicios básicos en el territorio, los cuales son parte del bienestar aunque no lo agotan—, o bien, podría ser válida, pero presentar una gran variabilidad en aplicaciones repetidas, es decir, ser poco confiable.

La bibliografía sobre el tema de la medición desarrolla tres aproximaciones básicas para evaluar la validez de la medición: i) validez criterio relacionada, ii) validez de contenido, y iii) validez constructo. No es éste el lugar para profundizar en este tema, sin embargo, es imperativo precisar el concepto validez constructo, debido a su importancia en las ciencias sociales. La validez constructo se define por la relación de una medida particular con otras medidas de acuerdo con hipótesis que involucran los conceptos que se están midiendo (Campbell y Russo, 2001). Por ejemplo, si se plantea la hipótesis de que los apoyos económicos del gobierno federal fluyen en función de las carencias de bienestar de los municipios, entonces se debería observar una alta correlación entre el índice de marginación y la proporción del presupuesto asignado a cada municipio. Asimismo, si se sostiene que hay una fuerte relación entre la marginación y la pobreza, entonces la correlación entre el índice de marginación y las mediciones de pobreza deben presentar una correlación alta. La medición de la validez constructo supone tres pasos: i) especificar la relación entre los conceptos, ii) establecer la relación entre las mediciones de los conceptos, e iii) interpretar la evidencia en términos de la validez constructo (Carmines y Zeller, 1979: 23).

Los métodos básicos para medir la confiabilidad son i) repetición del test (retest), ii) formas alternativas, y iii) consistencia interna. Dichos métodos derivan de la teoría clásica de la medición (Carmines y Zeller, 1979: 29-35) y deben verse como formas alternativas para calcular la confiabilidad de la medición empleando para ello la correlación entre medidas paralelas. Es necesario, dada su popularidad, hacer una mención especial al coeficiente de Cronbach —uno de los coeficientes que surgen del método de consistencia interna—, pues es el límite inferior de la confiabilidad de una escala formada por N ítems y es igual a la confiabilidad si los ítems son paralelos.

Por último, hay que señalar los puentes entre los conceptos acuñados en el dominio de la teoría de la medición y algunos de los que se emplean para propósitos similares en la investigación cualitativa.

En la investigación cualitativa se aplican sucesivas entrevistas a cada informante hasta el punto en que la entrevista se satura.[15] Esto quiere decir: hasta que las respuestas, por lo menos en los temas centrales de la investigación, ya no presentan variaciones significativas. Puesto en el lenguaje de la teoría de la medición, las entrevistas se realizan hasta que los errores de medición se hacen aceptablemente pequeños o, dicho de otra manera, hasta que la confiabilidad alcanza un umbral satisfactorio para el investigador. La diferencia esencial entre uno y otro enfoque es que, en la investigación cualitativa el principio de saturación busca minimizar el error de medición en cada entrevista; mientras el enfoque cuantitativo intenta hacerlo para el conjunto. Es claro que si se minimiza el error en cada informante también se alcanzará el mínimo para el conjunto. La diferencia está en que los métodos cuantitativos aplican un gran número de entrevistas con errores que pueden llegar a ser abultados, pero al calcular la medida para el grupo, los errores, si son aleatorios, tenderán a cancelarse y se lograrán medidas confiables para los agregados, medidas que, además, se pueden cuantificar.

La triangulación es el procedimiento que se emplea en la investigación cualitativa para garantizar la validez de la medida. En cuanto a estructura lógica, la relación con la validez constructo es evidente. Ambos métodos usan uno o más testigos para confrontar si se está midiendo o no lo que se pretende medir.

En este libro se exponen los esfuerzos que hicieron los investigadores para lograr mediciones válidas y confiables. No necesariamente utilizaron esta terminología para comunicar las operaciones que realizaron durante su investigación con la finalidad de conectar sus esquemas conceptuales con el plano de la experiencia o, dicho de otro modo, con su material empírico.

Bibliografía

Ayer, A.J. (comp.) (1965). El positivismo lógico, México, Fondo de Cultura Económica.

Banerjee, Abhijit y Esther Duflo (2011). Poor Economics: A Radical Rethinking of the Way to Fight Global Poverty, Nueva York, Public Affairs.

Bechhofer y Paterson (2000). Principles of Research Design in the Social Sciences. Fundamentals, Comparison and Control, Londres, Routledge.

Bertaux, Daniel (1989). Historia y fuente oral, núm. 1, Barcelona, pp. 87-96.

Blalock, Hubert (1968). “The Measurement Problem”, en Blalock Hubert y Ann Blalock (eds.), Methodology in Social Research, Nueva York, McGraw-Hill.

Bourdieu, Pierre y Luc Wacquant (1992). An Invitation to Reflexive Sociology, Chicago, The University of Chicago Press.

Breen, Richard (1996). Regression Models: Censored, Sample Selected or Truncated Data, California, Sage University Paper núm. 111.

Bunge, Mario (1999). Buscar la filosofía en las ciencias sociales, México, Siglo XXI.

Bunge, Mario (1983). La investigación científica: su estrategia y su método, Barcelona/Caracas/México, Ariel.

Bunge, Mario (1979). La investigación científica: su estrategia y su método, Barcelona/Caracas/México, Ariel.

Campbell, Donald y Jean Russo (2001). Social Measurement, California, Sage Publications.

Carmines, Edward y Richard Zeller (1979). Reliability and Validity Assessment, Beverly Hills/Londres, Sage Publications (Sage University).

Carnap, Rudolf (1932-33). “Psicología en lenguaje fisicalista”, en A.J. Ayer (comp.), El positivismo lógico, México, Fondo de Cultura Económica.

Chayanov, Alexander (1974). La organización de la unidad económica campesina, Buenos Aires, Nueva Visión.

Consejo Nacional de Población y Programa de Educación, Salud y Alimentación (CONAPO y PROGRESA) (1998). Índices de marginación, 1995, México, CONAPO.

Cortés, Fernando (2008). “Selección no aleatoria y validez: a propósito de la evaluación cualitativa de Oportunidades”, en Fernando Cortés, Agustín Escobar y Mercedes González de la Rocha (coords.), Método científico y política social: a propósito de las evaluaciones cualitativas de programas sociales, México, El Colegio de México.

Cortés, Fernando y Rosa María Rubalcava (1987). Métodos estadísticos aplicados a la investigación en ciencias sociales: análisis de asociación, México, El Colegio de México.

Cuéllar, Óscar (1990). “Balance, reproducción y oferta de fuerza de trabajo familiar. Notas sobre las estrategias de vida”, en Fernando Cortés y Óscar Cuéllar (coords.), Crisis y reproducción social: los comerciantes del sector informal, México, Flacso México/Miguel Ángel Porrrúa.

García, Rolando (2000). El conocimiento en construcción: de las formulaciones de Jean Piaget a la teoría de sistemas complejos, Gedisa, Barcelona.

García, Rolando (1997). “Piaget y el problema del conocimiento”, en Rolando García (coord.), La epistemología genética y la ciencia contemporánea: homenaje a Jean Piaget en su centenario, Barcelona, Gedisa.

Geertz, Clifford (1992). La interpretación de las culturas, Barcelona, Gedisa.

Ginzburg, Carlo (1999). “Indicios. Raíces de un paradigma de inferencias indiciales”, en Carlo Ginzburg, Mitos, emblemas, indicios. Morfología e historia, Barcelona, Gedisa, pp. 138-175.

González de la Rocha, Mercedes (1986). Los recursos de la pobreza: familias de bajos ingresos en Guadalajara, Guadalajara, El Colegio de Jalisco/CIESAS/SPP.

Greene, William (2008). Econometric Analysis, Nueva Jersey, Prentice Hall.

Greenfield, Tony (1996). Research Methods: Guidance for Postgraduates, Londres, John Wiley.

Hanson, Norwood Russell (1989). “Observación”, en León Olivé y Ana Rosa Pérez Ransanz (comps.), Filosofía de la ciencia: teoría y observación, México, Siglo XXI/UNAM.

Hildebrand, David, James Laing y Howard Rosenthal (1977). Analysis of Ordinal Data, Beverly Hills/Londres, Sage Publications (Sage University Papers, núm. 8).

Holton, Gerald (1985). “La construcción de una teoría: el modelo de Einstein”, en La imaginación científica, México, Fondo de Cultura Económica/Conacyt, pp. 36-63.

King, Gary, Robert O. Keoane y Sidney Verba (2000). El diseño de la investigación social. La inferencia científica en los estudios cualitativos, Madrid, Alianza Editorial.

Krathwohl, David (1997). Methods on Educational and Social Science Research, Nueva York, Longman.

Lazarsfeld, Paul (1974). “De los conceptos a los índices empíricos”, en Raymond Boudon y Paul Lazarsfeld, Metodología de las ciencias sociales I, Barcelona, Laia.

Manski, Charles (1995). Identification Problems in the Social Sciences, Cambridge, Harvard University Press.

Marín, Juan Carlos (2007). Los hechos armados: Argentina 1973-1976, Buenos Aires, La Rosa Blindada/PI.CA.SO.

Neurath, Otto (1932-33). “Proposiciones protocolares”, en A.J. Ayer (comp.), El positivismo lógico, México, Fondo de Cultura Económica, pp. 205-214.

Piaget, Jean (1982). “La situación de las ciencias del hombre dentro del sistema de las ciencias”, en Jean Piaget, Paul Lazarsfeld, W.J.M Mackenzie et al., Tendencias de la investigación en las ciencias sociales, Madrid, Alianza/Unesco.

Piaget, Jean (1981). “El mito del origen sensorial del conocimiento”, en Psicología y Epistemología, México, Ariel.

Piaget, Jean y Rolando García (1982). Psicogénesis e historia de la ciencia, México, Siglo XXI.

Popper, Karl (1996). Un mundo de propensiones, Madrid, Tecnos.

Popper, Karl (1962). La lógica de la investigación científica, Madrid, Tecnos.

Prigogine, Ilya e Isabelle Stengers (1983). La nueva alianza: metamorfosis de la ciencia, Madrid, Alianza Editorial.

Przeworski, Adam, Michael Álvarez, José Antonio Cheibub y Fernando Limongi (2000). Democracy and Development: Policy Institutions and Well Being in the World, 1950-1990, Cambridge, Cambridge University Press.

Rubalcava, Rosa María y Juan Carlos Ordaz (2012). Desigualdad intrarregional: las propensiones como indicio de desigualdad social crónica, (en prensa).

Schlipp, Paul (ed.) (1949). Albert Einstein: Philosopher-Scientist, Illinois, Evanston.

Skocpol, Theda (1992). Protecting Soldiers and Mothers: The Political Origins of Social Policy in the United States, Cambridge, Press of Harvard University Press.

Stevens, S.S. (1951). “Mathematics, Measurement and Psychophysics”, Handbook of Experimental Psychology, Nueva York, John Wiley.

Stinchcombe, Arthur (1987). Constructing Social Theories, Chicago, The University of Chicago Press.

Whyte, W.F. (1971). “Sobre la evolución de la ‘Sociedad de las esquinas’”, en La sociedad de las esquinas, México, Diana, pp. 337-423.

Wooldridge, Jeffrey (2006). Introductory Econometric: A Modern Approach, Mason, Thomson.

Yaschine, Iliana (2011). ¿Oportunidades?: Movilidad social e impacto, tesis de doctorado en Ciencia Social con especialidad en Sociología, México, Centro de Estudios Sociológicos, El Colegio de México.

[*] Doctor en Investigación en Ciencias Sociales con especialidad en Ciencia Política por la Flacso México de donde es actual profesor-investigador. Pertenece al Sistema Nacional de Investigadores (SNI), nivel I.

[**] Doctor en Ciencias Sociales con especialidad en Antropología Social por la Universidad de Chile. Es actual profesor-investigador del Centro de Estudios Sociológicos de El Colegio de México.

[***] Doctora en Historia por la Universidad Iberoamericana y actual profesora-investigadora en la Flacso México.

[****] Doctora en Ciencias Sociales con especialidad en Ciencia Política por la Flacso México de donde es profesora-investigadora. Pertenece al Sistema Nacional de Investigadores (SNI), nivel II.

[1] Nótese que se conjuga el verbo poder en el pospretérito del modo indicativo (podría) con la intención de destacar que el autor no concibió el proceso de investigación de manera lineal, sino que dicha concepción ha sido sugerida, con posterioridad, a partir de las diversas interpretaciones del esquema propuesto y, en particular, de su aplicación desde la lógica de la exposición de los resultados de la investigación.

[2] Asumimos aquí la conocida definición de Ilya Prigogine e Isabelle Stengers (1983) acerca de que la investigación científica constituye un diálogo público con la naturaleza basado en la observación y la contrastación, a diferencia de otros tipos de diálogos como los desarrollados en el mito y la religión, en los cuales, la interpelación se hace sobre la base de fundamentos superiores no contrastables.

[3] La cuestión de la reflexividad en la investigación social se ha desarrollado profusamente, véase principalmente el clásico texto de Bourdieu y Wacquant (1992).

[4] Nos referimos a la excelente y ya clásica obra de Theda Skocpol (1992), Protecting Soldiers and Mothers. The Political Origins of Social Policy in the United States, en donde aborda el ejemplo mencionado para el caso estadounidense.

[5] Se utiliza aquí un ejemplo del planteo de problema de tesis de Nicole Droguet, construido en el seminario de tesis “Políticas Públicas y Democracia”, Flacso México.

[6] Nótese que consideramos pertinente mencionar que el trasfondo de construcción de un problema se desarrolla al notar la existencia de una paradoja o contradicción: algo que no cierra, algo a lo que le falta algo, y sobre lo que, por lo tanto, se erige una curiosidad o intriga sobre la cual vale la pena realizar una aportación. La misma existencia de un vacío en la bibliografía en referencia a un fenómeno relevante es un hecho paradójico o contradictorio. La existencia de esta contradicción hace que el problema sea interesante y pertinente.

[7] Para el desarrollo de esta sección se utilizaron ampliamente los planteamientos de Mario Bunge (1979: 280-287).

[8] No es éste el lugar para tratar con detenimiento el concepto de explicación, sin embargo, vale la pena destacar que uno de los rasgos básicos de la explicación es que requiere la identificación genética o mecanismo que hace posible que los antecedentes produzcan el consecuente (Cortés et al., 2008: 98-110).

[9] La primera refiere al pasaje del plano de la experiencia al de la teoría; más adelante se profundiza en ella.

[10] Estas operaciones corresponden al campo de la medición en ciencias sociales que ha subsumido la operacionalización.

[11] La sustentabilidad se refiere a la distinción entre los elementos sistemáticos y no sistemáticos de la descripción (King, Keohane y Verba, 2000).

[12] De manera similar a lo aquí expresado, Bechhofer y Paterson argumentan que todo proyecto de investigación sólido busca equilibrar los componentes de la comparación y el control. La comparación es un “aspecto fundamental de la cognición” por medio del cual aquello que seleccionamos como observable, implícita o explícitamente, se compara con “algo más”. En el proceso de investigación se trata de hacer ese “algo más” lo más explícito posible. El proceso de investigación es un proceso dialógico pletórico de decisiones sobre las cuales deben explicitarse los criterios de selección. En otras palabras, es fundamental que el investigador explicite los criterios, basados en teoría (grounded theory), que sustentan la elección de situaciones contrastantes en las que se espera observar la extensión y posibilidades de dicha teoría (Bechhofer y Paterson, 2000: 6-9). Por otra parte, la construcción de un proyecto requiere dar confianza sobre la solidez de las inferencias que se desprenderán de los datos obtenidos. Para ello, debemos tener en cuenta explicaciones alternativas. El control trata sobre cómo manipular el diseño de investigación de manera que aumenten las posibilidades de estar seguros sobre las conclusiones que desprenderemos.

[13] Un tratamiento sistemático y sintético sobre este tema se encuentra en Breen (1996).

[14] Esto se debe a la presencia de endogeneidad. El tratamiento sistemático y preciso de este tema supera con mucho los límites de esta breve sección.

[15] En este texto el término saturación se limita a la medición, sin embargo, en la parte analítica de la investigación cualitativa se utiliza en la forma de un primer nivel de saturación para referirse a las regularidades sociales —como normas, obligaciones sociales, rol a desempeñar, procesos, el efecto de una relación estructural— que emergen en la repetición de las observaciones. La forma estabilizada de la saturación se logra encontrando casos negativos que pongan en contradicción el modelo explicativo (Bertaux, 1989).

El helicoide de la investigación: metodología en tesis de ciencias sociales

Подняться наверх