Читать книгу Epistemología y Psicoanálisis Vol. II - Gregorio Klimovsky - Страница 6

Problemas de la metodología
de la ciencia

Оглавление

[PONENCIA][1]


Es posible caracterizar de manera general al método científico como aquel que proporciona investigación sistemática, controlada y nítida. La primera condición, “sistemática”, alude a los nexos inferenciales que ligan a las proposiciones científicas y que permiten operaciones tales como “predicción”, “explicación” y “fundamentación”; estos nexos tienen varias fuentes, entre ellas principalmente dos: la teoría de la deducción en lógica formal y la teoría de la inferencia estadística en lógica inductiva y en matemática probabilística. “Controlada” alude a los criterios y procedimientos que impiden que el discurso científico sea mera especulación, al obligar a algún tipo de confrontación con la realidad; esto se logra mediante la constitución de una “base empírica” y la comparación entre los rasgos de esta con las predicciones observacionales y experimentales que es posible obtener con auxilio de los ya aludidos aspectos “sistemáticos”. La tercera condición, “nítida”, se refiere a la exacta integración de los aspectos semánticos de las proposiciones científicas; aquí interviene la teoría de la definición de los conceptos científicos así como la de las condiciones de verdad, contrastabilidad y contenido empírico de los enunciados empíricos y teóricos.

El éxito del método científico es innegable en lo que atañe a uno de los productos más característicos de la actividad gnoseológica humana: las teorías científicas. Este es el siglo de la teoría de los cuantos, de la teoría de la relatividad, de la teoría de las partículas elementales, de la genética, etcétera. Pero sería un error creer que el alcance del método involucra únicamente teorías. Existen actividades muy importantes para el conocimiento de la realidad física y humana, ligadas a significativas aplicaciones a la política, a la tecnología o a la actividad clínica (para citar solo algunos ejemplos), que no constituyen “teoría” en el sentido propio de la palabra pero que entrañan similares procedimientos de recopilación y examen de datos, formulación y contrastación de hipótesis, definición e indicación de conceptos y variables. Basta recordar casos como el de la medición de magnitudes, la taxonomía, el diagnóstico clínico, el ensayo de materiales, la interpretación psicoanalítica o el psicodiagnóstico.

De las consideraciones anteriores resulta que el problema de caracterizar con exactitud la naturaleza del método científico no es mero tópico filosófico o simple exquisitez intelectual. Posibles discrepancias acerca de los criterios de validación de los métodos empleados pueden afectar no solo los fundamentos de la ciencia básica sino también la adopción de criterios instrumentales que conciernen a tareas de investigación aplicada. En el caso del psicoanálisis, no cabe duda de que las diferencias de opinión acerca de la corrección de las teorías existentes en el campo de esta disciplina afectan los criterios terapéuticos y la presunta objetividad de las interpretaciones. Pues adoptar una terapia es elegir un curso de acción entre varios posibles, elección que está guiada por el conocimiento que el terapeuta tiene de que las consecuencias serán tales y no cuales. Pero ese conocimiento, y el de las leyes de correlación entre decisiones y efectos, depende de la validez de las hipótesis teóricas que se manejen. En cuanto a las interpretaciones, su valor depende de la capacidad explicativa que posean, lo cual —si se adopta el modelo nomológico deductivo de explicación (el famoso “modelo de Hempel”)— presupone nuevamente que se hayan fundamentado las teorías psicoanalíticas usadas. En el caso peculiar del psicodiagnóstico, no cabe duda de que las divergencias que puedan existir en cuanto a criterios epistemológicos para ponderar teorías del diagnóstico se reflejarían en serias discrepancias “técnicas” en cuanto a las investigaciones implicadas en este tipo de tarea.

En consecuencia, nada más oportuno que volver a formular la ya reiterada pregunta acerca de cómo organizar adecuadamente la investigación científica de modo que pueda obtenerse conocimiento fecundo y garantizado. Sabemos que, por desgracia, no existe unanimidad entre los epistemólogos acerca de cómo es necesario organizar o estructurar el conocimiento científico. En lo que atañe a las ciencias empíricas o fácticas, parece existir —según algunos autores— algo así como una “concepción heredada” de la ciencia[2], una especie de combinación de empirismo operacionalista con el método hipotético deductivo. No puede negarse que, en un sentido superficial, existe en este momento del transcurrir de nuestro siglo y especialmente en los países de habla inglesa cierto paradigma ortodoxo, en lo relativo a las normas a aplicar en la investigación científica y en la formulación de teorías, que posee cierta semejanza con algunas de las descripciones de tal “concepción heredada”. Sin embargo, nos parece más exacto y útil distinguir no uno sino dos paradigmas ortodoxos, que llamaremos “empírico-operacionalista” y “teórico-sistemático”, los que nos parecen reflejar con más propiedad ciertos puntos de vista muy influyentes pero algo antagónicos. Intentaremos en lo que sigue captar algunas diferencias notables entre ambos puntos de vista. Luego intentaremos alguna opinión acerca de los méritos que poseen.

Puede caracterizarse el paradigma “empírico-operacionalista” del siguiente modo. Respecto de las facetas “sistemáticas” del método científico, el presente punto de vista toma a la deducción lógica como algo muy subsidiario, como mero instrumento de vinculación obvia y tautológica de las proposiciones científicas. Lo importante es la inferencia estadística, los modernos procedimientos inductivos, las implicaciones probabilísticas. Los análisis descriptivos y muestrales son de significación esencial. Correlación y regresión, análisis univariable y multivariable son los auxiliares indispensables de la taxonomía, de la explicación y de la predicción. La faceta “empírica”, como es lógico, se transforma en algo nodal en esta concepción. Las variables son empíricas explícita o implícitamente. En cuanto a la “nitidez”, los términos que no sean manifiestamente empíricos solo son lícitos si son introducidos mediante definiciones explícitas o definiciones operacionales a partir de términos empíricos (salvo que sean meros auxiliares “sincategoremáticos”[3] de uso instrumental, en cuyo caso hay que dar las reglas sintácticas de su empleo). Cuando las definiciones no sean posibles, pueden suplirse por condiciones de verdad (formuladas usando solo vocabulario empírico) de las proposiciones que utilizan tales términos. Indicadores y reglas de indicación constituyen un recurso típico de este método. En cuanto a lo que garantiza la verosimilitud del conocimiento científico, si bien hay que reconocer que se comparte con el otro punto de vista una actitud “hipotética” ante las afirmaciones científicas, es característico el admitir que hay algo así como el “peso” de ciertas proposiciones, y que cierta información objetiva acerca de la realidad emana de las fuentes empíricas y muestrales de toda esta metodología.

El paradigma “lógico-sistemático” es bastante diferente. En lo relativo a las facetas “sistemáticas”, el énfasis está ahora en la deducción lógica (cuya importancia es grande, entre otras razones, por permitir la confrontación de las hipótesis con la base empírica por medio de las “consecuencias observacionales”, de aquellas). La significación de la inferencia estadística disminuye; se le niega todo valor probatorio, aunque se le reconoce importancia como acuñadora de hipótesis. En tal sentido, la estadística estaría situada más en el “contexto de descubrimiento” que en el de “justificación” (salvo en un notable aspecto: la teoría estadística del error de medición, que afecta el concepto de “base empírica” en muchas ciencias)[4]. La faceta “empírica” se hace aquí algo más colateral: se transforma en el elemento de control, no en un fundamento para inducciones o “pesos”. Las tesis centrales de las teorías conciernen a entidades no empíricas; las leyes fundamentales de las ciencias no poseen directa referencia empírica aunque logran explicar y predecir lo empírico. El vuelo teórico en esta concepción de la ciencia es grande, en tanto que en la anterior era mínimo. El único nexo de la teoría con lo empírico está en el procedimiento de contrastación. En cuanto a la “nitidez”, si bien los procedimientos definitorios aplicados al vocabulario empírico se consideran lícitos (definiciones operacionales incluidas), los términos no empíricos pueden definirse (de manera parcial) implícitamente por las propias hipótesis fundamentales de la teoría. Ello es precisamente lo que hace apta a una teoría para lograr conocimiento “trascendente” respecto de la experiencia. Pues, aunque la experiencia controle las hipótesis, no es el fundamento inductivo para obtener y validar el conocimiento acerca del costado no empírico de la realidad.

No puede negarse que de los dos puntos de vista descriptos, el primero, el “empírico-operacionalista”, parece mucho más “científico” que el segundo. La posición “teórico-sistemática” aparenta permitir un giro especulativo y metafísico al pensamiento, lo cual es evidentemente peligroso en cuanto a la seguridad y vinculación con lo real que este pensamiento pueda poseer. Por otra parte, la metodología empírico-operacionalista parece ofrecer cierto tipo de fundamentación al conocimiento, en tanto que de la otra manera solo dispondríamos de conjeturas y modelos provisionales. La semántica del método “teórico” sería muy sospechosa, al permitir hablar de entidades esencialmente inobservables, en tanto que el procedimiento empírico manejaría significados más “positivos”, enlazados directamente con la experiencia (controlada, intersubjetiva y repetida) o —a lo más— indirectamente mediante claras y nítidas definiciones operacionales (que muchas veces permiten reconocer los indicadores necesarios para manejar las genuinas variables científicas). Todo esto sugeriría que el método “teórico” es apenas tolerable para una legítima actividad científica y que el método apropiado sería el “empírico operacional”.

Si la opinión a la que acabamos de arribar es cierta, no deja de ser un interesante ejercicio epistemológico, para tomar un ejemplo, imaginarse las condiciones en que debe desarrollarse la investigación psicodiagnóstica. Habría que comenzar con un elenco claro e inequívoco de rasgos empíricos (de conducta o de carácter), así como de ciertas situaciones relativas a la estructura y a las operaciones manifiestas concernientes a determinado test. Debería a continuación definirse operacionalmente toda otra variable, rasgo o magnitud. Todo término que no presente un carácter empírico explícito debe adquirirlo mediante “operacionalización” o asignación de “indicadores”. Todo lo demás es estadística descriptiva: muestras, números estadísticos. O estadística inferencial. Una vez establecida o fundamentada la correlación necesaria para la diagnosis, la taxonomía caracterológica o patológica, todo lo que resta es cuestión de ciencia aplicada[5].

Sin embargo, un examen más detenido de toda esta situación, basada en determinados argumentos lógicos o en ciertos episodios de la historia de la ciencia, puede servir para mostrar que la cosa es mucho más complicada. Conocidos análisis lógicos acerca de la estructura de la definición operacional muestran:


i. que cuando las definiciones operacionales no se interpretan como definiciones semiexplícitas que ligan situaciones “estímulo” con situaciones “respuesta” (integrando, claro está, cadenas definicionales en la mayoría de los casos) entonces se trata de genuinas hipótesis, de modo que la reducción del concepto presuntamente definido a lo empírico no sería tal. Más bien estaríamos ante una “teoría”, una de cuyas hipótesis teóricas mixtas o reglas de correspondencia sería la “definición operacional”, que no es definición sino conjetura, y que es contrastada junto con el resto de la teoría (más aún, ella misma tendría contenido empírico y podría ser refutada aisladamente[6], propiedades inconcebibles en nada que pretenda ser mera definición);

ii. que la atribución de indicadores o de operacionalizaciones no sería por consiguiente otra cosa que un modo más de hipotetizar sobre las relaciones fácticas entre las variables no empíricas y las empíricas. Y, dado tal carácter de hipótesis, podría ser refutada como cualquier teoría;

iii. que si se desea evitar lo anterior limitando el uso de definiciones operacionales al caso semiexplícito “estímulo-respuesta”, entonces la mayoría de los conceptos científicos interesantes no se dejan operacionalizar, y se produce un apreciable empobrecimiento del discurso científico. Por otra parte, los que aun así permitirían ser operacionalizados, se convertirían en conceptos distintos según el par estímulo-respuesta elegido, produciéndose esta vez una disgregación del discurso científico[7]. Bueno es reconocer que hay quienes ven esto como algo muy positivo, una suerte de penetración analítica que permite discriminar nociones diferentes donde el discurso “ideológico” preteórico no podría distinguirlas adecuadamente. La verdad es que la unidad del discurso científico queda rota y en lugar de leyes coherentes y unificadoras resta un “polvo” algo seco y poco consistente de generalizaciones triviales de escaso alcance y nivel;

iv. que la reducción operacionalista de todo concepto al nivel empírico transformaría a las leyes científicas en meras generalizaciones de muy bajo nivel. Sin embargo, basta contemplar la estructura de la mayor parte de las teorías físicas, químicas o biológicas contemporáneas para comprender que esto es irreal (e imposible)[8].


Puede entenderse que quienes se han hecho una composición de lugar “empirista” de la ciencia encuentren dificultades tal vez insalvables para modificar su posición. Pero tal vez resulten útiles en este sentido los otros argumentos antes mencionados, los relativos a la historia de la ciencia. Para comprender qué es lo que realmente implican estos argumentos, vale la pena esquematizar de una manera general una situación que se presenta con frecuencia en el desarrollo de las disciplinas científicas. Podemos resumirla así:


1. en un determinado momento, el comportamiento de ciertos individuos u objetos resulta intrigante o extraño;


2. se examinan nuevos casos o muestras enteras para legitimar la existencia de este comportamiento;


3. se induce una ley general acerca de la presencia de este comportamiento en determinadas circunstancias;


4. si se es adepto al punto de vista “empírico-operacionalista” la investigación quedaría concluida, aunque comenzarían otras investigaciones para encontrar nuevas correlaciones y establecer nuevas co-presencias;


5. pero esto no basta; el científico —o la comunidad científica— desea comprender la ley general encontrada en 3). No se satisface ante lo que pudiera interpretarse como mera regularidad: pretende encontrar la explicación de la regularidad;


6. esta explicación la da una teoría científica que se inventa con el fin de poder deducir de sus hipótesis fundamentales la regularidad que se desea explicar;


7. la teoría explicativa emplea términos teóricos no reductibles a términos empíricos mediante ninguna definición operacional, admitiendo “reglas de correspondencia” —es decir, hipótesis que contienen a la vez términos empíricos y términos teóricos— que permiten contrastar la teoría mediante consecuencias observacionales. Precisamente el examen de las consecuencias empíricas es el que permite decir que se está ante un presunto conocimiento de la realidad y también valorar el poder explicativo (así como el predictivo) de la teoría;


8. en particular, se establece que la teoría explica la ley empírica encontrada en 3), deduciendo tal ley de sus principios o hipótesis fundamentales;


9. se establece que tal teoría puede explicar también otras leyes y regularidades científicas (un síntoma de que la teoría está describiendo realmente una estructura fundamental y primaria subyacente a la aparente diversidad de fenómenos distintos).


La historia de la ciencia nos ofrece gran variedad de casos en que los puntos recién descriptos se muestran así. En la historia de la mecánica, el comportamiento extraño de la órbita de los planetas llevó a muchos astrónomos, entre ellos Kepler, a realizar muchas observaciones que permitieron establecer una extraña ley empírica, las “leyes de Kepler”. Para un estadístico-operacionalista la cosa hubiera acabado ahí, salvo refinamiento y reiteración de las observaciones. Newton, con el fin de lograr inteligibilidad para tal ley, introdujo su teoría dinámico-gravitatoria. En ella se logra deducir las leyes de Kepler. La teoría emplea términos teóricos —como “espacio absoluto”— cuya operacionalización es imposible, como lo sugieren las teorías relativistas y el experimento de Michelson-Morley. La teoría explica otras leyes empíricas: la ley de caída de los cuerpos de Galileo, las leyes del péndulo —también de Galileo—, las leyes del choque, etcétera, todo lo cual muestra su fuerza y su fecundidad.

No muy distinto es el ejemplo de la teoría atómica. Es sabido que el problema empírico a explicar aquí es el de la ley de las proporciones definidas, extraída inductivamente de observaciones acerca de combinaciones químicas que evidenciaban que la formación de nuevas sustancias a partir de sustancias simples se lograba siempre con la misma proporción de los componentes. Otra vez puede observarse que tal ley empírica es muy interesante de por sí y lograría por sí sola la felicidad de muchos científicos de temperamento conductista. Pero Dalton y otros científicos desearon “explicación”, no mera “satisfacción”; así construyeron la teoría atómica, desde la cual es posible deducir —y por ello explicar— la ley de las proporciones definidas. Y, además, es posible explicar muchas otras cuestiones relativas a la combinatoria química, claro está que empleando términos no empíricos como “átomo”, que tampoco es operacionalizable, pese a los esfuerzos (fracasados) de Mach y de la escuela de Copenhague.

Y, en forma análoga, se podría acudir al ejemplo de otros casos, como el de la teoría cinética de los gases (frente a las leyes empíricas de Boyle y Mariotte o de Gay-Lussac) o el de la teoría del electrón (frente a las leyes empíricas de Franklin o de Faraday), etcétera. Pero, si se desea cambiar de disciplina, bueno es el ejemplo de la teoría genética. Acá el problema empírico fue el de las leyes estadísticas relativas a las frecuencias correspondientes a rasgos observados en la segunda generación de descendientes de una pareja con características diferentes en cada individuo (la famosa proporción 1 a 3 —recesivo versus dominante—). También aquí un estadístico-operacionalista desearía quedarse en la peculiaridad de tal proporción (y hubo biólogos que así se condujeron). Pero desde Mendel a Haldane la intención fue encontrar una teoría explicativa, que fue la de los genes, una teoría que emplea términos no empíricos aparentemente no operacionalizables, pero que permite deducir, explicar y predecir una cantidad abrumadora de fenómenos biológicos.

Finalmente, recordemos que los comienzos del psicoanálisis están ligados al descubrimiento de intrigantes fenómenos concernientes a la aparición y desaparición de síntomas histéricos. Un psicólogo conductista podría sentirse muy atraído por el descubrimiento de este tipo de leyes (como es el caso de Hilgard[9], quien simpatiza con el psicoanálisis precisamente desde este ángulo y no por la teoría del inconsciente). No fue este el caso de Freud. Primero la teoría de los “estados hipnoideos” y luego la del “inconsciente” y de las “cargas psíquicas” pudieron proveer la explicación deseada. Y también la de otra cantidad muy grande de fenómenos, como el chiste, los sueños, los olvidos, las fobias, etcétera.

Si la ciencia debe hacer algo más que catalogar las regularidades empíricas, si debe sistematizar nuestro conocimiento y permitir que este sea abarcante y explicativo, el método “empírico-operacional”, el método estadístico-inductivo, es incompleto e insuficiente. Es necesario construir modelos de la realidad, producir teorías ingeniosas y complicadas. No importa que sus términos se definan implícitamente; la teoría adquiere su semántica de la posibilidad lógica que existe de comparar sus consecuencias observacionales con los fenómenos observables de su base empírica. Lo que da pertinencia fáctica a una teoría no es su posibilidad de operacionalización, sino su aptitud para la contrastación. Por ello, es dudoso que pueda extraerse un auténtico conocimiento de la personalidad humana mediante el mero examen empírico de las correlaciones de bajo nivel que se advierten entre rasgos de su conducta. Parece más bien imprescindible una teoría que no tema usar términos no empíricos que aludan a aspectos estructurales profundos o subyacentes de la persona humana. Y, muy probablemente, una teoría así podrá incorporar con mayor excelencia semántica los términos habituales de la psicología (inteligencia, motivación, afecto, etcétera) que todas las tentativas de operacionalización o de indicación, las que, las más de las veces, confesémoslo, terminaron en fracasos o encubrían alguna teoría esencialmente no reductible a lo empírico.

Y, una vez más, consideremos el caso del psicodiagnóstico. Si los términos psicológicos y psicopatológicos no son de reducción inmediata a la experiencia, si las variables empíricas simples son de escasa pertinencia para la descripción de los aspectos fundamentales de la personalidad humana, los métodos “empírico-operacionales” terminan por tener un alcance muy limitado. Nadie niega su utilidad, su finura y su excelencia en las primeras etapas de la problemática científica. Pero si el método científico es algo más que las etapas 3) y 4) antes descriptas, todo el arsenal proporcionado por la estadística, los indicadores y los métodos descriptivos-reductivos proporcionarían un conocimiento de bajo nivel teórico, parcial y, a veces, trivial. Ni siquiera para la taxonomía y la nosografía esto podría ser todo. Los biólogos han aprendido, por ejemplo, que aquello que descriptivamente puede clasificarse como crustáceo puede en realidad reconocerse —con el auxilio de las actuales teorías de la evolución— como una araña. De modo análogo, solo es posible clasificar apropiadamente una conducta o un rasgo si se posee una teoría completa de la personalidad humana. Por ello, un adecuado psicodiagnóstico debe involucrar teoría psicológica, teoría psicopatológica, sin lo cual parecería ser algo análogo a una química de las combinaciones, efectuada con estadística pero sin teoría atómica, algo sin duda muy problemático y que, en apariencia, no posee adeptos. Permítasenos finalmente una conclusión metodológica relacionada con el psicoanálisis. Cierto desorden epistemológico y semántico que puede advertirse con frecuencia en los trabajos de investigación dentro de esta área del conocimiento sugiere la conveniencia de aumentar todas las precauciones definitorias y empíricas posibles en las estrategias observacionales y definitorias empleadas. Un fuerte aumento de los hábitos operacionalistas y empíricos no puede ser sino muy beneficioso. Pero, si se nos admite el hablar con alguna solemnidad, sostendríamos que la esencia de la disciplina psicoanalítica es teórica y descansa por entero en la concepción hipotético deductiva. La preocupación por el análisis lógico, sistemático, semántico y deductivo de las teorías psicoanalíticas constituye, pues, una tarea urgente e insustituible.

Epistemología y Psicoanálisis Vol. II

Подняться наверх