Читать книгу Epistemología y Psicoanálisis Vol. I - Gregorio Klimovsky - Страница 12
Epistemología
I
Оглавление[ARTÍCULO][1]
La epistemología es el estudio de la estructura, validez y producción del conocimiento científico. Se diferencia de la teoría del conocimiento o gnoseología en que esta última incluye además el problema de la fundamentación de todo el conocimiento humano sin excepción, sea científico o no. Debe distinguirse también de la metodología de la investigación científica, en donde se intenta desarrollar estrategias y tácticas para hacer progresar el conocimiento científico, pero sin plantear de manera esencial la cuestión de su legitimidad. Entre los escritores anglosajones es costumbre emplear la denominación “epistemología” para designar a la teoría del conocimiento en su totalidad (criterio que no adoptaremos aquí). Las tres disciplinas están estrechamente entrelazadas; lo que ocurre en cada una de ellas repercute intensamente en las otras dos. Y, aunque pueda ser motivo de disputa el dirimir si la epistemología es o no una disciplina autónoma, no puede menos que admitirse la estrecha dependencia que guarda con la filosofía, con la psicología y con la sociología. Por otra parte, la semiótica y la lógica son elementos básicos de las discusiones epistemológicas (aún hoy, en muchos textos apegados a la tradición, se asimila la epistemología a la metodología, considerándose a esta última como una parte de la lógica, la “lógica mayor”, que constituye una prolongación de la “lógica menor”, la lógica formal ordinaria).
La ciencia es conocimiento sistemático y controlado. Existe propensión a pensar que el producto más avanzado de la actividad científica está constituido por las teorías científicas. Hay que reconocer desde ya que no toda investigación o tarea científica desemboca en la producción de teorías. Pero el examen de las peculiaridades de estas basta para captar el sentido de las controversias más caracerísticas de la epistemología contemporánea. Por esta razón, vamos a limitar nuestros análisis a la discusión del problema de la fundamentación de las teorías científicas.
Entre todas las escuelas epistemológicas existe una, que vamos a llamar “versión estándar”, cuya concepción acerca de la estructura y validez de las teorías científicas tuvo mucha difusión hasta hace poco, especialmente –aunque no de modo exclusivo– en el ambiente filosófico anglosajón. Ella está muy ligada al llamado “método hipotético deductivo”, pero no hay que olvidar que este tiene muchas variedades, de las cuales la versión estándar no sería más que una. Según este punto de vista, una teoría científica involucra los siguientes aspectos:
1. Base empírica. Como la ciencia es conocimiento controlado, deben existir hechos suficientemente confiables que sirvan como piedra de toque para el control. Estos hechos deben ser lo bastante “directos” o “accesibles” al conocimiento como para no plantear dudas sobre su legitimidad. En la versión estándar, las entidades que poseen la propiedad disposicional de ser observadas, los llamados “observables”, constituyen una base digna de confianza. El conjunto de todos los observables constituye lo que vamos a denominar “base empírica”. Nótese que “observable” no debe interpretarse en un sentido meramente pasivo, pues forman parte de la base empírica las observaciones espontáneas, sistemáticas o provocadas –como es el caso de los experimentos– y todo el arsenal de hechos proporcionados por la práctica cotidiana y tecnológica. Es frecuente que las teorías científicas más abstractas no se ocupen especialmente de la base empírica, pero de todos modos son controladas por esta. Y, además, es la base empírica la que plantea los problemas a los que las teorías vienen a responder; las afirmaciones teóricas tienen en primera instancia un fin, el de permitirnos construir explicaciones y predicciones acerca de lo que ocurre en la base empírica (pero no solo eso, sino que permiten producir un conocimiento más profundo y elemental, alejado –¡pero no desconectado!– de lo observable, que puede terminar siendo más interesante y esencial).
Los epistemólogos que no son adeptos a la versión estándar desconfían de la noción de “base empírica”. Para ellos, hablar de un conocimiento más directo que otro puede llevar a una visión prejuiciosa de la actividad científica. Pueden ahorrarse innecesarias discusiones si se distinguen tres tipos de base empírica que no son equivalentes desde el punto de vista de la teoría del conocimiento. En primer lugar, estaría la llamada “base empírica filosófica”, constituida por observables filosóficamente seguros con los que es posible fundamentar el resto del conocimiento humano. Así, Bertrand Russell, continuando con viejas tradiciones empiristas, toma como base empírica filosófica a los “datos duros”, los datos mayoritariamente coherentes de nuestra sensación, percepción y apercepción, y con ellos fundamenta constructivamente el concepto de “objeto físico”, “espacio”, “tiempo”, etcétera. Que exista una tal base empírica es algo que con toda razón se pone muy en duda, ya que tales datos suelen ser resultado de una elaboración teórica o pretórica, y la creencia en ellos suele desembocar en un “fundamentalismo” ingenuo. Por otra parte, tal base empírica no sería, en general, epistemológicamente útil. Las razones por las que debemos creer en el psicoanálisis o en la química no necesitan comenzar tan atrás como para plantear el problema de cómo sabemos que existen los pacientes o los matraces. Es por ello que se parte más bien de otro tipo de base, la “base empírica epistemológica”, que toma sus datos de la práctica cotidiana, en su contorno social y psicológico, y da por sentado el valor del lenguaje cotidiano como medio de comunicación para cierto tipo de observaciones. Cuando una teoría aparece por vez primera, los datos a tomar en cuenta son de esta categoría. Por ejemplo, en psicología ya no se discute más la existencia y el conocimiento del paciente, pero se considera su conducta como el elemento observacional manifiesto del cual se infiere el éxito o la inadecuación de una teoría como la psicoanalítica. Análogamente, en química, ya no se plantea como problema el conocimiento o la existencia de los matraces, pero se los utiliza en el proceso de contrastar las teorías químicas. Pero hay aun otro tipo de base, la “base empírica metodológica”. Ella es la que aparece cuando el científico, en lugar de discutir la validez de ciertas teorías, simplemente las emplea (cosa que, por ejemplo, hace un terapeuta cuando usa la teoría psicoanalítica para modificar la situación del paciente, o el biólogo cuando da por sentada la legitimidad de la óptica geométrica al emplear el microscopio). Estas serían las “teorías presupuestas”. Si entre las hipótesis o tesis de una tal teoría existen las que estipulan condiciones necesarias y suficientes para relacionar hechos observables (epistemológicamente) con otros no observables, ocurre que a través de las teorías presupuestas uno puede “ver” más hechos que los meramente proporcionados por la base empírica epistemológica. Las teorías presupuestas actúan a modo de lente de aumento donde los datos epistemológicos actúan como indicadores de nuevos hechos. Este “ver a través de las teorías” constituye un procedimiento normal en la investigación científica, especialmente cuando las teorías se usan para obtener nuevo conocimiento (o por necesidades tecnológicas), más que cuando se las discute críticamente como en el caso de la base filosófica. Se ha negado también que exista una base empírica epistemológica genuina, arguyéndose que siempre hay presente algún grado de presuposición o elaboración teórica. Algo hay de cierto en ello. Pero si se examinan algunas teorías (por ejemplo la genética en su primitiva versión mendeliana) se verá que ciertas entidades mencionadas por ellas no presuponen teoría alguna, y que están en las condiciones de una base epistemológica (como es el caso de las características fenotípícas de los individuos o ejemplares estudiados, si permanecemos en el ejemplo considerado). De todos modos, el tercer tipo de base empírica, que llamaremos de “base empírica metodológica”, es un elemento frecuente e incuestionable del quehacer científico ordinario.
La labor clínica, las experiencias de laboratorio, los instrumentos de observación o medición ofrecen elementos de base empírica (que será metodológica si están en juego teorías presupuestas de medición u observación instrumental).
2. Afirmaciones y niveles. Las teorías deben comunicarse y formularse, y ello hace intervenir al lenguaje. Los términos que una teoría emplea se dividen en términos lógicos y extralógicos. Los primeros no son propiedad de teoría particular alguna, sirven para construir afirmaciones a partir de los restantes términos, y se rigen por las leyes de la lingüística y de la lógica formal. Aquí están los conectivos y los cuantificadores, por ejemplo. Los términos extralógicos se dividen en “términos empíricos”, que son los que nombran a entidades de la base empírica, a los observables, y “términos teóricos”, cuyo papel es bastante discutido, pero de los cuales puede decirse en principio que nombran o designan entidades no observables. Las afirmaciones del lenguaje científico pueden, de acuerdo con esto, clasificarse según el tipo de vocabulario que usa y según su alcance en cuanto a generalidad. Esto lleva a clasificar las afirmaciones científicas en tres tipos o niveles, a saber:
a) Nivel I o de las “afirmaciones básicas”. Emplean vocabulario lógico y empírico, pero no vocabulario teórico. Además, son singulares o involucran un conjunto accesible (en general pequeño) de sujetos. Las afirmaciones acerca de individuos u objetos observables aislados, las relativas a muestras, o los protocolos de informes (cuando no hay en ellos interpretación o conjetura) estarían en este nivel. Por su carencia de generalidad no tienen demasiado interés científico intrínseco (salvo en disciplinas “idiográficas” como la historia o la geografía, por ejemplo), pero tienen la ventaja de que el problema de su verdad o falsedad pude derimirse mediante observaciones efectivas (en las circunstancias oportunas), constituyendo el tipo de enunciado que expresa y condensa el modo de conocimiento que controla el conocimiento de nivel más teórico. Conviene advertir que pertenecen a este nivel la mayoría de las proposiciones de la estadística descriptiva (no así las de la estadística inductiva).
b) Nivel II o de las “generalizaciones empíricas”. Estas son las afirmaciones que generalizan sobre un conjunto o población de observables no accesible. Usan solamente vocabulario lógico y empírico. Con las de nivel I constituyen la clase de las afirmaciones empíricas. Los casos singulares comprendidos en la generalización son los expresados por las proposiciones de nivel I. Para los epistemólogos de filiación filosófica empirista radical, las proposiciones empíricas serían las únicas genuinamente aceptables como significativas (o también las que les son lógicamente equivalentes). Su significado, por otra parte, no depende de la teoría que las emplea, ya que el vocabulario lógico y empírico es semánticamente independiente de la teoría, según la versión estándar. Hay varias clases de generalizaciones empíricas. La más interesante es la de las “universales”, que emplea el cuantificador universal “todos” y en cada afirmación universal pretende que todos los casos cubiertos por la generalización son verdaderos. Aquí estarían muchas de las llamadas “leyes científicas”. Hay una curiosa asimetría epistemológica: tales generalizaciones son susceptibles de refutación, ya que basta un caso falso para invalidarlas. Pero no son susceptibles –en general– de verificación, porque ello implica la imposible tarea de verificar todos los posibles casos que corresponden a la población considerada (que puede ser infinita, o muy extensa, y repartirse en el pasado, presente y futuro). Las llamadas “generalizaciones existenciales”, que emplean el cuantificador “algún”, afirman que hay al menos un caso verdadero. También son asimétricas pero a la inversa, pues son fáciles de verificar con un caso verdadero y difíciles de refutar (ya que ello involucra establecer la falsedad de todos los casos). También están aquí las generalizaciones estadísticas, que en lugar de mencionar porcentajes en una muestra asertan probabilidad para una población. Estas son epistemológicamente más complicadas, pues no pueden verificarse ni refutarse mediante observaciones de casos o de muestras, lo cual ocurre también con afirmaciones que usan simultáneamente el cuantificador universal y el existencial (como es el caso de la afirmación “toda sustancia posee punto de fusión”).
Las proposiciones de este nivel II son más interesantes para la ciencia que las de nivel I; ahora es posible expresar concomitancias, regularidades, pautas generales y correlaciones. Desgraciadamente, las dificultades epistemológicas se acentúan notablemente en este nivel, a causa de los problemas de verificación y asimetría lógica que acabamos de referir. Un cierto carácter teórico e hipotético caracteriza a este tipo de afirmaciones científicas. Es verdad que, al no haber referencia a objetos teóricos, los enunciados empíricos parecen meramente describir la realidad sin conjetura ni teorización. Es por ello que algunos epistemólogos positivistas enemigos de la especulación metafísica consideran que estas afirmaciones son las genuinamente científicas, las que brindan auténtica información sobre la realidad. Aquí hay una doble equivocación, sin embargo. Por un lado, hay afirmaciones no empíricas (es decir, fuera de los niveles I y II) que son perfectamente controlables y brindan excelente información sobre lo real. Por otro, es perfectamente posible que ciertas afirmaciones empíricas no puedan controlarse y posean un marcado aspecto especulativo. Es una “ilusión empirista” pensar que el nivel II es más auténtico, significativo y seguro que el nivel III, del que ahora hablaremos.
c) Nivel III o de las “afirmaciones teóricas”. Son las afirmaciones que contienen al menos un término o palabra “teórica”. Conviene aclarar que “teórico” es usado aquí estrictamente en el sentido de los epistemólogos anglosajones, como opuesto a “empírico”; los estudiosos de habla francesa utilizan “teórico” para indicar que el término o vocablo no adquiere su sentido en el lenguaje ordinario sino mediante una teoría científica dentro de la que se constituye un significado. De este modo, un término empírico según la primera acepción podría ser teórico según la segunda. De acuerdo con esta distinción, una afirmación teórica no es la que pertenece a una teoría sino la que aparenta referirse a alguna entidad no observable. Una afirmación de nivel III puede ser singular o general. En tanto puede pensarse en algún procedimiento inductivo que permita probar o apoyar una generalización de nivel II mediante el examen de casos, tal cosa es inadmisible para el nivel III. Los casos de afirmaciones teóricas generales podrán ser enunciados singulares, pero también de nivel III. Esto muestra que el problema epistemológico de la admisión de estas afirmaciones está más allá de las habituales tradiciones empiristas e inductivistas y debe involucrar otro tipo de conceptos metodológicos. Las proposiciones que hacen alusión a aspectos profundos no directamente observables de la realidad están en este nivel, que por ello es uno de los más interesantes para la teoría del conocimiento científico. Las afirmaciones sobre “campos” o “cuantos” en física, o sobre moléculas, átomos y electrones en química, sobre genes en genética, o sobre el inconsciente o el superyó en psicoanálisis, son de nivel III. Un enunciado puede ser de nivel III o de nivel II, según que la base empírica se tome epistemológica o metodológicamente. Esto muestra una posible estratificación indefinida del nivel III: enunciados teóricos de bajo nivel, que se transforman en empíricos metodológicamente; enunciados que aun así pemanecen teóricos, enunciados que seguirían siendo teóricos si estos últimos vuelven a considerarse empíricos en un segundo paso metodológico, etcétera.
Los enunciados teóricos pueden clasificarse en dos importantes sub-familias. Primero, están aquellas afirmaciones cuyos términos extralógicos son todos teóricos; podríamos llamarlas “teóricas puras”. Ellas harían referencia a estratos “profundos” de la realidad, sin alusiones a las entidades de la base empírica. Serían las afirmaciones más interesantes y penetrantes de la ciencia. Pero es fácil ver que su significado fáctico no está determinado a menos que se indique qué conexión hay entre los objetos empíricos y los teóricos. Por ello es imprescindible otro tipo de proposición, que haga de puente entre el nivel empírico y el teórico. Son las comúnmente llamadas “reglas de correspondencia” (nomenclatura no del todo feliz, pues, aunque “correspondencia” está bien –indica que se está haciendo corresponder el nivel empírico con el estrato teórico– “regla” está mal, ya que se trata de proposiciones y no de normas). Las reglas de correspondencia son las proposiciones que contienen simultáneamente vocabulario teórico y empírico (algunos, como Nagel, agregan la condición de que sean equivalencias cuyo primer miembro no contenga términos teóricos mientras que el segundo sí. Seguramente porque de este modo el enunciado semeja una traducción del término teórico en vocablos empíricos. Pero no es indispensable entenderlo así). Si, como veremos, es caracerístico de la versión estándar pensar que una hipótesis es científica si es contrastable respecto de la base empírica, se ve que un enunciado teórico puro, para poderse comparar con lo afirmado por los niveles I y II, necesita la intervención lógica de reglas de correspondencia que permitan pasar del nivel empírico al teórico y viceversa. Si es cierto que muchos de los llamados “modelos científicos” no son otra cosa que conjuntos de afirmaciones teóricas puras, se comprende que la aplicabilidad del modelo a una realidad práctica hace indispensable la formulación de hipótesis o suposiciones que indiquen cómo ligar el modelo con las entidades en estudio. Es decir, se necesitan reglas de correspondencia. Por otra parte, para ampliar la base empírica epistemológica en una metodológica, se necesitan reglas de correspondencia que establezcan condiciones necesarias y suficientes para que un hecho empírico se corresponda con uno teórico (que es el que se dirá “observado” –a través de la teoría– cuando se observe el hecho empírico epistemológicamente). Una de las concepciones más en boga acerca de la estructura de las teorías científicas, relacionada con las ideas del filósofo de la ciencia y metodólogo Norman Robert Campbell, considera que una teoría científica se compone de dos partes: 1) la “teoría propiamente dicha” o “modelo” constituida por afirmaciones teóricas puras; y 2) “reglas de correspondencia” o “diccionario”, que conecta el modelo con la experiencia. Es verdad que los seguidores de Karl Popper sostienen que esta es una visión unilateral, que no abarca todos los casos, y que una teoría científica puede estar constituida por hipótesis o enunciados de cualquier tipo o nivel. Es así, pero no puede dejar de reconocerse que la concepción campbelliana ha tenido mucha influencia en la modelística y metodología contemporáneas.
3. Hipótesis y contrastaciones. ¿Cómo verificar una afirmación? Si es de nivel I, mediante la observación. Si es una generalización universal o estadística de nivel II, solo se dispone de la observación de casos de la generalización. Pero los casos controlables serán siempre en número finito limitado, mientras que la población sobre la que se generaliza es infinita o no accesible al control total. El método inductivo parecía ofrecer una solución indicando modos de razonamiento que llevan de un número suficiente de casos verdaderos a la verdad de la generalización. Pero está cada vez más claro que las inducciones son útiles como generadoras de hipótesis y conjeturas, nunca como probadoras de generalizaciones. Pues no existe ninguna regla válida de lógica formal que tenga la forma de una inducción clásica; por otra parte, tratar de justificar las inducciones mediante la experiencia histórica de la propia ciencia es caer en un círculo vicioso, el de usar inducciones para probar la inducción. Además, ya se hizo notar que en el nivel III no existe posibilidad de inducciones a partir de la experiencia. Realmente, no se dispone de un genuino método inductivo. Puede intentarse decir que una generalización es científicamente aceptable si es lógicamente verdadera. Pero las verdades lógicas no tienen implicaciones fácticas. Es posible pensar que en matemáticas y en ciencias formales las verdades sean aceptadas por su naturaleza y fundamentación lógica (para algunos, como Bertrand Russell, esa sería en cierto modo la definición de ciencia formal o de matemática). Pero en el caso de las ciencias fácticas este es un camino inadmisible. Queda la posibilidad de pensar que las afirmaciones de la ciencia, especialmente sus principios, sean verdades necesarias evidentes por intuición (siguiendo así una tradición sostenida por diferentes razones, entre otros, por Aristóteles, Kant o Husserl). La historia de la ciencia, especialmente en el caso de las geometrías no euclideanas o de la teoría de la relatividad, ha mostrado sobradamente que tales “necesidades” o “intuiciones probadoras” no existen. Como lo ha mostrado con ingenio Popper, queda como única salida pensar que las afirmaciones científicas de nivel II y III son hipótesis. Una hipótesis es un eunciado cuya verdad o falsedad no se conoce pero que es supuesto verdadero. “Supuesto” no implica “creído” ni “apoyado”. La suposición sobreentiende como único propósito el de examinar las consecuencias del enunciado. Concretamente el método científico –según la versión estándar– es el método hipotético deductivo, que consiste en formular hipótesis y discutir sus implicaciones. Una teoría no sería otra cosa sino un conjunto de hipótesis mantenidas simultáneamente. Las hipótesis de las que se parte (en una teoría o en una investigación) serían los “principios” o “hipótesis fundamentales”. Los enunciados que se deducen lógicamente de aquellas serían las “hipótesis derivadas”, “teoremas” o “consecuencias” de la teoría o de las hipótesis fundamentales. Los nexos lógicos (deductivos) que ligan a las diferentes hipótesis corresponden al aspecto sistemático que concierne al conocimiento científico, según decíamos al principio. Falta el aspecto que se relaciona con el “control”, que es el que mide el grado de conocimiento e información involucrado por una teoría. Para ello es necesario comparar la teoría con lo observable, y ello equivale a pedir que existan consecuencias lógicas de nivel I para nuestras hipótesis o principios. Una hipótesis o una teoría son científicas si hay consecuencias tales. Pero entonces es posible efectuar la operación llamada “contrastación” (de la hipótesis o de la teoría). Como para las consecuencias de nivel I, que de ahora en más llamaremos “consecuencias observacionales”, puede decidirse su valor de verdad, se establece del modo más oportuno posible la verdad o falsedad de alguna consecuencia observacional (o de un número finito accesible de consecuencias observacionales). Si se tiene una consecuencia falsa, y puesto que las reglas de deducción correcta garantizan la conservación de la verdad, debe considerarse refutada la hipótesis o teoría inicial. Se dirá entonces que la teoría ha quedado descartada o refutada. Esta sería la manera en que un conocimiento es descartado como defectuoso, según esta versión de la naturaleza del método científico. Si, por el contrario, las consecuencias observacionales examinadas resultan verdaderas, nada puede decirse sobre el valor de verdad de las hipótesis iniciales. La razón de esa asimetría es que el razonamieno deductivo correcto no garantiza la conservación de la falsedad, es decir, es perfectamente posible que un razonamiento correcto lleve de premisas falsas a una conclusión verdadera; en tal caso, es posible que la consecuencia verdadera de nuestra hipótesis o teoría se haya obtenido de una conjetura falsa. Como nada puede decirse, ni a favor ni en contra, lo único que cabe es seguir manteniendo la hipótesis o teoría, si ello gusta o es requerido. Popper emplea la palabra “corroboración” para indicar esta situación que, como se ve, no llega a ser ni una verificación ni una confirmación de la hipótesis o teoría examinada. En esta concepción, las teorías son conjeturas que nacen, son sometidas a contrastación y tarde o temprano mueren (refutadas). Si una teoría es corroborada continuamente, termina por ser adoptada por la comunidad científica y usada para su empleo práctico y tecnológico pero ello no significa darla por probada, pues se la sigue contrastando indefinidamente, explícitamente en las investigaciones científicas e implícitamente en las aplicaciones clínicas, tecnológicas, industriales, etcétera. Es perfectamente posible que convivan hipótesis alternativas (aunque poco a poco la mayoría de ellas será eliminada). Pese a ser una posición falibilista desde el punto de vista de la teoría del conocimiento, se le podrían señalar las siguientes ventajas: 1) antidogmatismo (los principios de las teorías son tentativos y conjeturales, nunca tomados como verdades absolutas y eternas); 2) perfectibilidad (teorías mejores pueden suceder a las actuales); 3) revolucionarismo (cambios radicales de confección de teorías e hipótesis son perfectamente concebibles; la “revolución científica” es un acontecimiento lógicamente compatible con este método); 4) crítica (a través del continuo proceso de contrastación); 5) acumulación de conocimiento (en un sentido negativo, el de que las teorías e hipótesis refutadas están definitivamente descartadas como información).
4. Críticas a la versión estándar. La versión del método científico y de la epistemología que acabamos de trazar es la que dominó el horizonte cultural europeo y americano (especialmente el de habla inglesa y alemana) desde 1940 hasta 1960 aproximadamente. Anteriormente, las versiones epistemológicas oficiales se relacionaban con la tradición aristotélica, con la fenomenología, con el empirismo inductivista y estadístico, con el operacionalismo o con el empirismo lógico. El método hipotético deductivo empírico es resultado de las investigaciones de la escuela popperiana y también de los trabajos de Carnap, Reichenbach, Nagel y Hempel, entre otros. Paulatinamente aparecieron vehementes críticos de esta versión, surgiendo en los propios países de habla sajona una tendencia que es a veces conocida como “nueva epistemología”. En la órbita de habla francesa existen posiciones análogas a esta nueva orientación (en los casos de Piaget, Bachelard, Althusser, especialmente). No parece existir hasta el momento una versión alternativa al método estándar que tenga su riqueza formal y metodológica (salvo la epistemología genética de Piaget). Por ello vamos a limitarnos simplemente a aludir a algunas de las objeciones y modificaciones que se han propuesto con relación a la versión estándar.
a) La distinción “teórico versus empírico” con relación a los términos extralógicos es vista con poco entusiasmo por algunos (Popper, por ejemplo). En el significado de todos los términos científicos hay componentes conceptuales, empíricos y teóricos en algún sentido de esta palabra. Sin que de aquí se desprenda que no hay enunciados básicos, empíricos o de contrastación, se tendría por válido que la distinción en niveles es artificial e inexacta.
b) La teoría deductiva-refutativa de la contrastación parece demasiado esquemática. En realidad, cuando se contrasta una teoría examinando determinado material, es seguro que intervinieron además de las hipótesis fundamentales otras hipótesis, algunas de las cuales son las hipótesis presupuestas para poder siquiera plantear la teoría examinada (por ejemplo, es necesario presuponer la geometría de Euclides para poder enunciar los principios de la física newtoniana), y otras son hipótesis acerca del propio material. La contrastación estaría entonces poniendo a prueba un conjunto muy grande de conjeturas, además de las que definen la teoría propiamente dicha. Por ejemplo, Quine llega a pensar que la contrastación pone a prueba una Gestalt conformada por hipótesis científicas, lógicas y empíricas. Refutar una teoría es difícil, pues la premisa falsa podría estar fuera de la teoría. En particular, siempre es posible introducir hipótesis de trabajo e hipótesis ad hoc para salvar una teoría. Contrastar es entonces un proceso complicado, en el que intervienen decisiones y contrastaciones secundarias (una posición extrema en este punto es la de Imre Lakatos, un popperiano inteligente y original). De acuerdo con esta objeción, la conservación o el abandono de teorías sería un hecho de naturaleza en parte empírica, en parte lógica y en parte pragmática.
c) Los enunciados de nivel I tienen peso excesivo. El propio Popper reconoce que los acontecimientos singulares tienen poco valor científico, y que la fuerza corroborativa o refutativa la tienen los eventos, es decir –según su nomenclatura– las clases de acontecimientos similares. Los enunciados singulares tienen también categoría de hipótesis (debido al carácter disposicional y abierto de todo predicado) y también ellos requieren contrastación (pero esto no lleva a un regreso al infinito pues siempre hay una decisión pragmática que indica provisoriamente los enunciados que se toman básicamente sin discusión, decisión que se considera corregible y modificable). También acá surge un sesgo pragmático en el proceso de contrastación.
d) El concepto de “base empírica” y de “experiencia”, como algo anterior a la teoría, es muy cuestionado. Para las grandes teorías como la física newtoniana, el psicoanálisis, o ciertas teorías sociológicas, los términos empíricos adquieren su sentido según los principios de la teoría. No habría experiencia independiente; las entidades empíricas son un recorte de la realidad efectuado desde dentro de la teoría. La idea de la contrastación de una teoría con una práctica o empiria externa e independiente a ella resulta inadmisible para los cultores de este modo de pensar. El método hipotético deductivo parece equivocado, resultando la metodología de la ciencia una cuestión más interna en la que se demanda mera coherencia lógica entre los aspectos teóricos de la teoría con los aspectos empíricos, que son también determinados por la teoría. Es la práctica y eficacia de la teoría la que lleva –entre otros factores– a su adopción o abandono, y no las dificultades o ventajas externas. La posición de Norwood Russell Hanson es característica en este sentido, como también la de los pensadores de la escuela de Althusser.
e) La descripción del proceso histórico crítico que los hipotético-deductivistas creen advertir en la historia de la ciencia no parece muy adecuada. La ya clásica obra de Thomas S. Kuhn sobre la estructura de las revoluciones científicas señala que durante los períodos de “ciencia normal” no existe nada semejante a la contrastación crítica y continua de las hipótesis fundamentales de la teoría del “paradigma”. Por el contrario, nadie osa poner el paradigma en tela de juicio. Durante las revoluciones científicas la cosa es diferente, pero aun así hay más cuestión de convencimiento, insatisfacción y convicción que de corroboración y refutación. La aceptación y abandono de las teorías científicas es más un fenómeno sociológico relacionado con consenso y decisión que con las propiedades lógicas del conocimiento.
f) El lenguaje científico está poco diferenciado del lenguaje ordinario. En realidad, debiera mostrarse que hay un abismo conceptual entre las nociones del lenguaje ordinario y las de una teoría científica. La admisión de un vocabulario empírico independiente de las hipótesis de la teoría es uno de los obstáculos de esta toma de conciencia de la diferencia aludida. El lenguaje ordinario es naturalmente proclive a las influencias ideológicas negativas. La posibilidad de escapar a la inadecuada influencia de lo ideológico dentro de lo científico (y también dentro de la filosofía de la ciencia) está en constituir con nitidez y especificidad los conceptos de las teorías científicas. El concepto de “ruptura epistemológica” de Bachelard se relaciona con el fenómeno de constitución autónoma y clara de la red conceptual de cada teoría científica y su separación radical de las nociones del lenguaje ordinario y de sus fuentes ideológicas, entre las que no están ausentes, curiosamente, la noción aristotélica de verdad, la concepción semántica del lenguaje o la noción de hipótesis.
Muchas de estas objeciones tienen fuerza. No obstante, un examen detallado de la metodología usual de las teorías científicas permitiría advertir que la práctica científica y la estructura lógica de la mayoría de los trabajos de investigación contemporáneos se adapta bastante más a la versión estándar que a alguno de los modelos planteados por sus críticos. Es probable que el tema sea demasiado complicado para agotarlo convincentemente en un solo artículo, y lo dejaremos aquí como cuestión opinable.
Bibliografía
Althusser, L.: La filosofía como arma de la revolución. Pasado y Presente, Córdoba, 1971.
Althusser, L.: La revolución teórica de Marx. Siglo XXI, Buenos Aires.
Bachelard, G.: Epistemología. Anagrama (textos escogidos por D. Lecourt).
Badiou, A.: El concepto de modelo. Siglo XXI, Buenos Aires, 1973.
Bunge, M.: La investigación científica. Ariel, Buenos Aires, 1979.
Carnap, R.: Los fundamentos lógicos de la física. Sudamericana, Buenos Aires.
Hanson, N. R.: Patterns of Discovery. Cambridge University Press.
Hempel, C.: Aspects of Scientific Explanation and Other Essays in the Philosophy of Science. London, Free Press.
Klimovsky, G.: Estructura y validez de las teorías científicas. Nueva Visión, Buenos Aires, 1971.
Kuhn, T.: La naturaleza de las revoluciones científicas. Fondo de Cultura Económica, México, 1972.
Lakatos, I. y Musgrave, A.: Criticism and the Growth of Knowledge. Cambridge University Press.
Nagel, E.: La estructura de la ciencia. Paidós, Buenos Aires, 1968.
Piaget, J.: Introduction à l’Epistémologie Génetique. Presses Universitaires de France, París, 1950.
Popper, K.: La lógica de la investigación científica. Tecnos, Madrid, 1962.
Popper, K.: Conocimiento objetivo. Tecnos, Madrid.
Russell, B.: Nuestro conocimiento del mundo externo. Losada, Buenos Aires.