Читать книгу Conocimiento y lenguaje - AA.VV - Страница 8
Оглавление3. El lenguaje y la mente*
Beatriz Gallardo Paúls
Universitat de València
Para MARTÍ.
Se llega mejor a la profundidad
mirando desde dos puntos a la vez.
Jerome S. Bruner
En este apartado obviaremos las habituales discusiones sobre cuál es el objetivo de la psicolingüística, y las posturas reivindicativas (cuando no claramente beligerantes) sobre la legitimidad del estudio por parte de lingüistas o de psicólogos. Asumimos, sin más, que ambas tradiciones epistemológicas tienen mucho que decir a propósito de las relaciones entre el lenguaje y la mente, y rechazamos cualquier pretensión de exclusividad que por lo general, o bien trata de justificar ausencias bibliográficas, o bien responde a una tradición «burocratizante» de las disciplinas científicas que la última década del siglo XX ya ha demostrado poco operativa.
Efectivamente, las postrimerías del siglo XX han supuesto la difuminación de las fronteras disciplinares, igual que el siglo XXI parece encaminarse a desdibujar esas mismas fronteras en el ámbito laboral. El lector para el que redactamos estas páginas no es, pues, en exclusiva, lingüista ni psicólogo, y nuestras referencias bibliográficas se nutren indistintamente de ambas tradiciones.
3.1 Las relaciones pensamiento-lenguaje desde el marco estructuralista
Desde las primeras épocas de reflexión filosófica, el ser humano se ha preocupado de las relaciones entre pensamiento y lenguaje, y entre lenguaje y realidad. Ya Platón en el Crátilo identificaba el pensamiento como el diálogo del alma consigo misma, y planteaba las dos posturas básicas sobre la relación entre las palabras y sus significados: o bien existe un correlato directo, natural, entre la palabra y la cosa, como defiende Crátilo, o bien, como argumenta Hermógenes, la vinculación de una palabra con su significado es fruto de algún tipo de convención. En la Edad Media, las gramáticas especulativas de la filosofía escolástica (ca. 1200-1350), que buscaban integrar la tradición aristotélica con el catolicismo, distinguían tres niveles de realidad: la de las cosas (modus essendi), la de los conceptos (modus intelligendi) y la de las palabras (modus significandi), los dos últimos con una dimensión activa y pasiva que los relacionaba entre sí. Estos gramáticos, llamados modistas, tratan de explicar el modo en que las palabras reflejan la realidad de las cosas una vez éstas son concebidas por el intelecto; sus estudios gramaticales tratan de buscar regularidades de pensamiento subyacentes al uso lingüístico.
En los años iniciales del siglo XX, preocupaciones similares llevan a la escuela etnolingüística norteamericana a establecer un determinismo de la lengua sobre el pensamiento que, en su versión radical, dará paso a la (mal) conocida Hipótesis Sapir-Whorf (decimos «mal conocida» porque no fue propuesta por los autores que la nombran, sino por autores posteriores). Esta aproximación a las relaciones entre pensamiento y lenguaje, con todo, se plantea desde un ámbito distinto al que aquí nos ocupa, pues atiende más a las consecuencias sociales y culturales de hablar cierta lengua que a la individualidad psicolingüística.
3.1.1 Lingüística estructural y psicología en los inicios del s. XX
Un lugar común en la historiografía lingüística señala que el estructuralismo que inauguran De Saussure (1916) en Europa y Bloomfield (1926) en Estados Unidos, remite a un modelo psicológico conductista. Sin embargo, el panorama de investigaciones y publicaciones de ambas disciplinas es más complejo de lo que esta afirmación puede dar a entender.
En efecto, en la etapa de aparición y consolidación de la lingüística estructuralista, la historiografía psicológica (Tortosa, 1998) da cuenta de varias propuestas que resultan de interés en la problemática pensamiento-lenguaje:
- la Psicología de la Gestalt, representada por investigadores de la escuela de Graz (o «escuela austríaca») y la escuela de Berlín-Frankfurt: Max Wertheimer (1880-1943), Wolfgang Köhler (1887-1967), Kurt Lewin (1890-1947)
- el constructivismo de Jean Piaget (1896-1980)
- la reflexología de Ivan Petrovich Pavlov (1849-1936)
- la escuela socio-histórica de Lev Semionovitch Vygotski (1896-1934)
- el conductismo de John Broadus Watson (1878-1958)
Estas teorías psicológicas sirven de marco de referencia a diversos planteamientos de la relación entre pensamiento y lenguaje.
3.1.2 Posturas clásicas sobre pensamiento y lenguaje: J. Piaget y L. S. Vygotski
Mientras las investigaciones lingüísticas de los años 30 desarrollaban las premisas estructuralistas dando origen a la fonología y la morfología estructural (pensemos, por ejemplo, en las investigaciones del Círculo de Praga o en las publicaciones de estos años en la revista norteamericana Language), en el ámbito psicológico las primeras décadas del siglo XX vienen marcadas por la obra de dos psicólogos procedentes de tradiciones enfrentadas: el ginebrino Piaget y el ruso Vygotski, cuyas posturas sobre pensamiento y lenguaje resumimos muy concisamente a continuación.
Para Piaget, la base de la conducta es la adaptación, que se manifiesta en dos procesos: la asimilación y la acomodación (Pulaski, 1971: 7). Juan Antonio Vera (1998a: 181) resume en una pregunta los intereses del autor ginebrino:
¿Cómo un organismo, esto es, un ser que ha alcanzado determinado grado de organización vital, se adecua a su medio ambiente, y cuáles son los mecanismos que hacen posible el ajuste entre organismo y medio?
La respuesta a esta pregunta recoge inicialmente la formación biologista de Piaget (doctorado en Ciencias Naturales): la adecuación del ser vivo a su medio ambiente se realiza mediante esquemas adaptativos, por medio de los cuales el organismo compensa o autorregula las perturbaciones exteriores (Bronckart, 1977: 45); en el ser humano, los mecanismos autorreguladores más eficaces son los mecanismos cognitivos, que dan origen a las estructuras de la inteligencia (estructuras, por tanto, que no serían innatas, sino construidas). Por eso el tema del desarrollo verbal aparece en Piaget íntimamente unido al estudio del desarrollo cognitivo y el planteamiento inicialmente biologista se trastoca en un planteamiento psicológico.
La búsqueda de equilibrio entre el organismo y el medio es, pues, lo que motiva el encadenamiento indefinido de unas reacciones circulares en las que el sujeto se ve doblemente implicado:
- por un lado, al asimilar la realidad exterior, integrando elementos nuevos en esquemas adaptativos ya disponibles, se ve afectada la totalidad del organismo.
- por otro lado, al acomodar internamente las estructuras del organismo a esa nueva realidad, se producen cambios que de nuevo lo hacen vulnerable a otras perturbaciones externas.
Tal y como apunta Vera (1998a), lo que subyace a esta perspectiva piagetiana es una visión funcionalista de los procesos adaptativos del individuo (lo que en términos cibernéticos describiríamos como homeostasis), que a su vez nos remite a dobletes conceptuales del tipo sujeto-objeto, medio interno-medio externo, conocedor-conocido. Efectivamente, estos procesos de aclimatación son los que permiten conciliar la realidad externa e interna mediante un diálogo constante entre sujeto y objeto («entre vida y materia», señala Vera, subrayando la influencia bergsoniana en Piaget), diálogo que sustenta otros dos conceptos piagetianos fundamentales, interaccionismo y constructivismo:
- la interacción tiene lugar entre el organismo y el medio, entendidos ambos como dos realidades interdependientes que se alejan tanto de las visiones empiristas y conductistas (que otorgan excesiva importancia al influjo del entorno sobre el sujeto) como de las posiciones mentalistas (para las cuales lo esencial es la representación interna que el sujeto tiene de la realidad). Las reacciones circulares entre el sujeto y el medio describen una suerte de retroalimentación mutua entre la realidad y el individuo a partir de la cual se cimentan ambas entidades.
- la construcción es la consecuencia inmediata de la interacción; en tanto en cuanto el sujeto y el medio se definen exclusivamente a partir de sus interrelaciones, podemos decir que se construyen simultáneamente a la acción (que es, como hemos dicho, una reacción adaptativa permanente). Esta doble construcción (del sí mismo y de la realidad exterior) es realizada por el niño en las primeras fases de su desarrollo cognitivo, mediante la elaboración de un número creciente de esquemas adaptativos que se mueven entre los dos polos que definen la subjetividad, y que volveremos a tratar en términos lingüísticos a propósito de Benveniste (§3.5): el sujeto asimilador y el objeto.
Según apunta el título de una de sus monografías (La construcción de lo real en el niño, de 1937), Piaget da una especial importancia a estos procesos construccionistas que son resultado de la interacción con el medio, y que describen un cierto desplazamiento amplificador desde el yo hacia los objetos y sus relaciones (en las que podrá participar, objetivizándose, el propio sujeto):
Al principio de la actividad asimiladora, cualquier objeto ofrecido por el medio exterior a la acción del sujeto no es más que algo para chupar, mirar o asir: tal asimilación está pues, en esta fase, centrada únicamente en el sujeto asimilador. Por el contrario, el mismo objeto se transforma después en algo que puede desplazarse, moverse y utilizarse con fines cada vez más complejos. Lo esencial llega a ser, pues, el conjunto de relaciones elaboradas por la actividad propia entre este objeto y los demás: a partir de aquí, asimilar significa comprender o deducir y la asimilación se confunde con la inserción del objeto en una red de relaciones. Por este mismo hecho, el sujeto asimilador adquiere una relación de reciprocidad con las cosas asimiladas: la mano que coge, la boca que chupa o el ojo que mira no se limitan ya a una actividad inconsciente de sí misma, aunque centrada sobre sí, sino que son concebidas por el sujeto como unas cosas entre otras que mantienen relaciones de interdependencia con el universo (Piaget, 1937: 7).
Mediante esta asimilación constante en los primeros años de vida, el niño construye las estructuras cognitivas que constituyen su inteligencia («el dispositivo de adaptación por excelencia» según Vera, 1998a: 183), de ahí que una de las obras más emblemáticas de Piaget, publicada en 1936, lleve por título El nacimiento de la inteligencia en el niño. En esta obra describe las fases de desarrollo cognitivo del sujeto, que aparecen esquematizadas en el siguiente cuadro.
Desarrollo cognitivo según Jean Piaget
Como vemos, la etapa inicial del desarrollo cognitivo proporciona una inteligencia sensoriomotriz que carece de constructos estrictamente conceptuales; la adaptación al medio se realiza en primer lugar a través de la percepción sensorial (etapa sensoriomotriz) y poco a poco se van construyendo las estructuras cognitivas que sustentan el desarrollo intelectual y verbal; en este período inicial que se extiende aproximadamente durante los dos primeros años de vida, el niño experimenta la definitiva constitución del objeto a través de seis fases diferentes. Los experimentos de ocultación de objetos le llevan a concluir que al final del segundo año
el objeto ya no es, como en las cuatro primeras fases, sólo la prolongación de las diversas acomodaciones, tampoco es, como en la quinta fase, un móvil permanente cuyos movimientos llegaron a ser independientes del yo aunque únicamente en la medida en que fueron percibidos. El objeto se libera definitivamente tanto de la percepción como de la propia acción para obedecer las leyes de desplazamientos enteramente autónomos. En efecto, por el mismo hecho de entrar en el sistema de las representaciones y las relaciones abstractas o indirectas, el objeto adquiere, en la conciencia del sujeto, un nuevo y definitivo grado de libertad: es concebido permanentemente idéntico a sí mismo sean cuales sean sus desplazamientos invisibles o la complejidad de las pantallas que lo oculten. (Piaget, 1937: 82).
Este proceso de desarrollo cognitivo describe la construcción de unas estructuras del conocimiento progresivamente más eficaces y complejas, que mantienen una relación privilegiada con el sistema lingüístico del sujeto. A estas relaciones dedica Piaget sus obras El lenguaje y el pensamiento en el niño (1923) y La formación del símbolo en el niño (1946). Entre los pilares conceptuales de sus teorías citamos los siguientes:
- Importancia de la función simbólica y de la representación: el lenguaje se considera como una manifestación, entre otras, de la función simbólica del sujeto, que a su vez es fruto de su capacidad cognitiva. Esta función simbólica está en la base de las representaciones, que aparecen en la sexta etapa del período sensoriomotor (Piaget, 1937: 12, 82), y que pueden entenderse de una manera amplia, como cualquier tipo de conocimiento separado ya de la percepción o el movimiento, o restringida, como una unión de un elemento significante (figurativo) y un elemento significado (operativo). Estas representaciones figurativas pueden ser, a su vez, de tres clases, cuya aparición en la conducta del niño es sucesiva: los índices perceptivos (imágenes mentales obtenidas en el proceso perceptivo, internas al sujeto), los símbolos (elementos externos al sujeto pero de significado individual, que el niño utiliza en el juego simbólico, por ejemplo la representación de un coche mediante una caja o una piedra) y los signos (significantes externos al sujeto y de uso colectivo, como las lenguas naturales).
- Autocentración (egocentrismo): los primeros estadios de conciencia del sujeto no diferencian entre el yo y otras realidades; esta indiferenciación explica que la aparición inicial del lenguaje vaya ligada a la actividad adaptativa de asimilación. Por eso Piaget identifica en primer lugar las producciones de lenguaje egocéntrico, cuyas tres categorías (las respuestas ecoicas, los monólogos y los monólogos colectivos) describen a un niño que no distingue entre su punto de vista y el del interlocutor, que no está preocupado por la relación con el otro a través del habla. Estas emisiones egocéntricas tienen la función básica de reforzar la acción o sustituirla, y están desprovistas de una función comunicativa o informativa intencionada; se oponen a lo que Piaget llama inicialmente lenguaje socializado, y constituyen más de la mitad de las producciones en hablantes menores de 3 años.
- Descentración: este proceso significa el progresivo acceso a sistemas de comunicación e interlocución, de manera simultánea a la propia constitución del sujeto. A los siete años, sólo una cuarta parte de las producciones verbales sería egocéntrica, y a los 10 años tiende a desaparecer.
- La inteligencia precede al lenguaje: el lenguaje es un sistema de signos como lo es la imitación diferida, la mímica, el juego simbólico, u otros, cuya aparición debe subordinarse necesariamente a la formación previa de la inteligencia sensoriomotriz (Piaget, 1968: 80); con todo, Piaget es consciente de que la relación pensamiento-lenguaje no se resuelve simplemente por esta distancia cronológica: «es evidente que si el lenguaje procede de una inteligencia particularmente estructurada, la estructura a su vez, y aquí comienzan los verdaderos problemas.» (1968: 82).
- El lenguaje es inicialmente individual, egocéntrico, y posteriormente comunicativo, social.
La psicolingüística posterior ha criticado especialmente dos de estos planteamientos: el énfasis en la naturaleza representacional del lenguaje emergente (minimizando la función comunicativa) y la dependencia del lenguaje respecto al desarrollo cognitivo previo. Así, Galeote (2002: 79) recoge varios argumentos según los cuales el desarrollo cognitivo sería insuficiente para explicar el desarrollo verbal, por ejemplo:
– la gramática temprana del niño implica un tipo de conocimientos que desbordan los aportados por la inteligencia sensoriomotriz,
– los niños con trastorno específico del lenguaje (TEL) poseen un desarrollo cognitivo normal y sin embargo tienen serios problemas para adquirir la gramática de su lengua,
–inversamente, el estudio de niños con deficiencias cognitivas y síndromes diversos (hidrocefalia, síndrome de Williams-Beuren, espina bífida, síndrome de Turner) muestra que una buena adquisición de la gramática es compatible con deficiencias cognitivas importantes,
– el contraste interlingüístico presenta diferencias en la adquisición según la complejidad formal de las lenguas.
Efectivamente, estos argumentos podrían sustentar la pretensión generativista de especificidad de la facultad del lenguaje, pues aparentemente permiten hablar de una adquisición del lenguaje independiente del desarrollo intelectual (para una relativización de estos resultados referida al síndrome de Williams véase, sin embargo, Garayzábal, 2004). No obstante, podemos plantear una objeción que los argumentos generativistas comparten con las posturas piagetianas, y que se refiere a la identificación de lenguaje y función representativa o, planteado en otros términos, la ausencia de consideraciones sobre el uso social y pragmático, comunicativo, del lenguaje (Vygotski, 1934; Bronckart, 1977: 52-53; Bruner, 1983: 21). A este respecto, la obra de Piaget encuentra su contrapunto más notable, y más difundido, en las posturas de Vygotski, que resumimos a continuación.
L. S. Vygotski se graduó en leyes en 1917 y en 1925 se doctoró en psicología con una tesis sobre Psicología del arte; su trabajo específicamente psicológico se desarrolla entre 1924 (fecha en que se incorpora al Instituto de Psicología de Moscú) y 1934 (año de su fallecimiento), es decir, en los primeros años de la Unión Soviética. Sin embargo, la represión estalinista de los años 30 prohibió sus obras casi desde el mismo momento de su muerte, y hasta 1956 no se publicaban de nuevo. Según señala Vera (1998b: 219) «durante esos diez años luchó incansablemente, tratando de elaborar una teoría marxista que explicara los procesos psicológicos superiores del ser humano.»
La postura de Vygotski sobre las relaciones entre pensamiento y lenguaje aparecen en dos trabajos de 1929 («Raíces genéticas del pensamiento y el lenguaje») y 1932 («El problema del habla y el pensamiento en la teoría de Piaget»), que se recogen como capítulos 4º y 2º de la compilación Pensamiento y lenguaje (1934). Su punto de partida es analizar la relación entre ambas funciones tanto en el desarrollo filogenético como en el ontogenético, un doble análisis que le lleva a las siguientes conclusiones:
1. En la filogénesis:
1. Pensamiento y lenguaje tienen raíces genéticas diferentes.
2. El desarrollo de pensamiento y lenguaje se realiza por canales distintos, independientes entre sí.
3. La relación entre pensamiento y lenguaje durante el desarrollo filogenético no es constante.
4. Los antropoides muestran una inteligencia similar a la humana en su rudimentario uso de herramientas. Su lenguaje es también similar al de los humanos, pero aquí la similitud se vincula con diferentes aspectos del función psicológica. Se vincula con la fonética del lenguaje, la función emocional del lenguaje, y la existencia de los rudimentos del lenguaje social.
5. Los antropoides no manifiestan el estrecho vínculo entre pensamiento y lenguaje que caracteriza al hombre. En el chimpancé, ambos están completamente desconectados.
6. En la filogénesis del pensamiento y el lenguaje, podemos identificar con certeza al menos una fase prelingüística en el desarrollo de la inteligencia y una fase preintelectual en el desarrollo del lenguaje (Vygotski, 1934: 109 [trad. propia]).
2. En la ontogénesis:
1. Como ya vimos en el análisis del desarrollo filogenético del pensamiento y el lenguaje, ambos procesos tienen raíces diferentes en la ontogénesis.
2. Igual que identificamos un estadio «prelingüístico» en el desarrollo del pensamiento infantil, podemos identificar un «estadio preintelectual» en el desarrollo de ese lenguaje.
3. Hasta cierto punto el lenguaje y el pensamiento se desarrollan en líneas diferentes e independientemente uno de otro.
4. A partir de cierto punto, ambas líneas confluyen: el pensamiento deviene verbal y el lenguaje intelectual (Vygotski, 1934: 109 [trad. propia]).
Esta confluencia, que tiene lugar al final del segundo año de vida, constituye lo esencial de la conciencia humana («El pensamiento y el lenguaje son la clave para entender la naturaleza de la conciencia humana», 1934: 285), y su explicación no puede basarse en el estudio separado de los elementos que la integran; dice que esta consideración (una evolución paralela pero independiente de pensamiento y lenguaje) es lo mismo que tratar de explicar por qué el agua apaga el fuego recurriendo a la descomposición del agua en hidrógeno y oxígeno. Por el contrario, Vygotski propone un cambio de perspectiva que sustituya los «elementos» por «unidades» (1934: 244), es decir, que adopte una consideración global del pensamiento y el lenguaje.
Inicialmente, Vygotski resuelve esta confluencia mediante el concepto de «lenguaje interior», caracterizado por Watson en oposición al «lenguaje exterior» propio de la adaptación social, pero se resiste a interpretarlo como una simple disminución del volumen del habla:
No hay evidencia de que la transición desde un lenguaje exterior público hacia un lenguaje interior disimulado se realice a través del susurro. Simplemente no ocurre que el niño empiece gradualmente a hablar más y más bajo hasta llegar por fin a un lenguaje silencioso. (1934: 112 [trad. propia]).
Posteriormente, para hallar el vínculo transicional que facilita este paso del lenguaje externo al interno, Vygotski recurre al concepto piagetiano de lenguaje egocéntrico y propone un desarrollo en cuatro fases:
- estadio natural o primitivo: lenguaje preintelectual y pensamiento prelingüístico;
- estadio ingenuo: el niño maneja estructuras y formas gramaticales antes de manejar sus correspondientes funciones y operaciones lógicas;
- estadio del signo y la operación externos: el niño resuelve la tarea mental interna apoyándose en el signo externo (cuenta con los dedos, por ejemplo); corresponde al lenguaje egocéntrico;
- estadio del «arraigo»: se produce el movimiento desde la operación externa a la interna; es el estadio de la memoria lógica, que utiliza relaciones interiores en la forma de signos interiores; aparece la aritmética «muda» y, en el ámbito verbal, el lenguaje interior o lenguaje silencioso.
En esta descripción inicial la socialización del niño a través del lenguaje ocupa un papel fundamental para su desarrollo cognoscitivo; curiosamente, Vygotski utiliza a Piaget como argumento de autoridad para llegar a esta conclusión:
Como la investigación de Piaget ha demostrado, el desarrollo de la lógica del niño es una función directa de su lenguaje socializado. Esta posición puede formularse en los siguientes términos: el desarrollo del pensamiento del niño depende de su dominio de los medios sociales de pensamiento, es decir, de su dominio del lenguaje (Vygotski, 1934: 120 [trad. propia]).
En su artículo de 1932, Vygotski analiza las teorías de Piaget sobre pensamiento y lenguaje infantil, y desarrolla su diferente interpretación del lenguaje egocéntrico. Comienza señalando las novedosas aportaciones que suponen, por un lado, el método clínico desarrollado por Piaget y, por otro, su caracterización de la mente infantil sin recurrir al contraste (en negativo) con la mente adulta, algo en lo que también Bruner hará hincapié. Sin embargo, realza la importancia funcional del lenguaje egocéntrico, otorgándole un papel esencial en el cambio desde un lenguaje mediador de la conducta social hasta un lenguaje mediador de la conducta individual, y plantea una crítica esencial a la obra piagetiana:
Sugeriríamos que en la concepción de Piaget es fundamental la ausencia de dos elementos [...] Lo que falta, pues, en la perspectiva de Piaget es la realidad y la relación del niño con esa realidad. Lo que falta es la actividad práctica del niño. Esto es fundamental. Incluso la socialización del pensamiento del niño es analizada por Piaget separada de su contexto práctico. Está aislada de la realidad y es tratada como la pura interacción o comunicación de mentes. Este es el tipo de socialización que conduce en el enfoque de Piaget al desarrollo del pensamiento (1934: 87 [trad. propia]).
Esta crítica se acentúa en otros artículos, como «El pensamiento y la palabra», que aparece como capítulo 7 de Pensamiento y lenguaje:
El lenguaje egocéntrico es un fenómeno común en el niño [...] Piaget no entendió su significado. Intentó estudiarlo e interpretarlo teóricamente. Sin embargo, permaneció completamente ciego a la característica más importante del lenguaje egocéntrico, es decir, a sus orígenes genéticos y sus conexiones con el lenguaje interno. Como consecuencia, su interpretación de su naturaleza fue falsa en términos funcionales, estructurales y genéticos (1934: 257 [trad. propia]).
En sus estudios empíricos (similares a los de Piaget y realizados en colaboración con A. R. Luria, A. N. Leontiev, R. E. Levina y otros), Vygotski concluye que el lenguaje egocéntrico no es un simple acompañamiento de la acción, sino que realiza desde los estadios iniciales un importante papel en la actividad infantil; comprueba que la cantidad de emisiones egocéntricas casi se duplica cuando al niño le surge un problema («¿Dónde está el lápiz? Necesito el azul... No queda... Pues entonces lo pintaré rojo y pondré agua... así se hace más oscuro y más parecido al azul...»), lo que apoya la idea de que efectivamente estas emisiones realizan una función: entender la situación, encontrar solución a un problema o planificar lo que va a hacer (por ejemplo describiendo el dibujo a medida que lo realiza). Su caracterización del habla egocéntrica le da un papel transicional que describe por medio de la función y la forma:
Estas emisiones no son, pues, una simple manifestación de la naturaleza autocentrada del pensamiento infantil, sino una herramienta en el proceso de interiorización del lenguaje. Vygotski (1934: 75) compara tres modelos descriptivos que podemos representar en la siguiente tabla:
Esta consideración de la praxis lingüística efectiva ha llevado a Bruner (1987: 6) a señalar la proximidad de Vygotski con los planteamientos de la pragmática enunciativa de Austin, Searle o Grice, especialmente en lo que se refiere a su inclusión de una «actividad volitiva» en cada expresión (Vygotski, 1934: 282).
Por lo que se refiere a la distinta consideración de Piaget y Vygotski de la etapa egocéntrica, López (1988: 32) ha indicado que no se trata de enfoques tan contradictorios como parece, sino que pueden verse como complementarios en la medida en que cada uno atiende a una característica distinta de las lenguas naturales. Ese lenguaje egocéntrico que aumenta cuando el niño tiene algún tipo de problema (Vygotski) apunta, sin duda, a una función reflexiva, metalingüística, mientras que al privilegiar la autocentración que desconecta los significantes de sus significados «reales», Piaget está apelando más bien a la capacidad prevaricadora (asumimos, en la línea de Hockett y Altman, que lo exclusivo de las lenguas naturales como sistemas semióticos, es la simultaneidad de dualidad, reflexividad y prevaricación, cf. López, 1988: 23).
3.1.3 Aportaciones de base conductista: B. F. Skinner
La psicología conductista considera la adquisición del lenguaje en el marco teórico de los hábitos (es decir, secuencias fijas de estímulos y respuestas), prescindiendo de estados y procesos mentales separados del comportamiento. Destaca especialmente la obra de Burrhus Frederic Skinner (1904-1990) y su teoría del comportamiento operante, que presenta a fines de los años 40 en las Conferencias William James y publica definitivamente en su libro de 1957 La conducta verbal.
Skinner distingue junto al condicionamiento clásico pavloviano, un condicionamiento instrumental u operativo en el que la reacción al estímulo es producida casualmente y reforzada a posteriori. En el contexto del entrenamiento animal tenemos, por ejemplo, al hámster que salta casualmente por el aro y que recibe una golosina para reforzar esa acción. En el contexto del aprendizaje verbal, la reacción (el operante) es la emisión verbal del niño, cuya fijación depende del refuerzo positivo que proporcione el adulto a continuación; así, por ejemplo, ante las primeras palabras u holofrases, el niño recibe casi siempre un refuerzo positivo por parte de la madre (sonrisa, celebración, repetición aprobatoria...).
Skinner propone una clasificación de los operantes verbales en tres categorías:
- Los mands: son reacciones a estímulos internos, generalmente situaciones de privación o necesidad, que tienen consecuencias prácticas en el entorno (por ejemplo, el niño obtiene agua, consigue que lo cojan...).
- Los tacts: son reacciones a estímulos externos no verbales; incluyen la mayor parte de los comportamientos verbales.
- Las respuestas eco: reaccionan a estímulos externos verbales; se incluyen aquí las imitaciones verbales, la lectura (comportamiento textual), y ciertas asociaciones intraverbales del tipo 1492: Descubrimiento de América.
La pretensión básica de Skinner era dotar al estudio del lenguaje de un estatus científico comparable al de otras facetas del comportamiento humano; su posicionamiento teórico (llamado a veces neoconductismo radical) le lleva a desatender factores no sistematizables como el contexto, la intención o incluso el significado, pero a la vez, adopta un enfoque funcional de las emisiones que puede considerarse precursor de la pragmática enunciativa.
Sin embargo, su obra fue duramente criticada por una reseña que realizó Chomsky en Language en 1959. Recordemos que el mismo año de publicación de La conducta verbal Chomsky inauguraba el generativismo con su obra Las estructuras sintácticas; su ataque fundamental a la obra de Skinner consiste en que las cadenas fijas del tipo:
no dejan lugar para la creatividad de un hablante que (recordemos) puede generar infinitas oraciones a partir de un conjunto finito de reglas. Richelle (1998: 339) resume así la incidencia de la reseña crítica que escribió Chomsky sobre el libro de Skinner:
Una de las críticas más banalmente dirigidas a Skinner ha sido el extrapolar a la especie humana las conclusiones de algunos experimentos sobre animales de laboratorio. Esto es desconocer su preocupación, anteriormente señalada, por los comportamientos más específicamente humanos, y especialmente el lenguaje. Corresponderá a los historiadores de las ciencias humanas el valorar las consecuencias que tuvo para la influencia de Skinner por una parte, y para la orientación tomada por la psicología cognitiva por otra, la crítica que hizo Chomsky [...] Queda que la contribución de Skinner, que proponía un análisis funcional del comportamiento verbal, teniendo en cuenta el carácter interactivo de la actividad lingüística [...] se vio desmantelada por el efecto de una crítica cuyos argumentos apuntaban a temas ajenos a las posiciones skinnerianas o las deformaban de una manera que apuntaba a la deshonestidad intelectual.
La insistencia chomskiana en la creatividad, no obstante, debe relativizarse a la luz de las investigaciones pragmáticas desarrolladas en la segunda mitad del siglo XX. La noción de predictibilidad, identificada por los autores de la escuela de Birmingham (John Sinclair, Malcolm Coulthard, Michael Stubbs), y que aparece en otras escuelas como pertinencia condicionada (análisis conversacional etnometodológico) o restricciones de encadenamiento (pragmática dialógica francófona), nos permite resituar la visión de Skinner sobre la sucesión de las emisiones verbales. Si bien es cierto, como pretende Chomsky, que la reacción ante un estímulo dado ofrece infinitas posibilidades de construcción sintáctico-léxica, también es cierto que cada emisión impone restricciones de ilocutividad y de orientación interactiva a la emisión siguiente (Gallardo, 2003b). Dado un estímulo como una invitación, el sujeto podrá construir la respuesta de mil maneras diferentes, sí, pero tal respuesta se moverá siempre en un espectro de posibilidades que oscila entre la aceptación y el rechazo.
Con todo, la ruptura radical que impuso la gramática generativa tuvo un efecto de renovación que determinó la evolución del cognitivismo:
Era [el de Chomsky] un enfoque extremo. Pero de un golpe liberó a una generación de psicolingüistas del dogma de asociación-imitación-refuerzo. Giró la atención al problema del aprendizaje de las reglas, aunque se concentraba sólo en las reglas sintácticas. Al declarar muerta la teoría del aprendizaje como explicación de la adquisición del lenguaje (una de las necrologías más prematuras de nuestro tiempo), abrió el camino para un nuevo concepto (Bruner, 1983: 35).
3.2 Las relaciones pensamiento-lenguaje desde el marco generativista
3.2.1 Las posiciones de Chomsky
En 1957 Noam Chomsky (1928-) publica la primera versión del modelo gramatical generativista, Las estructuras sintácticas, donde plantea su concepción básica sobre el lenguaje y el pensamiento, la gramática y la propia lingüística (concebida como una subdisciplina teórica que se incluye en la psicología cognitiva). Como sabemos, este primer modelo será modificado en sucesivas versiones que permiten distinguir la teoría estándar, la teoría estándar ampliada, el modelo de la rección y ligamento, el modelo X-barra, el minimalista, etc., ya que la historia del generativismo es un verdadero ejercicio de «polifonía textual» (aunque no siempre dialógica).
La ingente bibliografía chomskiana, que complementa sus numerosos escritos con la publicación de entrevistas en medios de comunicación, la transcripción de debates o coloquios en los que participa, etc. obliga a que cualquier comentario sobre sus propuestas deba inevitablemente contextualizarse cronológicamente. Para describir sus posiciones sobre lenguaje y pensamiento, que han marcado considerablemente la orientación de la lingüística y la psicología cognitiva en la segunda mitad del siglo XX, debemos recurrir, más que a las publicaciones sobre gramática, a las que se ocupan específicamente de las relaciones entre pensamiento y lenguaje, como Lingüística cartesiana (1966), El lenguaje y la mente (1968), El lenguaje y los problemas del conocimiento (1988) o la entrevista que le realiza Brigitte Stemmer en el monográfico de Brain and Language (1999).
Como ya hemos señalado a propósito de Skinner, la gramática generativa nace con una voluntad claramente revolucionaria, contraria a la lingüística y a la psicología del momento. Bronckart exponía así en 1977 la relación entre este generativismo de las primeras décadas y el resto de escuelas investigadoras coetáneas:
el movimiento generativista se alzó literalmente «en armas», desde 1957, contra la lingüística estructuralista y contra la corriente estructuralista en psicología del lenguaje. [...] Deseoso de dar cuenta de la «creatividad» del sujeto hablante al formalizar el modelo interno o «facultad» del lenguaje que posee todo locutor, Chomsky no puede dejar de oponerse tanto a Skinner como a Bloomfield. Formula, contra estas dos escuelas (sobre todo contra la primera, cf. la reseña B. F. Skinner: Verbal behavior) unas críticas de tono extremadamente violento y apasionado. Este tono violento, que justificaba la violencia de las oposiciones ideológicas y filosóficas subyacentes, continuó sin embargo caracterizando los intercambios científicos entre los chomskianos y «los otros» [...] Si la polémica virulenta respecto de los antimentalistas norteamericanos pudo parecer justificada, su generalización al conjunto de las corrientes estructuralistas y, de modo general, al conjunto de la lingüística no generativa procede o bien de una ignorancia –parcial o total- de dichas corrientes, o bien de un imperialismo teórico que nadie puede justificar. [...] Obnubilado sin duda por el estructuralismo rígido de la posguerra, Chomsky consideró al conjunto de lingüistas de dicha escuela como antimentalistas, cosa que no deja de sorprender cuando se conocen las tomas de postura fenomenológicas de los miembros del CLP [Círculo Lingüístico de Praga] (1977: 141-142).
En consonancia con este posicionamiento intencionadamente rompedor, cabe entender la visión chomskiana sobre el lenguaje y la lingüística; frente a las posturas empiristas que buscaban la fuente del conocimiento y la conducta en la experiencia del sujeto y su relación con el entorno, el generativismo asume una posición racionalista («cartesiana») según la cual el conocimiento procede de la mente humana. La argumentación que conduce a esta conclusión es bien conocida (Veyrat, 1994): el proceso de adquisición del lenguaje supone el aprendizaje de un sistema de reglas (la gramática) cuya complejidad desborda la capacidad que el mismo niño muestra en otros ámbitos cognitivos; habida cuenta de la rapidez de este aprendizaje, que permite disponer de una gramática básica a edad muy temprana, no cabe sino concluir la existencia de un bagaje innato que facilite tal adquisición:
Una peculiaridad notable de la adquisición del lenguaje por parte del niño es el grado de precisión con el que imita el habla de sus modelos (miembros de la familia, otros niños, etc.). La precisión del detalle fonético va mucho más allá de lo que los adultos pueden percibir sin entrenamiento especial y por tanto no puede ser que ésta sea el resultado de alguna forma de entrenamiento [...]. Problemas similares surgen en el área de la adquisición del vocabulario, y la solución debe encontrarse en las mismas líneas: en la herencia biológica que constituye la facultad de lenguaje humano [...]. La velocidad y la precisión de la adquisición del vocabulario no deja alternativa verdadera alguna a la conclusión de que el niño, de alguna forma, dispone de conceptos previos a su experiencia de la lengua y está, básicamente, aprendiendo etiquetas para conceptos que ya son parte de su aparato conceptual (Chomsky, 1988: 31).
Para argumentar con más detalle esta dotación innata, Eric Lenneberg realizó un estudio que se ha convertido ya en un clásico del generativismo: Los fundamentos biológicos del lenguaje, de 1967, donde aportaba argumentos anatómicos, fisiológicos y neurológicos para defender el innatismo. Lenneberg es quien identifica un período crítico de adquisición; según él, la adquisición del lenguaje que sigue a la exposición a los datos de lenguaje adulto, se activa sólo durante el período de desarrollo cerebral del sujeto (aproximadamente hasta la pubertad). Estas tesis fueron rápidamente incorporadas por lingüistas y psicólogos, y alentaron la organización por la UNESCO en 1968 de un Simposio sobre Investigación Cerebral y Conducta Humana, cuyas actas aparecieron editadas por Eric Lenneberg y Elizabeth Lenneberg en 1975.
Una vez aceptado el innatismo, la cuestión inmediata que surge es definir la naturaleza de esa dotación genética, que se designa como mecanismo de adquisición del lenguaje, MAL (language acquisition device, LAD). La activación de este mecanismo sólo se hace posible tras la exposición previa a los datos verbales del habla adulta, lo que configura un sistema de tres módulos que son:
Al identificar un bagaje innato que va más allá de la simple capacitación para aprender, y que predispone al niño para la adquisición del lenguaje a través del MAL, Chomsky está abriendo la puerta a investigar desde el generativismo uno de los temas más tratados en las últimas décadas del siglo XX, como es la tipología lingüística y la búsqueda de universales gramaticales:
La doctrina central de la lingüística cartesiana es que las características generales de la estructura gramatical son comunes a todas las lenguas y reflejan ciertas propiedades fundamentales de la mente (Chomsky, 1966: 124).
Esta búsqueda de universales, sin embargo, no es una tarea fácil, pues afecta directamente a la naturaleza del MAL, y ha de garantizar su validez translingüística. Hemos de plantearnos, entonces, una descripción más concreta de la dotación innata, para lo que hablaremos de posibles grados de aceptación del innatismo. Los análisis detallados sobre este aspecto de la «historia interminable» de la gramática generativa describen una evolución (desde la teoría estándar ampliada de los años 70, hasta el programa minimalista de los 90) en la que progresivamente se suaviza el grado de concreción de las categorías innatas.
3.2.2 El innatismo
La innegable superioridad de formalización que ofrecía (y ofrece) la gramática generativa con respecto a las escuelas estructuralistas anteriores y coetáneas, hizo extensivo un presupuesto de tal superioridad en todos los ámbitos, incluyendo la aceptación del correlato psicologista que llevaba aparejado. Sin embargo, la constante necesidad de revisión de los sucesivos modelos formales se relaciona directamente con la inadecuación de este correlato psicológico, basado en la dotación innata de las categorías gramaticales.
Un factor clave de este modelo psicológico se manifiesta en la concepción de las estructuras del lenguaje, básicamente la estructura superficial (ES) y la estructura profunda (EP), y su relación con los distintos componentes de la gramática. La distinción de estas dos estructuras, que se mantiene constante desde 1957 hasta su disolución en el modelo minimalista de los 90, permitía conciliar cierta dotación innata compartida por toda la especie (EP) con la riqueza tipológica (ES) mostrada por las lenguas del mundo. Precisamente este doblete teórico justifica también la peculiar manera de acercarse al tema de la gramática universal sin recurrir a una muestra representativa de lenguas. Una de las ideas básicas surgidas del Simposium sobre Universales en Teoría Lingüística que se celebra en la Universidad de Texas en Austin ya en 1967, es, precisamente, que la búsqueda de universales debe situarse en la EP que comparten todas las lenguas (todos los hablantes competentes), sin necesidad de comparar las EESS; el lingüista no necesita recurrir a ningún corpus, ya que su propia competencia lingüística le permite indagar en la búsqueda de universales (un recurso a la competencia que no deja de ser curioso tras las críticas a la lingüística previa por apelar a la intuición). La objeción constante realizada desde las filas de la tipología funciona-lista (encabezada por Joseph Greenberg y la Escuela de Standford) estriba en que con demasiada frecuencia los generativistas han identificado universales que sólo se explican porque han sido propuestos para el inglés (Bernard Comrie, por ejemplo, señalaba que todo el planteamiento se basa en supuestos sobre estructuras abstractas y sobre innatismo que son imposibles de verificar empíricamente, «con lo que la aceptación de este modelo se convierte en cuestión de fe», 1981: 17).
¿Cuál es, en definitiva, la naturaleza y el nivel de abstracción de esos elementos innatos? Aquí es donde la posición del generativismo se ve obligada a modificarse sucesivamente a tenor de las modificaciones que, paralelamente, va experimentado la concepción gramatical. Así, el modelo sintáctico de las primeras versiones (teoría estándar, teoría estándar ampliada) pretende que el niño nace con cierta predisposición para identificar unidades funcionales (como por ejemplo, los esquemas oracionales algebraicos, del tipo O → SN + SV). En la época de la semántica generativa se pensará que lo que el niño discrimina ya no son funciones, sino papeles temáticos (por ejemplo, el agente de cada oración), y más tarde (modelo de la rección y ligamento) se pensará que el niño posee reglas y relaciones. A fines de los 80 Ángel López describía así el itinerario de estas concepciones innatistas, desde el anticonductismo explícito de Las estructuras sintácticas hasta las posiciones más abstractas del modelo de parámetros descritas por White:
Aunque oficialmente la G. G. se siga considerando innatista, de hecho hoy en día es una hipótesis psicológicamente filoconstructivista. El punto de vista actual en lo relativo a la teoría del aprendizaje –White, 1982– es el siguiente: lo que el niño posee de forma innata ya no son principios estables, sino una serie de coordenadas o parámetros, organizados modularmente (es decir, en subcomponentes autónomos, aunque interrelacionados), y tales que la experiencia (los estímulos del contexto) fija para cada uno una serie de valores que constituyen la gramática particular de una lengua. A su vez, dicha gramática particular ni siquiera tiene que remitir en su totalidad a la gramática universal que constituye el genotipo: parte de la información visible –fenotipo– está determinada culturalmente –periferia– y suele obscurecer las propiedades del núcleo, que es quien deriva de la gramática universal (López, 1988: 117).
Los intentos posteriores, correspondientes al modelo minimalista, siguen pretendiendo el equilibrio entre la formalización y su correlato psicologista subyacente, lo que conduce a la eliminación de las estructuras profunda y superficial, sustituyéndolas por un componente sintáctico que es resultado de una proyección del lexicón. Bickerton elogia así la validez cognitiva del modelo minimalista:
este modelo sigue mucho más de cerca que el antiguo el modo en que el cerebro maneja realmente el lenguaje. Para la neurología no tenía ningún tipo de sentido decir que el cerebro daba primero forma a unas cuantas estructuras oracionales muy abstractas para después barajarlas hasta lograr que algo completamente diferente saliera de nuestra boca, que es lo que el viejo modelo de la estructura profunda y la estructura superficial afirmaba implícitamente. Los cerebros no son tan sutiles. Si pueden hacer algo directamente, lo hacen directamente [...]. El viejo modelo implicaba que uno tenía que tener en la cabeza un conocimiento real de la gramática que debía usarse para poner en marcha las estructuras profundas (para «generarlas», razón por la cual recibía el nombre de «gramática generativa»). Sin embargo, se suponía que este conocimiento era innato [...]. En el momento presente, todo lo que queda de las montañas de conocimiento innato que presuponía el antiguo sistema son unos cuantos principios elementales (Calvin y Bickerton, 2000: 197).
En su recopilación de artículos y conversaciones titulada Lingua ex Machina, el neurofisiólogo William Calvin y el antropólogo lingüista Dereck Bickerton defienden que el niño nace predispuesto hacia distinciones lingüísticas particulares, pero sin equipararlas a ninguna categoría morfosintáctica concreta; se trata, más bien, de una predisposición para unir las palabras en oraciones y comprenderlas según la ejecución de ciertos algoritmos. Su objetivo final es demostrar un punto de confluencia entre las tesis evolucionistas (Darwin) y las innatistas (Chosmky), lo que supone un esfuerzo de aproximación que pueda ser asumible para ambos planteamientos.
La tesis defendida por Calvin y Bickerton explica la complejidad del lenguaje natural (básicamente, su estructuración sintáctica) por la convergencia del protolenguaje con la inteligencia social, en concreto lo que el biólogo Robert Trivers designa «altruismo recíproco»: cuando los primates establecen relaciones altruistas (transaccionales, en la perspectiva de Bruner), es necesaria una capacidad de cálculo que les permita realizar varias funciones (Calvin y Bickerton, 2000: 162):
- distinguir a los individuos de su entorno social,
- diferenciar entre los tipos de acción (propia y ajena) que les proporcionan beneficios o perjuicios,
- algún tipo de representación abstracta (recuérdese la función simbólica piagetiana) de los papeles que desempeña cada uno de los implicados en cierta acción, lo que supone su organización en términos actanciales, argumentales.
3.3 Las relaciones pensamiento-lenguaje desde el marco cognitivista
Chomsky, como hemos visto, reivindicaba una caracterización de la lingüística como subdisciplina perteneciente a la psicología cognitiva, cuya emergencia en los años 60 describe Romero (1998: 417) en los siguientes términos, vinculándola a ciertas necesidades surgidas en la segunda guerra mundial:
La aproximación cognitiva, tal y como hoy en día se conoce, surge gracias a influencias sociales y tecnológicas externas y ajenas al propio mundo académico o aplicado de la psicología [...]. En concreto, los avances teóricos y tecnológicos, principalmente en los países anglosajones (EUA y Gran Bretaña) en torno a temas tales como la información, la computación, los ordenadores, etc. –lo que Rivière (1991) ha denominado las tecnologías del conocimiento o Simon (1973) las ciencias de lo artificial– fueron las influencias clave que motivaron a los psicólogos para superar los modelos conductualistas vigentes hasta entonces [...]. Para construir máquinas eran necesarios ingenieros, físicos o matemáticos, y para ahondar en las tareas mentales que esas máquinas pudieran hacer, los más cualificados eran los psicólogos, aunque también podían estar neurólogos, lingüistas, e incluso filósofos y antropólogos.
En su presentación de su modelo neurocognitivista, centrado en el tratamiento y rehabilitación de las patologías del habla, Fernando Cuetos (1998: 11) señala cuáles son los principios básicos que dan base a la psicología cognitiva:
- modularidad: como ya hemos señalado antes, se acepta que el sistema cognitivo está organizado en módulos que se encargan de tareas específicas (lo que los investigadores no logran consensuar es la cantidad, naturaleza e interrelación que presentan tales módulos);
- isomorfismo: las entidades cognitivas modulares tienen necesariamente un correlato biológico que consiste en grupos de neuronas y circuitos neuronales;
- fraccionabilidad: las lesiones cerebrales pueden destruir ciertos módulos sin que esto suponga la quiebra del sistema global;
- sustractividad: la conducta verbal de un paciente lesionado es el resultado del sistema de procesamiento del lenguaje menos (en el sentido de resta) los módulos lesionados.
En este apartado trataremos tres aspectos de la perspectiva cognitiva que merecen especial atención en la relación pensamiento-lenguaje:
- la metáfora computacional del cognitivismo radical;
- el énfasis comunicativo del funcionalismo de J. Bruner;
- la importancia del metalenguaje de la lingüística perceptiva.
3.3.1 El cognitivismo radical y la metáfora computacional
La comparación entre organismos vivos y artificiales no surge de la nada. Ya a fines del siglo XIX Claude Bernard había establecido paralelismos entre ciertos procesos «autorreguladores» de la máquina de vapor y de los seres vivos. En los años 30, Walter Cannon, Norbert Wiener y Arturo Rosenblueth trataban conjuntamente problemas como la homeostasis biológica (concepto acuñado por Cannon para los procesos autorreguladores), los circuitos de computación o el sistema nervioso. La historia de la informática y la inteligencia artificial se desarrollan a lo largo del siglo XX, describiendo un itinerario marcadamente interdisciplinar en el que podemos destacar ciertas fechas concretas:
- 1936: Alan Turing describe la «máquina de Turing», capaz de realizar cualquier cómputo «a la manera de un cerebro».
- 1938: Claude Shannon aplica la lógica binaria a la creación de conmutadores eléctricos.
- 1938-1941: Konrad Zuse construye en Alemania el ordenador Z3, con código binario.
- 1942: la Fundación Josiah Macy Jr. convoca la primera de las que se conocerán como «Conferencias Macy», dedicada al tema de la inhibición cerebral. Acuden: John von Neumann, Norbert Wiener y Walter Pitts (matemáticos), Warren McCulloch (neurofisiólogo y matemático), Julian Bigelow (ingeniero), Arturo Rosenblueth y Walter Cannon (neurofisiólogos), Lawrence Franck (psicólogo), Laurence Kubie (psicoanalista), Margaret Mead y Gregory Bateson (antropólogos), y Milton H. Erickson (hipnoterapeuta). El concepto de feed-back o retroalimentación se asume como la clave explicativa de cualquier conducta intencional.
- 1943: McCulloch y Pitts publican «A Logical Calculus of Ideas Immanent in Nervous Activity», donde describen un funcionamiento de las neuronas que será desarrollado en modelos artificiales («neuronas McCulloch-Pitts») por Kleene o Minsky.
- 1945: John von Neumann publica un artículo donde describía la arquitectura de los ordenadores tal y como se desarrollaron luego.
- 1946: Segunda Conferencia Macy sobre «Mecanismos teleológicos y sistemas causales circulares», en la que Claude Shannon introduce su teoría de la información dando importancia esencial a la «incertidumbre» (que luego Von Neumann llamará «entropía»).
- 1946: Eckert y Mauchly construyen el ENIAC (Electronical Numerical Integrator and Computer) en la Universidad de Pennsylvania.
- 1946-1949: Eckert y Mauchly construyen el BINAC (Binary Automatic Computer).
- 1947: un artículo de Turing inaugura la inteligencia artificial.
- 1947: Tercera Conferencia Macy sobre «Mecanismos teleológicos».
- 1948: Norbert Wiener publica La cibernética.
- 1948: Cuarta y Quinta Conferencia Macy, la quinta específicamente dedicada a temas lingüísticos.
- 1949: Sexta Conferencia Macy sobre «Cibernética». El biofísico Heinz von Foerster introduce sus teorías sobre una base molecular de los procesos de memoria.
- 1950: el «test de Turing»: plantea un juego de imitación de rol para comprobar si una máquina tiene un comportamiento inteligente.
- 1952: IBM comercializa su ordenador de primera generación.
- 1960: George Miller y Jerome Bruner fundan el Centro de Estudios Cognitivos en la Universidad de Harvard.
En los inicios de la informática, pues, el cerebro proporciona a los ingenieros un modelo de referencia que se intentaba imitar, duplicar. Progresivamente, sin embargo, esta metáfora computacional experimenta lo que podríamos llamar un «giro especular»: si en el planteamiento inicial los ingenieros de la comunicación tratan de construir máquinas que reproduzcan el funcionamiento neuronal, a partir de los años 50 esta posición se va invirtiendo y es el funcionamiento cerebral el que poco a poco se pretende explicar desde la metáfora computacional: pasamos de inventar máquinas como cerebros, a describir el funcionamiento del cerebro en términos informáticos. Los trabajos de Turing, por ejemplo, se cimentan en la equiparación «ordenador como cerebro»:
Turing propone que pueden diseñarse máquinas que tengan un comportamiento inteligente. Para ello, utiliza el cerebro humano como analogía para describir las características de esa máquina. Si la inteligencia humana se potencia con aprendizaje, igual se puede hacer con la máquina, es decir, organizar su «inteligencia». Se trataría de máquinas que imiten al hombre o alguna de sus funciones o comportamientos [...]. Turing sugiere que los circuitos eléctricos de las máquinas de computación podrían imitar al sistema nervioso, pues son capaces de transmitir información de un lugar a otro y almacenarla (Romero, 1998: 419).
La misma postura encontramos en otras propuestas de formalización de los años 40 y 50, que tomaban el modelo cerebral como referente para construir modelos físicos. Los teóricos de la cibernética, sin embargo, plantean ya la equiparación en términos diferentes; para Wiener, por ejemplo, el pensamiento podía estudiarse a partir de la simulación del funcionamiento de las redes neuronales. Conceptos básicos como «retroalimentación», «sistema homeostático» o «entropía» son paulatinamente incorporados por la psicología del momento hasta que los sucesivos avances teóricos y tecnológicos culminan, según hemos adelantado, en una inversión de la metáfora:
Esta posibilidad de analizar la mente como un sistema de cómputo fue precisamente la idea clave que posibilitó poco después el trasvase de todas estas nuevas teorías a la psicología [...]. Estas nuevas teorías matemáticas de la computabilidad y la aparición inmediata de los ordenadores harían posible rescatar el estudio «respetable» de la mente: los productos mentales son ahora «objetos computables» o resultados de «algoritmos de cómputo» [...]. Ahora la mente es para el cerebro como el programa para el ordenador, y con ello se puede simular el funcionamiento de la mente mediante algoritmos o secuencias de operaciones entre procesos (Romero, 1998: 429).
La metáfora computacional, especialmente en sus versiones más radicales, ha sido criticada desde planteamientos funcionalistas y pragmáticos. Por ejemplo, John Searle, en las Conferencias Reith de 1984 (conferencias científico-divulgativas que emite por radio la BBC desde 1948 [en línea], <http://www.bbc.co.uk/ radio4/reith>), publicadas como Mentes, cerebros y ciencia, plantea que la asimilación mente/ordenador en su versión fuerte, más propia de la inteligencia artificial que de la psicología cognitiva, ignora la raíz esencialmente biológica de la mente humana; señala, además, cómo en épocas anteriores se han utilizado también los avances tecnológicos para plantear metáforas parecidas igualmente equivocadas (Leibniz decía que la mente funciona como un molino y Freud la comparaba con sistemas hidráulicos o electromagnéticos). En el artículo «¿Pueden los ordenadores pensar?», Searle plantea una alternativa al Test de Turing que se conoce como Test de la cámara china, y que le lleva a concluir que los programas formales de los ordenadores son ejemplos perfectos de sintaxis, pero carecen de semántica:
La pregunta que queríamos plantear es esta: «¿Puede un computador digital, tal como se ha definido, pensar?» Es decir, «¿es suficiente para, o constitutivo de, pensar el instanciar o llevar a cabo el programa correcto con los inputs y outputs correctos?» Y a esta pregunta, a diferencia de sus predecesoras, la respuesta es claramente «no». Y es «no» por la razón que hemos puesto de manifiesto reiteradamente, a saber: el programa del computador está definido de manera puramente sintáctica. Pero pensar es algo más que manipular signos carentes de significado, incluye contenidos semánticos significativos [...]. Si se trata realmente de un computador, sus operaciones tienen que definirse sintácticamente, mientras que la conciencia, los sentimientos, los pensamientos, las sensaciones, las emociones y todo lo demás incluyen algo más que una sintaxis. Por definición, el computador es incapaz de duplicar esos rasgos por muy poderosa que pueda ser su capacidad para simular. La distinción clave aquí es la que se da entre duplicación y simulación. Y ninguna simulación constituye, por sí misma, duplicación (Searle, 1984: 42-43).
El procesamiento de la información que realiza un ordenador no es asimilable al que realiza una persona, pues ésta pasa por una serie de estados mentales que el ordenador puede simular, pero no duplicar; es lo que llama «procesamiento de la información como si» (1984: 57). Para Searle, los defensores de la versión radical del cognitivismo confunden continuamente estos dos procesamientos de la información, por lo que se ven obligados a proponer un nivel computacional intermedio que sirva de puente entre los circuitos neuronales y los circuitos mentales; pero según Searle este tercer nivel no es necesario, pues existe una determinación biológica que permite el correlato directo entre lo neurofisiológico y lo cognitivo. Ese correlato directo es el que incorpora Pulvermüller (2002: 9) en su aceptación de la metáfora computacional, que nos remite al ya mencionado isomorfismo de la relación mente/cerebro:
La idea aquí es que esas estructuras anatómicas están relacionadas con las computaciones en que se ven implicadas. La maquinaria cerebral no es simplemente un modo arbitrario de llevar a cabo los procesos que realiza, a la manera en que, por ejemplo, cierta configuración de hardware de ordenador puede realizar casi cualquier programa de ordenador o pieza de software. Lo esencial aquí, por el contrario, es que el hardware revela aspectos del programa. «La estructura neuronal es información» [...]. En otras palabras, podría ser que las propias estructuras neuronales por sí mismas nos enseñen aspectos de los procesos computacionales que subyacen a tales estructuras.
Esta versión matizada de la metáfora computacional es compatible con los modelos holistas o interaccionales de funcionamiento del cerebro, en los que función y estructura se determinan mutuamente. Tal y como señala Hernández (2003: 9), en lingüística esta orientación cognitiva entronca con planteamientos epistemológicos emergentistas, según los cuales la emergencia de cierta función en un sistema dado determina la constitución de niveles de ese sistema. Hernández utiliza el concepto de redefinición para describir la interacción dialéctica que acontece genéticamente entre estructuras neurológicas, piscológicas y lingüísticas, de tal manera que mientras cierto estrato depende genéticamente de otro, a su vez lo condiciona, estableciendo procesos bidireccionales.
3.3.2 El funcionalismo de Jerome S. Bruner
Jerome S. Bruner es un representante de lo que a veces (Searle, 1984: 33) se llama «cognitivismo suave», por oposición a la versión «fuerte» que representan algunos teóricos procedentes de la inteligencia artificial (Herbert Simon, Alan Newell). A diferencia de los generativistas, Bruner no se plantea cuál debe ser la dotación genética inicial del niño; para él son igualmente poco plausibles los «imposibles» enfoques conductistas (la adquisición del lenguaje es un aprendizaje similar a otros) como los «milagrosos» enfoques innatistas (el ser humano está especialmente determinado para esa adquisición). Sus planteamientos identifican tres aspectos fundamentales en el proceso que permite al niño llegar a usar el lenguaje:
- la estructura formal;
- la relación semántica;
- el uso pragmático adecuado.
Para Bruner (1983: 21) la adquisición de estas tres facetas del lenguaje se realiza necesariamente en interdependencia. No basta con explicar la adquisición de la gramática recurriendo a la «facultad original», sino que es necesario distinguir entre capacidad (algo dotado de raíces biológicas y desarrollo evolutivo) y ejercicio (cuya fundamentación es sociocultural). Así, considera que paralelamente a lo que Chomsky describía como Mecanismo de Adquisición del Lenguaje es necesaria la activación de un Sistema de Apoyo a la Adquisición del Lenguaje (SAAL), que no es exclusivamente lingüístico y
que elabora la interacción entre los seres humanos, de forma tal que ayuda a dominar los usos del lenguaje a los aspirantes a hablarlo. Es este sistema el que proporciona un apresto funcional que no sólo hace posible la adquisición del lenguaje, sino que hace que ésta se desarrolle en el orden y con el ritmo en que habitualmente se produce (1983: 118).
Para que este sistema pueda ponerse en marcha, el niño cuenta con unas capacidades mentales originarias que son:
- Disponibilidad para relacionar medios y fines. El niño parece capaz de establecer la estructura de cierta acción y saber cómo lograr un objetivo concreto; esta capacidad se ve activada, o potenciada, por los adultos que interactúan con el bebé.
- Sensibilidad para los contextos transaccionales. Desde bien pronto, la relación del bebé con la madre o la persona cuidadora establece unas pautas de reciprocidad:
La existencia de una reciprocidad de este tipo, apoyada por la cada vez mayor capacidad de la madre de diferenciar las «razones» para llorar del niño, así como la capacidad del niño de anticipar estos acuerdos, crea muy pronto una forma de atención mutua (1983: 28).
Se trataría de respuestas sociales iniciales congénitas (lo que incorpora el componente pragmático a la adquisición).
– Sistematicidad en la organización de experiencias. Las primeras acciones del niño (los esquemas piagetianos) tienen lugar en contextos familiares restringidos, y muestran un elevado nivel de repetición, orden y sistematicidad que le permiten acceder luego al mundo del lenguaje preparado para hallar o inventar formas sistemáticas de relación.
- Abstracción en la formación de reglas. Estas relaciones sistemáticas tienen un alto nivel de abstracción:
El mundo perceptivo del niño, lejos de ser una brillante y zumbadora confusión, está muy ordenado y organizado por lo que parecen ser reglas muy abstractas [...] tanto desde el punto de vista cognitivo como del de la comunicación hay, desde el comienzo, una capacidad para «seguir» reglas abstractas (1983: 31).
Como se puede ver, este «equipamiento inicial» es muy similar al que planteaban Calvin y Bickerton para el desarrollo filogenético. Desde este enfoque, el lenguaje se convierte en un elemento fundamental para la integración del niño en su cultura. De ahí que López (2003: 242) caracterice al código lingüístico como lenguaje terciario, es decir, provisto de sintaxis, semántica y pragmática (la clásica tríada morrisiana), frente a otros lenguajes secundarios como la comunicación de los animales superiores (con semántica y pragmática) o el código genético (con semántica y sintaxis, pero sin pragmática).
3.3.3 La lingüística perceptiva y la importancia de la reflexividad metalingüística
La lingüística perceptiva es una escuela de la lingüística cognitiva iniciada en los años 70 por Ángel López García, que incorpora al estudio del lenguaje algunas posiciones epistemológicas de la Psicología de la Gestalt. Estos psicólogos se planteaban una psicología de la percepción en la que encontramos también una codeterminación entre niveles similar a la que acabamos de describir. En palabras de Pastor y Tortosa (1998: 130):
La percepción no está determinada por el estímulo, sino que es más bien la percepción la que configura los estímulos confiriéndoles una estructura y significación.
El análisis de la percepción humana lleva a los teóricos de la Gestalt a identificar una serie de principios y leyes perceptivas en torno a las cuales establecen una serie de premisas centrales que Sprung y Sprung (1998: 145) resumen así:
1. Principio de la totalidad, es decir, el todo es más que la suma de sus partes (sobresumatividad y trasponibilidad).
2. Análisis fenomenológico de la situación de origen, es decir, el punto de partida de cualquier análisis empírico lo constituyen los fenómenos, lo que se presenta de forma inmediata, y no los elementos o condiciones sensoriales.
3. Método experimental y matemáticas como metodología, es decir, el tipo de sucesos objeto de la investigación deben ajustarse al paradigma experimental, y la metodología de análisis tiene que basarse en un experimento realista.
4. Isomorfismo psicofísico, es decir, los procesos psíquicos están coordinados con procesos físicos subyacentes.
Las versiones iniciales de la lingüística perceptiva (López, 1980, 1989) vinculaban la especificidad de las lenguas naturales con la especificidad perceptiva de la especie humana, tal y como había sido descrita por Max Wertheimer, Edgar Rubin y otros psicólogos. De este modo, las estructuras y niveles del lenguaje encontraban correlatos epistemológicos en las tres leyes de la percepción de estímulos (cierre, igualdad y proximidad) y en el principio general de la pregnancia o buena forma (que se encarga de jerarquizar la aplicación de las leyes):
Niveles en la lingüística perceptiva
En estas versiones, pues, el innatismo quedaba circunscrito a unos principios generales de aprendizaje que son acordes a las leyes de la percepción; un elemento básico de la teoría es la capacidad reflexiva del sujeto y su correlato verbal, es decir, el metalenguaje (que se sustenta a su vez en la doble articulación martinetiana). Posteriormente, en los Fundamentos genéticos del lenguaje (López, 2003), encontramos un desarrollo de la teoría que incorpora un análisis del funcionamiento del genoma y que fundamenta el innatismo en la propia estructura del código genético, salvando así una laguna explicativa que planteaba el generativismo. López analiza el funcionamiento del genoma estableciendo paralelismos con el funcionamiento de las lenguas naturales, y llega a la conclusión de que existe una correspondencia entre ambos. El punto de partida es la configuración del YO y su correlato verbal, el metalenguaje:
Una vez que el niño comienza a tener conciencia de sí mismo y del lenguaje que utiliza, su problema es adecuar los hábitos de percepción a los patrones estructurales que su dotación genética le va permitiendo descubrir en las secuencias lingüísticas de los adultos. Este proceso, muy complicado y sin embargo rapidísimo, se sirve de los esquemas gestálticos del protolenguaje.En realidad, ningún niño podría llegar a hablar si antes no hubiese aprendido a percibir. El fundamento de la percepción es el establecimiento de campos perceptivos en los que una parte destaca sobre el resto (López, 2003: 250).
Este ajuste mutuo que se produce entre las formas metalingüísticas que acompañan la reflexividad del sujeto, y los datos que recibe filtrados por las leyes perceptivas, podría explicarse con el concepto de redefinición ya mencionado (Hernández, 2003: 9). Resultado de este ajuste es la emergencia de la gramática adulta, una gramática, señala el autor, «que no es adquirida, sino construida». La lingüística perceptiva establece así, de la mano de la reflexividad metalingüística, puentes con el constructivismo piagetiano y el funcionalismo de Bruner, y proporciona explicación tanto al «correlato directo entre lo neurofisiológico y lo cognitivo» de que hablaba Searle (1984: 57), como al «paso del protolenguaje a la sintaxis» que describían Calvin y Bickerton (2000: 162).
En esta exposición hemos presentado muy resumidamente algunas de las cuestiones teóricas que plantea la relación entre pensamiento y lenguaje y, por extensión, entre otros niveles relacionados. Estas teorías de procedencia tan dispar, coinciden sin embargo en la utilización explicativa de un fenómeno que es esencial en la lingüística perceptiva: la interacción bidireccional que se produce entre dos niveles de un mismo sistema y que determina simultáneamente a esos dos niveles, algo que ya Hernández Sacristán identificó en los años 80 como subsunción a propósito de las relaciones entre emisión y recepción. Lo que en el cognitivismo fuerte se desarrollaba como metáfora encuentra en estas teorías una explicación directa, no metafórica, gracias a la rentabilidad explicativa de conceptos como «subsunción», «redefinición», «isomorfismo» o «reacción circular». No estamos pretendiendo, obviamente, que todos estos conceptos sean equivalentes, sino que todos manejan una misma realidad fenomenológica que podemos llamar de especularidad recíproca.
3.4 Las enfermedades del lenguaje
3.4.1 Lenguaje y cerebro
En las últimas décadas del siglo XX se desarrolla de forma notable la neurolingüística, cuya pregunta principal es «¿cómo el lenguaje se organiza en el cerebro?», o «¿cómo el cerebro hace posible el lenguaje?» Nuestros conocimientos sobre neurología y sobre lenguaje nos llevan a la necesidad de explicar un cambio tal (Hernández, 2003: 10) que convierta la información que transmiten las neuronas (es decir, un sistema de señales) en lenguaje (es decir, un sistema de símbolos): ¿cómo se produce esta transformación?
Éstas no son, por supuesto, preguntas que se planteen por primera vez; la bibliografía repite tradicionalmente dos momentos esenciales en los inicios de la neurolingüística que comparten la participación del lenguaje patológico, y que son:
- 1861: Paul Broca, anatomista francés, describe el cerebro de un paciente que había atendido en La Salpêtrière y que tenía gravemente afectada la capacidad expresiva, motora. El análisis del cerebro le mostró que una zona concreta del córtex del hemisferio izquierdo (tercio posterior del giro o circunvolución frontal inferior: «área de Broca») estaba prácticamente destruida.
- 1873: Carl Wernicke, psiquiatra alemán, describe lesiones cerebrales en otro punto del hemisferio izquierdo que provocan alteraciones de la conducta opuestas a las descritas por Broca: mientras la capacidad motora, expresiva, estaba básicamente preservada, la capacidad comprensiva, sensorial, se veía afectada. Se localiza así, en la segunda circunvolución del lóbulo temporal izquierdo, la llamada «área de Wernicke».
Como ocurre con el desarrollo del generativismo, de la inteligencia artificial, o de los estudios sobre comunicación no verbal, también son las grandes contiendas bélicas del siglo XX las que impulsan definitivamente el desarrollo de la neurolingüística y, consecuentemente, la aparición de la logopedia. La cantidad de soldados heridos con traumatismos craneoencefálicos obligó, ya tras la Primera Guerra Mundial, a plantear la necesidad de abordar estos problemas de manera específica y urgente. Tras la Segunda Guerra Mundial adquieren especial importancia los trabajos de Aleksandr R. Luria, Norman Geschwind o Wilder G. Penfield.
Con anterioridad a Broca y Wernicke, los intentos de localizacionismo más destacados fueron los de la frenología de Gall, que intentaba distribuir en el cerebro las diferentes facultades humanas pero carecía de bases empíricas. Como señala Luria (1973) lo esencial de los descubrimientos de Broca y Wernicke es, junto a la base empírica, clínica, la distinción funcional de los dos hemisferios, identificando el hemisferio izquierdo de los diestros como el dominante para el lenguaje (el hemisferio derecho es dominante en un 3 % de la población, en su mayoría personas zurdas, si bien la población zurda supone un 10 % del total). A partir de aquí se desarrolla una tradición localizacionista que intenta diseñar el mapa global del córtex cerebral, pretendiendo correspondencias unívocas entre cierta zona cerebral (entre 50 y 100 para cada hemisferio, Pulvermüller, 2002: 13) y cierta función o actividad psicológica; los conocidos humunculus, esto es, dibujos del cerebro que muestran superpuesto un dibujo de un cuerpo humano, son resultado de estos intentos localizacionistas o somatotópicos. Estos investigadores asumen un planteamiento que identifica los síntomas patológicos (agramaticalidad, falta de fluidez, comprensión alterada, expresión deficiente...) y, agrupándolos en síndromes, busca un correlato espacial en alguna zona del cerebro (el neurólogo Henry Head los ridiculizaba como «productores de diagramas»).
Pero aceptar que ciertas zonas cerebrales son responsables de ciertas facultades o conductas no supone ignorar la dimensión funcional y la interrelación entre varias zonas; por el contrario, es necesaria una consideración global (holista, sistémica) del cerebro:
Todos los procesos mentales tales como percepción y memorización, gnosis y praxis, lenguaje y pensamiento, escritura, lectura y aritmética, no pueden ser considerados como «facultades» aisladas ni tampoco indivisibles, que se pueden suponer «función» directa de limitados grupos de células o estar «localizadas» en áreas particulares del cerebro [...] deben ser consideradas como sistemas funcionales complejos (Luria, 1973: 29).
Para Luria, de hecho, la función del neurólogo no es localizar los procesos psicológicos en ciertas áreas acotadas del córtex, sino averiguar los «grupos de zonas de trabajo concertado del cerebro» que intervienen en ciertas actividades mentales. Así, progresivamente, frente a los planteamientos estrictamente localizacionistas surgen otras posiciones, llamadas conexionistas o interaccionistas, que postulan una visión diferente de la dimensión cerebral del lenguaje (Love y Webb señalan que ya Wernicke había defendido un modelo conexionista, 1996: 23). Para estos investigadores, es excesivamente reduccionista asignar ciertas zonas cerebrales concretas a ciertas capacidades o incluso categorías concretas, pues la clínica demuestra, por ejemplo, que puede haber reorganización cortical en personas con habilidades especiales o con patologías (músicos de cuerda, lectores de braille).
Al evolucionar el estudio neurofisiológico y desarrollarse las modernas técnicas de neuroimagen, cobran importancia esencial las redes neuronales que integran el córtex cerebral, con lo que el localizacionismo inicial adquiere un considerable nivel de complejidad. Las conexiones entre neuronas, realizadas a través de las sinapsis, son el eje de esta comunicación interna del sistema cognitivo, que rentabiliza especialmente los potenciales postsinápticos, es decir, la reacción positiva o inhibitoria que cierta célula tiene tras una sinapsis aferente (una sinapsis de entrada desde otra neurona). Otro aspecto esencial de esta postura interaccionista, que ya aparecía en Luria, es la consideración conjunta del lenguaje y otras categorías cognitivas, como la atención, la memoria o la percepción. En la actualidad, por otro lado, no hace falta un modelo rígido de correspondencias entre síntoma y localización, porque gracias a las técnicas de neuroimagen podemos ubicar las lesiones sin tener que inferir esa ubicación a partir de los síntomas (Cuetos, 1998). Estas técnicas son:
- PET: Tomografía de Emisión de Positrones
- RM: Resonancia Magnética
- TAC: Tomografía Axial Computerizada
- SPECT: Tomografía por Emisión de un Solo Fotón.
Dado que, como venimos señalando, el estudio de las personas con algún tipo de alteración en el lenguaje resulta de especial interés para el desarrollo de la neurolingüística, en los apartados siguientes haremos una brevísima presentación de las principales situaciones que pueden darse:
- alteraciones y enfermedades que se presentan en el desarrollo infantil,
- alteraciones del lenguaje debidas a lesiones cerebrales en la edad adulta.
3.4.2 Alteraciones en el desarrollo
En ocasiones, el desarrollo verbal del niño puede presentar problemas que afectan a la expresión verbal, o a las destrezas de lectura y escritura. Estos problemas que se detectan en la etapa infantil pueden ser de origen y naturaleza diversa. Entre los síndromes infantiles de base genética, Miguel Puyuelo y cols. (2001: 3) señalan la importancia de las características fenotípicas (signos y síntomas) para diagnosticar estas enfermedades. Tales rasgos fenotípicos pueden ser:
- rasgos físicos visibles (alteraciones de estatura, dismorfias faciales...)
- rasgos físicos detectables en el examen detallado (visceromegalia, hiperlaxitud muscular...)
- malformaciones internas (cardiopatías, malformaciones cerebrales...)
- mayor incidencia de ciertas complicaciones con el paso del tiempo
- perfil conductual característico, que puede evidenciarse en rasgos verbales, de comunicación no verbal, actitudes y conducta, aspectos de la competencia pragmática...
Entre las anomalías genéticas (del ADN, ácido desoxirribonucleico) puede darse: la repetición de algún cromosoma (las trisomías, como por ej. el síndrome de Down), la falta de algún cromosoma (monosomías), deleciones (falta de algún fragmento de cromosoma, como en el síndrome del maullido de gato), traslocaciones o inversiones en el orden de los genes, y varios tipos de microdeleciones (síndromes de Angelman o de Prader-Willi, síndrome de fragilidad del cromosoma X). En los siguientes párrafos hablaremos muy brevemente del lenguaje que presentan algunos de estos síndromes (para una caracterización más completa de estas enfermedades, cf., por ejemplo, Puyuelo y cols., 2001; Garayzábal, 2004, página web de FEDER: Federación Española de Enfermedades Raras: <http://www.enfermedades-raras.org>).
El síndrome de Down es la mayor causa de retraso mental, que se da en 1 de cada 600 nacimientos, con un CI entre 20 y 80. El lenguaje presenta problemas en la articulación (a veces por hipotonía), la morfosintaxis y, en menor medida, en el léxico.
El síndrome de Rett afecta a una de cada 1.000 niñas (está ligado al cromosoma X) y se desarrolla en varias fases bien identificadas (Puyuelo, 2001: 19) que incluyen el retraso mental entre moderado y severo. Muy pocas de las niñas llegan a desarrollar comunicación lingüística.
El síndrome de Klinefelter afecta también a 1 de cada 1.000 nacimientos, esta vez sólo en niños. El nivel cognitivo es heterogéneo, aunque en general bajo. El lenguaje está levemente retrasado, y el aprendizaje de la lectura y la escritura parece plantear muchos problemas.
El síndrome del cromosoma X frágil es, junto al síndrome de Down, una de las causas básicas de retraso mental (1 de cada 4.000 niños). Su incidencia entre niñas es menor que entre niños, tanto en cuanto a número de afectadas como a severidad de los síntomas. El lenguaje aparece tardíamente, aunque hay facilidad para aumentar el léxico y son frecuentes las perseverancias y estereotipias; la bibliografía describe problemas en los rasgos suprasegmentales como el ritmo y volumen de la voz, a veces asociados a dispraxias y bajo tono muscular en la zona oral. El componente pragmático parece afectado en la gestión del turno y la máxima griceana de pertinencia (o bien se resisten a cambiar de tema porque tienen «temas preferidos», o bien tienen dificultades para ceñirse a un tema).
El síndrome de Williams-Beuren supone una alteración en el cromosoma 7 que puede a afectar a 1 de cada 20.000 niños nacidos vivos. Los primeros análisis de este síndrome describían una sorprendente habilidad lingüística que contrastaba notablemente con el retraso mental que suele llevar asociado (entre leve y moderado); también es característica la habilidad musical. Sin embargo, estudios posteriores realizados desde la óptica pragmática (Garayzábal, 2004) demuestran que tal habilidad verbal se limita al dominio gramatical y, sobre todo, léxico, mientras que el nivel pragmático las deficiencias en el dominio de la inferencia, el turno, o las implicaturas griceanas es considerable.
El síndrome de Angelman se identificó en 1965 y se calcula que afecta a 1 de cada 30.000 nacimientos, y suele ir asociado a graves problemas motores y a epilepsia. Su lenguaje es mínimo, con frecuencia no llega a aparecer.
El síndrome de maullido de gato fue identificado por Lejeunne en 1963, y su incidencia es de 1/50.000 niños nacidos vivos, con predominio de niñas. El retraso mental es entre moderado y severo; el lenguaje puede aparecer tarde o no hacerlo, en cuyo caso se adopta una comunicación signada. Cuando el niño sí desarrolla el habla, es característico un tono de voz muy agudo y una prosodia monocorde, así como un llanto especial al que alude la denominación de «maullido de gato». La escasa sintaxis permite hablar a veces de habla telegráfica.
El síndrome de Cornelia de Lange está documentado desde 1933 y su incidencia se calcula de 1/40.000-100.000, sin distinción de sexos. En algunos casos presenta síntomas autistas y el lenguaje puede llegar a desaparecer o reducirse a unas pocas palabras. La sintaxis es el componente más deficitario, pero el fonológico se ve afectado también por problemas de articulación o por sordera neurosensorial (un 50 % de los casos).
El síndrome de Prader-Willi puede afectar a 1 de cada 10.000 nacimientos; presenta un cierto retraso mental (un 30 % de los afectados tiene CI > 70), y a veces se asocia con otras patologías mentales. Como en otros síndromes, el lenguaje comienza tarde, y presenta una sintaxis simple que contrasta con el fuerte desarrollo argumentativo. La hipotonía muscular del aparato fonador explica la voz aguda y nasalizada, así como, en algunos casos, la poca inteligibilidad de las emisiones.
Existe una serie de alteraciones que se engloban en el llamado espectro autista, y que incluyen junto al autismo otras manifestaciones como el trastorno específico del lenguaje (TEL), el déficit semántico-pragmático o el síndrome de Asperger. El autismo fue caracterizado en los años 40 por Leo Kanner, a partir de la presencia de los siguientes rasgos:
- soledad extrema e incapacidad para establecer relaciones con las personas,
- deseo insistente de permanencia del ambiente, resistencia a los cambios del entorno,
- habilidad memorística,
- buenas capacidades cognitivas,
- aspecto físico normal y fisonomía inteligente,
- hipersensibilidad a los estímulos,
- retraso en la adquisición y uso del lenguaje; a veces mutismo, poca intención comunicativa real,
- aparición temprana, desde el nacimiento (innato).
En la actualidad, los criterios de diagnóstico manejados por el DSM Psychiatric Association) manejan elementos similares, si bien no existe aceptación generalizada de una base genética en el autismo. Rodríguez-Santos (2002: 45) señala que los síntomas del autismo no son nunca síntomas exclusivos de esta enfermedad, como tampoco existe una zona cerebral cuya lesión sea constante en todos los autistas; por el contrario, parece que se ven afectadas distintas áreas del cerebro funcionalmente conectadas; estas lesiones siguen cierto patrón evolutivo, y su grado determina la gravedad de la enfermedad dentro del llamado espectro autista.
El síndrome de Asperger representaría un grado leve en tal espectro; fue identificado en 1944 por Hans Asperger y presenta dificultades básicas para la integración social, aunque las aptitudes comunicativas y verbales no se ven tan seriamente alteradas como en el autismo prototípico (<www.asperger.es>).
También el llamado déficit semántico-pragmático, descrito en 1983 por Isabelle Rapin y Doris Allen, es asociado por Dorothy Bishop al espectro autista. Estos niños, aparte del retraso en el proceso de adquisición, destacan por sus serias dificultades pragmáticas en el desarrollo conversacional, la interpretación inferencial, o la conducta desencadenante (emisiones predictivas). Garayzábal (2004: 136) señala su escasa flexibilidad léxica, y un uso de las palabras y la prosodia que parece remitir siempre a la categoría de discurso repetido. Elvira Mendoza (2003) caracteriza el síndrome semántico-pragmático como un tipo de trastorno específico del lenguaje (TEL) con especial incidencia en los aspectos discursivos (cf. la página web de AVATEL: <www.dcam.upv.es/avatel/>).
El TEL o trastorno específico del lenguaje (Mendoza, 2001; Muñoz, 2002; Fresneda, 2002) es incluido por algunos investigadores en el grupo de trastornos del espectro autista; Mendoza, por ejemplo, acepta la propuesta de Bishop según la cual los matices de diferenciación entre el autismo, el trastorno semántico-pragmático o el trastorno de Asperger dependerían de alteraciones más o menos marcadas en el componente social o en el componente verbal de la comunicación.
Los niños con TEL (esta patología se llama a veces alalia, audiomudez, afasia evolutiva o disfasia) presentan problemas con la conducta verbal que pueden focalizar (Muñoz, 2002) aspectos expresivos (problemas de articulación, habla costosa y sin fluidez, baja inteligibilidad), aspectos expresivos-receptivos (comprenden mejor los símbolos no verbales que el lenguaje, dificultades en todos los componentes de la gramática), o aspectos léxicos y pragmáticos (dificultades semánticas y, como caso especial sólo en algunos niños, dificultades severas con la comunicación inferencial, las rutinas conversacionales, gestión del tema conversacional: trastorno semántico-pragmático).
Todos los síndromes agrupados en el espectro autista (junto a otros, como por ejemplo el síndrome de Williams) parecen coincidir en un déficit cognitivo que ha sido identificado mediante la Teoría de la Mente, propuesta por Premack y Woodruff en la década de los 70 a propósito de la capacidad de los chimpancés para inferir estados mentales ajenos. La teoría de la mente podría considerarse como una versión desarrollada de las teorías clásicas que caracterizan al ser humano por su propiocepción, cuyo correlato lingüístico es, como sabemos, la capacidad metalingüística. En el ámbito cognitivo, la teoría de la mente nos permite establecer suposiciones y premisas acerca de lo que puede sentir / pensar / creer una tercera persona. Investigadores como Mendoza (2002) o Garayzábal (2004) han utilizado el déficit de teoría de la mente para caracterizar algunas patologías, estableciendo por ejemplo similitudes de comportamiento y de déficits pragmáticos entre los hablantes con síndrome de Williams, los hablantes del espectro autista, y los hablantes que tienen alguna lesión en el hemisferio derecho.
Otros problemas infantiles se revelan en la etapa de escolarización, pues implican el aprendizaje del código escrito. En la dislexia, el niño tiene problemas para la lectura; en la disgrafía, para la escritura. Inicialmente los problemas disléxicos se relacionaron con los problemas de lectura que aparecían en adultos afásicos, por lo que se caracterizó la dislexia como «ceguera congénita para las palabras» (J. Hinshelwood). Entre 1925 y 1940, Samuel T. Orton (neuropsiquiatra y neuropatólogo) estudió un amplio grupo de personas con problemas de lectura, escritura y lenguaje en general, y relacionó el síndrome con un problema de lateralización lingüística. En los años 60 es M. Critchley quien acuña el término de dislexia del desarrollo, y propone una base neurológica (congénita) similar a la de Orton. En la actualidad, no existe una postura consensuada sobre las causas y etiología de la dislexia; a partir de la exposición de Monfort (2001: 348), podemos agrupar las teorías explicativas en tres grupos:
- causas internas (de base neurológica o bioquímica): la dislexia tendría un origen en causas hereditarias o en una disfunción cerebral mínima, o sería vista como un síntoma más en un cuadro general de trastornos del lenguaje,
- causas internas psicológicas: origen en dificultades instrumentales funcionales, origen psicológico en procesos vinculados a la ansiedad por el aprendizaje,
- causas exógenas: la dislexia sería consecuencia de los fallos del sistema de escolarización, o de los sistemas concretos de enseñanza de la lectoescritura.
Padilla (2004) incide en la dimensión cognitiva de la competencia lectora, en la que diferencia tres niveles: alfabético, ortográfico y textual, que deben ser considerados desde una perspectiva integradora para facilitar al niño una correcta adquisición de la lectoescritura.
3.4.3 Alteraciones por lesión cerebral (afasias)
Las afasias son patologías del lenguaje causadas por la existencia de alguna lesión en el hemisferio izquierdo del cerebro; las causas más habituales pueden ser un accidente cerebro-vascular (ACV), un traumatismo cráneo-encefálico o un tumor. La tradición afasiológica suele distinguir diversos tipos de afasia de acuerdo con la agrupación de ciertos síntomas (semiología de las afasias), si bien las tipologías están lejos de ser aceptadas por todos:
El núcleo de la cuestión radica en si la afasia es un trastorno unitario o si existen varias clases de afasia. En realidad, la respuesta no está clara y las diversas opiniones formuladas al respecto desde la época del propio Wernicke avalan la opinión de que ambos pronunciamientos parecen ser correctos. El trastorno afásico es básicamente uno, si bien se observan una serie de grupos semiológicos predominantes como consecuencia fundamentalmente de la localización anatómica de la lesión causal y en segundo lugar como consecuencia de las peculiaridades biológicas de la organización cerebral de cada sujeto, aunque éste sigue un patrón mayoritariamente uniforme en la especie humana (Vendrell, 1999).
A continuación detallamos los tipos clínicos que identifica la tradición afasiológica más conocida:
– La afasia global presenta alteraciones en las cuatro destrezas comunicativas: comprensión y producción orales y escritas; en casi todos los casos, además, el hablante presenta también hemiplejia derecha. La recuperación, por lo general, empieza a partir de estereotipias (una sílaba, palabra, o frase repetida que el hablante repite en sus intentos de hablar y que no se adecuan a la ilocutividad que pretende) y rutinas.
– La afasia de Broca (motora, expresiva, anterior) se caracteriza por dificultades en la expresión que impiden la fluidez; la articulación es costosa (a veces el paciente presenta déficit de movilidad en la parte derecha del cuerpo), y hay serios problemas de denominación (anomia); la comprensión oral y escrita están relativamente preservadas; lectura y escritura alteradas; dificultades para la repetición.
– La afasia motora transcortical (afasia dinámica) también es una afasia no fluente, con tendencia al mutismo y la ecolalia. La repetición, sin embargo, es buena.
– La afasia de conducción (afasia central, afasia motora aferente) presenta un lenguaje fluido, y una comprensión relativamente conservada; hay dificultades de denominación y articulación, y la repetición está seriamente alterada.
– La afasia de Wernicke (sensitiva, acústica, semántica) es también un síndrome fluido; presenta serias alteraciones de comprensión, pero el lenguaje es fluente; la repetición está relativamente conservada; la denominación presenta serios problemas, y la escritura y la lectura están alteradas.
– La afasia sensorial transcortical conserva bien la repetición, pero el discurso puede estar próximo a la jergafasia (discurso sin sentido), con frecuencia de ecolalias y neologismos (no-palabras).
La investigación afasiológica desarrollada en los años 90 ha comenzado a integrar en el estudio de estas patologías los avances de la pragmática; como consecuencia, los planteamientos gramaticalistas de la afasiología tradicional se han visto enriquecidos con perspectivas centradas en la eficacia comunicativa de los hablantes. A este respecto queremos destacar los siguientes puntos:
– los investigadores asumen planteamientos globales de la comunicación, y tratan de superar la perspectiva «estratificacional» que consideraba por separado los distintos componentes del lenguaje,
– en consonancia con una de las premisas básicas de la pragmática, los binomios correcto/incorrecto, gramatical/agramatical se sustituyen por eficaz/ ineficaz, adecuado/inadecuado,
– la afasia se contextualiza: al adoptar los planteamientos de la pragmática interaccional, la afasia ya no es considerada como rasgo de uno de los hablantes, sino que afecta a toda la interacción en virtud del principio griceano de cooperación (Gallardo, 2003). De ahí que hayan surgido iniciativas diversas que se plantean, paralelamente a la rehabilitación del hablante afásico, el entrenamiento de lo que Anne Whitworth, Lisa Perkins y Ruth Lesser (1997) llaman «interlocutor clave», es decir, las personas que habitualmente se relacionan con él. La iniciativa más conocida en este sentido es la Terapia de Conversación Asistida, creada por la canadiense Aura Kagan (1998), que se sigue en varios hospitales norteamericanos y europeos. En nuestro ámbito se están diseñando actualmente programas de este tipo centrados en el interlocutor-clave (Gallardo, 2005).
– la atención concreta a las categorías pragmáticas enunciativas (implicaturas conversacionales, presuposiciones, actos ilocucionales, superestructuras textuales) y receptivas (sobreentendidos, superestructuras dialógicas, toma de turno) conduce a los investigadores a prestar atención a los síndromes donde estas categorías sí se ven alteradas. Surge así la evidencia (Joanette y Ansaldo, 1999) de que puede identificarse una afasia pragmática en hablantes que presentan lesiones en el hemisferio derecho. El paso (el reto) siguiente es plantearse que los hablantes con lesión en el hemisferio izquierdo, que tienen preservadas las categorías pragmáticas, puedan rentabilizar estas categorías en sus terapias de rehabilitación (Gallardo, 2002).
3.5 Psicolingüística del discurso
Al dedicar un apartado a la psicolingüística del discurso queremos dar cabida a una línea de investigación que entrelaza las preocupaciones sobre el uso verbal cotidiano y la cognición de los hablantes que motiva y justifica tales actuaciones. La pragmática es, sin duda, el marco epistemológico óptimo para establecer estas conexiones, pues nos proporciona dos conceptos básicos para su descripción:
– por un lado, el concepto de enunciación tal y como es identificado por Benveniste: «La enunciación es este poner a funcionar la lengua por un acto individual de utilización [...] es el acto mismo de producir un enunciado» (1970: 83). Lo interesante de la postura de Benveniste es su consideración de la enunciación como «aparato formal» subyacente al discurso. Según esta perspectiva, el hablante se apropia de la lengua en cada actividad verbal y marca su posición subjetiva de emisor mediante recursos lingüísticos como las marcas de primera y segunda persona (la relación yo-tú), la ostensión demostrativa, la temporalidad verbal, y las funciones sintácticas básicas de interrogación, imperativo o aserción. Lo más importante en este enfoque de la enunciación es siempre la emergencia del sujeto emisor por referencia a un interlocutor, es decir, su naturaleza necesariamente dialógica. Kristeva (1966, 1973) desarrollará la dimensión semiótica general de estas marcas de la subjetividad enunciativa, tomando como punto de partida las nociones de Benveniste y la intertextualidad de Bakhtin.
por otro lado, el concepto de fuerza ilocucional centrada en la intencionalidad del hablante según fue descrita por John Austin (con la identificación de acciones simultáneas al acto de hablar) y Searle (con la tipología de esas acciones simultáneas.
3.5.1 La relación entre categorías pragmáticas y psicológicas
Bruner (1993: 135) reivindica una investigación cognitiva que atienda a
cómo la percepción, guiada por la atención, nos permite acumular información que puede ser contrastada con la memoria, de tal manera que podamos pensar en cómo transformar las cosas a un nivel mucho más alto de lo que hubiéramos imaginado.
Este amplio objetivo supone la interacción de los procesos mentales de orden superior en los que, como es fácil ver, la mente trabaja con significados contextualizados. M. Casas, que subraya la ascendencia «semantista» de la pragmática (2002: 142), ha dedicado Los niveles del significar a la delimitación de los aspectos estrictamente lingüísticos del significado, diferenciando entre cuatro posibles usos: designación, significado, referencia y sentido, los dos primeros en el ámbito de la lengua y los dos últimos en el ámbito del habla. Al plantearnos en este apartado las relaciones entre categorías pragmáticas y categorías psicológicas, centramos nuestro interés en los procesos mentales subyacentes a las categorías pragmáticas mediante las cuales el hablante dota de sentido a sus enunciados.
Una muestra de cómo la lingüística perceptiva aborda este tipo de relaciones lo constituye la propuesta de Jorques (1998), que establece un correlato epistemológico entre las categorías pragmáticas de focalización y presuposición, y las categorías cognitivas de atención y memoria, para las que propone una dependencia metalingüística de naturaleza inclusiva. También Bruner (1993: 134) vincula conceptos como la efectividad de una historia («noticiabilidad» es un término que aparece en traducciones de autores etnometodólogos) con la máxima griceana de pertinencia y con los procesos de atención.
Categorías pragmáticas como la presuposición y la máxima de pertinencia explican, por ejemplo, el anclaje psicológico de expresiones que a veces puede pronunciar un sujeto sin que aparentemente el contexto las justifique. No en vano la retórica clásica aconsejaba que el primer discurso en un pleito sea siempre el de la acusación, pues la defensa incorpora siempre, como presuposición, la verosimilitud del ataque, es decir, la simple posibilidad de darle crédito (y de ahí expresiones como «calumnia, que algo queda» o «la mejor defensa es un buen ataque»). Pensemos, por ejemplo, en lo que ocurre cuando una persona se empeña en repetir cierto enunciado en sus conversaciones de grupo. Imaginemos una situación en que alguien es acusado de haber mentido a un grupo de amigos; por ejemplo, a Luis se le ha encargado que busque entradas para un concierto y cuando dice a los demás que ya están agotadas, otro miembro del grupo le acusa de mentir y no haber hecho la gestión. Obviamente, está en juego la imagen social de los dos implicados ante el resto del grupo. En el momento de la acusación, y con independencia de que ésta sea verdad o mentira, Luis puede:
– defenderse y dar explicaciones de las gestiones que haya hecho;
– pedir al atacante datos que justifiquen la acusación («demuéstralo»);
– devolver el ataque en otro nivel (por ejemplo con una falacia de tu quoque: «pues tú no buscaste entradas para el partido del año pasado»).
Pero si en los siguientes encuentros del grupo, ignorando la máxima de la pertinencia, Luis vuelve reiteradamente sobre el tema insistiendo en que él no mintió, cada vez que lo haga estará colocando la acusación en el ámbito presuposicional de los interlocutores, con lo que hace flaco favor a su causa. La presuposición siempre tiende puentes con aquello que se silencia, por lo que al defendernos de algo de lo que no hemos sido acusados logramos el efecto discursivo de dar verosimilitud a la acusación. En términos pragmáticos diremos que la negación presupone la afirmación correspondiente (con lo que, ya puestos a defenderse, Luis lo haría mejor con un «he dicho la verdad» que con un «yo NO os he mentido»).
En la misma línea de cruce teórico entre la pragmática y la psicología cognitiva encontramos también otras propuestas de análisis discursivo, cuyo rasgo más destacado es la necesidad de incorporar el dinamismo conversacional y la recepción al hecho comunicativo; en este sentido, es clarificador, por ejemplo, el análisis de Vázquez Veiga (2003) sobre las huellas que el receptor imprime a la toma de turno, con su identificación de «marcadores de recepción» como categorías fundamentales. López Alonso (2004), por su parte, explica el hecho de que la conversación electrónica sea tan propicia para el uso de la categoría pragmática sobreentendido, mediante la interacción entre el principio de economía y el de contracción; según la autora, en estos textos electrónicos se reduce al máximo el contenido proposicional, de tal manera que se radicaliza el principio de pertinencia informativa y se explota excesivamente la utilización de significados inferenciales; este abuso provoca que, con frecuencia, el emisor proponga como implicatura o presuposición (inferencias que se basan en las máximas conversacionales o en los activadores presuposicionales) lo que en realidad el oyente sólo puede inferir como sobreentendido, una inferencia que sólo se explica por la relación y la historia conversacional que mantienen los interlocutores (Gallardo, 1996a).
3.5.2 La comprensión del discurso: los esquemas cognitivos
La teoría de los esquemas fue desarrollada en los años 70 por investigadores de la Inteligencia Artificial (M. Minsky; R. C. Schank y R. P. Abelson), preocupados por proporcionar a los programas informáticos herramientas de comprensión textual. Efectivamente, los primeros programas de traducción automática se encontraban con pasajes textuales cuya traducción exigía más información que la estrictamente proporcionada por el lexicón; estos paquetes de información que son necesarios para la comprensión global del discurso fueron designados con el término «esquemas» (frames).
La utilización del concepto de esquema cognitivo en la lingüística resulta especialmente operativa en la pragmática textual. Por ejemplo, Van Dijk (1978) introduce en su descripción de la conversación el concepto de «marco lingüístico» como un tipo de «marco social»:
Un marco social, que también es un marco cognoscitivo porque es conocido por los miembros de la sociedad, es una estructura esquemática ordenada de acciones sociales que operan como un todo unificado. La característica más importante de cada marco es el tipo de contexto en que puede ocurrir (Van Dijk, 1989: 108).
En el ámbito textual, los esquemas se asocian al concepto de superestructura, desarrollado también por Van Dijk:
Una superestructura puede caracterizarse intuitivamente como la «forma global» de un discurso, que define la ordenación global del discurso y las relaciones (jerárquicas) de sus respectivos fragmentos. Tal superestructura, en muchos aspectos parecida a la «forma» sintáctica de una oración, se describe en términos de «categorías» y de «reglas de formación». Entre las categorías del cuento figuran, por ejemplo: la introducción, la evaluación y la moraleja (Van Dijk, 1989: 53).
La validación cognitiva de las superestructuras textuales básicas (argumentación y narración) nos lleva de nuevo al correlato entre pensamiento y lenguaje, con el que empezábamos estas páginas. Y es nuevamente Bruner (1986) quien vuelve a proporcionarnos un ejemplo interesantísimo de la interacción entre ambos marcos epistemológicos al identificar dos modos básicos de organización cognitiva que coinciden con los dos tipos fundamentales de organización textual; para este autor
hay dos modalidades de funcionamiento cognitivo, dos modalidades de pensamiento, y cada una de ellas brinda modos característicos de ordenar la experiencia, de construir la realidad. Las dos (si bien son complementarias) son irreductibles entre sí. Los intentos de reducir una modalidad a la otra o de ignorar una a expensas de la otra hacen perder inevitablemente la rica diversidad que encierra el pensamiento (Bruner, 1986: 23).
Bruner indica, además, que las superestructuras narrativas dependen de la cultura que las enmarca, motivo por el que han fracasado los intentos de diseñar gramáticas narrativas generativas (1993: 135). Según señala, adquirimos en una edad muy temprana la superestructura narrativa fundamental de nuestra cultura, sin que pueda hablarse de «una arquitectura universal».
Vemos, en definitiva, que la actividad cognitiva (procesos de percepción, atención, memoria) no puede desvincularse de su expresión lingüística ni de su contexto sociocultural de uso (su pragmática). La fórmula lacaniana que dice que «el inconsciente está estructurado como un lenguaje» constituye, sin duda, la afirmación más radical de estos vínculos.
3.6 Ejercicios
1. Analiza las siguientes actividades de rehabilitación logopédica, y señala cuál es el (los) fonema(s) o el (los) sonido(s) que pueden rehabilitar:
– movimientos rápidos de unión y separación de los labios;
– tocar el paladar con la parte posterior (dorso) de la lengua y expulsar el aire;
– soplar una vela.
2. Compara los titulares sobre una misma noticia de actualidad en diferentes periódicos, y comenta las posibles consecuencias psicolingüísticas de su utilización de las categorías pragmáticas. Analiza las marcas de enunciación como punto de partida.
3. Elige una noticia de actualidad y escúchala en el noticiario de diferentes cadenas televisivas. Analiza las diferencias (si las hay) a la luz del siguiente extracto de un texto de Umberto Eco (de «Los ojos del Duce», publicado en El País, el sábado 24 de enero de 2004, pág. 12):
La televisión actúa de esta forma. Si se discute la ley tal de cual, se enuncia ésta en primer lugar, después se da la palabra de inmediato a la oposición, con todas sus argumentaciones. A continuación aparecen los partidarios del Gobierno que objetan las objeciones. El resultado persuasivo se da por descontado: tiene razón quien habla el último. Si se siguen con atención todos los telediarios, podrá verse que la estrategia es esa: en ningún caso tras la enunciación del proyecto aparecen primero los partidarios del Gobierno y después las objeciones de la oposición. Siempre ocurre al contrario. A un régimen mediático no le hace falta meter en la cárcel a sus opositores. Los reduce al silencio, más que con la censura, dejando oír sus razones en primer lugar.
4. Durante tres semanas presta atención a los errores fonéticos que cometes tú mismo u otras personas con las que hablas; anótalos (al menos deberías recoger veinte ejemplos). Luego, trata de agruparlos de una manera sistematizada y explica tus criterios de agrupación.
5. Elabora un corpus de chistes, y realiza después un análisis de su posible humor (o ausencia de humor) según la violación de las máximas conversacionales; ¿puedes describir cuál es el «destinatario ideal» de cada chiste?, ¿por qué unos chistes hacen gracia sólo a ciertos oyentes? Razónalo en términos pragmáticos.
Lecturas recomendadas
BICKERTON, Derek (2000): «Darwin y Chomsky, al fin juntos», en W. H. Calvin y D. Bickerton (2000): Lingua ex Machina. La conciliación de las teorías de Darwin y Chomsky sobre el cerebro humano.
Barcelona, Gedisa, 2001, pp. 241-258. Trad. de Tomás Fernández.
Este capítulo repasa las concepciones del lenguaje que mantienen tradicionalmente las posturas innatistas (chomskianos) y evolucionistas (darwinistas), y trata de establecer un punto de encuentro que sea compatible con la naturaleza esencial del lenguaje.
GALEOTE MORENO, Miguel Ángel (2002): Adquisición del lenguaje. Problemas, investigación y perspectivas.
Madrid, Pirámide.
Este volumen de Miguel Galeote repasa también temas básicos de la psicolingüística, desde un planteamiento básicamente generativista. Destaca la claridad expositiva con que se tratan los problemas fundamentales de la adquisición.
LÓPEZ-HIGES SÁNCHEZ, Ramón (2003): Psicología del lenguaje.
Madrid. Pirámide.
Este libro completa nuestra exposición con algunos temas prototípicos de la psicología del lenguaje, como la comprensión y producción, así como un interesante capítulo dedicado a las pruebas de evaluación lingüística.
PUYUELO, Miguel y cols. (1997-2001): Casos clínicos en logopedia, vols. 1, 2 y 3.
Barcelona, Masson.
La lectura de cualquiera de estos volúmenes pondrá en contacto al estudiante con uno de los campos más interesantes de aplicación de la lingüística. En la excelente exposición de casos, realizada por profesionales experimentados, el lector va tomando conciencia de la complejidad y riqueza que puede ofrecer la logopedia como actividad profesional.
* NOTA: Este trabajo se ha desarrollado en el marco de los proyectos de investigación financiados por el Ministerio de Educación y Ciencia, «Estudio de variables morfológicas y sintáctico-semánticas en la evaluación de afasias» (Ref.: BFF2001-3234-C02-02) y «Elaboración y análisis pragmático de un corpus de lenguaje afásico» (Ref.: BFF2002=00349), ambos con dotación adicional de los Fondos FEDER y el segundo de ellos también con una ayuda complementaria de la Generalitat Valenciana (GRUPS2004/14).