Читать книгу El universo en tu bolsillo - Marcus Chown - Страница 11

5 MATERIA DOTADA DE CURIOSIDAD

Оглавление

El cerebro

Yo soy un cerebro, Watson. El resto de mí es meramente un apéndice.

SHERLOCK HOLMES1

¡El cerebro contra la fuerza bruta!… Y el cerebro sale ganando… como tiene que ser.

SAPO DE LA MANSIÓN DEL SAPO2

Una de las preguntas más profundas de la ciencia es: ¿por qué está construido el universo de tal modo que ha llegado a adquirir la capacidad de sentir curiosidad sobre sí mismo? La pregunta presupone la existencia de un universo objetivo ahí fuera. Pero todo lo que sabemos sobre la realidad, incluido nuestro modelo del universo, es una construcción del cerebro humano. «El cerebro —escribió la poetisa Emily Dickinson— es más amplio que el cielo». De todos modos, antes de que podamos abordar realmente cualquiera de los profundísimos interrogantes que podemos plantearnos acerca del universo, necesitamos conocer el filtro a través del que lo percibimos.

El capitán James T. Kirk de la nave estelar Enterprise decía que el espacio es «la última frontera». Pero estaba equivocado. La última frontera no es el espacio, sino el cerebro humano: el más consumado pedazo de «materia dotada de curiosidad».

Nuestro cerebro —«el aparato con el que pensamos que pensamos»—3 procesa información procedente de nuestros sentidos y la usa para ir actualizando constantemente su modelo interno del mundo. Luego, sobre la base de esa información, decide qué acción emprender. El cerebro es el responsable del arte, la ciencia, el lenguaje, la risa, los juicios morales y el pensamiento racional, por no hablar de la personalidad, los recuerdos, los movimientos y nuestra manera de sentir el mundo. «Es en el cerebro donde la amapola es roja, la manzana es aromática y canta la alondra», escribió Oscar Wilde.4

No está nada mal para un montoncito de materia de aspecto no muy atractivo y con la consistencia de unas gachas de avena frías. La pregunta es: ¿cómo llegó a surgir algo tan complejo y asombroso? La respuesta está inextricablemente ligada al origen del sistema nervioso… y al dominio de la energía del rayo.

LA EVOLUCIÓN DE LA ELECTRICIDAD

Al principio, había bacterias simples: bolsitas microscópicas de gelatina con la complejidad de unas ciudades de reducidas dimensiones. Se enfrentaban a un problema muy serio: cómo organizar sus «factorías» internas para producir la micromaquinaria de la vida, es decir, las moléculas «navaja suiza» conocidas como proteínas. La solución que hallaron para ello consistió en segregar moléculas como el glutamato, que se difundían por todas partes de sus interiores líquidos. Cuando un mensajero químico como ese se acoplaba a un receptor molecular —encajando en una cavidad de este último cual llave en cerradura—, se desencadenaba la cascada de reacciones químicas necesarias para fabricar una proteína.

Tras casi 3.000 millones de años estancada en el estadio de los organismos unicelulares, la vida dio un paso de gigante y entró en la fase de los organismos pluricelulares. Pero continuó usando su antiguo y contrastado sistema de comunicación interna. Véanse las esponjas, por ejemplo. Esas colonias de células laten sincrónicamente para bombear hacia su interior agua cargada de alimentos a través de canales específicos de sus cuerpos. Las células de las esponjas consiguen ese prodigio de coordinación gracias a que detectan mensajeros químicos como el glutamato, que son emitidos por otras células de las propias esponjas. No deja de ser lo mismo que sucede dentro de una bacteria grande, solo que a una escala mucho mayor. Si funciona, no hay por qué cambiarlo: ese parece ser, al menos, uno de los principios fundamentales de la naturaleza.5

Los mensajeros químicos de una esponja tardan muchos segundos en propagarse a todas las células del organismo y en desencadenar una respuesta. Esto puede ser aceptable para una criatura que vive en entornos que son constantes y predecibles. Sin embargo, en ambientes que cambian con rapidez, donde una respuesta rápida a las amenazas resulta esencial para la supervivencia, se hace perentorio contar con un método más veloz de comunicación interna. Eso es justamente lo que la electricidad nos proporciona.

Por sorprendente que parezca, la electricidad es un elemento de las células tan antiguo como los mensajeros químicos. Las membranas celulares son porosas y tienden a dejar pasar átomos peligrosamente cargados, como el sodio de la sal común.6 Así que, para sobrevivir, las bacterias necesitaron incorporar un modo de echar fuera esos iones. Y solucionaron el problema con la ayuda de unas proteínas con forma de tubo, llamadas canales iónicos, que atraviesan de un lado a otro la membrana celular y pueden abrirse y cerrarse para expulsar iones. Ahora bien, inevitablemente, cuando se bombean iones a través de un canal como ese, se genera un desequilibrio de cargas eléctricas entre el interior y el exterior de la célula. Es esa diferencia de voltaje lo que le sirve en bandeja a la propia célula una oportunidad de oro para cubrir sus necesidades comunicativas.7

Para enviar una señal superrápida, una célula solo tiene que manipular el voltaje a un lado y otro de su membrana, y eso es algo que puede hacer simplemente bombeando iones a gran velocidad por un canal iónico. Con ello provoca un cambio brusco del voltaje entre ambos lados de la membrana, lo que repercute en el canal iónico adyacente y de este en el siguiente, y así sucesivamente, en una especie de reacción en cadena. Como la ola que forma a veces el público en un estadio de fútbol, una señal eléctrica se propaga así a lo largo de la membrana, miles de veces más rápido de lo que ningún mensajero químico podría hacerlo, literalmente a la velocidad del rayo.

Por supuesto, un sistema de comunicación basado en la electricidad —un verdadero sistema telefónico celular— precisa no solo de un medio que permita transmitir una señal, sino también de un medio que haga posible que esta sea detectada y dedicada a algún tipo de utilidad en su destino. Pero también de eso se han ocupado ya las células. Un tipo específico de canal, conocido como canal iónico regulado por voltaje, puede abrirse en respuesta a una señal eléctrica y permitir así que iones como el calcio pasen por la membrana. Una vez dentro, esos iones desencadenan una cascada de procesos celulares con los que se consigue transformar la señal eléctrica entrante en un mensajero químico corriente y moliente, capaz de realizar una función útil, como inducir la fabricación de una proteína.

Tanto los canales iónicos regulados por voltaje como los normales estaban presentes ya en las bacterias. Las células que los usan para su comunicación interna se limitaron a tomarlos prestados y a adaptarlos a una nueva tarea más especializada.

Existía ya, pues, un sistema telefónico celular interno con anterioridad a la aparición de los primeros animales pluricelulares. De hecho, puede apreciarse su funcionamiento en una criatura unicelular acuática llamada paramecio. Cuando el paramecio topa con un obstáculo en el medio en el que nada, se genera un voltaje entre un lado de su membrana y el otro. Esto agita una ola pulsante de iones que recorre todo su cuerpo. Propagándose como el rayo, la ola alcanza las prolongaciones pilosas de la superficie de la célula que, ondulándose sincronizadamente, propulsan el desplazamiento del paramecio. Al instante, estos cilios (que así se llaman dichas prolongaciones) invierten su oscilación y hacen con ello que el paramecio se aleje del obstáculo.

Lo que para una criatura unicelular como el paramecio resulta ser un útil truco deviene en algo indispensable en el caso de un organismo pluricelular. A fin de cuentas, a medida que las criaturas vivas fueron aumentando de tamaño, fue haciéndose también más probable que el lugar de sus cuerpos donde sentían un contacto peligroso estuviera lejos del punto en el que había que contraer un músculo como respuesta a esa sensación. Enviar una señal por medio de un mensajero químico pasó a ser un método demasiado lento. El animal podía ser devorado mucho antes de que pudiera siquiera emprender una acción evasiva. Así que la electricidad era la única solución. Y la naturaleza respondió creando una célula eléctrica especializada: la célula nerviosa.

LAS CÉLULAS NERVIOSAS

Una célula nerviosa tiene un cuerpo celular con un núcleo, como una célula normal. Pero ahí terminan las similitudes. Uno de los lados de esta célula especializada es una prolongación larga y delgada como el hilo de un cable, mientras que el otro presenta una serie de extensiones ramificadas como dedos, mucho más cortas. El cable fino y largo, llamado axón, transmite una pulsación eléctrica a otra célula nerviosa, mientras que las extensiones en forma de dedos, denominadas dendritas, reciben señales eléctricas de los axones de otras células nerviosas.

Una característica crucial de los axones y las dendritas es que el axón de una célula no está en contacto directo con ninguna de las dendritas de otra. Entre el primero y las segundas hay un hueco, conocido por el nombre de sinapsis. Es ahí donde la señal eléctrica del axón se transforma en mensajeros químicos.8 Estos se difunden a través de ese hueco y se acoplan con los receptores, que abren unos canales iónicos para su paso y activan con ello una nueva señal eléctrica. ¿Les suena familiar? Es el mismo sistema de «llave y cerradura» molecular que las bacterias incorporaron hace ya casi 4.000 millones de años. La vida, lejos de deshacerse de su antiguo y lento sistema de comunicación, operado por mensajeros químicos, lo ha integrado en su sistema comunicativo superrápido y moderno, activado mediante la electricidad.

La intervención de mensajeros químicos como intermediarios que ayudan en la transmisión de la señal eléctrica no es ninguna rémora que arrastremos como vestigio desafortunado de los estadios iniciales de la vida en este planeta. Todo lo contrario. Son ellos los que hacen posible una serie casi infinita de respuestas de una célula nerviosa. Y tienen una funcionalidad así de versátil porque existen infinidad de mensajeros químicos (o neurotransmisores) diferentes, cada uno de los cuales tiene un efecto específico sobre una dendrita si (y solo si) la dendrita en cuestión posee un receptor para él. Algunos activan, o excitan, una corriente eléctrica en la dendrita, mientras que otros impiden, o inhiben, una corriente.

Los dos neurotransmisores más importantes en el cerebro humano son el glutamato (reliquia fósil del sistema de mensajeros químicos utilizado por las bacterias hace ya miles de millones de años) y el ácido gamma-aminobutírico (o GABA). Prácticamente todas las comunicaciones entre células nerviosas (o neuronas) del cerebro están mediadas por esos dos aminoácidos simples. Otros neurotransmisores, como la dopamina y la acetilcolina, se limitan a moderar la acción de los dos primeros. La mayoría de los fármacos y las drogas que afectan a la conducta funcionan bloqueando o imitando la acción de un neurotransmisor concreto: estimulan un receptor determinado y generan así el mismo efecto que el neurotransmisor original. Por ejemplo, la dietilamida de ácido lisérgico (o LSD), de la que basta solamente una pizquita para causar en quien la consume alucinaciones psicodélicas oníricas, tiene una estructura química muy parecida a la del neurotransmisor serotonina.

Como una célula nerviosa tiene prolongaciones capaces tanto de enviar como de recibir señales eléctricas, puede unirse a otras formando una red en la que cada célula nerviosa esté conectada a través de sus dendritas con los axones de otras muchas. Y una red así puede comportarse de un modo ciertamente complejo.

Incluso una célula nerviosa en solitario puede evidenciar memoria. Pongamos que una señal eléctrica procedente de un sentido —el tacto, por ejemplo— entra por una dendrita y provoca que la célula nerviosa envíe una señal por su axón destinada a contraer un músculo. Si, además de ir al músculo en cuestión, el axón divide la señal y reenvía una parte de la misma de vuelta a una dendrita de la propia célula nerviosa, ese resto de señal volverá a provocar una contracción de nuevo. Y otra vez. Y otra vez más. Una célula nerviosa puede volver a disparar una nueva ráfaga de ese tipo cada centésima de segundo, aproximadamente. De ese modo, la célula nerviosa recuerda el estímulo. Si cuatro de ellas se interconectan, pueden evidenciar comportamientos complejos, como contraer un músculo para que se aleje de un estímulo según si este viene por el costado izquierdo o por el costado derecho de un animal. Esto nos da una idea de la complejidad de las conductas posibles si las células nerviosas se interconectan, no ya de cuatro en cuatro, sino por centenares, por miles o incluso por cientos de miles de millones.

Las células nerviosas más primitivas, además de entre ellas, estaban también conectadas con el mundo exterior: recibían una señal de entrada directamente procedente de los sentidos o se encargaban de proporcionar una señal de salida destinada a contraer un músculo, por ejemplo. No había cálculo alguno entre medias. Sin embargo, en un estadio posterior de la historia de la vida, algunas células nerviosas comenzaron a conectarse exclusivamente con otras células nerviosas. Esto permitió que dichas neuronas procesaran la información entrante del entorno mediante nuevas y complejas vías con el objeto de decidir una respuesta apropiada. Fue un momento trascendental de la historia de la vida que señaló el nacimiento del cerebro.

LOS CEREBROS

«Básicamente, hay dos tipos de animales —comentó en una ocasión el neurocientífico colombiano Rodolfo R. Llinás—. Están los animales y, luego, los animales que no tienen cerebros; a estos últimos los llamamos plantas. No necesitan un sistema nervioso porque no se mueven de forma activa: no arrancan sus raíces del suelo y comienzan a correr en medio de un incendio forestal, por ejemplo. Todo aquello que se mueve activamente requiere de un sistema nervioso; si no lo tuviera, estaría condenado a morir en breve».9

A menudo se compara las neuronas con las puertas lógicas de los ordenadores.10 Una puerta lógica, fabricada con transistores, puede cablearse con otras puertas lógicas para crear un circuito que, por ejemplo, sume dos números. Pero mientras que una puerta lógica tiene únicamente dos entradas eléctricas y devuelve una señal que depende de la corriente que fluye en esas dos entradas, una neurona puede tener diez mil o más entradas dendríticas y devolver una señal que depende de la interrelación compleja de todas esas entradas eléctricas y de numerosos neurotransmisores y receptores en la sinapsis de la célula nerviosa. Así que, aun cuando es verdad que una neurona es el elemento básico de un ordenador biológico (por así llamarlo) del mismo modo que una puerta lógica es el componente elemental de uno de silicio, es mucho más que eso. Una neurona es un ordenador en sí misma.

Los cerebros, formados por neuronas, tienen un funcionamiento bastante caro. El cerebro humano representa apenas un 2-3 % de la masa de una persona adulta, pero, sin embargo, engulle una quinta parte de la energía del cuerpo en reposo.11 Pero, dicho esto, no hay que olvidar que el cerebro realiza todos sus megacálculos con apenas 20 vatios de potencia: el equivalente de una bombilla eléctrica poco brillante. En comparación, un superordenador capaz de un volumen análogo de cálculos necesita unos 200.000 vatios: es, pues, diez mil veces menos eficiente en términos de consumo energético que el cerebro.

De todos modos, para algunas criaturas, el gasto energético que comporta el funcionamiento de un cerebro es inasumible. Las larvas de las ascidias (o jeringas de mar), por ejemplo, tienen un sistema nervioso rudimentario que les permite vagar por las aguas marinas en busca de una roca o arrecife de coral al que aferrarse y en el que anidar. Pero, tal como explica el científico cognitivo estadounidense Daniel Dennett, «cuando encuentra el sitio y echa raíces, ya no necesita más su cerebro, así que ¡se lo come!».12

Aun así, pese a este ejemplo bastante perturbador de autocanibalismo, los beneficios de tener un cerebro, por simple que sea este, parecen superar generalmente a los costes. Por ejemplo, el nematodo Caenorhabditis elegans tiene un cerebro de solamente 302 neuronas: tan pocas que están todas ellas codificadas al completo en su ADN. Este gusano nematodo, a diferencia de la ascidia, no se come su propio cerebro. Así que alguna ventaja competitiva importante debe de proporcionarle.13

El cerebro humano pesa casi un kilo y medio y cuenta con unos 100.000 millones de neuronas (una cifra que, por una pura casualidad, coincide aproximadamente con el número de estrellas que hay en nuestra galaxia, con el número de galaxias que hay en nuestro universo y con el número de personas que han vivido durante toda la historia de nuestro planeta). «El cerebro humano es el objeto más complejo conocido en el universo —escribió sobre él Edward O. Wilson—, conocido por él mismo, se entiende».14 Según una teoría desarrollada por el neurocientífico estadounidense Paul MacLean, en el transcurso de la evolución, han surgido tres cerebros diferenciados que se han ido acumulando uno sobre el otro. «Con sus partes modernas superpuestas a las antiguas, el cerebro es como un iPod que envuelve un reproductor de casetes de ocho pistas», según lo ha descrito la periodista estadounidense Sharon Begley.15

La parte más antigua y primitiva de nuestro particular universo de casi kilo y medio está formada por el tallo cerebral y el cerebelo, que curiosamente son las estructuras principales del cerebro de un reptil. Pues, bien, nuestro «cerebro reptiliano» controla funciones automáticas vitales como la temperatura corporal, la respiración, el ritmo cardiaco y el equilibrio. Envolviendo el cerebro reptiliano se encuentra una estructura que se desarrolló en los primeros mamíferos unos 200 millones de años atrás. Las partes principales de este sistema límbico (que así se llama) son el hipocampo, la amígdala y el hipotálamo. Registran los recuerdos de las buenas y las malas experiencias y, por lo tanto, son responsables de las emociones. A su vez, alrededor del cerebro límbico se sitúa la estructura más voluminosa de todas, una estructura que no empezó a tener verdadera importancia hasta adquirir la forma que tomó en el cerebro de los primates. Este cerebro propiamente dicho (o neocórtex) puede anular las respuestas viscerales o instintivas decretadas por las otras partes —más primitivas— del cerebro. Es responsable del habla, el pensamiento abstracto, la imaginación y la conciencia. Tiene una capacidad casi ilimitada de aprender cosas nuevas y es donde reside nuestra personalidad. En resumidas cuentas, el neocórtex es lo que nos hace humanos.

En realidad, hay aún una capa más que envuelve tanto el cerebro reptiliano como el sistema límbico y el neocórtex: me refiero, claro está, al duro caparazón huesudo que conforma el cráneo. «Porque las cosas importantes van en estuches. Uno tiene bolsillo para el peine, billetera para el dinero… y un cráneo para el cerebro», comentaba George Costanza en un episodio de Seinfeld.16 De hecho, el cráneo está reforzado por tres capas de tejido protector que llamamos meninges, entre las que se intercala un líquido especial para amortiguar golpes denominado fluido cerebrovascular. Una infección en esa zona origina la inflamación que conocemos por el nombre de meningitis y que puede tener consecuencias fatales.

El neocórtex está dividido en dos hemisferios conectados entre sí por un haz de fibras nerviosas que forman el cuerpo calloso. En realidad, pues, tenemos dos cerebros. Normalmente, al lado izquierdo se le dan mejor la resolución de problemas, las matemáticas y la escritura, mientras que el derecho es más creativo y más apropiado para el arte o la música. Por razones que no hemos terminado de entender aún, el lado izquierdo del cerebro controla el movimiento del lado derecho del cuerpo, y viceversa. De ahí que las personas que sufren un ataque de apoplejía en el hemisferio izquierdo de su cerebro pierdan la movilidad en la mitad derecha de su cuerpo, y viceversa. La apoplejía viene causada normalmente por un coágulo de sangre en el cerebro que bloquea el riego sanguíneo local, lo que daña o destruye el tejido cerebral de esa zona.

Pero lo verdaderamente asombroso del cerebro no reside tanto en su estructura general como en su microestructura: es decir, en sus 100.000 millones aproximados de neuronas y su billón de otras células de apoyo que rodean a las neuronas y sus axones facilitándoles la energía que necesitan y manteniéndolos sanos.17 En cualquier caso, la cifra total de neuronas nos dice muy poco del funcionamiento real del cerebro. «El hígado probablemente contiene unos 100 millones de células —ha escrito el neurocientífico estadounidense Gerald D. Fischbach—. Pero mil hígados no nos harán tener una rica vida interior».18

La clave de las asombrosas capacidades del cerebro estriba en las conexiones entre sus neuronas. «Todo lo que sabemos, todo lo que somos, proviene del modo en que nuestras neuronas están interconectadas», escribió Tim Berners-Lee, inventor de la World Wide Web.19 Una neurona puede poseer unas diez mil dendritas aproximadamente, mediante las que puede interactuar con otras diez mil neuronas, también aproximadamente. En total, el cerebro podría contener algo así como mil billones de conexiones.

La gran pregunta es: ¿cómo un sistema inconcebiblemente complejo de circuitos neuronales como ese consigue que recordemos y aprendamos cosas?

MEMORIA Y APRENDIZAJE

Lo normal es que nuestra memoria recuerde aquellas cosas que son importantes para nosotros y olvide aquellas otras que dejan de importarnos. Desde luego, todos olvidamos de vez en cuando alguna que otra cosa de importancia, como dónde dejamos el libro que estábamos leyendo o la lista de la compra que anotamos en un trozo de papel. Pero, por lo general, recordamos y aprendemos aquello que es significativo para nosotros, y por «significativo» me refiero a aquello que está conectado a cosas que ya conocemos. Si oímos una palabra nueva en francés y ya hablamos ese idioma, es mucho más probable que la recordemos que si no lo hablamos. Si sabemos cómo mantener el equilibrio sobre un monopatín, aprenderemos a mantenerlo también sobre una tabla de surf más fácilmente que alguien que nunca haya patinado.

Además de eso, la repetición también parece ser un factor relevante de cara a recordar y aprender cosas. Los niños pequeños aprenden a hablar repitiendo las mismas palabras una y otra vez. Luego aprenden tablas de multiplicar recitándolas con insistente reiteración hasta que se les quedan grabadas en el cerebro. Las personas que aprenden guitarra rasguean la misma secuencia de acordes durante horas.

Ni que decir tiene que nada de esto nos explica cómo el sistema de circuitos neuronales del cerebro nos permite recordar cosas y aprender nuevas habilidades. Pero sí nos indica que, en el cerebro, el establecimiento de conexiones con cosas que ya conocemos y la repetición constituyen dos procesos cruciales.

Las cosas que ya conocemos están codificadas en el patrón de conexiones formado entre los 100.000 millones de neuronas del cerebro, del mismo modo que el conocimiento de cómo contraer un músculo para alejarse de la fuente de un estímulo estaba contenido en las conexiones que formaban la red tetraneuronal simple mencionada en un apartado anterior del presente capítulo. Nadie sabe a ciencia cierta cómo ese patrón codifica información compleja. Si bien podemos señalar sin problema un grupo de dominios de una memoria magnética en un ordenador y decir «ese de ahí tiene almacenado un 6 o la letra P», no podemos señalar aún un grupo de neuronas interconectadas en el cerebro y decir que ahí está almacenado el olor del pan recién hecho o los conocimientos necesarios para mantenerse en equilibrio sobre una sola pierna. Aun así, todos los indicios apuntan a que el patrón de las conexiones entre las neuronas es clave para que sepamos lo que sabemos.

De las conexiones entre neuronas se encargan las dendritas. Estas son sinónimo, pues, de lo que sabemos. Para que recordemos algo o para que aprendamos una nueva habilidad, algo debe suceder en las conexiones dendríticas entre las neuronas.

Imaginemos dos de esas células conectadas entre sí (el axón de la primera unido a una dendrita de la segunda). Ahora imaginemos también que la primera neurona comienza a «disparar» señales porque está recibiendo algún estímulo (alguna información sensorial del mundo exterior, tal vez). Recordemos asimismo que la conexión dendrítica entre esas dos neuronas representa algo que ya sabemos.

Pues, bien, si el estímulo en cuestión es repetitivo y está relacionado con lo que sabemos —y los neurotransmisores presentes en el hueco sináptico entre el axón y la dendrita están preparados para amplificar la señal eléctrica si el estímulo está relacionado—, la dendrita fortalece su conexión. Ese fortalecimiento puede producirse de múltiples formas, pero una de ellas consiste en que la dendrita desarrolla un gran número de espinas que multiplican sus puntos de conexión.

Obviamente, dos neuronas conectadas por una sola dendrita no podrán codificar más que una pizca ridículamente mínima de información. Sin embargo, como todo lo que sabemos está codificado en la totalidad de conexiones dendríticas que hay en nuestro cerebro, cuando reforzamos dichas conexiones, no ya entre pares de neuronas, sino entre un gran número de ellas, hacemos que los nuevos conocimientos queden permanentemente ligados a algo que ya sabemos y, de ese modo, imprimimos un recuerdo en nuestra mente. «Eso es el aprendizaje —escribió la novelista Doris Lessing—. De pronto comprendemos algo que hemos comprendido toda la vida, pero ahora de una nueva manera».20

«Siempre que una persona lee un libro o tiene una conversación, la experiencia ocasiona cambios físicos en su cerebro —explica el divulgador científico estadounidense George Johnson—. Asusta un poco pensar que, a raíz de cualquiera de los encuentros que tenemos en la vida, nuestro cerebro queda modificado, a veces de modo permanente».21

Mediante este proceso de fortalecimiento de conexiones entre neuronas, la red que codifica todo lo que sabemos cambia sin cesar. Pero el mencionado proceso no solo refuerza las conexiones, sino que construye otras nuevas y hace que se pierdan algunas también. Imaginémonos la red neural del cerebro como si fuera un amplio y espeso matorral. En algunas partes, crece y, en otras, se achica por culpa de las conexiones que se pierden entre neuronas que ya no comparten ningún elemento en común. Esto último representa el proceso de lo que vamos olvidando.

Ahora bien, si algo puede hacer el cerebro como ninguna otra cosa en el universo conocido es capaz de hacer es reconstruirse y recablearse constantemente. «Las principales actividades de los cerebros consisten en hacer cambios en ellos mismos», o, al menos, eso escribió Marvin Minsky.22

Por lo que se refiere al aprendizaje de una habilidad nueva, se trata de un proceso muy similar al de la construcción de un recuerdo. Así, si para montar en bicicleta se necesita el concurso de unos determinados músculos, fortaleciendo las dendritas que se conectan con neuronas que controlan esos músculos se hace más fácil y rápido controlarlos. Por lo tanto, una habilidad como montar en bicicleta o leer un libro se codifica en una red de neuronas igual que un recuerdo se codifica en una. Se convierte en algo integrado, automático.

Este refuerzo y debilitamiento de las conexiones entre neuronas, o la creación de conexiones nuevas para modificar la red existente, es lo que se conoce como neuroplasticidad. Hasta para pensar la definición que acabo de escribir ha sido necesario que mi cerebro ejerciera su neuroplasticidad. Y también los de ustedes han tenido que ejercer la suya para entender la mencionada definición. (Y si no la han entendido, no se habrán formado nuevas conexiones, con lo que yo habré dejado sus cerebros tal como estaban.)

El cerebro es un ordenador, sí, pero de una clase ciertamente asombrosa. Mientras que un ordenador convencional con base de silicio realiza una tarea con arreglo al programa que le ha introducido un ser humano, el cerebro no tiene ningún programador externo. Es un ordenador que se programa a sí mismo. Un bebé nace ya dotado de una red de neuronas y del potencial para interconectarlas de infinitas maneras posibles. La programación del cerebro del bebé —el crecimiento de nuevas conexiones, el fortalecimiento de algunas y la pérdida de muchas más— se realiza a partir de su experiencia del mundo, del caudal de información que le llega, hora tras hora, día tras día, por sus ojos, sus oídos, su nariz y su piel.

Aunque es sumamente difícil ver cómo las neuronas concretas forjan vínculos con sus vecinas, sí es perfectamente posible contemplar grosso modo cómo el cerebro se programa a sí mismo. La técnica de la imagen por resonancia magnética funcional (IRMf) nos revela qué áreas del cerebro están en funcionamiento cuando una persona realiza una tarea determinada. Se ha comprobado, por ejemplo, que, cuando las personas aprenden a meditar tras recibir clases de un experto o experta, se iluminan nuevas áreas de sus cerebros en los exámenes por IRMf: sus cerebros se han reprogramado. Posiblemente uno de los ejemplos más famosos de investigación con IRMf es un estudio realizado con taxistas londinenses. Eleanor Maguire, del University College de Londres (UCL), mostró que una región de los cerebros de los taxistas participantes en el estudio (una región asociada con la conciencia espacial) era realmente más extensa en esas personas que en las que no conducimos taxis.

«El cerebro es un músculo. Si no lo usas, se atrofia». Puede que esa nos parezca una afirmación barata, pero —salvo por el detalle de que el cerebro no es un músculo— en la máxima «si no se usa, se atrofia» se encierra una verdad muy importante acerca del cerebro. Y es que, del mismo modo que cuando nos ejercitamos con pesas, activamos procesos fisiológicos que hacen que crezcan más células musculares, los procesos de recordar cosas, aprenderlas, etcétera, estimulan en el cerebro el desarrollo de más conexiones neuronales. E igual que cuando no ejercitamos nuestros músculos, estos pueden atrofiarse, cuando no ejercitamos el cerebro, debilitamos o perdemos para siempre muchas de sus conexiones neuronales existentes. Incluso Charles Darwin, que lo desconocía todo sobre las neuronas, se dio cuenta de la verdad que se encerraba en esa idea de que «si no se usa, se atrofia». «Si tuviera que volver a vivir mi vida de nuevo, me impondría como norma leer poesía y escuchar música al menos una vez por semana —escribió en su autobiografía—. Pues quizá las partes de mi cerebro que ahora están atrofiadas se habrían mantenido así activas con el uso».

La neuroplasticidad es el gran secreto del cerebro. Al igual que la selección natural en el terreno de la evolución, y que el ADN en el de la genética, constituye una idea tan fundamental para comprender el cerebro que nada tendría sentido sin ella. La neuroplasticidad explica por qué las experiencias nuevas recablean constantemente el cerebro, el más consumado montón de materia programable. Explica cómo la tabla rasa que es el cerebro de un bebé al nacer termina convirtiéndose en un cerebro adulto. Explica por qué la víctima de un derrame cerebral puede recuperar facultades perdidas gracias a que la tarea de la que se encargaban las neuronas afectadas pasa a ser asumida por neuronas de otra área adyacente del cerebro. La rehabilitación en esos casos es prolongada y difícil porque el proceso de reprogramación es análogo al de la programación inicial del cerebro de un niño pequeño cuando aprende habilidades por vez primera.

Y la neoplasticidad dura toda la vida. Nuestro cerebro sigue siendo capaz de formar nuevas conexiones incluso en personas de cien años de edad: un centenario o una centenaria puede aprender a usar un ordenador. Quizá no aprende tan rápido como un niño, pero aprende.

¿PUEDE EL CEREBRO ENTENDER EL CEREBRO?

«Nuestro cerebro deja pasmada a nuestra mente», ha escrito James Watson, codescubridor del ADN.23 Continúa siendo la última y más imponente frontera en el ámbito de la biología, el objeto más complejo que hemos descubierto hasta ahora en nuestro universo. Pero, aunque vacilantes, hemos dado ya los primeros pasos encaminados hacia su comprensión definitiva. Aun así, queda muchísimo para que esto último sea posible. Y cabe preguntarse, además, si se trata siquiera de una meta alcanzable. «Si el cerebro humano fuese tan simple que pudiéramos comprenderlo, nosotros seríamos tan simples que no podríamos comprenderlo», escribió el biólogo estadounidense Emerson M. Pugh.24

Desde el punto de vista de la lógica, Pugh está en lo cierto. El cerebro humano nunca podrá comprender completamente el propio cerebro humano. Sería como tratar de mantenernos suspendidos en el aire simplemente tirando hacia arriba de los cordones de nuestros zapatos. Sin embargo, no es el cerebro el que está tratando de comprender el cerebro. Son muchos cerebros los que lo están intentando: la suma combinada de las mentes de la comunidad científica internacional. Como reza un dicho italiano, «no todos los cerebros están en la misma cabeza».

Todavía estamos lejos de tener una respuesta para la pregunta planteada al comienzo de este capítulo: ¿por qué está construido el universo de tal modo que ha llegado a adquirir la capacidad de sentir curiosidad sobre sí mismo? Pero, si llegamos a comprender el cerebro, seremos por fin capaces de responderla. «Mientras nuestro cerebro sea un arcano —escribió Santiago Ramón y Cajal, padre de la neurociencia—, el universo, reflejo de su estructura, será también un misterio».

El universo en tu bolsillo

Подняться наверх