Читать книгу Una revolución en miniatura - Amador Menéndez Velázquez - Страница 9
ОглавлениеCapítulo 1
HACIA EL NANOMUNDO
Imagine disociar un cuerpo humano en los bloques fundamentales que lo componen. Nos encontraríamos con una parte considerable de gases, principalmente hidrógeno, oxígeno y nitrógeno; cantidades importantes de carbono y calcio; pequeñas fracciones de varios metales como hierro, magnesio y zinc; y muy pequeñas trazas de muchos otros elementos químicos (véase la tabla 1). El coste total de estos materiales sería inferior al coste de un par de zapatos. ¿Valemos tan poco los humanos? Obviamente no, principalmente porque es la disposición de estos elementos y la forma en la que están unidos lo que nos permite a los seres humanos comer, hablar, reproducirse, pensar o escribir este libro.
«Carbón y diamantes, arenas y chips de ordenador, cáncer y tejido sano: a través de la historia, las variaciones en la disposición de los átomos han distinguido lo barato de lo valioso, lo enfermo de lo sano. Ordenados de un modo, los átomos forman el suelo, el aire y el agua; ordenados de otro modo, las frutas maduras. Ordenados de un modo forman hogares y aire fresco; ordenados de otro, cenizas y humo». Así empezaba Eric Drexler su libro Máquinas de creación del año 1986. Efectivamente, el valor no está en los propios átomos, sino en la disposición de los mismos. Sería entonces maravilloso contar con una tecnología que nos permitiese mover los átomos, reordenarlos a voluntad. La nanotecnología es la tecnología que lo hace posible. Es una ingeniería a escala atómica y molecular.
La nanotecnología debe su nombre a una unidad de longitud, el nanómetro. Como ya hemos mencionado, el nanómetro (nm) es la milmillonésima parte del metro. Resulta difícil imaginar cantidades tan pequeñas, pero hagamos un pequeño esfuerzo. Imaginemos una circunferencia especial, un meridiano de la Tierra que pasa por París y ambos polos. Si dividimos la longitud de esta circunferencia en diez millones de partes, obtenemos el metro. Esa es precisamente una de las definiciones de metro. Pues bien ahora dividamos el metro aún más, no en diez millones de partes, sino en mil millones de partes. Nos encontramos entonces con el nanómetro. Ciertamente, es una cantidad muy, muy pequeña. Es en ese diminuto territorio donde habitan los átomos y las moléculas.
En su definición más amplia, la nanotecnología engloba a cualquier rama de la tecnología que hace uso de nuestra capacidad de controlar y manipular la materia en escalas de longitud comprendidas entre 1 nm y 100 nm. ¿Cómo desarrollar esta tec-nología? ¿Podríamos intentar duplicar, a una escala más pequeña, los principios que han resultado acertados para nuestros logros de la ingeniería a escala macroscópica? ¿O deberíamos intentar copiar la manera en la que la biología opera?
En la nanoescala, las leyes de la física se manifiestan de forma diferente y sorprendente. Sería entonces más acertado explorar el funcionamiento de la biología celular y comprender cómo las diferentes elecciones por las que ha optado la evolución han estado condicionadas por las leyes de la física en la nanoescala. Es entonces cuando descubriremos los principios a seguir a la hora de diseñar sistemas sintéticos, que persiguen algunos de los mismos fines que las máquinas nano-biológicas.
NANO Y NATURALEZA
Es posible abordar la nanociencia y la nanotecnología desde diferentes aproximaciones. Pero, en este primer capítulo de apro-ximación al nanomundo, hemos querido que la naturaleza tuviese un protagonismo destacado. El hombre ha aprendido mucho de la misma. Aún así, sus técnicas de fabricación son primitivas y la eficiencia de las mismas está lejos de la conseguida por la naturaleza. Por ejemplo, no hemos logrado alcanzar el rendimiento de la fotosíntesis a la hora de almacenar energía. Por otra parte, la luciérnaga produce luz fría con un despilfarro de ener-gía casi nulo, mientras que una bombilla incandescente convencional desperdicia hasta el 98% de su energía en forma de calor. Ninguna fábrica purifica y almacena el agua tan eficazmente como las sandías. Éstos son tan sólo algunos ejemplos.
Continuemos con un examen crítico. El cerebro de una persona puede, en principio, almacenar y procesar más información que los ordenadores actuales. Es improbable que una cámara de video capture imágenes con mayor nitidez que el ojo humano. Los receptores olfativos del perro son mucho más sensibles que los que hemos sido capaces de desarrollar, aunque se hayan logrado espectaculares detectores monomoleculares. El escarabajo Melanophila, que desova en madera recién quemada, posee un detector biológico de la radiación infrarroja que emite la madera en esas circunstancias, percibiéndola a decenas de kilómetros. Los últimos sistemas de alarma resultan primitivos comparados con el sexto sentido de los animales. Pues bien, la naturaleza realiza todas estas funciones sin ninguna ostentación; lo vienen haciendo desde tiempos inmemoriales y de forma precisa una y otra vez.
Sigamos rebajando nuestro ego. Nuestra tecnología actual aún no ha alcanzado un rendimiento óptimo en la captura y conversión de energía. Los más avanzados sistemas fotovoltaicos del mercado convierten la luz en energía con sólo un 16% de eficiencia. Nuestros mejores motores de combustión interna trabajan con un rendimiento en torno al 52%. Mientras cocinamos, utilizamos el 38% (en el mejor de los casos) de la energía térmica producida por el gas. Sin embargo, nuestro cuerpo aprovecha casi toda la energía química que produce, al igual que las plantas o las bacterias. Si fuésemos tan ineficientes como un motor eléctrico necesitaríamos consumir mucha más comida de la que hoy ingerimos y no habría alimentos suficientes para todos nosotros.
La naturaleza, en su conjunto, fija entre 110 y 120 mil mi-llones de toneladas de dióxido de carbono al año a través de la fotosíntesis. Nosotros los humanos sólo emitimos 0,65 miles de millones de toneladas de dióxido de carbono a través de nuestra respiración. Pero las emisiones de dióxido de carbono debidas a la actividad humana constituyen alrededor de 8 mil millones de toneladas, el 77,5% de las cuales se debe exclusivamente a la combustión de combustibles fósiles. Durante dicho proceso producimos muchos otros residuos como humo, compuestos orgánicos complejos y óxido de nitrógeno. Evidentemente, las tecnologías que hemos desarrollado son mucho menos respetuosas con el medio ambiente que las que operan en la naturaleza.
Para lograr tales hazañas, la naturaleza ha venido trabajando desde hace mucho tiempo en la nanoescala. Trece mil ochocientos millones de años de i+d+i, desde ese primer momento en el que tuvo lugar la Gran Explosión, la avalan. No es de extrañar que en todo ese tiempo la naturaleza haya tenido oportunidad de realizar múltiples ensayos, sobreviviendo sólo los mejores al paso del tiempo. Tampoco debe sorprendernos que haya buscado ingeniosas soluciones. A modo de ejemplo, pensemos en las partículas de magnetita (Fe3O4) de tamaño nanométrico fabricadas por la bacterias Magnetospirillum magnetotacticum. Dichas bacterias fabrican partículas con una morfología específica, capaz de inducir propiedades magnéticas. Este magnetismo actúa como una especie de imán que ayuda a las bacterias a encontrar una dirección favorable para su crecimiento.
Asimismo, la naturaleza nos proporciona valiosas lecciones de economía. La formación de una sandía es más compleja que el más complejo de los circuitos integrados y, sin embargo, cuesta mucho menos. En definitiva, todos estos ejemplos ponen también de manifiesto que es posible alcanzar una mayor eficiencia y rentabilidad siguiendo los pasos de la naturaleza.
NANO: EL PRINCIPIO
Como hemos visto en la sección anterior, la naturaleza ha sido y continúa siendo el nanotecnólogo por excelencia. Pero mucho antes de que se vislumbrase el potencial de la nanotecnología y se acuñase esta palabra, muchas de las tecnologías y procesos desarrollados por la humanidad se basaban en la manipulación de la materia en la nanoescala, aún cuando no fuésemos conscientes de ello. Tomemos como ejemplo la invención de la tinta por los egipcios o el descubrimiento del jabón. Ha habido muchos otros nanoproductos a nuestro alrededor. Remontémonos en el tiempo al siglo IX, cuando los habitantes de Mesopotamia utilizaban nanopartículas metálicas para obtener un efecto brillante en la alfarería. O pensemos en Faraday cuando preparó oro coloidal (diminutas partículas de oro en agua) en 1856 y se refirió a él como «metales divididos». Efectivamente, el oro metálico, al dividirse en finas partículas con tamaños comprendidos entre 10-500 nm, puede permanecer suspendido en agua. Viajemos ahora a 1890, año en el que el bacteriólogo alemán Robert Koch descubrió que compuestos de oro inhibían el crecimiento de las bacterias. Ello le valió el Premio Nobel de Medicina en 1905.
En realidad, el uso del oro en preparaciones médicas data de tiempos aún más remotos. En el método medicinal indio llamado Ayurveda se utiliza el oro para diferentes aplicaciones. Una muy popular se denomina Saraswatharishtam y se prescribía para mejorar la memoria. Se añadía a ciertas preparaciones medicinales para bebés, con el objetivo de mejorar su capacidad mental. Todos estos preparados utilizaban oro finamente molido. El metal también se utilizaba con fines medicinales en el antiguo Egipto, en concreto para el cuidado dental. En Alejandría, los alquimistas desarrollaron un potente elixir coloidal llamado oro líquido, un preparado que pretendía devolver la juventud. Por otra parte, el gran alquimista y fundador de la Medicina moderna, Paracelso, desarrolló muchos tratamientos muy efectivos a partir de minerales metálicos, entre ellos el oro. Aunque inconscientemente, todos estos desarrollos incorporaban oro o compuestos del mismo de tamaño nanométrico.
El oro coloidal también se ha incorporado a vasos y jarrones para darles color. La más antigua es la copa de Licurgo del siglo IV d. de C., diseñada por los romanos. La copa se ve roja con luz transmitida (si la fuente de luz se halla dentro de la copa) y verde con luz reflejada (si el foco de luz se halla fuera). ¿Qué es lo que contribuye al color del vidrio? Contiene cantidades muy bajas de oro (alrededor de 40 partes por millón) y de plata (alrededor de 300 partes por millón), en forma de nanopartículas.
UN DISCURSO MÍTICO
A pesar de estos logros, la ciencia tardó en tomar plena conciencia del gran potencial de las pequeñas escalas de la materia. Algunos dicen que la historia comenzó el 29 de diciembre de 1959. Esa noche Richard Feynman, quien recibiría el Premio Nobel de Física en 1965 por sus investigaciones en física teórica, pronunció un discurso a un grupo de personas pertenecientes a la élite de la física estadounidense. A la edad de 41 años ya había adquirido una gran reputación y se le consideraba poseedor de una inteligencia y creatividad excep-cionales. Una vez más sorprendió a su público. Como un párroco desde el púlpito, comenzó su discurso: «Hay mucho espacio hacia dentro: una invitación a adentrarse en un nuevo campo de la física».
Hoy, este discurso se considera doctrina y se percibe, de manera errónea, como fundamental, mientras que al propio Feynman se le considera el padre de la nanotecnología. La historia dice que, inspirados por las sabias palabras del maestro, los físicos se lanzaron a la exploración de las intimidades de la materia, emergiendo el campo de la nanotecnología. La realidad es bien distinta. A pesar de todo el prestigio del que disfrutaba ya Feynman, sus palabras de esa noche levantaron poco entusiasmo. En los años que siguieron, el impacto del discurso no creció y cayó en el olvido. El discurso de Feynman sólo se hizo famoso en los años noventa, cuando Eric Drexler lo desenterró para dar crédito a sus propias ideas.
Aún así, Feynman tiene el gran mérito de haber intuido la importancia de la miniaturización y señalar la necesitad de explorar las minúsculas partes de la materia. Ciertamente, como otros grandes científicos, fue un visionario que no sólo resolvió problemas, sino que supo escoger los problemas a resolver. Pero, ¿qué dijo exactamente Feynman aquella noche? Éste es un breve fragmento de su discurso:
Me gustaría describir un campo en el que se ha hecho poco, pero en el que, en principio, se pueden hacer muchas cosas... Tendría numerosas aplicaciones técnicas... De lo que quiero hablar es del problema de manipular y controlar cosas a pequeña escala... Dentro se encuentra un mundo asombrosamente pequeño...
Fascinado por el potencial de lo pequeño, se preguntaba: «¿Qué ocurriría si pudiéramos colocar los átomos, uno a uno, de la forma que queramos?» Planteaba también la posibilidad de almacenar información en unos pocos cientos de átomos –hoy sabemos que incluso un único átomo podría ser suficiente: «¿Por qué no escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler?». Y también quiso mostrarnos la naturaleza como camino a seguir:
Muchas de las células son muy pequeñas, pero muy activas; fabrican varias sustancias, se mueven, se agitan y hacen todo tipo de cosas maravillosas en una escala muy reducida. Pensemos en la posibilidad de construir algo diminuto que haga lo que nosotros queramos: ¡poder fabricar un objeto que maniobre en ese nivel.
Durante la charla también afirmó que
los principios de la física, hasta donde podemos saber, no descartan la posibilidad de que se puedan manipular las cosas átomo a átomo.
En cierto modo, sugirió el planteamiento de ir de abajo a arriba. De modo similar a un albañil, que a partir de ladrillos puede construir un edificio, la aproximación bottom-up plantea la construcción de nuevos materiales a partir del reordenamiento de átomos y moléculas. Mediante esta técnica se podrían construir materiales a la carta, con propiedades controladas y para fines específicos.
Sin embargo, el mundo tuvo que esperar mucho tiempo para colocar los átomos en el lugar adecuado. En 1981 se construyó el denominado microscopio de efecto túnel y en 1986 el microscopio de fuerzas atómicas. En secciones posteriores examinaremos éstas y otras técnicas que nos permiten sumergirnos en el nanomundo, visualizando y manipulando la materia a nivel atómico y molecular.
VISIONES DE LA NANOTECNOLOGÍA
Las visiones más radicales de la nanotecnología se remontan a la obra de K. Eric Drexler, publicada en el año 1986 bajo el título Máquinas de creación. Drexler imaginaba una tecnología en la cual las fábricas serían reducidas al tamaño de células y equipadas con maquinaria de dimensiones nanométricas. Estas máquinas seguirían un programa almacenado en una cinta molecular y podrían construir cualquier cosa, posicionando los átomos en el lugar adecuado. Drexler las denominó ensambladores. Consideremos el ribosoma, esa nanomáquina que sintetiza moléculas de proteína según el código cifrado en el ADN de los organismos. Este ribosoma se asemeja mucho a la imagen de Drexler de ensamblador molecular. A su vez, Drexler se refirió a la tecnología basada en ensambladores como manufactura molecular. Por supuesto, si los ensambladores pueden construir cualquier cosa, también podrían hacer copias de sí mismos. Estaríamos entonces ante las denominadas máquinas autorreplicantes.
Algunas personas consideran que la nanotecnología transformará completamente el mundo. Para estas personas, la nanotecnología es una nueva tecnología aún en sus inicios, pero cuya proliferación en los próximos cincuenta años es absolutamente imparable. Siguiendo el planteamiento de Drexler, una vez que dominemos esta tecnología, seríamos capaces de construir minúsculas máquinas que podrán ensamblar cualquier cosa, átomo por el átomo, partiendo de diferentes materias primas. Para estas personas, los efectos de la nanotecnología serán revolucionarios. Si las nano-máquinas pueden construir cosas, entonces también podrían repararlas. Estas minúsculas máquinas podrían reparar el interior de nuestros cuerpos, célula por célula. La amenaza de la enfermedad se eliminaría y el proceso del envejecimiento llegaría a convertirse en un recuerdo histórico. En ese mundo, la energía sería limpia y abundante y el ambiente habría sido reparado a un estado inmaculado. Los viajes espaciales serían baratos y asequibles y la muerte abolida. Estas son algunas de las fantasías más optimistas y atrevidas de la nanotecnología.
Otras personas vaticinan un futuro alternativo, transformado por la nanotecnología, pero con consecuencias devastado-ras. Para ellas, la nanotecnología hará posibles nuevas clases de vida. Predicen que aprenderemos a construir esos nano-robots, pero que no tendremos la suficiente sabiduría para controlar-los. El problema radica en que quizás esos organismos inteligentes, creados por el hombre, quieran dejar de ser sus siervos. Estas minúsculas máquinas podrían reproducirse, alimentarse y adaptarse a su entorno, de la misma manera que lo hacen los organismos vivos. Pero a diferencia de los organismos natura-les, habrían sido cuidadosamente diseñados con resistentes ma-teriales sintéticos, en vez de ser fruto de la oculta lotería de la evolución. Si son liberados al mundo por un acto malévolo, o logran escapar del control de los científicos, esos poderosos nano-robots autorreplicantes escaparían ciertamente de nuestra custodia, con los potenciales peligros que ello conllevaría. Podrían asumir el control del mundo, consumiendo sus recursos. El ser humano quedaría entonces convertido en una débil especie frente a la supremacía de estas poderosas nanomáquinas. En este panorama, aún cuando no fuese nuestro propósito, habríamos usado la ciencia para destruir a la humanidad.
El propio Drexler habla en su libro de la plaga gris para re-ferirse a esos nano-robots auto-replicantes que se escapan de nuestro control. También alerta de la posibilidad de que esta plaga gris se convierta en una alerta roja. El gran novelista Michael Crichton trasladó esta plaga gris a su novela Presa. El término gris se aplica porque esos minúsculos robots podrían estar hechos de una forma de carbón semejante al diamante.
Ambas visiones descansan en la posibilidad de fabricar nano-robots autorreplicantes. La biología parece decirnos que sí es posible. Al menos, ella lo ha conseguido, pero tras muchos años de evolución. Una bacteria es realmente un nano-robot autorreplicante. En todo caso, entre esas dos visiones extremas de la nanotecnología hay visiones intermedias, avaladas por escenarios reales y no futuristas, que son las que examinaremos con más detalle a lo largo de este libro.
Las ideas de Drexler han sido rechazadas en gran medida por la comunidad científica, aunque han creado cierta confusión y han despertado temores en la sociedad. Esta preocupación se acrecentó a raíz del artículo publicado en la revista Wired por Bill-Joy, cofundador de Sun-Microsystems. En ¿Por qué el futuro no nos necesita? el Sr. Joy alerta de un futuro en el que los avances en robótica, ingeniería genética y nanotecnología acabarían por relegar a la especie humana a un segundo plano. Incluso llega a pedir que se detenga la investigación en nanotecnología, antes de que por accidente se cree la sustancia gris.
Cuando una especie superior evolutiva invade el lugar ecológico de la inferior, ésta última se condena a la extinción. Así nos los ha mostrado la historia. En la hipótesis darwiniana, los dinosaurianos se extinguieron para dar paso a mamíferos que piensan. Los neandertales pasaron el testigo al Homo sapiens. Aún así, parece poco probable que unos poderosos nano-robots nos superen. Al menos durante un período considerable de tiempo, podremos seguir siendo «la especie elegida», como dirían algunos paleontólogos. Afortunadamente, como hemos mencionado, las ideas de Drexler han sido rechazadas en su mayor parte por la comunidad científica sobre una base sólida.
Uno de los críticos más eminentes al respecto fue Richard E. Smalley, quien obtuvo el Premio Nobel en 1985 por codescubrir una nueva forma del carbono, el fullereno. Smalley hizo notar dos problemas fundamentales con la noción de ensamblador. El primero es un problema de tamaño (problema de los «dedos gruesos»): los dedos del ensamblador están compuestos de átomos, lo cual implica que su tamaño es irreducible. Y no hay sitio bastante en esa región de tamaño nanométrico para acomodar todos los dedos necesarios para controlar la química local. El segundo problema es el de los «dedos pegajosos»: los átomos de los dedos manipuladores del nano-robot se pegarían a los átomos que están siendo manipulados, mediante enlaces químicos. Por ello, muchas veces sería imposible soltar este minúsculo bloque básico en el lugar correcto. «Ambos problemas son fundamentales y ninguno evitable. No hay posibilidad en nuestro mundo para los nano-robots autorreplicantes», puntualizaba Smalley.
Cierto es que, como dijo Richard Feynman, «Hay mucho sitio al fondo», pero no tanto. Como toda nueva tecnología, la nanotecnología proporcionará nuevas oportunidades y nuevos riesgos. Pero ni las oportunidades parecen ser tan revolucionaras, ni los riesgos tan devastadores, como lo sugerido por la visión drexleriana. Aún así, cabe reconocer a Drexler el mérito de haber desviado las miradas de la comunidad científica hacia esta fascinante rama de la ciencia de lo pequeño. Su libro Máquinas de creación del año 1986 sirvió para, en cierto modo, rescatar del olvido la charla de Richard Feynman y para concienciar a los investigadores del potencial de una tecnología operando en las minúsculas escalas de la materia.
MIRANDO HACIA EL NANOMUNDO: CRUZANDO LA BARRERA DE LO INVISIBLE
De todos los sentidos, el de la vista es el que más informa a nuestra mente. Somos primates diurnos, provistos de un gran córtex visual; nos valemos continuamente de los colores que la luz solar ilumina para examinar el mundo. No es por ello de extrañar que los instrumentos científicos den primacía a la visión, si bien llevándola muy lejos, hasta nuevos dominios de color, de intensidad... e incluso ¡de escala!
La invención del telescopio nos permitió dirigir nuestras miradas más allá de la Tierra y contemplar las maravillas del Universo. Como hemos venido advirtiendo, también hay un mundo realmente maravilloso en las entrañas de la materia. A ese Universo en miniatura tenemos acceso gracias a nuevos tipos de microscopios y dispositivos, que van más allá de la micra (la millonésima parte del metro).
Tanto los microscopios como los telescopios amplían nuestros dominios de visión. Gracias a ellos podemos interactuar con seres u objetos más allá de nuestros sentidos. El microscopio óptico convencional, desarrollado en el siglo XVII, nos abrió las puertas a un nuevo mundo: un mundo de diminutos animales y plantas de extraños diseños. En esa escala de tamaños pudimos contemplar los microbios. Algunos resultaron ser beneficiosos para la humanidad, como las levaduras que convierten la uva en vino –proceso conocido como fermentación– y las bacterias que convierten la leche en yogur. Logramos así domesticar estos minúsculos seres para que trabajasen en nuestro beneficio. Otros microbios resultaron perjudiciales, como los agentes patógenos causante de la viruela. Pero la mayoría de ellos viven en su propio mundo, sin interactuar con el hombre. Este universo que nos desveló el microscopio óptico convencional se denominó micromundo. Es el mundo definido por las dimensiones en torno a la micra, el tamaño más pequeño de objetos que puede discernir el microscopio óptico convencional. A pesar de esta limitación, nos logró trasladar a un mundo mil veces más pequeño que el milímetro, unidad ésta última que marca la frontera de lo que podemos percibir a simple vista.
Que existía otro mundo, incluso más pequeño que el micromundo, ya se intuía incluso antes de que las herramientas de visualización al respecto hiciesen su aparición. ¡Es el nanomundo! El límite inferior de tamaño en el nanocosmos viene marcado por el tamaño de las moléculas, que no son más que agrupaciones de átomos. Mucho antes de que se pudiese visualizar el mundo molecular, ya se había estimado el tamaño de estos agregados. Fue precisamente Albert Einstein el que hizo estos primeros cálculos. En su tesis doctoral, este genial científico calculaba el tamaño de una molécula de azúcar, a partir de datos experimentales sobre la difusión del terrón en el agua. Concluía así que cada molécula de azúcar medía alrededor de un nanómetro de diámetro. Esta dimensión, la millonésima parte del milímetro o de la cabeza de un alfiler, equivale a la anchura de diez átomos de hidrógeno o cinco átomos de silicio contiguos. Por eso se le considera la unidad de medida de ese asombroso universo que Einstein intuía hace unos cien años. Lástima no poder contar en nuestros días con la presencia del que ha sido uno de los más grandes científicos de todos los tiempos. A buen seguro que tendría mucho que decir en este incipiente mundo de la nanotecnología.
¿Por qué los mejores microscopios ópticos no nos permiten asomarnos a algo tan diminuto como es el nanomundo? Estos microscopios están basados en un sistema compuesto por luz que ilumina la muestra y un conjunto de lentes que nos la amplían. Pero esa luz que utilizamos para iluminar y percibir los objetos cotidianos que tenemos a nuestro alrededor es «demasiado grande» para adentrarse en la nanoescala. La luz es una onda, algo similar al efecto causado al arrojar una piedra sobre agua. También el sonido es una onda, al igual que las mi-croondas que utiliza para calentar el café por las mañanas. Lo que diferencia a unas ondas de otras es la distancia entre dos mí-nimos o dos máximos, lo que se conoce como longitud de on-da. La longitud de onda de la luz visible varía desde los 400 nm de la luz ultravioleta a los 700 nm de la luz roja. Cualquie-ra de ellas es demasiado grande para asomarse al nanocosmos. Se necesita otro tipo de radiación de menor longitud de onda.
Antonie Van Leeuwenhoek fue un científico que observó y dibujó, por primera vez, eritrocitos, espermatozoides, bacterias, células musculares cardiacas y numerosos protozoos, utilizando un microscopio simple con aumentos de hasta 250 aumentos (250X). Desde entonces, el microscopio ha sido el instrumento científico al que más se le ha dedicado ingenio y trabajo para mejorarlo y mantenerlo. En 1889, Ernst Abbé anunció la creación de un microscopio «definitivo», con aumentos totales útiles de 2000X. Por fortuna para Abbé y para el reto de la comunidad científica, ese microscopio no fue el definitivo. El mismo Abbé estableció, antes de descubrirse el electrón, que «se requerían nuevas formas de radiación de longitud de onda corta y nuevos instrumentos con los cuales, en un futuro, nuestros sentidos investiguen los elementos últimos del universo». En el siglo xx se inventaron nuevas microscopías y técnicas para acercarse a ese mundo de lo infinitamente pequeño.
La denominada difracción de rayos X fue la primera técnica utilizada para visualizar el invisible mundo atómico y molecular. Con una longitud de onda en el rango entre las milésimas de nanómetro y los diez nanómetros, los rayos X representan una radiación muy adecuada para sumergirse en el nanocosmos. Después del desarrollo de la técnica por Max von Laue y los Bragg (padre e hijo), fue posible visualizar la molécula de cloruro sódico, la sal de mesa común que nos comemos todos los días. Posteriormente, conforme la técnica avanzaba, fue posible visualizar moléculas de mayor número de átomos, hasta llegar a las macromoléculas. Sobre 1950, ya estaba clara la importancia de las mismas en la biología, así como la importancia de conocer su estructura. Durante ese tiempo, se obtuvieron figuras de difracción de diferentes proteínas. El año 1953 fue un año crucial para toda la ciencia, al dilucidar por difracción de rayos X la estructura de la molécula de la vida, el adn. A ello contribuyeron Francis Crick, James Watson, Maurice Wilkins y la injustamente olvidada Rosalind Franklin. ¡La difracción de rayos X nos proporcionó no sólo el tamaño promedio de las moléculas, sino también la estructura interna, la disposición de los átomos en la molécula!
Pero, ¿cómo funciona exactamente la difracción de rayos X? Esta técnica nos proporciona una «fotografía indirecta» del mundo atómico y molecular. Los rayos X bombardean la materia. Al chocar contra la misma rebotan, salen dispersados. Es lo que se conoce como difracción. Del análisis de estos rayos rebotados o difractados tratamos de averiguar el tipo de átomos y la distribución de los mismos en el espacio (véase fig. 1). En cierto modo, la difracción de rayos X nos recuerda al sistema de «visualización» utilizado por algunos seres vivos. Ciertos animales, como el delfín o el murciélago, tienen la capacidad de emitir unos sonidos y analizar los ecos resultantes de interceptar la onda sonora con un objeto. Esto les permite orientarse en condiciones de absoluta oscuridad y «visualizar» su entorno con gran precisión, fenómeno conocido como ecolocalización.
Figura 1. Difracción de rayos X: cruzando la barrera de lo invisible.
Sodio: metal de color plateado; produce llamas cuando se moja. Cloro: presenta un color verdoso; es tan venenoso que fue usado como arma en la Primera Guerra Mundial. En pequeñas dosis sirve para matar a los microbios del agua de las piscinas, al mismo tiempo que permite sobrevivir a los humanos que en ellas se sumergen. Cuando sodio y cloro se mezclan, estas dos peligrosas sustancias reaccionan violentamente formando un compuesto, el cloruro de sodio. ¡Este compuesto es tan inofensivo que nos lo comemos todos los días: la sal de mesa común!
¿Por qué este cambio de propiedades? ¿Es magia? No, es ciencia. Para poder explicarlo y entenderlo necesitamos conocer la materia a nivel atómico y molecular. Este nivel de detalle se escapa a las cámaras fotográfi cas convencionales y a las lentes de los más potentes microscopios. Necesitamos un bombardeo, una «fotografía» indirecta: la difracción de rayos X.
Pero para algunos científicos, la extraña relación entre la figura de difracción (los rayos dispersados) y la estructura molecular hacía la técnica menos apetecible que la visualización directa de los microscopios. Otro inconveniente adicional de esta técnica es que para obtener la máxima información posi-ble se necesita que la muestra a dilucidar esté en fase cristalina. Convencidos los científicos no sólo de la existencia del nanomundo, sino de su riqueza, complejidad y trascendencia, urgía entre los mismos la necesidad de disponer de un microscopio que «amplificara» suficientemente la muestra como para poder «fotografiar directamente» el mundo atómico y molecular.
Esos microscopios emergieron, pero utilizando electrones que incidían sobre la muestra, en vez de la luz visible. Es por ello que ya no se denominaron microscopios ópticos, sino electrónicos. El microscopio electrónico fue inventado en 1931 y pronto sirvió para ilustrar la grandeza del nanomundo. Sirvió también para observar detalles precisos de las células de las plantas y los animales, más allá de lo que permitía el microscopio óptico. Incluso en un objeto sencillo, tal como un bolso plástico, hay toda una jerarquía de estructuras. Pero, a pesar de estos avances, la microscopia electrónica no resultó tan familiar a la comunidad científica como el microscopio óptico ordinario. Son costosos, la utilización no es trivial y las imágenes no son siempre fáciles de interpretar sin años de experiencia. A su vez, las muestras delicadas se pueden dañar por las dosis enormes de la radiación a las que se ven sometidas. Quizás lo más delicado radique en la elaboración y preparación cuidadosa de la muestra a ser examinada. Es necesario congelar o secar las muestras, cubrirlas con metales y situarlas en un ambiente hostil como es el ultravacío. En ese sentido difiere mucho de la sencillez de situar una gota bajo un microscopio óptico. Pero al menos tiene una gran ventaja. El producto final es una «fotografía directa», una simple imagen ampliada, en vez de una figura abstracta de un conjunto de puntos recogidos en una placa fotográfica o detector electrónico, resultantes de la dispersión de los rayos X por la muestra.
Un año crucial en la carrera hacia el nanomundo fue 1981. Ese año, en el laboratorio ibm de Zurich, Gerd Binning y Hein-rich Roher construyeron un nuevo tipo de microscopio, denominado microscopio de efecto túnel. Cinco años más tarde, en 1986, recibían el Premio Nobel. Asimismo en 1986, el propio Binning, junto con Christopher Gerber y Calvin Quate, construía el primer prototipo de microscopio de fuerzas atómicas. Ambos tipos de microscopio se conocen como microscopios de sonda de barrido.
El fundamento de estos microscopios es diferente a los descritos anteriormente o a la propia difracción de rayos X. Guardan similitudes con el método Braille de lectura de los ciegos, un método de lectura táctil basado en la sustitución de las letras por puntos en relieve, igualmente invisibles a sus ojos, pero sensibles a las yemas de los dedos. La esencia de los microscopios de sonda de barrido es una punta extremadamente fina, que permite «ver» e incluso «tocar» los átomos confinados en una superficie. Al barrer la superficie, esa punta se comporta como una sonda o sensor, capaz de «palpar» los átomos e informarnos de su distribución sobre la superficie (véase fig. 2). Evidentemente, para poder «palpar los átomos» y evitar el problema de los «dedos gordos», la punta debe ser lo suficientemente fina. En realidad, la punta está formada por sólo unos pocos átomos.
Así pues, estos microscopios de sonda de barrido, más que detectar las ondas dispersadas por el objeto que queremos visualizar, sienten la superficie de la muestra con una extrema sensibilidad. Son los nuevos ojos del nanocosmos, que nos permiten ver atómos individuales en diferentes entornos. Pero más allá de la simple visualización, ¡estos instrumentos nos abren las puertas a la manipulación de la materia a escala atómica!
Figura 2. Microscopios de sonda de barrido: cruzando la barrera de lo invisible y lo manipulable.
ARQUITECTURA EN LA NANOESCALA: CRUZANDO LA BARRERA DE LO MANIPULABLE
Le propongo ahora un sencillo experimento. Coja un papel y pártalo en trozos pequeños. Coja un lápiz y frote la punta. Acerque entonces la punta del lápiz a los papelitos. ¿Qué ha sucedido? ¡Sorpresa! La punta del lápiz actúa como una pin-zas, capaz de sujetar a los trozos de papel. Y quizás se pregunte qué tiene que ver este experimento con la nanotecnología. Pues bien, si a la punta de ese microscopio de sonda de barrido, capaz de «palpar» los átomos (método de visualización), se le aplica una corriente eléctrica o potencial, la punta se comporta como una pinza, capaz de coger a los átomos y moverlos a voluntad (método de manipulación).
Y eso fue lo que hizo Don Eigler. Con un microscopio de efecto túnel, en 1985 escribió la palabra ibm –logo de su compañía– moviendo 35 átomos de xenón sobre una superficie de níquel. Fue una imagen que dio la vuelta al mundo. Por primera vez el hombre lograba manipular la materia a escala atómica. Se confirmaban así las predicciones del genial Richard Feynman: «Los principios de la física, tal y como yo lo veo, no impiden la posibilidad de manipular las cosas átomo a átomo». En todo caso, resulta inviable generar unos pocos gramos de material, átomo a átomo, siguiendo este procedimiento. Nos llevaría un tiempo infinito. Así pues, necesitamos otros métodos de manufactura molecular.
La biología nos muestra eficientes técnicas de fabricación en la nanoescala. Rousseau decía: «Hay un libro abierto siempre a todos los ojos, la naturaleza». Y George Whitesides, de la Universidad de Harvard, ha sabido leer e interpretar magistralmente ese libro. A él le debemos eficientes estrategias, como el denominado autoensamblado molecular.
En un proceso de autoensamblaje, átomos, moléculas, agregados de moléculas y componentes se organizan por sí mismos en entidades ordenadas y funcionales, sin implicación humana. Lo único que tenemos que hacer es crear las condiciones adecuadas (temperatura, presión, etc.), colocar juntas a las moléculas adecuadas y dejarlas trabajar, que ellas mismas construyan la estructura. El autoensamblado necesita personas que diseñen el proceso y personas que lo pongan en marcha. Pero una vez iniciado el proceso, éste seguirá espontáneamente. ¡Los materiales del futuro se construirán a sí mismos!
Por otra parte, cabe destacar que el autoensamblado molecular se trata de un proceso en paralelo y no en serie, como el que haría un brazo robótico o la punta de un microscopio de sonda de barrido. Billones de moléculas se posicionarán si-multáneamente en alguno de los lugares permitidos. Los tiempos de fabricación se reducen enormemente. Ahí radica otra de sus grandes ventajas.
Esta técnica de fabricación es una aproximación bottom-up (de abajo-arriba): a partir de los bloques básicos, átomo a átomo, se construye el material. Es algo similar a un albañil, que a partir de los ladrillos construye el edificio, como ya hemos mencionado. Otra aproximación diferente es la top-down (de arriba-abajo). En este caso, el análogo sería el artista que con el cincel va tallando la escultura. El mundo de la informática ha sido testigo de esta aproximación. La luz hace el papel de cincel, reemplazando la oblea de silicio al mármol. Desde los inicios de esta técnica, conocida como litografía, las obleas de silicio se han ido tallando con cinceles cada vez más pequeños, para así incorporar más transistores en el mismo chip. Lo analizaremos más a fondo en posteriores capítulos.
Hay otro tipo de litografía, denominada litografía blanda, desarollada esencialmente por George Whitesides. En cierto modo, se asemeja a la fotografía. Primero se obtiene el equivalente a un negativo fotográfico, que actúa de máscara o patrón. Se trata de un solo evento, quizás lento y costoso. Pero una vez generado el patrón, podemos general multitud de copias de la nanoestructura requerida de forma sencilla, rápida y económica. Como máscara o molde, Whitesides utiliza PDMS (polidimetiloxano), el polímero gomoso que sirve para tapar grietas en las bañeras. Los físicos suelen llamar materias blandas a estos compuestos orgánicos, de ahí la denominación de litografía blanda.
LAS CONSECUENCIAS DE PENSAR EN PEQUEÑO
El primer ordenador programable, el ENIAC (Electronic Numerical Integrator and Computer) se construyó en 1944. Basado en los denominados tubos de vacío, pesaba 30 toneladas y ocupaba 160 metros cúbicos. Tardaba 30 segundos en efectuar un simple cálculo, como el de la trayectoria de un proyectil. Pero lo que resulta más llamativo es que consumía más energía en calcular la trayectoria del proyectil que en dispararlo. En 1949 un grupo de expertos predijo que algún día un ordenador tan potente como el ENIAC podría ser tan ligero y consumir tan poca energía como un automóvil. En realidad, muchos de nuestros gadgets tecnológicos actuales, como un teléfono móvil, son miles de veces más potentes que el ENIAC y consumen menos energía que uno de sus 18 tubos de vacío.
Quizás la informática sea el sector en el que mejor se puede apreciar esa tendencia a la miniaturización. Pero más pequeño no sólo significa más práctico y móvil, sino también más rápido. El corazón del ordenador está formado por un montón de transistores, dispositivos que regulan el paso de corriente, permitiendo o impidiendo el flujo de electrones. Pues bien, más pequeño se traduce en menos recorrido para los electrones y, por lo tanto, mayor rapidez y menor gasto energético. Más pequeño también se traduce en menor consumo de material.
¿Cuándo podemos situar los comienzos de la miniaturización? Los científicos griegos construyeron magníficos relojes astronómicos utilizando pequeñas ruedas dentadas. No eran sino representaciones en miniatura del sistema solar. Los sucesivos avances en la relojería desempeñaron un papel esencial en la miniaturización de los mecanismos y dispositivos utilizados en autómatas y robots. Al igual que sucede con la carrera espacial, la carrera hacia lo más pequeño ha actuado como fuerza motriz para los avances de la ciencia y la tecnología, proporcionando otros desarrollos colaterales.
Un buen día de 1764, John Anderson, catedrático de física de la Universidad de Glasgow, en Escocia, quiso explicar a sus estudiantes el funcionamiento de las bombas contra incendios o las máquinas utilizadas en Gran Bretaña para bombear agua de las minas de carbón. Estas máquinas eran demasiado grandes para llevarlas a un aula, así que hizo construir una pequeña versión de menos de un metro de alto. Cuando, para su vergüenza, la máquina en miniatura no funcionó, pidió ayuda a una tienda de reparación de instrumentos científicos, uno de cuyos empleados respondía al nombre de James Watt. Éste último identificó la causa del problema: en la versión en miniatura, la presión atmosférica era insuficiente para superar la fricción entre el pistón y la pared de la cámara. Esto llevó a Watt a la invención de la máquina de vapor, motor de de la Revolución Industrial, que utilizaba la energía del vapor de agua para mover máquinas. Éste es un ejemplo de cómo la búsqueda de la miniaturización condujo a uno de los más influyentes desarrollos tecnológicos.
La microelectrónica de la segunda mitad del siglo XX no sólo ha hecho posible los ordenadores e Internet. También supuso el impulso de esa frenética y excitante carrera hacia lo más pequeño y la antesala a la nanotecnología. Nano no es sólo una nueva dimensión, es un nuevo mundo con fascinantes y diferentes propiedades a esas conocidas en la escala del metro o incluso en las escalas milimétrica y micrométrica. Al nivel de lo atómico, «muchas cosas nuevas podrán suceder», predijo Feynman. «Si nos reducimos y comenzamos a juguetear con lo átomos, allí abajo estaremos sometidos a unas leyes diferentes y podremos hacer cosas diferentes», prosiguió el reputado científico. Al disminuir el tamaño de los objetos y llegar a la escala nanométrica (al menos en una de las tres dimensiones posibles), materiales aislantes se vuelven conductores, productos coloreados se nos muestran transparentes... ¿Lo pequeño es hermoso? Sí, lo pequeño es hermoso y también maravilloso y misterioso, dicen los investigadores embarcados en esta fascinante aventura, que responde al nombre de nanotecnología y de la que se dice traerá consigo una nueva revolución científica y tecnológica.
La nanotecnología no sólo encuentra aplicación en los campos de las nuevas tecnologías de la información y la comunicación. Los ámbitos de la salud humana y el desarrollo sostenible del planeta, entre otros, también está siendo beneficiarios de esta revolución en miniatura. La Nanotecnología promete pequeñas soluciones –porque sus componentes, los átomos y moléculas, son pequeños– a algunos de los más grandes problemas de la humanidad. Al mismo tiempo nos permite soñar con nuevos y fascinantes retos y desafíos tecnológicos.