Читать книгу Nanotecnología - Mónica Lucía Álvarez-Láinez - Страница 10

Оглавление

3. Herramientas para ver y modificar el mundo nano

Freddy Rafael Pérez

Mauricio Arroyave-Franco

Félix Echeverría Echeverría

Hader Vladimir Martínez-Tejada

3.1 Introducción

Este capítulo hace énfasis en algunas de las técnicas de caracterización más utilizadas para la investigación de superficies y sólidos en nanotecnología y nanociencias. Inicialmente se mencionan con brevedad algunos apartados históricos y enseguida se explican los modos de operación y los fenómenos fundamentales asociados a cada técnica. Posteriormente, se incluyen casos, aplicaciones y algunos ejemplos relativos al estudio de materiales y dispositivos nanoestructurados.

Las técnicas seleccionadas como casos de estudio intentan cubrir, en buena parte, las diferentes áreas y capacidades analíticas básicas y disponibles, que permitan una mirada amplia respecto a técnicas ópticas y de imagen, difracción y espectroscopía, así como a herramientas para la manipulación de nanoestructuras.

3.2 Espectroscopía Raman

La espectroscopía Raman, al igual que la de absorción infrarroja, forma parte de la espectroscopía vibracional, y como tal está relacionada con el estudio de las vibraciones moleculares y de fonones en estructuras cristalinas. La técnica se basa en el llamado efecto Raman, el cual se puede explicar como una colisión inelástica entre un fotón y una molécula (o un fonón para el caso de sólidos cristalinos), a partir de una fuente de excitación monocromática de gran intensidad[1]. Es un proceso con muy baja probabilidad de ocurrencia, por lo que las señales Raman son de muy baja intensidad: típicamente 10-8 veces la intensidad de la señal de excitación[2-3].

3.2.1 Principales arquitecturas en la técnica Raman

Un experimento de espectroscopía Raman requiere una fuente de radiación monocromática, un sistema óptico para enfocar la radiación en la muestra, un sistema óptico para recolectar la radiación esparcida desde la muestra y para enfocarla en la rendija de entrada del sistema analizador de la radiación, un monocromador o espectrómetro (analizador de la radiación esparcida), un detector que puede ser un tubo fotomultiplicador o un dispositivo acoplado de carga (ccd) o cámara ccd, y un sistema de adquisición, almacenamiento y visualización del espectro que comúnmente es un computador.

En la figura 3.1 se ilustra un esquema de esta arquitectura básica, con una recolección de la radiación esparcida a 90° respecto de la excitación. Dado que los fenómenos de esparcimiento inelástico se dan en todas las direcciones, la recolección se puede hacer en cualquier ángulo. C. V. Raman y colaboradores usaron como fuente de excitación, en sus primeros experimentos, radiación solar, la cual se enfocaba con un objetivo de telescopio, empleando filtros interferenciales. Posteriormente, se usaron lámparas de mercurio, las cuales fueron las mejores fuentes de radiación hasta después de 1960, cuando se inventó el láser[2].


Figura 3.1 Esquema de un montaje clásico para espectroscopía Raman. El detector usualmente es o un tubo fotomultiplicador o una cámara ccd

Cuando se requiere alta resolución,7 normalmente se usan monocromadores o espectrómetros de doble o de triple red de difracción. Para estudios in situ, el sistema de iluminación y de recolección consta de una fibra óptica doble. La radiación proveniente del láser se inyecta a través de un ramal y la radiación esparcida hacia atrás (backscattering) se recolecta con el segundo ramal de la fibra, desde la muestra hasta llevarla al espectrómetro.

3.2.2 Microscopía Raman

Uno de los refinamientos más importantes de la técnica se ha materializado en la conocida microscopía Raman confocal, que consiste en acoplar un microscopio óptico confocal a un espectrómetro Raman[5]. El microscopio enfoca el haz láser en una pequeña región de la muestra mediante un objetivo de gran apertura numérica; la radiación esparcida se recolecta a través del mismo objetivo, y parte de esta se lleva a una cámara de video que se utiliza para inspeccionar el punto de enfoque en la muestra. También, una parte del haz se desvía hasta el espectrómetro mediante sistemas ópticos apropiados para ser analizada. La muestra se monta sobre una plataforma, que tiene desplazamiento vertical para el enfoque (Z) y desplazamiento vertical o lateral en dos direcciones (XY), con la que se pueden tomar múltiples espectros con una resolución lateral del orden de 1 µm. De esta forma se puede hacer un mapeo Raman de la muestra. En sistemas más avanzados, el desplazamiento vertical se realiza automáticamente, y la cámara se va autoenfocando a medida que la topografía de la superficie va cambiando. En nanotecnología, esta es una de las configuraciones más utilizadas.

3.2.3 Espectroscopía Raman no lineal

Cuando la potencia del haz láser es suficientemente grande, la aproximación lineal o de primer orden del momento dipolar inducido no es satisfactoria, y entonces se deben utilizar otros términos en su expresión. En general, se cumple lo propuesto en la ecuación 1:

(1)

Donde α, β y γ corresponden a la polarizabilidad, la primera hiperpolarizabilidad y la segunda hiperpolarizabilidad, respectivamente. En el caso de la espectroscopía Raman normal, con láseres no pulsados o de potencia continua (cw), los campos eléctricos asociados son del orden de 104 V/m, y los aportes de los términos no lineales en el campo —segundo y tercer términos en la ecuación 1— son insignificantes, dado que α >> β >> γ. Sin embargo, cuando la muestra se irradia con láseres pulsados de elevada potencia, típicamente con campos eléctricos del orden de 109 V/m, los pulsos gigantes conducen a fenómenos espectroscópicos no lineales y novedosos, que además habilitan nuevas técnicas espectroscópicas, como son la espectroscopía Raman resonante (rrs), la espectroscopía hiper-Raman (hrs), la espectroscopía Raman estimulada (srs), la espectroscopía Raman inversa (irs), la espectroscopía Raman anti-Stokes coherente (cars) y la espectroscopía Raman fotoacústica (pars). Estas variantes de la técnica espectroscópica Raman tienen innumerables aplicaciones en física, química, biología y ciencia de los materiales, y hoy en nanotecnología. Con estas técnicas se puede obtener información acerca de la dinámica de estados excitados, lo cual de otro modo sería imposible de alcanzar a partir del efecto Raman normal. En este apartado no se profundizará en tales variantes de la técnica, pero se invita al lector interesado a consultar algunas de las referencias[3-6], así como la tabla 3.1, en donde se listan aspectos generales de cada variante y su aplicación potencial para la investigación en nanomateriales y nanoestructuras.

Tabla 3.1 Técnicas asociadas a efectos Raman no lineales

TécnicasPrincipales aplicacionesVentaja/desventaja
Espectroscopía Raman resonante (rrs)Identificación de metales de transición en proteínasEstudio de semiconductores molecularesIdentificación de pigmentos en pinturas y cerámicasIdentificación de sitios biológicamente activos en enlacesMedidas del diámetro de nanotubos de única paredEs fuertemente selectivaSi la banda Raman cae en una resonancia electrónica de la muestra, la banda resonante puede amplificarse hasta por 106 / línea láser resonanteLa fluorescencia usualmente restringe su uso
Espectroscopía Raman anti-Stokes coherente (cars)Análisis de la distribución especial de especies en llamas y procesos de combustiónAlta sensibilidad en fase gaseosa, debido a pequeños anchos de banda en las señales, que permiten menores límites de detección (mejor identificación de trazas)No hay interferencia de fluorescenciaEs costosa, requiere de dos láseres pulsados de gran intensidad, uno de los cuales debe ser sintonizable
Espectroscopía hiper-Raman (hrs)Identificación de modos normales de vibración que son prohibidos en Raman y en infrarrojoEstudios estructurales en fullerenosSe pueden investigar transiciones no visibles en Raman normal o en infrarrojoRequiere de láseres de gran potencia, por lo que resulta costosa
Espectroscopía Raman inversa (irs)Determinación de portadores de carga en semiconductoresÚnicamente necesita un láser pulsado y una fuente de luz blanca continua Dificultades en la generación de un continuo de suficiente ancho de banda en las regiones requeridasEs costosa
Espectroscopía Raman estimulada (srs)Estructura y conformación de proteínasLa intensidad de las señales es altaEs muy selectivaEn general, únicamente las líneas Raman más fuertes producen emisión estimulada
Espectroscopía Raman fotoacústica (pars)Estudio de transiciones Raman rotacionales puras en gasesNo hay interferencia de la banda RayleighEs de difícil detección

3.2.4 Raman intensificado por efecto de superficies

En perspectiva histórica, a partir de las investigaciones de Fleishmann (1974)[4], Van Duyne y Jeanmaire (1976) y Albrecht y Creighton (1977)[7], se propuso el efecto de espectroscopía vibracional sobre nanoestructuras metálicas (sers), consistente en intensificar las señales de dispersión Raman, debido en principio a la acción de superficies metálicas de cierta estructura[8] (aunque actualmente se acepta que se relaciona con la interacción electromagnética vía resonancia plasmónica[7-8]) y a un mecanismo de transferencia de carga entre las especies absorbidas y los átomos superficiales del sustrato sers[9-10]. Una de las consecuencias directas del efecto sers es que se ha podido incrementar significativamente el límite de detección de la técnica Raman a tal punto que hoy se puede detectar una molécula individual[11]. Actualmente, la técnica sers es usada en innumerables aplicaciones relacionadas con la nanociencia y la nanotecnología, así como en biología y en muchos otros campos[12-13].

3.3 Microscopía de barrido por sonda (spm): análisis superficial cualitativo y cuantitativo de alta sensibilidad

A partir del desarrollo de la microscopía de barrido túnel (stm) por Binnig y Rohrer en 1981, han proliferado las técnicas que han permitido el estudio superficial de los materiales. En particular, desde los diferentes modos de la microscopía de barrido por sonda (spm), hoy día es posible obtener un completo análisis de superficies con resoluciones laterales y verticales en las dimensiones de la nanoescala, incluyendo cuantificación de propiedades eléctricas, magnéticas, mecánicas, microestructurales, químicas y tribológicas, entre otras.

Complementariamente, más allá de las posibilidades de observación con estas técnicas de microscopía, se han logrado resultados impresionantes en control y manipulación atómica y molecular; prueba de ello son las demostraciones de manipulación atómica reveladas por ibm en la década de 1990. En la segunda parte de este capítulo se presentará una visión general de la técnica, que incluye principios, arquitectura general y algunos detalles de los modos más utilizados, así como aspectos relacionados con la preparación de especímenes y algunos casos de aplicación.

3.3.1 Principio de funcionamiento de la técnica

El efecto túnel cuántico es un concepto desarrollado a finales del siglo xix en el contexto de los estudios sobre radioactividad[14]. Luego, en las primeras décadas del siglo xx, se reconocieron otros casos donde el efecto era válido[15] en sólidos y, más exactamente, en situaciones de alta proximidad entre dos sólidos metálicos. Este efecto consiste en un inesperado salto de electrones en medio de dos superficies metálicas entre las cuales se aplica una diferencia de potencial, sin que exista “contacto físico” entre ambas, es decir a través del espacio que las separa. Este espacio entre las superficies se puede considerar una barrera de potencial para los electrones confinados en cada metal, la cual puede llegar a ser tan grande que la probabilidad de atravesarlo sea infinitamente baja; sin embargo, si el espacio o la distancia que separa los metales es muy pequeño, del orden de los ángstroms (Å), basta con aplicar voltajes de unas cuantas decenas de voltios para lograr una corriente débil de electrones que fluya entre los metales a través de dicho espacio[16].

En 1981, Binnig y Rohrer desarrollaron un instrumento basado en el efecto túnel cuántico de electrones que tenía la capacidad de posicionar una punta metálica de unos pocos ángstroms de diámetro en su parte más fina, sobre una superficie metálica a distancias entre 5 y 50 Å. En este sistema punta-superficie, simultáneamente se podía aplicar una diferencia de potencial entre 5 y 50 V, al tiempo que se registraba la corriente que aparecía por cuenta del tunelamiento de los electrones entre la punta y la superficie, en el orden de los picoamperios (pA). Con esta información fue posible realizar una reconstrucción visual de la superficie metálica, pero con una resolución vertical que dependía de las distancias en las que opera el efecto de tunelamiento cuántico; es decir, en unas pocas decenas de ángstroms. A su vez, como la precisión en el barrido superficial también podía estar en el orden de los ángstroms, este instrumento se convirtió en el primer dispositivo de visualización en espacio real a escala atómica; es decir, en un microscopio de resolución atómica[17]. Este fue el primer modo de operación de lo que hoy se conoce como el microscopio de barrido por sonda, o spm, al cual se le denominó stm.

Unos cuantos años más tarde, el mismo Binnig y otros colaboradores (Christoph Gerber y Calvin Quate) desarrollaron un instrumento, ya no basado en corriente eléctrica, sino en fuerzas, que tenía la capacidad de medir cualquier tipo de material sólido bajo un principio muy similar al del stm, aprovechando el efecto de las fuerzas de interacción atómica entre dos cuerpos que se acercan el uno al otro.

Es bien conocido que un par de átomos o moléculas sufren diferentes tipos de atracción en distancias de separación límite máximas y mínimas; es decir, que existe una gran distancia de separación (del orden de las centenas de nanómetros) que establece una fuerza atractiva entre estos átomos o moléculas, debido principalmente a las fuerzas de Van der Waals que operan entre ellos. A su vez, existen distancias muy pequeñas (de algunos ángstroms) para las cuales se establecen fuerzas muy repulsivas entre los átomos, que se deben principalmente a la interacción entre las nubes electrónicas y al acercamiento de los núcleos atómicos.

John Lennard-Jones propuso un modelo matemático simple para representar este comportamiento, también llamado el potencial de Lennard-Jones (L-J)[18] (ver figura 3.2).


Figura 3.2 Energía de interacción V(r) entre dos átomos o moléculas que se aproximan o se alejan a una distancia r

El potencial L-J permite calcular la fuerza de interacción entre los átomos o moléculas, aplicando el gradiente a este potencial, lo cual genera la siguiente expresión (ecuación 2):

(2)

En donde ε es la profundidad del potencial; σ, la distancia finita en la que la fuerza de interacción entre los átomos es cero, y r la distancia entre ellos.

Una manera en la que es posible medir estas diminutas fuerzas interatómicas (de magnitudes entre nanonewton y piconewton) es a través de microsensores optomecánicos o piezoeléctricos, en los cuales una viga microscópica en voladizo (sujeta a un cuerpo sólido, y que en el extremo libre posee una delicada y afilada punta) puede acercarse de manera muy precisa a una superficie relativamente suave, a distancias típicas en las que opera el potencial L-J. Cuando la distancia entre la punta y la superficie coincide con la del régimen atractivo de L-J, la viga experimenta una fuerza que la flexiona hacia la superficie, pero no indefinidamente, pues si la distancia sigue disminuyendo, entonces el sistema viga-punta-superficie experimentará una fuerza repulsiva que invertirá la curvatura de la viga, por la flexión hacia arriba.

La distancia de flexión de la viga puede ser medida por métodos piezoeléctricos u ópticos; estos últimos son extensivamente usados porque son más estables y lineales que los piezoeléctricos. El método óptico de medida consiste en un láser que incide en la parte superior de la viga y se refleja sobre un fotodetector de dos o más celdas. A este método se le conoce como beam-bounce[19].

Se puede utilizar la analogía de un sistema masa-resorte para modelar esta fuerza aplicando la ley de Hooke, expresada de forma general en la ecuación 3:

(3)

En donde x es la distancia de flexión de la viga, y k la constante de resorte de la viga en voladizo. Si se mide la distancia de flexión de la viga y se conoce la constante de resorte, es posible conocer la magnitud de la fuerza de interacción entre los átomos o moléculas de la punta con los átomos de la superficie, fuerza que a su vez dependerá de la manera en que cambie la distancia entre ellos; en otras palabras, será sensible a la irregularidad topográfica de la superficie. Si el sistema viga-punta viaja sobre la superficie, con movimientos muy controlados y patronados, es posible entonces obtener la topografía de una superficie de cualquier naturaleza, ya que las fuerzas que intervienen son entre átomos. Un instrumento semejante fue el desarrollado por Binnig, Gerber y Quate, que recibió el nombre de microscopio de fuerza atómica (afm).

A partir de considerar otro tipo de interacciones en proximidades muy bajas, es posible mapear muchas otras propiedades superficiales en escala submicroscópica. Esto ha hecho posible el desarrollo de un amplio número de técnicas spm que permiten determinar cualitativamente propiedades mecánicas, eléctricas, magnéticas, térmicas y químicas, entre otras.

3.3.2 Arquitectura del instrumento

Un sistema spm se compone esencialmente de un cabezal de medida, en donde se capturan las señales de interacción entre el sistema viga-punta, y la muestra que se va a caracterizar. Un escáner piezoeléctrico genera los barridos en superficie y los cambios de posición vertical de la muestra. Toda la electrónica de acondicionamiento de señal y la generación de señales de actuación hacia la medida se encuentran en un módulo de control e instrumentación. Un sistema de adquisición de datos digitaliza las señales de sensado y entrega las señales de actuación sobre la medida. Finalmente, un sistema de procesamiento de señal crea la representación gráfica o en imagen de las medidas y también controla el instrumento (ver figura 3.3)[20].


Figura 3.3 Representación de la arquitectura general de un microscopio spm

3.3.3 Modos de operación de un instrumento spm

A partir de otras posibles interacciones entre la punta y la superficie (como las interacciones magnéticas y los cambios locales en propiedades elásticas, coeficientes de fricción y propiedades químicas), se han podido desarrollar diferentes técnicas spm. Incluso la técnica afm puede involucrar tres modos distintos de medida. Los modos en spm se dividen en primarios y secundarios, como se lista en la tabla 3.2. A continuación, se describirán dos de estas técnicas para mayor ilustración.

Tabla 3.2 Lista de técnicas primarias y secundarias de spm

Técnicas primariasTécnicas secundarias
Scanning Tunneling Microscopy (stm)Contact-Atomic Force Microscopy (c-afm)Non-Contact-Atomic Force Microscopy (nc-afm)Tapping Mode (tm) o Intermittent Contact-Atomic Force Microscopy (ic-afm)Torsional Resonance Mode (trm)Lateral Force Microscopy (lfm)Phase Imaging Microscopy (pim)Magnetic Force Microscopy (mfm)Conductive afm (cafm)Tunneling afm (tunafm)Electric Force Microscopy (efm)Surface Potential Imaging (spi)Force Modulation Microscopy (fmm)Scanning Capacitance Microscopy (scm)Scanning Spreading ResistanceMicroscopy (ssrm)Scanning Thermal Microscopy (sthm)

3.3.3.1 Contact-Atomic Force Microscopy (c-afm)

La afm en contacto es quizás una de las técnicas spm de uso más extendido. Su desarrollo a partir de la técnica stm significó una evolución, al permitir la obtención de imágenes de alta resolución sobre cualquier tipo de superficie sólida, sin importar sus características eléctricas. También es conocida como modo estático de afm, ya que la sonda o el conjunto viga-punta se deja libre para que sufra flexión en el régimen de mayor repulsión, como se observa en la figura 3.4.


Figura 3.4 Curva de fuerza vs. Distancia punta-muestra para los modos afm

El sistema de retroalimentación en este modo de operación mantiene la fuerza de interacción en un valor fijo; es decir, a fuerza constante. La figura 3.5 ilustra cómo son compensados con movimientos verticales del escáner los cambios de posición del sistema viga-punta, los cuales están sensados por los cambios en el ángulo de reflexión del láser sobre el fotodetector cuando este último recorre la superficie. De estos movimientos se obtiene cada línea de perfil. El conjunto de líneas permite reconstruir la imagen como se mencionó anteriormente.


Figura 3.5 Esquema del modo de operación c-afm de un instrumento spm

3.3.3.2 Non Contact-Atomic Force Microscopy (nc-afm)

Debido a que las fuerzas involucradas en c-afm (~nN) pueden llegar a ser muy altas para cierto tipo de muestras blandas (en especial algunos polímeros, material biológico, entre otros), la técnica tuvo una necesaria variación para poder llevar la medida al régimen de interacción atractiva (ver figura 3.6). Esto se logra haciendo oscilar el sistema viga-punta a una amplitud muy pequeña, de manera que esta oscilación la confine al régimen atractivo. Con esto, la fuerza atractiva modula la amplitud de vibración de la viga, mientras tiene lugar una interacción con la superficie. Es preciso utilizar un módulo de instrumentación muy sensible, como un amplificador lock-in, para detectar los cambios de amplitud impuestos por la fuerza atractiva, la cual a su vez depende de la distancia de la punta a la superficie. Esta fuerza cambia de acuerdo con la topografía; es decir, la señal de amplitud modulada captada por el lock-in se utiliza para retroalimentar el sistema comparándolo con una amplitud de referencia. De esta manera, el escáner compensa la distancia entre la punta y la superficie, y permite generar la línea de perfil topográfico y el conjunto de perfiles que se obtienen en un barrido en área (ver figura 3.6). Esta técnica también se conoce como el modo dinámico a partir del cual se han desarrollado gran cantidad de técnicas secundarias, como mfm, fmm y pim, entre otras.


Figura 3.6 Esquema del modo de operación nc-afm de un instrumento spm

La magnitud de la fuerza de interacción en esta configuración cae hasta tres órdenes de magnitud, alrededor de los piconewtons. Esto hace que sean viables las medidas en muestras que no resisten las fuerzas del modo de contacto. El modo nc-afm también permite obtener imágenes con resolución atómica, debido a que las distancias de interacción están restringidas a muy pocos átomos de la punta y la superficie; lo que no sucede en contacto, en donde las interacciones involucran muchos átomos y generan una fuerza neta repulsiva en la que no es posible conocer la contribución de cada uno de estos.

Con la configuración de nc-afm se pueden obtener medidas ic-afm o de tapping mode a través de rutinas de software, lo que permite un mayor rango de variación de distancias y fuerzas de interacción, como se observa en la figura 3.6. Una revisión más extensa de los diferentes modos de operación de un instrumento spm está fuera del alcance de este texto. No obstante, en la tabla 3.3 se presenta una lista de diversas técnicas spm, el tipo de aplicaciones en las que se usan y el tipo de medidas que permiten.

Tabla 3.3 Lista de técnicas spm y sus aplicaciones

Técnica spmAplicacionesInformación obtenida
afmMicroestructura de aleaciones, definición de fronteras de grano, estructura de adn, morfología de virus, reconstrucción atómica de cristales, formas de crecimiento y cristalización en capas, espesores de películas delgadas, ultraestructura en tejidos orgánicos, microfibras, estructura de información en almacenamiento óptico, entre otrasMorfología, tamaño de grano, porosidad superficial, altura de escalón, rugosidad media y cuadrática media, y dimensiones de estructura
stmImagen de espacio real a escala atómica de metales y semiconductores y estructura submicroscópica de aleaciones metálicas, entre otrasMorfología, distribución superficial de densidad de estados electrónicos y mapas de conductividad superficial
lfmIrregularidades superficiales de fricción en metales tribológicos, irregularidades en desempeño mecánico por presencia superficial de impurezas, frontera de grano y estructura en sistemas microelectromecánicos (mems), entre otrasMapas de fricción y alto contraste en bordes
mfmEstructura magnética de materiales ferromagnéticos, diferencias en orientación de dominios magnéticos en columnas estratigráficas y orientación de dominios en materiales para almacenamiento de datos (discos duros, cintas), entre otrasRespuesta magnética superficial
fmmIrregularidad química en superficies aleadas, nanopartículas contaminantes en sólidos, nanoinclusiones superficiales en películas delgadas y transformaciones químicas localizadas causadas por efectos térmicos en aceros, entre otrasMapas de variación de módulo de elasticidad e irregularidad química en superficie
Espectroscopía (i-v), (f-d)Medidas de gap en semiconductores, diferenciación de óxidos superficiales, medidas de adhesión superficial, nanoindentación de superficies rígidas y nanodureza en metales y cerámicosCurvas i-v en zonas puntuales, densidad de estados electrónicos, fuerza de adhesión superficial y fuerza en función de la distancia punta-muestra

Fuente: Arroyave-Franco.[21]

3.3.4 Preparación de muestras para análisis por spm

Los análisis que pueden realizarse con cualquiera de los modos spm son superficiales en general, por lo cual las muestras requieren un acabado superficial de alta calidad y con rugosidades muy bajas (Ra ≤ 1 µm). Esto se debe en parte a las limitaciones de expansión y contracción del escáner piezoeléctrico para el barrido vertical, y en parte a la alta sensibilidad vertical de la técnica, la cual se explota mejor si la rugosidad es baja. Mientras más rugosas sean las superficies, menos probable será la posibilidad de obtener medidas de calidad, y menos aún contraste lateral y capacidad de verificar cambios en nanoescala de las propiedades de las superficies analizadas. La preparación de una muestra para análisis por alguna técnica spm involucra un proceso en donde la rugosidad superficial se minimiza. Existen técnicas más sofisticadas y precisas en el nivel molecular, tales como la de los sistemas de haz de iones focalizados (fib), reseñada más adelante, que tiende a afectar menos las superficies y a generar excelentes acabados superficiales con muy bajo deterioro. Para el caso del análisis de nanopartículas, nanofibras, macromoléculas y otro tipo de nanoestructuras, existe una variada gama de métodos de preparación para fijar estructuras en superficies de materiales ultraplanos, como son la moscovita, el grafito pirolítico altamente orientado (hopg), el vidrio, el oro pulido y el silicio pulido, entre otros[21].

3.3.5 Algunas aplicaciones de la técnica spm

3.3.5.1 Análisis a escala atómica de materiales

La imagen en la figura 3.7 fue obtenida con escáner a alta magnificación (>1.000.000X) sobre una superficie de hopg.


Figura 3.7 Imagen de alta resolución, donde es posible reconocer la simetría de reconstrucción atómica para el hopg

Fuente: Arroyave-Franco.[21]

3.3.5.2 Análisis de materiales para almacenamiento de datos

En la figura 3.8 se observan dos micrografías afm tomadas en la superficie de dos tipos de discos ópticos tipo dvd (digital versatile disc); sobre estas imágenes es posible medir los parámetros topográficos que caracterizan a dichos discos, como por ejemplo el ancho, la altura y el período de las líneas de datos.


Figura 3.8 Imagen de c-afm tomada en la superficie de dos tipos de discos ópticos

Al igual que se pueden medir los rasgos morfológicos de los sistemas de almacenamiento óptico por las técnicas de fuerza en los instrumentos spm, es posible medir parámetros de los sistemas de almacenamiento magnético. En la figura 3.9 se puede observar una micrografía mfm tomada en la superficie de un disco magnético flexible, en la que se puede medir el ancho de bit.


Figura 3.9 Imagen de microscopía de fuerza magnética (mfm), tomada en la superficie de disco magnético flexible

3.3.5.3 Recubrimientos funcionales

En la figura 3.10 se presentan dos micrografías spm obtenidas simultáneamente con los modos c-afm (izquierda) y fmm (derecha) en la superficie de un recubrimiento cerámico de nitruro de titanio. Mientras la micrografía c-afm brinda información topográfica de la superficie, la micrografía fmm muestra información del entorno composicional de la misma superficie, a través de los cambios del módulo de Young, lo cual permite suponer una importante diferencia en composición entre las partículas que sobresalen en la topografía y la matriz del material.


Figura 3.10 Imagen de c-afm (derecha) y fmm (izquierda) tomada sobre la superficie de un recubrimiento cerámico de nitruro de titanio

Fuente: Arroyave-Franco.[22]

3.3.5.4 Análisis de nanoestructuras

En la figura 3.11 se muestra una micrografía afm tomada sobre una muestra de grafito que contiene nanotubos de carbono de múltiple pared diluidos en alcohol. La muestra fue depositada sobre un sustrato de moscovita para facilitar la observación.


Figura 3.11 Imagen de c-afm tomada en la superficie de un sustrato de moscovita, donde fue depositada una gota de alcohol con nanotubos de carbono

3.4 Difracción de rayos X

El uso de la técnica de difracción de rayos X para el análisis estructural de materiales se considera obligado en cualquier estudio que involucre síntesis, modificación, caracterización o aplicación de materiales sólidos. Con el creciente número de estudios en la escala nanométrica de la materia, la difracción de rayos X ha ido tomando igualmente un papel protagónico. En este apartado se describen brevemente los fundamentos generales de la técnica de difracción de rayos X y, particularmente, de aquellos aspectos que mayor aplicación tienen en el estudio de la materia en la escala nanométrica.

3.4.1 Principio de funcionamiento

3.4.1.1 Ley de Bragg

Los fotones de rayos X interactúan con los electrones de los átomos, lo que resulta en un cambio en la dirección de propagación del haz (ver figura 3.12). Esta interacción puede ser de tipo constructivo o destructivo, dependiendo de las condiciones básicas señaladas por la ley de Bragg[23] acerca del ordenamiento cristalino de la materia difractante, y de la radiación empleada, cuya longitud de onda λ debe ser comparable con la separación entre los planos difractantes d. Esto se expresa matemáticamente con la siguiente fórmula (ecuación 4):

2dSenθ = nλ (4)

θ es el ángulo entre el haz incidente y el plano difractante, y n es un número entero. El patrón de difracción resultante proviene de la interacción de los fotones de rayos X con todos los planos que interceptan los ejes a, b y c de la celda unitaria, en los puntos a/h, b/k y c/l. Por su parte, h, k y l son conocidos como los índices de Miller.

Además de las consideraciones de la ley de Bragg, se deben tener en mente otros aspectos, tales como los que se conocen como factores de estructura y de forma[24]. El primer factor se refiere a que, para ciertas estructuras cristalinas, solo algunos de los planos cristalinos generarán picos de difracción. Esto se observa, por ejemplo, en estructuras cúbicas tipo bcc o fcc. Para monocristales (cristales considerados infinitos), el factor de forma se refiere al aspecto de picos esbeltos en un espectro particular. Se obtendrán picos más anchos y más bajos a medida que disminuya el tamaño del cristal, aun cuando se conserve el área bajo la curva.


Figura 3.12 Dos rayos incidentes son difractados por un plano con separación d a un ángulo θ y la diferencia en el camino recorrido es igual a 2dSenθ; la interacción constructiva se dará cuando esta diferencia sea igual a nλ

3.4.1.2 Cristales

Los arreglos de la materia que cumplen con los condicionamientos de la ley de Bragg son conocidos como cristales, y son arreglos tridimensionales de átomos o moléculas que se agrupan en una determinada forma, denominada red de Bravais. Los sistemas cristalinos y las correspondientes redes de Bravais se diferencian entre sí por las relaciones entre las longitudes de sus aristas (a, b, c) y los ángulos entre ellas (α, β, γ). Dichas magnitudes definen la celda unitaria.

3.4.1.3 Planos cristalinos

Un gran número de planos regularmente espaciados pueden ser trazados a través de los átomos en la red. Entre estos, los más fáciles de ver son aquellos ubicados en las caras de la red cristalina. Estos planos son los que originan la difracción del haz y son designados por los índices de Miller (h, k, l), los cuales determinan una familia de planos paralelos, donde h, k y l corresponden a los planos que cortan a, b y c, respectivamente.

3.4.2 Arquitectura del instrumento

Los instrumentos de difracción de rayos X más comunes contemplan la geometría conocida como Bragg-Brentano. Dentro de esta clase se tienen dos tipos de configuración principales: la primera es la θ-2θ y la segunda es la θ-θ. En la primera configuración la fuente no se desplaza. Para dar cumplimiento a los postulados de la ley de Bragg, la muestra gira a una velocidad ω, mientras el detector rota a velocidad 2ω alrededor del centro de la muestra. Esta es la geometría más empleada; sin embargo, la rotación de la muestra acarrea inconvenientes cuando se trata de un polvo, ya que a altos ángulos la muestra puede caerse del portamuestras. Adicionalmente, para montajes en los que se requiere instrumentación adicional en el portamuestras, como el caso de análisis a alta temperatura, se hace más complejo encontrar un diseño funcional. En la imagen a de la figura 3.13 se diagrama esta geometría.

En el segundo tipo de configuración, de difractómetros θ-θ, la platina portamuestras permanece estática mientras el tubo de rayos X y el detector rotan alrededor de esta en direcciones opuestas y a igual velocidad ω. En este caso, los costos se incrementan apreciablemente debido a que el tubo de rayos X es un elemento pesado, y por tanto lograr una rotación precisa exige mayores requerimientos tecnológicos en el sistema que efectúa el movimiento (ver la imagen b de la figura 3.13).


Figura 3.13 Configuraciones de difractómetro Bragg-Brentano de rayos X: a) θ-2θ y b) θ-θ

A medida que el análisis de difracción se hace más perpendicular a la superficie, mayor es la profundidad irradiada. A partir de esta consideración para el estudio de películas delgadas y propiedades superficiales a alta resolución, se han desarrollado varios procedimientos, siendo los de mayor importancia el de difractometría de ángulo rasante y el de reflectometría. En estas técnicas se logra centrar la radiación en la zona de interés, en forma de capas con espesores de entre aproximadamente 10 µm y unos pocos nanómetros[26], y se deja de lado el efecto generado por el sustrato o interior de la muestra.

Los aspectos especialmente diferenciadores en estas técnicas son que el ángulo de incidencia en todos los casos es bastante bajo, y en general menor a 10°, y que la distancia entre el tubo de rayos X y la muestra es mayor que en el montaje tradicional; sin embargo, mientras para la reflectometría el sistema funciona en la configuración Bragg-Brentano θ-2θ normal, en el caso del ángulo rasante, en tanto el ángulo de incidencia y la posición de la muestra permanecen a un valor fijo, el detector realiza el barrido tradicional en 2θ[26-27].

Otra geometría empleada es la conocida como Debye-Scherrer[25], en la cual se puede emplear un detector angular que analiza simultáneamente todos los haces difractados por los diferentes componentes cristalinos de la muestra a varios ángulos 2θ, y también puede funcionar con un detector puntual. Este tipo de configuración es muy empleado para analizar material en polvo, el cual debe introducirse en un capilar transparente o compactarse en forma de película transparente.

3.4.3 Capacidades analíticas de los rayos X

3.4.3.1 Cristalinidad

La difracción de rayos X es la técnica más completa para definir los parámetros de cristalinidad de una muestra. Un análisis de nanopartículas por medio de un microscopio electrónico de transmisión de alta resolución puede ser más conveniente si se logra que funcione en el modo de difracción del haz de electrones. Sin embargo, el uso de un difractómetro de rayos X tiene las siguientes ventajas: el medio de análisis es aire ambiental, la preparación de la muestra es muy simple y se pueden hacer evaluaciones cuantitativas de las estructuras cristalinas[28].

La difracción de rayos X, además de ser empleada para determinar la estructura cristalina y las fases que conforman la muestra, también es usada para evaluar el tamaño del cristalito y para cuantificar microdeformaciones por medio de análisis de la posición y las intensidades de los picos de difracción, así como el ancho y la forma de los picos[28].

Luego de obtener los difractogramas, estos son comparados con una base de datos que contiene tanto las posiciones de los picos difractantes como las intensidades para un componente dado de la materia. Como ya se mencionó, una de las fuentes más empleadas es un tubo de cobre; este normalmente se presenta como un doblete Kα1 (0,15405 nm) y Kα2 (0,15443 nm). Para poder efectuar análisis más precisos, es necesario eliminar la radiación Kα2 mediante una adecuada configuración del equipo, ya que los métodos digitales de remoción generan errores adicionales. El método de difracción de polvos es capaz de determinar tamaños de cristalito por debajo de 100 nm. Dado que existen los efectos instrumentales sobre la forma del pico, es importante evaluar previamente estos artefactos mediante una muestra estándar de alta cristalinidad[28].

Una relación simple entre el ensanchamiento de un pico de difracción y el tamaño del cristalito se puede obtener de la ecuación 5, de Scherrer[29]:

(5)

Donde L es el tamaño del cristalito que contiene el plano difractante, λ es la longitud de onda de la radiación empleada, β es el ensanchamiento a la mitad de la altura del pico y θ es el ángulo de Bragg. El ensanchamiento es la suma de los efectos del instrumento y de la misma muestra. La expresión anterior es estrictamente aplicable a cristalitos de tamaños menores a los 100 nm[24]. De otro lado, los defectos de la materia pueden influir en una precisa cuantificación del tamaño del cristalito; sin embargo, la información de tamaño y de la deformación se puede llegar a separar con otros métodos de procesamiento de datos, el más empleado es el de Williamson-Hall[30]. El método Rietveld[31], que es empleado con mayor regularidad para el refinamiento de la estructura cristalina, también puede llegar a ser útil en la evaluación del tamaño del cristalito[28].

3.5 Dispersión de rayos X a bajo ángulo (saxs)

La técnica de dispersión de rayos X a bajo ángulo (saxs) se emplea principalmente para analizar características nanométricas de la materia. Esta técnica presenta un contraste de densidad entre el material de la matriz y los otros componentes de la muestra; la cual puede consistir, por ejemplo, de partículas suspendidas en un medio líquido, o la porosidad de un material sólido. En la mayoría de las aplicaciones se trabaja con una geometría de transmisión; sin embargo, para el análisis de películas delgadas es necesaria también la geometría en reflexión, con el fin de no perder información importante de las películas o de sus superficies[32].

Este análisis no está supeditado al tipo de muestra y es permite determinar la distribución de tamaños o de poros en el rango nanométrico (menor a 100 nm), las formas y la distancia entre partículas, sin necesidad de complejas preparaciones de muestra[32].

El fenómeno ocurre cuando el haz de rayos X incidente en el sistema, que contiene heterogeneidades en el rango de tamaños de nanométrico a submicrométrico, es dispersado en ángulos pequeños de 2θ; en general, en valores entre 0 y 10°[32-33]. En la figura 3.14 se muestra una representación de la geometría tanto en transmisión como en reflexión[33-34]. El ángulo del haz incidente en la geometría de reflexión es normalmente menor a 1°[35], y es posible evaluar allí tanto el haz dispersado en forma perpendicular al plano de la muestra (Sd) como en el mismo plano de esta (Sd*)[32].


Figura 3.14 Geometrías empleadas en saxs, por transmisión, ver a), y por reflexión, ver b)

El parámetro empleado en saxs no es el ángulo de dispersión, sino la magnitud del vector de dispersión q (ver imagen a de la figura 3.14), y en función de este se define igualmente la intensidad de dispersión total I(q). Estos parámetros están definidos por las ecuaciones 6 y 7[36]:

(6)

(7)

donde 2θ es el ángulo de dispersión, λ es la longitud de onda de la radiación empleada, Nρ es el número de partículas o heterogeneidades en la unidad de volumen, Δρ es la diferencia de densidades entre las heterogeneidades y la matriz o solvente, conocido como el contraste de dispersión, Vρ es el volumen de una partícula o heterogeneidad, P(q) es el denominado factor de forma de la partícula o heterogeneidad, que contabiliza efectos tanto de tamaño como de forma[37], y S(q) corresponde al factor de estructura que se relaciona con las interacciones entre partículas[36]. La forma de los espectros obtenidos al graficar en una escala log-log, I(q) vs. q, son similares a los mostrados en la figura 3.14, para ensayos de reflectancia. De manera general, el factor de estructura afecta la curva a bajos valores de q, mientras el factor de forma tiene sus efectos a altos valores de q.

3.6 Microscopía electrónica de transmisión (tem)

Antes de tratar de lleno la microscopía electrónica de transmisión (tem), vale la pena mencionar que la denominada microscopía electrónica de barrido (sem) resulta cada vez mucho más común no solo para el estudio y caracterización microscópica con alta resolución, sino como medio de descarte y uso recurrente, antes de proceder a técnicas más avanzadas de caracterización y elevada resolución, como la tem, a la cual se dedica principalmente este apartado.

Comúnmente las líneas de microscopios sem están diferenciadas, en cuanto a su configuración, resolución y nivel de flexibilidad, según el tipo de aplicación. Para los ámbitos de este libro,8 dado que los tipos de investigaciones por desarrollar se prevén diversas, resulta de interés definir opciones de equipos que garanticen tanto alta resolución como elevados niveles de flexibilidad, referidos no solo a las funcionalidades convencionales (topografía y detección de electrones secundarios y retrodispersos), sino además a rayos X y, de preferencia, a la habilidad de realizar experimentos in situ.

En este sentido, los experimentos dinámicos in situ, incluyendo la variación de temperaturas y la introducción de corrientes de gas durante las operaciones de análisis, requieren de mayor atención, dado que muchos de los fenómenos que tienen lugar en sistemas nanoestructurados son del tipo electroquímico y catalítico, que implican variaciones en la temperatura, y para la observación directa de ciertos tipos de reacciones químicas.

Tomando en cuenta la elevada resolución, las tecnologías actuales de microscopios sem han evolucionado desde sistemas convencionales de alto vacío con pistolas de emisión de W, ideales para análisis de falla, inspección y caracterización general, hasta el punto de incorporar sistemas de emisión de campo —como la microscopía electrónica de barrido-emisión de campo (fe-sem) o las pistolas de emisión de campo (feg)—, así como detectores tipo stem. Los sistemas de emisión de campo permiten alcanzar elevadas resoluciones con escasos valores de voltajes de aceleración. Igualmente, al incorporar un detector stem, se cuenta con la posibilidad de desarrollar análisis en modos semejantes a los utilizados en microscopía electrónica. Esta última, sin embargo, y dado su modo de operación, es la que permite alcanzar los mayores niveles de resolución.

Las imágenes de alta resolución se utilizan en nanociencias para mostrar y validar la naturaleza de nanoestructuras conformadas, principalmente, a partir de la presencia de monocristales. En este sentido, la tem ha desempeñado un papel clave para comprender la defectología y las propiedades de materiales: desde la observación de dislocaciones hasta el uso de los actuales sistemas tem, equipados con corrección de aberración, para obtener imágenes con resolución espacial cercana a 0,05 nm[38].

Un microscopio tem es un instrumento en el cual se utiliza un haz de electrones para visualizar un objeto. En general, el microscopio tem más sencillo es, en principio, bastante similar al microscopio óptico. Ambos poseen lentes y condensadores para concentrar la iluminación o las ondas electrónicas sobre la muestra; sin embargo, debido a que la potencia amplificadora de un microscopio óptico está limitada por la longitud de onda de la luz visible, en el microscopio tem lo que resulta característico es que la imagen se obtiene a partir de los electrones que atraviesan especímenes o muestras muy finas.

En ciertos casos, la tem puede ser la única herramienta para caracterizar ciertos tipos de nanomateriales, no solo porque permite extraer computacionalmente patrones de difracción, sino por la posibilidad que ofrece de generar imágenes que de otra manera no se podrían alcanzar de forma directa[39]. En este apartado se resumen los componentes y modos operativos básicos para obtener imágenes en microscopios tem, y se reúne información de carácter técnico y de consulta que resulta de utilidad como primer acercamiento a una de las tecnologías más relevantes para la caracterización de materiales y componentes nanoestructurados.

3.6.1 Componentes básicos del microscopio tem

En cuanto a los componentes que resultan especiales en el microscopio tem, se incluyen inicialmente la fuente termoiónica, el cañón de electrones y la pistola de emisión de campo (feg) (ver figura 3.15).


Figura 3.15 Esquema general que ilustra los componentes de un microscopio tem. En el extremo izquierdo, se detalla el sistema (goniómetro) para el posicionamiento de muestras

El denominado cañón de electrones ubicado en la parte superior de la columna del microscopio incluyen un emisor de campo (como la feg), en el cual una fuente termoiónica es mantenida a un potencial negativo de varios kilovoltios en relación con un electrodo vecino; de suerte que en la superficie se genere suficiente energía para remover electrones por la acción exclusiva del campo eléctrico. La fuente termoiónica, o feg, puede estar conformada, bien por un filamento de tungsteno, o bien por uno de hexaboruro de lantano (LaB6). Para el caso del tungsteno, el filamento es generalmente pequeño y en forma de púa, mientras que las fuentes de LaB6 constan de un pequeño monocristal. Conectando entonces el cañón a una fuente de alto voltaje (~120 kV para muchas aplicaciones), se dará comienzo a la emisión de electrones al vacío.

Para conseguir un flujo constante de electrones se requiere garantizar una diferencia de voltaje entre cátodo y tierra —sin generar un arco voltaico—, y también, reducir al máximo las colisiones de los electrones con átomos presentes en la columna del microscopio. Estas dos condiciones se aseguran operando el instrumento a bajas presiones (típicamente entre 10-4 y 10-8 kPa). Para garantizar tales condiciones de presión, el elemento estructural del microscopio tem, incluyendo los sistemas de imagen y fotografía, lo constituye entonces un recipiente de sección cilíndrica.

De forma paralela, dado que el microscopio de transmisión es un instrumento que debe permitir, entre otras, la reposición de componentes, la ubicación de muestras y demás funciones, se hace necesario generar vacío regularmente. Por tal motivo, los microscopios tem están equipados con sistemas de bombeo y vacío para sellado momentáneo. En general, desde el punto de vista de la seguridad del instrumento, la mayoría de los equipos cuentan además con dispositivos que no permiten conectar a alto voltaje el filamento hasta que no se haya conseguido el vacío apropiado.

En otra ubicación del instrumento se encuentra la plataforma portaobjetos. Este dispositivo, situado frente al objetivo (ver figura 3.15), cuenta también con una abertura que permite la introducción de la muestra en la columna del microscopio, además de un goniómetro para la ubicación espacial.

El objetivo (o lente de difracción) es el más importante en el microscopio. Debido a que el haz de la imagen tiene la máxima apertura angular en el primer lente objetivo, este lente controla la calidad de la imagen producida. Otro accesorio regula la apertura del objetivo, limitando la dispersión de los electrones y evitando la degradación de la imagen.

El lente intermedio, que va a continuación, se encarga de aumentar o disminuir la imagen mediante el incremento o la disminución de la potencia eléctrica suministrada. Los proyectores, o lentes de proyección de la imagen, actúan en una amplia gama de aumentos que permiten obtener imágenes de elevada resolución.

3.6.2 Principales modos de operación

En el modo de imagen de contraste de difracción (dci) pueden obtenerse imágenes a partir de ciertos campos de deformación que difractan los electrones de manera preferencial (es decir, dislocaciones, fronteras de grano, precipitados y fases secundarias, entre otros). De igual manera, aunque la difracción de electrones resulta de especial utilidad para la caracterización de monocristales, por sí sola esta carece de la capacidad visual que proporciona la tem, precisamente porque esta permite analizar la estructura cristalina en el denominado modo de difracción de electrones, sin excluir el caso de materiales amorfos.

En el modo de imagen de contraste de fases (pci), o tem de alta resolución (hrtem), en lugar de utilizar una única onda incidente de electrones se utilizan múltiples ondas, de suerte que la interferencia entre ondas transmitidas y difractadas con diferente fase, o fase de contraste (hrem), permite obtener imágenes de resolución atómica hasta del orden de 0,7 Å.9 Este modo es utilizado, por lo tanto, para la caracterización de muestras muy delgadas, de hasta unos cientos de ángstroms.

Para detallar señales analíticas o átomos específicos en muestras de materiales, es posible también hacer uso de herramientas de barrido. En este modo, identificado comúnmente como microscopía analítica (am), se pueden realizar espectroscopías de energía dispersiva de rayos X (eds), mediante la detección de rayos X característicos excitados por electrones incidentes, cuya resolución espacial puede ser del orden del tamaño de la sonda (tan bajo como 2 a 3 Å), lo cual permite el análisis químico específico en volúmenes muy pequeños de material.

Así mismo, en el modo am es posible llevar a cabo espectroscopías de pérdida de energía de electrones (eels). El modo eels se basa en la medición de la pérdida de energía cinética de electrones incidentes sobre una muestra sólida, con una resolución espacial por debajo del nivel atómico, en casos favorables, y hasta 1,0 eV de resolución energética; si se utiliza un monocromador de haz de electrones, se puede llegar a 0,1 eV. También es factible utilizar el mismo espectrómetro para generar imágenes de electrones selectos que han perdido una cantidad particular de energía. Esta herramienta es utilizada para crear mapas de la química local de una muestra (de hasta 1 nm), lo cual permite reconocer cuáles elementos o compuestos están presentes en una muestra, en función de sus picos o señales características, y cuyas geometrías tienen además un significado particular (análisis elemental). A partir de dichas geometrías, es posible inferir información sobre la configuración de los enlaces interatómicos (estructura de bandas), medir espesores y propiedades electrónicas de semiconductores, e incluso determinar la constante dieléctrica de materiales aislantes. De igual manera, se pueden realizar mediciones magnéticas, entre otras propiedades[40].

El modo eels constituye también una excelente herramienta para la tem, que, además de generar patrones de difracción y análisis mediante espectroscopía, se relaciona con la capacidad de llevar a cabo experimentos dinámicos. En otras palabras, permite no solo obtener imágenes y patrones de difracción, sino también encontrar maneras de manipular las muestras con diversos fines y obtener vídeo-imágenes y mapeos, que hacen posible establecer relaciones claras entre la estructura, el procesamiento y las propiedades resultantes en materiales a escala atómica. En este sentido, permite también utilizar altas o bajas temperaturas (desde 1.300 °C hasta valores que implican el uso de N2 líquido) y flujos de gases (con presiones de hasta 20 Torr), ejercer nanomanipulación, llevar a cabo pruebas de nanoindentación, estudiar el comportamiento eléctrico en función de la temperatura, realizar ensayos mecánicos de tracción uniaxial y observar el crecimiento in situ de cristales.

Nanotecnología

Подняться наверх