Historia de la nanotecnología

historia nanotecnologia

El término «nanotecnología» fue utilizado por primera vez en 1974 por Norio Tanigushi. En la década de 1980 y con el descubrimiento del Microscopio de Túnel de barrido (STM), el nanomundo se abrió efectivamente a los investigadores.

Contents

Cronología de la nanotecnología

Desde allí y gracias a la extrema precisión de sus herramientas, los científicos lograron manipular los átomos uno por uno. El diseño, la fabricación y la manipulación de objetos, materiales y máquinas de tamaño nanométrico había comenzado.

Túnel de barrido (STM)

tunel barrido stmEn 1981, Heinrich Rohrer y Gerd Binnig desarrollaron el Microscopio de túnel de barrido (STM), por el que recibieron el Premio Nobel de Física en 1986.

Este instrumento hace posible medir la corriente del «túnel» que pasa entre un punto que se mueve a 0.5 nm desde una superficie, para mapearlo átomo a átomo. Este fue un avance instrumental extraordinario para la nanociencia.

Fullereno

En 1985 los investigadores Robert Curl, Harold Kroto y Richard Smalley sintetizaron las primeras moléculas de átomos de carbono C60, formando una estructura en forma de balón de fútbol, donde el carbono existía naturalmente solo en forma de cristales hexagonales, grafito o en forma cúbica, el diamante. Más información sobre el Fullereno.

Este descubrimiento hizo que les fuese otorgado el Premio Nobel de Química en 1996. Definitivamente se trató de un avance crucial en la nanociencia y en particular en la síntesis artificial de objetos a nanoescala.

Espintrónica

1985 da nacimiento a la espintrónica, cuando  Albert Fert y Peter Gruenberg dieran una explicación teórica (giro electrónico o espintrónica) a los efectos de la magnetorresistencia gigantes observadas en materiales multicapa a nanoescala.

En 2007 recibieron el premio a la investigación en Japón por sus resultados, siendo este el primer gran avance teórico en nanociencia. Después de estos primeros logros tan importantes, los avances en nanociencia se multiplicaron esencialmente en tres zonas,  instrumentación, nanoobjetos y  propiedades.

La ley de Moore

El postulado prevé que cada ciclo, que puede variar de 18 a 24 meses, la capacidad de procesamiento de los ordenadores se dobla, mientras que los gastos permanecen constantes.

La teoría fue publicada por primera vez en 1965 en la Electronic Magazine por el ingeniero Gordon Moore, tres años antes de convertirse en uno de los fundadores de Intel.

Moore observó que los transistores, el building block fundamental del microprocesador y de la era digital, reducirían el gasto y aumentarían en desempeño en una tasa exponencial. Probablemente él no imaginaba que la idea que había presentado se convertiría en un paradigma que estimularía el próximo medio siglo, por lo menos, de cambios tecnológicos.

Inicialmente la Ley de Moore no era más que una teoría, pero acabó convirtiéndose en un objetivo para las industrias de semiconductoras, haciendo que el sector gastara muchos recursos para poder alcanzar las previsiones de Moore en desempeño.

Este hecho demuestra cuánto el postulado de Moore es realmente importante, ya que ha protagonizado el desarrollo bastante acelerado en la industria del hardware y con costos cada vez más accesibles.

Muchos dispositivos que la gente usa diariamente están equipados con microprocesadores formados por transistores. Cuando observamos el desarrollo de estos componentes, observamos que estos pasaron por una drástica reducción de precio y aumento en el desempeño y en la eficiencia en el consumo de energía, como propone la Ley de Moore.

Microprocesadores, chips de células y chips de proteínas

Se ha desarrollado un conjunto de técnicas llamadas biochips de ADN, pero también chips celulares y chips de proteínas, para analizar las células mismas y las proteínas en la escala más pequeña.

Otro aspecto es la creación de nuevos objetos tales como nanopartículas que permiten por ejemplo, el marcaje biológico in vitro e in vivo de otros objetos biológicos.

La nanomedicina: las nanomáquinas de la vida

A pequeña escala, el complejo ATP sintasa permite realizar mecanismos de señalización, endocitosis o fagocitosis. Mientras que los aptámeros pueden ejercer una actividad catalítica o interactuar específicamente con proteínas o moléculas pequeñas.

Más allá de estos nanobioobjetos, como en otros campos, las técnicas específicas en nanomedicina y nanobiotecnología han evolucionado o se han desarrollado:

Resonancia de plasmón superficial (SPR), para medir interacciones moleculares;

PCR (reacción en cadena de la polimerasa), en tiempo real que permite la cuantificación de ácidos nucleicos;

Microscopía de campo cercano como SNOM para información topográfica junto con información óptica de superficies biológicas;

El microscopio atómico de fuerza  AFM, para obtener imágenes tridimensionales de superficies celulares y moleculares;

Micromanipulaciones (micropipetas) para el estudio de fuerzas entre moléculas individuales (adhesión, fusión de membrana);

Técnicas de patch-clamp que permiten el acceso directo a la actividad del canal de proteínas que conduce al estudio de las biomembranas a nivel molecular.

Vectorización del servicio de la nanomedicina

nanomedicinaAl igual que el campo de los nanoobjetos o el de los métodos «nanoresueltos», el campo de las aplicaciones biológicas es vasto y donde el de la vectorización es uno de los más importantes.

Todos estos avances apuntan al desarrollo de una nanomedicina nanoinvasiva, donde la enfermedad se detectará en su periferia más cercana y se tratará a la menor escala.

También te puede interesar