Oldcivilizations's Blog

Antiguas civilizaciones y enigmas

¿Tenemos alguna idea de lo que nos depara el futuro tecnológico?


¿Alguna vez os habéis planteado, como han hecho muchas novelas y películas de ciencia-ficción, si en el futuro será posible la teleportación, los motores de antimateria, la psicoquinesia, la invisibilidad, el alargamiento de la vida, la cura de enfermedades, como el cáncer, la biotecnología, los robots más inteligentes que los seres humanos, gracias a la Inteligencia Artificial, los viajes a través de agujeros de gusano, que permitan los viajes interestelares, los viajes en el tiempo, los viajes a otras dimensiones, los viajes a universos paralelos, etc…? En el año 2008, el físico Michio Kaku, en su libro Física de lo imposible, hace referencia a que hay muchas tecnologías en la ciencia ficción que los físicos declaran como totalmente imposibles, cuando lo que realmente deberían decir es que son imposibles para una civilización del nivel de la nuestra. Por ejemplo, aunque el viaje interestelar es claramente imposible para nuestra civilización, puede ser posible para una civilización más avanzada que la nuestra, como, tal vez, pueda ser la de algunos supuestos extraterrestres que nos visitan. Por ello Michio Kaku cree que es importante intentar clasificar tales «imposibilidades». Tenemos que ser conscientes de que tecnologías que son imposibles para nuestra civilización actual no tienen por qué ser imposibles para civilizaciones de otro tipo. El astrónomo, astrofísico, cosmólogo, astrobiólogo, escritor y divulgador científico estadounidense Carl Sagan escribió: «¿Qué significa para una civilización tener un millón de años? Tenemos radiotelescopios y naves espaciales desde hace unas pocas décadas; nuestra civilización técnica tiene solo unos pocos cientos de años. Una civilización avanzada de millones de años de edad está mucho más allá de nosotros que nosotros lo estamos de un lémur o de un macaco». Michio Kaku estableció una división de las tecnologías que se consideran «imposibles» en tres categorías. La primera es la que llama «imposibilidades de clase I», que serían tecnologías que actualmente son imposibles pero que no violan las leyes conocidas de la física. Por ello, podrían ser posibles durante el presente siglo XXI. Entre estas tecnología se incluyen la teleportación, los motores de antimateria, ciertas formas de telepatía, la psicoquinesia y la invisibilidad. La segunda categoría sería la que llama «imposibilidades de clase II», que son tecnologías todavía situadas en el límite de nuestra comprensión del mundo físico. A este respecto, Michio Kaku se muestra muy conservador, sobre todo teniendo en cuenta la actual aceleración científica y tecnológica, y dice que podrían hacerse realidad en una escala de tiempo de miles a millones de años en el futuro. Entre estas tecnologías incluye las máquinas del tiempo, la posibilidad del viaje en el hiperespacio y el viaje a través de agujeros de gusano. La última categoría es la que llama «imposibilidades de clase III», que serían tecnologías que actualmente violan las leyes de la física conocidas. Pero, sorprendentemente, no se conocen muchas de tales tecnologías imposibles. Si resultaran ser posibles, representarían un cambio revolucionario en nuestra comprensión de la física. Debido a las múltiples nuevas tecnologías involucradas, como la robótica y la Inteligencia Artificial, ya tratadas en otros artículos, en este artículo voy a centrarme principalmente en la teleportación, la nanotecnología y la energía.

La historia de la vida en la Tierra nos enseña que, enfrentados a un entorno hostil, los organismos vivos pueden optar por escapar, adaptarse o perecer. Cuando nos referimos al futuro, aunque sea básicamente científico-tecnológico, tenemos que tener en cuenta posibles catástrofes o cataclismos que hagan que una adaptación sea prácticamente imposible, por lo que la única opción sería abandonar la Tierra o perecer. Tal vez esto ya ha ocurrido en un remoto pasado, del que conservamos algunos recuerdos en forma de tradiciones. Quizás, al igual que se explica en la película el planeta de los simios, hubo en el pasado civilizaciones avanzadas que tuvieron que abandonar el planeta y que, relativamente hace poco, han regresado al planeta Tierra procedentes del pasado. O bien, seres del futuro han retrocedido a nuestra época actual o reciente. En ambos casos, quizás se presentaron como los dioses que aportaron conocimientos al género humano y que tal vez expliquen la aceleración científico-tecnológica que se ha producido, especialmente en las últimas décadas. Pero volviendo al tema de las catástrofes, hay evidencias de que han ocurrido muchas veces en el pasado y que probablemente también ocurrirán el futuro, lo cual podría poner límite a los avances tecnológicos. Sabemos que la Tierra ya ha sufrido, que se conozcan, hasta cinco grandes ciclos de extinción, en cada uno de los cuales desaparecieron hasta el 90% de las especies que había en aquella época. Fue como un nuevo comienzo. También es digno de considerar el caso de los dinosaurios, que aparecieron durante el período Triásico. Por ello dedicare unas cuantas líneas a este tema aunque se salga algo del objetivo de este artículo. El consenso científico actual sitúa su origen entre 231 y 243 millones de años atrás y fueron los vertebrados terrestres dominantes durante 135 millones de años, desde el inicio del Jurásico, hace unos 200 millones años, hasta el final del Cretácico, hace unos 65 millones de años, cuando la mayoría de los grupos de dinosaurios se extinguieron durante la extinción masiva del Cretácico-Terciario que puso fin a la Era Mesozoica. Y 135 millones de años son mucho tiempo para evolucionar hasta altos niveles de inteligencia. Se da el nombre científico de Dinosauroide al resultado de una hipótesis propuesta por varios científicos, basándose en la posible evolución de dinosaurios trodóntidos. Esta hipótesis asume una adaptación progresiva de los dinosaurios hacia una forma antropomorfa, a la que se denominaría como reptiloide. Los trodóntidos eran dinosaurios raptores relativamente pequeños en relación a otros dinosaurios, con grandes ojos y el cerebro más grande de los dinosaurios, comparándolo con su tamaño corporal. Asimismo se distinguían por sus dientes con sierra hacia el interior de la boca y su poco desarrollada garra falconiforme. El principal representante de este grupo sería el Troodon, antiguamente llamado Stenonychosaurus.

 

En 1982, los científicos Dale Russell y Ron Séguin publicaron un artículo en el que detallaban la reconstrucción completa del Troodon, basada en un esqueleto incompleto descubierto en Alberta en 1967. Al mismo tiempo que estudiaban el Troodon, los dos investigadores imaginaron una posible evolución del Troodon, en el supuesto caso de no haberse extinguido. La idea partía de que el Troodon era uno de los dinosaurios más inteligentes de su época, dado que poseía un cerebro muy grande en comparación con su tamaño corporal. Dado que estos pequeños dinosaurios eran cazadores ligeros y activos de presas pequeñas, como lagartijas y pequeños mamíferos primitivos, con una vista estereoscópica y capaces de depredar con poca luz, las características del denominado dinosauroide se efectuaron tomando como base las del Troodon y “evolucionándolas” virtualmente a largo plazo con la ayuda de ordenadores. Así, el dinosauroide sería un dinosaurio de gran capacidad intelectual, que compensaría su menor velocidad con la fabricación de herramientas sencillas y el desarrollo de tácticas que le permitirían huir de sus predadores y atacar a sus presas de una forma más eficiente. Al reconstruir al Troodon, Russell y Séguin notaron su gran cerebro. Por ello, plantearon como base de su hipótesis que el Troodon hubiese evolucionado hasta desarrollar un cerebro más grande. Siendo así, el dinosauroide habría adquirido una postura erecta y hubiese acortado el cuello, a fin de soportar mejor el peso. Al erguirse, el antiguo Troodon ya no necesitaría una cola para equilibrarse, por lo que la perdería, como puede observarse en el propio ser humano. Para soportar la nueva posición, los tobillos bajarían y los pies se volverían más largos y planos, perdiendo agilidad y rapidez, y perdiendo tal vez la garra falconiforme del Troodon. De hecho, se habría antropomorfizado. A estas hipótesis publicadas en 1982 se añaden otras hipótesis, resultado de nuevas investigaciones. Dada la estrecha relación del Troodon con otros dinosaurios como el velociraptor, que tenían plumas, hubiera sido probable que el dinosauroide presentara plumaje, aunque tal vez diferente al de las aves actuales y más cercano al del beipiaosaurus, un pariente de los raptores. Dado el gran tamaño de su cerebro, la capacidad intelectual del dinosauroide le habría permitido, tal vez, habilidades cognitivas como la fabricación de herramientas y la estructuración de un lenguaje. Tal vez quienes hablan de visitantes reptilóides del planeta Tierra no están equivocados y realmente existan unos descendientes de los dinosaurios que hubiesen sido capaces de evolucionar tecnológicamente hasta ser capaces de viajar hacia el cosmos y ser estos visitantes del pasado a los que nos referíamos antes. Pero, evidentemente, es pura especulación.

 

Continuando con el tema de posibles catástrofes, es probable que en unas cuantas décadas tengamos que enfrentarnos a amenazas que no sean naturales, sino en gran parte auto infligidas por el propio ser humano, tales como la contaminación y sus consecuencias, en que la Tierra tal vez se vuelva contra nosotros. También nos enfrentamos al peligro de la guerra moderna a medida que proliferan las armas nucleares y otro tipo de armamento todavía desconocido para nosotros. De hecho, se sabe que los estamentos militares de las grandes potencias van siempre por delante en sus avances tecnológicos, pero para objetivos militares. También nos enfrentamos al peligro de los virus y bacterias convertidos en armas, aunque no sepamos si han sido producidos artificialmente, como el del sida, el ébola, o el actual SARS-CoV-2 (Covid-19). Cualquier virus o bacteria sin control y sin mecanismos de defensa, como una vacuna, podrían exterminar gran parte de la especie humana, como ya paso con la peste medieval. Asimismo nos enfrentamos al problema del gran crecimiento de la población mundial, con el consiguiente gran consumo de recursos, como el del agua. Estamos en riesgo de un cataclismo ecológico, en que se luchará por los últimos recursos que queden en el planeta. Pero no creamos que solo existen peligros potenciales que nosotros mismos nos hemos buscado, sino que también podemos tener desastres naturales sobre los que actualmente no tenemos ningún control. Tal como ya he explicado en mi serie de artículos sobre ¿Qué sabemos sobre los cambios climáticos en la Tierra?, todo indica que podemos entrar en una nueva pequeña edad de hielo, tal vez como preludio de otro periodo glacial. Tenemos que tener en cuenta que durante los últimos cien mil años, hasta entrar en el actual interglacial del Holoceno, gran parte de la superficie terrestre, especialmente Europa y Norteamérica, estuvo cubierta por una gran capa de hielo sólido que llegó hasta los 4 km. de espesor. Este paisaje helado llevó a la extinción total o parcial de muchas especies. Después, hace unos 11.000 años, se produjo un deshielo, entrando en el Holoceno. Este breve, geológicamente hablando, calentamiento es el que ha permitido el rápido crecimiento y prosperidad de la civilización moderna. Pero ello ha ocurrido durante el breve periodo interglacial que estamos viviendo, lo que significa que, siguiendo los ciclos de la historia del clima, en no demasiado tiempo nos encontremos en otra edad de hielo. Cuando esto ocurriese, nuestras ciudades desaparecerán bajo montañas de nieve y hielo, y nuestra actual civilización desaparecería.

 

Otro riesgo importante es que un supervolcán, como el que está bajo el parque nacional de Yellowstone, se active y destruya gran parte de Estados Unidos y envuelva a la Tierra en una asfixiante y venenosa nube de hollín y escombros, que aniquile gran parte de la vida y lleve a una época glacial. Se tienen registros de que las anteriores erupciones tuvieron lugar hace 630.000 años, 1,3 y 2,1 millones de años, que vemos están separadas entre sí por unos 700.000 años. Por ello podríamos esperar otra colosal erupción en cualquier momento. De hecho, ya hace cierto tiempo que se registran síntomas de actividad. También tenemos el supervolcán de los Campos Flégreos, en Nápoles, cuya explosión, hace unos 40.000 años, se cree fue la causa de la extinción de los neandertales. De hecho, hace unos 75.000 años la enorme explosión del supervolcán Toba casi habría reducido la población mundial a solo 10.000 personas, lo que tal vez explicaría la poca variación que hay en el ADN del género humano actual. Pero no podemos olvidarnos del posible impacto de un meteoro o cometa, similar al que se supone causó la desaparición de los dinosaurios hace unos 65 millones de años. Entonces se ha calculado que una roca de unos diez kilómetros de diámetro cayó sobre la península de Yucatán, en México, lanzando al espacio toneladas de escombros de fuego que llovieron otra vez sobre la Tierra, además de los correspondientes tsunamis gigantescos. Se supone que las nubes de ceniza oscurecieron el Sol y causaron una brusca caída de las temperaturas en todo el mundo. Con la desaparición de gran parte de la vegetación, se rompió la cadena alimentaria, por lo que todo parece indicar que los dinosaurios herbívoros murieron de hambre, seguidos poco después por sus parientes carnívoros. Se cree que el 90 por ciento de las formas de vida de la Tierra se extinguieron como consecuencia de esta catástrofe. Por suerte la mayoría de la gente vive ajena a la realidad de que la Tierra viaja a gran velocidad en medio de rocas potencialmente peligrosas. Solo recientemente los científicos han empezado a cuantificar el verdadero riesgo de un gran impacto. Ahora sabemos que existen varios miles de objetos próximos a la Tierra que cruzan la órbita de nuestro planeta y representan un evidente peligro para nosotros. En junio de 2017 se habían catalogado ya 16.294 de estos objetos. Pero estos son solo los que se han podido localizar. Pero los astrónomos calculan que solo en el sistema solar puede haber millones de objetos que se pueden cruzar en algún momento con la Tierra. Pero tal vez dispongamos de suficiente tiempo para que la tecnología del futuro pueda ayudarnos a enfrentarnos a todos estos peligros. Y posiblemente el mayor de todos los desafíos sea la posibilidad de abandonar la Tierra antes de que sea destruida y volar hacia el espacio exterior, como tal vez en el pasado hicieron los supuestos habitantes de Marte cuando, debido a una catástrofe cósmica que generó el cinturón de asteroides, Marte perdió su atmósfera y agua. Pero hay otra amenaza: la propia tecnología, si se utiliza con fines malévolos. De momento yo me centraré en la utilización positiva de la tecnología.

 

Y ahora entramos propiamente en el posible futuro científico-tecnológico si tenemos la suerte de no tropezarnos antes con alguna de las catástrofes antes mencionadas. Y empezamos con una tecnología muy sugerente, como lo es la teleportación, que es la capacidad de transportar instantáneamente a una persona o un objeto de un lugar a otro, por distante que se encuentre, por lo que es una tecnología que podría revolucionar nuestra civilización. Con una tecnología como esta, popularizada en la antigua serie televisiva Star Trek, los sistemas de transporte actual, como los automóviles, los barcos, los aviones y los trenes, así como todas las diversas industrias que fabrican estos sistemas, se convertirían en totalmente obsoletos. De todos modos, antes de llegar a un estadio como este, seguramente se trataría de teleportar pequeños objetos desde una cámara emisora y otra receptora. Sería como si tu pidieses un lector de libros a Amazon y ellos lo teleportaran desde una almacén en USA a un almacén en Barcelona, ambos dotados de cámaras de teleportación. Como si fuese un tipo de telefax tridiomensional. No obstante, para una teleportación como en Star Trek seguramente tendremos que esperar bastante más. Pero es evidente que la teleportación revolucionaría a nuestra sociedad. El hombre sin cuerpo, uno de los mejores relatos de ciencia-ficción de Edward Page Michell, relata la historia de un científico loco que consigue aislar los átomos de un gato y transmitir esa información a través de un cable de telégrafo. Desafortunadamente, la batería que alimenta el dispositivo se acaba cuando trata de teleportarse a sí mismo, quedando literalmente sin cuerpo. La película La mosca, de 1958, examinaba lo que podría suceder cuando la teleportación saliese mal. Mientras un científico trata de teleportarse, sus átomos se mezclan con los de una mosca que accidentalmente ha entrado en la cámara de teleportación, por lo que el científico se convierte en un monstruo, mitad humano y mitad mosca. Pero donde la teleportación se hizo popular, como ya hemos dicho, fue con la serie televisiva Star Trek. Pero los científicos han planteado algunas objeciones sobre la posibilidad de la teleportación. En efecto, para teleportar a alguien habría que conocer la posición exacta de cada átomo del cuerpo a teleportar, lo que violaría el principio de incertidumbre de Heisenberg, que nos dice que no se puede conocer al mismo tiempo la posición y la velocidad exactas de un electrón. Los productores de la serie Star Trek, para saltarse esta limitación introdujeron hábilmente unos denominados «compensadores de Heisenberg» en la cámara transportadora, como si se pudiesen compensar las leyes de la física cuántica añadiendo este compensador al transportador.

 

Según la física newtoniana, la teleportación sería imposible. Pero en la física cuántica, las partículas sí que lo pueden hacer. Cuando las leyes de Newton fueron reemplazadas por la teoría cuántica, que fue desarrollada, entre otros, por Werner Heisenberg, y Erwin Schrodinger, los físicos descubrieron que entre las extrañas propiedades de los átomos, los electrones se comportaban como ondas y efectuaban saltos cuánticos en sus movimientos aparentemente caóticos dentro de los átomos. Pero quién más investigó estas ondas cuánticas fue el físico vienés Erwin Schrodinger, que escribió la famosa e importante ecuación de ondas que lleva su nombre y que describe la evolución temporal de una partícula subatómica masiva de naturaleza ondulatoria y no relativista. Por otro lado, en 1905, Albert Einstein había mostrado que las ondas lumínicas pueden tener propiedades de partícula, por lo que pueden describirse como paquetes de energía a los que llamó fotones. Pero Schrodinger comprendió que partículas como los electrones también podían comportarse como ondas. El físico francés Louis de Broglie ganó el premio Nobel por esa misma idea. Esta teoría se demuestra disparando electrones dentro de un tubo de rayos catódicos similar al de los antiguos televisores. Los electrones pasan por un minúsculo agujero, de modo que normalmente tendríamos que ver un minúsculo punto donde los electrones incidieran en la pantalla. Pero, en lugar de ello, se encuentran anillos concéntricos de tipo onda, que es lo que se esperaría si fuese una onda y no una partícula, la que hubiera atravesado el agujero. Schrodinger se dio cuenta de que la vieja imagen del átomo de Niels Bohr, que mostraba a los electrones girando en órbitas alrededor del núcleo, era equivocada. Estas órbitas se tendrían que reemplazar por ondas que rodean el núcleo. Esto llevó a que los físicos fuesen capaces de observar el interior del propio átomo y examinar en detalle las ondas que formaban sus capas electrónicas y, a partir de ello, obtener predicciones precisas para esos niveles de energía. Pero, si el electrón está descrito por una onda, entonces, ¿qué es lo que está ondulando? El físico Max Born dijo que esas ondas eran en realidad ondas de probabilidad, lo que implicaría que estas ondas den solamente la probabilidad de encontrar un electrón concreto en cualquier lugar y en cualquier instante. O sea, el electrón es una partícula, pero la probabilidad de encontrar dicha partícula vendría dada por la onda de Schrodinger. Cuanto mayor fuese la onda en un punto, mayor sería la probabilidad de encontrar la partícula en dicho punto.

Vemos pues que el azar y la probabilidad se introducían en el núcleo de la física, que hasta entonces había proporcionado predicciones precisas y trayectorias detalladas de las partículas. Esta incertidumbre fue finalmente definida por Heisenberg cuando propuso el principio de incertidumbre, es decir, el hecho de que no podríamos conocer a la vez la velocidad y la posición exactas de un electrón, así como tampoco se podría conocer su energía exacta, medida en un intervalo de tiempo dado. Nos damos cuenta que a nivel cuántico no existe el sentido común, ya que los electrones pueden desaparecer y reaparecer en otro lugar, mientras que los electrones pueden estar en muchos lugares al mismo tiempo. Incluso Einstein, uno de los pioneros de la teoría cuántica, estaba horrorizado por la introducción del azar en la física fundamental, por lo que escribió: «La mecánica cuántica merece mucho respeto. Pero una voz interior me dice que esto no es toda la verdad. La teoría ofrece mucho, pero apenas nos acerca más al secreto del Viejo. Por mi parte, al menos, estoy convencido de que Él (Dios) no juega a los dados». La teoría de incertidumbre de Heisenberg era revolucionaria, pero funcionaba, ya que permitía explicar muchos fenómenos sorprendentes, incluidas las leyes de la química. Imaginemos lo extraña que es la teoría cuántica que el físico Michio Kaku pedía a sus alumnos que calculasen la probabilidad de que sus átomos se disolviesen repentinamente y reapareciesen al otro lado de una pared de ladrillo. Semejante evento de teleportación sería imposible según la física newtoniana, pero en cambio es posible según la física cuántica. Pero probablemente aún habrá que esperar bastante tiempo para que esto pueda efectuarse. El hecho de que los electrones puedan estar aparentemente en muchos lugares al mismo tiempo forma la base misma de la Química. Cuando los átomos colisionan, suelen formar moléculas que son perfectamente estables y comparten electrones. Toda la química que explica las moléculas del interior de nuestros cuerpos se basa en la idea de que los electrones pueden estar en muchos lugares al mismo tiempo. Y es precisamente este compartir electrones entre dos átomos lo que mantiene unidas las moléculas de nuestro cuerpo. Sin la teoría cuántica, nuestras moléculas y átomos se disolverían instantáneamente. Esta extraña propiedad de la teoría cuántica fue utilizada por Douglas Adams en su novela de ciencia-ficción Guía del autoestopista galáctico. Adams necesitaba viajar a gran velocidad a través de la galaxia, de modo que inventó un propulsor de improbabilidad infinita, «un nuevo y maravilloso método de atravesar enormes distancias interestelares en una nadería de segundo, sin toda esa tediosa complicación del hiperespacio». Su máquina permitía cambiar a voluntad las probabilidades de cualquier suceso cuántico, de modo que incluso sucesos muy improbables se hacían posibles. De esta forma, si uno quisiera saltar al sistema estelar más cercano, simplemente tendría que cambiar la probabilidad de volverse a materializar en dicho sistema estelar y se teleportaría allí al instante.

 

El problema es que los «saltos» cuánticos, tan comunes dentro del átomo, no pueden generalizarse fácilmente a objetos grandes, tales como personas, que tienen aproximadamente 6,7 x 1027 átomos. Hay tantos electrones en nuestro cuerpo que sus movimientos solo los podemos promediar, de lo que se deriva su apariencia sólida. Por consiguiente, aunque la teleportación es posible a nivel atómico, probablemente habrá que esperar bastante tiempo para presenciar estos enigmáticos efectos a una escala macroscópica. Pero, ¿podríamos crear una máquina para teleportar a demanda, como en la ciencia ficción? Lo sorprendente es que la respuesta de la Física es un sí matizado. La clave para la teleportación cuántica la podemos encontrar en un famoso artículo escrito por Albert Einstein y sus colegas Boris Podolsky y Nathan Rosen, en 1935, en que propusieron el experimento EPR, llamado así en honor de los tres científicos, con la finalidad de acabar con la utilización de la probabilidad en la física cuántica, ya que Einstein había comentado: «Cuanto más éxito tiene la teoría cuántica, más absurda parece». Se sabe que si dos electrones vibran inicialmente al unísono, un estado al que se llama coherencia, pueden permanecer en sincronización ondulatoria incluso si están separados por una gran distancia. Parece increíble, pero aunque los dos electrones puedan estar separados incluso por años luz, sigue habiendo una onda de Schrodinger invisible que los conecta, como si fuese un tipo de cordón umbilical cósmico. Por lo tanto, si algo sucede a un electrón, entonces parte de esta información es transmitida inmediatamente al otro electrón. Esto se denomina «entrelazamiento cuántico», un concepto que implica que partículas que vibran en coherencia tienen algún tipo de conexión profunda que las vincula y que se salta sorprendentemente las limitaciones de la velocidad de la luz. Esto significa que lo que nos ocurre a nosotros afecta de manera instantánea a otras cosas en lejanos confines del universo, puesto que nuestras funciones de onda probablemente estuvieron entrelazadas en el comienzo del tiempo, durante el Big Bang original. En cierto sentido hay un tipo de entrelazamiento que conecta confines lejanos del universo, incluyéndonos a nosotros. Einstein lo llamaba burlonamente «fantasmal acción a distancia» y este fenómeno le permitía «demostrar» que la teoría cuántica estaba equivocada, en su opinión, puesto que nada puede viajar más rápido que la velocidad de la luz. Originalmente, Einstein diseñó el experimento EPR para demostrar que la teoría cuántica era errónea, pero en la década de 1980, el físico experimental francés Alain Aspect y sus colegas realizaron un experimento cuyos resultados concordaban exactamente con la teoría cuántica. Pero aquí nos tenemos que preguntar si la información viajaba más rápida que la luz, con lo que tendríamos que Einstein estaba equivocado al decir que la velocidad de la luz era la velocidad límite en el universo. No obstante, parece que lo que viajaba más rápido que la velocidad de la luz era la información. Pero la información era aleatoria, y por ello inútil. No se podía enviar un mensaje real mediante el experimento EPR, incluso si la información estaba viajando más rápida que la luz. Ninguna señal que contenga información no aleatoria puede enviarse mediante este método. Pero todo ello no deja de ser bastante extraño. Porque, ¿qué entendemos por información?

 

A principios del siglo XX los físicos empezaron a investigar los entresijos de nuestro mundo material. Hasta entonces estaban habituados a representar los objetos como ondas o partículas desplazándose en el espacio y en el tiempo. Pero una vez observados de muy de cerca, la luz, los átomos o los electrones, ninguno de ellos parecía comportarse de forma tan simple. Por ejemplo, la luz, considerada hasta entonces como una onda, muestra un comportamiento digno de una partícula; y, a la inversa, el electrón que parecía una partícula se comporta a menudo como una onda. Tenemos que aceptar que las leyes que rigen la evolución de electrones, átomos, moléculas, etc…, les permiten estar relacionados más allá del espacio y del tiempo, estar en varios estados a la vez y reducirse aleatoriamente a uno cuando se les trata de observar, siguiendo leyes de probabilidad muy precisas. Pero, aunque parezca increíble, este extraño mundo cuántico es nuestro mundo real. Todo indica que la física cuántica está en condiciones de describirnos el comportamiento de toda la materia que nos rodea y forma parte de nosotros mismos. Una de de las interpretaciones surrealistas más conocidas es la propuesta en 1957 por el físico americano Hugh Everett, con el objetivo de explicar que un objeto cuántico puede estar en varios estados a la vez, pero realiza sólo uno de ellos cuando se le observa, por lo que su hipótesis es que todos los demás estados se realizan, pero en universos paralelos. Asimismo, el físico americano Christopher Fuchs nos dice que: “Nuestra labor no consiste en dar sentido a los axiomas cuánticos añadiendo por encima más estructuras, más definiciones y más imágenes de ciencia-ficción, sino en descartar todo esto y volver a empezar desde cero. Y para ello no veo otra alternativa que sumergirse en los trabajos, técnicas e implicaciones de la teoría cuántica de la información“. Y aquí entramos en un nuevo concepto básico en física: la información. A mediados de la década de 1980, algunos físicos se percataron de que las leyes cuánticas permiten manipular la información de una manera totalmente nueva. Las correlaciones o entrelazamiento a distancia entre dos objetos pueden ser vistas como un nuevo canal de información que permitiría, por ejemplo, teleportar información de un lugar a otro. Para estudiar esta nueva teoría se ha creado una nueva especialidad de la física, llamada “teoría cuántica de la información“. Entonces empezó a surgir la idea de que la información se podía utilizar como una herramienta para comprender la misma física cuántica, ya que, tal vez, la información cuántica no sería una aplicación de la teoría cuántica, sino su propio fundamento. Ello implicaría que no es el protón, electrón o la molécula lo que está representado, sino la información que puede tenerse del objeto al que nos refiramos. Pero es evidente que la información no se comporta en absoluto como la materia, ya que no tiene posición espacial ni temporal y se la puede duplicar, resumir, suprimir. Sería suficiente retomar uno a uno todos los fenómenos cuánticos que, atribuidos a la materia, parecen tan extraños, para ver que son mucho más comprensibles cuando los atribuimos a la información.

 

Una pregunta que nos podemos hacer es: ¿cómo puede un sistema estar en varios estados a la vez?. La posible respuesta sería porque las informaciones disponibles no permiten saber más exactamente en cuál estado se encuentra. Otra pregunta que nos surge es: ¿por qué una medición hace que el sistema colapse bruscamente en un determinado estado? La posible respuesta sería que la medición ha hecho evolucionar nuestro conocimiento, actualizándolo con nueva información. Asimismo, ¿cómo pueden dos sistemas estar correlacionados en el espacio y el tiempo? La posible respuesta sería que estos dos sistemas tienen características comunes y lo que descubrimos sobre uno nos informa automáticamente sobre el otro. Tal como explicaba el físico teórico y experimental austriaco Anton Zeilinger: “Si se parte del principio de que la noción fundamental de la mecánica cuántica es la información, emerge un entendimiento muy natural de los fenómenos cuánticos“. No obstante, para algunos investigadores la información es subjetiva y depende del que plantea la cuestión, mientras que, para otros, es objetiva, y existe independientemente del observador. Pero todos están de acuerdo en la facilidad con que la teoría cuántica se genera partir de esta noción de la información, que ya no se vería como una mecánica realista que describe el comportamiento de las ondas, de las partículas o de los campos, sino únicamente como una teoría que describe el comportamiento de la información. Lo que creíamos hasta ahora asociado a esta realidad estaría de hecho principalmente asociado a nuestra mirada. Para Christopher Fuchs hay que diferenciar entre lo que es información y el resto. Para el físico Jeffrey Bubb: “No es pertinente preguntarse sobre aquello de lo que habla la información. Imagina que quieres enviar un mensaje de tu ordenador al mío. Poco importa que ese mensaje contenga una imagen, un artículo en español o en japonés: lo que hay que hacer es comprimir, transferir y decodificar ese mensaje sin preocuparse de aquello a lo que hace referencia. Describir los intercambios de información, esto es lo que, a mi entender, es el nuevo y único objetivo de la física fundamental“. Por su parte, el físico Alexei Grinbaum opina que la física ya no debe ocuparse de la realidad: “La cuestión de lo que existe realmente es una creencia de los físicos; y la ciencia no debe depender de creencias. La tarea de la física es justamente el estudiar las descripciones, sin pronunciarse sobre la realidad del objeto descrito, dicha realidad puede o no existir“. En efecto, aunque todo o parte de todo lo que creíamos que era realidad no sea más que una alucinación, queda explicar porqué tiene esta apariencia y no otra. Reconstruir el tiempo, el espacio y la materia a partir de la noción primaria de información, se convierte así en la gran tarea de la nueva física.

 

Durante años el experimento EPR ha sido utilizado como ejemplo de la validez de la teoría cuántica, pero sin consecuencias prácticas. Pero todo cambió en 1993, cuando científicos de IBM, dirigidos por Charles Bennett, demostraron que era físicamente posible teleportar objetos, al menos a nivel atómico, utilizando el experimento EPR. Más exactamente, demostraron que se podía teleportar toda la información contenida dentro de una partícula. Desde entonces los físicos han sido capaces de teleportar fotones e incluso átomos de cesio enteros. Quizá en unas pocas décadas los científicos sean capaces de teleportar la primera molécula de ADN e incluso, esperemos que no, un virus. La teleportación cuántica explota algunas de las propiedades más extrañas del experimento EPR. Para explicar el experimento, supongamos que para la prueba utilizamos 3 átomos: A,B y C. El objetivo del experimento es teleportar información del átomo A al átomo C. Entonces introducimos un tercer átomo, B, que inicialmente se entrelaza con el átomo C, de modo que B y C resultan ser coherentes. Luego ponemos en contacto el átomo A con el átomo B. entonces A explora B, de modo que el contenido de la información del átomo A es transferido al átomo B, resultando en el entrelazamiento de A y B. Pero como B y C ya estaban originalmente entrelazados, la información de A habrá sido transferida al átomo C. En conclusión, la información dentro del átomo A ha sido teleportada al átomo C. Es decir, el contenido de información del átomo A ahora será idéntico al del átomo C. Pero la información dentro de A habrá sido destruida, de modo que no tenemos dos copias de A después de la teleportación, sino solo una, ahora en el átomo C. Esto significa que el original de cualquier ser u objeto hipotéticamente teleportado quedaría destruido en el proceso. Pero el contenido de la información de él aparecería en otro lugar. Es importante resaltar que el átomo A no se ha movido hasta la posición del átomo C, sino solo la información dentro de A, como su espín y polarización, se ha transferido a C. Ello no significa que el átomo A se disuelva y luego reaparezca de repente en otra localización, sino que el contenido de la información del átomo A ha sido transferido a otro átomo, C. Ya sabemos que todo ello parece un juego de magia.

 

La primera demostración histórica de teleportación cuántica, en la que se teleportaron fotones de luz ultravioleta, se llevó a cabo en 1997 en la Universidad de Innsbruck, en Austria. Al año siguiente, investigadores del Instituto de Tecnología de California (Caltech) hicieron un experimento aún más preciso mediante la teleportación de fotones. En 2004, físicos de la Universidad de Viena fueron capaces de teleportar partículas de luz a una distancia de 600 metros por debajo del río Danubio, utilizando un cable de fibra óptica, lo que establecía un nuevo récord. También en 2004, la teleportación cuántica se demostró no con fotones de luz, sino con átomos reales, lo que implicó un paso más en dirección a una teleportación más realista. Según la revista Nature, físicos del Instituto Nacional de Normas y Tecnología, en Washington D. C., consiguieron nada menos que entrelazar tres átomos de berilio y transferir las propiedades de un átomo a otro. Otro grupo también consiguió teleportar átomos de calcio. Pero en 2006 todavía se logró un avance más espectacular, que incluía por primera vez lo que podríamos llamar la teleportación de un objeto macroscópico. En efecto, físicos del Instituto Niels Bohr de Copenhague y el Instituto Max Planck en Alemania consiguieron la proeza de entrelazar un haz luminoso con un gas de átomos de cesio, una operación que involucraba la enorme cantidad de billones de átomos. Luego codificaron la información contenida en los átomos dentro de pulsos de láser y fueron capaces de teleportar esta información a átomos de cesio situados a una distancia de casi medio metro. El físico cuántico Eugene Polzik, uno de los investigadores, afirmó que «por primera vez se ha conseguido la teleportación cuántica de luz, que es la portadora de la información, y átomos». !Toda una hazaña! Como todo en la ciencia y la tecnología, que avanza con una aceleración extraordinaria, también los avances en teleportación se suceden a un ritmo cada vez más rápido. En 2007 se produjo otro avance importante, ya que los físicos propusieron un método de teleportación que no requería entrelazamiento cuántico, que es el aspecto más difícil de la teleportación cuántica. Ello podría abrir nuevas perspectivas en la teleportación. Según el físico Aston Bradley, del Centro de Excelencia para Óptica Atómica Cuántica del Consejo de Investigación Australiano, en Brisbane, que participó en el desarrollo del nuevo método de teleportación: «Estamos hablando de un haz de unas 5000 partículas que desaparecen de un lugar y reaparecen en algún otro lugar». El experimento consistió en tomar un haz de átomos de rubidio, convirtiendo toda su información en un haz de luz. Luego enviaban este haz de luz a través de un cable de fibra óptica y posteriormente reconstruían el haz de átomos original en una localización lejana. Este método podría eliminar uno de los principales obstáculos para la teleportación y probablemente abrirá nuevas perspectivas para teleportar objetos cada vez más grandes.

 

El físico Aston Bradley ha llamado a su método «teleportación clásica». La clave para este nuevo tipo de teleportación es un nuevo estado de la materia llamado un «condensado de Bose-Einstein», que es una de las sustancias más frías de todo el universo. En la naturaleza la temperatura más fría se encuentra en el espacio exterior y es de pocos grados sobre el 0 absoluto. Pero un «condensado de Bose-Einstein» está a una millonésima de milmillonésima de grado sobre el 0 absoluto, una temperatura que solo puede encontrarse en el laboratorio. Cuando ciertas formas de materia se enfrían hasta casi el cero absoluto, sus átomos se ponen en el estado de energía más baja, de modo que todos sus átomos vibran al unísono y se hacen coherentes. Las funciones de onda de todos los átomos se solapan, de manera que, en cierto sentido, un «condensado de Bose-Einstein» es como un «superátomo» gigante en donde todos los átomos individuales vibran al unísono. Este extraño estado de la materia fue predicho por Einstein y Satyendranath Bose en 1925, pero pasarían otros setenta años hasta que en 1995 se creara finalmente un «condensado de Bose-Einstein» en el laboratorio del Instituto Tecnológico de Massachusetts (MIT) y en la Universidad de Colorado. De hecho el mecanismo de teleportación de Bradley empieza con un conjunto de átomos de rubidio superfríos en un estado de «condensado de Bose-Einstein». Luego le aplican un haz de materia, formado asimismo por átomos de rubidio. Estos átomos del haz también intentan situarse en el estado de energía más baja, de modo que ceden su exceso de energía en forma de un pulso de luz. Este haz de luz es entonces enviado a través de un cable de fibra óptica. Lo notable es que el haz de luz contiene toda la información cuántica necesaria para describir el haz de materia original, tales como la posición y velocidad de todos sus átomos. Luego el haz de luz incide en otro «condensado de Bose-Einstein», que transforma el haz de luz en el haz de materia original. Este nuevo método de teleportación es muy prometedor, ya que no implica el entrelazamiento de átomos. Pero este método depende de forma crucial de las propiedades de los «condensados de Bose-Einstein», que son difíciles de crear en el laboratorio. Además, las propiedades de los «condensados de Bose-Einstein», son muy peculiares, ya que se comportan como si fueran un átomo gigantesco. En teoría, efectos cuánticos extraños, que solo vemos a nivel atómico, pueden verse a simple vista con un «condensado de Bose-Einstein», que hasta entonces se había creído era imposible.

Muy recientemente, en el 2019, científicos de Austria y China han logrado por primera vez teleportar estados cuánticos tridimensionales. Esto podría ser esencial para el futuro de los ordenadores cuánticos. En su estudio, los investigadores teleportaron el estado cuántico de un fotón a otro distante. La información cuántica que se transmite se llama cúbit, que es el análogo cuántico del bit informático. Es decir, un cúbit, como un bit, contiene la información de dos estados distintos, por ejemplo con valores ‘0’ o ‘1’. Sin embargo, los científicos lograron teleportar un estado de tres niveles, el llamado cútrit. En la física cuántica es posible que ‘0’, ‘1’ ocurran ambos simultáneamente o, incluso, algún valor intermedio, a diferencia de la informática clásica. El equipo ha demostrado en la práctica una tercera posibilidad. Desde la década de 1990 se sabe que la teleportación cuántica multidimensional es teóricamente posible. Sin embargo, los científicos tuvieron que diseñar un nuevo método experimental para realizar este experimento. El método consiste en que el estado cuántico que será teleportado se codifica en los posibles caminos que puede tomar un fotón. Podemos imaginar estos caminos como tres fibras ópticas. Pero ya sabemos que en la física cuántica un solo fotón puede ser localizado en las tres fibras ópticas al mismo tiempo. Para teleportar este estado cuántico tridimensional, los investigadores usaron un método que dirige los fotones a través de varias entradas y salidas, conectando todas las fibras ópticas entre sí. A través de una selección de ciertos patrones de interferencia, la información cuántica puede ser transferida a otro fotón alejado del fotón de entrada, sin que los dos interactúen físicamente. Pero según Manuel Erhard, uno de los investigadores, el concepto experimental no se limita a tres dimensiones, sino que puede extenderse a cualquier número de dimensiones. Este experimento representa un paso significativo hacia el futuro internet cuántico, ya que los sistemas cuánticos de dimensiones altas pueden transportar mayores cantidades de información que los cúbit. Anton Zeilinger, físico cuántico de la Academia Austriaca de Ciencias y de la Universidad de Viena, hablando sobre el potencial innovador del nuevo método nos dice que: “Este resultado podría ayudar a conectar los ordenadores cuánticos con capacidades de información más allá de los cúbits“. Los investigadores chinos también ven grandes oportunidades en la teleportación cuántica multidimensional. Jian-Wei Pan, de la Universidad de Ciencia y Tecnología de China, comenta: “El cimiento de los sistemas de redes cuánticas de próxima generación se basa en nuestra investigación actual“.

 

Ante los progresos que se han hecho, ¿podemos estimar cuándo podría ser posible teleportar personas? Los físicos creen que podrán teleportar moléculas complejas en los próximos años. Después tal vez pueda teleportarse una molécula de ADN o, incluso, una bacteria o un virus. Aparentemente, pues, no hay nada que impida teleportar a una persona real, como en las películas de ciencia ficción. Pero para ello deberemos enfrentarnos a enormes problemas técnicos. Tengamos en cuenta que, hoy en día, se necesitan algunos de los mejores laboratorios de física del mundo solo para crear coherencia entre minúsculos fotones de luz y átomos individuales. Crear coherencia cuántica que implique a objetos macroscópicos, tales como una persona, se cree que todavía deberá esperar un largo tiempo. Pero, como ya hemos dicho, la evolución tecnológica se está acelerando cada vez más. Ahora bien, en última instancia la teleportación cuántica está íntimamente vinculada con el desarrollo de ordenadores cuánticos, ya que los dos utilizan la misma física cuántica y la misma tecnología. Los ordenadores cuánticos podrían reemplazar algún día al ordenador digital que tenemos en nuestra mesa de trabajo. De hecho, el futuro de la economía mundial podría depender en el futuro de tales ordenadores y, por ello, hay un enorme interés comercial en estas tecnologías. Los ordenadores digitales actuales computan en un sistema binario de 0 y 1, llamados bits. Pero los ordenadores cuánticos son mucho más potentes. Pueden computar con qubits, que pueden tomar valores entre 0 y 1. En el extraño mundo cuántico todo objeto está descrito por la suma de todos los estados posibles. Pero los ordenadores cuánticos están aún en sus inicios. En 2019 IBM ha lanzado el ordenador cuántico comercial más potente del mundo. Dispondrá de 53 cúbits (bits cuánticos), casi el triple de los que tiene su antecesor. Pero con este nuevo ordenador IBM aún está por detrás de Google, que cuenta con un ordenador cuántico de 72 cúbits, pero que no está a disposición de terceros. Pero, tanto en lo que respecta a la teleportación cuántica como a los ordenadores cuánticos, se debe mantener la coherencia de grandes conjuntos de átomos, con el consiguiente consumo energético y producción de calor, por lo que necesitan utilizar grandes sistemas de refrigeración.

 

Si se pudiera resolver el problema de la coherencia, no solo se podría resolver el reto de la teleportación, sino que también podría avanzarse en todo tipo de tecnologías mediante los ordenadores cuánticos. Pero es extraordinariamente difícil mantener la coherencia en el laboratorio, ya que la más mínima vibración podría afectar a la coherencia de dos átomos y destruir la computación. Actualmente es muy difícil mantener la coherencia en más de solo un puñado de átomos. Los átomos empiezan a tener una falta de coherencia en cuestión de, como máximo, un segundo. Por ello la teleportación debería hacerse muy rápidamente, antes de que los átomos empiecen a sufrir falta de coherencia, lo que supone otra restricción para la computación cuántica y la teleportación. Pero, a pesar de tantas dificultades, el físico David Deutsch, de la Universidad de Oxford y miembro de la Royal Society, cree que estos problemas pueden superarse. Para construir un ordenador cuántico útil se necesitan tener de cientos a millones de átomos vibrando al unísono, lo que es una verdadera hazaña tecnológica. Pero para teleportar a una persona tendríamos que crear un entrelazamiento cuántico con un “gemelo” de dicha persona. Incluso usando nanotecnología y ordenadores muy avanzados sería extremamente complicado. Vemos pues que la teleportación actual puede efectuarse a nivel atómico e hipotéticamente podríamos teleportar moléculas complejas en fechas próximas. Pero la teleportación de un objeto macroscópico, como una persona, parece que aún tendrá que esperar cierto tiempo. !Pero no es imposible según la física cuántica!

 

El famoso premio Nobel en Física, Richard Feynman, nos dice que “Los principios de la física, hasta donde yo sé, no dicen nada en contra de manipular las cosas átomo por átomo“. A lo que podemos añadir lo dicho por otro premio Nobel, Horst Stormer: “La nanotecnología nos ha dado las herramientas precisas para jugar con el cajón de los juguetes fundamentales y últimos de la naturaleza: los átomos y las moléculas. Todo está hecho con átomos y moléculas, y las posibilidades de crear cosas nuevas son ilimitadas“. Aquí tenemos otra de las posibles revoluciones tecnológicas del siglo XXI. Estamos en el camino de conseguir un nuevo tipo de herramienta mucho más poderosa que cualquier otra que hayamos conocido en el pasado. Se trata nada menos que de manejar los propios átomos, que son la base de todo lo existente en nuestro universo. Estamos hablando de la nanotecnología, que nos permitirá manipular los átomos de uno en uno. Esto podría iniciar una nueva revolución industrial, ya que la fabricación molecular permitirá crear nuevos materiales resistente, ligeros y con unas propiedades eléctricas y magnéticas extraordinarias, que cambiarían el mundo en que vivimos. Otro premio Nobel, Richard Smalley afirma que: «El grandioso sueño de la nanotecnología es poder construir con los átomos como si estos fueran ladrillos». A lo que el investigador e inventor Philip Kuekes, de Hewlett-Packard, añade: «En definitiva, el objetivo no se reduce solo a hacer ordenadores del tamaño de partículas de polvo. La idea sería hacer ordenadores sencillos del tamaño de las bacterias. De este modo, podríamos tener dentro de una partícula de polvo algo tan poderoso como lo que tenemos ahora encima de la mesa». El Informe sobre Nanotecnología de la Fundación Nacional de la Ciencia, emitido por el gobierno norteamericano, afirma: «La nanotecnología tiene el potencial de mejorar el rendimiento humano, aportar un desarrollo sostenible en relación con materiales, agua, energía y alimentos, proteger contra bacterias y virus desconocidos…». La nanotecnología podría también permitir crear cualquier cosa a partir de prácticamente la nada, como si fuésemos los dioses de la antigüedad. Richard Feynman se preguntaba cómo de pequeña podríamos hacer una máquina. En una conferencia dada en 1959 ante la Sociedad Norteamericana de Física, con el título «There’s Plenty of Room at the Bottom», Feynman dijo de manera premonitoria: «Es interesante la idea de que, en principio, un físico tendría la posibilidad (según creo yo) de sintetizar cualquier sustancia química que un químico prescribiera. Haga usted el encargo y el físico lo sintetiza. ¿Cómo? Es cuestión de colocar los átomos donde diga el químico, y así se hace la sustancia demandada». Feynman creía que era posible fabricar máquinas a partir de átomos tomados de uno en uno, pero las nuevas leyes de la física cuántica planteaban dificultades para la creación de dichas máquinas.

 

Feynman señaló que también hay otras fuerzas que actúan a escala del átomo, tales como el enlace por puente de hidrógeno y las fuerzas de Van der Waals, que son generadas por las diminutas fuerzas eléctricas que existen entre los átomos y las moléculas. De hecho muchas de las propiedades físicas de las sustancias están determinadas por estas fuerzas. Además de la tensión superficial, el enlace de hidrógeno y las fuerzas de Van der Waals, existen también unos curiosos efectos cuánticos a escala del átomo, aunque en nuestra vida cotidiana no veamos cómo funcionan dichas fuerzas cuánticas. Pero estas fuerzas cuánticas están por todas partes. Y puesto que los átomos en gran medida están vacíos, tendríamos que poder atravesar las paredes, ya que entre el núcleo, que ocupa el centro del átomo, y las capas de electrones no hay más que un vacío. Si el átomo tuviera el tamaño de un campo de fútbol, lo veríamos vacio, ya que el núcleo del átomo tendría el tamaño de un grano de arena. Pero nos podemos preguntar: si lo que predomina es el espacio vacío, a que se debe que no podamos atravesar las paredes. ¿Por qué no podemos atravesar los objetos sólidos, como se supone hacen los fantasmas? Esta imposibilidad se basa en un curioso fenómeno cuántico. Se trata del principio de exclusión de Pauli, que nos dice que no existen dos electrones que se encuentren en el mismo estado cuántico. Por consiguiente, cuando dos electrones casi idénticos se acercan demasiado el uno al otro, se produce una repulsión mutua. Esta es la razón por la que los objetos parecen sólidos, aunque solo se trata de una ilusión. En realidad, por sorprendente que parezca, la materia está básicamente vacía. Cuando estamos tendidos en una cama, creemos que la tocamos, pero en realidad estamos suspendidos sobre ella porque las fuerzas eléctricas y cuánticas de la cama nos repelen. Esto quiere decir que, cuando tenemos la sensación de estar tocando algo, en realidad no estamos en contacto directo con ello, sino separados por esas pequeñas fuerzas atómicas. Pero, en cambio, todo indica que los fantasmas o los cuerpos astrales, como parecen indicar las experiencias cercanas a la muerte o las experiencias extracorpóreas, sí pueden atravesar paredes. Ello implica que si fuésemos capaces de neutralizar de algún modo el principio de exclusión de Pauli, seríamos capaces de atravesar las paredes. Pero aún no sabemos cómo hacerlo. No obstante, la teoría cuántica no solo impide que los átomos choquen y se atraviesen los unos a los otros, sino que también los une para que formen moléculas. Como analogía podemos considerar, con las correspondientes diferencias, que un átomo es como un diminuto sistema solar, con los planetas girando en torno a un sol. Si dos de estos sistemas solares chocaran, los planetas también chocarían unos con otros, destruyendo ambos sistemas solares. Asimismo, los átomos se destruirían al chocar uno con otro.

 

La experimentación confirma que cuando dos átomos se aproximan demasiado, o bien se repelen mutuamente, o bien se combinan para formar una molécula estable. La razón por la que los átomos tienen la posibilidad de formar moléculas estables es que dos átomos pueden compartir electrones. Sin embargo, a causa del principio de incertidumbre de Heisenberg, nunca sabemos con exactitud dónde se encuentra un electrón. Pero un determinado electrón circula entre dos átomos y los mantiene unidos, formando una molécula. Si no se cumpliese la teoría cuántica nuestras moléculas se desharían al chocar unas con otras. Vemos pues que la teoría cuántica explica por qué los átomos pueden unirse para formar la materia sólida, las moléculas, en vez de desintegrarse. Pero, a pesar de su similitud, las reglas que gobiernan los átomos son muy diferentes de las que gobiernan las galaxias. Albert Einstein dijo en una ocasión: «Cuanto más acertada es la teoría cuántica, más absurda parece». En efecto, la teoría cuántica nos dice, entre otras cosas, que es imposible conocer la velocidad y la ubicación exactas de cualquier partícula, por lo que siempre hay incertidumbre. También nos dice que, en cierto sentido, una partícula puede estar en dos lugares a la vez. Por si no fuera suficiente, también nos dice que podemos desaparecer y luego reaparecer en algún otro lugar. De hecho, ningún científico sabe de dónde vienen esa extraña teoría cuántica, descubierta por el genial físico y matemático alemán, además de premio Nobel, Max Karl Ernst Ludwig Planck (1858 – 1947), que también fue el creador de la denominada constante de Planck, usada para calcular la energía de un fotón. A pesar de ser totalmente contra intuitiva  y misteriosa, la precisión de la teoría cuántica se ha medido hasta una diezmilmillonésima, lo que la convierte en la teoría física más verificada de todos los tiempos. No obstante, la razón por la que no percibimos estos increíbles fenómenos en la vida cotidiana es que, por ejemplo, un cuerpo humano está compuesto por unos 6,7 * 1027 átomos de hidrógeno, oxígeno, carbono, nitrógeno, calcio, fósforo, cloro y potasio, y que el efecto que estos átomos producen es aproximadamente una media de los que producen todos y cada uno de ellos.

En 1959 Richard Feynman esperaba que llegase el día en que se pudiese crear cualquier molécula, átomo a átomo, lo que en aquel tiempo parecía imposible. Pero actualmente ya es una realidad, aunque en sus fases iniciales. Actualmente no solo podemos ver los átomos, sino que podemos manejarlos usando pinzas atómicas y el microscopio de efecto túnel, un instrumento para tomar imágenes de superficies a nivel atómico. Con su alta resolución, los átomos individuales dentro de los materiales pueden ser visualizados y manipulados. Utilizando una aguja del tamaño de un átomo, el microscopio no solo es capaz de registrar los átomos, sino también de moverlos. De este modo, ya actualmente pueden formarse letras e incluso diseñar aparatos fabricados con átomos. También se ha inventado el microscopio de fuerza atómica, que puede darnos unas sorprendentes imágenes tridimensionales de conjuntos de átomos. Este microscopio también utiliza una aguja con una punta muy fina, pero proyecta un rayo láser sobre ella. Al pasar sobre el material que se está estudiando, la aguja oscila, y este movimiento es registrado por la imagen obtenida por el rayo láser. El físico Michio Kaku nos explica una extraordinaria experiencia que tuvo, propia de la ciencia-ficción: “Me pareció que mover de aquí para allá los átomos individualmente resultaba bastante sencillo. Yo estaba sentado frente a una pantalla de ordenador, mirando una serie de esferas blancas, cada una de las cuales se parecía a una pelota de pingpong de unos dos centímetros y medio de diámetro. En realidad, cada bola era un átomo. Coloqué el cursor sobre uno de aquellos átomos y luego lo moví a otra posición. Pulsé la tecla que activaba la aguja para que esta moviera el átomo. El microscopio volvió a escanear la sustancia en cuestión. La pantalla cambió, mostrando que la bola se había movido exactamente al lugar donde yo deseaba que estuviese. El proceso completo de mover cada átomo a la posición deseada tardaba solo un minuto. De hecho, en unos treinta minutos descubrí que podía formar algunas letras que aparecían en la pantalla y que estaban hechas de átomos individuales. Al cabo de una hora logré hacer dibujos bastante complejos en los que intervenían unos diez átomos. Me costó recuperarme de la impresión que me produjo la experiencia de mover átomos realmente, algo que en otro tiempo se había considerado imposible“. Llegará un momento en que átomo a átomo, y utilizando un ordenador, podremos crear cualquier objeto que deseemos desde nuestra propia casa.

 

Aunque la nanotecnología aún está en sus inicios, ya ha producido distintas utilizaciones prácticas, como en la industria de recubrimientos químicos. Pero lo que destaca más es una nueva industria que factura ya actualmente decenas de miles de millones de dólares en todo el mundo. Se trata de la industria de los sistemas micro-electro-mecánicos (MEMS), que incluye cartuchos de inyección de tinta, sensores de airbag, pantallas luminosas, o giroscopios para coches y aviones. Los MEMS son aparatos tan pequeños que pueden encajar en la punta de una aguja. Se fabrican usando la misma tecnología de grabado que se utiliza en la fabricación de ordenadores. Pero en vez de grabar transistores se graban unos diminutos componentes mecánicos, tan pequeños que se necesita un microscopio para poderlos ver. En el año 2000, unos científicos del Laboratorio IBM en Zurich crearon una versión atómica del ábaco manipulando átomos con un microscopio de efecto túnel. El ábaco atómico usaba átomos de carbono organizados para constituir una molécula cuya forma es como la de un balón de fútbol y cuyo tamaño es miles de veces menor que el diámetro de un pelo humano. Pero la aplicación práctica más extendida de esta tecnología la hallamos en los modernos airbags de los coches, que contienen diminutos acelerómetros MEM capaces de detectar un frenado repentino del coche. El acelerómetro MEM está formado por una bola microscópica unida a un muelle o a una palanca. Cuando frenamos bruscamente, la deceleración repentina produce una sacudida en la bola, cuyo movimiento genera una diminuta carga eléctrica. Esta carga desencadena entonces una explosión química que libera grandes cantidades de gas nitrógeno en 1/25 de segundo, que pueden salvar muchas vidas.

 

Ya se vislumbra una nueva variedad de nano-dispositivos que circulen por el flujo sanguíneo y que puedan revolucionar la medicina. En la película El viaje fantástico se narra la historia fantástica de un viaje al interior del cuerpo humano con un submarino tripulado que ha sido reducido de tamaño, junto a sus tripulantes, en el Centro de Miniaturización Norteamericano. En esta película la Unión Soviética y los Estados Unidos han desarrollado la tecnología necesaria para disminuir los objetos de tamaño, pero el valor de estos hallazgos es limitado, pues después de un plazo de 60 minutos vuelven a su tamaño original. El científico Jan Benes ha averiguado cómo conseguir que la duración del efecto sea ilimitada en el tiempo, pero como consecuencia de un intento de asesinato ha quedado en situación de coma por un hematoma cerebral. Para salvar su vida, un equipo formado por Charles Grant, el capitán y piloto Bill Owens, el doctor Michaels, el cirujano Peter Duval y su ayudante Cora Peterson forman la tripulación de un submarino nuclear llamado Proteus que fue diseñado primitivamente para exploraciones oceánicas. El submarino y su tripulación son reducidos de tamaño e introducidos en el torrente sanguíneo de Jan Benes. Allí disponen de una hora para alcanzar los tejidos dañados del cerebro y lograr su curación antes de volver a su tamaño natural. Sufren diferentes peripecias a lo largo de su recorrido por el interior del cuerpo humano, ya que la ruta prevista inicialmente se ve alterada por la presencia de una fístula artero-venosa que los obliga a atravesar el corazón y los pulmones antes de alcanzar su destino. Finalmente logran su objetivo y salen del cerebro siguiendo el trayecto del nervio óptico y alcanzando el exterior en las inmediaciones del ojo instantes antes de que finalizara el plazo previsto. Uno de los objetivos de la nanotecnología es crear un tipo de cazadores moleculares que acudan velozmente a las células cancerosas y las destruyan limpiamente, dejando las células normales intactas. Ya en el año 1992, el profesor Jerome Schentag, de la Universidad de Buffalo, inventó la píldora inteligente, que es un diminuto instrumento del tamaño de una píldora, que tragamos y al que se puede hacer un seguimiento electrónicamente. Entonces se le dan instrucciones para que suministre medicamentos en el lugar adecuado. Asimismo ya se han fabricado píldoras inteligentes que contienen cámaras de televisión para fotografiar el interior del cuerpo a medida que bajan por el estómago y el intestino. También se pueden utilizar imanes para guiar a estas píldoras. De esta manera, el dispositivo en cuestión puede buscar todo tipo de tumores, posibilitando operaciones de cirugía menor, en que se pueda extirpar el tumor, o bien haciendo biopsias desde el interior, sin necesidad de seccionar la piel.

 

Pero aún se puede ir más lejos y utilizar un dispositivo de tamaño mucho menor, como sería la nanopartícula, que es una molécula que puede liberar medicamentos contra, por ejemplo, el cáncer, en base a un objetivo específico, lo que revolucionaría con toda seguridad los tratamientos oncológicos. Estas nanopartículas pueden compararse con una bomba molecular inteligente, diseñada para incidir en un objetivo específico cargada con una carga química, reduciendo así considerablemente los efectos secundarios del proceso. Mientras que una bomba no inteligente incide en todo, incluidas las células sanas, como sucede con los terribles efectos secundario de la quimioterapia, las bombas inteligentes son selectivas y se dirigen con precisión a las células cancerosas. Algunos medicamentos, como los de la quimioterapia, se pondrán dentro de una molécula configurada como una nanopartícula, que se pondría en circulación en el flujo sanguíneo, hasta que encontrara su objetivo y allí se liberaría el medicamento. Un aspecto importante de estas nanopartículas es su tamaño: entre 10 y 100 nanómetros, que es demasiado grande para que pueda penetrar y dañar los glóbulos rojos normales. Pero las células cancerosas tienen sus paredes llenas de grandes poros irregulares. Por ello, las nanopartículas pueden entrar en el interior de las células cancerosas y depositar allí su medicamento, dejando intactos los tejidos sanos. Lo positivo de este procedimiento es que no requiere métodos complicados o peligrosos que podrían producir graves efectos secundarios. Estas nanopartículas son demasiado grandes para atacar a las células normales, pero son adecuadas para penetrar en las células cancerosas. Otro sistema de guía de la nanopartícula son los péptidos que la recubren y la vinculan específicamente con la célula que es su objetivo. Estas nanopartículas se formarían por sí mismas, sin requerir fábricas o laboratorios químicos complicados. Los distintos compuestos químicos se mezclan entre sí lentamente, en la sucesión adecuada, en condiciones muy controladas, y las nanopartículas se ensamblan por sí mismas. Estas nanopartículas han demostrado ya que son efectivas contra tumores de próstata, mama y pulmón en las ratas. Además, utilizando tintes de colores es posible comprobar que las nanopartículas se acumulan en los órganos en cuestión, liberando su carga del modo deseado.

 

Pero estas nanopartículas no solo pueden ir en búsqueda de células cancerosas y depositar los medicamentos para destruirlas, sino que las pueden destruir al instante. Ello es debido a que estas nanopartículas pueden absorber luz de una determinada frecuencia. Si se proyecta un láser sobre ellas, se calientan y vibran, destruyendo todas las células cancerosas que haya en su proximidad, ya que rompen las paredes de dichas células. Ello implica  que las nanopartículas deben acercarse de alguna manera a las células cancerosas. Una técnica para ello consiste en hacer que estas nanopartículas se hagan transportar por anticuerpos hasta las células cancerosas. Entonces se enciende durante cinco minutos una luz blanca que calienta y finalmente destruye las células cancerosas. Otra técnica consiste en unos diminutos discos magnéticos que pueden vibrar violentamente. Una vez que estos discos son llevados hasta las células cancerosas, se puede crear un pequeño campo magnético externo que les hace agitarse y, como consecuencia, rasgar las paredes de las células cancerosas. Por ejemplo, unos científicos de la Universidad de California en Santa Cruz han desarrollado un sistema del mismo tipo utilizando nanopartículas de oro. Estas partículas tienen un diámetro de entre 20 y 70 nanómetros, que representa un espesor de unos pocos átomos, y están dispuestas formando una esfera. Los científicos utilizaron un péptido del que se sabe que es atraído por las células del cáncer de piel. Los péptidos son un tipo de moléculas formadas por la unión de varios aminoácidos mediante enlaces peptídicos. Los péptidos, al igual que las proteínas, están presentes en la naturaleza y son responsables de un gran número de funciones, muchas de las cuales todavía no se conocen. La unión de un bajo número de aminoácidos da lugar a un péptido, y si el número es alto, a una proteína, aunque los límites entre ambos no están claramente definidos. Entonces los científicos provocaron que este péptido se incorporara a las nanopartículas de oro, que luego fueron llevadas hasta las células del cáncer de piel en ratones. Luego, proyectando un láser de infrarrojos, estas partículas de oro calentaban las células tumorales hasta destruirlas. Según Jin Zhang, uno de los investigadores: «Básicamente es como poner una célula cancerosa en agua caliente y hervirla hasta matarla. Cuanto más calor generan las nanoesferas metálicas, mejor es el resultado». Vemos que en el futuro la nanotecnología podrá detectar las colonias de células cancerosas mucho antes de que puedan formar un tumor, y podrán utilizarse unas nanopartículas que circularán por nuestra sangre con el objetivo de destruir esas células.

 

Pero no termina aquí el uso de nanopartículas, sino que el siguiente paso es crear nanovehículos, dispositivos que puedan guiarse en su viaje por el interior del cuerpo, algo como lo descrito en El viaje fantástico. Mientras las nanopartículas pueden viajar libremente por el flujo sanguíneo, estos nanovehículos serían un tipo de robot teledirigido, pudiendo ser pilotados por control remoto. Uno de los objetivos futuros de las investigaciones en este terreno es diseñar un vehículo molecular que pueda empujar a un diminuto robot por todo el flujo sanguíneo, buscando células cancerosas y depositando medicamentos en ubicaciones precisas en el interior del cuerpo. Pero una dificultad que tienen estos nanovehículos es que no tienen motor. En efecto, hasta ahora los científicos han creado máquinas moleculares cada vez más sofisticadas, pero uno de los obstáculos más importantes ha sido poder crear una fuente molecular de energía. La naturaleza ha resuelto este problema utilizando la molécula de adenosina trifosfato (ATP) como fuente de energía. La adenosina trifosfato (ATP) fue hallada por primera vez en el músculo humano en 1929 y en los Estados Unidos por Cyrus H. Fiske y Yellapragada Subbarao, e independientemente, en Alemania, por Karl Lohman. Sin embargo, hasta diez años más tarde no empezó a reconocerse el papel central del ATP en la transferencia de energía. En 1941, Fritz Lipmann, Premio Nobel en 1953, ayudado por las contribuciones de Herman Kalckar, apuntó la hipótesis de la naturaleza cíclica del papel del ATP en los procesos bioenergéticos, escribiendo: “No se pueden dar respuestas definidas a la pregunta de cómo opera el alto potencial del grupo fosfato como promotor de varios procesos, si bien solo se puede reconocer una interconexión más o menos estrecha con el recambio del fosfato. El ciclo metabólico es comparable a una máquina que genera corriente eléctrica. De hecho, parece que en la organización celular, la «corriente» de fosfato juega un papel similar al de corriente eléctrica en la vida de los seres humanos. Y es también una forma de energía utilizada para todos los fines“. Vemos pues que la energía del ATP hace posible la vida y cada segundo proporciona energía para nuestros movimientos musculares. Esta energía del ATP se almacena en un enlace químico entre sus átomos. Sin embargo, se ha comprobado que es difícil crear una alternativa sintética del ATP.

Ante la dificultad de crear una réplica sintética del ATP, Thomas Mallouk y Ayusman Sen, de la Universidad del Estado de Pensilvania, crearon un nanovehículo que puede moverse a decenas de micras por segundo, que es la velocidad que consiguen la mayoría de las bacterias. Primero crearon una nanobarra, unas estructuras a nanoescala que tienen forma de espigas largas, compuesta de oro y platino, del tamaño de una bacteria. Lugo colocaron esta nanobarra en una mezcla de agua y peróxido de hidrógeno. Esto produjo en cada extremo de la nanobarra una reacción química que hizo que los protones se desplazaran de un extremo a otro. Dado que los protones ejercen un empuje contra las cargas eléctricas de la molécula de agua, esto propulsaba la nanobarra hacia delante, mientras hubiese peróxido de hidrógeno en el agua. Pero también era posible dirigir estas nanobarras mediante el magnetismo. Empotrando discos de níquel en el interior de estas nanobarras, actuaban como la aguja de una brújula. Por ello, moviendo un pequeño imán cerca de las nanobarras, se podían guiar hacia la dirección que se quisiera. Otro modo de guiar un nanovehículo molecular es utilizar una luz de flash. La luz puede romper las moléculas descomponiéndolas en iones positivos y negativos. Estos dos tipos de iones se propagan a través del medio a velocidades diferentes, lo cual genera un campo eléctrico. Entonces el nanovehículo molecular es atraído por estos campos eléctricos. De esta manera, apuntando con la luz de flash es posible dirigir el nanovehículo molecular en la dirección que queremos. No obstante, hay otra técnica que consiste en utilizar los flagelos de las bacterias ordinarias para propulsar un diminuto chip por el flujo sanguíneo. El flagelo bacteriano es una estructura filamentosa que sirve para impulsar la célula bacteriana. Tiene una estructura única, completamente diferente de los demás sistemas presentes en otros organismos, como los cilios y flagelos eucariotas, y los flagelos de las arqueas. Presenta una similitud notable con los sistemas mecánicos artificiales, pues es una compleja estructura compuesta de varios elementos, o piezas, y que rota como una hélice. Hasta ahora, los científicos han sido incapaces de fabricar un nanomotor atómico como el descubierto en los flagelos de las bacterias. Sylvain Martel, del Laboratorio de Nanorobótica de la École Polytechnique de Montreal, se hacía la siguiente pregunta: “Si la nanotecnología no ha podido fabricar estos flagelos diminutos, ¿por qué no utilizar unos flagelos de bacterias vivas?

 

El Laboratorio de Nanorobótica de la École Polytechnique de Montreal ha publicado un extraordinario vídeo donde aparece un numeroso grupo de bacterias moviéndose organizadamente para construir una estructura compleja, en este caso una pirámide, siguiendo las órdenes de unos investigadores canadienses. Aunque parezca ciencia ficción, estos investigadores han logrado que un ejército de bacterias se ponga a sus órdenes y hagan lo que se les pide desde un ordenador y mediante campos magnéticos. Normalmente este tipo de tareas son realizadas por nanobots, que son unos pequeños dispositivos del tamaño de un microbio, que son muy costosos de producir. Pero Sylvain Martel, el líder del grupo de investigación, ha encontrado en la naturaleza las criaturas ideales para estas tareas. El descubrimiento puede tener importantes repercusiones en los campos de la medicina y la nanotecnología. Los investigadores han escogido unas bacterias llamadas magnetotácticas, cuya particular característica consiste en que poseen unos orgánulos denominados magnetosomas que actúan como si fuera una brújula, respondiendo ante los campos magnéticos y haciendo que los microorganismos se muevan en la dirección que marca el campo magnético. Los científicos canadienses han descubierto una manera de dirigir estos organismos gracias a esa peculiaridad. Para ello han programado un ordenador que sea capaz de manipular campos magnéticos, consiguiendo que las bacterias se muevan al dictado de los investigadores. Ya antes habían conseguido movilizar a estas bacterias, pero ahora han ido más allá y han obligado a las bacterias a construir una pirámide con diminutos bloques de resina epoxi, o poliepóxido, que es un polímero termoestable que se endurece cuando se mezcla con un agente catalizador o endurecedor. Estos bloques de epoxi han sido diseñados para el experimento y han resultado ser ideales para esta tarea. En el vídeo se puede observar cómo, poco a poco, un organizado grupo de 5000 bacterias utilizan conjuntamente sus flagelos para mover los pequeños bloques y colocarlos en una estructura piramidal perfectamente ejecutada. La fuerza que es capaz de ejercer una bacteria es muy pequeña, pero, cuando se unen muchas bacterias los resultados son sorprendentes. Este uso de bacterias “amaestradas“, puede ser de gran utilidad para la medicina, puesto que esta manera de utilizar bacterias a nuestro favor tal vez ayude a tratar enfermedades como el cáncer. El profesor Martel también hizo desplazar las bacterias por el flujo sanguíneo de una rata, como una prueba de que . podrán utilizar este tipo de bacterias como un sistema de propulsión que lleve a los nanobots del futuro hasta las zonas del cuerpo humano que precisen de tratamiento. La técnica de Martel consistió en crear un chip informático menor que el tamaño de un punto en un texto. Luego cultivó una remesa de bacterias. A continuación logró colocar unas ochenta de estas bacterias detrás del chip, de modo que actuaran como propulsores para empujar el chip hacia delante. Dado que las bacterias eran susceptibles a un campo magnético, Martel pudo usar imanes externos para guiarlas hacia donde quisiera que se dirigieran.

 

Vemos pues que, a no tardar, unos robots moleculares, utilizando los propulsores adecuados, patrullarán por nuestro flujo sanguíneo, buscando e identificando células cancerosas y agentes patógenos, lo que implicará una verdadera revolución en la medicina. Podemos imaginar un futuro en el que incluso la cirugía sea sustituida por nanorobots, o nanobots, moleculares que se desplacen, guiados por imanes, a través del flujo sanguíneo hasta alcanzar un órgano enfermo y allí liberar medicamentos o realizar la oportuna cirugía. Esto haría que no fuese necesario hacer incisiones en la piel. Asimismo, mediante unos imanes podría guiarse estos nanorobots a fin de eliminar algún bloqueo en las arterias. En el futuro todo indica que llevaremos diminutos sensores en la ropa y el cuerpo, con el fin de monitorizar constantemente nuestra salud y detectar enfermedades antes de que estas se conviertan en un peligro. Para ello será clave el llamado chip de ADN, que sería como una especie de laboratorio en un chip. Mediante la misma tecnología de grabado que se utiliza para fabricar los chips informáticos, será posible grabar un chip en el que haya instalaciones microscópicas que puedan detectar secuencias específicas de ADN o de células cancerosas. Utilizando la tecnología de grabado de transistores, pueden encajarse unos fragmentos de ADN dentro del chip. Cuando ciertos fluidos pasen sobre el chip, estos fragmentos de ADN podrán unirse a secuencias específicas de genes. Luego, utilizando un rayo láser, se podrá escanear rápidamente toda la zona e identificar esos genes. De este modo, no será preciso examinar todos los genes de uno en uno, como se hacía antes, sino que pueden escanearse por millares. Se piensa que todo el equipo necesario para analizar este chip de ADN se reducirá al tamaño de un teléfono móvil. Este laboratorio ubicado en un chip hará que podamos reducir cualquier laboratorio químico de un hospital o una universidad a un solo chip que podremos utilizar en nuestros cuartos de baño. Esperemos que esta tecnología no se utilice en contra de los seres humanos.

 

En Estados Unidos, hospitales, universidades y centros de investigación ya utilizan biochips, que permiten analizar rápidamente el genoma completo de cada paciente, por lo que abren la puerta a una medicina personalizada. La formación de un tumor es debida a una compleja sucesión de alteraciones genéticas en una célula, lo que causa que prolifere indebidamente. Tanto la combinación de estas alteraciones genéticas como su interacción con el resto de genes marcan la conducta futura del cáncer, ya que en los genes está registrado el ritmo de crecimiento del cáncer, la expansión a otros órganos o las resistencias que ofrecerá a los tratamientos,. De ahí la importancia de poder leer esta información genética a fin de que el médico pueda establecer cuál es el mejor tratamiento para un determinado tumor en un paciente concreto. Los biochips son una especie de diccionarios donde se puede comparar si están correctamente escritas las órdenes genéticas o si, por el contrario, hay alteraciones que provocan el desarrollo de un tumor. Estos biochips constan de una placa de unos pocos centímetros cuadrados que contiene miles de genes de referencia ordenados e identificados por su posición. Al bañar un biochip con los genes de un paciente, éstos se unen a los de referencia, de forma que se detectan las mutaciones genéticas y se puede determinar si se corresponde a una enfermedad o a una malformación. Algunos de los trabajos relativos al cáncer se han dirigido principalmente al estudio de la leucemia. Para ello, un biochip desarrollado por la empresa Affymetrix se emplea en discernir entre dos tipos de leucemia aguda, en un proceso prácticamente instantáneo que con tecnología convencional duraría unas dos semanas. La búsqueda de tratamientos personalizados para tumores centra los trabajos que coordina John Weinstein, del Instituto Nacional del Cáncer de Estados Unidos. Uno de ellos consiste en emplear los biochips en el análisis de células sanas y cancerosas, para determinar de esta forma las diferencias genéticas existentes entre ambas. Weinstein se refirió a otro trabajo que compara el ADN de distintos tipos de tumores y su respuesta a tratamientos similares. El objetivo es localizar resistencias a fármacos y evitar así medicaciones excesivamente tóxicas que no resultan efectivas.

 

La Universidad de California, en San Diego, es otro de los centros donde se emplean biochips contra el sida. Los trabajos intentan determinar el tipo exacto del virus que afecta a cada paciente y la naturaleza genética de los infectados. El objetivo es diseñar medicaciones personalizadas que combatan de forma eficaz al virus y que la medicación se adapte al perfil genético del paciente. Andrei Mirzabekov, director del Instituto Engelhart de Biología Molecular de la Academia Rusa de Ciencias, de Moscú, experto en combatir la tuberculosis, considera que es complicado hacerlo debido a la gran capacidad de mutación del bacilo de Koch. La identificación rápida de las mutaciones del bacilo mediante biochips ofrece la posibilidad de reaccionar rápidamente en la elaboración de medicamentos efectivos. La utilidad del biochip abarca desde el diagnóstico hasta el tratamiento, ya que cuanto más se avance en la identificación de genes relacionados con enfermedades, mayor capacidad predictiva tendrá la medicina. Prácticamente se han descrito todos los 50.000 genes estimados que forman el genoma humano, aunque en muchos de ellos su función todavía es un misterio. Los biochips son una herramienta fundamental de la genómica, la nueva ciencia que posibilita el análisis conjunto de los genes de cada individuo. Esta tecnología está permitiendo descender al nivel molecular para comprender como se desencadenan determinadas enfermedades, lo que está permitiendo, según dice Thomas Gingeras, vicepresidente de la compañía Affymetrix, pionera en el desarrollo de los biochips, “conocer la naturaleza y origen de determinadas enfermedades“. Gran parte de los estudios que emplean los biochips se centran en análisis genéticos del ADN, aprovechando los descubrimientos relativos a la identificación del genoma. Sin embargo, la tecnología basada en los biochips también permite analizar las proteínas codificadas por los genes. Si el genoma es el libro de instrucciones generales que determina cómo tienen que actuar las células del cuerpo humano, las proteínas son las encargadas de ejecutar estas órdenes.

 

Pero el estudio de las proteínas presenta mayores complicaciones que el estudio del ADN. Mientras que el ADN está compuesto por la combinación de cuatro bases o letras químicas, las proteínas están compuestas de unos 20 aminoácidos diferentes. Además, el mismo ADN está en todas las células, lo que facilita su exploración, frente a la situación de las proteínas, que sólo están presentes en determinadas células y en fases de desarrollo concretas. Las proteínas son moléculas formadas por aminoácidos que están unidos por un tipo de enlaces conocidos como enlaces peptídicos. El orden y la disposición de los aminoácidos dependen del código genético de cada persona. Todas las proteínas están compuestas por carbono, hidrógeno, oxígeno y nitrógeno. Y la mayoría contiene además azufre y fósforo. Las proteínas suponen aproximadamente la mitad del peso de los tejidos del organismo y están presentes en todas las células del cuerpo, además de participar en prácticamente todos los procesos biológicos que se producen. De entre todas las biomoléculas, las proteínas desempeñan un papel fundamental en el organismo. Son esenciales para el crecimiento, gracias a su contenido de nitrógeno, que no está presente en otras moléculas como grasas o hidratos de carbono. También lo son para las síntesis y mantenimiento de diversos tejidos o componentes del cuerpo, como los jugos gástricos, la hemoglobina, las vitaminas, las hormonas y las enzimas, que actúan como catalizadores biológicos haciendo que aumente la velocidad a la que se producen las reacciones químicas del metabolismo. Asimismo, ayudan a transportar determinados gases a través de la sangre, como el oxígeno y el dióxido de carbono, y funcionan a modo de amortiguadores para mantener el equilibrio ácido-base y la presión oncótica del plasma. Otras funciones más específicas son, por ejemplo, las de los anticuerpos, un tipo de proteínas que actúan como defensa natural frente a posibles infecciones o agentes externos; el colágeno, cuya función de resistencia lo hace imprescindible en los tejidos de sostén; o la miosina y la actina, dos proteínas musculares que hacen posible el movimiento, entre muchas otras. Thomas Gingeras reconocía que el hecho de que existan 20 aminoácidos en las proteínas complica el trabajo, al necesitar multiplicar por cinco la información que se maneja. Además, no basta enumerar la secuencia de aminoácidos que forman la estructura de las proteínas, sino que es importante la configuración tridimensional en que se presentan. No obstante, y pese a las dificultades que presenta el análisis de las proteínas, los biochips ofrecen grandes ventajas para su estudio. El método es similar al del análisis genético, pero en lugar de poner en un biochip miles de genes, se ponen miles de proteínas.

Uno de los sectores que está interesado en el desarrollo de los biochips es la industria farmacéutica, ya que lanzar un nuevo medicamento al mercado es un proceso muy largo y costoso. Desde que comienza su diseño hasta que se comercializa, en el caso de productos contra el cáncer o sida, el proceso se alarga entre los 10 y los 12 años y los costes se pueden elevar hasta los 500 millones de dólares. La capacidad de los biochips de desvelar la identidad genética de los virus y de fijar el tipo o evolución de tumores permite ahorrar mucho tiempo en la búsqueda de soluciones eficaces. Se podrán diseñar productos farmacéuticos que respondan al diagnóstico de los biochips, con lo que se ahorrarán gran parte de los ensayos clínicos. Este nuevo escenario en la búsqueda de medicamentos aumenta las expectativas de negocio que rodean a los biochips. La tecnología de grabado estándar graba unos chips que contienen 78.000 espigas microscópicas. Al mirar uno de estos chips mediante un microscopio electrónico, se ve como un bosque de espigas redondas. Cada espiga está recubierta con un anticuerpo contra las moléculas de adhesión a células epiteliales, que se encuentran en muchos tipos de células cancerosas, pero que no aparecen en las células normales. Ello es fundamental para que las células cancerosas se comuniquen entre sí mientras forman un tumor. !Porque las células se comunican entre ellas! Cuando la sangre pasa por el biochip, las células cancerosas se adhieren a las espigas redondas. En diversos ensayos clínicos, el biochip ha logrado detectar cánceres en más del 90% de los pacientes. La proliferación de estos laboratorios instalados en un chip incidirá claramente en la reducción de costes a la hora de diagnosticar una enfermedad. En el futuro una biopsia o un análisis químico costaran solo unos pocos céntimos y podrán realizarse en pocos minutos. Esto revolucionaría la velocidad y la accesibilidad de los diagnósticos del cáncer. Asimismo, cada vez que nos cepillemos los dientes estaremos haciendo un chequeo para detectar diversas enfermedades, incluido el cáncer. Leroy Hood y sus colegas de la Universidad de Washington crearon un pequeño chip que puede detectar la presencia de unas proteínas específicas en una sola gota de sangre. Tenemos que tener en cuenta que las proteínas son los verdaderos ladrillos que construyen la vida. Nuestros músculos, nuestra piel, nuestro pelo, nuestras hormonas y nuestras enzimas están compuestos de proteínas. Detectar las proteínas de enfermedades como el cáncer puede llevarnos a un sistema de alerta precoz. Hood prevé que algún día un solo chip podrá analizar con rapidez cientos de miles de proteínas, alertándonos con gran anticipación, incluso de años, de una amplia variedad de enfermedades, antes de que estas lleguen a ser graves.

 

Los nanotubos de carbono representan un avance indicativo de la importancia que puede llegar a alcanzar la nanotecnología. En principio, los nanotubos de carbono son más fuertes que el acero y también pueden conducir la electricidad, por lo que existe la posibilidad de fabricar ordenadores tomando como base el carbono en lugar del silicio. Pero, aunque los nanotubos son tremendamente resistentes, un problema es que el carbono tiene que utilizarse en estado puro y la fibra de carbono más larga es de solo unos pocos centímetros. No obstante, llegará el día en que se puedan fabricar ordenadores completos con nanotubos de carbono y otras estructuras moleculares. Los nanotubos de carbono están hechos de átomos de carbono unidos de uno en uno para formar un tubo. Imaginemos una malla de alambre donde cada unión de la malla de alambre sea un átomo de carbono. Luego se enrolla esa malla a modo de tubo y obtenemos la forma geométrica de un nanotubo de carbono. Las propiedades casi milagrosas de los nanotubos de carbono se deben a su estructura atómica. Habitualmente, cuando analizamos un trozo de materia sólida, como una roca o un pedazo de madera, lo que realmente estamos analizando es un enorme compuesto de muchas estructuras que se sobreponen. Es fácil crear unas fracturas diminutas dentro de este compuesto, lo cual hace que se rompa. Así, la resistencia de un material depende de las imperfecciones que haya en su estructura molecular. Por ejemplo, el grafito está hecho de carbono puro, pero es extremadamente blando porque está formado por capas que pueden deslizarse la una sobre la otra. Cada capa está formada por átomos de carbono, de tal modo que cada uno de estos está unido a otros tres átomos de carbono. También los diamantes están hechos de carbono puro, pero son el mineral más duro que se encuentra en la naturaleza. En los diamantes los átomos de carbono están ordenados en una estructura cristalina apretada y bien trabada, que es lo que da a este mineral su extraordinaria resistencia. De manera similar, los nanotubos de carbono deben sus sorprendentes propiedades a su estructura atómica regular. Los nanotubos de carbono ya se están abriendo camino en la industria. A causa de su conductividad pueden utilizarse para fabricar cables que transporten grandes cantidades de energía eléctrica. Por su resistencia pueden utilizarse para crear sustancias aún más duras que el Kevlar, una poliamida sintetizada por primera vez en 1965 por la química polaco-estadounidense Stephanie Kwolek.

 

Pero será tal vez en la industria informática donde sea más importante la utilización del carbono, que es un serio candidato a suceder al silicio como base de la tecnología informática. Puede que el futuro de la economía mundial dependa finalmente de la pregunta: ¿qué será lo que sustituya al silicio? La ley de Moore, uno de los fundamentos de la revolución en la informática, no puede durar eternamente. La ley de Moore expresa que aproximadamente cada dos años se duplica el número de transistores en un microprocesador. Puede que el futuro de la economía mundial y el destino de las naciones dependan en última instancia de cuál sea la nación que desarrolle un sustituto adecuado del silicio. En 2007 el propio Gordon Moore opinó que la ley que lleva su nombre acabaría en diez o quince años. Con esta opinión también coincide Paolo Gargini, responsable de la investigación externa de Intel. En 2004, durante la conferencia anual de Semicon West, Paolo Gargini dijo: «Vemos que al menos durante los próximos quince o veinte años podemos seguir aceptando la ley de Moore». La capacidad de la luz ultravioleta para grabar transistores cada vez más pequeños sobre una oblea de silicio ha representado una revolución en los ordenadores basados en el silicio. Debido a que la longitud de onda de la luz ultravioleta puede reducirse hasta 10 nanómetros (1.0×10-8 metros), es posible utilizar unas técnicas de grabado que tallen unos componentes cuyo diámetro sea el equivalente a solo treinta átomos. Pero, antes o después, este proceso terminará por diversas razones. Una primera causa es el calor generado por unos chips muy potentes, que podría llegar a fundirlos. Una segunda causa tiene que ver con un problema fundamental que plantea la teoría cuántica. Se trata del principio de incertidumbre, según el cual no se puede conocer al mismo tiempo y con precisión la ubicación y la velocidad de un átomo o una partícula cualesquiera. Actualmente el espesor de la capa de un chip de Pentium puede ser de solo cinco átomos, de modo que los electrones, cuya posición es incierta, pueden empezar a escapar a través de la capa, causando un cortocircuito. Vemos pues que hay un límite cuántico para la reducción del tamaño de un transistor de silicio. Ante la evolución descendente de la ley de Moore, los ingenieros consideran que el procesamiento paralelo es una de las mejores soluciones para aumentar la capacidad de procesamiento de los ordenadores.

 

El procesamiento paralelo también ayuda a entender cómo funciona nuestro propio cerebro. Si hacemos un escaneado del cerebro, cuando éste está pensando, mediante Imagen por Resonancia Magnética (IRM), se puede observar que varias regiones del cerebro se encienden simultáneamente, lo cual significa que el cerebro subdivide una determinada tarea en varias subtareas, que procesa en paralelo. Esto explica por qué las neuronas, que transportan mensajes eléctricos a solo 300 kilómetros por hora, pueden superar a un ordenador, en que los mensajes viajan casi a la velocidad de la luz. Pero nuestro cerebro compensa esta poca velocidad realizando miles de millones de pequeños cálculos simultáneamente y luego consolidándolos. Pero el procesamiento paralelo plantea la dificultad de que todo problema ha de ser subdividido en varias partes. Luego, cada parte es procesada mediante chips diferentes y al final se hace una consolidación del resultado del problema. Llevar a cabo la coordinación de este proceso de subdivisión o reagrupamiento es muy complicada y depende de cómo sea cada problema, por lo que es complicado tener un procedimiento general. Sin embargo, el cerebro humano lo hace aparentemente sin esfuerzo. En los últimos años se está hablando de la posible sustitución de los chips de silicio por transistores hechos de átomos individuales. Cabe la posibilidad de sustituir un transistor de silicio por una sola molécula de sustancias químicas, como la molécula de bencenotiol, cuyo aspecto es el de un largo tubo que tiene en el centro un tipo de válvula hecha de átomos. Normalmente, la electricidad fluye libremente por el tubo, convirtiéndolo en un conductor. Pero también es posible “girar” la válvula, con lo que se corta el flujo eléctrico. De este modo, la molécula actúa como un interruptor que puede controlar el paso de la corriente, lo que sería equivalente a un 0 o 1. De esta manera pueden enviarse mensajes digitales utilizando moléculas. Actualmente un candidato como transistor molecular es una sustancia llamada grafeno. En 2004, Andre Geim y Kostya Novosiólov, de la Universidad de Manchester, aislaron por primera vez esta sustancia a partir del grafito, por lo que les fue concedido el premio Nobel. A diferencia de los nanotubos de carbono, que son hojas de átomos de carbono enrolladas para formar tubos largos y estrechos, el grafeno es una sola hoja de carbono de no más de un átomo de espesor. Al igual que los nanotubos de carbono, el grafeno representa un nuevo estado de la materia, por lo que los científicos están trabajando para descifrar sus notables propiedades, como su conductividad eléctrica y el hecho de ser el material más resistente que la ciencia ha probado. Unos finos haces electrónicos pueden grabar canales en el grafeno, haciendo así del grafeno el transistor más pequeño del mundo, de un átomo de espesor y diez átomos de diámetro. Estos transistores de grafeno son tan pequeños que pueden representar un límite de reducción para los transistores moleculares, ya que si construimos alguno aún más pequeño, el principio de incertidumbre interviene, y los electrones escapan del transistor, destruyendo sus propiedades. Pero el verdadero problema con los transistores moleculares es cómo cablearlos y ensamblarlos en un producto que sea viable. Los transistores moleculares son difíciles de manipular, ya que pueden ser miles de veces más finos que un pelo humano. Por ejemplo, el grafeno es un material nuevo que los científicos no saben cómo producir en grandes cantidades. Se trabaja en descubrir un proceso que monte automáticamente un transistor molecular.

 

Uno de los objetivos tecnológicos es poder utilizar ordenadores cuánticos que calculen y procesen realmente a nivel de átomos. Un átomo es asimilable a una peonza que gira. Se puede asignar un 0 si la peonza gira hacia arriba, o con espín hacia arriba, mientras que se puede asignar un 1 si la peonza gira hacia abajo, o con espín hacia abajo. Si volteamos la peonza que gira, habremos convertido un 0 en un 1 o viceversa. Pero en el extraño mundo de lo cuántico, un átomo gira hacia arriba y hacia abajo simultáneamente, ya que en el mundo cuántico estar en varios lugares a la vez es cosa habitual. Ello implica que un átomo puede contener mucha más información que un 0 o un 1, ya que puede manifestar valores intermedios entre ceros y unos. Por esta razón los ordenadores cuánticos utilizan qubits en vez de bits. Un átomo puede estar girando con espín o giro hacia arriba en un 25%, y con espín o giro hacia abajo en un 75%. Por esta razón un átomo que gira puede almacenar muchísima más información que un solo bit. Los ordenadores cuánticos ya existen actualmente. Entonces, ¿por qué no tenemos ordenadores cuánticos en nuestras oficinas? El verdadero problema de los ordenadores cuánticos son las interferencias procedentes del mundo exterior, que destruyen las propiedades de los átomos. Cuando los átomos son coherentes y vibran al unísono, la más mínima interferencia que les llegue del mundo exterior puede cargarse este delicado equilibrio y hacer que los átomos pierdan su coherencia, dejando de vibrar al unísono y destruyendo el delicado alineamiento giratorio de los átomos, afectando a los cálculos. El problema de la pérdida de coherencia es un formidable obstáculo para crear ordenadores cuánticos. Hay también otra extraña complicación basada en la teoría cuántica, como es el principio de incertidumbre. Todos los cálculos realizados en un ordenador cuántico son inciertos, por lo que habría que repetir el experimento muchas veces. Por ejemplo, 2 + 2 = 4, algunas veces. Si repetimos el cálculo 2 + 2 cierto número de veces, la respuesta final da como media 4. Vemos pues que incluso la aritmética se convierte en algo incierto en un ordenador cuántico.

 

Uno de los muchos inconvenientes que presenta actualmente esta tecnología de ordenadores cuánticos es su refrigeración. Por ello, un equipo de la Universidad de Aalto, en Finlandia, ha desarrollado refrigeradores nanométricos para enfriar los componentes de los ordenadores cuánticos. Vint Cerf, uno de los creadores de internet, predijo que «en 2050, seguramente habremos encontrado la manera de realizar cálculos cuánticos a temperatura ambiente». Tenemos varias posibles tecnologías en el área de los ordenadores del futuro. Una sería la de los ordenadores ópticos, que calculan con haces luminosos en vez de electrones. Dado que los haces de luz pueden pasar los unos a través de los otros, los ordenadores ópticos tienen la ventaja de que pueden ser cúbicos y sin cables. Además, es posible fabricar láseres utilizando las mismas técnicas litográficas que en los transistores ordinarios, por lo que en teoría se pueden incorporar millones de láseres en un chip. Otra tecnología sería la de ordenadores de puntos cuánticos. Hoy en día los semiconductores utilizados en los chips pueden grabarse en puntos tan diminutos como lo que representa una colección de unos 100 átomos, que pueden empezar a vibrar al unísono. Se ha llegado incluso a un punto cuántico de un solo electrón. Estos puntos cuánticos ya han mostrado su utilidad en los diodos emisores de luz y en los monitores de los ordenadores. En el futuro, organizando adecuadamente estos puntos cuánticos, podrían servir para la creación de un ordenador cuántico. Asimismo tenemos los ordenadores de ADN, compuestos de moléculas de ADN. Dado que un filamento de ADN codifica información en los aminoácidos representados por la adenina (A), la timina (T), la citosina (C) y la guanina (G), en vez de la típica codificación binaria de ceros y unos, el ADN puede almacenar más información, por lo que un ordenador de ADN puede resolver determinados cálculos de una manera más ventajosa que un ordenador digital. Pero los ordenadores de ADN son más complicados, ya que requieren hacer mezclas con tubos de líquido que contengan ADN.

Si habéis visto la película Terminator 2: el Juicio Final, sabréis que en ella el protagonista, representado por el actor Arnold Schwarzenegger, sufre el ataque de un avanzado robot del futuro, llamado T1000, que está hecho de metal líquido. Dado que es como una masa parecida al mercurio, el robot puede cambiar de forma y deslizarse abriéndose paso a través de cualquier obstáculo, ya que logra filtrarse por las grietas más finas y configurar armas mortales reestructurando sus extremidades. Después puede volver de repente a su forma original para seguir atacando, por lo que el T1000 parece una máquina de matar perfecta. Pero, de momento, la tecnología actual no permite cambiar un objeto sólido cuando queramos. Sin embargo, puede ser que no tardemos tanto tiempo en disponer de esta tecnología que permita el cambio de forma de cualquier objeto. En un próximo futuro casi todos los productos se optimizarán mediante técnicas moleculares de fabricación, logrando que sean muy resistentes, flexibles y muy buenos conductores eléctricos. La nanotecnología permitirá disponer de unos sensores que estarán repartidos por nuestro entorno, ocultos, pero que nos protegerán y ayudarán, si se utilizan en sentido positivo, cosa que está por ver. Esperemos que el ejemplo de Terminator no sea el que se siga, aunque tengo serias dudas. El concepto de materia programable es la que nos permitirá en un próximo futuro cambiar el color y la forma física de cualquier objeto, simplemente pulsando un botón. Un ejemplo actual de esto, aunque todavía primitivo, es la pantalla de cristal líquido (LCD), que tienen ahora prácticamente todos los monitores de ordenador o pantallas de televisión. El LCD contiene un cristal líquido que se vuelve opaco cuando se le suministra una pequeña corriente eléctrica. De esta manera, regulando la corriente eléctrica que fluye dentro del cristal líquido, se puede crear colores y formas en una pantalla, básicamente pulsando un botón. Pero científicos de la empresa Intel se proponen utilizar materia programable para cambiar de manera real la forma de un objeto sólido, tal como vemos en la ciencia ficción. La idea básica es crear un microchip informático con la forma de un diminuto grano de arena. Podremos cambiar la carga de electricidad estática de la superficie de estos diminutos granos inteligentes, de modo que los granos puedan atraerse o repelerse entre sí. Mediante cargas de electricidad, podremos lograr que estos granos se alineen en una determinada formación. Pero reprogramándolos para que sus cargas eléctricas cambien, se colocaran en una formación completamente diferente.

 

Actualmente estos granos inteligentes reciben el nombre de cátomos (claytronic atoms), que son como los “ladrillos” que permiten formar una amplia variedad de objetos simplemente cambiando sus cargas eléctricas, imitando lo que hacen los átomos. Pero, a diferencia de los robots modulares, la materia programable reduce los bloques que la forman a dimensiones inferiores al milímetro. Jason Campbell, un veterano investigador de Intel, dice: «Pensemos en un dispositivo portátil. Mi teléfono móvil es demasiado grande para caber cómodamente en el bolsillo, y demasiado pequeño para mis dedos. Es aún peor cuando intento ver películas o gestionar mi correo electrónico. Pero si yo tuviera entre 200 y 300 mililitros de cátomos, podría darle la forma del aparato que necesito en cada momento». Lo que hace únicos a los cátomos es que se puede cambiar la carga eléctrica en cada uno de sus electrodos, de modo que los cátomos se unan unos a otros con distintas orientaciones, como si fuesen bloques de construcción Lego. Cambiando las cargas en cada electrodo, los cátomos vuelven a reorganizarse por sí mismos para configurar una forma completamente diferente, como podría ser pasar de formar un tren a formar un avión. Se está trabajando para reducir el tamaño de cada cátomo a un tamaño inferior al de un grano de arena. Algún día en un futuro no demasiado lejano, se dispondrá de técnicas que permiten crear cátomos que sean tan pequeños como una célula. El tamaño de las células es variable y algunas pueden llegar a medir 100 µm en humanos (0,0001 metros). En este momento podríamos ser capaces de cambiar el mundo real que nos rodea simplemente pulsando un botón. Esta tecnología sería de gran utilidad para cualquier actividad en que se tengan que diseñar modelos tridimensionales de sus proyectos y luego modificarlos continuamente, como puede suceder en el diseño de automóviles. Por ejemplo, si tenemos un coche de cuatro puertas, podremos convertirlo rápidamente en un vehículo de cinco puertas y posteriormente convertirlo en un coche deportivo. Esto es mucho mejor que modelar arcilla, que es un material sin memoria ni inteligencia. Esto podrá afectar a los futuros productos de consumo. Los juguetes, por ejemplo, podrán programarse para cambiar su forma, utilizando un programa informático. Los cátomos que compongan un juguete del año anterior se convertirían así en el juguete más nuevo del mercado. En vez de contratar un camión para que nos traiga el mobiliario y los electrodomésticos nuevos, podremos descargar de internet los correspondientes programas informáticos y reprogramar nuestros viejos muebles en otros completamente distintos. Gracias a la materia programable, la renovación de las casas dejará de ser algo complicado y pesado, ya que podremos renovar baldosas, azulejos, aparatos, muebles y armarios simplemente pulsando un botón. Pero ello obligará a la reconversión del comercio de productos.

 

No obstante, esta tecnología tiene una serie de complicaciones. Una de ellas es cómo gestionar los movimientos de millones de cátomos, ya que se presentan problemas de ancho de banda para descargar toda esta información en la materia programable. De hecho, en algunas películas de ciencia ficción podemos ver «mutantes», como el caso de seres humanos que súbitamente se convierten en monstruos, o viceversa. Esto se logra utilizando ordenadores. Para ello hay que identificar ciertos vectores que marcan distintos puntos clave del rostro, como la nariz y los ojos, tanto en el ser humano como en el monstruo. Moviendo un vector, el rostro va cambiando gradualmente. Podemos programar los ordenadores para mover esos vectores de un rostro al otro, cambiando así lentamente una cara por otra. De un modo similar podríamos cambiar la forma de cualquier objeto tridimensional. Pero tal vez un problema más complejo es que las fuerzas electrostáticas que actúan entre los átomos son débiles comparadas con las intensas fuerzas interatómicas que mantienen a la mayoría de los objetos sólidos. Vemos que las fuerzas cuánticas pueden ser muy potentes, ya que son responsables de las propiedades de dureza, resistencia y elasticidad de los objetos. En el futuro deberán combinarse esas fuerzas cuánticas con las fuerzas electrostáticas para lograr que los objetos sean estables. Con las mismas técnicas que se usan para grabar millones de transistores en obleas de silicio, ya se pueden grabar cátomos microscópicos de tan solo unos milímetros de diámetro. El objetivo es conseguir, mediante el control de sus fuerzas eléctricas, que esos cátomos se agrupen adoptando cualquier forma solo con pulsar un botón. Para ello, cada cátomo necesita saber a qué cátomos vecinos debe unirse. Si cada cátomo tiene instrucciones para unirse con cátomos vecinos, todos los cátomos se reordenarán por sí mismos formando estructuras complejas. ¿Os imagináis que pudiésemos levantar los edificios de una ciudad solo pulsando un botón? En principio lo único que habría que hacer sería determinar las ubicaciones de los edificios, cavar los cimientos y luego dejar que billones de cátomos crearan automáticamente ciudades enteras. Algunos científicos de Intel pronostican que algún día en el futuro los cátomos puedan incluso adquirir forma humana, como en Terminator 2, o la antigua serie televisiva V, en que unos extraterrestres reptiloides adoptan forma humana.

 

Pero aún no han terminado las sorpresas, ya que algunos expertos en nanotecnología prevén para un futuro a medio plazo un ensamblador molecular, o replicator, capaz de crear cualquier cosa que deseemos. El funcionamiento previsto consistiría en poner la materia prima básica dentro de la máquina y luego pulsaríamos un botón. Entonces billones de nanorobots programados actuarían sobre aquella materia prima, separando las moléculas de una en una y luego reuniéndolas en un producto totalmente distinto. Esta máquina podría fabricar cualquier cosa, por lo que el replicator satisfaría los más ambiciosos sueños de la ingeniería y la técnica. Pero, como pasaba con los cátomos, un importante problema que plantea el replicator es el número total de átomos que deben ser reorganizados para reensamblar cualquier objeto. Por ejemplo, el cuerpo humano tiene unos 50 billones de células y más de 1026 átomos. Se necesitaría una capacidad enorme de memoria para almacenar las posiciones de todos esos átomos. Pero esto solo es un problema actual, que puede ser resuelto en un futuro con los ordenadores cuánticos. Se cree que también podría superarse este problema utilizando un robot molecular, o nanobot, que pudiesen autoreproducirse, creando un número teóricamente ilimitado de copias de sí mismos. El punto clave es crear el primer nanobot. Por otro lado, son capaces de identificar moléculas y cortarlas en los puntos precisos. Además, siguiendo una determinada programación, pueden reensamblar los átomos, organizándolos de maneras diferentes. Así, por ejemplo, la tarea de reorganizar 1026 átomos de un cuerpo humano se reduciría a crear o copiar un número similar de nanobots, cada uno de ellos diseñado para manipular átomos individuales. De esta manera, el número total de átomos que hay en un cuerpo humano ya no sería un obstáculo. Evidentemente, cuantos menos átomos tuviese un objeto más simple sería la operación. Pero el verdadero problema es crear el primero de esos nanobots y conseguir que luego se reproduzca por sí mismo. Sería como crear una nano fábrica. Eric Drexler, pionero de la nanotecnología y autor del libro La nanotecnología: el surgimiento de las máquinas de creación, prevé un futuro en el que todos los productos se manufacturarán a nivel molecular, terminando con la escasez, ya que se podrá crear cualquier cosa que deseemos. Pero otros científicos son más escépticos al respecto, ya que dudan que pueda construirse un nanobot que sea suficientemente hábil para reorganizar moléculas a voluntad. Un primer problema sería que se encontrarían con unas pequeñas fuerzas de atracción que les harían quedarse pegados a otras moléculas. De hecho los átomos se pegan unos a otros a causa de pequeñas fuerzas eléctricas entre sus electrones, como la fuerza de Van der Waals. Además el manipulador, hecho de átomos, sería demasiado grueso para manipular adecuadamente átomos.

 

Una constatación actual es que las leyes de la física que rigen nuestro mundo no se pueden trasladar fácilmente al mundo de los nano objetos. Determinados efectos, como el principio de incertidumbre, las fuerzas de Van der Waals, la tensión superficial, el principio de exclusión de Pauli, etc…, son los que dominan en este mundo de átomos. Pero quedo claro, tanto para los defensores del replicator como de sus detractores, en que la idea del nanobot, utilizando pinzas moleculares para cortar y ensamblar moléculas, tenía que ser modificada, ya que las fuerzas cuánticas son dominantes a escala atómica. Lo que sí se ha verificado es que la naturaleza ya hace algo similar al replicator, ya que puede “transformar” en nueve meses alimentos, como carne y verduras, en un recién nacido. En efecto, este proceso lo llevan a cabo unas moléculas de ADN, donde está codificado el diseño del futuro niño, que guían las acciones de los ribosomas, complejos supramoleculares de ácido ribonucleico, que cortan y empalman las moléculas en el orden correcto, utilizando para ello las proteínas y los aminoácidos presentes en los alimentos, como los antes indicados. Además tenemos que tener en cuenta que el hecho de juntar dos átomos no garantiza que se produzca una reacción química. La naturaleza suele evitar esta dificultad utilizando una enzima en una solución acuosa, a fin de facilitar la reacción química. Pero Eric Drexler opina que no todas las reacciones químicas requieren la presencia de agua o enzimas. Una de las posibilidades es emplear el autoensamblaje, que es un planteamiento de abajo hacia arriba, como también se hace actualmente con la Inteligencia Artificial. Desde la antigüedad, los seres humanos han utilizado el llamado planteamiento de arriba hacia abajo para el diseño, como el uso de planos antes de construir un edificio. En el planteamiento de abajo hacia arriba, los objetos se ensamblan por sí solos. Por ejemplo, los ribosomas bacterianos, unos sistemas moleculares complejos que contienen al menos cincuenta y cinco moléculas de proteínas diferentes y varias moléculas de ARN, pueden autoensamblarse de manera espontánea en un tubo de ensayo. Sin embargo, se ha comprobado que solo una pequeñísima fracción de los nanomateriales se autoensamblan adecuadamente. Todavía no podemos ordenar a una nanomáquina que utilice el autoensamblaje. Lo que es cierto es que los ensambladores moleculares supuestamente no violan ninguna ley de la física, pero aún son difíciles de fabricar. Los nanobots todavía no existen, pero si se produce un primer nanobot, los cambios en la sociedad serían revolucionarios.

 

Pero algunos científicos se muestran escépticos sobre las bondades de la nanotecnología, ya que opinan que es solo cuestión de tiempo que esta tecnología devore todos los minerales de la Tierra y deje como residuo una «plaga gris» inservible. La plaga gris se refiere a un hipotético fin del mundo que involucraría a la nanotecnología molecular. Según esta hipótesis, un conjunto de robots se autoreplicarían sin control consumiendo toda la materia en la Tierra, materia que emplearían para crear y mantener más robots. En el peor de los casos, toda la materia en el universo podría convertirse en una masa inmensa de nano máquinas en proceso de replicación y sin un orden concreto, matando a todos los habitantes del universo. El desastre es propuesto como resultado de una mutación accidental en una nano máquina que inicialmente se autoreplica para otros propósitos, o tal vez de un arma de destrucción masiva. El peligro reside en la intencionalidad de la propiedad de esos nanobots, que pueden reproducirse por sí mismos. Pero, al igual que los virus, los nanobots no podrán ser recuperados una vez que se dejen libres en el entorno. Con el tiempo podrían proliferar de manera descontrolada, invadiendo el medio ambiente y destruyendo el planeta. Si observamos la naturaleza, vemos que nuestro mundo está lleno de formas de vida moleculares que se auto reproducen, tales como los virus y bacterias, que pueden proliferar sin control y mutar. Sin embargo, nuestro cuerpo ha creado asimismo sus propios nanobots, que son los anticuerpos y glóbulos blancos, que forman parte de nuestro sistema inmunológico, y que se dedican a buscar y destruir formas de vida extrañas. Este sistema puede darnos pistas de cómo podríamos tratar el problema de los nanobots descontrolados. El gran objetivo de la nanotecnología es crear el ensamblador molecular, o replicator, pero una vez que se consiguiese transformaría de arriba abajo las relaciones humanas, ya que si el replicador resuelve el problema de la escasez, quizá se pueda alcanzar una sociedad utópica. Pero hay un problema que ni siquiera el replicator podrán resolver. Se trata de la energía, ya que todas estas tecnologías del futuro necesitan enormes cantidades de energía. Entonces surge la pregunta: ¿de dónde obtendremos toda esa energía necesaria?

Hoy en día todavía estamos atados a los combustibles fósiles, como el petróleo, el gas natural o el carbón. El total de energía que consumimos a nivel mundial se estima en unos 14 billones de vatios, de los que un 33% proceden del petróleo, un 25% del carbón, un 20% del gas, un 7% de la energía nuclear, un 15% de biomasa y energía hidroeléctrica, y un 5% de energía solar y otras energías renovables, aunque esto varía de país en país. El rápido auge de la civilización moderna en el siglo XX ha sido impulsado básicamente por un petróleo barato. Pero el petróleo, aparte de sus efectos contaminantes y generadores de CO2, es una fuente energética que se va agotando. Entonces nos podemos preguntar: ¿qué sustituirá al petróleo? A corto plazo no hay nada que pueda sustituir totalmente a los combustibles fósiles, por lo que es probable que se apueste por una fuente de energía mixta. No obstante, los científicos consideran que la fuente de energía más prometedora para suceder al petróleo es la energía generada a partir de tecnologías renovables, como las energías solar, eólica, hidroeléctrica, así como en la fusión nuclear basada en el hidrógeno. A corto plazo, las energías renovables como la eólica llevan las de ganar. La energía eólica, que en otros tiempos estaba considerada de poca importancia, se está haciendo cada vez más prominente. Los recientes avances en la tecnología de la turbina eólica han aumentado la eficiencia y la productividad de los parques eólicos, que constituyen uno de los sectores de más rápido crecimiento en el mercado de la energía. Pero la energía eólica no puede aportar toda la energía que se consume en el planeta. No obstante, en última instancia, toda la energía proviene del Sol, incluyendo el petróleo y el carbón, que son consecuencia de la energía solar que recibieron las plantas y los animales hace millones de años. Las células solares funcionan convirtiendo directamente la luz solar en electricidad. Sin embargo, las células solares no son eficientes, ya que su eficiencia oscila en torno a un 15%. Pero aunque la energía solar no está todavía madura, la inestabilidad de los precios del petróleo ha hecho que se intensifiquen los esfuerzos para llevar finalmente la energía solar al mercado. No obstante, sin los combustibles fósiles la economía mundial sufriría un parón. Pero hay una fuente energética que en un próximo futuro puede cambiar totalmente el panorama, Se trata de la fusión nuclear, que no debe confundirse con la actual fisión nuclear. Mientras la energía de la fisión se basa en la escisión del átomo de uranio, creando así energía y una gran cantidad de residuos radiactivos, la energía de la fusión se basa en la unión de átomos de hidrógeno con gran cantidad de calor, con lo que se libera mucha más energía y produce muy pocos residuos.

 

A diferencia de la energía de la fisión nuclear, la de la fusión nuclear libera el mismo tipo de energía nuclear que el Sol. Sabemos que la fuente básica de la energía del universo está escondida en el átomo de hidrógeno. Por ello la energía de la fusión nuclear, basada en el hidrógeno, produce la energía del Sol y las estrellas. Y ello implica que quienes logren dominar la energía de la fusión nuclear podrán liberar una energía ilimitada. Además, el combustible que utilizarán las plantas de fusión nuclear procederá del hidrogeno contenido en el agua (H2O), básicamente del mar. Con la misma cantidad de combustible, se sabe que la fusión nuclear liberará nada menos que 10 millones de veces más energía que la gasolina. La clave consiste en calentar y comprimir el gas hidrógeno hasta que los núcleos se fusionen, liberando unas cantidades cósmicas de energía. Sin embargo, hasta ahora los intentos para controlar esta energía cósmica han fracasado, ya que es muy difícil calentar el gas hidrógeno a una temperatura de decenas de millones de grados, a fin de que los protones se fusionen para formen gas helio, liberando al mismo tiempo grandes cantidades de energía. Las ventajas de la energía de fusión nuclear son muy grandes, ya que es relativamente limpia y es el procedimiento que utiliza la propia naturaleza para proporcionar energía al universo. Además, las plantas de fusión nuclear no pueden sufrir la fundición del núcleo del reactor, como puede pasar con las centrales de fisión nuclear basadas en el uranio, que producen grandes cantidades de calor incluso después de haber apagado el reactor. Es este calor residual el que puede fundir el acero y entrar en las aguas subterráneas, generando una explosión de vapor y la pesadilla de un accidente nuclear, como sucedió en Chernóbil. Una planta de fusión, en vez de sufrir una reacción en cadena incontrolable, se apagaría de manera espontánea en caso de accidente. Pero aunque la energía de fusión nuclear tiene grandes ventajas, tiene el inconveniente de que aún no existe una planta de fusión nuclear operativa. Pero esta situación podría experimentar un vuelco durante los próximos años, ya que se están llevando a la práctica varios proyectos. de manera simultánea, por lo que los físicos están convencidos de que se conseguirá pronto la fusión. En Francia se encuentra el Reactor Experimental Termonuclear Internacional (ITER), en el que participan como socios muchos países europeos, junto con Estados Unidos, Japón y otros, mientras que en Estados Unidos está en marcha la Instalación Nacional de Ignición (NIF). Y China podría poner pronto en funcionamiento su llamado  “Sol artificial“. Se trata de un dispositivo de fusión nuclear capaz de producir energía, simulando las reacciones que ocurren en el Sol, una forma de lograr una fuente barata de energía prácticamente ilimitada.

 

La instalación norteamericana del NIF trabaja con fusión nuclear por láser. Y debido a su estrecha relación con las bombas de hidrógeno, de uso militar, el reactor del NIF está emplazado en el Laboratorio Nacional Lawrence Livermore, donde el ejército norteamericano diseña sus ojivas de bombas de hidrógeno. El NIF ocupa un edificio de diez pisos del tamaño de tres campos de fútbol y en él actúan 192 rayos láser gigantescos que se disparan a través de un largo túnel. Cuando los rayos láser se disparan por aquel largo túnel, acaban chocando con un conjunto de espejos, que enfocan cada rayo hacia un diminuto objetivo que tiene el tamaño de una cabeza de alfiler y está hecho de deuterio y tritio, que son dos isótopos del hidrógeno. Unos increíbles 500 billones de vatios de energía láser se dirigen a una diminuta bola que apenas es visible a simple vista, y la abrasan hasta que la bolita alcanza una temperatura de 100 millones de grados, que es mucho más calor que el que se registra en el centro del Sol, por lo que la superficie de esta bolita microscópica se vaporiza rápidamente, lo cual libera una onda de choque que destroza la bolita y libera la verdadera energía de fusión nuclear. Pero aún debe trabajarse para conseguir más energía de fusión que la que se emplea en energía láser. Sin embargo, los 192 rayos láser tienen que incidir en la superficie de una bolita diminuta con una precisión extrema, a fin de que la bolita implosione uniformemente. El más leve error de alineamiento de los rayos láser o la más imperceptible irregularidad de la bolita implicaría que no se calentase de manera simétrica, con lo cual explotará hacia un lado, en vez de implosionar esféricamente, que es lo que se requiere. En efecto, si la bolita tiene una irregularidad de más de 50 nanómetros, equivalente a unos 150 átomos, no implosionaría simétricamente. Por esta razón, el alineamiento de los rayos láser y la uniformidad de la bolita son los problemas principales a los que se enfrenta la fusión mediante láser. Sin embargo, si la fusión por láser no funcionase como se espera, hay otra propuesta aún más avanzada para lograr una fusión controlada, que es la que se realizará en el ITER, ubicado en Francia. En efecto,  el ITER emplea unos enormes campos magnéticos para contener gas hidrógeno caliente. En lugar de utilizar rayos láser para implosionar al instante una diminuta bolita de material rico en hidrógeno, el ITER utiliza un campo magnético para comprimir lentamente el gas hidrógeno. El campo magnético impide que el hidrógeno escape de una cámara de forma toroidal. Entonces se envía una corriente eléctrica que pasa a través del gas, calentándolo. La combinación de comprimir el gas mediante el campo magnético y enviar una corriente eléctrica que lo invade hace que el gas se caliente a muchos millones de grados.

 

La idea es utilizar un tipo de «botella magnética» para producir la fusión. El problema, en este caso, es que el campo magnético ha de ajustarse con precisión para que el gas se comprima uniformemente sin adoptar formas irregulares. Por lo tanto, el problema de inestabilidad no un problema de la física, sino de ingeniería. Se sabe que la naturaleza cósmica comprime gas hidrógeno para crear los billones de astros que vemos en nuestro universo. La pregunta sería por qué no podemos todavía hacer lo mismo. La dificultad reside en una sencilla pero profunda diferencia entre la gravedad y el electromagnetismo. La gravedad, como explicó Newton, es básicamente una fuerza de atracción. Por lo tanto, en una estrella la gravedad comprime el gas hidrógeno de manera uniforme, dándole forma de esfera. Esta es la verdadera razón por la que las estrellas y los planetas son esféricos. Pero tenemos dos tipos de cargas eléctricas: positivas y negativas. Si tenemos unas bolas con cargas negativas, estas se repelerán unas a otras y se dispersarán en todas las direcciones. Sin embargo, si reunimos cargas positivas y negativas, obtendremos lo que se llama un «dipolo», con un complicado conjunto de líneas de campo eléctrico que se parecen a una tela de araña. De la misma manera, los campos magnéticos también forman un dipolo. Por esta razón comprimir un gas caliente, como el hidrógeno, de manera uniforme dentro de una cámara es una tarea muy complicada. De hecho, se necesita un supercomputador para dibujar los campos eléctricos y magnéticos que se producen en una simple configuración de electrones. Resumiendo, la gravedad es una fuerza de atracción y puede comprimir un gas de manera uniforme formando una esfera, por lo que las estrellas pueden formarse sin complicaciones. Pero el electromagnetismo se compone de fuerzas de atracción y fuerzas de repulsión, por lo que los gases pueden formar irregularidades complejas cuando son comprimidos, haciendo que la fusión nuclear controlada resulte extremadamente difícil. Pero los físicos consideran que el ITER ha resuelto por fin los problemas de la estabilidad en el confinamiento magnético. Cuando el ITER  sea operativo en los próximos años, calentará el hidrógeno a 132 millones de grados centígrados, superando ampliamente los 13 millones de grados centígrados que se registran en el centro del Sol. Si todo va bien, esta instalación generará 500 megavatios de energía, que es diez veces la cantidad de energía que entra inicialmente en el reactor. Aunque el ITER no está diseñado para producir energía comercial, los físicos ya están planificando el siguiente paso, que es llevar la energía de fusión al mercado de la energía.

 

Otro proyecto comercial, aún en estudio, es el reactor de fusión DEMO. Mientras el ITER está diseñado para producir 500 megavatios durante un mínimo de 500 segundos, el DEMO se diseñará para producir energía de forma continuada. El DEMO aún da un paso más que el ITER. En efecto, cuando se produce la fusión nuclear, se forma un neutrón suplementario que escapa rápidamente de la cámara. No obstante, es posible rodear la cámara con un recubrimiento especial llamado «la manta» que está diseñado específicamente para absorber la energía de este neutrón. Entonces «la manta» se calentaría. Dentro de ella habría unas tuberías por las que circularía agua, y esta se pondría a hervir. Este vapor de agua se enviaría a las palas de una turbina que generaría electricidad. Está previsto que el DEMO se ponga en marcha en el 2033. Este reactor será un 15% más grande que el ITER. Además, el DEMO producirá una cantidad de energía que será veinticinco veces la que consume. En total, se espera que el DEMO produzca 2.000 megavatios de energía, lo cual lo haría comparable a una central eléctrica convencional. Si la planta del reactor DEMO tuviese éxito, podría contribuir a una rápida comercialización de esta tecnología. Los científicos que trabajan en la fusión creen que por fin se ve la luz al final del túnel. Sin embargo, dado que ni la NIF ni el ITER están todavía generando energía comercial de fusión, cabe aún que suceda algo hoy en día inesperado, como una fusión con un dispositivo de mesa o una fusión en burbujas. Dado que la fusión es un proceso claramente definido, se han formulado varias propuestas que quedan al margen de la inversión a gran escala, pero que, sin embargo, son dignas de consideración. En particular, algunas de estas ideas podrían hacer viable algún día la fusión mediante dispositivos de mesa. ¿Será posible que algún proyecto excepcional pueda reducir las enormes instalaciones de fusión nuclear a algo del tamaño de una tostadora? A esta posibilidad de realizar la fusión nuclear mediante un dispositivo de mesa es lo que se llama sonoluminiscencia, que utiliza la compresión total y repentina de burbujas con la finalidad de producir unas temperaturas enormes. A esta tecnología también se la llama fusión sónica o fusión en burbujas. Este curioso efecto se remonta nada menos que al año 1934, cuando unos científicos de la Universidad de Colonia estaban experimentando con ultrasonidos y película fotográfica, con la idea de acelerar el proceso de revelado. Durante el experimento observaron unos puntos diminutos en la película, causados por unos destellos de luz que generaban los ultrasonidos al producir burbujas en el fluido. Más tarde se demostró que las burbujas brillaban como brasas porque implosionaban de manera uniforme, comprimiendo así el aire que había en su interior hasta que éste alcanzaba una temperatura extremadamente elevada. Cuando la burbuja se encoge, el movimiento de las moléculas es tan veloz que la presión del aire en el interior de la burbuja se vuelve rápidamente uniforme a lo largo de las paredes de la misma. En principio, si se puede implosionar una burbuja en unas condiciones tan perfectas, la fusión será un hecho.

 

Los experimentos de sonoluminiscencia han logrado producir temperaturas de decenas de miles de grados. Utilizando gases nobles, se puede aumentar la intensidad de la luz emitida por las burbujas. Por otro lado, tenemos la máquina de fusión de Philo Farnsworth, que también fue coinventor poco conocido de la televisión. Más tarde, Farnsworth se concentró en el fusor, un pequeño dispositivo de mesa que podía generar neutrones mediante la fusión. Este dispositivo estaba formado por dos grandes esferas, una dentro de la otra, cada una hecha de una malla de cable. La malla exterior estaba cargada con carga positiva, mientras que la interior tenía carga negativa, de tal manera que los protones inyectados entre ambas eran repelidos por la malla exterior y atraídos por la interior. Entonces esos protones chocaban con una pequeña bola rica en hidrógeno que estaba en el centro, dando lugar a la fusión nuclear y a una ráfaga de neutrones. Sin embargo, es muy improbable que este dispositivo pueda producir algún día energía utilizable, ya que el número de protones que se consigue acelerar es extremadamente pequeño, por lo que la cantidad de energía producida por este aparato sería muy pequeña. Otra posible solución sería producir la fusión nuclear sobre una mesa utilizando un acelerador de partículas estándar. Un acelerador de partículas es más complicado que un fusor, pero se puede utilizar también para acelerar protones de modo que estos choquen contra un objetivo rico en hidrógeno y produzcan la fusión nuclear. Pero también el número de protones que se fusionarían sería tan pequeño que el aparato no resultaría práctico. Todo ello estaría bajo el nombre de fusión fría, que es cualquier reacción nuclear de fusión producida a temperaturas y presiones cercanas a las condiciones ambiente ordinarias, muy inferiores a las necesarias normalmente para la producción de reacciones termonucleares, utilizando equipamiento de relativamente bajo coste y un reducido consumo eléctrico para generarla. La fusión fría incluye la fractofusión y la fusión catalizada por muones, una partícula elemental masiva. En la fractofusión, la fusión de las moléculas de deuterio se realiza dentro de la red cristalina de un cristal, mientras que en el segundo tipo los electrones de los átomos a fusionar son sustituidos por muones, lo que permite un mayor acercamiento de los núcleos atómicos. Otro posible mecanismo de fusión fría es la fusión en burbujas inducida por sonoluminiscencia, que ya hemos visto antes. Otro tema es la antimateria como fuente de energía. Para construir un motor de antimateria sería necesario introducir una corriente continua de antimateria en una cámara de reacción, donde se combinaría cuidadosamente con materia ordinaria para producir una explosión controlada, similar a la explosión creada por cohetes químicos. Los iones creados por esta explosión serían entonces expulsados por un extremo del cohete de antimateria, produciendo propulsión. Debido a la eficiencia del motor de antimateria para convertir materia en energía, este es, en teoría, uno de los diseños de motor más atractivos para futuras naves estelares, aunque la dificultad estriba en obtener antimateria. En la serie Star Trek, la antimateria es la fuente de energía del Enterprise, en que sus motores están alimentados por la colisión controlada de materia y antimateria.

Pero tal vez cuando hablamos de energía tendríamos también que hablar del magnetismo. El siglo XX fue la era de la electricidad, en que la manipulación de los electrones ha abierto las puertas a unas tecnologías totalmente nuevas, que han hecho posible la radio, la televisión, los ordenadores, los láseres, las exploraciones mediante IRM, etc… Pero en algún momento de este siglo XXI es probable que los físicos descubran los superconductores a temperatura ambiente. Esto nos haría entrar en una era totalmente nueva, la era del magnetismo. Imaginemos que circulamos en un coche magnético, flotando sobre el suelo y viajando a varios cientos de kilómetros por hora, casi sin consumir combustible. Imaginemos que los trenes e incluso las personas viajen por el aire, flotando sobre campos magnéticos. A veces olvidamos que la mayor parte de la gasolina que utilizamos en nuestros coches se consume para superar el rozamiento. La razón por la que consumimos cientos de dólares en gasolina es que hay que superar la fricción de las ruedas con la carretera, así como la fricción del aire. Sin embargo, un coche magnético flotaría sobre el suelo. Pero la clave para conseguir esta tecnología está en los superconductores. Desde 1911 se sabe que el mercurio, cuando se enfría a 4 grados Kelvin (–269 ºC) por encima del cero absoluto, pierde toda resistencia eléctrica. Esto significa que los cables superconductores no pierden energía, ya que carecen de resistencia. La razón es que los electrones que se mueven por el cable pierden energía cuando chocan con los átomos. Pero cerca del cero absoluto, estos átomos se encuentran casi en reposo, por lo que los electrones pueden deslizarse fácilmente entre ellos sin perder energía. Estos superconductores poseen propiedades extrañas pero maravillosas. Sin embargo, tienen la gran desventaja de que hay que enfriarlos hasta casi el cero absoluto, y para eso se utiliza hidrógeno líquido, que es muy caro. Por ello los físicos quedaron conmocionados en 1986, cuando se anunció el descubrimiento de una nueva clase de superconductores que no necesitaban ser enfriados hasta estas temperaturas tan increíblemente bajas. A diferencia de otros materiales anteriores, como el mercurio o el plomo, estos superconductores eran cerámicos, y previamente se había pensado que no eran candidatos adecuados para ser superconductores, pero que solo se convertían en tales a 92 grados Kelvin (–181 ºC) por encima del cero absoluto. Sorprendentemente, se vio que se convertían en superconductores a una temperatura que se consideraba teóricamente imposible. Por ahora, el récord mundial de estos nuevos conductores cerámicos está en 138 grados Kelvin (–135 ºC) sobre el cero absoluto. Esto es importante, ya que el nitrógeno líquido, que es barato, se forma a 77 ºK (–196 ºC) y, por lo tanto, puede utilizarse para enfriar estos superconductores cerámicos. Este hecho, por sí solo, ha rebajado radicalmente los costes de los superconductores. Por lo tanto, estos superconductores tienen aplicaciones prácticas inmediatas.

 

Pero aunque los superconductores cerámicos son un paso de gigante en la dirección correcta, todavía no es suficiente. En primer lugar, aunque el nitrógeno líquido es relativamente barato, hay que tener una instalación de refrigeración para enfriar el nitrógeno. En segundo lugar, es difícil modelar estas cerámicas para obtener cables. En tercer lugar, los físicos están todavía desconcertados por la naturaleza de esas cerámicas. Después de varias décadas, los físicos no están muy seguros de cómo funcionan. La teoría cuántica de estas cerámicas es demasiado complicada para resolverla en el momento actual, por lo que nadie sabe por qué estos materiales se convierten en superconductores. Ahora bien, cualquier físico conoce el tremendo impacto que tendría un superconductor a temperatura ambiente. Podría poner en marcha otra revolución industrial. Los superconductores a temperatura ambiente no precisarían un equipo de refrigeración, por lo que podrían crear campos magnéticos permanentes dotados de una energía enorme. La evidencia experimental señala que las corrientes que circulan por una bobina superconductora tienen un tiempo de vida de 100.000 años, pero algunas teorías sostienen que el límite máximo para una de estas corrientes eléctricas que circulan por una bobina superconductora es el tiempo de vida del propio universo. Como mínimo, estos superconductores podrían reducir la pérdida que se produce en los cables eléctricos de alto voltaje, reduciendo así el coste de la electricidad. Hasta el 30% de la electricidad generada por una planta eléctrica puede perderse en la transmisión. Los cables superconductores a temperatura ambiente podrían cambiar todo esto, proporcionando así un ahorro considerable en los costes y la contaminación. Dado que la producción mundial de dióxido de carbono está estrechamente ligada al consumo de energía, y dado que la mayor parte de la energía se gasta en superar la fricción, la era del magnetismo podría reducir de manera permanente el consumo de energía y la producción de dióxido de carbono. Y aquí hacemos un paréntesis. Dado que aproximadamente la mitad del petróleo extraído en todo el mundo se utiliza para coches, camiones, trenes y aviones, hay un enorme interés por ver quién dominará el futuro de la automoción. Sabemos que aparte del coche totalmente eléctrico, tenemos el vehículo de celda de combustible, al que llaman a veces el coche del futuro. Al utilizar exclusivamente hidrógeno como combustible, no necesita gasolina ni carga eléctrica. Sin embargo, como todavía no existe la infraestructura necesaria para conseguir hidrógeno, solo está parcialmente disponible. En principio parece que el coche de celda de combustible es el coche perfecto, ya que funciona mediante una combinación de hidrógeno y oxígeno que luego se convierte en energía eléctrica, dejando solo agua como residuo, no produciendo humo. Pero yo creo que el coche realmente del futuro próximo, si se descubren superconductores a temperatura ambiente, será el coche magnético, que puede extenderse a otros medios de transporte, como los trenes.

 

Sin prácticamente aportación suplementaria de energía, los superconductores a temperatura ambiente podrían producir super imanes capaces de levantar trenes y coches de modo que éstos floten sobre el suelo. Actualmente ya es posible conseguir un pequeño trozo de superconductor cerámico a bajas temperaturas. Se coloca la cerámica en una fuente de plástico y se vierte sobre ella suavemente el nitrógeno líquido, que empieza a hervir golpeando la cerámica. Cuando el nitrógeno deja de hervir se coloca un pequeño imán encima de la cerámica. Como por arte de magia, el imán flota en el aire. Si le damos un golpecito al imán, este se pone a girar por sí solo. En este experimento puede vislumbrarse el futuro del transporte. La razón por la que el imán flota es muy sencilla. Las líneas magnéticas de fuerza no pueden penetrar en un superconductor. A esto se le llama efecto Meissner, que implica que cuando se aplica un campo magnético a un superconductor, se forma una pequeña corriente eléctrica sobre su superficie y se cancela, de modo que el campo magnético es expelido del superconductor. Si se coloca el imán en la parte superior de la cerámica, sus líneas de campo se agrupan, ya que no pueden pasar a través de la cerámica. Esto crea un colchón de líneas de campo magnéticas que chocan unas con otras, empujando así el imán fuera de la cerámica y haciéndolo flotar. Los superconductores a temperatura ambiente anuncian también una era de los superconductores. Como ya hemos visto, los aparatos de Imagen por Resonancia Magnética (IRM). son extremadamente útiles, pero requieren unos grandes campos magnéticos. Los superconductores a temperatura ambiente permitirán que la ciencia cree enormes campos magnéticos de poco coste. Así, en el futuro se podrán miniaturizar los aparatos de IRM. Actualmente ya pueden fabricarse estos aparatos a una altura de unos treinta centímetros, utilizando campos magnéticos no uniformes. Con los superconductores a temperatura ambiente se podrán reducir al tamaño de un botón.

 

Una aplicación de los superconductores a temperatura ambiente es revolucionar el transporte, introduciendo coches y trenes que floten sobre el suelo y, por lo tanto, puedan desplazarse sin fricción alguna, por lo que se reduciría drásticamente el consumo  energético. Los superconductores a temperatura ambiente nos proporcionarán pronto coches y trenes que flotarán sin fricción alguna sobre raíles o pavimentos superconductores. Para ello las carreteras estarían cubiertas de superconductores en vez de asfalto. El coche estaría provisto de un imán permanente o bien generaría un campo magnético mediante un superconductor que incorporase. De esta manera el vehículo flotaría. Para poner el coche en movimiento sería suficiente con usar aire comprimido. Una vez en marcha, prácticamente se deslizaría sin energía. Solo se necesitaría un motor eléctrico o un propulsor de aire comprimido para proporcionar la poca energía necesaria para vencer la fricción del aire, que sería el único obstáculo al que se enfrentaría el vehículo. Aunque todavía no disponemos de superconductores a temperatura ambiente, varios países, como Alemania, Japón y China, ya han fabricado trenes de levitación magnética, llamados maglev, que se deslizan flotando sobre unos raíles que contienen imanes. Como los polos positivos de unos imanes repelen a los polos positivos de otros, los imanes están dispuestos de tal modo que la parte inferior del tren contiene imanes que le permiten flotar sobre la vía. La velocidad más alta que ha alcanzado un tren maglev es de 581 kilómetros por hora, registrada en Japón en el tren MLX01 en 2003. Dado que un tren maglev flota en el aire, la mayor parte de su pérdida de energía se debe a la fricción del aire. Sin embargo, si un tren maglev funcionara en una cámara de vacío, podría viajar a la extraordinaria velocidad de unos 6.450 kilómetros por hora. Desafortunadamente, los altos costes económicos de los trenes maglev han impedido que proliferaran por todo el mundo. Pero los superconductores a temperatura ambiente podrían cambiar esta situación. Se estima que un 2% de los gases de efecto invernadero procede de los motores a reacción, por lo que los trenes maglev reducirían esa cantidad.

 

Pero dentro de este siglo XXI se abre otra posibilidad para la producción de energía procedente del espacio. A esta energía se la llama energía solar espacial (SSP) y se obtendría enviando cientos de satélites espaciales pare orbitar la Tierra. Estos satélites estarían situados a unos 35.500 kilómetros de la Tierra y allí se convertirían en geoestacionarios, girando alrededor del planeta a la misma velocidad que este gira sobre su eje. Entonces absorberían radiación solar y enviarían esa energía a la Tierra en forma de radiación de microondas. Dado que en el espacio hay ocho veces más luz solar que en la superficie terrestre, esta técnica representa una posibilidad real. El actual obstáculo principal para captar la energía solar espacial (SSP) es su coste, sobre todo el lanzamiento de esos colectores espaciales. Aunque no hay en las leyes de la física nada que impida recoger energía directamente del Sol, los problemas de ingeniería y de costes aún son enormes. Sin embargo, cuando se encuentren maneras de reducir el coste de los viajes espaciales, estos satélites espaciales serán asequibles. La primera propuesta seria para explotar la energía solar espacial se hizo en 1968, cuando Peter Glaser, presidente de la Sociedad Internacional de Energía Solar, propuso enviar satélites del tamaño de una ciudad que dirigieran la energía hacia la Tierra. En 1979, unos científicos de la NASA examinaron en profundidad esta propuesta y estimaron que el coste ascendería a varios cientos de miles de millones de dólares, con lo que el proyecto quedó descartado momentáneamente. Pero los partidarios de esta tecnología consideran que es solo cuestión de tiempo convertir en realidad la tecnología y hacer razonables los costes de la SSP. Martin Hoffert, un físico que trabajó en la Universidad de Nueva York, dice: «La SSP ofrece una fuente de electricidad a escala global, verdaderamente sostenible y libre de emisiones contaminantes». En 2009, el ministro de Comercio japonés dio a conocer un plan para investigar la viabilidad de un sistema de satélites de energía espacial. Mitsubishi Electric y otras empresas japonesas se sumarán a un programa de 10.000 millones de dólares para lanzar al espacio una estación de energía solar que generará 1.000 megavatios de energía. Será enorme, con una superficie de aproximadamente 3,9 kilómetros cuadrados cubierta de células solares. Kensuke Kanekiyo, del Instituto de Economía Energética, una organización gubernamental dedicada a la investigación, dijo: «Suena como unos dibujos animados de ciencia ficción, pero la generación de energía solar en el espacio puede ser una fuente de energía alternativa a medida que avance el siglo y los combustibles fósiles vayan desapareciendo».

 

Pero una fuente de energía que puede ser la energía del futuro, a más largo plazo, es la que correspondería a la energía oscura, que es una forma de energía que estaría presente en todo el espacio, produciendo una presión que sería la  que tiende a acelerar la expansión del universo, resultando en una fuerza gravitacional repulsiva o antigravitacional. La existencia de la energía oscura explicaría las observaciones recientes de que el universo parece estar en expansión acelerada desde hace unos 6000 millones de años. La causa de esta expansión sería que la densidad de la materia ha seguido disminuyendo, mientras que la energía oscura ha permanecido constante. En el modelo estándar de la cosmología, la energía oscura aporta prácticamente el 68 % de la masa-energía total del universo. Relacionados con la energía oscura tenemos la constante cosmológica, una energía de densidad constante que llena el espacio en forma homogénea, así como la teoría cuántica de campos y los campos dinámicos, cuya densidad de energía puede variar en el tiempo y el espacio. Se piensa que la constante cosmológica se origina en la energía del vacío. La medición de la ecuación de estado de la energía oscura es uno de los mayores retos de investigación actual de la cosmología física. No se debe confundir la energía oscura con la materia oscura, ya que, aunque ambas forman la mayor parte de la masa del universo, la materia oscura es una forma de materia, mientras que la energía oscura se asocia a un campo que ocupa todo el espacio. Información divulgada recientemente basada en el trabajo realizado por la nave espacial Planck sobre la distribución del universo, obtuvo una estimación más precisa, que está en el 68,3 % de energía oscura, un 26,8 % de materia oscura y un 4,9 % de materia ordinaria. Pero todavía estamos lejos de poder capturar está energía oscura y aprovecharla

 

Silenciados durante décadas, las dificultades energéticas que sufre el planeta en el siglo XXI está reavivando el interés, entre la propia comunidad científica, por los científicos heterodoxos. La existencia del éter y de la energía “punto cero”, la antigravitatoria o el orgón, sitúa el debate científico actual a un paso del esoterismo. Aunque en las diferentes tradiciones esotéricas siempre se ha creído en la existencia de esta energía ilimitada, el genial inventor Nikola Tesla fue el primer científico moderno que formuló una teoría sobre ella. A finales del siglo XIX la llamó “energía cósmica”. Y no se quedó ahí, ya que incluso la llevó a la práctica. En 1931, el convertidor de energía de Nicola Tesla puso en funcionamiento un lujoso coche, marca Arrow, llevándolo hasta alcanzar los 128 km/hora. Con matices muy sutiles, la energía cósmica de Tesla ha sido rebautizada posteriormente como “energía taquiónica”. Al contrario de los dispositivos solares o de viento, los dispositivos de energía libre necesitan poca o ninguna capacidad de almacenamiento de energía, porque pueden captar tanta energía como se necesite y cuando se necesite. Apropiadamente diseñados, los dispositivos de energía libre no tienen ninguna clase de limitaciones. En el periódico Brooklin Eagle, Tesla anunció el 10 de Julio de 1931 que: “Yo he atrapado los rayos cósmicos y los he hecho operar un dispositivo de movimiento“. Más tarde en el mismo artículo, Tesla dijo: “Hace más de 25 años, yo comencé con mis esfuerzos para atrapar los rayos cósmicos, y ahora puedo afirmar que he tenido éxito”. En 1933 hizo la misma afirmación en un artículo para el periódico New York American, bajo el título: Dispositivo para Atrapar la Energía Cósmica. En dicho artículo, Tesla afirmaba: “Esta nueva energía para conducir la maquinaria del mundo será derivada de la energía que opera el universo, la energía cósmica, cuya fuente central para la Tierra es el Sol, el cual está por todas partes presente, en cantidades ilimitadas”. Esto significaría que el dispositivo del que Tesla hablaba se debía haber construido antes de 1908. Casi con toda seguridad, la idea se le había ocurrido a Tesla años antes. Una información más exacta está disponible a partir de su correspondencia, ahora en la Biblioteca de la Universidad de Columbia. Tesla creía que se volvería posible atrapar energía directamente conectándose a la misma rueda de la naturaleza. Este parece un diseño que parecería cumplir con su afirmación de haber desarrollado un generador sin combustible, energizado por los rayos cósmicos. Pero, en 1900, Tesla escribió su artículo más importante, que describe como una máquina autoactivante hallaría energía en el medio ambiente, un generador sin combustible diferente de su Dispositivo de Energía Radiante.

 

Fuentes:

  • Kaku Michio – Física de lo Imposible
  • Kaku Michio – La Física del futuro
  • Varios autores – Computación teleportación y criptografÍa cuánticas
  • Eric Drexler – Motores de la creación : la próxima era de la Nanotecnología
  • Tyrone Adams – Bases de la Nanotecnología
  • Octavio Miramontes, Karen Volke  – Fronteras de la Física en el Siglo XXI
  • Miguel Aznar – Pensamiento crítico acerca de la Nanotecnología
  • Fundación Española para la Ciencia y la Tecnología – Nanociencia y Nanotecnología
  • Charles Poole, Frank J. Owens – Introducción a la Nanotecnología
  • Noboru Takeuchi – Nanociencia y Nanotecnología
  • Michael Crichton – Los peligros de la nanotecnología
  • Nanosistemas: Maquinaria, Fabricación y Computación Molecular
  • Crandall – Nanotechnology: Molecular Speculations on Global Abundance
  • David E. Newton – Recent Advances and Issues in Molecular Nanotechnology
  • Antonio Madrid Vicente – Fusión y fisión nuclear
  • Vicente Aboites – Fusión nuclear por medio de láser
  • Luis Fernando Magaña Solis – Los superconductores
  • Jorge E. Hirsch – La superconductividad bien entendida empieza con H

septiembre 11, 2020 - Posted by | Ciencia, Reflexiones

Aún no hay comentarios.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: