En una entrada anterior se comentó que en 1989 investigadores de IBM lograron manipular átomos de forma individual mediante un microscopio de efecto túnel (STM). El pasado día 30 de Abril, casi 24 años después, investigadores de dicha empresa colgaron en YouTube la que ellos han denominado "película más pequeña del mundo", titulada un chico y su átomo. Se trata de una película de animación en la que cada punto que define a los personajes es en realidad un átomo, que es desplazado por la superficie mediante un microscopio STM.
El grupo que ha realizado la película investiga nuevos sistemas de almacenamiento de información mediante el mínimo número posible de átomos, en sistemas de almacenamiento cuánticos.
Hace unas semanas leí una entrevista a Richard Stallman, el creador del software libre. Aunque es bastante radical y con un punto demagógico, no deja de tener parte de razón en lo referente a cómo nos estamos dejando comer espacios de libertad y elección deslumbrados por artilugios ultramodernos respaldados por campañas de marketing excelentemente diseñadas. Os dejo el enlace a la entrevista para que la leáis.
El pasado mes de junio, investigadores de Yale, dirigidos por Robert Schoelkopf, anunciaron la creación del primer procesador cuántico de estado sólido en la revista Nature.
Durante las últimas décadas, uno de los objetivos de los diseñadores de circuitos integrados siempre ha sido lograr introducir el mayor número de componentes en el menor espacio posible. Siempre se ha sabido que llegaría un momento en que esa miniaturización fuese tal que los componentes electrónicos serían de un tamaño tan pequeño que las leyes de la física clásica dejasen de ser válidas. En ese momento, los dispositivos tendrían que funcionar siguiendo las leyes de la Física Cuántica. Es decir, no se trata simplemente de que tengamos más componentes en menos espacio, sino de que además éstos tendrían diferentes fundamentos físicos de funcionamiento, lo que daría lugar a propiedades (y por lo tanto aplicaciones) diferentes.
El procesador de Yale está formado por dos bits cuánticos (qubits), y sólo puede realizar algoritmos muy sencillos. Cada qubit está formado en realidad por mil millones de átomos de aluminio, que actúan como un único átomo artificial. Cada uno de ellos presenta dos niveles energéticos, a los que se puede asignar el valor "1" o "0". Y es aquí donde empiezan las diferencias con los microprocesadores clásicos. Un sistema clásico permanecería en uno de esos dos valores, pero nada impide, en un sistema cuántico, que éste esté simultáneamente en varios estados. Es lo que se conoce como superposición de estados. Esto significa que un qubit puede almacenar de forma simultánea más de un bit de información.
Por ejemplo, si trabajamos con 4 bits de información,podemos tener 16 combinaciones diferentes (0000, 0001.... hasta 1111). Un sistema convencional sólo puede adoptar cada vez una de esas 16 combinaciones. Un sistema cuántico de 4 qubits podría almacenar simultáneamente los 16 valores.
Hasta ahora, el problema con el que se enfrentaban los investigadores es que los tiempos de vida de los átomos artificiales eran tan bajos que no podían realizarse operaciones con ellos. El equipo de Yale ha logrado que sus qubits de estado sólido duren del orden de microsegundos. Un tiempo pequeño, pero suficiente para realizar pequeños cálculos con éxito.
Y aunque aún estamos bastante lejos de tener un ordenador cuántico plenamente funcional, se ha dado un paso adelante bastante grande.
El día 20 de este mes, como todo el mundo sabe, se cumplen 40 años de la llegada del hombre a la Luna. Lo que ya no es tan conocido es que el ordenador que controlaba el Apolo XI fue el primero fabricado con circuitos integrados.
Este ordenador, llamado AGC (Apollo Guidance Computer) fue diseñado y construido en el MIT y sus prestaciones, si bien casi ridículas para los estándares actuales, resultaban asombrosas para su época: velocidad de procesamiento de 1 MHz, 4 Kb de RAM, 32 Kb de ROM, y 4 registros de 16 bits. Su sistema operativo, llamado EXEC, podía ejecutar 8 tareas simultáneas. El usuario se comunicaba con el ordenador a través de una interfaz de 19 teclas, llamado DSKY. Obviamente, no disponía de disco duro, y los programas que necesitaba se almacenaban en memorias de ferrita.
Cada misión Apolo transportaba 2 ordenadores AGC, uno en el módulo lunar (el que alunizaba) y otro en el módulo de mando (la nave que permanecía orbitando), éste con dos DSKY.
Entre otras funciones, el AGC debía guiar al módulo, cuya masa era de 13.000 Kg, hacia el lugar de alunizaje previsto, así como llevarlo de vuelta al módulo de mando.
Si alguien desea fabricarse una réplica del AGC, puede hacerlo siguiendo el manual de instrucciones que un ingeniero estadounidense ha preparado, después de tardar 4 años en hacer él mismo una réplica en su tiempo libre. El manual es gratuito, aunque el autor advierte de que a él los componentes le costaron 3.000 dólares (que no es un precio excesivo, si se compara con los 150.000 que costó el original)
Y para finalizar, un vídeo en el que se ve a los astronautas del Apolo XI probando el AGC durante la misión. (Por cierto, este vídeo también puede verse en una página excelente, http://wechoosethemoon.org, en la que se puede seguir, en tiempo real, la misión, con vídeos, imágenes y las grabaciones de audio)
Este año de 2009 es también el del cincuentenario de una de las patentes más importantes del siglo XX. El 6 de febrero de 1959 Jack Kilby (en la foto), que trabajaba para la empresa Texas Instruments, presentó la patente de un "circuito sólido fabricado con germanio", el primer circuito integrado (CI o chip, en inglés). R. Noyce, de la empresa Fairchild Camera, obtuvo ese año el mismo logro, de forma independiente.
Hasta entonces, los circuitos electrónicos se montaban conectando con el cableado correspondiente los diferentes componentes que lo formaban. Kilby tuvo la idea de montar tanto los componentes como las conexiones directamente sobre una única oblea de material semiconductor. De esta forma, se reducía drásticamente el tamaño de los circuitos, además de lograr realizar tanto la fabricación de los dispositivos como su conexión en un único proceso.
De la importancia de este invento casi ni hace falta escribir, ya que sin él el simple hecho de leer esta entrada del blog en un ordenador doméstico sería imposible, pues los ordenadores seguirían siendo máquinas mastodónticas de precios astronómicos.
Pero la aplicación del microchip no sólo se limita a los microprocesadores (desarrollados en 1971), sino que se trata de un dispositivo omnipresente en nuestras vidas, y no sólo en dispositivos estrictamente electrónicos.
Y al poco de nacer el CI nació también la carrera para la miniaturización. Chips más pequeños significa un mayor número de componentes en la misma superficie y menor longitud de los contactos, lo que se traduce en una aumento de la rapidez de funcionamiento. Según la ley empírica de Moore, formulada en los años 60, y que aún se cumple, el número de componentes de los CI se duplicaría cada dos años. Así, hemos pasado de unas pocas decenas de componentes en los primeros integrados (en la foto se ve el circuito de Kilby) a chips con 1300 millones de componentes. De hecho, los tamaños que se alcanzan son tan pequeños que se están alcanzando los límites de aplicación de la física clásica. En un futuro, los chips deberán diseñarse teniendo en cuenta las leyes de la física cuántica.
A pesar de la importancia de este invento, no fue hasta el año 2000 cuando se concedió a Kilby el premio Nobel de Física. Si llegan a tardar un poco más no se lo hubiesen podido dar, ya que Kilby murió en 2005.