jueves, 30 de julio de 2009

El primer procesador cuántico

El pasado mes de junio, investigadores de Yale, dirigidos por Robert Schoelkopf, anunciaron la creación del primer procesador cuántico de estado sólido en la revista Nature.

Durante las últimas décadas, uno de los objetivos de los diseñadores de circuitos integrados siempre ha sido lograr introducir el mayor número de componentes en el menor espacio posible. Siempre se ha sabido que llegaría un momento en que esa miniaturización fuese tal que los componentes electrónicos serían de un tamaño tan pequeño que las leyes de la física clásica dejasen de ser válidas. En ese momento, los dispositivos tendrían que funcionar siguiendo las leyes de la Física Cuántica. Es decir, no se trata simplemente de que tengamos más componentes en menos espacio, sino de que además éstos tendrían diferentes fundamentos físicos de funcionamiento, lo que daría lugar a propiedades (y por lo tanto aplicaciones) diferentes.

El procesador de Yale está formado por dos bits cuánticos (qubits), y sólo puede realizar algoritmos muy sencillos. Cada qubit está formado en realidad por mil millones de átomos de aluminio, que actúan como un único átomo artificial. Cada uno de ellos presenta dos niveles energéticos, a los que se puede asignar el valor "1" o "0". Y es aquí donde empiezan las diferencias con los microprocesadores clásicos. Un sistema clásico permanecería en uno de esos dos valores, pero nada impide, en un sistema cuántico, que éste esté simultáneamente en varios estados. Es lo que se conoce como superposición de estados. Esto significa que un qubit puede almacenar de forma simultánea más de un bit de información.

Por ejemplo, si trabajamos con 4 bits de información,podemos tener 16 combinaciones diferentes (0000, 0001.... hasta 1111). Un sistema convencional sólo puede adoptar cada vez una de esas 16 combinaciones. Un sistema cuántico de 4 qubits podría almacenar simultáneamente los 16 valores.

Hasta ahora, el problema con el que se enfrentaban los investigadores es que los tiempos de vida de los átomos artificiales eran tan bajos que no podían realizarse operaciones con ellos. El equipo de Yale ha logrado que sus qubits de estado sólido duren del orden de microsegundos. Un tiempo pequeño, pero suficiente para realizar pequeños cálculos con éxito.

Y aunque aún estamos bastante lejos de tener un ordenador cuántico plenamente funcional, se ha dado un paso adelante bastante grande.

jueves, 16 de julio de 2009

El ordenador que llegó a la Luna

El día 20 de este mes, como todo el mundo sabe, se cumplen 40 años de la llegada del hombre a la Luna. Lo que ya no es tan conocido es que el ordenador que controlaba el Apolo XI fue el primero fabricado con circuitos integrados.

Este ordenador, llamado AGC (Apollo Guidance Computer) fue diseñado y construido en el MIT y sus prestaciones, si bien casi ridículas para los estándares actuales, resultaban asombrosas para su época: velocidad de procesamiento de 1 MHz, 4 Kb de RAM, 32 Kb de ROM, y 4 registros de 16 bits. Su sistema operativo, llamado EXEC, podía ejecutar 8 tareas simultáneas. El usuario se comunicaba con el ordenador a través de una interfaz de 19 teclas, llamado DSKY. Obviamente, no disponía de disco duro, y los programas que necesitaba se almacenaban en memorias de ferrita.

Cada misión Apolo transportaba 2 ordenadores AGC, uno en el módulo lunar (el que alunizaba) y otro en el módulo de mando (la nave que permanecía orbitando), éste con dos DSKY.

Entre otras funciones, el AGC debía guiar al módulo, cuya masa era de 13.000 Kg, hacia el lugar de alunizaje previsto, así como llevarlo de vuelta al módulo de mando.

Si alguien desea fabricarse una réplica del AGC, puede hacerlo siguiendo el manual de instrucciones que un ingeniero estadounidense ha preparado, después de tardar 4 años en hacer él mismo una réplica en su tiempo libre. El manual es gratuito, aunque el autor advierte de que a él los componentes le costaron 3.000 dólares (que no es un precio excesivo, si se compara con los 150.000 que costó el original)

Y para finalizar, un vídeo en el que se ve a los astronautas del Apolo XI probando el AGC durante la misión. (Por cierto, este vídeo también puede verse en una página excelente, http://wechoosethemoon.org, en la que se puede seguir, en tiempo real, la misión, con vídeos, imágenes y las grabaciones de audio)

sábado, 6 de junio de 2009

Medio siglo del circuito integrado

Este año de 2009 es también el del cincuentenario de una de las patentes más importantes del siglo XX. El 6 de febrero de 1959 Jack Kilby (en la foto), que trabajaba para la empresa Texas Instruments, presentó la patente de un "circuito sólido fabricado con germanio", el primer circuito integrado (CI o chip, en inglés). R. Noyce, de la empresa Fairchild Camera, obtuvo ese año el mismo logro, de forma independiente.

Hasta entonces, los circuitos electrónicos se montaban conectando con el cableado correspondiente los diferentes componentes que lo formaban. Kilby tuvo la idea de montar tanto los componentes como las conexiones directamente sobre una única oblea de material semiconductor. De esta forma, se reducía drásticamente el tamaño de los circuitos, además de lograr realizar tanto la fabricación de los dispositivos como su conexión en un único proceso.

De la importancia de este invento casi ni hace falta escribir, ya que sin él el simple hecho de leer esta entrada del blog en un ordenador doméstico sería imposible, pues los ordenadores seguirían siendo máquinas mastodónticas de precios astronómicos.

Pero la aplicación del microchip no sólo se limita a los microprocesadores (desarrollados en 1971), sino que se trata de un dispositivo omnipresente en nuestras vidas, y no sólo en dispositivos estrictamente electrónicos.

Y al poco de nacer el CI nació también la carrera para la miniaturización. Chips más pequeños significa un mayor número de componentes en la misma superficie y menor longitud de los contactos, lo que se traduce en una aumento de la rapidez de funcionamiento. Según la ley empírica de Moore, formulada en los años 60, y que aún se cumple, el número de componentes de los CI se duplicaría cada dos años. Así, hemos pasado de unas pocas decenas de componentes en los primeros integrados (en la foto se ve el circuito de Kilby) a chips con 1300 millones de componentes. De hecho, los tamaños que se alcanzan son tan pequeños que se están alcanzando los límites de aplicación de la física clásica. En un futuro, los chips deberán diseñarse teniendo en cuenta las leyes de la física cuántica.

A pesar de la importancia de este invento, no fue hasta el año 2000 cuando se concedió a Kilby el premio Nobel de Física. Si llegan a tardar un poco más no se lo hubiesen podido dar, ya que Kilby murió en 2005.

lunes, 4 de mayo de 2009

Aniversario del nacimiento de John Bardeen

Seguramente, si preguntásemos por el nombre de quién descubrió la penicilina, o quién inventó la bombilla, mucha gente sabría contestar correctamente. Sin embargo, por desgracia casi nadie sabría responder a la pregunta de quiénes fueron los creadores del invento más importante del siglo XX, el transistor. Resulta bastante triste el público en general, que vive inmerso en un mundo altamente tecnificado, desconozca el nombre de las personas que hicieron posible el dispositivo electrónico fundamental para el desarrollo de las tecnologías electrónica e informática actuales.

El 23 de mayo se cumplen 101 años del nacimiento de una de estas tres personas, John Bardeen, que no sólo merece un puesto de honor en la historia por ser coinventor del transistor, sino porque además es la única persona que ha conseguido ganar 2 premios Nobel de Física (el segundo por desarrollar la teoría BCS de la superconductividad).

En 1928 terminó sus estudios de ingeniería eléctrica en la Universidad de Winsconsin, y posteriormente amplió sus estudios en Física y Matemáticas en Princeton en 1936. Después de la 2ª Guerra Mundial entró a trabajar en los laboratorios Bell donde, junto a Schockley y Brattain, comenzó a trabajar en el desarrollo de un dispositivo amplificador de estado sólido, capaz de sustituir las válvulas de vacío que se usaban hasta entonces. Después de varios intentos, lo lograron usando germanio como material semiconductor, en el año 1947, con un tamaño 50 veces menor que el de las válvulas de vacío.

Desde el prototipo artesanal de la foto hasta los dispositivos microscópicos actuales han pasado más de 60 años y continuas mejoras, pero la base del funcionamiento de los transistores actuales sigue siendo el mismo que el del año 47.

John Bardeen murió el 30 de Enero de 1991.

miércoles, 11 de febrero de 2009

Telefonía 3G, WIFI y Hollywood

Aunque a simple vista parece que no existe ninguna relación tecnológica entre la telefonía 3G, el bluetooth y las conexiones WIFI con el cine, resulta que dichos inventos (entre otros) nunca hubieran existido de no ser por una actriz de origen austriaco llamada Hedy Lamarr (1913 - 2000).

Hedy Lamarr era una chica superdotada que empezó sus estudios de ingeniería con apenas 16 años, aunque pronto lo dejó para trabajar como actriz. Posteriormente retomó sus estudios y en el año 1942, ya en Estados Unidos, presentó una patente (firmada con su apellido real, Kiesler) para un dispositivo de salto de frecuencia, mientras proseguía con su carrera cinematográfica.

En esencia, se trataba de un sistema para permitir comunicaciones seguras por radio (era la época de la 2ª Guerra Mundial y Lamarr era una convencida antinazi), de tal forma que el emisor y el receptor, en vez de usar una frecuencia fija, fácil de interceptar, la cambiaban continuamente, de forma sincronizada.

En los años 90 del siglo pasado los ingenieros se enfrentaban a un problema en el desarrollo de las comunicaciones inalámbricas. Varios equipos de la misma red transmitiendo simultáneamente pueden interferirse mutuamente, de tal forma que a los receptores no les llega nada. Para evitar el problema, sería necesario que el equipo transmisor tuviese que esperar a que el canal quedase libre para empezar a transmitir. Pero estos sistemas de regulación de tráfico eran lentos e ineficientes.

La solución llegó cuando se desempolvó la patente de Lamarr. Desde entonces, los equipos de transmisión inalámbrica van cambiando de forma aleatoria la frecuencia de emisión, de tal forma que la probabilidad de que dos transmisores empleen simultáneamente la misma frecuencia es prácticamente nula. Para que los receptores puedan captar la señal, deben estar escaneando continuamente todas las frecuencias de transmisión posibles. De este modo, los errores de transmisión son tan escasos que pueden ser manejados fácilmente con protocolos sencillos de detección y corrección de errores.

Así, una actriz e inventora europea, trabajando para el gobierno estadounidense durante la segunda guerra mundial, resolvió, sin ser consciente de ello, el problema de las comunicaciones digitales inalámbricas del siglo XXI.


martes, 10 de febrero de 2009

Richard P. Feynman y el nacimiento de la nanotecnología

"Para lograr un éxito tecnológico, la realidad debe estar por encima de las relaciones públicas, porque la Naturaleza no puede ser engañada" Richard P. Feynman

Richard Phillips Feynman (Nueva York, 11 de mayo de 1918 - Los Ángeles, 15 de febrero de 1988), fue un físico estadounidense, considerado como uno de los más importantes de su país en el siglo XX.

Aunque Feynman es recordado sobre todo por sus enormes contribuciones a la física teórica, que le valieron el Premio Nobel de Física en 1965, su infinita curiosidad científica y sus inagotables ansias de conocimiento le empujaron a acometer trabajos exploratorios en cuestiones tecnológicas.

Entre ellos destacan especialmente una charla pronunciada en 1959, llamada "Hay mucho sitio al fondo", en la que realizó una importante contribución al desarrollo de la nanotecnología. Comenzó la charla con una pregunta: "¿Por qué no podemos escribir los 24 volúmenes completos de la Enciclopedia Británica en la cabeza de un alfiler?". Desde ese punto de partida, y con su enorme facilidad para explicar de forma sencilla conceptos complejos, Feynman predijo lo que sería necesario hacer y cómo habría que hacerlo, en una época en la que la tecnología aún estaba lejos de poder acometer la tarea de la miniaturización.

Fundamentalmente, demostró que con las leyes de la física conocidas en ese momento, la nanotecnología era posible. A continuación, propuso una serie de ideas para lograr miniaturizaciones de dispositivos. Entre ellas, la posibilidad de disponer los átomos individualmente de la forma que deseemos, lo que finalmente realizaron científicos de IBM en 1989. Desgraciadamente, Feynman no pudo llegar a verlo, ya que había fallecido el año anterior, aunque seguramente se hubiese mostrado entusiasmado y encantado con la noticia.

Se suele reconocer que la charla de Feynman dio inicio al campo de la nanotecnología.

Se puede encontrar el texto en castellano de la charla dentro del libro "El Placer de Descubrir". Richard P. Feynman. Ed. Crítica.