• José Antonio Ces

El de la computación cuántica



Desde hace unos meses tengo pendiente la contestación a una pregunta que me suelen hacer acerca de la computación cuántica, y que tiene que ver con una posible sustitución de los ordenadores actuales. Supongo que es lógica la pregunta, pero no es fácil de contestar. La respuesta rápida es que no tiene pinta, pero en tecnología hay muchas cosas por inventar. Así que tampoco es una respuesta definitiva. Quiero explicarte el porqué de mi aseveración, y que lo entiendas. Así que vamos allá.


Lo primero que debes tener en cuenta, tal y como apuntábamos en la última entrada de este blog, es que lo cuántico está cargado de probabilidad y de misterio. Es algo raro para el común de los mortales. Repleto de fórmulas complejas, se aleja de una realidad cotidiana, y su espacio no es el normal sino el de Hilbert o el de Banach. Vamos… raro, raro. Entrar en este mundo es similar a la llegada de Alicia a su país de las maravillas. Curioso. Raro. Pero que sea raro no quiere decir que sea malo. Sencillamente es distinto. Con cosas mejores (el Sombrerero Loco) y cosas peores (la Reina de Corazones). Con características propias que potencian determinadas cosas y que estropean determinadas otras. Dejemos la filosofía a un lado (y a Alicia también, por el momento) y hablemos primero de por qué se habla tanto últimamente de computación cuántica.


El mundo está cambiando. No es algo de ahora esto del cambio. En realidad, lo hace constantemente desde que el mundo es mundo. La cosa es que el cambio que nos ha tocado vivir a nosotros tiene bastante que ver con una evolución exponencial del uso de los datos. Hay información por todos lados. Estamos inundados de datos. La tecnología facilita su recogida, su almacenamiento y, sobre todo, su tratamiento para sacer valor a esos datos. Lo que me interesa recordarte hoy es precisamente ese aumento de valor que proporcionan los datos a las cosas cuando son tratados de manera masiva. Cuando somos capaces de analizar muchos datos, somos capaces de ver más y mejor. Es el Big Data. Seguro que esto también te suena. Déjame que haga un inciso hablándote de algo que a mi me llamó la atención en su momento. ¿Sabes cuál es la empresa que más datos maneja en el mundo? ¿Amazon? ¿Netflix? ¿Google? No. El WDCC (World Data Centre for Climate) que no es otra cosa que el Centro Mundial de Datos para el Clima. Esta empresa tiene la base de datos más grande del mundo. Almacena unos 220 Terabytes de información y 6 Petabytes de información adicional que se utilizan para realizar predicciones meteorológicas. Por si no tienes ganas de mirarlo en Google, 1 Terabyte son 1.000.000.000.000 bytes y 1 Petabyte son 1.000.000.000.000.000 bytes. Para que te sea más fácil puedes pensar que 1 byte es un carácter. No está mal. Muchos datos. Y es que la predicción meteorológica se basa en el análisis histórico de múltiples datos. Si el viento viene de allí con esta fuerza, la temperatura es ésta y la presión atmosférica es esta otra sabemos que en menos de dos horas va a llover. Porque así ha sido la mayoría de las veces que se ha dado esta circunstancia en el pasado. Está guardado en unas bases de datos. En realidad, es algo más complejo y menos poético, pero me sirve el ejemplo para que lo entiendas. Es como un viejo campesino del que nos llama la atención su capacidad para pronosticar el tiempo inmediato. Sabe más el diablo por viejo. Ése es el secreto. Y tú pensando que lo que tenía Minerva Piquero era una bola de cristal.


A lo que vamos. Manejar tal cantidad de datos significa que tu computación tiene que ser potente. Y el creciente desarrollo de todo este mecanismo de aportación de valor a través del análisis de los datos, que poco a poco se va colando en múltiples sectores y actividades, le mete mucha presión a la computación. Necesitamos que los ordenadores sean potentes. Que vayan rápido. Y esta tensión no es fácil de soportar. Necesitamos procesadores con grandes capacidades de computación. Con muchos transistores, que son las piezas que facilitan esa computación. Hagamos un pequeño paréntesis para que te explique qué es un transistor, porque en este elemento está la clave de las tensiones de las que hablo.


El transistor es un elemento que canaliza la corriente eléctrica como un grifo actúa sobre el agua que pasa por una cañería. Digamos que tiene una especie de interruptor que facilita el paso y el bloqueo de la corriente eléctrica. La información que precisan los computadores se construye a partir de la corriente. Los “ceros” y los “unos” (los bits) con los que puede escribirse cualquier cosa, en términos de corriente equivalen a “no hay corriente” y “hay corriente”. Así que para que podamos realizar operaciones entre ellos, utilizamos estos transistores que se encadenan unos a otros dentro de unas puertas lógicas que facilitan la modificación de las cadenas originales de bits conforme a una serie de sucesos que establecemos a través de la programación. En mi libro lo cuento para que lo entiendan los niños. Así que, por no hacer esta entrada muy larga, te dirijo allí. En Amazon. Baratísimo. Un chollo ;)


Entendido a grandes rasgos lo que es un transistor ya te habrás dado cuenta (porque tonto no eres) que, para computar mucho, se necesitan muchos transistores. Muchos, muchos. Y los ordenadores no son muy grandes. Caben ya en un bolsillo (los móviles son ordenadores, al fin y al cabo). Ergo, la cosa va de reducir el tamaño de los transistores lo suficiente para que miles de ellos quepan en un espacio muy muy reducido. Cuanto más aumenta la necesidad de computar en menos tiempo, más aumenta la necesidad de que los transistores reduzcan su tamaño. De momento la sangre no ha llegado al río. Pero casi. En 1965, Gordon Moore, cofundador de Intel, publicó un estudio en el que decía que los procesadores serían capaces de doblar, año tras año, su número de transistores, sin traducirse esto en un aumento de su tamaño ni de la energía que precisan para funcionar. La realidad le obligó a cambiar, en el año 1975, el “cada año” por “cada dos años”. Y con ese simple ajuste, la Ley de Moore (así se le conoce) se ha mantenido hasta la fecha, aunque Moore sólo hubiera hecho la predicción para sus próximas dos décadas. La realidad es que esta ley sigue cumpliéndose a rajatabla 50 años después. Un tío de visión el amigo Gordon. Pero que se cumpla no quiere decir que sea sencillo conseguirlo. Pregúntele usted a Intel. La cosa está tensa porque al hacer tan pequeños los transistores, las leyes de la física empiezan a resquebrajarse. Aparecen fenómenos como el “efecto túnel” que provoca que los electrones no sigan el camino que tienen que seguir, y el transistor no funciona. Por eso se buscan alternativas a la computación tradicional entrando en lo pequeño. En lo raro. En lo cuántico. Por ejemplo, ya que hay más alternativas sin ser necesariamente cuánticas. Pero hoy toca hablar de ésta. Por eso estamos aquí a las puertas de este mundo tan diferente al que conocemos.


Volvamos con Alicia. En este momento tienes que imaginarte que eres ella, camino del país de las maravillas. Estamos atravesando la puertecita después de haber bebido un sorbo de la botella con la etiqueta “bébeme”. Nos hemos reducido tanto de tamaño que hemos llegado a la escala microscópica y aquí las cosas son diferentes. Muy diferentes. Raras. Lo primero que ve Alicia en este mundo cuántico es que no hay bits. Ni que decir tiene que nuestra Alicia es un poco friki. Pues eso. No hay bits. Hay otra cosa que se llama “qubit” o cúbit. Para poder hablarte de ellos tengo que hablarte de uno de los principios fundamentales que emergen en este mundo tan diferente: la superposición cuántica. Te decía en mi entrada anterior, que esto de la mecánica cuántica tiene que ver más con probabilidades que con certezas. Pues bien. El principio de la superposición cuántica nos dice que, si un sistema puede estar en dos o más estados, su estado más general es una combinación de estos dos o más estados. De este principio viene el qubit. A ver. Que sigues mirándome con la boca abierta. En la computación digital un bit sólo puede ser “0” o “1”. Simple. En cambio, en la computación cuántica un qubit puede ser “0”, puede ser “1” o puede ser “0” y “1” a la vez (toma ya). Te está dando vueltas la cabeza. Ya lo sé. Pero eso es el principio de superposición cuántica que te acabo de contar. En esta particularidad está la clave que hace que la computación cuántica mejore en capacidad de proceso a la computación tradicional. Piénsalo. Con 2 bits tenemos 2 estados posibles derivado del valor que tome cada uno de ellos. Pero con 2 qubits tenemos cuatro estados en paralelo (00, 01, 10 y 11). Todas a la vez. No una u otra. Todas. ¿Lo tienes? Con 3 bits tendremos 3 estados posibles, pero si son qubits serán 8. Con cuatro bits, 4 estados posibles, pero con 4 qubits nos vamos a los 16 estados. Y así sucesivamente. Ya te habrás dado cuenta de que la capacidad de generar estados (operaciones) en el mundo tradicional a partir de bits crece linealmente (n bits suponen n estados) mientras que en el mundo cuántico crece de manera exponencial (n qubits suponen 2n estados). Las comparaciones en este punto son tremendas. Por ejemplo, con 13 bits podemos almacenar algo más de un byte y medio, esto es, un carácter y la mitad de otro. Pero con 13 qubits podemos almacenar mil bytes. Mil caracteres. Tres órdenes de magnitud más. Y si subimos más, la cosa se pone todavía más divertida. Para almacenar 8 caracteres necesitamos 64 bits (8 bits es un byte que almacena un carácter). Con 64 qubits podríamos almacenar algo más de 1 Exabyte = 9.223.372.036.854.800.000 bits. Mogollón de caracteres.



Bien. Ya sabemos que nuestro procesador cuántico va a trabajar con qubits y como consecuencia irá mucho más rápido porque ejecutará varias operaciones en paralelo. En términos físicos, el procesador cuántico será distinto al procesador tradicional. Las puertas lógicas de los ordenadores convencionales, que se construyen con los transistores que antes comentábamos, no sirven para la computación cuántica. Y es que aquí no se trabaja con electrones. Generalmente se trabaja utilizando microondas. O fotones. E incluso se están implementando algunos procesadores cuánticos utilizando Silicio (el mismo material que utilizan los procesadores tradicionales). Pese a ello, el problema de la miniaturización que nos encontramos hoy en los procesadores actuales (y que sortea con dificultad la Ley de Moore) también existe aquí. Y se sortea de manera similar. Investigando mucho. La realidad es que existe una carrera tecnológica hacia un ordenador cuántico que trabaje con un mayor número de qubits y así aparece IBM que el pasado 16 de noviembre anunciaba un procesador de 127 qubits, el “Eagle”. Este ordenador es el resultado de una escalada que arrancó en 2017 con los chips cuánticos "Canary" que tenían cinco qubits, la serie "Falcon" que a primeros de 2020 presentaba 28 qubits, que pronto se vieron superados, en el mes de septiembre de ese mismo año, por los 65 qubits del procesador "Hummingbird". Este anuncio bate los registros de Google con su “Bristlecone” que en 2018 alcanzaba los 72 qubits y que ya estará buscando evoluciones (si no lo ha hecho ya). Y muchos más como D-Wave, Amazon, Microsoft, Intel, Alibaba y un sinfín de empresas que se han lanzado a por el nuevo maná. Todos tratando de encontrar el ordenador cuántico de referencia. Decirte, que se habla de ordenadores cuánticos de más de 1.000 qubits en el año 2023. Ahí es nada.


Pero déjame aquí una reflexión. Decíamos unos párrafos más arriba que con 64 qubits estaríamos superando una capacidad de 1 Exabyte. Que son un porrón de bits. Parece que es suficiente. Pensando sobre todo que esta capacidad, lo que consigue es acelerar ciertas operaciones, produciendo resultados en segundos que, utilizando la computación tradicional hubiesen tardado años. Entonces… ¿es el número de qubits el principal reto de la computación cuántica? Digamos que es la forma que tienen estas empresas de “sacar pecho”, pero dudo que un ordenador como el “Eagle” de IBM signifique un diferencial práctico con respecto al “Bristlecone” de Google. Pese a doblarle prácticamente en el número de qubits. Sin embargo, hay alguna otra cosa que los hace diferentes y que supone esfuerzos ímprobos de innovación. Tiene que ver con la estabilidad.


Entiendo que en este punto todavía estés algo “enganchado” al hecho de que algo pueda estar en dos estados a la vez… ¿verdad? ¿A que es raro, raro? Ya te lo advertí. Alicia descubre en su país de las maravillas que las cosas no son lo que parecen. Especialmente cuando conversa con el gato de Cheshire. Un gato que aparece y desaparece. Está o no está. Dos estados enfrentados que en algún momento se entremezclan. Podríamos hacer una analogía entre el Gato de Cheshire y el famoso gato de Schrödinger, uno de los paradigmas más utilizados en la física cuántica. El fundamento que hay detrás es que, en la física cuántica, por efecto del principio de superposición, una cosa puede estar en un estado y en otro al mismo tiempo. Ya te lo he contado. Pues bien. El que esté en uno u otro estado depende del observador. El gato de Schrödinger está en una caja aislado del entorno en un estado combinado de vida o muerte. Está vivo y muerto a la vez. Pero al abrir la caja y verse influenciado por el observador, toma uno de los dos estados. O aparece vivo o aparece muerto. Con este ejemplo, el científico Erwin Schrödinger debatía en 1925 con Einstein sobre las curiosidades de este mundo cuántico que tanto los alejaba de su realidad. Pero cierto es que, esta curiosidad por la que el estado de algo depende de quién lo observe dota de cierta inestabilidad a lo cuántico. Y en estas condiciones es complejo tener certeza de nada. Imagínate que sumas dos números en una calculadora y que, en función de quien consulte la pantalla, el resultado es uno u otro. No parece muy útil. Será todo lo rápido que quieras, pero si esa rapidez anula la fiabilidad, entonces de nada habrá servido. Así que voy a tener que explicarte cómo se hace para que el mundo cuántico resulte igual de fiable que el físico cuando hablamos de computación. Pero para hablarte de eso, necesito que volvamos con Alicia al país de las maravillas cuánticas.


¿Recuerdas al Conejo Blanco? Sí… el que llegaba siempre tarde. De repente aparecía. Y como tal volvía a desaparecer. Estaba sólo durante ciertos momentos a la vista de Alicia. En el mundo cuántico, los estados de un sistema se mantienen sólo durante un tiempo limitado. Igual que el Conejo Blanco. Y es en este tiempo, y sólo en ése, cuando tenemos que llevar a cabo las operaciones lógicas cuánticas con los qubits de nuestro procesador. Porque si no, nos pasará que obtendremos distintas salidas para las mismas entradas. Tenemos que conservar el estado cuántico de nuestro sistema. Pero esto no es algo sencillo. Para lograrlo los procesadores cuánticos deben trabajar a temperaturas muy bajas. Cerca del cero absoluto, esto es, unos 273 grados centígrados bajo cero. ¿Cómo lo ves? Ni Teruel en pleno invierno. Si los ordenadores cuánticos no están a estas temperaturas, los estados cuánticos varían y, como consecuencia, todo se desestabiliza. La necesidad de trabajar a estas temperaturas es lo que hace que los ordenadores cuánticos sean tan raros. Sofisticados sistemas de refrigeración que les dotan de una apariencia más parecida al órgano de una catedral futurista que a un ordenador de los que tenemos en casa. Pues bien. Igual que existe una carrera entre fabricantes para tener un ordenador cuántico que trabaje con un mayor número de qubits, existe una carrera paralela para trabajar a mayores temperaturas. De hecho, en abril de 2020 se publicó un artículo en Nature diciendo que dos grupos de investigadores (uno en Nueva Gales de Sur, en Australia, y otros en Delft, en Holanda) habían conseguido un procesador cuántico (de pocos qubits, eso sí) pero que operaba a temperaturas superiores al cero absoluto. Lo hacían a -271 grados Celsius. En vez de a -273 grados Celsius. ¡Qué pasada! En fin… sin comentarios.


Concluyendo (es hora de morder la galleta y volver a recuperar nuestro tamaño inicial) la computación cuántica es una realidad a medias. Es cierta, pero de dudosa aplicación. Todavía, ojo. Cierto es que consigue resolver aspectos computacionales que con los procesadores actuales no podría hacerse. Aquí hay un punto diferencial. Pero se trata de cálculos muy puntuales. Criptografía, ciberseguridad, tratamiento de grandes volúmenes de datos en tiempo real. Pero también es cierto que las condiciones que precisa un procesador cuántico para funcionar de manera estable son totalmente impensables fuera de un entorno de laboratorio. Y aquí hay un problema enorme. Dados sus tamaños y el consumo de energía que hacen para sostener el aparato de refrigeración, dudo que tengan cabida en la casa de un ciudadano medio. En el país de las maravillas quizás, pero aquí es complicado, especialmente con el tamaño de las viviendas actuales y los precios que tenemos de la luz en España.


Estoy convencido de que veremos avances significativos en los próximos años en materia de computación. Aunque los problemas son grandes en la computación tradicional para seguir cumpliendo la Ley de Moore, los científicos han ido encontrando alternativas que sorteaban lo que inicialmente les parecía un imposible. Cambiar las arquitecturas de los transistores y su organización en las pastillas de Silicio ha sido fundamental en los últimos años, una solución que no se intuía sencilla antes de abordarse. En mi opinión hay vida todavía en el mundo que conocemos para que los ordenadores nos acompañen en la evolución tecnológica que soporta a nuestra sociedad. Pero también la habrá en el mundo cuántico. Los grandes fabricantes están ahí, y eso es significativo de que hay un mañana mejor que el hoy en todo lo que se refiere a este tipo de computación. Pero, por momento, el próximo ordenador que te compres, que sea de los de siempre ;)


19 visualizaciones

Entradas Recientes

Ver todo