En octubre de 2019, la computación cuántica acaparó titulares a nivel mundial durante varios días. Un equipo de investigadores de Google había logrado alcanzar la supremacía cuántica, superando a los supercomputadores más avanzados del mundo con un ordenador cuántico.

Lo más impresionante fue la diferencia en los tiempos: mientras que este nuevo ordenador resolvía un cálculo en solo unos minutos, las computadoras tradicionales habrían necesitado miles de años.

Decenas de medios, desde artículos hasta reportajes en radio y televisión, trataron de explicar a la audiencia no especializada en qué consistía exactamente el logro de Google y qué eran esos enigmáticos ordenadores cuánticos. Sin embargo, a pesar de las buenas intenciones, muchas de esas explicaciones probablemente dejaron más preguntas que respuestas.

Nada de magia ni superpoderes fuera de este mundo.

En los artículos sobre computación cuántica, es común encontrar analogías y descripciones que no reflejan la realidad, contribuyendo a la creación de mitos sobre lo que realmente pueden hacer los ordenadores cuánticos. Una de las ideas más repetidas es que «un ordenador cuántico resuelve un problema probando simultáneamente todas las opciones posibles».

Esta explicación no solo simplifica demasiado el funcionamiento de estos dispositivos, sino que les otorga un aire de superpoderes, como si con solo apretar un botón se pudieran resolver cálculos complejos en cuestión de segundos.

Pero, ¿es cierto que un ordenador cuántico utiliza un paralelismo masivo para explorar todas las soluciones a la vez? La respuesta, como muchas cosas en el ámbito cuántico, es tanto sí como no. Si bien es cierto que la superposición —la capacidad de ciertos sistemas de estar en varios estados simultáneamente— es una propiedad clave en los algoritmos cuánticos, esto es solo una parte del proceso.

Una coreografía matemática precisa

Podemos entender la computación cuántica como el estudio del uso de las propiedades de las partículas subatómicas para realizar cálculos. Entre estas propiedades, además de la superposición, se encuentran el entrelazamiento y la interferencia. Los algoritmos cuánticos crean primero una superposición de posibles soluciones, luego entrelazan estas con los resultados y finalmente eliminan las soluciones incorrectas, de modo que solo las correctas persistan.

Este proceso de «aniquilar» las opciones desfavorables es lo más complicado y delicado. Según Scott Aaronson y Zach Weinersmith, es una compleja coreografía matemática que solo hemos aprendido a ejecutar en problemas específicos.

Además, ya se ha demostrado que en ciertos problemas, la computación cuántica no puede acelerar los cálculos respecto a los ordenadores tradicionales. Por lo tanto, un ordenador cuántico no es esa máquina mágica que puede resolver cualquier problema en un instante, pero tampoco es simplemente un ordenador más rápido.

Más que solo velocidad

Otra falacia común en los artículos de divulgación es la idea de que la única ventaja de los ordenadores cuánticos es la velocidad. La realidad es mucho más compleja y fascinante.

Es difícil llevar la cuenta de la cantidad de veces que han aparecido titulares afirmando que «científicos desarrollan un ordenador cuántico un millón de veces más rápido que los ordenadores tradicionales». Aunque estas afirmaciones suenan impresionantes, no son del todo correctas. Es común ver que los grandes fabricantes de microchips anuncien cada pocos meses nuevas versiones de sus productos, con incrementos de velocidad del 20%, 30% o incluso 50% respecto a modelos anteriores. Sin embargo, un ordenador cuántico no se basa en una simple mejora tecnológica que acelere las mismas operaciones.

De hecho, en algunas tareas, es posible que un ordenador cuántico no supere en velocidad a uno clásico. Lo importante es que, cuando un ordenador cuántico sí ofrece una ventaja, esta no se mide simplemente en un único número. Los ordenadores cuánticos emplean algoritmos completamente diferentes de los que utilizan los ordenadores tradicionales, y esta diferencia hace que su ventaja aumente conforme crece el tamaño del problema a resolver.

Por ejemplo, para problemas relacionados con la búsqueda en listas, un ordenador cuántico será cinco veces más rápido que uno tradicional cuando se trate de cien datos, cincuenta veces más rápido con diez mil elementos y quinientas veces más rápido con un millón de registros.

Es precisamente este aumento exponencial de la ventaja de los ordenadores cuánticos al manejar grandes volúmenes de datos lo que los hace especialmente atractivos para resolver problemas que resultan intratables para los ordenadores clásicos. Un ejemplo claro son tareas como la factorización de números enteros muy grandes, un proceso clave para la seguridad de muchos de los protocolos de cifrado que se utilizan en nuestras comunicaciones digitales.

El tiempo necesario para resolver este problema con los mejores algoritmos clásicos disponibles crece casi de forma exponencial a medida que aumentan los números, lo que implica que incrementar el tamaño de una clave en apenas unos pocos bits podría hacerla millones de veces más segura. Sin embargo, hace más de dos décadas, el matemático Peter Shor demostró que romper este tipo de cifrado sería factible si se emplearan algoritmos cuánticos.

La criptografía no es el único campo donde los ordenadores cuánticos pueden ofrecer ventajas significativas frente a la computación tradicional. Un ejemplo claro lo encontramos en la simulación de nuevos materiales o el análisis de compuestos químicos, dos de las aplicaciones más prometedoras de la computación cuántica. Estas tareas son extremadamente complejas para los ordenadores clásicos porque el número de parámetros que describen los sistemas físicos y químicos crece exponencialmente con la cantidad de partículas involucradas. No obstante, como ya había señalado el físico Richard Feynman antes de que la computación cuántica se consolidara como una disciplina científica, las propiedades cuánticas de estos sistemas hacen que su simulación en ordenadores cuánticos sea mucho más natural.

En los últimos años, varios investigadores han desarrollado algoritmos específicamente diseñados para analizar las propiedades de moléculas químicas mediante computadoras cuánticas. Entre ellos destaca el Variational Quantum Eigensolver (VQE), que tiene la ventaja de ser utilizable incluso en los ordenadores cuánticos pequeños y propensos al ruido con los que contamos hoy. Gracias a este método, ya se han logrado simular algunas moléculas pequeñas en hardware cuántico real, alcanzando una precisión comparable a los cálculos clásicos. Aunque aún estamos lejos de superar a las computadoras tradicionales en este ámbito, el rápido avance de las capacidades cuánticas y la mejora continua de los algoritmos sugieren que este podría ser uno de los primeros usos prácticos de la tecnología cuántica.

Computación cuántica e inteligencia artificial

Otros campos donde la investigación en aplicaciones cuánticas está avanzando rápidamente son la inteligencia artificial y la optimización. En particular, se han propuesto diversos algoritmos cuánticos para acelerar tareas relacionadas con el entrenamiento de modelos de machine learning a partir de grandes volúmenes de datos. Algunos de estos algoritmos, inspirados en técnicas similares a las que utilizó Shor para su algoritmo de factorización, prometen mejoras exponenciales frente a los métodos clásicos.

Sin embargo, el cuello de botella no estaría en el procesamiento de la información, sino en la carga de datos, ya que es necesario transferirlos uno a uno desde los archivos de almacenamiento hasta el ordenador cuántico. Posibles soluciones a este desafío incluyen el uso de sensores cuánticos para capturar los datos directamente, eliminando la necesidad de cargarlos desde un dispositivo externo, o el desarrollo de memorias cuánticas capaces de leer datos en superposición.

Además de estudiar técnicas que buscan acelerar los procesos de aprendizaje automático clásico, también se están explorando modelos completamente cuánticos, como las denominadas redes neuronales cuánticas. Estas propuestas, al ser relativamente nuevas, todavía no muestran el alcance total de sus capacidades. Sin embargo, existen pruebas que sugieren un rendimiento superior frente a los métodos tradicionales en ciertos conjuntos de datos creados artificialmente. Como ha destacado John Preskill, uno de los mayores expertos en computación cuántica a nivel mundial, el desarrollo de aplicaciones para redes neuronales clásicas no siempre ha requerido una teoría sólida y exhaustiva desde el principio. De manera similar, la creciente disponibilidad de ordenadores cuánticos para ejecutar y optimizar redes neuronales cuánticas probablemente llevará a descubrir casos de uso que hoy ni siquiera imaginamos.

Es importante aclarar que los ordenadores cuánticos no resolverán todos los problemas computacionales ni de procesamiento de datos que enfrentamos. No son máquinas mágicas capaces de realizar cálculos instantáneos. Sin embargo, tampoco se limitan a ser versiones más rápidas de los ordenadores actuales. En aquellos casos en los que la computación cuántica puede ofrecer ventajas, la mejora en tiempos de ejecución se incrementa a medida que el tamaño del problema aumenta.

A pesar de que los ordenadores cuánticos no sean una solución universal, su relevancia en áreas como la ciberseguridad, la simulación de procesos físicos y químicos, y la inteligencia artificial es innegable. El hecho de que no sean aplicables a todos los problemas no disminuye su valor, sino que lo contextualiza. Contar con estos ordenadores no eliminará por completo nuestras limitaciones de cómputo, pero sin duda cambiará de manera significativa nuestra forma de procesar datos y realizará una transformación profunda en la sociedad.