Willow de Google: Quantum Echoes y la ventaja cuántica verificable

Última actualización: octubre 26, 2025
  • El chip Willow ejecuta Quantum Echoes para medir OTOC y el caos cuántico con mayor profundidad.
  • La tarea se completó en unas 2 horas frente a años en superordenadores, con una diferencia de hasta 13.000 veces.
  • Primeros pasos hacia aplicaciones: estimación de distancias atómicas en moléculas como el tolueno con resultados que coinciden con RMN.
  • Persisten retos de ruido y corrección de errores; próximo hito: cúbit lógico de larga duración.

Willow de Google

Google Quantum AI ha presentado un avance que coloca a Willow, su procesador cuántico superconductor, en el centro del debate sobre la llamada ventaja cuántica verificable. El equipo ha ejecutado el protocolo Quantum Echoes, una técnica para medir cómo se desordena y se recupera la información en sistemas cuánticos complejos.

Más allá del titular, lo relevante es que el experimento cuantifica con precisión el “scrambling” de información mediante correladores fuera de orden temporal (OTOC). Varios expertos europeos, como investigadores del Max Planck en Dresde, subrayan que entender cómo se propaga la información en sistemas entrelazados puede marcar la diferencia entre demostraciones llamativas y herramientas realmente útiles.

Willow, Quantum Echoes y la nueva prueba de caos

El primer despliegue europeo de IBM Quantum System Two llega al País Vasco
Artículo relacionado:
El primer IBM Quantum System Two de Europa se estrena en el País Vasco

Willow de Google

Willow es un procesador de arquitectura superconductora con más de cien cúbits que ha servido para ejecutar una versión ampliada del protocolo OTOC. El procedimiento, bautizado por Google como Quantum Echoes, consiste en barajar la información, introducir una pequeña perturbación —el llamado operador mariposa— y deshacer la evolución del circuito, repitiendo el ciclo para amplificar los efectos cuánticos sutiles.

Ese doble bucle (barajar–mariposa–desbarajar repetido) dispara la complejidad del cálculo y reduce la detectabilidad directa de la perturbación, algo que pone contra las cuerdas a los algoritmos clásicos. Según las estimaciones del equipo, la medición que Willow completó en alrededor de 2 horas exigiría del orden de 13.000 veces más tiempo en un superordenador, es decir, varios años de cómputo.

La razón de fondo es física y matemática: los resultados dependen de amplitudes de probabilidad complejas (con signo y fase), no de probabilidades positivas como en la estadística clásica. En circuitos caóticos, cada amplitud cuenta en un espacio que crece exponencialmente con el número de cúbits, de modo que los trucos de compresión o los enfoques de Monte Carlo eficientes incurren en errores incontrolables.

En la revisión por pares del artículo técnico, los árbitros valoraron el logro experimental por su capacidad para acceder a interferencias cuánticas de gran sutileza, si bien llamaron a la prudencia a la hora de declarar una ventaja concluyente frente a todos los métodos clásicos actuales y futuros. Es un paso sólido, pero el campo sigue poniendo el listón muy alto.

El rendimiento de Willow se apoya, según Google, en bajas tasas de error y alta estabilidad de puertas de un y dos cúbits, junto a una arquitectura optimizada para ejecutar secuencias largas de inversión temporal. Estas mejoras, heredadas de años de desarrollo en circuitos superconductores basados en uniones Josephson, han sido claves para que el “eco cuántico” resulte medible.

Aplicaciones, límites y hoja de ruta

Willow de Google

Además de la demostración de principio, el equipo ha aplicado el protocolo para estimar distancias atómicas en moléculas orgánicas. En pruebas con tolueno y 3’,5’-dimetilbifenilo, las estimaciones de Willow coincidieron con medidas experimentales de resonancia magnética nuclear, un indicio de que estas técnicas pueden anclar la verificación a magnitudes físicas reales.

La novedad frente a demostraciones pasadas es la verificabilidad. No se trata solo de superar a un superordenador en una tarea sintética, sino de ejecutar un algoritmo con significado físico y resultados reproducibles por otras máquinas similares, lo que acerca la computación cuántica a casos de uso científicos como química, materiales o dinámica fuera del equilibrio.

Quedan, con todo, barreras técnicas. El ruido sigue siendo el enemigo: las tasas de error actuales rondan órdenes de magnitud que habría que reducir —del entorno de 10−3 hacia 10−5— para lograr una ventaja práctica sostenida en este tipo de cálculos. Avances de dispositivo, nuevas ideas algorítmicas y las primeras capas de corrección de errores deberían empujar en esa dirección.

Más allá de la química, los OTOC son una ventana a la dinámica de la información en sistemas caóticos, con ecos que van desde materiales fuertemente correlacionados hasta preguntas de frontera sobre qué ocurre con la información en el interior de agujeros negros. En Europa, grupos como los del Max Planck en Dresde siguen de cerca estas técnicas por su potencial para conectar teoría y experimento.

En la hoja de ruta de Google, el siguiente paso clave es alcanzar el llamado “milestone 3”: construir un cúbit lógico de larga duración que consolide la corrección de errores a escala. Si se consigue, protocolos como Quantum Echoes podrían convertirse en instrumentos cotidianos para caracterizar sistemas cuánticos reales y validar simulaciones con impacto industrial.

El proyecto sitúa a Willow de Google como un banco de pruebas potente para medir el caos cuántico con OTOC, explorar simulaciones moleculares y tensar los límites entre algoritmos cuánticos y clásicos; un avance apreciable que, sin triunfalismos, apunta a aplicaciones verificables y pone el foco en reducir el ruido y escalar hacia cúbits lógicos.