Durante años, la computación cuántica ha vivido en una especie de limbo: demasiado prometedora para ignorarla, demasiado frágil para cumplir lo que promete. Sin embargo, IBM acaba de fijar una fecha que podría sacarla definitivamente de ese purgatorio. Según su nueva hoja de ruta, 2029 será el año en que construirán la primera computadora cuántica tolerante a fallos, el hito indispensable para que esta tecnología deje de ser experimental y se convierta en una plataforma útil, estable y escalable.
La afirmación no es menor: si IBM tiene razón, la revolución que viene no la traerá un nuevo modelo de inteligencia artificial, sino el hardware que será capaz de ejecutarla a una escala que hoy resulta inalcanzable. Y esa carrera —geopolítica, industrial, científica— ya ha comenzado.
El umbral cuántico que cambia todas las reglas
Para entender la magnitud del anuncio, hay que comprender qué significa tolerancia a fallos. En el mundo cuántico, los qubits —las unidades de información— son tan delicados que cualquier perturbación del entorno: calor, ruido, vibraciones, campos electromagnéticos, puede destruirlos o alterar su estado. Las máquinas actuales pueden ejecutar unas 5.000 operaciones fiables antes de colapsar.
IBM afirma que una máquina tolerante a fallos puede ejecutar hasta 100 millones de operaciones manteniendo la coherencia cuántica. Es un salto de varios órdenes de magnitud, equivalente a pasar de una calculadora inestable a una supercomputadora funcional.
Alessandro Curioni, director de IBM Research en Zúrich, lo definió ante la prensa europea como “el inicio real de la computación cuántica práctica”. Hasta ahora, los algoritmos cuánticos se han desarrollado en simuladores o en dispositivos demasiado ruidosos para demostrar su eficacia. Con una máquina tolerante a fallos, ese bloque desaparece.
El cuántico dejaría de ser teoría para convertirse en industria.
Por qué esto afecta de lleno a la inteligencia artificial
La afirmación más contundente de IBM no es solo que la computación cuántica madurará en 2029, sino que lo hará al mismo tiempo que la inteligencia artificial entra en su segunda gran fase de desarrollo.
La IA generativa ya ha transformado la producción de texto, imagen y código, pero los problemas realmente complejos —optimización molecular, simulación climática, diseño de materiales, modelos físicos a escala planetaria— requieren más potencia de cálculo de la que cualquier supercomputadora clásica puede ofrecer.
Aquí es donde aparece el “doble salto” del que habla Curioni: IA + computación clásica + computación cuántica.
No es un reemplazo, sino un triángulo.
La IA cambia la forma de modelar los problemas.
El cuántico cambia la forma de representarlos en el espacio matemático.
El hardware clásico sostiene la infraestructura que une ambos mundos.
“Estamos entrando en un escenario donde dos innovaciones radicales aparecen simultáneamente”, afirma Curioni. “El impacto conjunto es imposible de anticipar”.
Europa, EE. UU. y China: quién liderará la carrera
IBM fue cuidadosa, pero directa: Europa está prácticamente fuera de la carrera por el hardware cuántico. Los líderes son Estados Unidos —IBM y Google— y la Academia China de Ciencias, que ha demostrado avances sostenidos.
Eso sí, la batalla decisiva no se librará únicamente construyendo máquinas, sino desarrollando algoritmos, aplicaciones y ecosistemas de software capaces de aprovecharlas. Ahí es donde IBM ve un margen real para el continente europeo.
Las primeras computadoras cuánticas tolerantes a fallos serán extremadamente limitadas en número, carísimas y estratégicas. Los países capaces de utilizarlas para resolver problemas industriales, farmacéuticos, climáticos y energéticos crearán una ventaja competitiva comparable a la que supuso internet en los años 90.
Quien domine el software cuántico dominará la próxima década.
El salto de 2029 inaugura un nuevo terreno, y nadie sabe qué habrá al otro lado
Hasta ahora, la computación cuántica se ha desarrollado en un entorno protegido, casi académico. Todo funcionaba sobre simulaciones o hardware limitado. Con una plataforma estable, el sector entrará en una fase desconocida:
- se podrán validar algoritmos que llevan años “en pausa”,
- se descubrirán problemas para los que el cuántico es imbatible,
- y se descartarán mitos que han rodeado esta tecnología desde sus inicios.
Se espera un impacto especial en simulaciones y optimización, donde la física cuántica trabaja de forma natural con sistemas complejos llenos de interacciones simultáneas.
Pero también en la IA: modelos más eficientes, entrenamientos más rápidos, nuevos tipos de arquitecturas imposibles con hardware clásico.
IBM insiste en una idea clave: la computación cuántica no va a reemplazar lo existente, pero sí va a multiplicarlo por un orden de magnitud. Es el tipo de salto que reconfigura industrias enteras.
La parte más difícil aún no está resuelta
Curioni cerró su intervención con un aviso: si la revolución cuántica de verdad quiere ser diferente, tendrá que evitar repetir los errores cometidos en la primera ola de IA.
Eso implica: sistemas abiertos, colaboración académica e industrial, regulación clara, seguridad en los modelos, y atención a los impactos sociales. La computación cuántica empieza desde cero. Ese vacío puede ser un riesgo, pero también una oportunidad única para hacer las cosas bien.
¿Lo conseguiremos? La cuenta atrás ya está corriendo. IBM dice que el punto de no retorno llegará en 2029.
🌐Fuente🔗
<
#IBM #asegura #resolverá #mayor #obstáculo #cuántico #tiene #razón #próxima #revolución #tecnológica #vendrá #sino #del #hardware


