El pasado 7 de octubre, los estadounidenses John Clarke, Michel Devoret y John Martinis fueron anunciados como ganadores del premio Nobel de física 2025 por su trabajo en el “tunelamiento cuántico macroscópico y la cuantización de la energía en circuitos eléctricos”[1] Realizado principalmente en la Universidad de California en Berkeley entre 1984 y 1985 [2], su investigación es una de las piezas principales en la demostración experimental que fundamenta epistemológicamente los postulados de la física cuántica y que, posteriormente, permitió la aplicación de dichos postulados a las tecnologías cuánticas modernas como, por ejemplo, el desarrollo de los Qbit’s (Quantum bit) y la computación cuántica.
A pesar de que el premio Nobel constituye una de las principales herramientas para acercar la ciencia a la sociedad, no está exento de cierta controversia porque otorgarlo a una sola persona desvirtúa uno de los pilares fundamentales de la ciencia en términos de ser una construcción colectiva y, además, evitar argumentos individualistas de autoridad. El de este año, tampoco está libre de controversias en términos de que no se da el premio a los desarrollos teóricos de la computación cuántica sino a experimentos fundamentales que dieron origen a dicha tecnología.
El desarrollo de la física cuántica ha sido históricamente uno de los ejemplos más notables de construcción colectiva en términos de la interpretación de los fenómenos cuánticos que se fundan en descubrimientos (teóricos y experimentales) liderados por científicos notables y premiados con el Nobel tales como M. Planck (1918), N. Bohr (1922), W. Heisenberg (1932), E. Schrödinger y P. Dirac (1933), W. Pauli (1945), M. Born (1954), L. Landau (1962), J. Bardeen, L. Cooper y J. Schrieffer, (1972), B. Josephson (1973) y K. Von Klitzing (1985).
Los postulados de la física cuántica
La formulación matemática de la física cuántica (ecuación de Schrödinger) desarrollada, principalmente, para poder plantear un modelo atómico que fuera capaz de explicar diferentes fenómenos de los sistemas microscópicos (sistemas formados, en principio, por un número determinado de electrones o átomos independientes entre sí) que no se podían explicar usando las herramientas conceptuales de la física clásica de Newton.
La ecuación de Schrödinger define dos piezas de información: la energía (cuantizada) y la función de onda del sistema. En términos generales, la teoría cuántica establece que, cuando se confina espacialmente el movimiento de una partícula, mediante un corral cuántico, se cuantiza su energía en una serie de valores discretos.
La primera revolución cuántica se basó en el desarrollo de dispositivos cuánticos (transistores, chips, láseres, memorias USB, LED’s, celdas solares, etc) en los que se diseña el espectro de energía a manera de “átomos artificiales”. Todos los dispositivos tecnológicos que usamos diariamente se basan en esta tecnología cuántica.
Desde sus orígenes, el principal reto de la teoría cuántica ha sido la interpretación física de la función de onda. La escuela de Viena, bajo el liderazgo de Max Born, propuso que la función de onda es proporcional a la probabilidad de encontrar la partícula en un estado determinado, asociado a su posición y velocidad. Por otra parte, la escuela de Copenhague, liderada por N. Bohr y W. Heisenberg, amplió esta visión con el principio de correspondencia (donde la física cuántica debe converger a los conceptos de determinismo, causalidad y positivismo de la mecánica clásica cuando la constante de Planck se hace tender a cero) y enfatizó el carácter indeterminista de la medición.

La escuela de Copenhague postuló que el observador es una parte integral del sistema y que el acto de medir provoca un colapso irreversible de la función de onda. El proceso de medición en la mecánica cuántica fue ilustrado por el célebre experimento mental del gato de Schrödinger, revelando que el acto de observar un sistema cuántico resulta en un estado propio impredecible dentro del rango de posibilidades.
Es decir, en la física cuántica se hace imposible conocer con exactitud y simultáneamente variables como posición y momento o energía y tiempo, postulado que fue formalizado por el principio de incertidumbre Heisenberg. Este límite intrínseco a la medición socavó el positivismo formulado por la mecánica clásica y reemplazó la certeza determinista por una realidad de probabilidades.
En esencia, este cambio de paradigma significa que, en el dominio cuántico, la realidad no es absoluta e independiente del observador, sino que se define por la interacción inseparable entre el fenómeno y el acto de observación. Las propiedades de un sistema cuántico no tienen valores definidos antes de ser medidas; es la medición misma la que fuerza al sistema a adoptar uno de los posibles estados. La consolidación de estos principios, desde la formulación de Schrödinger hasta la confirmación experimental del principio de superposición en física cuántica y el entendimiento profundo de la medición cuántica, transformó radicalmente nuestra comprensión del universo a escala atómica (microscópica).
En mayo de 1935, A. Einstein, junto con B. Podolsky y N. Rosen, publicaron uno de los artículos más influyentes en el desarrollo de la teoría cuántica conocido como el artículo EPR [3]. Se convirtió rápidamente en el punto central del debate sobre la interpretación de la realidad cuántica. La paradoja EPR, un experimento mental, postula que dos sistemas cuánticos que interactúan de tal manera que sus coordenadas espaciales y su velocidad se “entrelazan”, incluso cuando se separan espacialmente. La paradoja buscaba demostrar que la mecánica cuántica no podía describir con precisión los fenómenos naturales de los sistemas cuánticos.
Sin embargo, en 2022, J. Clauser y A. Aspect recibieron el Premio Nobel de Física por sus experimentos de 1972 y 1980, respectivamente, que demostraron la no localidad de los efectos EPR. Posteriormente, experimentos sobre correlación cuántica no local han evidenciado que la supuesta paradoja no existe en la realidad y, más bien, el entrelazamiento cuántico es la base de los Qubits y, en general, de la computación cuántica. Por supuesto, estos cambios de paradigmas impactan directamente la metrología (ciencia de la medición) en la que se adoptan fenómenos cuánticos como eje fundamental de la medición.

Por ejemplo, el efecto Hall cuántico (gases bidimensionales a bajas temperaturas y altos campos magnéticos), define el patrón internacional de resistencia eléctrica, y el efecto Josephson (superconductores a baja temperatura) define el patrón de potencial eléctrico en la metrología cuántica. El trabajo de Clarke, Devoret y Martinis es la evidencia experimental de la existencia de la superposición de estados cuánticos en sistemas macroscópicos formados por una gran cantidad de partículas correlacionadas usando el efecto túnel en superconductores a baja temperatura.
El otorgamiento de este premio está alineado con la propuesta de la UNESCO de declarar el 2025 como el año internacional de la ciencia y tecnología cuánticas haciendo énfasis en la conmemoración de los 100 años de la formulación inicial de la física cuántica de Heisenberg. El objetivo, además, es impulsar la segunda revolución cuántica y disminuir la llamada brecha cuántica entre diferentes regiones. Los países del norte global incorporan las tecnologías cuánticas de forma habitual en el desarrollo de tecnología y en el planteamiento del marco conceptual de la ciencia a nivel social mientras que en el sur global solo consumen dicha tecnología.
1 https://www.nobelprize.org/prizes/physics/2025/summary/
2 M. H. Devoret, J. M. Martinis, and J. Clarke, Measurements of Macroscopic Quantum Tunneling out of the Zero-Voltage State of a Current-Biased Josephson Junction, Phys. Rev. Lett. 55, 1908, 1985. DOI: https://doi.org/10.1103/PhysRevLett.55.1908
3 A. Einstein, B. Podolsky, N. Rosen, Can quantum-mechanical description of physical reality be considered complete? Phys. Rev., 47(10), 777, 1935. DOI: https://doi.org/10.1103/PhysRev.47.777



