El avance de la espectroscopía siempre ha impulsado el desarrollo de teorías físicas más exactas y fundamentales. De Bohr a Schrödinger; de Schrödinger a Dirac; de Dirac a la electrodinámica cuántica de Feynman et al… ¿hay algo más?
There are more things in heaven and earth, Horatio
Than are dreamt of in your philosophy
—Shakespeare, Hamlet
I. Entre lo que se intuía y lo que se descubría
Imaginemos que tomamos un compás y con él trazamos una circunferencia en una hoja en blanco. Primero fijamos la punta metálica del compás en lo que será el centro de la circunferencia, para después proceder a rotar la punta de carbón que barrerá trescientos sesenta grados. Uno puede a simple vista percatarse de que la circunferencia tiene cierto grosor, un ancho, pero por lo pronto no nos fijemos en esto. Una vez trazada la circunferencia, en el punto marcado con la punta metálica dibujemos una pelotita circular lo más perfecta que podamos, pequeña pero visible, y en un punto cualquiera de la circunferencia clavemos la punta metálica del compás para obtener un punto “sin dimensiones”. Tenemos una imagen primitiva o rudimentaria, en un instante, de un átomo de hidrógeno: la pelota central es una representación del protón; el punto “sin dimensiones”, del electrón.La hipótesis atómica de la materia, como bien sabemos, fue propuesta por filósofos de la antigüedad (Leucipo, Demócrito, entre otros), pero su confirmación en el plano propiamente científico puede ubicarse hasta un periodo mucho muy posterior, sobre todo entre los siglos XVIII y XIX, centurias durante las cuales los avances de la física y la química en ese sentido fueron cada vez mayores. Es importante mencionar que aún en los inicios del siglo XX había científicos de primer nivel, como el físico-químico Wilhelm Otswald, que rechazaban esa hipótesis. También en los inicios del siglo XX, en 1911 para ser precisos, el físico neozelandés Ernest Rutherford estableció el modelo planetario del átomo al que hice referencia líneas arriba.
Fue en el celebérrimo Laboratorio Henry Cavendish, en la Universidad de Cambridge, Inglaterra, donde el físico J.J. Thompson, jefe de ese laboratorio, descubrió en 1898 una partícula que se llegaría a denominar electrón. Por las características medidas en haces de estas partículas (la relación entre carga eléctrica y masa) se dedujo que éstas eran más ligeras que los átomos de hidrógeno (el elemento más simple y ligero de todos los que existen en la naturaleza). Con este descubrimiento —del electrón— la hipótesis atómica se confirmó plenamente, pero hubo un matiz fundamental: los átomos en sí tienen una estructura, sí son divisibles, y lo que parecía indivisible era el electrón; de hecho, hasta hoy en día el electrón, se sabe, es una partícula indivisible y no hay visos de que no lo sea. Es decir, en la teoría atómica se pasó de los átomos, como entes o ladrillos base de la materia, a lo que se conoce actualmente como partículas elementales. El electrón fue la primera partícula elemental descubierta. Las partículas elementales constituyen a los átomos, pero también existen de manera independiente.
La historia del descubrimiento y la clasificación de las partículas elementales, que son legión, es fascinante en sí misma. Hay décadas de investigación en esto —a partir del descubrimiento del electrón— y pueden contabilizarse cientos de estas partículas. La historia en particular que nos interesa comentar sólo requiere, hasta este momento, de otra partícula elemental, nuestro protagonista principal: el protón.
La historia del descubrimiento y la clasificación de las partículas elementales, que son legión, es fascinante en sí misma.
¿Quién y cómo descubrió el protón? Sin consultar un libro o un buscador en Internet, cualquiera que haya seguido con atención estas líneas tiene una pista y puede aventurar una hipótesis al respecto: “El descubrimiento del protón lo realizó Rutherford”. Esta hipótesis es correcta; a Rutherford se le adjudica el descubrimiento del protón. ¿Por qué decir que se le adjudica el descubrimiento del protón y no simple y llanamente que descubrió esa partícula? Esto tiene que ver, precisamente, con el cómo de la pregunta anterior.
Rutherford había llegado al Laboratorio Cavendish apenas el año anterior al descubrimiento del electrón. De ese laboratorio el neozelandés emigró poco después hacia Canadá. En ese país se dedicó fundamentalmente a estudiar la radiactividad, de la cual fue uno de sus primeros y más prolíficos teóricos. A este físico genial —en la teoría y en la experimentación— le debemos los nombres de la radiación (o rayos) alfa, beta y gamma que emergen de procesos radiactivos.
Rutherford volvió a Inglaterra y se estableció en Manchester, donde pertrechado de sus investigaciones en Canadá pudo establecer un modelo atómico que sí tenía una comprobación experimental y que al menos en una característica fundamental se mantiene en la actualidad. De manera indirecta, en ese entonces, también descubrió el protón.
Y es que a partir del descubrimiento del electrón se habían establecido varios modelos intuitivos del átomo (el modelo de J.J. Thompson fue el más popular), pero estos modelos carecían de una demostración experimental. En cierto sentido, los físicos estaban a oscuras ante el átomo y, como uno bien experimenta en un cuarto oscuro, exploraron a tientas. Lo que Rutherford y sus colaboradores Wilhelm Geiger y Ernest Mardsen hicieron fue explorar la forma o estructura del átomo bombardeando láminas de oro, muy delgadas, con rayos alfa.
Hasta para Perogrullo es claro que una lámina de oro está constituida por átomos de oro, pero ¿y los rayos alfa? Rutherford et al. ya sabían perfectamente que los rayos alfa consistían de partículas cargadas positivamente, es decir, con un signo contrario a la carga del electrón y que además tenían el doble de la carga de éste (en magnitud) y una unidad de masa mucho mayor que la del mismo electrón (como ocho mil veces). Algo muy importante, que también sabían por ese entonces, era el carácter altamente energético de los rayos alfa, y nada más habría que recordar la lógica en esto: se trataba de radiación producto de procesos radiactivos.
Ante la imposibilidad de ver algo y deducir su forma o estructura, desde un cuerpo de dimensiones mundanas hasta partículas atómicas, por ejemplo, no siempre es necesario utilizar el tacto; es posible emplear rayos de luz, haces de partículas o proyectiles de algún tipo para ese fin. Aunque por debajo de ciertas dimensiones sí es imposible ver directamente con luz los enigmas en cuestión.
En el ejemplo del cuarto oscuro la luz puede encenderse y abarcarlo todo completamente; de manera inmediata resolveríamos el enigma y así concluiría cierta aventura científica. Mas no siempre es posible este escenario, a veces sólo nos es dado utilizar haces de luz que revelan a tientas, mediante sombras, las estructuras materiales. Y ya sabemos que no siempre es posible utilizar luz para estos fines. Más aún, a veces no sólo es más fructífero sino también la única posibilidad, teórica y experimental, utilizar haces de partículas o proyectiles materiales… Por ejemplo, estudiar un proceso de dispersión de partículas, que fue lo que hicieron Rutherford et al. para explorar la estructura del átomo.
El proceso de dispersión estudiado por Rutherford et al. partió de hechos concretos y conocidos: los átomos son eléctricamente neutros y por lo tanto existe una carga positiva que neutraliza la carga negativa de los electrones constituyentes de esos átomos; las partículas de los rayos alfa tienen una carga positiva, determinada masa y son muy energéticas. Teóricamente el proceso de dispersión se estudió “a lo Newton”. La gran incógnita, que los resultados experimentales debían contestar, era saber cómo está distribuida esa carga positiva en el átomo. La incógnita se resolvió.
En el experimento de Rutherford et al. las partículas alfa en su mayor parte traspasaban la lámina de oro y en una pantalla —de sulfato de zinc— posterior chocaban y producían destellos (en esta proeza experimental se llegaron a contabilizar —a ojo— millones de éstos). Es decir, existía un patrón de dispersión que tenía una variabilidad que dependía de un ángulo medido con respecto al rayo incidente. La mayoría de los átomos eran “invisibles” para las partículas alfa ya que la energía de éstas les permitía traspasarlos, pero no sólo por eso. Rutherford et al. encontraron, asombrados, que algunas partículas-proyectiles no sólo llegaban a la pantalla con ángulos muy grandes, lo que no esperaban, sino que incluso había otras que rebotaban como si se toparan con una pared en esos átomos. Del análisis matemático de sus resultados, que en realidad no es muy complejo y cualquier estudiante medio de preparatoria lo podría reproducir, pudieron concluir que en el átomo la carga positiva se concentra en un punto o centro. Es decir, en los átomos la mayor parte de su masa —que corresponde a su vez a los portadores de su carga positiva— se encuentra concentrada como si se tratara de un sol alrededor del cual orbitan los electrones-planetas con carga negativa. Esta analogía parecía total porque espacialmente el átomo es en su mayor parte vacío. La analogía no es del todo cierta ya que en los átomos media una fuerza eléctrica mientras en un sistema solar la fuerza involucrada es de carácter gravitatorio. Aunque, cosa que sabe perfectamente todo estudiante medio de preparatoria, matemáticamente la fuerza eléctrica entre cargas es idéntica a la fuerza gravitatoria entre masas: inversamente proporcional al cuadrado de la distancia.
Una interpelación: ¿qué tiene que ver la estructura de un átomo en concreto —el átomo de oro— con el descubrimiento del protón? La interpelación procede. Esa revelación tiene mucho que ver, no sólo con el descubrimiento del protón sino también con la estructura de todos los átomos en general. Tanto un estudiante de preparatoria como uno de secundaria tienen conocimiento de otra proeza científica previa a las investigaciones de Rutherford: la tabla periódica de los elementos que construyó el genial científico ruso Dmitri Mendeleyev durante la segunda mitad del siglo XIX. Esa tabla, producto de investigaciones empíricas realizadas a través de los siglos y de la inferencia y abstracción de Mendeleyev en última instancia (la clasificación de los elementos, históricamente, también le debe mucho a otros grandes científicos pero este esfuerzo fue coronado por Mendeleyev), revela un orden, una regularidad. El átomo de hidrógeno es el más ligero y simple de todos, hay que reiterarlo, y en “números redondos” todo átomo de otro elemento (helio, litio, sodio…, plata, cobre, oro…, uranio) se puede ver, en una primera aproximación, como un múltiplo —en unidades de masa, pero también en unidades de carga eléctrica positiva y negativa— del átomo de hidrógeno. Esta intuición, que se basaba en resultados experimentales, la tuvieron físicos y químicos desde hace varios siglos. Pero la abstracción en ciencia establece teorías y modelos de carácter general para explicar fenómenos y la naturaleza de las cosas. Aquí estamos hablando en particular de la teoría atómica y el modelo —atómico— de Rutherford. Rutherford et al., en realidad, descubrieron el núcleo atómico (del átomo de oro). Pero la generalización a todos los átomos era y es válida: todos los átomos de todo elemento tienen un núcleo donde se concentra su masa y se encuentra la totalidad de su carga positiva. De manera indirecta ellos también descubrieron el protón, porque, hoy sabemos, todo núcleo atómico se constituye —en parte— de protones. ¡Esto último también lo sabemos gracias a las investigaciones posteriores de Rutherford!Una vez que se descubrió el núcleo atómico y se empezó a explorar su estructura, por esto último, se propuso que en él existía otro tipo de partícula además del protón. Rutherford otra vez fue pivote en estas investigaciones, y entonces partió no sólo de resultados previos, sino que literalmente partió el núcleo atómico al bombardear aire, que está constituido mayoritariamente (casi en un ochenta por ciento) por nitrógeno, con partículas alfa. No olvidemos que él fue un teórico de la radiactividad y la transformación química de los elementos, así que de sus resultados pudo demostrar y reportar en 1919 que en esas transformaciones químicas que realizó se obtenían núcleos de hidrógeno, es decir, protones, ya que el hidrógeno (alias protio) sólo contiene un protón en su núcleo y ninguna otra partícula. La unidad de masa del protón, que se podía medir como otrora la del recién conocido electrón, coincidía en números redondos con la masa del hidrógeno que conocían desde décadas antes científicos como el ruso Mendeleyev y más atrás el inglés Faraday. En el átomo de hidrógeno, constituido por un protón y un electrón, la proporción entre las masas de estas dos partículas es aproximadamente 2000 a 1.
Así, en la segunda década del siglo XX se llegó a tener un modelo atómico que funcionaba, ese modelo estuvo más allá de lo descubierto por Rutherford incluso sin el aislamiento de haces de protones libres (o núcleos de hidrógeno). Ese modelo contestaba el porqué de ciertas cuestiones que, desde la segunda mitad del siglo XIX, no se entendían a pesar de tener medidas experimentales muy precisas que eran reproducidas a través de expresiones matemáticas bien definidas.
II. Lo que se sabe
A pesar de lo que dijo el físico harvardiano y epistemólogo estadunidense Thomas Kuhn en su libro La estructura de las revoluciones científicas (1962), el conocimiento científico sí es profundamente acumulativo y no sólo localmente, entendiendo la acumulación local como aquella que se da dentro de lo que Kuhn denominó ciencia normal que, a través de una revolución científica, es sustituida por un nuevo paradigma científico. Uno de los múltiples contraejemplos de esta tesis de Kuhn es la espectroscopía.
Fue el no autodenominado padre de la física clásica, Isaac Newton, quien en un célebre experimento descompuso un haz de luz solar al hacerlo incidir en un prisma de vidrio (experimento quizá popularizado más que nadie —de manera pictórica— sobre todo por Pink Floyd en la portada de su disco The Dark Side of the Moon). Newton no sólo fue un teórico de la mecánica, sino también de la óptica: el estudio de la luz. Ese experimento daría origen a lo que se conoce como espectroscopía: el estudio de la luz (la radiación) que emiten los cuerpos, la materia. El desarrollo de esta rama de la ciencia, que es fundamental tanto en astronomía como en física atómica y molecular, por dar sólo unos ejemplos, fue permanente desde tiempos de Newton. Y fue vertiginoso en el siglo XX, particularmente en química con el estudio de los elementos. Pero surge una pregunta clave: ¿qué es un espectro?
Fue precisamente Newton quien con su experimento introdujo en óptica la palabra espectro para denominar al producto de la descomposición de la luz —visible— solar en el conjunto de franjas de colores (los colores del arcoiris). El espectro de la luz visible es un patrón bien definido. Más aún, toda luz emitida por un cuerpo, como una estrella, o por un gas (por ejemplo: hidrógeno, helio…), también tiene un patrón bien definido: un espectro que revela mucho de su naturaleza. Esta naturaleza en el caso de una estrella es su composición química, su temperatura… y en el caso de un átomo revela lo que no se entendía hasta que llegó el físico danés Niels Bohr, quien en 1913 arribó a Inglaterra donde no pudo estar —por limitaciones económicas— más de seis meses (un semestre); conoció a J.J. Thompson, a Ernest Rutherford y sus respectivas investigaciones, y regresó a su natal Dinamarca, donde en 1914 profundizó en el modelo atómico de Rutherford con base en ciertos postulados cuánticos que introdujo partiendo de trabajos previos de otros dos no autodenominados padres de la mecánica cuántica: los alemanes Max Planck (1900) y Albert Einstein (1905).
En la actualidad la espectroscopía tiene muchas ramas y también muchas aplicaciones. Una rama pionera es la espectroscopía atómica. Todo cuerpo que es calentado emite cierta radiación. Diversos gases al ser calentados hasta determinada temperatura emiten radiación dentro de lo que se conoce como espectro visible de la luz, como el que obtuvo Newton en el siglo XVII: los colores del arcoiris.
La luz emitida por un gas que es calentado puede analizarse a través del espectro que genera, y éste resulta ser un conjunto de líneas luminosas bien definidas: espectro de emisión. También es posible analizar la luz que incide en un gas —sin calentar— y que luego emerge generando un conjunto de líneas oscuras bien definidas: espectro de absorción. Curiosamente esas líneas de emisión y absorción, para el mismo gas, resultan estar en la misma posición del espectro. También curiosamente cada elemento (hidrógeno, helio, litio…) tiene un espectro característico, lo que muchos han llamado su “huella digital” (espectroscópica).
Desde finales del siglo XIX se conocían muy bien las series espectrales del hidrógeno. La posición de una línea en el espectro corresponde a una longitud, una longitud de onda (de la luz). En aquel entonces se obtuvo una fórmula matemática general muy simple que permitía determinar cada línea o longitud de onda —ya obtenida experimentalmente— en función de un número entero, digamos n, y donde aparecía un número constante, la constante de Rydberg. Ni Balmer, ni Lyman, ni Paschen, ni Brackett, ni Pfund, ni el propio Rydberg, científicos asociados a la espectroscopía del hidrógeno, explicaron por qué funcionaba esa fórmula.
Quien explicó la fórmula espectroscópica del hidrógeno, pero no sólo eso, fue Niels Bohr. El danés amplió el modelo atómico de Rutherford, introduciendo en él la cuantización de la energía propuesta originalmente —para otro problema físico, la radiación de un cuerpo negro— por Max Planck en 1900. Esa cuantización establece que la energía en ciertos sistemas físicos (como el átomo de hidrógeno, el caso que atacó Bohr) sólo puede tomar ciertos valores discretos, múltiplos enteros de una constante. Alguien que ya había profundizado después de Planck en la cuantización energética fue Einstein, quien con esto explicó en 1905 el efecto fotoeléctrico. Bohr, pues, siguió en esa línea cuántica.Ahora bien, si el electrón se mueve en una órbita circular tiene una aceleración y al tratarse de una partícula cargada debería radiar energía, tal como establecía la física clásica (en concreto, la electrodinámica clásica) y se colapsaría; es decir, el átomo de hidrógeno no debería existir.
Ahora bien, si el electrón se mueve en una órbita circular tiene una aceleración y al tratarse de una partícula cargada debería radiar energía, tal como establecía la física clásica (en concreto, la electrodinámica clásica) y se colapsaría; es decir, el átomo de hidrógeno no debería existir. Pero el átomo de hidrógeno existe. Y existe porque hay una fuerza (eléctrica) entre el protón y el electrón que los liga, los enlaza. Hasta aquí la física clásica funcionaba, pero era evidente que hacía falta algo más para explicar completamente este problema de la existencia, y ese algo era una nueva física: la física cuántica que emergía por aquel entonces. Bohr explicó en términos cuánticos el átomo de hidrógeno al postular que el electrón sólo puede ocupar determinadas órbitas en su movimiento alrededor del núcleo, a cada una de las cuales le corresponde un nivel discreto de energía (primer postulado); el electrón pasa de un nivel a otro sin niveles intermedios (segundo postulado), y al pasar de un nivel a otro emite o absorbe energía, la cual es igual a la diferencia de energía entre los niveles involucrados (tercer postulado). Éstos son los tres primeros postulados del modelo atómico de Bohr.
Bohr pudo deducir con sus postulados y el modelo atómico de Rutherford el espectro (o niveles de energía) del átomo de hidrógeno. Los niveles de energía estaban —están— caracterizados por un número cuántico entero (n = 1, 2, 3, 4…), que correspondían a las líneas espectrales reportadas por Balmer y otros más. Bohr, hay que decirlo, sí utilizó física clásica en sus cálculos (conceptos y definiciones como fuerza eléctrica, fuerza centrípeta, etcétera, inclusive con sus respectivas expresiones matemáticas) pero la cuantización energética fue un gran salto. Además, la constante de Rydberg en la “fórmula misteriosa” de los espectroscopistas pudo ser deducida por Bohr en términos sencillísimos (un producto y una división que cualquier niño de primaria puede reproducir) de otras constantes: la constante —cuántica— de Planck, la velocidad de la luz, la masa del electrón… El modelo atómico de Bohr iba más allá, porque también explicó cuánticamente la clasificación de los elementos contenida en la tabla de Mendeleyev. Los electrones en cualquier átomo, desde el hidrógeno hasta el uranio y más allá, llenan capas o niveles con reglas bien definidas y sus números cuánticos correspondientes. Todo esto fue obra del entonces joven Bohr y, más que un éxito, fue otra proeza científica.
El modelo atómico de Bohr era un modelo fenomenológico, no una teoría de principios como sí lo son la mecánica newtoniana o la teoría de la relatividad. Los modelos fenomenológicos son mucho muy comunes y útiles en física, precisamente porque son capaces de explicar fenómenos de manera muy precisa aunque se desconozca hasta cierto grado su causalidad. La termodinámica, ejemplo de ciencia fenomenológica, que surgió poco después de la Revolución industrial y la máquina de vapor, sigue siendo útil en nuestros días en ciencia e ingeniería. Pero en esos días de la proeza de Bohr, al átomo de hidrógeno, como a todo fenómeno cuántico, le faltaba una ecuación.
En los primeros veinte años del siglo XX fueron muchos los fenómenos y efectos investigados y explicados por la naciente mecánica cuántica: la radiactividad, el átomo de hidrógeno, el efecto fotoeléctrico, el efecto Compton, etcétera, etcétera. A partir del efecto fotoeléctrico —explicado por Einstein— quedó claro que la luz no sólo es una onda sino que también tiene un carácter corpuscular y las partículas (o cuantos) de luz son los fotones. La dualidad onda-partícula resultó no sólo cierta para la luz, sino también para la materia. Fue el físico francés Louis de Broglie quien con su tesis doctoral en 1924 introdujo esta dualidad en la materia. Y fue el hijo de J.J. Thomson, George Thomson, quien en 1927 detectó un fenómeno ondulatorio en electrones —la difracción—, razón por la cual le dieron el Premio Nobel, mientras que a su papá se lo habían otorgado en 1906 por demostrar que el electrón (también) es una partícula.
Así que en los años veinte del siglo pasado el terreno estaba listo para que alguien lanzara el torito: si se está hablando de ondas de materia, uno esperaría tener una ecuación al respecto, es decir, una ecuación de onda, ¿dónde está? Pues esa ecuación no estaba. Ni los Curie (Marie y Pierre), ni Bohr, ni Einstein, ni Compton, ni el propio Planck, científicos asociados a las investigaciones mencionadas anteriormente, necesitaron de una ecuación de onda o una función de onda para explicar lo que explicaron. Entonces llegó el momento en el cual tener esa ecuación de onda era una necesidad imperiosa.
En 1925 el físico austríaco Erwin Schrödinger dedujo su ecuación de onda: la ecuación de Schrödinger. Ésta fue la primera ecuación de onda en mecánica cuántica (hay más, varias) y para esta mecánica tiene una importancia análoga a la que tiene la segunda ley de Newton (que implica una ecuación) en mecánica clásica. Lo que importa ahorita señalar de la ecuación de Schrödinger es que al solucionarla para el problema del átomo de hidrógeno… ¡se obtiene de manera natural el espectro de energía!, así como también algo que se denomina función de onda (una expresión matemática de la cual se puede extraer información sobre el sistema cuántico en cuestión).
Segunda interpelación: ¿dónde quedó el protón en todo esto? Aquí ha estado el protón en todo este tiempo, prácticamente no se ha movido (es un decir). En la ecuación de Schrödinger el protón también es el sol cargado alrededor del cual orbita el electrón, pero esa ecuación da, también de manera natural, otro modelo del átomo que ya no es exactamente el de Bohr. La interpretación de la función de onda, y la propia formulación de la teoría cuántica, ya no establece trayectorias bien definidas, sin incertidumbre, a diferencia de la mecánica clásica e incluso del modelo atómico de Bohr. De la solución de la ecuación de Schrödinger se obtienen los niveles y subniveles del átomo de hidrógeno, a cada uno de los cuales le corresponden determinados números cuánticos. A cada nivel (y subnivel) está asociada una determinada función de onda espacial, la cual a su vez permite calcular la probabilidad de que el electrón se encuentre en ciertas regiones del espacio. Es decir, en el átomo de hidrógeno, el más simple de todos los átomos, el electrón no describe una órbita análoga a la que sí describe un planeta alrededor del Sol, describe algo más complejo o intrincado. Pero éste es un problema resuelto o elucidado desde hace varias décadas, casi un siglo.
Al menos históricamente, la ecuación de Pauli-Schrödinger no fue un parche sino un puente.
Poco después de que el modelo atómico de Bohr fuera fructífero para el átomo de hidrógeno, con el perfeccionamiento y el desarrollo de las técnicas experimentales se habían detectado más líneas espectrales que quedaban sin explicación. Sommerfeld hizo correcciones al modelo de Bohr para explicar esas líneas extras, pero no dejaba de ser una explicación fenomenológica. Una limitación de la ecuación de Schrödinger, por su parte, es que no se trata de una ecuación relativista y así las líneas espectrales posibles producto de números cuánticos asociados a variables de origen relativista no podían ser explicadas. Por esto último, el genial Wolfgang Pauli generalizó la ecuación de Schrödinger y explicó ciertas líneas espectrales finas que aparecían en el átomo de hidrógeno cuanto se encontraba en presencia de un campo magnético (el magnetismo es un fenómeno de origen netamente relativista). Al menos históricamente, la ecuación de Pauli-Schrödinger no fue un parche sino un puente.
En 1928 el físico inglés Paul Dirac dio al mundo una ecuación relativista en mecánica cuántica para partículas como el electrón y el protón, partículas que tienen un espín (o “giro intrínseco”) de un medio (en unidades de la constante de Planck). Esta nueva ecuación de onda, la ecuación de Dirac, deduce de manera natural todo el espectro del átomo de hidrógeno incluyendo la estructura fina. Esta deducción, al incorporar el espín, es uno de los grandes méritos de esa ecuación. La ecuación de Dirac implicó un fast forward…Más interpelaciones: ¿y el protón? Aquí está, aquí sigue, pero ya no está sólo acompañado por el electrón. Hasta este momento sólo hemos mencionado a dos partículas elementales, el protón y el electrón. Algo que predecía la ecuación de Dirac, cosa que él no esperaba, fue la existencia de antipartículas, lo que hoy comúnmente se conoce como antimateria. Es decir, el electrón y el protón tienen antipartículas. Cada partícula es idéntica a su antipartícula (misma masa, misma carga o cantidad de electricidad, espín), excepto en el signo de la carga que es contrario. La antipartícula del electrón es, digamos, un electrón positivo, y el antiprotón es un protón negativo. La antipartícula del electrón, llamada positrón, fue detectada por Carl Anderson cuatro años después de la predicción hecha por Dirac. El antiprotón, sin embargo, se pudo detectar hasta 1955. Pero antes de esto, obvio, pasaron muchas otras cosas.
Un rewind. Rutherford propuso en 1920 la existencia de una partícula que hoy se denomina neutrón. Esta partícula la propuso para explicar la estabilidad de los núcleos atómicos, donde, ahora sabemos, existen protones y neutrones (sólo el núcleo del hidrógeno, alias protio, no tiene ningún neutrón y se compone de un solo protón). En 1932 un físico inglés, James Chadwick, detectó al neutrón cuya masa es ligeramente mayor a la masa del protón. El nombre del neutrón, como casi todo mundo sabe, se debe a que es una partícula neutra: no tiene carga eléctrica. ¿El neutrón tiene su antipartícula? La respuesta es sí. El antineutrón fue detectado por Bruce Cork en 1956, en Berkeley.
¿Cómo distinguir experimentalmente a un neutrón de un antineutrón? Esto se puede hacer a través de las reacciones en las que participan, de los productos que se obtienen en éstas (que son diferentes), pero también de otras variables físicas más allá del espín y la carga —nula— eléctrica (como lo que se denomina momento magnético, al cual también se le puede asociar un número cuántico). A ver, tenemos electrones, protones, neutrones y sus antipartículas…
En 1936, cuatro años después de detectar el positrón o antielectrón, el mismo Anderson detectó en rayos cósmicos una partícula que se denominó muón y que es muy similar al electrón: misma carga en magnitud y signo, así como mismo espín, pero en números redondos con una masa doscientas veces mayor a la masa del electrón o, dicho de otro modo, con una quinta parte de la masa del protón. El muón es una especie de “electrón gordo”.
El fast forward asociado a la ecuación de Dirac llevó a los físicos, a muchísimos porque son legión (como si se trataran de “partículas elementales”) los científicos involucrados en esto, a aterrizar bastante bien un concepto —ya introducido en el siglo XIX por Maxwell en la electrodinámica clásica— en el esquema cuántico: el concepto de campo. Y quién no ha escuchado, así sea vagamente, algo de la teoría del campo unificado buscada originalmente por Albert Einstein. En la física ya es más fundamental hablar de campos en lugar de partículas, pero éstas están asociadas a un campo y viceversa. La ecuación de Dirac se utiliza para cuantizar el campo de partículas como el electrón y el muón, por ejemplo.
Quod erat demonstrandum… Esta frase latina ampliamente utilizada en matemáticas para concluir una demostración se abrevia con el acrónimo QED, que sigue siendo el mismo en español: “Queda entonces demostrado”. En inglés estas siglas se refieren a una teoría física ampliamente demostrada: la electrodinámica cuántica (quantum electrodynamics, QED). El principal pionero o pivote de esta teoría, que es una teoría de campo, fue Paul Dirac. Aquí también son muchos los científicos involucrados en la construcción de esta teoría, pero entre éstos destacan dos en particular: los estadounidenses Richard P. Feynman y Julian Schwinger, ambos galardonados con el Premio Nobel de Física en 1965, precisamente por su trabajo en QED.
En su célebre libro de divulgación sobre QED Feynman llama a ésta “la extraña teoría de la luz y la materia”. En esta frase llena de sencillez y brillantez, frase que es el subtítulo del libro del genial Feynman, está implícita —en la conjunción— una interacción. Porque la QED describe un tipo de interacción elemental en la naturaleza, la interacción electromagnética.
Existen cuatro interacciones fundamentales en la naturaleza, que se han popularizado como fuerzas: la electromagnética, la gravitatoria y otras dos que con poca imaginación fueron llamadas fuerte y débil. La interacción gravitatoria es la más mundana o común para los humanos y no es necesario ahora abundar en ella. La interacción débil está asociada a procesos de decaimiento de partículas y de radiactividad en núcleos atómicos, por ejemplo. Y la interacción fuerte, como su nombre lo indica, es la más intensa de todas las interacciones fundamentales, además tiene un corto alcance y no opera más allá de las dimensiones nucleares. La fuerza fuerte es la responsable de mantener unidos protones y neutrones en el núcleo.
Todo átomo está constituido por protones y neutrones en su núcleo, al cual lo rodea una nube de electrones, excepto el hidrógeno (alias protio) que sólo está constituido por un protón y un electrón. Mencioné párrafos arriba que por ahí, además de las antipartículas del electrón, el protón y el neutrón, se detectó una especie de “electrón gordo” llamado muón. En realidad durante los primeros cincuenta años del siglo XX se detectó toda una legión de partículas elementales, algo que cayó muy mal en los físicos en general y, de manera particular, en los físicos dedicados precisamente al estudio de partículas elementales (físicos particuleros, como se conocen en México). A mediados de la década de los sesenta el físico estadounidense Murray Gell-Mann, Premio Nobel de Física 1969, puso orden al introducir la teoría de los quarks, en la cual una gran cantidad de las hasta entonces consideradas partículas elementales pasaron a ser partículas compuestas de quarks. El trabajo de Gell-Mann tenía al menos un antecedente teórico muy importante, un trabajo de Feynman. Y la teoría de los quarks daría paso en pocos años a la cromodinámica cuántica (QCD, por sus siglas en inglés), la teoría “análoga” a la QED para el caso de la interacción fuerte. El nombre de la teoría se debe a que existe un tipo de carga, que desde luego no es eléctrica, la cual se denominó de color (por las propiedades ópticas de los colores primarios —rojo, verde y azul— y su combinación en óptica) y que está ora sí que fuertemente relacionada con la interacción en cuestión, la interacción fuerte. Así que de ese mar de partículas y antipartículas supuestamente elementales, la inmensa mayoría resultó estar constituidas por quarks, es decir, resultaron ser partículas compuestas y con estructura. El protón también resultó ser una partícula compuesta de quarks. Ahora sí, ¿a esto me refería con eso de que “el protón no es como lo pintan”? No, porque este problema “ya está resuelto” desde hace décadas.
Esta partícula es la responsable de la masa de las partículas elementales… pero no se ha detectado, aunque se espera que pueda, ¡al fin!, ser detectada en el Gran Colisionador de Hadrones.
Volver a la fenomenología. La QED y la QCD, que podemos considerar dos teorías de principios, curiosamente son base de lo que se conoce desde hace más de treinta años como modelo estándar. El modelo estándar es una teoría fenomenológica, como la teoría de Bohr que explicaba la física del átomo de hidrógeno, que explica el todo o casi todo; el modelo estándar explica tres de las cuatro interacciones fundamentales de la naturaleza: la fuerte, la débil y la electromagnética, además clasifica y clarifica cuáles son las partículas elementales y las partículas asociadas a cada interacción fundamental (las partículas de cada campo fundamental, dicho de otra manera, que en el caso del campo electromagnético son los fotones). Es la única teoría del (casi) todo realmente comprobada hasta ciertos límites. Como toda teoría fenomenológica, tiene “parches”. Uno de éstos, quizá el más famoso, tiene que ver con una partícula, el bosón de Higgs (o del campo de Higgs). Esta partícula es la responsable de la masa de las partículas elementales… pero no se ha detectado, aunque se espera que pueda, ¡al fin!, ser detectada en el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el acelerador de partículas recientemente inaugurado en Europa y con una capacidad para acelerar y colisionar partículas en procesos que involucran energías altísimas, como nunca antes en la historia, capaces de poner a prueba al modelo estándar.
Del modelo estándar al modelo automático… Una teoría de principios siempre será más deseable y profunda que una teoría fenomenológica, independientemente de lo fructífera de esta última, y toda teoría —de principios o fenomenológica— fructífera es loable. Ahora bien, una teoría de principios no es en realidad un “modelo automático”, una especie de “maquinita con manivela” que al darle vuelta arroja resultados. Una teoría como la de Paul Dirac, por ejemplo, es profunda y abstracta, no sólo en el aspecto físico sino también en su base matemática, aunque no toda teoría física es necesariamente matemática en un sentido profundo. (Vale la pena mencionar que cierta álgebra —el álgebra de Grassmann— fue desarrollada por Dirac en la construcción de su ecuación, pero ignorando que el matemático alemán Hermann Grassmann ya había construido el álgebra en cuestión desde el siglo XIX.) Aunque en cierto sentido sí existe esa “maquinita” teórica que arroja resultados, no sólo en las teorías de principios sino también en las teorías fenomenológicas; cualquier deducción teórica tiene dos posibilidades: estar comprobada o estar por comprobar, lo que hace que una teoría sea aceptada o puesta a prueba, respectivamente. Es decir, una teoría científica, la que sea, una vez aceptada puede ponerse a prueba. Y desde luego que no faltó quien hiciera esto con la teoría de Dirac, más allá de las antipartículas, volviendo la mirada simplemente al electrón… y el protón.
¿Todo está entendido?
III. Lo que aún no se entiende
El pasado 8 de julio de 2010 en la portada de la revista norteamericana Nature (http://www.nature.com/nature/journal/v466/n7303/index.html) apareció una fotografía de un balín, un cuerpo esférico, sujeto a un vernier, un aparato para medir longitudes pequeñas con gran precisión. La portada de la prestigiada revista científica, con la fotografía y una leyenda en letras rojas, hacía referencia a un (supuesto) encogimiento del protón, del radio del protón. En realidad, todo estudiante de secundaria que pasó por un laboratorio de física sabe perfectamente que un vernier mide longitudes pequeñas con gran precisión, sí, pero del orden de milímetros, por ejemplo… no del orden de las dimensiones conocidas del protón: femtometros: 1 X 10-15 metros, es decir, un metro dividido entre 1 000 000 000 000 000. Algo muy pequeño.
Pero para entender, o más bien, tratar de entender algo de este brete teórico o experimental en el cual la física fundamental entró a partir del (supuesto) encogimiento del protón, aquí y ahora, tenemos que remitirnos a un par de años después de que cayeron las bombas atómicas en Hiroshima y Nagasaki.
En agosto de 1947 se publicó en Physical Review un artículo firmado por Willis E. Lamb y su colaborador Robert C. Retherford (no Rutherford). ¿El título? Fine Estructure of the Hydrogen Atom by a Microwave Method. Lo que se reportó en ese artículo ha tenido repercusiones teóricas y experimentales hasta el día de hoy, además el propio Lamb obtuvo en 1955 el Premio Nobel de Física. Por aquel entonces ya habían pasado prácticamente dos décadas desde que Dirac diera a luz su célebre ecuación. Lo que se plantearon Lamb y Retherford fue poner a prueba experimentalmente esa ecuación; es decir, estudiar la estructura fina del espectro del átomo de hidrógeno. ¿Por qué? Porque como mencionan en el propio artículo Lamb y Retherford: “Los grandes avances de la época de la guerra [la Segunda Guerra Mundial] en técnicas de microondas, que se encuentran en la vecindad de longitudes de tres centímetros, hacen posible usar las nuevas herramientas físicas para estudiar la estructura fina de los estados del átomo de hidrógeno en el nivel n = 2”.
La energía del electrón en el átomo de hidrógeno, según la teoría de Dirac, depende de dos números cuánticos: n y j. Los subniveles 2s1/2 y 2p1/2 tienen los mismos números cuánticos, la misma n y la misma j (n = 2 y j = ½), por lo tanto tienen la misma energía. El subnivel 2p3/2 tiene un número cuántico mayor (j = 3/2), y ya que para valores de j mayor, según la misma teoría de Dirac, la energía es mayor, entonces este subnivel tiene mayor energía que los dos anteriores. Recordemos que la energía también se puede medir —indirectamente— a través de frecuencias o de longitudes de onda. La teoría de Dirac predice una separación energética de 2.74 centímetros entre el subnivel superior 2p3/2 y los subniveles 2s1/2 y 2p1/2.
Más allá de comprobar la teoría de Dirac, ¿qué buscaban Lamb y Retherford al posar la mirada otra vez simplemente en el protón y el electrón? En sus propias palabras: “Así como información sobre la posibilidad de corrimientos en las líneas espectrales [léase niveles o subniveles de energía]”, y más adelante: “[la posibilidad de] una interacción no eléctrica entre las partículas elementales: el electrón y el protón”. (Es claro que en 1947 aún se consideraba partícula elemental al protón, ya que la teoría de los quarks y los experimentos que la sostienen datan de años y décadas posteriores.)
¿Qué encontraron y luego reportaron en ese artículo? Encontraron que la predicción de Dirac, es decir, la separación entre el subnivel 2p3/2 y el subnivel 2p1/2 era correcta, pero el subnivel 2s1/2 estaba ligeramente por encima del nivel 2p1/2, lo cual no predecía Dirac. Todo esto se realizó a través de técnicas de espectroscopía, desde luego. A este corrimiento del nivel atómico en cuestión se le denomina corrimiento Lamb (Lamb shift).
La explicación cabal de este corrimiento se da a través de la QED. El propio Lamb es un coprotagonista en la fundación de esta teoría y, de hecho, el proceso de surgimiento de esa teoría se dio a la par de experimentos como el de Lamb. Hubo durante aquellas décadas (1930-1960), posteriores a la fundación de la mecánica cuántica (1900-1930) y de manera análoga a cómo surgió ésta, una competencia —en el mejor sentido de la palabra— entre teoría y experimentación. La posible interacción no electromagnética entre el protón y el electrón, interacción que explicara el corrimiento Lamb, en realidad resultó ser una corrección de la interacción electromagnética, digamos, un término extra de esa interacción. En QED esa corrección tiene un nombre, se llama corrección radiativa (no confundir con radiactiva), y está asociada a lo que se conoce como polarización del vacío. Una polarización eléctrica siempre tiene asociada determinada energía; la polarización del vacío cuántico está relacionada con los pares de partículas-antipartículas virtuales que continuamente se crean y destruyen en ese vacío, procesos que generan esa polarización —eléctrica— y así separan, por ejemplo, los subniveles energéticos 2s1/2 y 2p1/2. Podemos expresar esta separación energética en unidades de frecuencia (por ejemplo, en megahertz), en lugar de unidades de longitud de onda, como bien sabemos. El corrimiento medido por Lamb y Retherford fue de 1058 MHz. El cálculo teórico de QED que explica este corrimiento Lamb es de 1057.9 MHz. ¿Buen cálculo y buena medición? ¡Totalmente! (Mas no absolutamente.)
El desarrollo de técnicas experimentales y el refinamiento de cálculos teóricos han permitido durante décadas poner a prueba la QED en ambos sentidos: el teórico y el experimental. Siempre ha salido bien librada esta teoría. Son diversas las pruebas que se le han hecho, todas involucrando física fundamental, y en todas ha salido avante. De hecho, la gran precisión que se tiene en mediciones y cálculos de procesos a nivel QED, tanto a bajas como altas energías, es tan grande que se afirma, con toda razón, que “la QED es la física más fundamental —y precisa— de todos los tiempos”. (Hasta nuestros días, claro.)
El corrimiento Lamb en el átomo de hidrógeno se ha medido con mayor, mucha mayor precisión que la que alcanzaron Lamb y Retherford. La diferencia entre la predicción teórica de QED y el resultado experimental tiene una explicación. Esta explicación se encuentra dentro de la misma QED a través de otras correcciones que son de dos tipos: 1) Correcciones que no dependen de las dimensiones (o el radio) del protón, y 2) Correcciones que sí dependen del radio del protón. Es importante mencionar algo independientemente de su obviedad: el corrimiento Lamb está mayormente contenido en la polarización de vacío, y las correcciones mencionadas líneas arriba explican una fracción pequeña, pero medible y calculable, de ese corrimiento.
El valor del radio de protón reportado en 2008 en Review of Modern Physics es de 0.8768 fm (femtometros). En ese artículo en cuestión se reportan los valores de todas las constantes fundamentales en física, con base en los experimentos más precisos y más recientes realizados hasta entonces, y ese artículo está avalado por el Committee on Data for Science and Technology (CODATA). El valor del radio del protón anterior se calculó a partir de los resultados de dos experimentos: el corrimiento Lamb del hidrógeno electrón-protón y la dispersión electrón-protón. Este último experimento nos remite, una vez más, a Rutherford (no Retherford).
Existe otra manera, aparte del corrimiento Lamb, de estimar el radio del protón: un proceso de dispersión electrón-protón. Un perspicaz estudiante de secundaria bien podría decir que un electrón y un protón forman un átomo de hidrógeno, vía la interacción electromagnética, y entonces ¿cuál dispersión? Pero otro estudiante de secundaria más perspicaz podría interpelarlo: si el electrón tiene suficiente energía cinética, energía de movimiento, puede no ligarse al protón. Esto es cierto. Y de los procesos de dispersión electrón-protón, que por cierto también se pueden estudiar —al igual que la dispersión de Rutherford— en el esquema de la QED, existen cantidades cuasi industriales de datos experimentales desde hace medio siglo aproximadamente.
Mediante el proceso de dispersión se obtiene información sobre el centro dispersor, en este caso, el protón. Y esa información es el radio. La diferencia fundamental entre medir el radio del protón a través de un corrimiento Lamb y estimarlo vía la dispersión electrón-protón tiene que ver con el tiempo. En este último caso tenemos “una película”, un tiempo limitado de interacción, mientras el átomo de hidrógeno es un sistema estable que podríamos considerar —para fines prácticos— “eterno” en los cálculos. Uno podría afirmar que la determinación del radio del protón a través de un corrimiento Lamb en el átomo de hidrógeno es quizá más precisa o confiable que la estimación vía el proceso de dispersión. Además, los resultados se pueden comparar.
El valor que se reporta del radio del protón estimado a través de experimentos de dispersión es de 0.897 fm. El valor que se reporta para este mismo radio medido a través del corrimiento Lamb en el átomo de hidrógeno “normal” es de 0.862 fm. Con estos datos, CODATA reporta como radio de protón la longitud de 0.8768 fm.
The size of the proton, éste es el título del artículo que presentó en su portada la revista Nature el 8 de julio de 2010. El primer autor, de un total de treinta y dos autores, es Randolf Pohl del Instituto Max Planck, en Alemania. Este grupo científico autor del artículo es fundamental y mayoritariamente europeo, aunque hay algunas personas de Princeton y Harvard involucradas. El valor que reportaron para el radio del protón, basándose en sus medidas experimentales, es de 0.84184 fm.
Tal parece que sí, comparando con los dos datos mencionados anteriormente, “el protón se encogió”. Un estudiante de secundaria, si ignora la estadística básica, podría decir que el orden es el mismo (femtometros) y que hasta “el numerito” es parecido 0.8… Pero no, no es tan simple. Detrás de todos estos experimentos hay una estadística; los valores reportados para el radio del protón son un promedio de un conjunto de medidas experimentales. Cualquiera con un conocimiento básico de estadística sabe que una desviación estándar mide qué tanto un valor se separa del promedio de un conjunto de mediciones, y resulta ser que el valor de 0.84184 fm —reportado en Nature— está a cinco desviaciones estándar del valor más confiable reportado hasta la fecha, el valor del artículo CODATA. Esto implica que el protón se ha encogido, es “como si se tratara de otro protón, de otra cosa”, lo que de entrada no tendría por qué ser así ya el radio del protón (como la velocidad de la luz, la carga eléctrica del electrón, la constante de Planck, la constante de gravitación universal, etcétera, etcétera) es una constante fundamental en la naturaleza. Pero ¿qué hizo este grupo de científicos?, ¿qué reportaron?, ¿qué concluyen? Vayamos por partes.
Lo que este grupo hizo fue espectroscopía atómica, pero no la realizó con el hidrógeno que llamamos protio (electrón-protón) o “normal”, sino con un sistema hidrogenoide: el hidrógeno muónico (muón-protón). En este sistema atómico midieron el corrimiento Lamb. Lo que reportaron fue ese corrimiento, que les permitió calcular el radio del protón a través de ciertos cálculos teóricos —de QED— que fueron realizados para el hidrógeno muónico. Ya mencioné que el radio que determinan es diferente —menor— al que se tenía reportado hasta este año y que además está a cinco desviaciones estándar de éste. La conclusión la dejamos pendiente. Desmenucemos un poco esto.
Dicen los autores en un párrafo de su artículo: “Por más de cuarenta años, una medida del corrimiento Lamb en el hidrógeno muónico (protón-muón) ha sido considerada uno de los experimentos fundamentales en espectroscopía atómica, pero sólo los progresos recientes en haces de muones y tecnología láser han hecho factibles tales experimentos. Nosotros reportamos la primera medida exitosa del corrimiento Lamb en el hidrógeno muónico”.
Fijémonos un poco en el muón, el “electrón gordo”. Al ser ésta una partícula que tiene una masa doscientas veces mayor que la masa del electrón, hasta con el modelo atómico de Bohr podemos estimar que el tamaño o radio del átomo (no confundir con el tamaño o radio del protón) de hidrógeno muónico es doscientas veces más pequeño que el átomo de hidrogeno “normal” (con un electrón) porque ese radio es inversamente proporcional a la masa del muón (o del electrón en el caso “normal”). Es decir, si bien es cierto que en el hidrógeno muónico la interacción protón-muón sigue siendo del mismo tipo —electromagnética— que la que se da entre el hidrógeno “normal” (protón-electrón), también es cierto que es mucho más intensa en el primer caso ya que el muón logra estar más cerca del protón. Otro punto importante: no existen de manera “natural” átomos de hidrógeno muónico, hay que formarlos artificialmente. Esto último, desde luego, es fundamental en el experimento.
Algo también crucial en el experimento reportado en Nature, que mencionan con todas sus letras los propios autores, es la importancia del tiempo de vida media del subnivel 2s1/2 para el hidrógeno muónico, subnivel del cual parten para medir el corrimiento Lamb. Y es que el muón es una partícula elemental que decae, es decir, se transforma y lo hace en un electrón y dos neutrinos (este tipo de decaimiento es una interacción débil). Al hablar de vida media de un subnivel uno se refiere al tiempo en el cual el muón (en promedio) va a permanecer en él antes de decaer a otro subnivel de menor energía. Al hablar de vida media de una partícula subatómica, no ligada sino libre, uno se refiere al tiempo en el cual (en promedio) se transformará en dado caso que sea una partícula que decaiga, es decir, que se trasmute en otra(s) partícula(s). Algo que también mencionan, pero con sus números, los autores es el tiempo de vida media del subnivel 2s1/2: 1 X 10-6 segundos, un microsegundo. Y el tiempo de vida media del muón libre, conocido desde hace décadas con gran precisión, es de 2.2 microsegundos. Es decir, a primera vista no hay problema temporal: el proceso a estudiar involucra un tiempo de existencia que es la mitad, aproximadamente, de la vida del muón. Pero una partícula ligada puede modificar, debido a la interacción que la liga, su tiempo de vida media, haciéndolo mayor. (Un ejemplo paradigmático es el neutrón, que libre tiene una vida media de once minutos, pero en el núcleo atómico es estable.)
Ahora enumero someramente las tres etapas básicas del experimento realizado en Suiza:
1. Se hizo incidir haces de muones con una energía —cinética o de movimiento— de aproximadamente 5000 electronvolts (la energía base de un electrón en el átomo de hidrógeno es de 13.6 electronvolts) en un gas de hidrógeno molecular (H2).
2. Así se liberaron protones que pudieron capturar muones para formar átomos de hidrógeno muónico (muón-protón) en un nivel relativamente muy excitado: el nivel n = 14. En estos átomos excitados los muones decayeron en 99 % al nivel base (n =1) y en 1 % al subnivel 2s1/2.
3. Se indujo una transición en los muones del subnivel 2s1/2 al subnivel 2p3/2 a través de un láser pulsado. De este último subnivel los muones decayeron al nivel base 1s1/2 y al hacerlo emitieron rayos X de 2000 electronvolts.
Desde luego que en las etapas experimentales anteriores hay técnicas espectroscópicas involucradas, y vuelvo a citar a los autores: “Todas las transiciones están espectralmente bien separadas”. Con la energía medida en los rayos X finales, así como la energía que le transfiere el láser al muón en la transición inducida y la valor enérgetico del subnivel 2p1/2, se puede calcular el corrimiento Lamb.
Ahora ya es justo presentar una fórmula matemática:
∆E = 209.9779 – 5.2262 rp2 + 0.0347 rp3,
En esta primera y última fórmula ∆E (medida en unidades de milielectronvolts) se representa el corrimiento Lamb, la diferencia de energía entre los subniveles 2s1/2 y 2p1/2. Esa diferencia energética es lo que se midió experimentalmente. Del lado derecho de la igualdad tenemos tres términos, el primero es constante, un número, pero en los dos últimos aparece una variable elevada al cuadrado y al cubo: rp, el radio del protón. Esta fórmula es un resultado teórico donde el corrimiento Lamb tiene una dependencia en términos de la estructura del protón, de su radio. Ahora bien, el primer término, que es constante, es el que tiene mayor peso, la mayor contribución al corrimiento Lamb. Esta fórmula es reportada en el artículo de Nature y es resultado de una rigurosa selección de todas las contribuciones finas e hiperfinas que, para decirlo coloquialmente, pintan en ese corrimiento. En total hay veintisiete diferentes contribuciones que suman el número 209.9779, y este término está dominado por la polarización del vacío. De la cantidad 209.9779, poco más de 205 se obtienen de dos cálculos teóricos reportados por el alemán E. Borie en Physical Review A (2005) y el polaco Krzysztof Pachucki en Physical Review A (1999). Fue precisamente el físico teórico Pachucki quien presentó en una plenaria de la 22nd International Conference on Atomic Physics, celebrada del 25 al 30 de julio de 2010 en Australia, los resultados del artículo publicado días antes en Nature.
Pero el tamaño del protón no está relacionado con el primer término sino con los otros dos términos de la fórmula deducida para ∆E. En estos otros dos términos hay tres contribuciones para rp2 y una sola para rp3. Todas las contribuciones, estas cuatro y las veintisiete mencionadas anteriormente, hay que repetirlo, fueron seleccionadas por los autores del artículo en Nature a partir de cálculos teóricos reportados en la literatura científica, cálculos de QED que no son nada triviales. Si uno revisa esa lista de contribuciones ve claramente que, con excepción de la cantidad que es ligeramente mayor a 205 y que no depende del radio del protón, es pura morralla: cantidades pequeñas pero, hay que repetirlo también, medibles (experimentalmente) y calculables (teóricamente). Es decir, no se trata de cualquier morralla…
Todo experimento tiene cierta incertidumbre, debida a la resolución de los aparatos con que se mide; los puntos o mediciones en las gráficas de todo experimento siempre incluyen una margen o barra de error. El experimento espectroscópico para medir el corrimiento Lamb en el hidrógeno muónico tiene poca incertidumbre, comparada ésta con los experimentos análogos realizados anteriormente con hidrógeno “normal” y también en la dispersión electrón-protón. En las gráficas reportadas uno ve claramente que la barra de error o incertidumbre experimental del trabajo publicado en julio de 2010 es muy pequeña. Se trató de un experimento muy preciso, que esperó décadas para realizarse, y es muy preciso por el desarrollo de técnicas experimentales. Los valores del radio del protón medidos en los otros dos experimentos con hidrógeno “normal” no sólo están cercanos entre sí, sino que debido a sus barras de incertidumbre se traslapan. El valor del radio del protón no debería (¿?) diferir mucho en el experimento donde se utilizó espectroscopía del muón. En las mismas gráficas aludidas, a simple “ojímetro” (es decir, a ojo), uno ve claramente cómo el nuevo (¿?) radio del protón está lejos de lo reportado en años recientes y anteriores… ¡en la quinta desviación estándar!
Por otra parte, la teórica, se supone que los cálculos realizados para deducir la fórmula del corrimiento Lamb en el muón son muy exactos, y desde luego sin ningún error. ¿Ningún error?
Hay dos posibilidades: 1) Existe un error experimental, algo enmascarado, lo que también se denomina en la jerga científica “error sistemático”, y 2) Existe un error de cálculo teórico. Pero también es posible una síntesis de las dos posibilidades anteriores, puede haber un error tanto teórico como experimental a la vez. En el propio artículo los autores ya descartaron posibles fuentes de error experimental, y hasta las cuantifican para mostrar que no pintan. Cito dos: 1) Ciertas correcciones debidas a los campos eléctricos y magnéticos (efecto Stark y efecto Zeeman, respectivamente) involucrados en las mediciones, y 2) Efectos moleculares de iones protón-protón-muón que se pueden formar en la primera etapa del experimento. Los autores prácticamente descartan errores experimentales y lo único que concluyen es que debe haber una contribución de 0.31 milielectronvolts que no se contabilizó. No sé sabe de dónde podría originarse esa contribución.
Hay otros datos y experimentos que pueden arrojar luz en torno a la discrepancia encontrada en el radio del protón. Los autores tienen datos —por analizar— espectroscópicos de un isótopo del hidrógeno, el deuterio (un protón y un neutrón en el núcleo). También mencionan un nuevo proyecto experimental: medir el corrimiento Lamb en iones de helio muónico. Todo, en sus propias palabras, por “el desafío que se presenta en la comprensión de la física”, la ciencia fundamental.
No existe, hasta el momento de terminar de redactar este texto (7 de diciembre de 2010), prácticamente seis meses después de que salió publicado el artículo de Pohl et al. en Nature, una explicación cabal de la discrepancia encontrada en el radio del protón. No existe al menos nada publicado, ni tampoco fugado, porque es obvio que hay gente que sí está y sigue trabajando en el mundo alrededor de este desafío y otros más.
Si bien es posible que haya errores por descubrir, quizá lo más probable, también es posible que haya algo más. En ciencia no existe la palabra fin. Si en realidad hay una contribución por descubrir, ¿qué sería ésta?, ¿cómo repercutiría en la majestuosa QED? La breve revisión histórica contenida en este texto deja, creo, al menos una lección: el avance de la espectroscopía siempre ha impulsado el desarrollo de teorías físicas más exactas y fundamentales. De Bohr a Schrödinger; de Schrödinger a Dirac; de Dirac a la QED de Feynman et al… ¿hay algo más?
El desafío sigue en pie. ®
Mariano
Las bases de las teorías conocidas QED ( vacío cuántico que suministra energía a partículas virtuales), QCD (partículas imaginadas que ejercen fuerzas misteriosamente), Física Cuántica (funciones de onda de las partículas), Modelo Estándar de la Física de Partículas (SMPP), Campo de Higgs, etc, son elucubraciones e inventos preparados a propósito para que concuerden con los resultados de algunas pruebas experimentales.
Están basadas en un mundo abstracto y misterioso, que repugna a la mente humana.
Se han diseñado tantos campos vacíos pero permeados (no vacíos) como problemas hay que resolver.
El tamaño del radio del protón 0,84087(39) fm obtenido en 2013, tira abajo a todas las teorías anteriores.
El bosón de Higgs no demuestra que sea la causa de la masa, pues la fuerza perturbadora de la partícula es igual y opuesta a la fuerza de oposición del campo de Higgs, por lo cual, las partículas no se podrían acelerar.
En mi teoría Cuántica de la Energía Oscura,
se definen todas las magnitudes que la f´sica oficial no ha definido, tales como: energía, masa, fuerza, campo magnético, etc. Se deduce que la supuesta función de onda de las partículas es una onda que generan las propias partículas en movimiento uniforme o acelerado en la energía del espacio, que denomino onda de desplazamiento, con la que se explican los resultados de los experimentos que llevaron a Einstein a establecer, erróneamente el principio de la constancia universal de la velocidad de la luz., y obtengo las mismas fórmulas de la variación de la masa con la velocidad. Y también explican como se generan las ondas gravitacionales y electromagnéticas
Los movimientos microfísicos de las partículas son discretos, por lo que las partículas realizan desplazamientos discretos, y se desplazan antes de alcanzar la fuerza de oposición (de la energía del espacio) debido a la supuesta inercia, por lo que a pesar de estar sometidas a fuerzas iguales y opuestas, las partículas se aceleran.
Obtengo un radio del protón igual a: 0,840705 fm para una fuerza de interacción fuerte entre protones igual a 100 veces la electrostática. Lo cual no puede ser una casualidad matemática.
¿Os parece suficiente?. Pero hay más. El libro tiene 361 págs, y el artículo 28 páginas
[email protected]
Jesús A. Castañeda
Dato: La revista Nature, como bien sabe toda persona que la conoce, no es una revista norteamericana sino inglesa.
Rogelio Villarreal
Ya quedó integrado el párrafo completo donde corresponde, Jesús, gracias…
Jesús A. Castañeda
ERRATA. El antepenúltimo párrafo de la segunda parte de este texto, (párrafo que inicia así: «Volver a la fenomenología…») está incompleto. El párrafo completo es éste:
Volver a la fenomenología. La QED y la QCD, que podemos considerar dos teorías de principios, curiosamente son base de lo que se conoce desde hace más de treinta años como modelo estándar. El modelo estándar es una teoría fenomenológica, como la teoría de Bohr que explicaba la física del átomo de hidrógeno, que explica el todo o casi todo; el modelo estándar explica tres de las cuatro interacciones fundamentales de la naturaleza: la fuerte, la débil y la electromagnética, además clasifica y clarifica cuáles son las partículas elementales y las partículas asociadas a cada interacción fundamental (las partículas de cada campo fundamental, dicho de otra manera, que en el caso del campo electromagnético son los fotones). Es la única teoría del (casi) todo realmente comprobada hasta ciertos límites. Como toda teoría fenomenológica, tiene «parches». Uno de éstos, quizá el más famoso, tiene que ver con una partícula, el bosón de Higgs (o del campo de Higgs). Esta partícula es la responsable de la masa de las partículas elementales… pero no se ha detectado, aunque se espera que pueda, ¡al fin!, ser detectada en el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el acelerador de partículas recientemente inaugurado en Europa y con una capacidad para acelerar y colisionar partículas en procesos que involucran energías altísimas, como nunca antes en la historia, capaces de poner a prueba al modelo estándar.