Sie sind auf Seite 1von 40

Unos cuantos para todo

J. Jairo Giraldo G.

jjgiraldog@unal.edu.co

Departamento de Física, Facultad de Ciencias

Universidad Nacional de Colombia – Sede Bogotá

Bogotá, Colombia

Resumen

La física cuántica puede aplicarse en principio a todo tipo de situaciones, pero los efectos cuánticos
más protuberantes solo se observan en condiciones muy especiales y las matemáticas que los
describen se consideran complicadas. El curso de contexto Cuántica para todos y para todo es un
curso que se ofrece a estudiantes de todas las carreras de la Universidad Nacional – Sede Bogotá.
Como su nombre lo indica, no exige matemáticas, tampoco conocimientos previos de física. En esta
nota introductoria, preparada para un número especial de MOMENTO (Revista del Departamento
de Física) exponemos las ideas centrales que dieron lugar a la física cuántica y el estado actual de la
teoría. Con este artículo se quiere introducir al lector al tema sin recurrir al lenguaje matemático
que es propio de la física. Haremos un resumen de los principios cuánticos fundamentales, de sus
aplicaciones más importantes y del contenido del curso. Para quienes no han visto o no recuerdan
los conceptos básicos de la física clásica, damos de ellos una breve descripción en el apéndice.

1. Un poco de física clásica y del origen de los conceptos cuánticos

La mecánica y el electromagnetismo son los dos pilares de la física clásica. La primera, obra cumbre
de Isaac Newton, da cuenta del movimiento de los cuerpos, conformados estos por un agregado de
partículas. El segundo, de la generación del campo electromagnético por cuerpos cargados y su
propagación como ondas electromagnéticas de las que las ondas de luz en el espectro visible son
apenas una mínima parte. La electrodinámica, como se le denomina en el lenguaje de los físicos, es
la síntesis de un conjunto de leyes que fueron formuladas por distintos investigadores. Uno de ellos,
Charles-Augustin de Coulomb, encontró que dos objetos cargados se atraen si las cargas son de
clase opuesta o repelen si son de la misma clase, con una intensidad proporcional al cuadrado de la
distancia entre las cargas, la misma forma que tiene la ley de gravitación descubierta por Newton
para las masas. Los dos asumieron que la interacción se producía instantáneamente, aunque
Newton sospechaba que debería transcurrir algún tiempo para que se propagara la fuerza entre las
masas. Hasta comienzos del siglo pasado la física clásica supuso que la materia es continua. De tener
ingredientes indivisibles, se pensó, eso no sería mayor problema: la separación entre unos y otros
sería despreciable.

Con el descubrimiento del electrón en 1887, se identificó a este como portador de carga negativa.
En 1911, con el descubrimiento del núcleo, se concluyó que existiría una carga equivalente de signo
contrario, finalmente identificada y denominada protón. Electrones y protones, conjuntamente con
los neutrones, son los componentes esenciales del átomo. Estos últimos, como su nombre lo indica,
son partículas de carga neta nula. Descubierto el núcleo y el electrón, constituyentes esenciales del
átomo, se creyó ingenuamente que bastaba con aplicar las leyes clásicas del movimiento de
corpúsculos y del electromagnetismo referido a las ondas que estos producirían para elaborar un
modelo realista del átomo y por ende de los compuestos atómicos. El fracaso de los conceptos
tradicionales al aplicarlos en el micromundo fue rotundo. Más adelante nos referiremos al
denominado modelo de Bohr para el átomo de hidrógeno, el más simple de todos, primer resultado
semi-empírico exitoso. El tratamiento de Bohr echó por la borda algunos conceptos clásicos y
condujo a la formulación de un nuevo marco teórico que, aunque exitoso y coherente desde el
punto de vista matemático, en total acuerdo con los resultados experimentales, nos obligó a
cambiar por completo la imagen que teníamos sobre la naturaleza: de la separación tajante entre
ondas y partículas se pasó a una imagen dual.

2. ¿Qué es la fenomenología cuántica?

Aunque el comportamiento de la luz sigue siendo difícil de entender, ilustrarlo para algunas
situaciones particulares ejemplifica mejor que cualquier otro la fenomenología cuántica. El efecto
fotoeléctrico y el efecto Compton pueden tomarse como punto de partida.

Desde finales del siglo XIX (1887) se sabe que luz de alta frecuencia, violeta o verde por ejemplo,
desprende carga negativa de los metales dejándolos eventualmente con carga eléctrica neta
positiva, resultado que es fácil de comprobar mediante un electroscopio. Fue en 1897 cuando
Joseph J. Thomson encontró experimentalmente que los átomos no eran indivisibles y que había
unos corpúsculos diminutos con carga eléctrica que se desprendían de los mismos. Estas partículas
resultan ser las mismas que se desprenden de los metales en el fenómeno que acabamos de señalar,
por lo que se le denomina efecto fotoeléctrico. Las partículas desprendidas son precisamente
electrones ligados a los metales. Lo que estamos diciendo, de paso, es que esos electrones no están
fuertemente ligados a ese material que denominamos conductor. Dentro de un conductor los
electrones pueden moverse libremente. Más adelante se entenderá mejor esto qué quiere decir.
Esa es también la razón por la que los cables eléctricos se hacen de cobre o de cualquier otro metal,
preferiblemente de metales nobles: los electrones en su interior se desplazan libremente.

Lo que sorprende del efecto fotoeléctrico no es tanto que los electrones sean desprendidos del
conductor, al fin y al cabo es fácil imaginar que la luz suministra la energía necesaria para hacerlo.
Es precisamente la energía que transporta un rayo de luz la que puede transmitirse a los electrones.
Son más bien las condiciones en que se presenta dicho fenómeno lo que revela un comportamiento
que no corresponde a lo que cabe esperar. Uno podría creer que con un rayo de luz roja muy intenso
se podría presentar el fenómeno, ya que la intensidad es sinónimo de energía. A mayor intensidad,
más energía transporta el rayo. Para argumentarlo de otra manera, fueron experimentos similares
a los que se realizan en una cubeta de agua (o en una piscina con olas) en la que se producen ondas
sobre su superficie los que llevaron a la conclusión de que la luz es un típico fenómeno ondulatorio.
Es característico de las ondas que su intensidad, es decir, la tasa a que transportan energía, sea
proporcional al cuadrado de su amplitud. Pero no es eso lo que se observa en el efecto fotoeléctrico.
Se observa un efecto puramente local o puntual que consiste en que algunos electrones son
desprendidos de la superficie del metal, lo que solamente ocurre cuando la frecuencia de la luz
excede determinado valor, dependiendo del metal. Es más fácil desprenderlos del oro que del
plomo. Y si se usa luz de mayor frecuencia, violeta por ejemplo, los electrones salen con mayor
energía. Es como si la energía que pueden absorber los electrones fuera proporcional a la frecuencia
de la luz incidente.
Eso fue precisamente lo que supuso Albert Einstein en 1905, con una hipótesis adicional: la luz está
compuesta de corpúsculos diminutos que transportan energía. El padre de la relatividad era
consciente de que la luz, supuestamente una onda, se mueve a la misma velocidad para todos los
observadores sin importar la velocidad relativa a que se mueva el sistema de referencia en que se
encuentre el observador, velocidad que nunca podrá exceder a la de la luz. Esa fue una de sus
hipótesis cuando elaboró, en aquel memorable año, la teoría de relatividad especial. Einstein
entendió entonces que había dos enfoques aparentemente contradictorios del fenómeno de la luz:
aunque se había demostrado desde hacía un siglo que era una onda, su comportamiento en el
efecto que estamos discutiendo induce a pensar que se trata de corpúsculos, corpúsculos
individuales que serían absorbidos por electrones individuales. En la imagen de Einstein, en el
fenómeno que da lugar al efecto fotoeléctrico se presenta una especie de choque inelástico: una
partícula, el fotón, choca con otra, el electrón, siendo absorbida por este último. Si se aplican los
principios más básicos de la física, la conservación de la energía y la conservación del momentum o
cantidad de movimiento, se puede dar cuenta de lo que ocurre.

En el efecto fotoeléctrico, con luz visible, hay que tener en cuenta lo que se denomina trabajo de
extracción de un electrón del metal. Puesto que el fotón incidente desaparece (es aniquilado), algo
de su energía entrará a formar parte de la energía del electrón y el resto es energía empleada en
desprenderlo: se trata de un choque totalmente inelástico. La conservación del momentum es trivial
porque el residual es absorbido por el metal, como cuando una pelota choca contra una pared. (Para
quienes no han visto un curso de física previo, recuérdese que la conservación del momentum es
consecuencia en la mecánica clásica de la ley de acción y reacción, denominada tercera ley de
Newton; pero es un principio todavía más general, válido también en la física cuántica.)

Otra posibilidad es un choque elástico. Fue lo que se hizo para explicar el denominado Efecto
Compton, descubierto en 1923, que consiste básicamente en un cambio en la frecuencia de la luz,
para el caso rayos X dispersados por un cristal: aceptando que la energía de los fotones es
proporcional a la frecuencia de la luz que se observa, al chocar uno muy energético con un electrón
(prácticamente libre, pues su trabajo de extracción en ese caso es despreciable si se compara con la
energía de los fotones incidentes), este sale disparado con alta energía produciéndose un fotón
residual de menor frecuencia que el incidente. Al aplicar las dos leyes de conservación mencionadas,
debe tenerse en cuenta que la velocidad del electrón es una fracción considerable de la de la luz y
hay que echar mano de la relatividad especial. (Si no se desprenden electrones, el resultado es el de
la figura A1 mostrada en el apéndice.)

Cinco años antes que Einstein Max Planck había propuesto algo similar a la hipótesis de Einstein
pero en forma inversa. Vamos a examinar su argumentación detenidamente. Se sabe desde hace
mucho tiempo que los objetos materiales emiten y absorben energía en forma de radiación
electromagnética. La radiación electromagnética que hay en el ambiente, en cualquier ambiente,
consta en principio de ondas electromagnéticas de todo tipo de frecuencias. Es por ese
descubrimiento teórico sin precedentes por lo que a Maxwell se le reconoce como el físico más
notable del siglo XIX, solo superado en fama en los siglos anteriores por Newton, más conocido por
haber formulado las leyes del movimiento de los cuerpos y de la gravitación universal. Maxwell lo
es por las leyes del electromagnetismo, pero los dos formularon otras teorías físicas igualmente
importantes.
Pues bien, la radiación electromagnética que emiten los cuerpos es lo que nos permite percibirlos.
Al calentar un trozo de hierro, este va cambiando su color: a una cierta temperatura se verá rojo y
poco antes de fundirse se torna anaranjado o amarillo. En otros objetos se alcanza a ver su cambio
de color a lo largo de todo el espectro visible, del rojo al violeta, a medida que se calienta. En
términos físicos, hay una frecuencia privilegiada a la que emiten mayor energía, dependiendo de la
temperatura del objeto, pero esa frecuencia crece aproximadamente en forma lineal con la
temperatura, o a la inversa; en otras palabras, la longitud de onda del color más destacado es inversa
a la temperatura. Si la temperatura es muy baja, el máximo puede presentarse en la región de
microondas; es lo que ocurre con la radiación cósmica de fondo, a una temperatura de 2.7 K.

El problema para Planck consistió en que la teoría de Maxwell no encajaba con lo observado. Ella
predecía algo que afortunadamente no ocurre, la catástrofe en el ultravioleta. No habría un máximo
de frecuencia a la que el objeto emite mayor energía; más bien el objeto emitiría más y más a
mayores frecuencias, lo que sería absurdo y haría inestable la materia.* Planck supuso que a muy
baja frecuencia el objeto no emite precisamente porque su frecuencia es nula (la energía emitida
sería proporcional a la frecuencia, lo mismo que supuso Einstein un lustro después, pero para la
radiación misma); a alta frecuencia la probabilidad de emisión sería cero precisamente porque eso
exigiría una energía muy grande. La forma en que Planck pudo finalmente reproducir los resultados
experimentales fue cuantizando la energía emitida o absorbida. La tasa de energía radiada o
absorbida por los objetos materiales a una cierta frecuencia de la radiación emitida o absorbida no
podía ser cualquiera sino dosificada, debido a la cuantificación de la energía, dada esta por números
o paquetes discretos con valor hf: E = nhf, siendo n un número entero positivo, f la frecuencia de la
radiación y h una constante universal extremadamente pequeña. Posteriormente se determinaría
que el valor de esa constante es 6.6x10-34 J·s. (Joules, símbolo J, es la unidad de energía en el sistema
internacional, SI; s es por supuesto el símbolo de la unidad de tiempo en segundos.) Una energía de
ese orden de magnitud es imposible de medir aun hoy en día. Pero la constante se pudo determinar
al cabo de varios años con bastante precisión. Sus unidades son de acción. No entraremos a discutir
qué significa eso físicamente por ahora.

En resumen, la materia absorbe la energía que ya está cuantizada en el espacio (léase en el campo
de la radiación electromagnética), espacio que por supuesto no es vacío: contiene energía; de la
misma manera, la materia compuesta por átomos (Planck no lo veía de esa manera pero Einstein sí)
solo entrega energía al espacio en forma discreta y la absorbe de la misma manera. Las dos hipótesis,
la de Planck y la de Einstein, parecidas pero distintas, conducen a lo mismo. Einstein llevó más lejos
su hipótesis y una década más tarde formuló las leyes de la radiación que llevan su nombre: son las
que se utilizan para diseñar los generadores de LASER, el tipo de radiación muy singular a la que nos
hemos referido en la nota introductoria que sirvió de presentación a este fascículo. Agreguemos
que Einstein previó también, en su fórmula de energía, la llamada desintegración nuclear.

Volvamos al átomo desde otro punto de vista, el de Niels Bohr. En 1913 ya era claro que el átomo
está prácticamente vacío. Salvo por el núcleo, en donde se concentra la carga que
convencionalmente se denomina positiva, la de los protones, el resto estaría desprovisto de
materia, excepto por la presencia de los diminutos electrones que inicialmente se supuso orbitarían

*
La situación sería similar a la de un diapasón que vibra a determinada frecuencia f y produce ondas sonoras
precisamente de esa frecuencia que se propagan a velocidad V = fλ, siendo λ la longitud de onda.
alrededor del núcleo. El problema, como se señala en el apéndice, es que la teoría electromagnética
predecía que ese modelo atómico, el de Rutherford, sería inestable. Trabajando precisamente en el
laboratorio de este último en Manchester, el danés Bohr tomó prestada la hipótesis de cuantización
de la energía de Planck y Einstein y cuantizó también otra cantidad física: el momentum angular.
Para decirlo en forma sencilla, hay dos cantidades físicas de gran importancia para estudiar el
comportamiento de las partículas o corpúsculos y de los objetos masivos, en general: la cantidad de
movimiento lineal (momentum) y la cantidad de movimiento angular, en español denominada
también momento cinético, ignoro por qué: los dos están asociados al movimiento. Pero mientras
el primero se refiere al movimiento de traslación, el segundo se debe a la rotación, característica de
los electrones en el átomo por supuesto: ellos no pueden estar quietos, como equivocadamente
había supuesto Thomson cuando elaboró su modelo después de descubrir esa partícula que sigue
siendo la más elemental de la materia estable. El momentum lineal es un vector que resulta de
multiplicar la masa por la velocidad. El momentum angular es un (pseudo)vector (haga caso omiso
del paréntesis, de ningún interés para lo que sigue), resultante de lo que se denomina un producto
vectorial. En magnitud, para un movimiento circular, el momentum angular que designaremos por
la letra L, es el producto del momentum lineal por el brazo o distancia del punto alrededor del cual
gira la masa m de momentum p. En símbolos, si p es simplemente mv, siendo v la rapidez o magnitud
de la velocidad, L = rp. (Para quienes gusten de la expresión precisa, la escribimos: L = rxp; el
momentum angular es un vector perpendicular al plano en que se mueve el objeto o partícula.) Es
claro que si L está cuantizado, r (léase órbita) también lo estará. ¡Una idea genial, preludio a la
cuantización de todo!

Bohr supuso que la magnitud de L estaría cuantizada en la misma forma en que lo está la energía. Si
esta es E = nhf, como se indicó antes, aquella es L = nħ, con ħ = h/2π. El divisor 2π es muy importante
y resulta del hecho de que cada vuelta o revolución es un giro de 2π radianes. A cambio de la
frecuencia f se suele hablar de frecuencia angular, lo que no es más que una alusión al movimiento
angular, con velocidad angular ω. En otras palabras, ω = 2πf. Descuide el lector si esto le incomoda,
lo importante es recordar que el momento angular, como equivocadamente le decimos en español
a la cantidad L, está cuantizado en el átomo, al igual que la energía. Todo, en principio, está
cuantizado, es decir, toma valores discretos o es un múltiplo entero de ciertas cantidades, para el
caso que nos ocupa la ħ (se denomina h-barra). En estas unidades, E = nħω.

Hay, pues, tres hipótesis que formuló Bohr en su intento por explicar la estabilidad del átomo y dar
cuenta de otras cosas: 1) como consecuencia de la cuantización de la energía, las órbitas de los
electrones están cuantizadas (posteriormente se llamarían orbitales); 2) los momentos angulares,
también cuantizados, son múltiplos enteros de h-barra (consecuencia de lo anterior, pero en
coincidencia con la cuantización de la energía); 3) cuando los electrones emiten o absorben energía,
lo hacen en cantidades discretas, precisamente en cuantos de energía con valor ħω. Para el segundo
caso, llamando Ef y Ei respectivamente las energías final e inicial, Ef - Ei = ħω.

3. El electrón y el fotón tienen comportamientos similares

Las hipótesis de Bohr resultaron muy adecuadas para el caso del átomo de hidrógeno: explicaron
cuantitativamente las líneas espectrales de dicho átomo. No ocurrió lo mismo en otros casos, y
habría que esperar una década más para que surgiera una nueva hipótesis que diera lugar
finalmente a una nueva teoría. Esa fue la hipótesis de ondas de materia formulada por el príncipe
Louis de Broglie en 1923. Para entonces Arthur H. Compton había realizado el experimento
mencionado atrás que era la mejor demostración del carácter corpuscular de la luz: el
desplazamiento en la longitud de onda de rayos X que incidían sobre un metal o un semiconductor.
Asumiendo que los rayos X son fotones de muy alta energía (son radiación por encima del violeta),
un fotón que logra colisionar un electrón en el metal, para todos los efectos un electrón libre en
reposo, es dispersado en cierta dirección de acuerdo con los principios de conservación de la energía
y del momentum. La frecuencia del fotón residual es menor que la del inicial, pues parte de su
energía (no toda, a diferencia del efecto fotoeléctrico) se transfirió al electrón.

Si la luz, siendo una onda, se comporta en ocasiones como un chorro de partículas, el electrón, una
partícula que también se obtiene a chorros bajo ciertas condiciones, bien podría ser que se
comportara como onda. Eso fue lo que supuso de Broglie mientras trabajaba en su tesis de
doctorado. Sobra decir que su conjetura, por inverosímil que pudiera parecer, fue acertada. De la
misma manera que Einstein encontró una relación entre la cantidad de movimiento y la longitud de
onda de los fotones que componen la luz, el príncipe francés halló una relación entre la longitud de
onda de los electrones y su cantidad de movimiento: λ = h/p. La conclusión es que la longitud de
onda asociada a los electrones es muy pequeña, generalmente una fracción de nanómetro o
ångström (simbolizado por Å, unidad de longitud así llamada para honrar la memoria del famoso
espectroscopista sueco Anders Jonas Ångström de mediados del siglo XIX). Un Å es una décima de
nanómetro (nm). El nm es la milésima de la milésima de la milésima de metro (una milmillonésima
o 10-9 m). Volveremos a las implicaciones del tamaño en la siguiente sección. Por ahora queremos
destacar que los objetos cuánticos exhiben un comportamiento dual: en algunas ocasiones se
manifiestan como ondas, en otras como partículas. Este es el punto de partida para lo que se ha
dado en denominar los misterios de la física cuántica; en realidad resulta ser un misterio para el
modo de pensar a que estamos acostumbrados.

De Broglie trató de ir más lejos en su interpretación de las que él mismo llamó ondas de materia.
Evidentemente Einstein había partido de las ondas de luz y arribado a corpúsculos de energía. La
analogía era obvia: la luz es energía y hay una relación estrecha entre la materia y la energía (E =
mc2), ya lo había demostrado el mayor genio de la física conocido en ese momento. A diferencia del
electrón, el fotón no es algo que se pueda confinar salvo en cavidades adecuadas: la longitud de
onda debe guardar una relación estrecha con las dimensiones de la cavidad. Esto se entiende más
fácilmente si consideramos el caso de una cuerda fija por los dos extremos: solo pueden formarse
ondas estacionarias cuando la frecuencia de la onda es tal que la longitud de onda resultante es un
número entero de medias longitudes de onda.

Probablemente eso podría explicar la estabilidad del átomo: las órbitas permitidas serían tal vez
aquellas que contuvieran un número entero de longitudes de onda, como ocurre con las ondas
estacionarias en ciertos instrumentos musicales. Estas ideas, inspiradas en de Broglie (los
experimentos de difracción de electrones a que nos referiremos a continuación no habían sido
realizados aun), fueron las que llevaron a Erwin Schrödinger a proponer una función de onda para
los objetos materiales y una ecuación de onda para describir su comportamiento. A ese asunto
volveremos luego. (Por la brevedad con que debe escribirse esta nota, hemos ido demasiado rápido,
por lo que el lector que quiera verlo con mayor detalle puede consultar otros textos más extensos:
Giraldo, 2009; Giraldo, 2018a y 2018b; Klein, 2003; Alastair, 2011.)
Por otro lado, esa fue una de las primeras grandes aplicaciones de la física cuántica: de ahí surgió el
microscopio electrónico, instrumento sobre el cual versa uno de los artículos que forman parte de
este número. Para terminar esta sección es conveniente mencionar que los rayos X fueron
descubiertos el año anterior al que Thomson hizo su experimento, concluyendo que los rayos
catódicos eran electrones. En 1927 el hijo de J.J. Thomson, George Paget, hizo experimentos
equivalentes a los de difracción de rayos X con electrones, demostrando que el comportamiento de
estos últimos era el mismo de aquellos. Simultáneamente Clinton Joseph Davisson retomó unos
experimentos hechos con una placa de platino (supuestamente cristalino) que había realizado en
1923 con resultados negativos: repetidos cuidadosamente con níquel, los resultados no dejaron
lugar a duda, los electrones exhiben el fenómeno de difracción característico de las ondas.

En el texto Quantum Sapiens I (Giraldo, 2018a) se da cuenta de muchos detalles que por brevedad
omitimos aquí. Entre 1925 y 1926 se elaboraron dos propuestas que contenían los ingredientes
fundamentales para la nueva teoría en dos versiones diferentes, la llamada formulación matricial,
de Werner Heisenberg, y la ondulatoria, de Erwin Schrödinger. Esta última es la más fácil de seguir,
aunque su interpretación inicial fue equivocada. La de Heisenberg tiene en cuenta los valores
discretos de las cantidades físicas, energía, momentum angular, espín, etc. Este último había sido
descubierto en 1922 y volveremos a él más adelante.

Concluimos esta sección enunciando lo que resulta ser la característica principal de la mecánica
cuántica: todos los objetos se comportan exactamente de la misma manera. De cómo se pasa del
comportamiento cuántico, generalmente imperceptible, al clásico que percibimos en la vida diaria,
no nos ocuparemos aquí; esa es una discusión que no termina. (Laloë, 2013.) Limitémonos, para
precisar, a objetos microscópicos. Así, pues, digamos que los fotones, los electrones, los núcleos, los
átomos, las moléculas y las macromoléculas como las proteínas y el ADN, de hecho todos los
corpúsculos materiales o energéticos, se comportan igual, como ondas o como partículas. Nos
referiremos en las siguientes tres secciones a experimentos que ilustran claramente lo que estamos
afirmando. Introduciremos así el principio de superposición cuántico, el punto de partida del
misterio cuántico, el único misterio según Richard Feynman (1963). (Gribbin, 2015.) Al lector no
familiarizado con las ondas clásicas le aconsejamos informarse en el apéndice de lo que debería
denominarse segundo principio de superposición clásico, o superposición (clásica) de ondas,
ilustrado en las figuras A1 a A5. Los dos principios suelen confundirse en la literatura pero se refieren
a fenómenos diferentes.

4. El misterio cuántico. Experimento de las dos ranuras

Después de comparar los resultados radicalmente diferentes de ondas y partículas en el sentido


clásico en el llamado experimento de las dos ranuras, Feynman (1963) propone en una famosa
lecture que recomendamos al lector hacerlo con electrones (para mayor claridad, véase el apéndice
o el texto de Feynman). El resultado con luz parecía inequívoco: la luz se comporta como una onda.
Los experimentos a que nos estamos refiriendo ilustran lo contrario: la luz está compuesta de
corpúsculos. El experimento pensado, ilustrado en la figura 1, consiste en lo siguiente: se lanzan
electrones contra una pared en la que se han hecho dos aberturas. En frente de la pared hay una
pantalla y sobre ella se dispone un detector que medirá en intervalos de tiempo iguales la cantidad
de electrones que llegan a cada región de la pantalla. Si una de ellas se obstruye, se obtiene una
distribución de los electrones detectados como indican las curvas rotuladas P1 o P2 según se
obstruya la ranura 2 o la 1 respectivamente. A diferencia de lo que cabría esperar (comportamiento
de balas de cañón, de bolos o de canicas como se ilustra en las figuras A6 y A7), cuando los electrones
pueden pasar por cualquiera de las dos aberturas su distribución en la pared es la característica de
las ondas (figuras A2 a A5) y no la simple suma de las distribuciones, P 1 + P2 (figura 1b). Para dar
cuenta del resultado, habría que pensar que cada distribución es el módulo al cuadrado de una
cierta función, φ1 o φ2 según el caso, y que para obtener la distribución compuesta primero se
suman esas funciones: φ = φ1 + φ2 (figura 1c).

Figura 1. Experimento con electrones (reproducción del texto de Feynman).

Figura 2. Experimento con fotones individuales

Cuando Feynman propuso el experimento con electrones para las dos ranuras, era solo lo que se
denomina un experimento pensado. En su conferencia advierte que no se podría realizar, pero ya
Claus Jönsson lo había hecho realidad en Tübingen, Alemania. La publicación de Jönsson (1961), de
carácter pedagógico a pesar de lo innovadora, pasó desapercibida para la comunidad científica
porque no ilustraba nada que no se supiera: el resultado, aunque no se hubiera realizado antes, era
justamente el esperado, así que nadie lo pondría en duda: es en esencia el mismo realizado por los
grupos de Davisson y de Thomson. Hoy en día se ha realizado en distintas formas y con todo tipo de
micro-objetos, hasta con moléculas de varios cientos de átomos. Estos son en la práctica de mucho
más difícil realización, pero conceptualmente pueden ser más fáciles de entender. Ocurre lo
contrario con los experimentos de difracción que permitieron comprobar desde muy temprano la
hipótesis de de Broglie, aunque su andamiaje teórico es más sofisticado.

Figura 3. Experimento con electrones individuales.

En las figuras 2 y 3 se ilustran los resultados de dos experimentos reales de tipo dos ranuras hechos
con fotones individuales y con electrones individuales. La diferencia práctica y conceptual es que
los fotones y los electrones son emitidos desde una fuente uno a uno y registrados en un detector
uno por uno. Es de advertir que no se sabe en ninguno de los dos casos qué ha pasado en el
intermedio, es decir, ignoramos cuál ha sido la trayectoria de cada uno de esos supuestos
corpúsculos. A medida que aumenta el número de partículas que llegan a una pantalla en donde
son detectadas, emerge cada vez en forma más nítida un parón de interferencia como si se tratara
de ondas. Los resultados son incontrovertibles: la partícula cuántica (electrón o fotón) sabe de
antemano dónde debe o puede manifestarse, evitando siempre ciertas regiones prohibidas. En otras
palabras, cada partícula tiene que interferir consigo misma, de manera similar a como hacen las
ondas. Hay que recordar que las ondas clásicas son perturbaciones distribuidas en el espacio. En el
presente caso se trata de una supuesta partícula que se distribuye en todo el espacio mientras no
se detecte (véase además figura 10 y la discusión respectiva en la sección 7).

5. Interferómetro de Mach-Zehnder

Los interferómetros han jugado un papel crucial en los últimos siglos. Por mencionar solo tres, el de
Michelson echó por el piso la teoría del éter luminífero, el LIGO (Laser interferometer gravitational-
wave observatory) demostró la existencia de las ondas gravitacionales y el de Mach-Zehnder (MZI)
ha jugado un papel crucial en establecer los efectos cuánticos no locales a los que nos referiremos
brevemente al final de esta introducción a los misterios cuánticos.

El MZI se esquematiza en la figura 4. Su funcionamiento básico es el siguiente: un pulso de luz


monocromática incide sobre un espejo semitransparente, usualmente semiplateado, denominado
divisor del haz o simplemente divisor porque divide a este en dos haces de igual intensidad; de ellos,
uno se refleja siguiendo el camino 1 y otro se transmite siguiendo la trayectoria 2; los dos
encontrarán en su camino espejos totalmente reflectores que les obligará a reencontrarse de nuevo
y formar imágenes en los detectores 1 y/o 2 si se interpone al final un segundo divisor del haz; para
lograr el reencuentro basta inclinar los espejos divisores y reflectores 45 grados respecto a la
dirección en que avanza el haz en cada sección. A los divisores del haz les denotaremos D1 y D2,
respectivamente. Al haz que va por el camino 1 se le obliga a cruzar por un selector de fase (no
mostrado en la figura) antes de que llegue al D2. Este instrumento es muy versátil y se puede utilizar
con diferentes propósitos. En ausencia del selector de fase, cuando la longitud de los dos caminos
es la misma, sólo se formará imagen en el detector 1 (la explicación se da más adelante).

Figura 4. Interferómetro de Mach-Zehnder. En el camino 1 se interpone un selector de fase.

Vamos a examinar cuidadosamente lo que ocurre en el interior de los divisores de haz y del selector
de fase en términos clásicos. El divisor de haz 50-50 o espejo semiplateado es una delgada lámina
transparente a la que se recubre con una capa metálica mucho más delgada, usualmente plata. Su
espesor se ajusta de tal manera que la intensidad de los dos haces, del transmitido y del reflejado,
sea la misma. Recuérdese que un haz de luz es un enjambre de fotones. Así pues en condiciones
ideales el efecto de la placa recubierta es dejar pasar cada fotón con una probabilidad de un 50 % o
hacer que se refleje con la misma probabilidad. Téngase presente que la lámina transparente tiene
dos caras y solo una de ellas se recubre con la capa metálica. Para la configuración mostrada en la
figura 4, en el D1 la capa metálica recubre la superficie por donde sale parte del haz, la que va por
el camino 2, mientras que la parte reflejada precisamente en esa cara después de recorrer el interior
de la lámina toma el camino 1; lo contrario se hace en el D2: la parte del haz que había tomado el
camino 1 encuentra primero el espejo antes de dividirse de nuevo. Este detalle es importante para
lo que sigue. El selector de fase ocasiona un retraso en el haz que toma el camino 1 si se le compara
con el que va por el camino 2. Ese retraso o cambio de fase se traduce en términos de fracciones de
longitud de onda adicionales para el recorrido del camino 1. Esto se entiende mejor si se examina la
figura A3 del apéndice.

Como podrá imaginar fácilmente el lector, hoy se hacen fácilmente experimentos con fotones
individuales y es sobre esta base que describimos este experimento pensado. Desde el punto de
vista conceptual, al utilizarlo de esa manera hay varias conclusiones que podemos extraer las cuales
enumeramos en esta sección. Asumamos, para empezar, que se ha removido D2. Si el fotón se
refleja en D1, seguirá el camino 1 y llegará sin duda al detector 1. Lo contrario ocurre si se transmite
a través de D1, siguiendo el camino 2: al reflejarse en el espejo que encuentra, llegará finalmente al
detector 2.
Lo primero que se observa es que siempre se detectan fotones enteros, no fracciones de fotones;
uno podría imaginar que eventualmente un fotón se dividiera en dos partes al llegar a D1 y que cada
una de ellas siguiera por un camino diferente, pero eso nunca ocurre. ¿Qué significa entonces que
el haz incidente se divide en dos partes iguales, dos haces de igual intensidad? Significa que si
hacemos muchísimas veces el experimento de un solo fotón incidente, muy aproximadamente la
mitad de las veces el fotón será detectado en el detector 1 y otro tanto en el detector 2.

Podríamos creer entonces que en cada experimento individual el fotón escogerá aleatoriamente el
camino 1 o el camino 2 con la misma probabilidad. Es mejor no adelantarnos a los hechos. Para estar
seguros imaginemos que se coloca un detector en frente de D1 en el camino 1 de tal manera que
un fotón emitido y reflejado en D1 necesariamente se cruza con el detector interpuesto. Como era
de esperar, en ocasiones este primer detector revela que pasó un fotón y en el mejor de los casos
el detector 1 confirmaría que siguió el camino 1. Es de advertir que la detección de un fotón puede
aniquilarlo. Por el contrario, habrá ocasiones en que no se detecta el fotón emitido en el detector
que hemos colocado en frente de D1, descartándose la posibilidad de que el fotón haya seguido la
trayectoria 1; en estos casos el detector 2 invariablemente nos mostrará que el fotón siguió la
trayectoria 2: no detectarlo por el camino 1 equivale a saber que ha seguido por el camino 2.

Con el D2 removido podemos observar fotones individuales todo el día y nunca sabremos con
seguridad cuál de los dos caminos va a escoger uno de ellos. Esto ocurre en forma completamente
aleatoria. En otras palabras, el camino escogido en cada ocasión no depende del resultado del
evento anterior: son totalmente independientes. Tenemos que hacer ese mismo experimento
muchísimas veces para concluir que aproximadamente la mitad de las veces el fotón incidente se
refleja en el D1 y la otra mitad de las veces, 50 %, se transmite. No hay nada que determine lo que
hará cada fotón, pues todos ellos se han preparado en idénticas condiciones: son fotones idénticos.

Veamos qué ocurre cuando interponemos el D2 en frente de los detectores 1 y 2, como indica la
figura 4. Imaginemos primero dos variantes del experimento antes de examinar la situación que más
nos interesa. Reemplacemos primero el D1 por un espejo totalmente reflector: con toda seguridad
el fotón va a seguir el recorrido 1; al llegar a D2, para un número muy grande de experimentos, la
mitad de las veces atravesará el divisor siendo detectado por el detector 1 y otras tantas se reflejará
siendo detectado por el detector 2. Removamos ahora el D1: hemos obligado al fotón a seguir el
recorrido 2. De nuevo, para un número muy grande de experimentos, aproximadamente la mitad
de las veces los fotones llegarán al detector 1 y otro tanto al detector 2, pues la probabilidad de que
el fotón que ha seguido el camino 2 sea transmitido al llegar a D2 es la misma de que sea reflejado
por este: 50 % de probabilidad en cada situación.

Cuando se hace el experimento en la forma en que se indica en la figura 4, sin el selector de fase,
con los dos detectores en su sitio y los recorridos 1 y 2 exactamente iguales en número de longitudes
de onda, los resultados cambian por completo. Vale la pena examinar minuciosamente qué es lo
que puede estar ocurriendo. Para entenderlo más fácilmente podemos partir de los resultados de
la figura A3 ilustrados para ondas clásicas y aceptar que los fotones se comportan como ondas. Las
ondas tienen como propiedad fundamental la superposición. En términos clásicos, el argumento es
el siguiente: Cuando un pulso de ondas (un haz) procedente del emisor al lado izquierdo del
interferómetro incide sobre el primer divisor del haz, supuestamente simétrico, 50 % del haz se
refleja y otro tanto se transmite, siguiendo respectivamente los caminos 1 y 2. Al llegar a los espejos
totalmente reflectores en las condiciones indicadas, los haces se van a cruzar e interferir de nuevo
en el divisor 2. Como explicaremos a continuación, las partes de cada haz que avanzan hacia el
detector 1 se encuentran en fase; lo contrario ocurre para las componentes que avanzan hacia el
detector 2, que se encuentran en antifase. El resultado es que llegará luz, en general radiación, al
detector 1 y no llegará al detector 2. Para lograr iluminación en el detector 2 debemos, en
condiciones ideales, modificar el recorrido y eso es lo que haremos interponiendo en el camino 1 el
selector de fase. Veamos por qué.

Las ondas electromagnéticas que llegan desde el vacío a un espejo se reflejan con una diferencia de
fase de 180 grados. Visto desde la perspectiva de las ondas y teniendo en cuenta lo que acabamos
de decir, la luz que llega al detector 1 procede de dos caminos que tienen la misma longitud (misma
separación en términos de longitudes de onda); cada haz se ha reflejado dos veces y por lo tanto los
dos llegarán en fase. No pasa lo mismo con el haz que llegaría al detector 2: la mitad del haz, la que
ha hecho el recorrido 2, ha tenido solamente una reflexión, mientras que la otra parte, la del
recorrido 1, ha tenido tres reflexiones. Una de ellas, la primera, en el interior de D1, sin cambio de
fase; las otras dos, en el espejo totalmente reflector y en la capa externa de D2, cada vez con cambio
de fase π, es decir con cambio de fase total 2π. No olvide que la del recorrido 2 tuvo un cambio de
fase π. Esto introduce una diferencia de fase entre los dos haces de 180 grados (π radianes), por lo
que llegan al detector 2 en antifase, con una diferencia de fase de 180 grados, y por lo tanto no se
formará imagen en condiciones ideales. En la práctica es muy difícil balancear o igualar exactamente
las dos partes, reflejada y transmitida, por lo que llegará un poco de luz al detector 2.

Esta imagen clásica, aunque satisfactoria para un haz de luz que se comporta para todos los efectos
prácticos como una onda clásica, pierde validez por completo cuando examinamos el
comportamiento de cada uno de los eventos individuales, fotón por fotón. Habíamos concluido, tal
vez apresuradamente, que un fotón individual sigue la trayectoria 1 o la trayectoria 2. Examinemos
detenidamente esa posibilidad a partir de los diferentes experimentos realizados y los resultados
obtenidos.

Hay una diferencia radical entre los dos tipos de resultados que hemos obtenido: aquellos en que
pudimos identificar una trayectoria definida para cada fotón y los que no nos lo permiten. En los
primeros experimentos sabíamos de antemano qué trayectoria estaba siguiendo el fotón. El último
pertenece al tipo de experimentos que no permiten saber la trayectoria. Lo que se encuentra en
este caso es una ratificación de lo que ya se vio en el experimento de las dos ranuras hecho con luz
o con electrones (sección 4 en particular; véase también el apéndice). Si el lector no está
familiarizado con este experimento, le aconsejamos volver a él. Veremos que en estos casos el
comportamiento del objeto cuántico, cualquiera que sea, fotón, electrón, átomo, molécula,
virus…es como de onda, pero no podemos afirmar que se trata de una onda. Por el contrario, si
podemos asociar una trayectoria al objeto cuántico, su comportamiento es como de partícula, mas
no podemos asegurar que sea una partícula.

El resultado del experimento que se acaba de mencionar con fotones individuales es inexorable: se
detectarán fotones en el detector 1 y, por el contrario, no se detecta el arribo de fotones al detector
2. La única explicación posible es que el fotón ha interferido consigo mismo, es decir, ha decidido
seguir las dos trayectorias simultáneamente, comportándose como una onda. Dicho en términos
matemáticos, la única imagen incontrovertible que podemos construir es esta: la onda o cualquier
otro ente matemático que represente al fotón, por ahora la denominaremos función de onda, al
llegar al primer espejo semiplateado o divisor (D1) se separa en dos componentes, cada una por los
dos caminos permitidos con el mismo peso; esas dos componentes se reencuentran en el segundo
espejo semiplateado D2 dando lugar a una nueva onda (matemáticamente función de onda) y en
últimas al objeto que podemos detectar nuevamente como un fotón solamente en el detector 1,
para este caso. Para decirlo más prosaicamente: el fotón explora las dos ramas al mismo tiempo en
ausencia de nuestra supervisión y aparece en el detector 1 en el momento preciso en que tiene que
aparecer, cuando es detectado.

La anterior configuración (dos ramas del MZI dispuestas de tal manera que el fotón sea percibido
en el detector 1) es apenas una de las muchas, de hecho innumerables, configuraciones. Hay otro
experimento que podemos hacer: mediante el selector de fase variar uno de los caminos de tal
manera que lo que sea que represente al fotón en la rama escogida (una parte de la onda en la
imagen clásica) tenga que recorrer una fracción adicional de longitud de onda. Este experimento se
ha hecho cuidadosamente, dando el resultado que se ilustra en la figura 6. Obsérvese que en cada
experimento con un fotón individual el fotón ha seguido las dos trayectorias simultáneamente y
solo en el momento de la detección escoge el detector al que llegará. Si al final del recorrido no
hubiera detectores, el fotón continuaría por las dos trayectorias permitidas simultáneamente.

Figura 6. Resultados del experimento realizado con el interferómetro de Mach-Zehnder con fotones
individuales cuando se varía el recorrido 1 o lo que es equivalente, si se cambia la diferencia de fase de las dos
componentes en que se divide la onda entre 0 y 2π. Recuérdese que la diferencia de fase inicial entre las dos
componentes es π para el detector 2. Después de un elevado número de experimentos (N) para cada
diferencia de fase, se observa que el número de fotones que llega a cada detector es el que indican las dos
curvas superpuestas. Al comienzo todos los fotones llegan al detector 1; cuando la diferencia de fase
introducida por selector de fasel es de un cuarto o tres cuartos de longitud de onda (diferencia de fase de π/2
o 3π/2), a cada detector llega el mismo número de fotones; si la diferencia es π, todos llegan al detector 2, y
así sucesivamente.

Vamos a ocuparnos de otros dos experimentos que nos llevarán, conjuntamente con los anteriores,
al enunciado del más importante principio cuántico, el de superposición cuántica.

6. Polarización y espín

El experimento anterior podría hacerse también con electrones. Para entender cómo funciona
necesitamos primero explicar una propiedad exclusivamente cuántica que se ha denominado efecto
túnel, tratado ampliamente en uno de los capítulos de este número. Lo resumiremos más adelante.
El lector se habrá preguntado qué es lo que hace que un fotón pueda o no atravesar una substancia
material, una lámina de vidrio, por ejemplo. Si la lámina es demasiado gruesa, esto es prácticamente
imposible. Si la lámina tiene un recubrimiento metálico grueso también, aunque la lámina sea muy
delgada. Se puede variar el recubrimiento metálico desde 0 hasta un cierto valor que dificulte o haga
prácticamente imposible la transmisión o paso del fotón a través de la lámina delgada. Otra
posibilidad es que ocurra la absorción o aniquilación del fotón, situación de la que no nos
ocuparemos por ahora.

Otros objetos cuánticos también pueden atravesar láminas delgadas bajo ciertas circunstancias; es
el caso de un electrón que incide sobre una lámina de material semiconductor de unas cuantas
micras o menos de espesor, presentándose el fenómeno de tunelamiento que acabamos de
mencionar. Por ahora nos limitaremos a decir que en condiciones normales, las establecidas por la
física clásica, el electrón no podría hacerlo porque se violaría el principio de conservación de la
energía. Volveremos a este asunto más adelante.

Hay propiedades intrínsecas de los objetos cuánticos que se manifiestan macroscópicamente. En


esta sección nos referiremos brevemente a dos de ellas que tienen enorme importancia científica y
tecnológica, la polarización y el espín. Una de ellas, la polarización, está asociada particularmente a
la luz, es decir, a los fotones. La otra, el espín, es más general pero reviste especial importancia en
el caso de los electrones.

Empecemos con la polarización de la luz. Una característica de las ondas electromagnéticas es que
son transversales. En términos sencillos esto quiere decir que los campos eléctrico y magnético
oscilan en dirección perpendicular a la de propagación de la onda. Es conveniente tomar como
referencia el campo eléctrico. Para precisar, supóngase que la dirección de propagación de la luz es
horizontal. El campo eléctrico, perpendicular a esta, tendrá entonces en general dos componentes
perpendiculares a la anterior; podemos escoger que una sea vertical y la otra horizontal; si están
presentes las dos componentes en forma definida, la polarización es oblicua. De acuerdo con la
dirección en que oscila el campo eléctrico en el plano perpendicular al de propagación, se habla de
luz polarizada vertical, horizontal u oblicuamente; como en general esa dirección es aleatoria, se
dice que la luz proveniente de una fuente cualquiera no está polarizada. Algunos materiales tienen
la propiedad de dejar pasar la luz solamente en una cierta dirección: son muy convenientes para
producir luz polarizada precisamente en esa dirección y se denominan por eso polarizadores. Si se
colocan sucesivamente un polarizador en dirección horizontal y otro en dirección vertical, el primero
producirá luz polarizada 100 % en dirección horizontal y el segundo obstruye totalmente su paso. Si
en el intermedio se colocara un polarizador inclinado 45o, dejaría pasar solo el 50 %. En este caso el
polarizador vertical dejará pasar un 25 % de la luz que atravesó el primer polarizador, en contraste
con la anterior disposición en la que se obstruyó por completo el paso de la luz. Estas situaciones se
ilustran esquemáticamente en la figura 7.

Vale la pena examinar lo que ocurre en cada una de las situaciones anteriores. En las dos
configuraciones el primer polarizador hace que la luz que lo atraviese esté polarizada en dirección
horizontal. Para ello ha tenido que eliminar o absorber la otra componente. Si utilizamos la imagen
de corpúsculos, esto quiere decir que de los fotones que salieron de la fuente no polarizada
solamente la mitad sobrepasó el primer polarizador. Recuérdese que los fotones no se fraccionan,
por lo que siempre pasarán fotones enteros o serán obstruidos (absorbidos) fotones enteros.. En la
configuración a), ninguno de ellos logrará sobrepasar el segundo polarizador, porque su campo
asociado una vez que cruzan el primer polarizador es horizontal. En la configuración b), al encontrar
el polarizador inclinado 45 o solo la mitad de ellos podrá pasar. Veamos por qué. La situación es
diferente a la que se presenta en el MZI porque en ese caso los fotones son transmitidos o
reflejados. En el presente caso, al llegar al polarizador inclinado, el campo eléctrico se descompone
en una componente paralela al polarizador y otra componente perpendicular. En la imagen cuántica
el campo eléctrico lo transporta el fotón. Debido a la primera componente, pasará la mitad de la
amplitud del campo, es decir, la probabilidad de transmisión es del 50 %. Recuérdese que la
probabilidad depende de la amplitud del campo. Pero recuérdese también que se trata de partículas
que o bien pasan o no pasan como tales (son absorbidas), sin dividirse. Al pasar, lo hacen con su
campo eléctrico oscilando en dirección paralela al polarizador.

Figura 7. Polarización de la luz. a) Luz polarizada vertical u horizontalmente. b) Dos polarizadores cruzados. c)
Se interpone un polarizador oblicuo entre los dos polarizadores cruzados.

El lector encontrará más fácil las lecciones que se pueden sacar de este experimento si piensa solo
en fotones individuales. ¿Qué es lo que ocurre cuando un fotón emitido por un átomo llega a un
polarizador con una orientación determinada, asumamos que la vertical? La respuesta es clara: pasa
o no pasa. Dijimos emitido, pero en realidad el fotón ha sido creado en un átomo mediante un
proceso que ha sido aleatorio: un electrón pasó de un cierto valor de energía a otro menor en un
tiempo cero, dando lugar a un fotón de energía muy precisa, justo la diferencia entre estos dos
valores. Cuando el fotón arriba a donde está el polarizador puede ser absorbido o transmitido. ¿Esto
qué quiere decir? En el primer caso fue aniquilado, de la misma manera en que fue antes creado. Al
ser absorbido (aniquilado) su energía modifica la de un electrón que pasa de un cierto valor de
energía a otro mayor en un tiempo cero. En el segundo caso no pasa aparentemente nada y sigue
su rumbo, pero en realidad sabemos que ha adquirido una polarización vertical. Decimos que la ha
adquirido porque antes tenía cualquier orientación. La observación creó el valor que ahora
conocemos con precisión. Si el polarizador hubiera estado en dirección horizontal el argumento
sería el mismo y el resultado final habría sido un fotón con polarización horizontal.

Vamos ahora a referirnos al espín del electrón. En presencia de un campo magnético el electrón
exhibe un comportamiento hasta cierto punto en paralelo con el del fotón en presencia de un
polarizador en el experimento anterior. Recuérdese que una brújula tiene la tendencia a orientarse
en la dirección del campo magnético. Se dice que la brújula es un dipolo magnético que tiende a
orientarse en esa dirección; la cantidad física que da cuenta de esta propiedad es un vector
denominado momento (de dipolo) magnético. Las limaduras de hierro no necesariamente están
imantadas, pero en presencia de un campo magnético adquieren esa propiedad, propiedad que nos
sirve a la vez para detectar la presencia del campo mismo. Si se sostiene horizontalmente una hoja
plana que contiene partículas de hierro y se hace pasar, atravesando la hoja, un alambre recto que
lleva corriente en dirección vertical, se observa cómo las partículas se alinean formando círculos
concéntricos. Ellos reflejan la dirección del campo magnético producido por la corriente que circula
por el alambre. Las líneas del campo son círculos concéntricos al alambre.

Pues bien, el electrón es como un pequeño imán. Aunque el efecto es ligeramente diferente y
rigurosamente hablando es de origen cuántico relativista, esto fue lo que descubrieron Otto Stern
y Walther Gerlach mediante un experimento como el que se ilustra en la figura 8. En él un campo
magnético inhomogéneo no solamente orienta el dipolo magnético en dirección paralela o
antiparalela al campo (por ende el momentum angular intrínseco va a ser antiparalelo o paralelo
respectivamente), sino que también lo desvía. La desviación es proporcional al valor del dipolo, o lo
que es lo mismo, del momentum angular. Clásicamente se esperaría que los electrones fueran
desviados aleatoriamente dentro de un cierto rango como el indicado por la línea vertical. Lo que
se observa es muy diferente. Sin entrar en detalles, el resultado de sus observaciones revela que
hay un momentum angular intrínseco del electrón que está cuantizado, tomando solo valores ½ħ o
-½ħ dependiendo de que el momento magnético asociado apunte en dirección antiparalela o
paralela al campo magnético aplicado, un campo inhomogéneo por la forma especial del imán que
lo produce.

Figura 8. Esquema del aparato utilizado por Stern y Gerlach en su experimento y del resultado.
Esta propiedad intrínseca del electrón se denomina espín y se asocia, aunque no tiene análogo
clásico, a un giro del electrón sobre sí mismo como si fuera trompo. Se descarta que el origen del
momentum angular y del correspondiente momento magnético se deba a un movimiento orbital
del electrón. El giro intrínseco (asociado) tiene una orientación opuesta al momento magnético
debido a la carga negativa del electrón. Se dice que el electrón tiene espín ½. Así como llamamos
polarizador lineal (también los hay circulares y elípticos) una placa que obligue a los fotones a
orientar su campo eléctrico asociado, denominaremos SG (Stern-Gerlach) cualquier aparato que
obligue a los electrones a orientar su espín en dirección paralela o antiparalela al campo magnético.

a) Primera Secuencia

b) Segunda Secuencia

c) Tercera Secuencia
Figura 9. Secuencias de experimentos de Stern-Gerlach (SG). La imagen es esencialmente la misma utilizada
en el clásico texto de Sakurai.

El lector atento encontrará la similitud entre las dos situaciones y por ende el comportamiento
similar de los fotones y de los electrones, como también sus diferencias. Esto se verá más
claramente con la secuencia de experimentos SG mostrados en la figura 9, análoga al sistema de los
polarizadores combinados de la figura 7. Nuestro siguiente paso es explicarla.

Observe con atención: lo que permite medir el aparato de Stern-Gerlach (SG) es la componente del
momentum angular de espín en la dirección del campo magnético producido por unos imanes; se
escoge que el campo vaya en la dirección perpendicular a la dirección de propagación del haz: para
ello basta orientar el gradiente del campo que generan los imanes en la dirección que se desee; ese
gradiente o inhomogeneidad de la componente del campo ocasiona, desde el punto de vista clásico,
una fuerza deflectora. La dirección de inhomogeneidad del campo coincide con la orientación del
campo de los imanes utilizados en el experimento, esquematizado en la figura 8. En la figura de la
derecha, con el polo norte hacia abajo, se ilustra claramente el efecto antiparalelo debido a la carga
negativa del electrón. Esa orientación será la que utilicemos en la secuencia de experimentos de la
figura 9. Identifiquemos el eje de propagación del haz con la dirección y. La magnitud del campo
crece cuando se va hacia el extremo delgado del imán, en forma de cuña. La dirección positiva va,
pues, hacia el polo sur. Puede ser z o x, dependiendo de la dirección en que se oriente el SG.
Escribiremos (SG)z o (SG)x según el caso.
Precisemos la nomenclatura: denominemos por S el valor del momentum angular intrínseco del
electrón (es un vector) y Sz + o Sz- (Sx+ o Sx- respectivamente) los valores posibles que tome su
componente z (o x). (La componente Sy no puede observarse en este experimento por ser la
dirección de propagación del haz.) Con la secuencia podremos incluso hacer combinaciones y sobre
todo mediciones sucesivas. Eso es lo que se hará; empecemos. De acuerdo con los resultados del
experimento que acabamos de describir, tendremos los siguientes valores posibles: Sx+ = Sz+ = +½;
Sx- = Sz- = –½.
En un primer experimento, supóngase que se selecciona uno de los dos haces en que se divide el
haz inicial, digamos el haz de electrones con el valor de espín en la dirección z+, es decir el valor de
espín de los electrones que conforman el haz seleccionado es ½ en dirección z positiva. La
componente negativa, para el caso de igual intensidad a la positiva, simplemente se ha descartado.
Si ese haz puro lo obligamos a pasar por un segundo SG orientado en la dirección z, no debería
ocurrir nada extraño: el valor que se determine será nuevamente +½. Ya no habrá componente en
la dirección negativa. Ese es ciertamente el resultado, esquematizado en la figura 9a.

¿Qué ocurrirá si en vez de orientar el segundo SG en dirección z+ lo orientamos en dirección x+? El


resultado es sencillo, pero sorprendente: el haz se separa en dos nuevos haces, iguales en
intensidad, con valores de espín +½ y –½, pero esta vez en dirección x, positiva y negativa; en otras
palabras, el haz original Sz+ se ha convertido en dos haces Sx+ y Sx-, con igual intensidad. El esquema
se muestra en la figura 9b. Si tomáramos un tercer SG orientado también en dirección x para medir
el valor de espín de cualquiera de los dos haces resultantes, comprobaríamos que los electrones de
cada uno de los haces tienen el valor de espín que esperamos: +½ o –½ (solo uno) según el caso.
Hasta aquí el lector no tendrá mayor problema: supondrá que, así como hay una componente de
espín en dirección z, habrá una componente de espín en dirección x. Ya se ha dicho que el valor va
a ser +½ o –½ siempre, por lo que podrá concluir que ahora la descripción de los haces resultantes
es la siguiente: para el primero, los electrones tienen tanto una componente Sz+ = +½ como una
componente Sx+ = +½; para el segundo, Sz+ = +½ y Sx- = –½. Esta hipótesis, plausible, puede
comprobarse o negarse con un tercer experimento para el cual nuestro tercer SG se orienta en
dirección z. El resultado es negativo, como indica la figura 9c: en la dirección z obtenemos otra vez
dos haces de igual intensidad, uno con Sz+ y otro con Sz-, como si al electrón se le hubiera olvidado
la preparación que se le hizo de un estado puro Sz en el primer SG antes de hacerlo pasar por el
segundo SG. Efectivamente, ¡esta información se borró!
Examinemos esto con mayor detalle. En física el procedimiento que estamos utilizando se
denomina colimar o seleccionar partículas preparadas de determinada manera, y consiste en la
preparación de haces o racimos de partículas que tengan todas ellas las mismas propiedades
iniciales. Cuando salen del horno, los electrones salen aleatoriamente, con las orientaciones de sus
dipolos magnéticos intrínsecos completamente al azar. El primer SG nos separa los electrones que
tienen espín Sz+ de los que tienen espín Sz-, o al menos eso creemos. El segundo SG nos permite
separar los electrones que tienen espín Sx+ de los que tienen espín Sx-; hasta ahora se ha asumido
que las medidas en z y en x son independientes. Si esta suposición es correcta, cuando regresemos
a observar la componente Sz la debemos encontrar en el valor anterior. Pues bien, no es así, como
revela la figura 9c. En el haz Sx+ que antes había sido seleccionado con electrones que tenían Sz+
encontramos ahora electrones con las dos componentes posibles en dirección z, como cuando
salieron del horno.
El resultado del experimento anterior plantea algunos interrogantes. Una forma sencilla de
responderse a la mayor inquietud consiste en reconocer que la fuerza ejercida por el campo
magnético sobre el momento magnético (digamos más bien que la interacción entre el campo
manético del SG y el momento de dipolo magnético del electrón) lo modifica a tal punto que la
preparación previa se echa a perder. En realidad, lo único que se puede afirmar es que en el segundo
experimento se han preparado las condiciones para observar componentes de espín en la dirección
x positiva o negativa. El resultado de la observación deja a las partículas observadas en un estado
de espín determinado, sea este Sx+ o Sx-. Eso significa, de paso, que cuando queramos determinar la
componente Sz el sistema ha olvidado por completo su estado anterior. Estamos en presencia de
dos observables no compatibles, para los cuales vale el principio de indeterminación que
discutiremos enseguida.

7. Principio de indeterminación de Heisenberg y tunelamiento cuántico

Muchos de los extraños fenómenos que ocurren a nivel microscópico se deben al principio de
indeterminación o incertidumbre, debido a Heisenberg. El tunelamiento es uno de ellos, siendo
este a la vez el responsable de la producción de energía en el interior de las estrellas y uno de los
efectos de mayor aplicación en las tecnologías que involucran semiconductores y nanodispositivos.
Otro destacable es el comportamiento como de onda que hemos venido observando y al que
volveremos al final de esta sección.
Entender a cabalidad lo que significa la relación de incerteza, una desigualdad, no exige matemáticas
complicadas. Su enunciado suele hacerse con referencia a la posición y el momentum de una
partícula. Se dice entonces que ninguna de ellas, por principio, puede determinarse con absoluta
precisión. El producto entre la incerteza Δs en la posición y la indeterminación Δp en la cantidad de
movimiento es mayor o a lo sumo igual a la mitad de h-barra:
ΔpΔs  ½ħ.

No obstante, a menudo esta relación es mal interpretada y se confunde con la incertidumbre clásica.
El mismo Heisenberg la ilustró en forma restringida, por no decir equivocada, echando mano de una
relación bien conocida del poder de resolución de un microscopio y de la relación de de Broglie.
Recurriendo a fenómenos más cotidianos, el argumento de Heisenberg se presenta de la siguiente
manera: si se quiere ubicar un objeto microscópico, habrá que iluminarlo; al hacerlo, se modifica
su cantidad de movimiento, pues la luz (fotones) transporta(n) momentum; utilizando fotones cada
vez de más baja frecuencia (poca energía), la posición resulta cada vez más incierta debido al
fenómeno de difracción. Finalmente sólo se observará una mancha extendida alrededor de la
posición en donde se esperaba encontrar la partícula. ¡La observación afecta el objeto observado!
En las últimas décadas se habla de observaciones que no afectan al objeto mismo. Esto conduce a
otro fenómeno todavía más complejo que se denomina entrelazamiento, cuya discusión dejaremos
para el cierre de esta ya larga introducción a la fenomenología cuántica.
Para exagerar la situación que se presenta a nivel cuántico que no concuerda con lo que se espera
clásicamente, recurramos a la caída libre, de la que el movimiento parabólico es apenas una
extensión. En palabras, un avión en movimiento uniforme es un sistema tan válido para describir el
movimiento de un objeto que se suelte desde el avión como el sistema tierra. No es mayor
aproximación despreciar el roce con el aire, aunque evidentemente para efectos de la dinámica del
avión ni puede despreciarse ni podría funcionar el mecanismo de no ser por el fluido mismo que
permite la aerodinámica respectiva. Olvidémonos pues de la presencia del aire y pensemos en el
siguiente experimento: simultáneamente desde el avión y desde la plataforma de un globo
estacionario, ubicado a la misma altura a que se encuentra el avión se sueltan dos objetos. Si
inicialmente el avión se movía hacia el globo y se cumplen las condiciones ideales exigidas por el
problema, un cálculo sencillo nos permite garantizar que los dos objetos van a colisionar en el punto
en que sus trayectorias se cruzan.
Uno puede imaginar que la colisión entre un fotón y un electrón es similar; de hecho el experimento
de Compton no es más que eso: dada la colisión, se predice con precisión cuál va a ser el cambio en
la longitud de onda del fotón dispersado en función del ángulo de dispersión. (Le aconsejamos al
lector no familiarizado con el experimento informarse sobre él: es muy ilustrativo. De hecho fue la
primera gran demostración del carácter corpuscular de la luz.) No obstante hay una gran diferencia
entre los dos experimentos: 1) el experimento se hace con un haz de luz y con un pedazo de material,
por lo que intervienen a la vez un número extraordinariamente grande de fotones y de electrones;
2) el haz de luz tiene asociada una longitud de onda, por lo que se trata efectivamente como una
onda, si bien cada fotón posee una cantidad de movimiento y una energía bien definidas. El electrón
se asume en reposo, pero su ubicación no está dada; tampoco la del fotón. Más bien la característica
de este experimento es que no podemos utilizarlo para ubicar partículas durante el proceso mismo:
solo se controla el haz de luz incidente en determinada dirección con una frecuencia fija y se mide
la frecuencia o longitud de onda de la luz emergente para cada dirección.
Vistas las cosas de manera más rigurosa, el principio de indeterminación es una consecuencia de la
dualidad onda-corpúsculo, asociada con el efecto fotoeléctrico y con el experimento de las dos
ranuras que presentamos dos secciones atrás; a ese experimento volvemos a continuación. La
dualidad en ambos casos es a la postre consecuencia del desconocimiento que tenemos sobre la
posición de un objeto cuántico. Ese objeto, mientras no exploremos su ubicación, se manifiesta de
manera similar a como se comportan las ondas. Es lo que revelan los experimentos anteriores. En
el MZI, cuando permitimos a los fotones que vayan por cualquiera de los dos caminos, escogen los
dos. Lo mismo ocurre cuando se abren las dos ranuras en el experimento con electrones (figura 2).
Volvamos a ese experimentos e investiguemos lo que pasa cuando tratamos de saber por cuál de
las dos ranuras atraviesa el electrón, como propone Feynman.
Una forma de investigar por dónde pasa cada electrón es observando lo que ocurre una vez que el
electrón llega a la pared con los dos agujeros o una vez que cruza al otro lado de la pared.
Asumamos, pues, que se coloca una fuente lumínica enfrente de las dos ranuras, como ilustra la
figura 10. Lo que ocurre es lo que se muestra a la derecha: el patrón de ondas desaparece por
completo. No es para extrañarse, ya Heisenberg lo había advertido: hemos perturbado la trayectoria
de los electrones. Intentemos hacerlo de tal manera que la perturbación sea mínima, lo cual puede
hacerse disminuyendo la intensidad de la fuente o utilizando luz de menor frecuencia. El primer
procedimiento no es el más aconsejable porque lo que interesa es la colisión del electrón con un
fotón de cierta energía y disminuir la intensidad no disminuye las consecuencias de cada impacto.
Si se recurre al segundo, se verá que a medida que se utiliza radiación (fotones) de menor energía,
es más difícil saber de qué ranura procede el electrón. En cierto momento la imagen de la
interacción se volverá tan borrosa que es imposible precisar de qué agujero procedió el electrón. En
ese caso y de ahí en adelante, el patrón de interferencia se recupera.

Figura 10. Observando (espiando) el paso de los electrones. (Reproducción del texto citado.)

El experimento de las dos ranuras y otros equivalentes o similares a los discutidos en la sección
anterior nos lleva a escoger entre dos alternativas excluyentes, lo que nos impide disponer de toda
la información que quisiéramos tener acerca de un sistema físico en cualquier instante de tiempo.
Podemos, por ejemplo, decidirnos por medir las propiedades de onda de la luz dejándola pasar a
través de una rendija doble sin saber por qué ranura pasa cada fotón o, por el contrario, podemos
observar cada fotón (o electrón) cuando pasa por alguna de las ranuras o simplemente saber por
dónde pasó sin hacer la observación directa, en cuyo caso el patrón de ondas desaparece. Nunca
podemos hacer las dos cosas al mismo tiempo. Visto de otra manera, la detección de por cuál ranura
pasa cada objeto es una medida o determinación de su posición, mientras que la observación del
patrón de interferencia es equivalente a la medida de su momentum, al menos de su grado de
incerteza. (Recuérdese la relación de de Broglie y la Ley de Bragg.) Es imposible determinar
simultáneamente la posición y el momentum de cualquier objeto cuántico con absoluta precisión,
como lo expresa la relación anterior.
Cuando discutimos en la sección 4 el experimento de las dos ranuras hecho con electrones, pudimos
ver que la detección de aquellos por fotones produce una perturbación inevitable al transferirles
momentum en la dirección perpendicular al movimiento, consecuencia del principio de Heisenberg.
La interpretación inicial que este dio de su principio está fundamentada en argumentos
semiclásicos.
Figura 11. Un haz de luz pasando por una ranura de ancho Δx se difracta, formando máximos y mínimos en la
pantalla. Entre más angosta la ranura, mayor es el ensanchamiento del patrón de difracción en la pantalla,
más notorio en el máximo central. Esto es consecuencia del principio de indeterminación debido a Heisenberg.

Es más fácil entender la inevitabilidad del principio, examinando lo que pasa con luz que atraviesa
una sola ranura muy angosta. (Figura 11.) En concordancia con el modelo ondulatorio de la luz, se
encuentra que el haz se ensancha, mucho más entre más angosta sea la ranura, dando lugar a un
patrón de difracción. El ancho de la ranura, practicada a lo largo de x, es la incertidumbre en la
posición. Tratar de medir esta con mayor precisión equivale a hacerla más angosta, lo que repercute
en un aumento de la incertidumbre de la cantidad de movimiento en esa dirección manifestado en
el ensanchamiento del haz. El experimento podría realizarse con luz suficientemente tenue,
disminuyendo la intensidad hasta el punto que se tuviera solo un fotón cada vez cruzando la ranura.
Los fotones individuales llegan aleatoriamente a distintos puntos en la pantalla, pero el patrón de
difracción (la extensión de la región a la que llegan los fotones) se ensancha cada vez más y se hace
cada vez más evidente a medida que más y más fotones arriban a la pantalla. Una ranura
suficientemente estrecha causa una serie de zonas brillantes y obscuras muy alargadas en la pantalla
detectora cuando se hace incidir luz desde el otro lado y a través de la ranura, como se puede
demostrar teórica y experimentalmente a partir de la teoría ondulatoria de la luz. Extrañamente es
eso lo que predice también el principio de indeterminación.
Otra forma de ilustrar el principio es precisamente recurriendo a la descripción ondulatoria. Cada
línea del espectro característico de cualquier sustancia, en particular de los elementos, tiene un
color específico, una frecuencia fina. Cuando nos referimos a una longitud de onda específica para
el fotón, su frecuencia queda determinada porque el producto de esas dos cantidades da su
velocidad, la de la luz: fλ = c. Se dice entonces que la luz es monocromática y no una mezcla de
colores. El término se extiende a todo el espectro electromagnético y se suele llevar la analogía más
lejos refiriéndose a una onda monocromática. Para que rigurosamente lo sea, una onda
monocromática se extiende indefinidamente. Esa es la máxima manifestación de no localidad de la
onda: extensión infinita y longitud de onda muy precisa. Cuando la extensión de la onda es finita, se
tiene lo que se denomina un tren de ondas. En este caso no se puede hablar de una frecuencia
determinada sino de un rango de frecuencias y lo mismo ocurre para la longitud de onda y su
inverso. Este último, más exactamente la cantidad 2π/λ, se denomina número de onda k: da el
número de ondas por unidad de longitud. La figura 12 ilustra lo que queremos decir: es imposible
precisar el número de ondas en el conjunto. Todo lo que se puede decir es que el inverso de la
extensión del tren, Δx, es aproximadamente el número de ondas, Δk. Se tiene así que Δx Δk ≅ 1. Si
se tiene en cuenta la relación de de Broglie p = h/λ, se ve que Δp = h Δk/2π y Δx Δp ≅ ħ. Salvo por
el factor ½ esto coincide con la relación de Heisenberg.

Figura 12. Paquete o tren de ondas que ilustra el principio de incertidumbre.

Tanto el momentum p como la posición r son cantidades vectoriales, y las cantidades anteriores se
refieren a una de las componentes. Más rigurosamente, la relación de incertidumbre para posición
y momentum se escribe como xpx – pxx = iħ, y de manera similar para las otras dos componentes.
La relación es deducible a partir de los postulados básicos de la mecánica cuántica, los cuales hacen
referencia a observables y operadores. Al escribirlo de esta manera, debe tenerse en cuenta que las
cantidades físicas involucradas no son las mismas variables que se trabajan en la física clásica: ahora
son operadores matemáticos que al aplicarlos sobre la función de onda que representa el estado
del sistema nos dan los distintos valores que esa cantidad puede tomar.
En lenguaje elemental, un observable es una cantidad física que se puede medir como resultado de
la observación. En últimas lo que dice el principio de Heisenberg es que dos variables conjugadas no
se pueden determinar simultáneamente con absoluta precisión. Ello es consecuencia de que sus
operadores (entes matemáticos que hacen las veces de aparatos de medida) no son conmutables:
no es lo mismo aplicar uno y después el segundo que hacerlo en orden inverso.
Mencionamos al comienzo de esta sección que el principio de incertidumbre se aplica también a la
energía y el tiempo. Para este caso la relación se escribe como
ΔEΔt  ½ħ.

Traducido en palabras esto significa que siempre habrá una incerteza en la energía asociada con el
tiempo de que disponemos para medirla. La onda monocromática que representa a un electrón
libre permite asignarle a este una energía perfectamente definida dada por E = ħω. Para un intervalo
de tiempo Δt hay una extensión temporal de la onda similar a la de la figura 12 sustituyendo la
coordenada espacial por el tiempo (coordenada temporal). Aplicando el razonamiento hecho para
el tren de ondas de longitud espacial se llega a un resultado equivalente a la expresión anterior.

Como ya se mencionó, la aplicación de mayor relevancia proviene del fenómeno denominado


tunelamiento cuántico, ilustrado esquemáticamente en la figura 13. Aceptando que un objeto
cuántico, generalmente una partícula, por ejemplo un electrón, se puede describir mediante una
función de onda, la figura representa la amplitud de una onda (partícula) que incide desde la
izquierda sobre una barrera de potencial, un obstáculo para que esa onda o partícula continúe hacia
la derecha. Lo que se observa clásicamente es que la partícula o el objeto rebota contra el obstáculo,
para el caso ilustrado mediante una pared. En la práctica la pared puede ser el espacio vacío entre
dos metales o entre dos semiconductores o entre un semiconductor y un metal. El electrón forma
parte del trozo de materia a la derecha, pero hablando en términos probabilísticos puede entrar a
formar parte del trozo de materia a la izquierda violando provisionalmente el principio de
conservación de la energía. La línea discontinua representa la energía que tiene la partícula. La
altura de la barrera representa la energía necesaria clásicamente para que el objeto dé el salto,
pasando de uno a otro material. El efecto se da también en los núcleos atómicos: un nucleón (el
neutrón, por ejemplo), puede abandonar el núcleo, espacio en el que usualmente está confinado,
por efecto túnel. La amplitud de la onda a la derecha, menor que la de la izquierda, representa la
probabilidad de encontrar la partícula del lado derecho. El espacio entre las dos regiones está
representado probabilísticamente por una intensidad decreciente de izquierda a derecha. Si la
pared o el obstáculo es muy extenso, es en la práctica imposible que se dé el paso de una a otra
región. Por el contrario, una pared muy delgada facilitará que se dé el tunelamiento.

Figura 13. Tunelamiento cuántico

En el caso de los semiconductores, usualmente esa región suele ser de unas cuantas decenas o
centenas de nanómetros. Cuando el principio se aplica al potencial nuclear, una barrera de
potencial que clásicamente impediría a los neutrones abandonar el núcleo, el principio da cuenta
de la desintegración nuclear en situaciones diversas. También explica la fusión de dos protones para
formar deuterio, el principio de la bomba de hidrógeno y muchas cosas más.

Cuánticamente el vacío no existe. De lo que se llama vacío surgen permanentemente (se crean) y
desaparecen partículas y antipartículas. El caso mejor conocido y de mayor aplicación es el de un
par electrón-positrón. El PET, por sus siglas en inglés (positron emmision tomography), es solo uno
de los múltiples ejemplos que se pueden dar, con enormes aplicaciones en física médica. Una de
las contribuciones a este volumen se refiere ampliamente a su uso.

8. Principio de superposición

Sin duda alguna el principio de superposición es a la vez el más impactante e importante de la nueva
física. Aunque se ha sugerido o está contenido implícitamente en los experimentos discutidos, su
enunciado explícito es el núcleo de la teoría cuántica. No es por casualidad que varios de los textos
más afamados sobre el tema empiezan explicándolo. Así lo hace Paul Dirac en su famoso texto,
Principios de la mecánica cuántica, cuyo capítulo inicial es precisamente Principio de superposición.
En lenguaje más moderno se recomienda el clásico texto de Sakurai (1994), con una ventaja
adicional: explica minuciosamente la secuencia de experimentos SG de la sección anterior y los
compara con los de polarización.

En los experimentos discutidos atrás, dos ranuras, MZI, polarización y SG, hemos escogido la
situación más sencilla: dos alternativas, dos posibilidades, dos caminos o dos valores posibles. Esta
última denominación es técnicamente mejor. Se asemeja a lo que Heisenberg descubrió y lo que
Bohr previó, finalmente lo que Dirac enunció de manera genial en su formalismo matricial de bras
y kets (descomposición de la agrupación bracket). Un lector atento habrá descubierto la aversión
del autor por denominar partícula u onda lo que describimos cuánticamente. En ese sentido, me
caso con la formulación de Dirac en términos de lo que se ha dado en denominar vector de estado.
La formulación matemática general presupone un espacio vectorial lineal complejo denominado
espacio de Hilbert, pero si el lector lo prefiere lo podemos equiparar al espacio vectorial que conoce
de su álgebra elemental. Lo importante es recordar que al sumar dos vectores se obtiene otro y que
la combinación de unos vectores base, por conveniencia de magnitud o módulo 1 y adimensionales,
en las direcciones x, y y z si fuera el espacio “real”, nos permite obtener cualquier otro vector en
ese mismo espacio. El de Hilbert puede ser de infinitas dimensiones.

Cuando solo son dos, como en los casos anteriores, esos vectores de estado los podríamos denotar
α y β o |a> y |b> en la notación de Dirac. Volviendo a los experimentos anteriores, si se sabe con
certeza cuál es el estado del sistema, fotón o electrón para los casos ilustrados, digamos que el
estado |a>, se debe satisfacer una condición adicional: la probabilidad del estado es 100 %, o más
exacto en término de probabilidades, vale 1. Esto se enuncia en esa notación de la siguiente
manera:

<a|a> ≡ 1.
Se asemeja a un producto escalar. Lo mismo podría decirse si estuviera en el estado |b>:
<b|b> ≡ 1.
Otro sería el caso si tuviera igual probabilidad de estar en cada uno de los dos estados. La
combinación lineal adecuada sería ½|a> + ½|b>. De manera general: c1|a> + c2|b>. Es evidente que,
para que la suma de probabilidades nos dé 1, se debe exigir:
c1<a|a> + c2<b|b> = 1,
de donde se deduce que los dos coeficientes de probabilidad deben stisfacer:
c1 + c2 = 1.
La generalización a más de dos estados es inmediata: si hay n estados posibles para un observable
representado por el operador Ô, un estado cualquiera |ψ> se puede representar por una suma
ponderada de n términos |ai> con coeficientes complejos ci en la forma

|ψ> = c1|a1> + c2|a2> +…+ ci|ai> + …+ cn|an>.

Si se utilizara el lenguaje de las ondas a cambio del lenguaje de los vectores de estado, la descripción
se haría de la misma manera, utilizando funciones de onda complejas. Recuérdese que cualquier
ruido o el sonido de toda melodía se puede representar como una combinación lineal de ondas de
distinta frecuencia.

9. El principio de exclusión

Todos los leptones (6) y todos los quarks (6) son fermiones. Tienen espín ½. Todas las partículas,
elementales o no, que tengan espín semientero son fermiones. Los fotones y los gluones tienen
espín entero. Por esa razón se denominan bosones. La clasificación es de gran trascendencia y no
solo honra los nombres de los dos personajes que contribuyeron a esclarecer las diferencias, Enrico
Fermi y Satyendra Nath Bose. Así como los fotones son los responsables de la interacción
electromagnética, los gluones son los intermediarios de la interacción fuerte, la que se da
precisamente entre dos quarks. La interacción débil es la responsable de la aparición de los
neutrinos. El gravitón, un bosón, sería el responsable de la interacción gravitacional. Los fermiones
obedecen el denominado principio de exclusión, enunciado por Wolfgang Pauli: dos fermiones no
pueden estar en el mismo estado. Lo contrario ocurre con los bosones: ellos puedan estar
colectivamente en el mismo estado. El condensado de Bose-Einstein es un ejemplo.

El orden que se observa en la tabla periódica es consecuencia esencialmente de la imposibilidad de


tener dos electrones con el mismo valor de lo que se denominan sus números cuánticos: los
electrones ocupan los niveles inferiores de energía con mayor probabilidad; luego aparecen en cada
nivel subniveles que corresponden a los valores de momentum angular y de la componente del
momentum en la dirección acimutal; en cada subnivel puede haber máximo dos electrones, uno con
espín paralelo y otro con espín antiparalelo a esa dirección.

La física del estado sólido echa mano del principio de exclusión de Pauli, por lo que el espín es una
cantidad muy importante para determinar las propiedades de este estado de la materia.

10. La nueva ecuación de movimiento

La ecuación general que determina las propiedades de un sistema cuántico se denomina Ecuación
de Onda o ecuación de estado y en el caso no relativista fue obtenida por Erwin Schrödinger. Se
parte del postulado de que todo sistema cuántico está plenamente descrito por una función
matemática de naturaleza compleja que se denomina precisamente vector de estado o función de
onda. Sobre esta función actúa un operador matemático que se denomina Hamiltoniano,
representado usualmente como Ĥ. Al hacerlo nos dice cómo va a evolucionar en el tiempo la función
de onda. Este procedimiento es equiparable a lo que hace la segunda ley de Newton, que nos dice
qué trayectoria va a seguir un objeto clásico si conocemos las fuerzas que actúan sobre él pero con
una enorme diferencia: ahora no se puede hablar de trayectoria. La ecuación de Schrödinger es

Ĥ𝜓 = iħ𝜕𝜓/𝜕𝑡.
La operación final se denomina derivada parcial con respecto al tiempo. La función es función
generalmente de las coordenadas y del tiempo y debe agregarse una función del spín en el caso
general.

11. Efectos cuánticos no locales

Nos hemos referido atrás al entrelazamiento cuántico. Este, el mayor de los misterios, merece
capítulo aparte y solo daremos al lector una vaga idea sobre él, asegurándole que gracias a ese tipo
de efectos, denominados en general no locales, es como se podrán materializar muchas aplicaciones
tecnológicas y científicas antes impensables siquiera. De nuevo recurriremos a los electrones y a los
fotones, aunque el entrelazamiento siempre se puede dar entre cualquier par de objetos cuánticos
y aun entre varios.

Un método común para producir pares de fotones entrelazados es por conversión paramétrica
espontánea. Se bombea un cristal no lineal, transparente y birrefringente, con un láser a una
frecuencia νb para obtener dos conos de luz con fotones de frecuencias ν1 y ν2, con νb=ν1+ν2.
Usualmente ν1=ν2 pero no son idénticos en todo: la birrefringencia del cristal obliga a que su
polarización sea ortogonal; si uno tiene polarización horizontal, el otro la tendrá vertical. En general
cada uno de ellos tendrá una combinación lineal de las dos polarizaciones posibles, es decir oblicua.
La preparación garantiza que el otro estará en polarización perpendicular a su gemelo. Sin embargo,
el estado de cada uno de ellos es un estado superpuesto, por lo que mientras no se determine su
polarización esta puede tomar cualquier valor. En el momento en que se mida la polarización de
uno de ellos, el otro necesariamente se manifestará en el otro estado de polarización. La única
interpretación posible es que los dos fotones forman una unidad que no se puede separar, pues los
fotones están entrelazados.

Se llega al mismo resultado examinando el comportamiento del espín de dos electrones que se han
preparado de tal manera que su espín total valga cero. El uno tendrá espín paralelo a un campo
magnético y por consiguiente el otro deberá tenerlo en dirección antiparalela. En 1952 David Bohm
propuso un experimento que pondría en evidencia el carácter no local de la teoría cuántica. Sin
entrar en detalles, los dos electrones saldrían en direcciones opuestas con espines opuestos y en
puntos lejanos diferentes el espín de cada uno podría examinarse con aparatos SG. Si Alice, a la
izquierda, escoge medir el espín en cierta orientación x y encuentra que su electrón tiene espín
paralelo a la dirección escogida, se presume que Bob encontrará a la otra en dirección antiparalela.
Ateniéndonos a la descripción cuántica, los espines de las partículas no tendrán realidad física antes
de la medida. Contrariando este punto de vista, Einstein sostenía que cada elemento de la realidad
física debería tener una contraparte en la teoría física, por lo que la teoría cuántica estaría
incompleta. Los experimentos demuestran que los elementos de realidad no siguen el criterio de
realidad de Einstein. Mucho se ha avanzado en los últimos 50 años y amerita un artículo separado.
Figura 19. Experimento propuesto por Bohm.
APÉNDICE: CONCEPTOS CLÁSICOS
Para quienes no tienen un entrenamiento previo en física clásica o la han olvidado, hacemos aquí
una descripción lo más cualitativa posible sobre la descripción cuantitativa de la fenomenología
clásica.

1. Leyes de la mecánica y del electromagnetismo

La fuerza es una cantidad vectorial, a diferencia por ejemplo de la carga, la masa, la energía y muchas
más que son escalares. Para encontrar la fuerza total que varias cargas ejercen sobre otra se recurre
a la suma de vectores, un método que llamaremos por conveniencia primer principio de
superposición clásico. Veremos que hay otro principio de superposición clásico que se aplica a las
ondas. El primero nos lleva fácilmente al concepto de campo eléctrico. Para entenderlo fácilmente,
volvamos al caso gravitacional. El peso es la fuerza sobre una masa m debida al campo gravitacional.
Decimos que Fg = mg. Si se tratara de la tierra, g es en general el campo gravitacional de la tierra,
un vector; olvidándonos de las asimetrías (la tierra no es una esfera, mucho menos homogénea), la
magnitud g depende de la distancia a su centro: para un satélite, depende del radio de su órbita
alrededor de la tierra. Cuando el objeto (una nave espacial, por ejemplo) se aleja demasiado habrá
que tener en cuenta el campo gravitacional de otros cuerpos celestes. De la misma manera, un
arreglo o distribución de cargas produce un campo eléctrico que otra carga q que cruce por su
entorno experimenta. Por analogía con el campo gravitacional, escribimos, Fe = qE, donde Fe es la
fuerza que siente una carga q en presencia del campo eléctrico (vectorial) E. Recuérdese que el
campo gravitacional produce una fuerza que es solamente atractiva o nula. El campo eléctrico es
más versátil, pudiendo producir una fuerza repulsiva.

Cargas en movimiento, léase corrientes eléctricas, producen campos magnéticos que se suelen
representar por el vector B. Que corrientes eléctricas producen campos magnéticos fue lo que
descubrió Andrè-Marie Ampère. Hasta entonces el magnetismo era conocido por los efectos que
producían materiales denominados magnéticos, como la magnetita. Posteriormente Michael
Faraday descubrió que campos magnéticos variables, imanes que se mueven o corrientes que se
encienden o apagan, por ejemplo, producen campos eléctricos; para diferenciarlos de los campos
producidos por cargas, a estos se les denomina campos eléctricos inducidos y son el fundamento de
motores y generadores eléctricos. Ese efecto sugirió a James Clerk Maxwell, el responsable de la
síntesis a que hicimos referencia, que campos eléctricos variables producirían o inducirían también
campos magnéticos, lo que pudo comprobar experimentalmente y enunciar en forma matemática.

Maxwell fue más allá. En primer lugar, sintetizó en cuatro ecuaciones las denominadas leyes del
electromagnetismo, relacionando las cargas y las corrientes con los campos eléctricos y magnéticos
que producen y las variaciones temporales de estos con los campos inducidos. En segundo lugar, a
partir de sus ecuaciones demostró que esos campos se propagan como perturbaciones en el
espacio-tiempo. El resultado son las ondas electromagnéticas de las que la luz es apenas una parte,
el rango de frecuencias que corresponde al espectro visible. El conjunto se denomina radiación
electromagnética.

Aunque atomista, no era claro para Maxwell de dónde provenían las cargas ni cómo se producían
las corrientes eléctricas observadas. Tampoco se entendía que esas ondas pudieran viajar en el
espacio vacío, por lo que hubo que recurrir a un supuesto medio material intangible denominado
éter luminífero. Hubo que esperar hasta comienzos del siglo XX para empezar a develar ese y
muchos otros misterios que rodean a la materia y a lo que la integra, al espacio-tiempo en que
aquella se mueve, a la luz y otras formas de energía. Surgieron así nuevas teorías. Una de ellas se
denomina Teoría de la Relatividad y a la otra se le llama Mecánica Cuántica. Aquí nos ocuparemos
de esta última; pero volvamos a los fundamentos de la física clásica.

En resumen, hay tres leyes básicas del movimiento y cuatro leyes fundamentales del
electromagnetismo clásico. La ley (o principio) de inercia afirma que en ausencia de fuerzas un
objeto se moverá indefinidamente en línea recta con velocidad uniforme. Recuérdese que la
velocidad es un vector; además su valor depende del sistema de referencia que se escoja, en nuestro
caso usualmente la tierra, aunque esta es una aproximación porque la ley de inercia vale para
sistemas inerciales: la tierra es un sistema acelerado, pues se mueve alrededor del sol en trayectoria
elíptica. Para describir el movimiento de la luna alrededor de la tierra, primer problema resuelto por
Newton a partir de las leyes que descubrió, se asume que la luna es una masa puntual; lo mismo se
supone para la tierra. En la práctica se está hablando del centro de gravedad de esos objetos. Cabe
agregar que la tercera ley de Newton, conocida con el nombre de ley de acción y reacción, conduce
a un principio de conservación muy importante: el de la cantidad de movimiento. Para una masa m
su cantidad de movimiento, llamada también momentum lineal, es simplemente mv, el producto de
la masa por su velocidad.

Así, pues, la primera suposición que se suele hacer en los cursos básicos de mecánica y de
electromagnetismo es que la materia está constituida por partículas puntuales. Esas partículas como
tal probablemente no existan; no es cierto, para empezar, que las partículas elementales sean
puntos sin extensión. Esto no es mayor problema porque para eso existen herramientas
matemáticas que nos permiten hacer varias idealizaciones. La primera que suele hacerse es que la
materia es continua: puede dividirse en porciones tan pequeñas como se desee, contrariando la
hipótesis atómica. Lo mismo ocurre con el espacio y el tiempo. Hasta hace poco más de un siglo se
suponía que estos eran absolutos, los mismos para todo tipo de observadores. Eso ya no es válido
más que como una aproximación, cuando las velocidades que intervienen son muy pequeñas
comparadas con la velocidad de la luz, la máxima velocidad posible de acuerdo con la teoría de la
relatividad especial. No sabemos si el espacio-tiempo, como se denomina a ese conjunto
tetradimensional (de cuatro dimensiones, ya no solamente tres), es continuo o discreto. Ni la teoría
de relatividad ni la posible cuantización del espacio-tiempo serán tenidos en cuenta en esta reseña.
Algo de eso se menciona en las contribuciones de otros autores al presente fascículo. Pero vale la
pena destacar que recientemente se han detectado ondas gravitacionales, predichas por Einstein
hace un siglo.

Puede decirse que, en cierto modo, ya no es cierto que el universo esté hecho de átomos que
contienen en su interior otras partículas. Esa es la mínima parte del contenido del universo, la parte
llamada materia hadrónica. Tal vez la materia oscura, a la que se refiere uno de los autores, y la
energía oscura, todavía un verdadero enigma, nos revelen dentro de algunos años de mejor manera
que hoy en día de qué está hecho el universo. Por ahora solo vemos, dicen los expertos, menos del
5 % de ese universo del que formamos parte.

Newton fue no solamente el primer gran físico teórico que formuló las leyes del movimiento y
descubrió, por decirlo de alguna manera, la Ley de Gravitación Universal; creó o inventó también el
cálculo diferencial e integral, aplicándolo a la formulación precisa de sus leyes. Maxwell perfeccionó
el instrumento e incorporó lo que hoy se denomina cálculo vectorial (cuaterniones) para la
formulación de las leyes del electromagnetismo. También predijo teóricamente la existencia de las
ondas electromagnéticas, demostrando que viajan a la velocidad de la luz: la luz que vemos es
apenas una franja o ventana dentro del llamado espectro electromagnético. La luz no visible está
por debajo del infrarrojo y por encima del ultravioleta, es decir, solo vemos la franja que va del rojo
al violeta.

Una de las conclusiones más importantes de la física clásica es que las trayectorias de las masas,
cargadas o no, están perfectamente determinadas por las leyes de Newton. Si son cargadas, basta
con agregar lo que se denomina la fuerza de Lorentz: una fuerza debida al campo eléctrico E y otra
debida al campo magnético B, las dos proporcionales a la carga q. El primer término ya lo hemos
mencionado: Fe = qE. La fuerza debida al campo magnético depende también de la velocidad v de la
carga, de la intensidad B del campo y de la dirección del producto vectorial entre esas dos cantidades
vectoriales; solo lo escribimos para completar la historia: Fm = qvxB. Al lector que no haya oído
hablar del producto vectorial que acabamos de indicar le diremos simplemente que la fuerza sobre
una carga q que se mueve con velocidad v en un campo magnético B es perpendicular a la velocidad
y al campo magnético. El movimiento típico de una carga que entre en dirección perpendicular a un
campo magnético uniforme es circular. Este resultado, o mejor la fuerza de Lorentz, es muy
importante en los llamados aceleradores de partículas.

Se ha puesto gran énfasis en la fuerza que experimenta una masa m que además tiene una carga q
porque de acuerdo con la segunda ley del movimiento de Newton, F = ma, es decir: dicha masa
experimentará una aceleración en cada momento, y si se conoce la fuerza esa ley permite calcular
la trayectoria del objeto si se conocen además su posición y su velocidad iniciales. En palabras: si se
conoce la velocidad en un cierto momento para una cierta posición, podemos predecir a partir de
esa posición inicial la siguiente ubicación (adivinar a dónde fue a parar con el primer paso), pues la
aceleración en ese instante posterior (al menos la promedio) es F/m. La siguiente posición nos
servirá para calcular la nueva fuerza (generalmente dependiente de la posición) y evaluar el segundo
paso…y así sucesivamente. En eso consiste precisamente el mecanicismo: habría un mecanismo de
funcionamiento del universo que, una vez descubierto, nos permite predecir íntegramente su
evolución: una evolución completamente determinada de antemano. Es el determinismo clásico
del que se vanagloriaba, entre otros, Laplace. Ahora bien, y esta es la segunda conclusión de la física
clásica de importancia para lo que sigue, si la carga está acelerada (siempre lo estará, pues siempre
va a haber fuerza), radiará energía precisamente en forma de ondas electromagnéticas. Se
denomina a esa forma de energía radiación electromagnética, sin importar su origen específico. Hay
muchas evidencias de su existencia. Así, pues, la luna puede moverse indefinidamente en una órbita
circular alrededor de la tierra porque tiene carga cero, lo que no pasa con el electrón si se mueve
alrededor del núcleo, como supuso Ernest Rutherford, precisamente el descubridor del núcleo
atómico.

¿Por qué no cae el electrón al núcleo de un átomo de hidrógeno, el más sencillo de los elementos
químicos, si pierde energía al girar? ¿Por qué la materia que vemos generalmente es estable? Estos
son apenas algunos de los interrogantes que respondió la mecánica cuántica, pero pudo ir mucho
más lejos, como pretendemos demostrarlo. Veremos que el costo fue alto, pues dio al traste con lo
que podríamos llamar los conceptos familiares de la física. Uno de esos conceptos es precisamente
el determinismo. A diferencia de la mecánica clásica, la cuántica es una teoría rigurosamente
probabilística y en opinión de este autor no debería llamarse mecánica: ese mote es contrario al
mecanicismo clásico determinista y no aplicaría para una teoría regida en parte por el llamado
principio de indeterminación, al que volveremos más adelante.

Había otros indicios de que la física clásica era insuficiente para dar cuenta de todos los fenómenos
físicos (y químicos) observados. Uno de ellos son las denominadas líneas espectrales de los
elementos. ¿Por qué son líneas discretas y no dan un espectro continuo como ocurre por ejemplo
con el arco iris? Pero antes examinemos más de cerca de qué está hecha la luz y de qué están hechos
los átomos, en últimas los responsables de la radiación por lo que se conocía a comienzos del siglo
XX. Hasta entonces se había enseñado que la luz es una onda y que las cargas son partículas, dos
entes físicos completamente diferentes y hasta cierto punto contradictorios, aunque
suplementarios. Como veremos, esta imagen clásica de la materia cambia por completo en el
terreno cuántico.

2. El caso singular de la luz. Un mundo de partículas

Para empezar, veremos a continuación que la luz, supuestamente una onda, está constituida por
corpúsculos diminutos que hoy en día se denominan fotones. Así mismo, al contrario de lo que se
supuso hasta finales del siglo XIX, los átomos no son indivisibles: hemos dicho que tienen un núcleo
constituido por protones, cargas convencionalmente llamadas positivas, y neutrones, corpúsculos
con carga neta cero; como se enseña en los cursos básicos, hay partículas mucho más livianas que
circundan el núcleo denominadas electrones, con carga opuesta a la de los protones. Hay otras
partículas más livianas que los electrones y algunas más pesadas; las que lo son muchas veces se
denominan bariones; a las más livianas, como los electrones o menos, se les llama leptones; dentro
de este grupo están los neutrinos, con masa muy cercana a cero si se compara con la del electrón.
Cuando un núcleo se desintegra, lo que ocurre principalmente con los elementos pesados, da lugar
a otras partículas elementales. Cada partícula elemental tiene su antipartícula, siendo el positrón,
un electrón positivo, la primera que se descubrió, precisamente en la desintegración nuclear. Uno
de los artículos que se habían propuesto para este fascículo versaba sobre las partículas
elementales, pero no fue posible tenerlo a tiempo para su edición. En cambio hay otra contribución
en el terreno de la física médica que echa mano explícitamente de los positrones para una
tomografía muy importante en medicina: la PET (positron emission tomography). Al igual que los
fotones, hay otras partículas que se denominan mediadoras de las interacciones y no se tendrán en
cuenta en esta nota, pero sí en algunas de las contribuciones. Una de ellas fue descubierta hace
poco; nos referimos al bosón de Higgs. Hay muchos bosones, todavía no sabemos cuántos; algunos,
como el gravitón, son todavía una conjetura. Los electrones, protones y neutrones (también los
quarks de que están formados estos últimos) son fermiones y obedecen un principio cuántico que
se denomina de exclusión. Nada de esto que de hecho afecta al universo mismo, a su origen y a su
evolución, al comportamiento de la materia toda, podría entenderse sin recurrir a la teoría cuántica.

Los electrones ligados al núcleo, aquellos pertenecientes a los átomos, bajo ciertas condiciones que
vamos a examinar emiten radiación electromagnética, es decir, fotones; también los absorben. Ese
es el origen del espectro característico de cada substancia. Es el mecanismo principal por el cual lo
que llamamos materia, en todos sus estados, intercambia energía con el medio ambiente. Los
núcleos hacen otro tanto, pero con menor frecuencia. La luz es pues radiación electromagnética y
solo hay una pequeña ventana en que nuestros ojos la perciben, insistamos, la llamada región
visible. Al lector que no haya ido todavía al cuerpo del artículo queremos anticiparle lo que es la
esencia de la física cuántica: todos esos objetos cuánticos se comportan básicamente de la misma
manera.

3. El segundo principio de superposición clásico. Experimento de las dos ranuras.

Los átomos de un cristal perfecto forman un entramado de puntos separados uno de otro por
distancias muy precisas que se mantienen prácticamente constantes a la temperatura del cero
absoluto, gracias a las fuerzas eléctricas. En esos puntos se dispersan rayos X que supuestamente
son ondas electromagnéticas de una frecuencia y longitud de onda muy precisas, como las que se
ilustran en la figura A1: en ella cada conjunto alineado de átomos (iones) representa un plano
perpendicular a la hoja. Los planos podrían tener también una orientación oblicua, pero deben ser
paralelos entre sí. La difracción de rayos X es hoy una técnica cotidiana. Debería tenerse en cuenta
que en realidad se trata de fotones, corpúsculos de una cierta energía y cantidad de movimiento;
recuérdese que el experimento de Thomson hijo muestra los mismos resultados para electrones y
rayos X. Si la cantidad de movimiento de una partícula se conoce con precisión, lo mismo ocurre con
su longitud de onda asociada, de acuerdo con la relación de de Broglie: λ = h/p.

Figura A1. Esquema de la difracción de rayos X en un cristal. En una situación sobresimplificada los planos AA’
y BB’ separados por una distancia d dispersan en la misma dirección una onda incidente. Si la orientación
angular combinada con la separación satisfacen la llamada Ley de Bragg, 2d sen θ = nλ, hay interferencia
constructiva. En la práctica la situación es más compleja. Desde el punto de vista cuántico lo es todavía más.

Es fácil entender que cuando dos rayos de una onda plana como la que se ilustra en la figura llegan
al cristal en dirección conveniente, interfieren constructivamente. Para otras orientaciones la
interferencia será destructiva. Todo depende del valor del ángulo de incidencia, φ para el caso que
ilustra la figura. Si se consideran solo dos de los rayos del haz incidente, como se indica, y la
separación entre los planos que contienen los átomos del cristal es d, la condición para que la
intensidad sea máxima en una cierta dirección es que la diferencia en el recorrido de los dos rayos
sea un múltiplo entero de longitudes de onda:
2d sen φ = nλ (Ley de Bragg).

Cualquier pareja de rayos paralelos consecutivos que satisfaga esta condición interferirá
constructivamente. El factor 2 proviene del hecho de que en cada rama del rayo inferior este debe
recorrer una distancia adicional d sen φ. Los detalles no importan, lo que interesa es entender que
así como hay zonas de máxima intensidad, por interferencia constructiva, también las hay de
mínima intensidad, porque se presenta interferencia destructiva. La pregunta que nos deberíamos
hacer es: ¿qué es lo que interfiere? Insistamos una vez más: la luz es un chorro de fotones. ¿Cómo
hacen los fotones, supuestamente corpúsculos o granos de energía según Einstein, para interferir?

El experimento de interferencia más sencillo es el de dos fuentes de onda. Antes de referirnos al


experimento de interferencia con fotones (se denomina experimento de Young, quien fue el
primero en realizarlo para demostrar que la luz es una onda), vamos a familiarizar al lector con lo
que pasa en un estanque de agua y en cuerdas vibrantes, ondas de fácil visualización. El de Young,
aunque clásico, es en realidad un experimento cuántico.

Cuando se producen perturbaciones con una punta que se mueve hacia abajo y hacia arriba sobre
la superficie del agua se observan ondas circulares. Si simultáneamente se movieran dos puntas
separadas por una cierta distancia, podría eventualmente observarse lo que representa la figura 2.
En algunas regiones hay interferencia constructiva y en otras destructiva.

Es más fácil entender la interferencia de ondas si pensamos solamente en una dimensión. La


superficie del agua tiene rigurosamente dos. Ondas en una cuerda u ondas sonoras en un tubo
cilíndrico son ondas en una dimensión y las ilustramos en la figura A3.

Nos referimos casi siempre a la perturbación del medio en el cual se propaga la onda: para el caso
de la cuerda, lo que se estira hacia arriba o hacia abajo, hacia un lado o hacia el otro; en el aire, el
exceso o déficit de presión al comprimirlo o expandirlo.

La luz es un caso especial desde el punto de vista clásico, pues rigurosamente hablando su
comportamiento es cuántico. En sentido clásico (aproximación semiclásica), la amplitud se refiere a
la magnitud del valor máximo del campo eléctrico asociado a la onda electromagnética. Recuérdese
que siempre habrá también un campo magnético asociado.

La formación de ondas estacionarias es la base de los instrumentos musicales en maderas y vientos.


Regresaremos a este asunto más adelante, pero vale la pena recordar que una cuerda fija en sus
dos extremos da lugar a ondas estacionarias cuando la longitud de la cuerda corresponde a números
enteros de medias longitudes de onda. Las ondas en el agua son circulares. Si nos fijamos solo en la
dirección radial, que es la que importa, la perturbación avanza en esa dirección y el problema lo
podemos visualizar en una dimensión.
Figura A2. Ondas de agua de forma circular, producidas en fase. En la región en que las ondas se superponen,
hay refuerzos o anulaciones que dan lugar a interferencia constructiva o destructiva, respectivamente.

Figura A3. Superposición de ondas en una dimensión. a) En fase. b) En antifase. c) Diferencia de fase

Volvamos a la cubeta de ondas y pensemos en lo que ocurre cuando se interpone un obstáculo que
consiste en una lámina a la que se le han abierto dos ranuras, como ilustra la figura A4. Esta y otras
(figuras 1, 10 y A6) han sido tomadas del texto Lectures on Physics; forman parte de la conferencia
del autor para ilustrar el Comportamiento cuántico de la materia (Feynman, 1963), título del texto
o lecture al cual estamos haciendo referencia. Feynman propone realizar en la cubeta de ondas tres
experimentos diferentes. En un primer experimento se obstruye la ranura 2 dejando abierta
solamente la 1. La intensidad de las pequeñas olas en cada punto de la pared donde se desplaza
paulatinamente el detector se ilustra en la parte b de la figura como I1. En un segundo experimento
se obstruye la primera ranura. El resultado es el que se muestra en la parte inferior de la figura,
indicándolo como I2. Cuando se tienen las dos ranuras abiertas, el resultado es el que se ilustra en
la parte c de la figura: muy diferente a la simple suma de las intensidades, puesto que hay una
superposición entre las ondas procedentes de las dos ranuras.

Examinemos más minuciosamente este último resultado. Aplicando el segundo principio de


superposición es fácil llegar a la conclusión de que se formarán máximos y mínimos de interferencia
en la pared absorbente que nos sirve de detector. Recuérdese que la intensidad es proporcional al
cuadrado de la amplitud, lo que se indica en la figura 4. La intensidad de la onda resultante no se
obtiene sumando las intensidades de las ondas procedentes de cada ranura: se obtiene sumando
primero las amplitudes y después elevando al cuadrado, resultando así un término de interferencia
que responde a la ley de Bragg enunciada atrás. Insistimos en que el resultado de tener las dos
ranuras abiertas, mostrado en la figura 4c, no es la suma de los resultados de los dos experimentos
con una ranura abierta y la otra cerrada: el término de interferencia es muy importante.
Figura A4. Esquema del experimento con ondas en un cubilete de agua. (Reproducción del texto de Feynman.)

A riesgo de ser redundante, estimamos que vale la pena ilustrar con una fotografía real (figura 5) lo
que ocurre cuando se hace un experimento con ondas en un estanque con agua. Vale la pena verlo
dinámicamente en la web. Para observar bien lo que pasa, se proyecta luz mediante una bombilla
sobre la superficie horizontal. Las zonas grises son regiones en las que se produce interferencia
destructiva: un valle se anula con una cresta y no hay perturbación del agua. Para las orientaciones
φ respecto a la línea central en las que alternan franjas brillantes (blancas en la figura) y obscuras
(negras en la figura) se cumple la condición de Bragg, sin el factor 2: ahora solo hay una rama. En
esas regiones se suma la perturbación de la superficie del agua, hacia arriba en las regiones brillantes
y hacia abajo en las obscuras.

Figura A5. Interferencia de ondas en un estanque de agua. Primero se forman ondas planas, las cuales se
vuelven circulares al encontrar los dos obstáculos. Los frentes de ondas circulares se superponen, dando lugar
al fenómeno de interferencia característico de las ondas, gracias al segundo principio clásico de interferencia.
Examinemos ahora lo que pasaría si a cambio de ondas enviáramos corpúsculos clásicos, balas de
cañón por ejemplo, o de una ametralladora, a través de dos agujeros en una pared como propone
Feynman en su charla (figura 6). Supongamos que hay una barrera al frente de las dos ranuras que
nos permite contar las balas que llegan a cada lugar. Las ranuras permiten fácilmente el paso de los
proyectiles y se ha interpuesto un material que impide el paso de proyectiles que no van por alguna
de las ranuras. Si el autor lo prefiere, para mayor claridad, puede imaginar lo que ocurre en una
pista del juego de bolos con un jugador que impulsa las bolas en direcciones totalmente aleatorias,
cuando al final de la pista se tienen dos ranuras a cambio de los bolos. Lo que se observaría en las
tres situaciones (una u otra y dos ranuras) se ilustra en la figura A7, muy similar a lo que ocurriría en
el experimento propuesto por Feynman.

Un lector atento querrá comparar este resultado con el obtenido con rayos X. Si estos son en
realidad un chorro de fotones, corpúsculos similares a las balas pero diminutos, como propuso
Einstein y se pudo comprobar finalmente en experimentos como el de Compton, ¿por qué no se
comportan de la misma manera que aquellas? Se esperaría que el resultado fuera el de las figuras
A6 y A7, pero lo que se observa es muy diferente: la interferencia es el resultado de bulto.

Examinemos más de cerca lo que ocurre en cada caso, si se tuviera solamente una ranura abierta,
la 1 o la 2, y lo que ocurriría con las dos abiertas: el resultado en el segundo caso es la suma de lo
que ocurriría si se tuviera una ranura abierta y luego la otra, lo cual se entiende fácilmente puesto
que se suman las probabilidades de que las balas pasen por la ranura 1 o por la ranura 2. Obsérvese
que en el experimento con ondas lo que se suman son las intensidades. La regla de suma es muy
importante: no se aplica de la misma manera para los dos casos. Eso es lo que permite la
superposición en el segundo caso.

Figura A6. Reproducción del esquema del experimento con proyectiles propuesto por Feynman.
Figura A7. Esquematización y resultado del experimento en la pista de bolos con ranuras en vez de palos,
similar al de proyectiles propuesto por Feynman. Intensidad aquí es rigurosamente probabilidad.
Bibliografía

A pesar de la enorme cantidad de literatura, la mayor parte en inglés, destinada a explicar en


términos sencillos en qué consiste y para qué sirve la teoría cuántica, nos limitamos a dar unas pocas
referencias y algunos enlaces de fácil acceso, incluyendo video-conferencias muy interesantes. Estas
últimas pueden ser más útiles que los textos mismos. Aunque en algunos de los videos hemos
preferido la fuente en inglés, es fácil en algunos casos recuperar el análogo en lengua hispana o
disponer de subtítulos en español. El primer texto es un abrebocas.

Giraldo, Jairo (2018). ¿De qué trata la mecánica cuántica? (Breve nota publicada en la sección
CIENCIA del periódico EL TIEMPO el 8 de agosto de 2018. Puede recuperarse del enlace adjunto:
http://www.eltiempo.com/vida/ciencia/que-es-la-mecanica-cuantica-253954.)
Algunos enlaces a Wikipedia y enciclopedia británica son muy útiles. Los sugiero en inglés:
https://en.wikipedia.org/wiki/Quantum_tunnelling
https://en.wikipedia.org/wiki/Mach%E2%80%93Zehnder_interferometer
https://en.wikipedia.org/wiki/Heisenberg%27s_microscope
https://www.britannica.com/quiz/quantum-mechanics
Un comienzo elemental (2017): https://www.youtube.com/watch?v=uHrCIWsxMt0
Física Cuántica, explicación muy didáctica: https://www.youtube.com/watch?v=aI44gJlUeZQ
Otros videos introductorios:
https://www.youtube.com/watch?v=e5_V78SWGF0
https://www.youtube.com/watch?v=FlIrgE5T_g0
Videos interesantes que se recomiendan:
Historia de la física cuántica (2017): https://www.youtube.com/watch?v=O3rfXVUZw94
Historia de la física cuántica (2013): https://www.youtube.com/watch?v=iExE-Xl9LCo
Difracción de rayos X (2011): https://www.youtube.com/watch?v=NOQJ-NLixj4
Interferometer animation (2016): https://www.youtube.com/watch?v=UA1qG7Fjc2A
Introduction to quantum mechanics (2015): Una serie de 15 videos, desafortunadamente en inglés:
https://www.youtube.com/watch?v=b_ddt6J1Bio&list=PLg-OiIIbfPj1ZYpBuheqR0RFLusldquqf
Lewin, Walter (2015). Quantization and Heisenberg's Uncertainty Principle. (Video disponible en
https://www.youtube.com/watch?v=MeK0DV329mU.)
Lewin, Walter (2015). The Wonderful Quantum World, Breakdown of Classical Mechanics. (Video
disponible en https://www.youtube.com/watch?v=Eg13TQNgasE.)
Paniagua, Juan Carlos (2017). La teoría cuántica (primera parte)…tan precisa y tan sorprendente. En
https://www.youtube.com/watch?v=N-w1tkvdsQI
Paniagua, Juan Carlos (2017). La teoría cuántica (segunda parte)…tan precisa y tan sorprendente. En
https://www.youtube.com/watch?v=mS9ziEbMR_M.)
Van Diezen, Michel (2015). What is a photon? (Primera parte sobre el fotón, de una serie sobre
física de partículas, en https://www.youtube.com/watch?v=EVAKRL0mhZc.)
Van Diezen, Michel (2015). What is a photon? 2. Quantum jumps in an atom. (Segunda parte, en
https://www.youtube.com/watch?v=Rp1j4OIZYLk.)
Van Diezen, Michel (2015). What is a photon? 3. The photoelectron effect. (Tercera parte, en
https://www.youtube.com/watch?v=I6Hsd6oBb4U.)
Van Diezen, Michel (2015). What is a photon? 4. Pair production. (Cuarta y última parte, en
https://www.youtube.com/watch?v=HHqIJsBGox4.)
Van Diezen, Michel (2015). What is a photon? 5. Photon mas sor no mass. (Quinta parte opcional:
https://www.youtube.com/watch?v=EchI_ptOQh0.)
En esta página hay varios temas de física cuántica, desafortunadamente más complejos. Se
recomienda este en particular: https://estudiarfisica.com/2015/04/26/los-espines-del-electron-y-
el-foton-el-experimento-stern-gerlach-y-la-polarizacion-de-la-luz/
Algunos textos que recomiendo:
Feynman, Richard et al. (1963). The Feynman Lectures on Physics. Vol. I, Cap.37. Comportamiento
cuántico de la materia. (Addison Wesley, Reading, Ms.)
Giraldo, Jairo (2009). Unos cuantos para todo. (Ediciones Buinaima, Bogotá.)
Giraldo, Jairo (2018). Quantum sapiens I. (En preparación.)
Giraldo, Jairo (2019). Quantum sapiens II. (En preparación.)
Grandy, David (2010). Everyday quantum reality. (Indiana University Press, Bloomington.)
Gribbin, John (2015). The quantum mystery. (Kindle Single.)
Hobson, Art (2017). Tales of the Quantum: Understanding Physics' Most Fundamental Theory.
(Oxford University Press, New York.)
Jönsson, Claus (1961). Elektroneninterferenzen an mehreren künstlich hergestellten Feinspalten. (Z.
Physik, 161:454–474 doi:10.1007/BF01342460.)
Klein, Étienne (2003). La física cuántica. (Siglo XXI Editores, México.)
Laloë, Franck (2012). Do we really understand quantum mechanics? (Cambridge University Press,
New York.)
Orzel, Chad (2010). How to teach quantum physics to your dog. (Oneworld Publications, Oxford.)
Rae, Alastair (2011). Quantum physics. (Oneworld Publications, Oxford.)
Sakurai, Jae John (1994). Modern quantum mechanics. (Edición revisada editada por San Fu Twan.
Addison-Wesley Publishing Co., Reading.)

Das könnte Ihnen auch gefallen