Sie sind auf Seite 1von 164

INVESTIGAR

ONDAS ELECTRICAS

1. Descripcion
2. Grafica. Dibujo
3. Formula
4. Tabal estadística
La radiación electromagnética es un tipo de campo electromagnético variable, es decir,
una combinación de campos eléctricos y magnéticos oscilantes, que se propagan a través
del espacio transportando energía de un lugar a otro. Desde el punto de vista clásico la
1

radiación electromagnética son las ondas electromagnéticas generadas por las fuentes del
campo electromagnético y que se propagan a la velocidad de la luz. La generación y la
propagación de estas ondas son compatibles con el modelo de ecuaciones matemáticas
definido en las ecuaciones de Maxwell.

La radiación de tipo electromagnético puede manifestarse de diversas maneras como


Radiación infrarroja, luz visible, rayos X o rayos gamma. A diferencia de otros tipos de
onda, como el sonido, que necesitaran un medio material para propagarse, la radiación
electromagnética se puede propagar en el vacío

Todos estos fenómenos consisten en la emisión de radiación electromagnética en


diferentes rangos de frecuencias (o equivalentemente diferentes longitudes de onda),
siendo el rango de frecuencia o longitud de onda el más usado para clasificar los
diferentes tipos de radiación electromagnética. La ordenación de los diversos tipos de
radiación electromagnética por frecuencia recibe el nombre de espectro electromagnético.

Luz visible[editar]
La luz visible está formada por la radiación electromagnética cuyas longitudes de onda están
comprendidas entre 400 y 700 nm. La luz es producida en la corteza atómica de los átomos,
cuando un átomo por diversos motivos recibe energía puede que algunos de sus electrones
pasen a capas electrónicas de mayor energía.
DISPERSION

Radiación por partículas aceleradas[editar]


Artículo principal: Fórmula de Larmor

Una consecuencia importante de la electrodinámica clásica es que una partícula cargada en


movimiento acelerado (rectilíneo, circular o de otro tipo) debe emitir ondas electromagnéticas
siendo la potencia emitida proporcional al cuadrado de su aceleración, de hecho la fórmula de
Larmor para la potencia emitida viene dada por:

ESPECTRO ELECTROMSGNETICO
El espectro visible es un minúsculo intervalo que va desde la longitud de onda
correspondiente al color violeta (aproximadamente 400 nanómetros) hasta la longitud de onda
correspondiente al color rojo (aproximadamente 700 nm

Ecuaciones de Maxwell[editar]
Artículo principal: Ecuaciones de Maxwell

Maxwell asoció varias ecuaciones, actualmente denominadas "ecuaciones de Maxwell", de las


que se desprende que un campo eléctrico variable en el tiempo genera un campo magnético y,
recíprocamente, la variación temporal del campo magnético genera un campo eléctrico. Se
puede comprobar que esta "inducción" mutua hace que las ecuaciones de Maxwell admitan
una solución en forma de onda que se propaga desde una fuente

Dualidad onda-corpúsculo[editar]
Artículo principal: Dualidad onda corpúsculo
Dependiendo del fenómeno estudiado, la radiación electromagnética se puede considerar no
como una serie de ondas sino como un haz o flujo de partículas, llamadas fotones. Esta
dualidad onda-corpúsculo hace que cada fotón tenga una energía directamente proporcional a
la frecuencia de la onda asociada, dada por la relación de Planck:

FUERZA ELECTRICA

PRINCIPIOS MC

pROBABILIDAD DE AMPLITUD
Probabilidad de amplitud: phi
Este patrón de interferencias se explica fácilmente a partir de la interferencia de las ondas de
luz al combinarse la luz que procede de dos rendijas, de manera muy similar a como las
ondas en la superficie del agua se combinan para crear picos y regiones más planas. En las
líneas brillantes la interferencia es de tipo "constructiva". El mayor brillo se debe a la
superposición de ondas de luz coincidiendo en fase sobre la superficie de proyección. En las
líneas oscuras la interferencia es "destructiva" con prácticamente ausencia de luz a
consecuencia de la llegada de ondas de luz de fase opuesta (la cresta de una onda se
superpone con el valle de otra).

Se puede formular una relación entre la separación de las rendijas, s, la longitud de onda λ, la
distancia de las rendijas a la pantalla D, y la anchura de las bandas de interferencia (la
distancia entre franjas brillantes sucesivas), x
λ/s=x/D

dIR. DOBLE RENDIJA:

https://www.youtube.com/watch?v=fUZZgDOrY30}}
2.

PRINCIPIO DE INCERTIDUMBRE

De esta forma, Heisenberg puso de manifiesto que existe un límite natural insuperable a la
precisión con la que se pueden medir simultáneamente la posición y el impulso de una partícula,
debido a que la medición de una de estas cantidades inevitablemente perturba a la partícula de
modo tal que deja incierto el valor de la otra cantidad. Este es el origen físico del principio de
incerteza.

Principio de complementariedad
Esta es la esencia del principio de complementaridad de Bohr: los conceptos de onda y partícula no
se contradicen sino que se complementan

EL EFECTO FOTOELETRICO

hERTZ observo que determinados materiales sometidos A LA ACCION DE UNA RADIACION


emitían cargas eléctrica cuando son sometidos a rayos de longitud de onda suficientemente
pequeña y que para los metales alcalinos el fenómeno tenía lugar dentro de la gama visible de
radiaciones. Este efecto, llamado fotoeléctrico y que constituye el fundamento físico de las células
fotoeléctricas y de las fotorresistencias, no tenía explicación posible según la teoría ondulatoria de
la luz.

la frecuencia ν de los mismos, es la que determina la energía individual de cada fotón. Un rayo
rojo del espectro visible, aunque tenga mucha energía, es decir muchos fotones, la energía de cada
fotón es pequeña, porque la luz roja es de elevada longitud de onda, es por consiguiente baja de
frecuencia y el valor de hv es pequeño.

El efecto fotoeléctrico consiste en la liberación de partículas eléctricamente cargadas que se


produce en la materia cuando es irradiada con luz u otra radiación electromagnética.

Albert Einstein sugirió que podría considerarse que la luz se comporta en determinados casos
como
Modelo atomico
EFECTO COMPTON
Compton hizo incidir un haz colimado de rayos X de longitud de onda λ bien definida sobre un
blanco de grafito y midió la intensidad y la longitud de onda de los rayos dispersados en varias
direcciones. Se observó que aunque el haz incidente consiste esencialmente de una única longitud
de onda, en los rayos X dispersados en direcciones que forman un ángulo θ no nulo con la
dirección del haz, aparecen dos longitudes de onda: una es la misma λ de la radiación incidente y
la otra, ′ λ , es mayor, esto es ′ =+ λλ λ ∆ . Este corrimiento ∆λ , denominado corrimiento Compton,
varía con el ángulo en que se observan los rayos X dispersados.

La energía E” es menor que E

P, E es la cantidad de movimiento y energía de la radiación.

L” es mayor que L, su diferencia es L” – L.

La longitud de onda es mayor, entonces la frecuencia disminuye y la energía también disminuye


porque es directamente proporcional a la frecuencia.
K = la energía cinética del electrón.
Se puede observar que el corrimiento Compton depende solamente del ángulo de dispersión θ , y
es independiente de la longitud de onda del fotón incidente. La ecuación de Compton describe
correctamente los corrimientos observados. De acuerdo con la (4.46) ∆ λ varía desde 0 para θ = 0
(que corresponde a una colisión rasante en la que el fotón incidente no sufre desviación) hasta 2 λ
C para θ =180˚ (colisión frontal, en la cual el fotón regresa en la misma dirección desde la cual
vino).

RAYOS X
La energía del electron (hv) e iual a la energía del electro mas la eneria del positrón.
MODELO ATOMICO DE BOHR

Primer postulado.
Los electrones se mueven en ciertas órbitas circulares permitidas alrededor del núcleo sin
emitir energía. En el átomo no hay emisión de radiación electromagnética mientras el electrón
permanece en su órbita. Según el postulado de la electrodinámica clásica una carga en
movimiento acelerado, como es el movimiento de rotación, debe emitir energía en forma de
radiación.
Para obtener la energía del electrón en una órbita dada en función de su radio. El movimiento
de rotación del electrón se mantiene por la acción de la fuerza de Coulomb, atractiva, debida a
la presencia del núcleo positivo. Dicha fuerza es precisamente la fuerza centrípeta necesaria
para mantener al electrón en su órbita circular. Esto conduce a la siguiente expresión:

Donde el primer término es la fuerza de ; k es la constante de la fuerza de


Coulomb, Z es el número atómico, e es la
carga del electrón; me, es la masa del
Coulomb y el segundo es la fuerza electrón, v es la velocidad del electrón en la
centrípeta órbita y r el radio de la órbita.

lLa energía total es la suma de las energías cinética y potencial, la energía de un electrón se
expresa en función del radio r de la órbita como:

Surgía el problema de explicar la transición entre los estados estacionarios y la emisión de


radiación por el átomo, para lo que Bohr introdujo el segundo postulado.
La condición de cuantización de las órbitas permitidas para el movimiento del electrón en el
átomo es una de las grandes aportaciones de Bohr, si bien no aparece en su primer
postulado. Bohr hace uso de la constante de Planck como un momento angular elemental de
forma que los momentos angulares posibles del electrón son solo los múltiplos enteros del
citado momento angular elemental.[cita requerida] Así, no todas las órbitas del electrón alrededor
del núcleo están permitidas, tan solo aquellas cuyo radio cumpla que el momento angular;
L, del electrón sea un múltiplo entero de:

La cuantización para los radios permitidos para el electrón son:


Con n = 1, 2, 3……

Sustituyendo los radios permitidos rn en la expresión de la energía se puede obtener la


energía correspondiente a cada órbita permitida:

Los átomos tienen 1 o 2 x 10-8cm de radio. Ahora bien, 10-8 cm se denomina un ångström (tan
sólo otro nombre), de modo que decimos que tienen 1 ó 2 ångströms de radio.

TERCER POATULADO
El electrón solo emite o absorbe energía en los saltos de una órbita permitida a otra. En dicho
cambio emite o absorbe un fotón cuya energía es la diferencia de energía entre ambos
niveles. El fotón, siguiendo las ideas de Planck, tiene una energía:

Donde ni identifica la órbita inicial y nj la final, y v es la frecuencia del fotón.


Se obtiene para la frecuencia del fotón emitido o absorbido:

NUMERO ATOMICO

ONDA PARTICULA
En su lugar la mecánica cuántica describe a las partículas como una especie de "campo de
materia" que se propaga por el espacio de modo similar a una onda; las propiedades del tipo
"onda" que exhiben las partículas cuánticas son consecuencia del modo en que se propaga el
campo de materia asociado a ellas. Obviamente hay una cierta relación entre la localización
de la partícula y las regiones del espacio donde el campo es más intenso en un momento
dado. Sin embargo, la mecánica cuántica introduce el principio (Postulado IV) de que cuando
se realiza una medida de la posición de una partícula cuántica se produce el llamado colapso
de la función de onda hasta una región del espacio muy pequeña, lo cual hace aparecer al
"campo de materia" como una partícula localizada.
PRINCIPIO DE INCERTIDUMBRE DE HEISENBERG
Werner Heisenberg —Premio Nobel 1932— enunció el llamado principio de incertidumbre o
principio de indeterminación, según el cual es imposible medir simultáneamente, y con
precisión absoluta, el valor de la posición y la cantidad de movimiento de una partícula.
La precisión con que se pueden medir las propiedades de los objetos microscópicos, como
posición y momento, está limitada y el límite viene fijado por una ecuación donde la constante
de Planck es sujeto principal.

Indeterminacion en la cantidad de movimiento.

También son variables complementarias afectadas por el principio de incertidumbre para un


mismo objeto, su energía E y el tiempo, t empleado en la medida,
En la práctica los LED se emplean como emisores de luz debido a su alto rendimiento. La
emisión se conoce como luz fría por el escaso calentamiento que tiene un diodo LED al emitir
luz. En su funcionamiento, los diodos están constituidos por dos capas de distintas
propiedades eléctricas, una más positiva —' zona P'— y la otra más negativa —'zona N'— en
contacto directo —zona de la 'unión PN'—. En concreto, la zona N se dopa con más
electrones de los que existirían de forma natural y en la zona P se quitan electrones para crear
'huecos'. Al establecerse el contacto entre las dos porciones los electrones en exceso de la
región N pasan a la región P y van ocupando los huecos en la zona de contacto. Al llenar un
hueco se crea un ion negativo en la zona P y deja tras de sí un ion positivo en la zona N. Con
ello se acumula en la zona de contacto una carga espacial, hasta llegar a un cierto equilibrio,
creándose un campo eléctrico en la unión entre las dos capas que hace de barrera de
potencial permanente en ausencia de un generador eléctrico y no permitiendo el paso de
nuevos electrones de la región N a la P. La zona de la unión donde se ha acumulado la carga
se llama región de depleción (del inglés depletion) o de agotamiento.29 Externamente se
puede modificar el campo eléctrico o barrera de potencial establecidos en una unión PN
aplicando un generador eléctrico. Si el polo positivo se aplica a la zona N y el polo negativo a
la zona P (lo que se conoce como polarización inversa) se contribuirá a incrementar la altura
de la barrera de potencial y la corriente que circulará del polo positivo al polo negativo a través
de la unión PN será muy débil. Por el contrario, si el polo positivo del generador se aplica a la
región P y el negativo a la región N (lo que se conoce como polarización directa) se reducirá la
altura de la barrera de potencial y la corriente podrá circular entre el polo + y el polo - a través
de la unión PN. En un diodo LED si se polariza la unión PN directamente, haciendo positiva la
región P en relación con la región N, se reduce la intensidad del campo disminuyendo
entonces la barrera de potencial y permitiendo el desplazamiento de las cargas, el
establecimiento de la corriente y la emisión de fotones. El fenómeno físico que tiene lugar en
la unión PN al paso de la corriente en polarización directa consiste en una sucesión
de recombinaciones electrón-hueco. El fenómeno de la recombinación viene acompañado de
la emisión de algún tipo de energía. En los diodos ordinarios de Germanio o de Silicio se
producen fonones o vibraciones de la estructura cristalina del semiconductor que contribuyen,
simplemente, al calentamiento de este. En el caso de los diodos LED los materiales
estructurales son diferentes de los anteriores tratándose, por ejemplo, de aleaciones varias de
arseniuro de galio. En estos semiconductores, las recombinaciones que se desarrollan en las
uniones PN eliminan el exceso de energía emitiendo fotones luminosos. El color de la luz
emitida es característico de cada aleación concreta y depende de su frecuencia. En la
actualidad se fabrican aleaciones que producen fotones luminosos de varios colores.

CAMPO ELECTROMAGNETICO

Después de describir la idea de campo electromagnético, y de que este campo puede transportar
ondas. ¡A frecuencias más altas se comportan de forma mucho más parecida a partículas ! Es la
mecánica cuántica.
La incertidumbre del momento y la incertidumbre de la posición son complementarias, y el
producto de las dos es constante. Podemos escribir la ley de esta forma: x p h/2,
, no podemos predecir cuándo va a emitir la luz, o, en el caso de que haya varios átomos, cuál de
ellos es el que va a hacerlo. sólo podemos encontrar un promedio estadístico de lo que va a
suceder.
Tenemos un nuevo tipo de partícula que añadir al electrón, el protón y el neutrón. Esta nueva
partícula se denomina fotón . Y la nueva visión de la interacción de electrones y protones que
constituye la teoría electromagnética, pero ahora con todo correcto mecanocuánticamente, se
denomina electrodinámica cuántica.
De la electrodinámica cuántica salen todas las leyes eléctricas, mecánicas y químicas: las leyes para
el choque de bolas de billar, los movimientos de conductores en campos magnéticos, el calor
específico del monóxido de carbono, el color de los tubos de neón, la densidad de la sal, y las
reacciones del hidrógeno y el oxígeno para formar agua, son todas consecuencias de esta única ley.
La electrodinámica cuántica (QED acrónimo en inglés de Quantum Electrodynamics) es
la teoría cuántica del campo electromagnético. QED describe los fenómenos que implican
las partículas eléctricamente cargadas que obran recíprocamente por medio de la fuerza
electromagnética.
La QED es una de las teorías más precisas de cuantas que se crearon en el siglo XX. Es
capaz de hacer predicciones de ciertas magnitudes físicas con hasta veinte cifras decimales
de precisión, un resultado poco frecuente en las teorías físicas anteriores. Por esa razón la
teoría fue llamada "la joya de la física". Entre sus predicciones más exactas están:

 El momento magnético anómalo del electrón y del muon, para el cual la ecuación de
Dirac predecía un valor de exactamente el doble del valor clásico. Para el electrón la QED
predice un valor:
es la velocidad de la luz en el vacío.
es la permitividad eléctrica del vacío.

 El valor del salto de Lamb en los niveles energéticos del átomo de hidrógeno.

La electrodinámica cuántica es una descripción detallada de la interacción


entre fotones y partículas cargadas de tipo fermiónico. La teoría cuántica comparte ciertos
rasgos con la descripción clásica. De acuerdo con la descripción de la óptica clásica la luz
viaja sobre todos los caminos permitidos, y su interferencia determina los frentes de onda que
se propagan de acuerdo con el principio de Fermat. Similarmente, en la descripción cuántica
de los fotones (y los fermiones), estos pasan por cada camino posible permitido por aberturas
o sistemas ópticos. En ambos casos el observador detecta simplemente el resultado
matemático de la superposición de todas las ondas consideradas a lo largo de integrales de
línea. Una diferencia es que en la electrodinámica la velocidad efectiva de un fotón puede
superar la velocidad de la luz en promedio.1
Además QED fue la primera teoría cuántica del campo en la cual las dificultades para construir
una descripción completa de campos y de creación y aniquilación de partículas cuánticas,
fueron resueltas satisfactoriamente.

Formalismo[editar]

Diagramas de Feynman simples usados para los cálculos perturbativos de QED.

Matemáticamente, podemos decir que la electrodinámica cuántica tiene la estructura de


una teoría de gauge abeliana, siendo el grupo de gauge asociado en grupo unitario . El campo
de gauge que media la interacción entre campos de espín -1/2 con carga es el campo
electromagnético.
La evolución temporal de un sistema de partículas cargadas y fotones puede ser calculada
mediante un cálculo perturbativo. En concreto la comparación con los experimentos
realizables frecuentemente requiere el cálculo de los elementos de la matriz S que permiten
encontrar las secciones eficaces de dispersión para partícula que puede ser comparada con
los resultados de los experimentos.
La electrodinámica cuántica reduce este tipo de cálculos a un desarrollo perturbativo en serie
de potencias que permite encontrar con la precisión deseada esas secciones eficaces. Cada
uno de los términos perturbativos admite una representación gráfica conocida como diagrama
de Feynman. De hecho, la electrodinámica cuántica fue históricamente la primera teoría
donde se usaron diagramas de Feynman como ayuda en el cálculo perturbativo. La forma de
cada uno de los términos perturbativos y, por tanto, la representación gráfica asociada
depende de la forma del lagrangiano que caracteriza dicha teoría (ver más adelante).
Ver teoría de gauge
La dinámica y propiedades básicas de una teoría de campo depende de la forma seleccionada
para el lagrangiano. La selección de lagrangiano depende de las simetrías del grupo de
gauge y del hecho de que la teoría describa adecuadamente la interacción entre fermiones
cargados. En una teoría que describa campos fermiónicos interactuando mediante un campo
de gauge bosónico asociado a partículas sin masa (fotones) cuyo grupo de gauge es
conmutativo, el lagrangiano de partida puede tomarse como:

Ecuaciones de movimiento[editar]
Las ecuaciones de "movimiento" o ecuaciones de evolución temporal de la QED pueden
obtenerse mediante las ecuaciones de Euler-Lagrange del lagrangiano de la teoría. Insertando
ese lagrangiano en las ecuaciones de Euler-Lagrange se obtiene la ecuación de evolución
temporal de la teoría:
Reglas de Feynman[editar]
Para dar cuenta de todos los efectos cuánticos, es necesario reemplazar las componentes de
los campos en las anteriores ecuaciones diferenciales por operadores autoadjuntos
interpretables como genuinos operadores cuánticos. En general eso lleva a unos sistemas de
ecuaciones que no sabemos como integrar exactamente, pero que admiten un tratamiento
perturbativo, descomponiendo el operador de evolución temporal

en series de potencias o serie perturbativa.


El cálculo de cada término de la serie anterior puede realizarse de manera casi automática
con la ayuda de los llamados diagramas de Feynman, a los que se puede asociar unas reglas
de Feynman. La precisión del cálculo depende de cuantos términos se consideran en la serie
perturbativa anterior.
La noticia se hace eco del artículo de Germán F. R. Sborlini, Félix
Driencourt-Mangin, …, Germán Rodrigo, “Four-dimensional
unsubtraction from the loop-tree duality,” Journal of High Energy
Physics 2016: 160 (29 Aug 2016),
doi: 10.1007/JHEP08(2016)160; arXiv:1604.06699 [hep-ph]. También te
recomiendo German F. R. Sborlini, Felix Driencourt-Mangin, German
Rodrigo, “Four-dimensional unsubtraction with massive
particles,” arXiv:1608.01584 [hep-ph], y R. J. Hernández-Pinto, F.
Driencourt-Mangin, …, G. F. R. Sborlini, “NLO cross sections in 4
dimensions without DREG,” arXiv:1609.02454 [hep-ph].

La regularización dimensional es el método de renormalización más


utilizado para realizar cálculos teóricos en cromodinámica cuántica
necesarios para estudiar las colisiones protón contra protón en el
LHC. El método fue descubierto de forma independiente por Bollini y
Giambiagi (1972), ‘t Hooft y Veltman (1972), Ashmore (1972) y Cicuta y
Montaldi (1972), pero fue popularizado por Gerardus ‘t Hooft y
Martinus Veltman (galardonados con el premio Nobel de Física en
1999 por resultados en los que usaron dicho método). La versión
actual más usada fue introducida por Breitenlohner y Maison (1977),
por lo que a veces se llama método de regularización BMHV. Por
cierto, en este blog puedes leer “Los dos argentinos que descubrieron
hace 40 años cómo calcular en 4+ε dimensiones”
Abrégé de QED

Le concept de base avec les diagrammes de Feynman pour décrire


l’interaction électromagnétique entre les photons et la matière est la notion de
particule (qui n'est pas si fondamentale en théorie des champs, mais seulement
une interprétation des excitations du champ), et l'idée que l'on peut décrire avec
une précision pertinente (fort pertinente en fait, parfois plus de 7 à 10 chiffres
significatifs) un phénomène en ne considérant qu'un nombre restreint
d'interactions entre un nombre restreint de particules libres.

En QED, chaque sommet d’un diagramme de Feynman multiplie


l’amplitude de l'élément de matrice de transition associé au processus par un
facteur proportionnel à la constante de couplage électromagnétique, α ≈ 1/137
(sans dimensions). Il est donc raisonnable de ne considérer, en approximation,
que les diagrammes impliquant un faible nombre de sommets (i.e. peu d'échanges
de photons). Le but est de calculer les éléments de la matrice de transition « S »,
qui est l'opérateur reliant le système entre les état initiaux et les état finaux; la
probabilité qu'une transition se produise est proportionnelle au carré de la norme
de l'élément de matrice assoc

À chaque diagramme de Feynman est associé une amplitude, et en faisant


une somme sur tous les diagrammes possibles on obtient l'amplitude totale; il est
à remarquer que des interférences entre les différents diagrammes sont possibles.
Pour des diagrammes sans boucles, dit « arbres », il est commode d'associer un
terme aux sommets et aux lignes internes du diagramme; l'amplitude est le
produit de ces termes (et des amplitudes des fonctions d'onde initiales et finales).
Dans le cas ou les particules sont considérées comme des ondes planes, seule une fréquence est
présente dans le courant J : c'est la différence des fréquences des ondes incidentes et finales, ce
qui correspond au transfert d'énergie-momentum q par le photon. Un photon s'échappant à
l'infini a toujours sa « norme » q2 nulle: il a une masse nulle. On voit qu'en général plus le transfert
q2 est petit plus le processus est probable; mais les interactions avec q 2 ≠ 0 jouent un rôle très
important dans la théorie. Elles se manifestent surtout à courtes distances et on dit que ces
photons sont virtuels. Les facteurs i aux sommets accentuent le fait que les courants sont liés aux
générateurs infinitésimaux d'une représentation unitaire d'un groupe; dans une théorie de jauge,
les bosons d'échange sont chacun associés à un générateur du groupe, de la même façon que le
sont les courants.

de fixer un choix de jauge par une relation algébrique, par exemple ∂ μAμ= 0,
sinon l'opérateur différentiel n'a pas d'inverse bien défini. Notons que même
encore, l'inverse de l'opérateur n'est pas uniquement défini car on peut toujours
ajouter à A une solution de l'équation homogène (J ν= 0); cela ne cause par contre
pas de problème, c'est plus une question de « condition aux frontières ». Mais le
point important est que le propagateur dépend de la relation choisie, et
l'invariance de la théorie sous les différents choix possibles peut sembler
douteuse; la forme simple du propagateur utilisé plus haut, -ig μν/q2, est un cas
extrême très particulier; dans une jauge générale, il peut être tout simplement
impossible de représenter le propagateur sous forme fermée.

Du point de vue de la théorie de champ, sous-jacente à la méthode perturbative, fixer une jauge
par une condition algébrique n'est pas trivial. En fait, A en chaque point est un opérateur, et il
s'avère que l'opérateur associé à un choix de jauge, par exemple ∂ μAμ, ne commute tout
simplement pas avec A. On ne peut donc pas identifier cet opérateur à l'opérateur nul. On peut
contourner le problème en définissant cette condition comme une condition que doit satisfaire
tous les vecteurs de l'espace d'état sur lequel A agit : (∂ μAμ)ψ = 0. En d'autres termes, on introduit
le choix de jauge comme une restriction de l'espace d'état sur lequel on travaille, une équation que
ces vecteurs doivent satisfaire. Il faut ensuite s'assurer que les véritables observables physiques
laissent ce sous-espace invariant par leur action. La démonstration que les résultats physiques de
la théorie sont biens invariants par rapport au choix d'une jauge n'a rien d'évident.
Conversion of Energy into Mass
In a NUCLEAR REACTOR, a spontaneous nuclear process results in a
net decrease in the net mass of all the particles involved. The "missing mass"
appears as the kinetic energy of the reaction products, which is dissipated by what
amounts to friction and generates heat that boils water; the steam is used to spin
turbines that run generators that send electrical power down the wires.

This leads to an obvious question: can we do the opposite? Can we take electrical
power out of the wires, use it to raise the kinetic energy of some particles to
enormous values, smack the particles together and generate some extra mass?
Yes! This is what a PARTICLE ACCELERATOR like TRIUMF24.12 does. Every such
accelerator is a sort of "reactor in reverse," taking electrical power out of the grid
and turning it into mass.

Such things happen naturally, too. Gamma rays of sufficient energy often convert
into electron-positron pairs when they have a glancing collision with a heavy
nucleus. This is pictured in Figs. 24.3 and 24.4.

There is a neat, compact way of representing such reactions by FEYNMAN


DIAGRAMS
24.13
I will draw them "left to right" but the convention is actually to draw
them "down to up." I don't know why.

The convention in FEYNMAN DIAGRAMS is that antiparticle lines (e+, for instance) are
drawn in the "backward" sense as if they were propagating backward in time.
This allows all "electron lines" to be unbroken, a graphical expression of
the CONSERVATION OF ELECTRONS.24.14 There are lots more elegant graphical features to
FEYNMAN DIAGRAMS, but I will wait until we discuss QUANTUM FIELD THEORYin the
Chapter on Elementary Particles to discuss them further.

The main point here is that the incoming particle(s) [ or e-] must have at least
1.022 MeV of kinetic energy to create a positron and an electron, both of which
have rest masses of 0.511 MeV/c2. With an accelerator one can give the original
projectile(s) more energy [there seems to be no limit on how much, except for
mundane concerns about funding resources and real estate] and thus facilitiate the
creation of heavier particles. At TRIUMF, for instance, we accelerate protons to
520 MeV [just over half their rest mass energy of 938 MeV], which is enough to
create MESONS [mass = 139 MeV/c2] with reasonable efficiency; the
high intensity24.15 of the TRIUMF cyclotron qualifies it for the elite club of
" MESON FACTORIES," so named because they "mass produce" mesons
(or PIONS) in unprecedented numbers.

Since heavier particles can in principle decay into lighter particles like gamma
rays, neutrinos, antineutrinos, electrons and positrons, almost of these
"manufactured" particles are unstable. Nevertheless, they hang around long
enough to be studied and sometimes their very instability is what makes them
interesting, if only because it precludes finding a cache of them in a more Natural
setting.
I have gotten far beyond the terms of reference of this Chapter here, but I wanted
to "preview" some of the phenomenology of Elementary Particle Physics while
focussing your attention on the simple motive for building higher- and higher-
energy accelerators:

The more kinetic energy is available, the more mass can be created. The heavier
the particle, the more options it is apt to have for other lighter particles to decay
into, and the more unstable it can be expected to be; hence the less likely we are
to observe it in Nature.24.16 And the heavier the particle, the more exotic its
properties might be.

So far this simple strategy has paid off in many new discoveries; of course, it
may not keep working indefinitely . . . .
Diagrammi di Feynman. La fotonotizia di
scienze
Feynman's view of quantum electrodynamics[edit]
Introduction[edit]
Near the end of his life, Richard P. Feynman gave a series of lectures on QED intended for the
lay public. These lectures were transcribed and published as Feynman (1985), QED: The
strange theory of light and matter,[1] a classic non-mathematical exposition of QED from the
point of view articulated below.
The key components of Feynman's presentation of QED are three basic actions. [1]:85
A photon goes from one place and time to another place and time.
An electron goes from one place and time to another place and time.
An electron emits or absorbs a photon at a certain place and time.
These actions are represented in a form of visual shorthand by the three basic elements
of Feynman diagrams: a wavy line for the photon, a straight line for the electron and a junction
of two straight lines and a wavy one for a vertex representing emission or absorption of a
photon by an electron. These can all be seen in the adjacent diagram.
It is important not to over-interpret these diagrams. Nothing is implied about how a particle gets
from one point to another. The diagrams do not imply that the particles are moving in straight or
curved lines. They do not imply that the particles are moving with fixed speeds. The fact that
the photon is often represented, by convention, by a wavy line and not a straight one
does not imply that it is thought that it is more wavelike than is an electron. The images are just
symbols to represent the actions above: photons and electrons do, somehow, move from point
to point and electrons, somehow, emit and absorb photons. The theory does not explain how
these things happen, but it does tell us the probabilities of these things happening in various
situations.

As well as the visual shorthand for the actions Feynman introduces another kind of shorthand
for the numerical quantities called probability amplitudes. The probability is the square of the

absolute value of total probability amplitude, . If a photon


moves from one place and time—in shorthand, A—to another place and time—in shorthand, B
—the associated quantity is written in Feynman's shorthand as . The similar
quantity for an electron moving from C to D is written E(C to D). The quantity which tells us
about the probability amplitude for the emission or absorption of a photon he calls 'j'. This is
related to, but not the same as, the measured electron charge 'e'.[1]:91
QED is based on the assumption that complex interactions of many electrons and photons can
be represented by fitting together a suitable collection of the above three building blocks, and
then using the probability amplitudes to calculate the probability of any such complex
interaction. It turns out that the basic idea of QED can be communicated while making the
assumption that the square of the total of the probability amplitudes mentioned above (P(A to
B), E(A to B) and 'j') acts just like our everyday probability. (A simplification made in Feynman's
book.) Later on, this will be corrected to include specifically quantum-style mathematics,
following Feynman.
The basic rules of probability amplitudes that will be used are that a) if an event can happen in
a variety of different ways then its probability amplitude is the sum of the probability amplitudes
of the possible ways and b) if a process involves a number of independent sub-processes then
its probability amplitude is the product of the component probability amplitudes.[1]:93
QED is based on the assumption that complex interactions of many electrons and photons can
be represented by fitting together a suitable collection of the above three building blocks, and
then using the probability amplitudes to calculate the probability of any such complex
interaction. It turns out that the basic idea of QED can be communicated while making the
assumption that the square of the total of the probability amplitudes mentioned above (P(A to
B), E(A to B) and 'j') acts just like our everyday probability. (A simplification made in Feynman's
book.) Later on, this will be corrected to include specifically quantum-style mathematics,
following Feynman.
The basic rules of probability amplitudes that will be used are that a) if an event can happen in
a variety of different ways then its probability amplitude is the sum of the probability amplitudes
of the possible ways and b) if a process involves a number of independent sub-processes then
its probability amplitude is the product of the component probability amplitudes.[1]:93

Basic constructions[edit]
Suppose we start with one electron at a certain place and time (this place and time being given
the arbitrary label A) and a photon at another place and time (given the label B). A typical
question from a physical standpoint is: 'What is the probability of finding an electron at C
(another place and a later time) and a photon at D (yet another place and time)?'. The simplest
process to achieve this end is for the electron to move from A to C (an elementary action) and
for the photon to move from B to D (another elementary action). From a knowledge of the
probability amplitudes of each of these sub-processes – E(A to C) and P(B to D) – then we
would expect to calculate the probability amplitude of both happening together by multiplying
them, using rule b) above. This gives a simple estimated overall probability amplitude, which is
squared to give an estimated probability.

But there are other ways in which the end result could come about. The electron might move to
a place and time E where it absorbs the photon; then move on before emitting another photon
at F; then move on to C where it is detected, while the new photon moves on to D. The
probability of this complex process can again be calculated by knowing the probability
amplitudes of each of the individual actions: three electron actions, two photon actions and two
vertexes – one emission and one absorption. We would expect to find the total probability
amplitude by multiplying the probability amplitudes of each of the actions, for any chosen
positions of E and F. We then, using rule a) above, have to add up all these probability
amplitudes for all the alternatives for E and F. (This is not elementary in practice, and
involves integration.) But there is another possibility, which is that the electron first moves to G
where it emits a photon which goes on to D, while the electron moves on to H, where it absorbs
the first photon, before moving on to C. Again we can calculate the probability amplitude of
these possibilities (for all points G and H). We then have a better estimation for the total
probability amplitude by adding the probability amplitudes of these two possibilities to our
original simple estimate. Incidentally the name given to this process of a photon interacting
with an electron in this way is Compton scattering.
There are an infinite number of other intermediate processes in which more and more photons
are absorbed and/or emitted. For each of these possibilities there is a Feynman diagram
describing it. This implies a complex computation for the resulting probability amplitudes, but
provided it is the case that the more complicated the diagram the less it contributes to the
result, it is only a matter of time and effort to find as accurate an answer as one wants to the
original question. This is the basic approach of QED. To calculate the probability
of any interactive process between electrons and photons it is a matter of first noting, with
Feynman diagrams, all the possible ways in which the process can be constructed from the
three basic elements. Each diagram involves some calculation involving definite rules to find
the associated probability amplitude.
Feynman avoids exposing the reader to the mathematics of complex numbers by using a
simple but accurate representation of them as arrows on a piece of paper or screen. (These
must not be confused with the arrows of Feynman diagrams which are actually simplified
representations in two dimensions of a relationship between points in three dimensions of
space and one of time.) The amplitude arrows are fundamental to the description of the world
given by quantum theory. No satisfactory reason has been given for why they are needed. But
pragmatically we have to accept that they are an essential part of our description of all
quantum phenomena. They are related to our everyday ideas of probability by the simple rule
that the probability of an event is the square of the length of the corresponding amplitude
arrow. So, for a given process, if two probability amplitudes, v and w, are involved, the
probability of the process will be

The rules as regards adding or multiplying, however, are the same as above. But where you
would expect to add or multiply probabilities, instead you add or multiply probability amplitudes
that now are complex numbers.
Addition of probability amplitudes as complex numbers

Multiplication of probability amplitudes as complex numbers

Addition and multiplication are familiar operations in the theory of complex numbers and are
given in the figures. The sum is found as follows. Let the start of the second arrow be at the
end of the first. The sum is then a third arrow that goes directly from the start of the first to the
end of the second. The product of two arrows is an arrow whose length is the product of the
two lengths. The direction of the product is found by adding the angles that each of the two
have been turned through relative to a reference direction: that gives the angle that the product
is turned relative to the reference direction.
That change, from probabilities to probability amplitudes, complicates the mathematics without
changing the basic approach. But that change is still not quite enough because it fails to take
into account the fact that both photons and electrons can be polarized, which is to say that
their orientations in space and time have to be taken into account. Therefore, P(A to B) actually
consists of 16 complex numbers, or probability amplitude arrows.[1]:120–121 There are also some
minor changes to do with the quantity "j", which may have to be rotated by a multiple of 90° for
some polarizations, which is only of interest for the detailed bookkeeping.
Associated with the fact that the electron can be polarized is another small necessary detail
which is connected with the fact that an electron is a fermion and obeys Fermi–Dirac statistics.
The basic rule is that if we have the probability amplitude for a given complex process involving
more than one electron, then when we include (as we always must) the complementary
Feynman diagram in which we just exchange two electron events, the resulting amplitude is
the reverse – the negative – of the first. The simplest case would be two electrons starting at A
and B ending at C and D. The amplitude would be calculated as the "difference", E(A to D) ×
E(B to C) − E(A to C) × E(B to D), where we would expect, from our everyday idea of
probabilities, that it would be a sum.[1]:112–113
Propagators[edit]
Finally, one has to compute P (A to B) and E (C to D) corresponding to the probability
amplitudes for the photon and the electron respectively. These are essentially the solutions of
the Dirac equation which describes the behavior of the electron's probability amplitude and
the Klein–Gordon equation which describes the behavior of the photon's probability amplitude.
These are called Feynman propagators. The translation to a notation commonly used in the
standard literature is as follows:

Mathematics[edit]
Mathematically, QED is an abelian gauge theory with the symmetry group U(1). The gauge
field, which mediates the interaction between the charged spin-1/2 fields, is
the electromagnetic field. The QED Lagrangian for a spin-1/2 field interacting with the
electromagnetic field is given in natural units by the real part of[22]:78
Feynman diagrams[edit]
Despite the conceptual clarity of this Feynman approach to QED, almost no early textbooks
follow him in their presentation. When performing calculations it is much easier to work with
the Fourier transforms of the propagators. Experimental tests of quantum electrodynamics are
typically scattering experiments. In scattering theory, particles' momenta rather than their
positions are considered, and it is convenient to think of particles as being created or
annihilated when they interact. Feynman diagrams then look the same, but the lines have
different interpretations. The electron line represents an electron with a given energy and
momentum, with a similar interpretation of the photon line. A vertex diagram represents the
annihilation of one electron and the creation of another together with the absorption or creation
of a photon, each having specified energies and momenta.
Using Wick theorem on the terms of the Dyson series, all the terms of the S-matrix for quantum
electrodynamics can be computed through the technique of Feynman diagrams. In this case
rules for drawing are the following[22]:801–802
that, being closed loops, imply the presence of diverging integrals having no mathematical
meaning. To overcome this difficulty, a technique called renormalization has been devised,
producing finite results in very close agreement with experiments. It is important to note that a
criterion for theory being meaningful after renormalization is that the number of diverging
diagrams is finite. In this case the theory is said to be renormalizable. The reason for this is
that to get observables renormalized one needs a finite number of constants to maintain the
predictive value of the theory untouched. This is exactly the case of quantum electrodynamics
displaying just three diverging diagrams. This procedure gives observables in very close
agreement with experiment as seen e.g. for electron gyromagnetic ratio.
Renormalizability has become an essential criterion for a quantum field theory to be
considered as a viable one. All the theories describing fundamental interactions,
except gravitation whose quantum counterpart is presently under very active research, are
renormalizable theories.

Nonconvergence of series[edit]
An argument by Freeman Dyson shows that the radius of convergence of the perturbation
series in QED is zero.[23] The basic argument goes as follows: if the coupling constant were
negative, this would be equivalent to the Coulomb force constant being negative. This would
"reverse" the electromagnetic interaction so that like charges would attract and unlike charges
would repel. This would render the vacuum unstable against decay into a cluster of electrons
on one side of the universe and a cluster of positrons on the other side of the universe.
Because the theory is 'sick' for any negative value of the coupling constant, the series do not
converge, but are an asymptotic series.
From a modern perspective, we say that QED is not well defined as a quantum field theory to
arbitrarily high energy.[24] The coupling constant runs to infinity at finite energy, signalling
a Landau pole. The problem is essentially that QED appears to suffer from quantum
triviality issues. This is one of the motivations for embedding QED within a Grand Unified
Theory.
il bosone di Higgs
Elettrodinamica quantistica:
verifiche sperimentali
L'elettrodinamica quantistica (QED, Quantum electrodynamics) è una teoria che descrive,
in eccellente accordo con i dati sperimentali, l'interazione tra elettroni, positroni e fotoni. Il
procedimento generale per la quantizzazione di un sistema classico consiste nel
determinare, per mezzo della funzione lagrangiana, i momenti coniugati alle coordinate del
sistema e la funzione hamiltoniana, verificando che per questa via si ottengano le corrette
equazioni classiche del moto, che successivamente sono trasformate nelle corrispondenti
equazioni quantistiche sostituendo alle parentesi di Poisson le parentesi di commutazione.
Tale procedimento può essere applicato a un campo d'onda ψ(r, t), che è dotato
evidentemente di un numero infinito di gradi di libertà e che, così come un sistema di un
numero infinito di particelle è specificato dalle coordinate di posizione e dalla loro
dipendenza dal tempo, è individuato dalla propria ampiezza in tutti i punti dello spazio in
funzione del tempo. Risulta quindi naturale usare le ampiezze ψ(r, t) come coordinate,
analoghe alle coordinate qi(t) delle particelle. È possibile, tuttavia, procedere
diversamente, sviluppando ψ in serie di un insieme completo ortonormale di funzioni uk:
dove il simbolo S indica un integrale oppure una somma. I coefficienti dello sviluppo nella
[1] possono essere considerati come le coordinate del campo, e le equazioni del campo
possono essere espresse per mezzo della ψoppure delle ak. Questa tecnica di
quantizzazione si applica anche al campo elettromagnetico.
Le equazioni dell'elettrodinamica quantistica erano già note alla fine degli anni Venti del
Novecento e la teoria era contenuta nei lavori classici di Paul A.M. Dirac, Werner
Heisenberg, Wolfgang Pauli ed Enrico Fermi. Il metodo consisteva nello sviluppare in serie
di potenze della costante di struttura fine α=e2/ℏc≃1/137 le funzioni d'onda che
rappresentano le grandezze fisiche in esame (e è la carica dell'elettrone, ℏ=h/2π è la
costante di Planck divisa per 2π e c è la velocità della luce nel vuoto). L'applicazione del
metodo perturbativo all'elettrodinamica forniva però risultati divergenti, e perciò non
soddisfacenti, che si cercò di migliorare introducendo fattori di forma di vario tipo che
permettessero di eliminare le divergenze prive di corrispondenza con i dati sperimentali,
secondo una tecnica che però non diede i risultati sperati e che fu perciò abbandonata. In
ogni caso, al primo ordine dello sviluppo si ottenevano risultati corretti e perciò le
equazioni di base della teoria sembravano giuste. Occorreva trovare il modo di evitare le
espressioni divergenti dovute alle correzioni radiative, introdotte nella teoria perturbativa
dai termini di ordine superiore al primo, e tale obiettivo fu raggiunto mediante la teoria
della rinormalizzazione.

sommario
1. L'era moderna dell'elettrodinamica quantistica. 2. Interpretazione grafica di alcuni processi di
elettrodinamica. 3. Verifiche sperimentali dell'elettrodinamica quantistica. 4. Il Lamb shift del
muone. 5. I momenti magnetici dell'elettrone e del muone. 6. Verifiche sperimentali della QED ad
alte energie. □ Bibliografia.

1. L'era moderna dell'elettrodinamica quantistica

L'era moderna dell'elettrodinamica quantistica iniziò nella seconda metà degli anni
Quaranta del XX sec. con le misurazioni del momento magnetico dell'elettrone e
del Lamb shift, che diedero impulso allo sviluppo della teoria fino al
raggiungimento, grazie soprattutto ai contributi di Hans Bethe, Sin-Itiro Tomonaga,
Julian Schwinger, Richard Feynman e Freeman Dyson, della sua formulazione
attuale: la regolarizzazione della teoria fu ottenuta mediante la tecnica
della rinormalizzazione. Per illustrare il ragionamento che sottende a tale tecnica,
è necessario addentrarsi un po' nel formalismo. Se consideriamo un sistema
costituito da un campo elettromagnetico in presenza di un elettrone, l'operatore
hamiltoniano si può scrivere come la somma di tre termini: il primo, He, si riferisce
all'elettrone isolato, ed è quello che si avrebbe se il campo elettromagnetico non ci
fosse; il secondo, Hem, è relativo al solo campo elettromagnetico, come se
l'elettrone non ci fosse; vi è infine un termine di interazione Hint, la cui forma è:

[2] formula
in cui v è la velocità dell'elettrone e A e φ sono i potenziali vettore e scalare del
campo elettromagnetico nella posizione occupata dall'elettrone. L'hamiltoniano
totale del sistema è quindi:

[3] formula.
Il problema fondamentale della dinamica del sistema è quello di risolvere
l'equazione di Schrödinger il cui operatore hamiltoniano sia dato dalla [3].
Consideriamo il caso non relativistico, in cui l'elettrone si muova con piccole
velocità rispetto alla velocità della luce. L'approssimazione che si utilizza nel
risolvere l'equazione di Schrödinger consiste nel considerare He+Hem come la parte
imperturbata del sistema e Hint come la perturbazione. Il sistema non perturbato è
abbastanza semplice da trattare, poiché il campo elettromagnetico non è
influenzato dall'elettrone, e viceversa. Il termine He rappresenta l'energia
dell'elettrone, somma dell'energia cinetica p2/2m ‒ nel caso non relativistico,
essendo p la quantità di moto ‒ e dell'energia potenziale U. L'hamiltoniano Hem è
l'energia del campo elettromagnetico, che, come si può dimostrare, vale:

[5] formula.

Se si studia lo spostamento dei livelli energetici dello spettro dell'atomo di idrogeno


mediante il ricorso alla teoria delle perturbazioni, il risultato che si ottiene dalla [5] è
nullo al primo ordine e diverge al secondo ordine. Questo significa che il primo
termine dello sviluppo, proporzionale a e, ha un coefficiente nullo, mentre il
secondo termine, proporzionale a e2, ha un coefficiente infinito. Il risultato
sperimentale ottenuto dalla misurazione dello spettro di struttura fine dell'idrogeno
non poteva essere, quindi, in accordo con il calcolo perturbativo. L'idea discussa
da Bethe fu quella di chiedersi quale fosse il valore della massa m da usare
nell'espressione p2/2m. L'ipotesi di scrivere l'hamiltoniano come somma di tre
termini si fonda sulla possibilità di separare tra loro i contributi relativi
rispettivamente al solo elettrone, al solo campo elettromagnetico e al termine di
interazione. La quantità p2/2m deve riferirsi perciò al solo elettrone, del quale m è la
massa meccanica, ossia il valore della massa dell'elettrone quando non è in
presenza del campo elettromagnetico. Quando, nel condurre i calcoli, si sostituisce
a m il valore sperimentale msp=m+mem si compie un'operazione non corretta. La [5]
va piuttosto scritta:

[6] formula.

La massa elettromagnetica è un effetto del secondo ordine, che si manifesta


quando il campo di radiazione interagisce con l'elettrone, ed è quindi proporzionale
a e2:
[7] formula.

[7] formula.

La [7] mette bene in evidenza l'esistenza di due perturbazioni, di cui una, e(v/c)∙A, dà un
risultato nullo al primo ordine e un risultato infinito al secondo ordine e
l'altra, p2/2msp2(mem/e2)e2, dà anch'essa un risultato infinito ma di segno contrario al
precedente. Il punto essenziale dell'osservazione di Berthe è che le due parti infinite si
cancellano e rimane un risultato finito, che, nel caso della struttura fine dell'atomo
d'idrogeno, è molto vicino a quello sperimentale. La teoria di Bethe, ricorrendo a un calcolo
non relativistico, non è invariante per trasformazioni di Lorentz e fornisce risultati non
corretti per valori dell'energia dell'ordine di mspc2. I successivi lavori di Tomonaga,
Schwinger, Feynman e Dyson hanno sviluppato uno schema teorico estremamente
elegante, che ha esteso l'idea di Bethe al caso relativistico e ha permesso di interpretare e
predire con successo i fenomeni fisici dell'elettrodinamica alle alte energie.
L'estensione della teoria della rinormalizzazione al regime di moto relativistico ha costituito
un arduo problema matematico. Tale estensione prevede l'introduzione di operatori di
campo, che rappresentano le operazioni di distruzione e di creazione di un fotone, di un
elettrone e di un positrone. In conformità ai principî generali della teoria dei campi
quantistici, lo stato di un sistema è descritto da un funzionale che dipende dal numero di
elettroni, positroni e fotoni, dalla loro energia, dalla loro quantità di moto e dal momento
della quantità di moto intrinseco, lo spin. In elettrodinamica quantistica è definito uno stato
di vuoto: se a esso si applicano operatori di creazione, si generano nuovi stati contenenti
un qualsiasi numero assegnato di elettroni, positroni e fotoni, con valori di energia-impulso
ed elicità definiti a priori. Il vuoto è lo stato del sistema che possiede il valore minimo del
quadrivettore energia-quantità di moto ed è invariante per trasformazioni di Lorentz, vale a
dire che, se si cambia il sistema di riferimento, il sistema permane in uno stato vuoto. La
teoria dei campi, e in particolare la QED, insegna che il vuoto è simile a un sistema
dinamico di spin nullo, il cui quadrivettore energia-quantità di moto tende ad avere
anch'esso un valore nullo. Come un campo di spin nullo, al vuoto possono essere
assegnati numeri quantici quali lo spin isotopico, la parità, la stranezza e così via.
2. Interpretazione grafica di alcuni processi di elettrodinamica

Scopo dell'elettrodinamica è quello di calcolare la probabilità che una configurazione fisica


iniziale evolva in una configurazione finale assegnata. La teoria permette di costruire un
operatore unitario, la matrice S, la cui forma esplicita è estremamente complessa ma i cui
termini forniscono la probabilità che uno stato iniziale evolva in un dato stato finale. I vari
termini della serie perturbativa possono essere rappresentati graficamente in modo molto
suggestivo, come suggerito da Feynman. L'n-esimo termine della serie perturbativa
descrive n interazioni successive tra il campo elettromagnetico, che soddisfa le equazioni di
Maxwell, e quello dell'elettrone, che soddisfa l'equazione di Dirac. Ogni interazione è
rappresentata graficamente mediante un vertice, al quale sono applicati i seguenti
operatori: (a) la creazione o la distruzione di un fotone; (b) la creazione di un elettrone o
l'annichilazione di un positrone; (c) la creazione di un positrone o la distruzione di un
elettrone. Per ciascun diagramma è necessario poi calcolare l'elemento di matrice
dell'operatore S corrispondente.
La fig. 2 rappresenta i termini del secondo ordine (n=2) della serie perturbativa della
matrice S. Il primo diagramma (I) descrive l'interazione tra un elettrone e un fotone, cioè
l'effetto Compton. Le linee ondulate rappresentano un fotone, le linee continue gli
elettroni e i positroni. Il simbolo k indica il quadrivettore energia-quantità di moto del
fotone, mentre q e p sono i quadrivettori energia-quantità di moto rispettivamente
dell'elettrone e del positrone; le frecce associate indicano creazione se puntano lontano
dal vertice, distruzione se dirette verso il vertice. I tratti che uniscono i due vertici
rappresentano particelle virtuali, ossia particelle che, pur fornendo un'utile
schematizzazione dell'operatore S e contribuendo al risultato del calcolo, sono prive di una
realtà fisica ben definita e non sono osservabili.
Il secondo diagramma (II) rappresenta l'interazione elettrone-elettrone; il terzo (III) la
produzione di coppie di fotoni a causa dell'annichilazione di una coppia elettrone-
positrone; il quarto (IV) la produzione di una coppia elettrone-positrone attraverso
l'interazione fotone-fotone; il quinto (V) il processo di interazione di un elettrone (o di un
positrone) con il campo di radiazione originato dalla carica stessa, ossia l'interazione di un
elettrone con il proprio campo di radiazione. Il sesto diagramma (VI) descrive la creazione e
la distruzione di una coppia virtuale di elettroni e positroni da parte di un fotone. L'ultimo
diagramma (VII) rappresenta la creazione e la successiva distruzione di una coppia virtuale
di elettroni e positroni da parte di un fotone anch'esso in uno stato virtuale, ossia in uno
stato in cui la quantità di moto, l'energia e la massa del fotone (mγ=0) non soddisfano le
ben note relazioni della relatività. I diagrammi (VI) e (VII) descrivono processi che
coinvolgono una coppia virtuale elettrone-positrone; il processo del diagramma (VII) ha
luogo nel vuoto, il che implica che coppie virtuali di elettroni e positroni permettono che il
vuoto si polarizzi.
I diagrammi (V), (VI) e (VII) sono responsabili delle ben note divergenze in elettrodinamica
quantistica. L'eliminazione di tali divergenze si ottiene con la rinormalizzazione della
massa m e della carica e dei quanti del campo di Dirac. La procedura in ciascuno dei due
casi consiste nell'effettuare una sottrazione tra due quantità infinite e nell'imporre che tale
differenza sia uguale, rispettivamente, al valore della massa e della carica elettrica
determinato sperimentalmente. La nube di fotoni virtuali (V) aumenta l'energia di un
elettrone e ciò si può interpretare, secondo la relatività, come un aumento della massa, dal
valore m proprio dell'elettrone libero al valore sperimentale msp. La massa sperimentale è
quindi msp=m+mem, somma della massa m di un elettrone fittizio e della massa mem che
rappresenta l'azione della nube di fotoni associata al campo elettromagnetico originato
dalla carica stessa dell'elettrone. Perché risultino soppresse le divergenze provenienti
da mem, si attribuisce il valore −∞ alla massa m dell'elettrone fittizio e si assegna a msp il
valore sperimentale.
Una procedura analoga si applica ai diagrammi (VI) e (VII), responsabili della comparsa di
divergenze per la carica elettrica. Sia e la carica elettrica di un elettrone libero (quindi
fittizio) e sia e1 una correzione dovuta agli effetti virtuali rappresentati dai diagrammi (VI) e
(VII). Alle cariche e ed e1 si attribuiscono valori infiniti di segno opposto e si impone che la
loro somma sia uguale alla carica sperimentale dell'elettrone, cioè e+e1=esp. Una
conseguenza importante della teoria della rinormalizzazione è che una particella carica
può emettere e assorbire fotoni anche in assenza di un campo elettromagnetico esterno,
dando così origine alle cosiddette fluttuazioni del vuoto. Esse hanno importanti
conseguenze sperimentali, tra cui l'emissione spontanea della radiazione da parte di un
atomo eccitato, lo spostamento dei livelli energetici dell'atomo d'idrogeno (Lamb shift) e
l'esistenza di correzioni radiative per il momento magnetico dell'elettrone e del muone.

3. Verifiche sperimentali dell'elettrodinamica quantistica

La formulazione attuale della teoria dell'elettrodinamica quantistica non è definitiva,


poiché le divergenze a cui dà luogo si eliminano ricorrendo a un procedimento ad hoc nella
teoria della rinormalizzazione, ed è importante perciò verificare le predizioni della teoria.
Le precisioni raggiunte in tali esperimenti sono tra le più alte ottenute in fisica. Le quantità
misurate, quali le masse, la costante di struttura fine, la struttura iperfine degli atomi, i
momenti magnetici, sono espresse in funzione di costanti fondamentali, in modo da
costruire con queste ultime un intreccio di correlazioni. Le verifiche condotte in laboratorio
si possono dividere in due classi: esperimenti molto precisi e di bassa energia, che
riguardano la fisica atomica e la misurazione dei momenti magnetici dei leptoni e che
permettono di confrontare i risultati sperimentali con le previsioni teoriche, verificando le
correzioni radiative di ordine superiore al primo e la tecnica della rinormalizzazione. Vi
sono inoltre esperimenti di alta energia, che, indagando distanze dell'ordine di 10 −18m e
mettendo alla prova le previsioni della QED in situazioni in cui la quantità di moto trasferita
durante l'interazione tra leptoni (elettroni o muoni) è la più grande possibile, mostrano
come le equazioni di Maxwell, quantizzate mediante correnti di Dirac di elettroni e muoni,
siano verificate con una precisione di oltre una parte su mille.

4. Il Lamb shift del muone

Il muonio è un 'atomo' in cui un elettrone è legato a un muone di carica elettrica positiva.


Si tratta di un sistema simile all'atomo di idrogeno, in cui il protone è sostituito da un
muone positivo. Possiede caratteristiche ideali per condurre verifiche sulle previsioni
dell'elettrodinamica quantistica, in quanto il muone, come l'elettrone, non presenta alcuna
struttura interna, laddove la struttura del protone rende impossibile spiegare gli
esperimenti in termini della sola QED. Nell'interpretare la struttura iperfine del livello
fondamentale dell'atomo di idrogeno, per esempio, vi è un'incertezza di una parte su un
milione, sebbene la precisione della relativa misura sia maggiore per sei ordini di
grandezza: ciò è dovuto alla minore precisione nella misurazione della polarizzazione del
protone e del suo momento magnetico. L'interazione del muonio, invece, è di natura
esclusivamente elettromagnetica, cosicché i livelli di energia possono essere calcolati
mediante la sola QED, tenendo comunque conto dei contributi che provengono dal bosone
intermedio neutro Z0 e dall'interazione forte che polarizza il vuoto. Nella fig. 3 sono
rappresentati i livelli di energia del muonio negli stati n=1 e n=2. Il muonio può formarsi
nello stato fondamentale 1S e le transizioni da uno stato a un altro sono indotte mediante
le microonde oppure i laser. A titolo di esempio, riportiamo il valore sperimentale della
frequenza di transizione 1S-2S:
[8] Δν1S−2S (sp) = 2 455 528 941,0 (9,8) MHz

da confrontarsi con il valore teorico:

[9] Δν1S−2S (sp) = 2 455 528 935,4 (1,4) MHz.

Da questi valori si deduce il rapporto tra la massa del muone positivo e dell'elettrone:

[10] formula.

5. I momenti magnetici dell'elettrone e del muone

Il rapporto giromagnetico g dell'elettrone (o del muone) è definito dalla seguente relazione:

[11] formula

dove μ è il momento magnetico di dipolo, e è la carica elettrica, m è la massa e s è lo spin, o


momento della quantità di moto intrinseco, del leptone (elettrone o muone). Il numero
adimensionale g rappresenta una proprietà fondamentale della particella e delle sue interazioni.
Nel caso di una sfera carica in rotazione, la meccanica classica prevede g=1. Dal punto di vista
quantistico, l'equazione [11] stabilisce una relazione tra gli operatori μ e s, e g misura la deviazione
del momento magnetico della particella dal valore determinato classicamente. Il valore
sperimentale g del protone è 5,586, mentre per l'elettrone e il muone si ha g=2,002. Sebbene il
rapporto giromagnetico g del protone non possa essere calcolato nell'ambito della QED, poiché vi
è in tal caso il contributo delle correnti cariche dei quark che costituiscono la complessa struttura
del nucleone, quello dell'elettrone e del muone può essere calcolato con precisione, come
conseguenza del fatto che i leptoni carichi sono dotati di una struttura semplice. In altre parole, per
il protone il rapporto giromagnetico riflette la dinamica interna, descritta mediante la
cromodinamica, mentre per i leptoni è il risultato dell'interazione tra la carica elettrica e il campo di
radiazione.
La teoria quantistica di Dirac predice per l'elettrone (e il muone) il valore g=2. All'inizio del 1947,
John Nafe, Edward Nelson e Isidor Rabi condussero accurate misurazioni della struttura iperfine di
idrogeno e di deuterio, che si rivelarono tuttavia in disaccordo con la teoria. Gregory Breit suggerì
allora che la discrepanza tra i risultati sperimentali e i calcoli sarebbe scomparsa se si fosse
ammesso un valore di g che differiva da 2 (g≠2) per circa l'1 ‰. Schwinger calcolò che la deviazione
dal valore g=2 era dovuta a una correzione radiativa del primo ordine in α, vale a dire all'emissione
di un fotone virtuale e all'assorbimento dello stesso da parte dell'elettrone che interagisce con il
campo magnetico esterno. Il risultato di Schwinger è:

[12] formula.

Il valore misurato da Polykarp Kusch e Henry Foley nel dicembre del 1947 era in accordo con il
calcolo di Schwinger. Il risultato sperimentale è:

[13] g = 2(1+ 0,00119(5)).


con un errore di 25 ppm.

Considerazioni teoriche
Il momento magnetico dell'elettrone (o del muone) si può scrivere, tenendo conto che g è
lievemente diverso da 2, come

[14] μ = − 2(1+a)μ0 s

dove a=(g−2)/2 indica la cosiddetta anomalia del momento magnetico. In elettrodinamica


quantistica l'anomalia è espressa in serie di potenze della costante di struttura fine:

[15] formula.

I segni + e − indicano che l'anomalia si riferisce rispettivamente a positroni ed elettroni (oppure a


muoni positivi e negativi); il teorema CPT (dove C indica l'operatore coniugazione di carica, P la
parità e T l'operatore inversione temporale) prevede che le due anomalie coincidano. I
coefficienti An non dipendono dalla massa del leptone, mentre quelli Bn vi dipendono.

L'anomalia dell'elettrone
Il valore teorico dell'anomalia del momento magnetico dell'elettrone è:

[16] ae (teo)= 1 159 652 140 (5,3)(4,1)(27,1)∙10 −12.

Per calcolare ae si è fatto uso della costante α, misurata per il tramite dell'effetto Hall. Nella [16] il
primo e il secondo numero in parentesi indicano l'incertezza rispettivamente nel calcolo dei
termini A3 e A4, il terzo numero indica l'incertezza che proviene dall'errore della misura di α. Il
calcolo dell'anomalia è al quarto ordine in α e il risultato teorico è in accordo (entro 1,7 deviazioni
standard) con la misura sperimentale, che è:

[17] ae− = 1 159 652 188,4 (4,3)∙10−12.

[18] ae+ = 1 159 652 187,9 (4,3)∙10−12.


Il confronto tra la [17] e la [18] permette una valida verifica del teorema CPT. I contributi alla
polarizzazione del vuoto dovuti alla coppia muone-antimuone, agli adroni e alle interazioni
elettrodeboli sono di un ordine di grandezza inferiore rispetto al livello di incertezza della [16].
Le misurazioni di ae± sono state effettuate ricorrendo a due metodi differenti; in entrambi
l'elettrone è sottoposto all'azione di un campo magnetico statico, che interagisce con il momento
magnetico dell'elettrone. In un caso si misura la precessione del momento magnetico rispetto al
momento della quantità di moto, nell'altro si induce una transizione tra due livelli energetici
dell'elettrone sottoposto al campo ma
tra due livelli energetici dell'elettrone sottoposto al campo magnetico. Un risultato preliminare
riportato da Brian Odom nella propria tesi di dottorato all'Università di Harvard nell'ottobre 2004
è:

[19] ae− = 1 159 652 180 8,6(5,7)∙10−13 (0,5 ppb).


.
Questo risultato tiene conto non solamente delle interazioni tra elettroni e fotoni, ma anche dei
contributi che sono apportati alla polarizzazione del vuoto da coppie virtuali di muoni positivi e
negativi e da adroni. Il contributo delle coppie virtuali di muoni-antimuoni è pari a ae=27,21∙10−13,
quello delle coppie di adroni è ae=16,42∙10−13, con una incertezza (27)∙10−13. Per un confronto tra la
teoria e i risultati sperimentali si rende necessaria una misurazione più precisa della costante di
struttura fine α.

Il momento magnetico anomalo del muone


Le correzioni radiative comportano che anche il rapporto giromagnetico del muone sia diverso dal
valore 2 previsto dalla teoria di Dirac. Tre esperimenti di precisione progressivamente crescente
sono stati realizzati presso il CERN (Centro Europeo per la Ricerca Nucleare) di Ginevra. A distanza
di circa vent'anni dall'ultimo dei tre (durato dal 1971 al 1978), un nuovo esperimento è stato
condotto allo AGS (Alternating Gradient Synchrotron) di Brookhaven, negli Stati Uniti, sfruttando lo
stesso principio ma ricorrendo a una tecnologia più aggiornata e migliorando di almeno un fattore
10 la precisione rispetto al CERN. La misurazione del momento magnetico anomalo del muone è
importante perché permette di verificare se la QED predica il corretto valore dell'anomalia al
secondo ordine nello sviluppo perturbativo in α e consente di valutare i contributi al momento
magnetico del muone provenienti dalla teoria elettrodebole e dalle interazioni tra adroni. Il terzo
degli esperimenti effettuati al CERN ha evidenziato il contributo delle interazioni forti alla
polarizzazione del vuoto, mentre con la sensibilità raggiunta nell'esperimento di Brookhaven si
possono evidenziare le correzioni virtuali dovute all'interazione debole. Il valore teorico del
rapporto giromagnetico del muone previsto dalla QED, tenuto anche conto delle correzioni dovute
alle interazioni deboli e adroniche, è in accordo entro 2,7 deviazioni standard con quello
sperimentale. Le misure dei rapporti giromagnetici del muone e dell'elettrone, insieme a quelle
della costante di Rydberg, della velocità della luce e della frequenza del maser di idrogeno, sono
tra le più precise in fisica.

6. Verifiche sperimentali della QED ad alte energie

Gli esperimenti condotti negli anelli di collisione (collider) e+e− oppure e−e− coinvolgono reazioni con
alta quantità di moto trasferita. Il capostipite degli anelli di collisione e+e− fu AdA, una macchina
relativamente modesta ma innovativa, costruita a Frascati nel 1960 su progetto di Bruno Touschek.
Il sistema di riferimento privilegiato si rivela quello del centro di massa, in cui il quadrivettore
energia-quantità di moto di una particella può contribuire per intero alla creazione di nuovi stati
fisici. Gli esperimenti presso gli anelli di collisione (e+e−) e (e−e−) hanno verificato le previsioni della
QED a distanze dell'ordine di 10−18 m, stabilendo che le equazioni di Maxwell quantizzate e la
corrente di Dirac forniscono risultati corretti. Gli anelli di collisione del tipo LEP (Large electron-
positron collider) sono strumenti possenti, atti a fornire una notevole statistica per lo studio di
nuove particelle. I processi fisici che sono stati studiati alle alte energie sono:

e+e− → e+e− (diffusione Bahaba)


e+e− → μ+μ− (produzione di coppie di muoni)
e+e− → γγ (annichilazione elettrone-positrone in coppie di fotoni).

Nella fig. 4 sono rappresentati tre diagrammi di Feynman al primo ordine nella costante di struttura
fine, che descrivono alcune reazioni misurate con crescente precisione e a energie sempre più
elevate; nella figura sono anche indicati i q2 di genere spazio e di genere tempo nel centro di massa
del sistema. Le sezioni d'urto differenziali misurate sono confrontate con quelle calcolate
teoricamente, mediante l'introduzione dei cosiddetti fattori di forma: un'eventuale violazione della
QED potrebbe manifestarsi per grandi valori della quantità di moto associata al propagatore del
fotone, del muone o dell'elettrone, oppure ai vertici muone-fotone o elettrone-fotone; propagatori
e vertici possono essere moltiplicati per fattori di forma che stabiliscono un limite per il
quadrimpulso trasferito, in corrispondenza del quale la QED potrebbe perdere validità. Si tratta di
un modello dalla valenza eminentemente pratica, che permette di confrontare risultati di differenti
esperimenti, ma non va dimenticato che le situazioni fisiche cui si riferiscono sono tra loro ben
diverse. I risultati appena descritti si possono esprimere introducendo una lunghezza
fondamentale, che descrive la non località delle interazioni tra leptoni e
fotoni: l0≃ℏℏ/Λc≤5∙10−16 cm, dove Λ indica un 'taglio', che dagli esperimenti condotti presso
l'elettrosincrotrone Desy in Germania risulta dell'ordine di 500 GeV.
L'elettrodinamica quantistica è una teoria verificata con notevole precisione, che descrive
l'interazione della carica elettrica con il campo elettromagnetico ed è il modello di riferimento per
la costruzione di moderne teorie di campo. Nonostante i successi riportati, si ritiene che il processo
che è alla base della QED costituisca una questione non ancora risolta: la rinormalizzazione appare
come una teoria troppo complicata per descrivere un fenomeno fisico fondamentale quale
l'interazione tra la carica elettrica e il campo elettromagnetico, e d'altra parte sarebbe opportuno
avere una formulazione teorica da cui fossero escluse le divergenze. La possibilità di raggiungere
energie sempre più elevate aiuterà, forse, a comprendere sempre meglio l'interazione tra la carica
elettrica e il campo elettromagnetico. Gli esperimenti realizzati mediante gli anelli di collisione e+e−,
sia al Single linear collider (SLC) a Stanford (Stati Uniti), sia al LEP e al CERN (Ginevra) hanno
raggiunto energie tali da consentire la produzione dei bosoni vettoriali pesanti Z0 e W±,
permettendo la verifica del Modello Standard della teoria elettrodebole con una precisione
superiore a una parte su diecimila. Il LEP, in particolare, raggiungendo una energia di 200 GeV nel
centro di massa per l'interazione e+e−, ha messo in evidenza i contributi delle correzioni radiative
alla produzione dei bosoni vettoriali e ha mostrato come l'elettrodinamica quantistica e la teoria
delle interazioni deboli si unifichino nella teoria elettrodebole intorno ai 100 GeV.
Bethe, Salpeter 1957: Bethe, Hans A. - Salpeter, Edwin E., Quantum mechanics of one-
and two-electron atoms, Berlin, Springer, 1957.
Brown, Gabrielse 1986: Brown, Lowell S. - Gabrielse, Gerald, Geonium theory: physics of
a single electron or ion in a Penning trap, "Review of modern physics", 58, 1986, pp. 233-
311.
Combley, Picasso 1974: Combley, Fred - Picasso, Emilio, The muon (g-2) precession
experiments: past, present and future, "Physics reports", 14, 1974, pp. 1-58.
Dirac 1959: Dirac, Paul A.M., I principi della meccanica quantistica, Torino, Boringhieri,
1959 (ed. orig.: The principles of quantum mechanics, Oxford, Clarendon, 1939).
Farley, Picasso 1990: Farley, Francis J.M. - Picasso, Emilio, The muon (g-2) experiments,
in: Quantum electrodynamics, edited by Toichiro Kinoshita, Singapore, World Scientific,
1990, pp. 474-553.
Farley, Semertzidis 2004: Farley, Francis J.M. - Semertzidis, Yannis K., The 47 years of
muon g-2, "Progress in particle and nuclear physics", 52, 2004, pp. 1-83.
Kinoshita 1990: Kinoshita, Toichiro, Theory of the anomalous magnetic moment of the
electron. Numerical approach, in: Quantum electrodynamics, edited by Toichiro Kinoshita,
Singapore, World Scientific, 1990, pp. 218-314.
Martyn 1990: Martyn, H.U., Test of QED by high energy electron-positron collisions,
in: Quantum electrodynamics, edited by Toichiro Kinoshita, Singapore, World Scientific,
1990, pp 92-156.
Mehra, Rechenberg 1987-2001: Mehra, Jagdish - Rechenberg, Helmut, The historical
development of quantum theory, New York, Springer, 1987-2001, 6 v.
Pipkin 1990: Pipkin, Francis M., Lamb shift measurements, in: Quantum electrodynamics,
edited by Toichiro Kinoshita, Singapore, World Scientific, 1990, pp. 696-773.
Schiff 1952: Schiff, Leonard I., Meccanica quantistica, Torino, Edizioni Scientifiche Einaudi,
1952, pp. 473-558 (ed. orig.: Quantum mechanics, McGraw-Hill, New York, 1949).
Van Dyck 1990: van Dyck, Robert S. jr, Anomalous magnetic moment of single electrons
and positrons: experiment, in: Quantum electrodynamics, edited by Toichiro Kinoshita,
Singapore, World Scientific, 1990, pp. 3
tEORIA CUANTICA YANG MILLS
INTEGRAL DE CAMINO DE FEYNMAN
La massa dei costituenti, o massa efficace, è una sorta di
"massa effettiva" che i quark hanno quando si trovano legati
all’interno di un adrone (come il protone) o di un mesone (come
il pione). Ricordiamo che le particelle elementari si dividono in
queste due famiglie a seconda, rispettivamente, che siano
composte di tre quark o di un quark e di un antiquark. Essendo
le forze che legano tre quark in qualche modo diverse da quelle
che legano un quark ed un antiquark, si parla di massa effettiva
negli adroni e nei mesoni.

La massa efficace dei quark u e d è di circa 300 MeV (un


elettrone ha massa di circa mezzo MeV, il protone 938 MeV)
(vedi Tabella 1). Usando questi valori e tenendo conto dei
momenti magnetici dei quark, si ricostruisce con buona
approssimazione lo spettro delle masse degli adroni.

La massa delle correnti è invece la "massa intrinseca" dei


quark, in un certo senso quella che avrebbero se potessimo
osservarli liberi. Viene detta così perché questa è la massa da
usare quando si calcolano i diagrammi di Feynman che
descrivono le interazioni tra quark. Queste implicano quelle che
tecnicamente si dicono "correnti" di quark (non sono altro che
flussi di particelle da un punto all’altro dello spaziotempo). Più
che di una massa nel senso inerziale, a cui ci abitua l’esperienza
quotidiana, la massa delle correnti va intesa più come una
costante di accoppiamento, un parametro della teoria delle
interazioni forti, che è la Cromodinamica Quantistica. Questa,
per altro, prevede che all’interno degli adroni, ad esempio del
protone, e dei mesoni, oltre ai tre quark "di valenza" siano
presenti i quark "del mare" ed i gluoni. I primi sono le coppie
quark-antiquark che continuamente di creano ed annichilano
(vedi la mia risposta sulle particelle virtuali), i secondi sono le
particelle di scambio dell’interazione forte, il veicolo di
trasmissione della forza. Se uno tenesse conto di tutti questi
fattori, e cioè del contributo di tutti questi costituenti e delle
grandi energie in gioco nella loro mutua interazione, si potrebbe
in linea di principio ricostruire la massa del protone a partire
dalle masse delle correnti, ma tecnicamente questo diventa
molto complicato, un po’ per la nostra incompleta conoscenza
delle interazioni forti, un po’ per la complicazione del calcolo.

La massa dei quark u e d nel senso delle correnti è di pochi


MeV. Il valore preciso cambia a seconda delllo schema di
rinormalizzazione che si usa per definire la teoria (una questione
tecnica su cui non mi soffermerò).
Contrariamente al caso del nucleo, il contributo alla massa di
adroni e mesoni dato dall’energia di legame può essere anche
molto grande, come nel caso del protone.

Per chi si chiedesse che senso abbia dare due definizioni di


massa dei quark, a seconda che si trovino o meno all’interno di
un sistema legato, ricorrerò al parallelo del cucchiaino: una cosa
è girare un cucchiaino in una tazza piena di tè, altra cosa è
girarlo in una tazza piena di miele. Se noi non sapessimo che
cosa contiene la tazza, diremmo che nel secondo caso il
cucchiaino è molto più pesante. In un certo senso è quello che
facciamo con i quark: data la nostra fondamentale ignoranza sui
dettagli del "brodo" in cui sono immersi i quark dentro al
protone, ricorriamo al trucco della massa dei costituenti.

D. Griffiths, Introduction to elementary particles, Wiley

L. Okun, Leptoni e quarks, Editori Riuniti


Standard Model of Particle
Physics
Chemistry can be understood in the physics of 3 particles (proton, neutron and electron), and the
influence of the electromagnetic force. Nuclear physics can be understood in the physics of 4 particles
(proton, neutron, electron and electron neutrino), and the influence of the strong and weak nuclear forces
together with the electromagnetic force. The Standard Model Theory (SM) of particle physics provides a
framework for explaining chemistry and nuclear physics (low energy processes). It additionally provides
an explanation for sub-nuclear physics and some aspects of cosmology in the earliest moments of the
universe (high energy processes).

The Standard Model is conceptually simple and contains a description of the elementary particles and
forces. The SM particles are 12 spin-1/2 fermions (6 quarks and 6 leptons), 4 spin-1 ‘gauge’ bosons and a
spin-0 Higgs boson. These are shown in the figure below and constitute the building blocks of the
universe. The 6 quarks include the up and down quarks that make up the neutron and proton. The 6
leptons include the electron and its partner, the electron neutrino. The 4 bosons are particles that transmit
forces and include the photon, which transmits the electromagnetic force. With the recent observation of
the tau neutrino at Fermilab, all 12 fermions and all 4 gauge bosons have been observed. Seven of these
16 particles (charm, bottom, top, tau neutrino, W, Z, gluon) were predicted by the Standard Model
before they were observed experimentally! There is one additional particle predicted by the Standard
Model called the Higgs, which has not yet been observed. It is needed in the model to give mass to the W
and Z bosons, consistent with experimental observations. While photons and gluons have no mass, the W
and Z are quite heavy. The W weighs 80.3 GeV (80 times as much as the proton) and the Z weighs 91.2
GeV. The Higgs is expected to be heavy as well. Direct searches for it at CERN dictate that it must be
heavier than 110 GeV.

The matter and force particles of the Standard Model. Up and down quarks were observed for the
first time in electron-scattering experiments at SLAC in the late 1960s. The 1990 Nobel Prize in physics
for this discovery was awarded to SLAC's Richard Taylor and to Jerome Friedman and Henry Kendall
from MIT. The charm quark was discovered simultaneously in experiments at SLAC and at Brookhaven
in 1974. SLAC's Burton Richter and MIT's Samuel Ting shared the 1976 Nobel Prize in physics for this
discovery. The tau lepton was discovered at SLAC in 1975, for which SLAC's Martin Perl was awarded
the 1995 Nobel Prize in physics.

The SM particles are considered to be point-like, but contain an internal ‘spin’ (angular momentum)
degree of freedom which is quantized and can have values of 0, ½ or 1. Spin-1/2 particles obey Fermi
statistics, which have as a consequence that no 2 electrons can be in the same quantum state. This feature
is necessary for forming atoms more complex than hydrogen. Spin-1 and spin-0 particles obey Bose-
Einstein statistics, which prefer to have many particles in the lowest energy or ground state. This
phenomenon is responsible for superconductivity.

The Standard Model says that forces are the exchange of gauge bosons (the force particles) between
interacting quarks and leptons. Feynman diagrams are useful to describe this pictorially. As illustrated in
the figures below, two electrons may interact by scattering and exchanging a photon; or an electron and
positron may collide and annihilate to form a Z particle, which then decays into a quark and anti-quark.
Electromagnetic forces occur via exchange of photons; weak nuclear forces occur via exchange of W and
Z particles; and strong nuclear forces occur via exchange of gluons. Electromagnetic forces and
interactions are familiar to everyone. They are responsible for visible light and radiowaves, and are the
physics behind the electronics and telecommunications industries. All quarks and leptons can interact
electromagnetically. Strong nuclear forces are responsible for holding protons and neutrons together
inside the nucleus, and for fueling the power of the sun. Only quarks interact via the strong interaction.
Weak nuclear forces are responsible for radioactivity and also for exhibiting some peculiar symmetry
features not seen with the other forces. In contrast to electromagnetic and strong forces, the laws of
physics (ie. the strengths of the forces) for the weak force are different for particles and anti-particles (C
Violation), for a scattering process and its mirror image (P Violation), and for a scattering process and the
time reversal of that scattering process (T Violation). All quarks and leptons can interact via the weak
interaction. The Standard Model provides much more than simply a description of electromagnetic,
strong and weak interactions. Its mathematics provides explicit and accurate calculations for the rates at
which these processes take place and relative probabilities for decays of unstable particles into other
lower mass particles (such as for a Z particle to decay into different types of quarks and leptons).
Feynman diagram for an
Feynman diagram for a weak interaction in electron-
electromagnetic interaction in electron-
positron annihilation to a Z0, which then decays to a
electron scattering by exchange of a
quark-antiquark pair.
photon.

Last updated: 04-09-2001 by M. Woods

BOSON HUGGIS
Il Modello Standard infatti, non riesce a predire la massa del bosone di Higgs. Come nota,
aggiungo che la massa, in fisica delle particelle, si misura in elettronvolt. Infatti, grazie
all’equivalenza di massa energia spiegata dalla famosa formula di Einstein E=mc^2, possiamo
usare indifferentemente unità di massa o di energia (con il piccolo trucco di porre la velocità
della luce pari ad 1). Si trova così che 1 Giga electron volt, 1 GeV è pari a 1.78 × 10^-27 kg.
Ora, risulta che se la massa del bosone di Higgs fosse tra 115 e 180 GeV il Modello Standard
rimarrebbe valido fino alla “Scala di Planck”, cioè ad energie pari a 10^16 TeV. Se la massa del
bosone di Higgs eccedesse gli 1.4 TeV, allora il Modello Standard risulterebbe non valido, e
andrebbe messo completamente in discussione.
Come fare a cercare il bosone di Higgs all’LHC? Il modo principale per creare il bosone di
Higgs all’LHC è tramite il meccanismo di fusione gluonica, rappresentato nel diagramma di
Feynman qui di seguito:
Il problema del rumore di fondo, o “background”, è un problema molto serio, e immagino che
sarà uno dei punti principali nella discussione di domani. Per osservare l’esistenza dell’Higgs,
infatti, non si può “vederlo” in maniera diretta, ma bisogna dedurre la sua esistenza
misurandone i prodotti di decadimento. L’Higgs può decadere in una lunga serie di particelle
secondarie ma, oggi come oggi, solo un paio di “canali” sono rimasti aperti, mentre la maggior
parte dei possibili modi di decadimento dell’Higgs sono stati esclusi da esperimenti precedenti
(come quelli effettuati al Tevatron) o dall’LHC stesso.
Il canale di decadimento principale di cui sentirete parlare domani è la creazione di due fotoni
gemelli. Se la massa dell’Higgs fosse veramente 125 GeV si dovrebbero misurare due fotoni
gemelli di 62,5 GeV ciascuno. Il problema è che durante uno degli scontri che avvengono
all’LHC di fotoni se ne creano una marea! E con loro ogni genere di particelle: elettroni, pioni,
adroni… chi più ne ha più ne metta! Come si fa a capire che i fotoni che misuriamo siano
proprio quelli prodotti dall’Higgs? Eh, questa è proprio la domanda da un milione di dollari che
si fanno tutti i ricercatori e studenti del CERN.
La risposta sta nel duro lavoro di comprensione della fisica coinvolta e molta molta
programmazione. È importante costruire modelli teorici per riprodurre separatamente sua il
“background”, ovvero il rumore, i segnali e le particelle che non ci interessano e che disturbano
la nostra misura, e il segnale, che sono le particelle che vogliamo vedere noi. Il valore
dell’analisi, e quindi il valore della scoperta finale, sta proprio nell’affidabilità di questi modelli.
Confrontando i modelli che ci si aspetta con le misure che vengono fatte, possiamo dire infine
quale sia la probabilità che una certa misura (per esempio vedere i due fotoni a 62,5 GeV) sia
in accordo con un determinato modello teorico.

Doppio decadimento beta


Da Wikipedia, l'enciclopedia libera.
Il doppio decadimento beta è un decadimento radioattivo raro in cui un nucleo
atomico decade in un altro con stesso numero di massa.
Il doppio decadimento beta può essere interpretato come il verificarsi di due decadimenti
beta contemporanei. Possono essere distinti quattro tipi di doppi decadimenti beta: due
decadimenti , due decadimenti , due catture elettroniche, una cattura elettronica ed un
decadimento .
Ad esempio, nel doppio decadimento , due neutroni del nucleo sono convertiti in due protoni,
con l'emissione di due elettroni e due antineutrini. Il processo fu osservato per la prima volta
nel 1986. È il processo di decadimento più raro conosciuto; è stato osservato per soli 10
isotopi, e tutti avevano una vita media maggiore di 1019 anni.
Per alcuni nuclei, il processo elementare è interpretabile come conversione di due protoni in
due neutroni, l'emissione di due neutrini elettronici e l'assorbimento di due elettroni atomici
(doppia cattura elettronica). Se la differenza di massa tra i genitori e i figli è maggiore di
1022 keV (due volte la massa dell'elettrone), un altro ramo del processo è possibile, con la
cattura di un elettrone atomico e l'emissione di due positroni. Inoltre, se la differenza di massa
è maggiore di 2044 keV (quattro volte l'elettrone), un terzo ramo si apre, con l'emissione di due
positroni. Tutte questi tipi di decadimenti beta sono stati predetti, ma mai osservati.
Doppio decadimento beta senza neutrini[modifica | modifica
wikitesto]

Diagramma di Feynman di un doppio decadimento beta in assenza di neutrini, con due neutroni che
decadono in due protoni. I soli prodotti emessi in questo processo sono due elettroni. Questo può
accadere se il neutrino e l'antineutrino sono la stessa particella (cioè un neutrino di Majorana). In tal caso
lo stesso neutrino può essere emesso e assorbito all'interno del nucleo. Nel doppio decadimento beta
convenzionale vengono emessi dal nucleo due elettroni e due antineutrini, uno da ogni vertice con un
bosone W. La rivelazione di un doppio decadimento beta sarebbe quindi una dimostrazione che i neutrini
sono particelle di Majorana.

I processi descritti prima sono conosciuti come doppio decadimento beta con neutrini, in
quanto sono emessi due neutrini (o antineutrini). Tuttavia, qualora neutrino ed antineutrino non
fossero particelle realmente distinte, cioè se fossero particelle di Majorana, sarebbe possibile
osservare un doppio decadimento beta senza neutrini. Nel doppio decadimento beta senza
neutrini, l'antineutrino emesso è assorbito immediatamente da un altro nucleone del nucleo.
Quindi, la somma delle energie totali dei due elettroni è esattamente pari alla differenza
dell'energia di legame tra il nucleo iniziale e quello finale.
Esistono diversi esperimenti in corso per lo studio del doppio decadimento beta senza neutrini.
La sua scoperta indicherebbe che il neutrino e l'antineutrino sono la stessa particella. Un
modello teorico, attualmente tra i migliori, che possa descrivere questo fenomeno è quello
sviluppato da Majorana.
Uno degli esperimenti per lo studio del doppio decadimento beta è stato NEMO-3. Questo
esperimento è stato condotto in un laboratorio sotterraneo all'interno del traforo del Frejus, nei
pressi di Modane. La presa dati è iniziata nel gennaio 2003 ed è terminata nel gennaio del
2011. In questi otto anni non è stato osservato alcun doppio decadimento beta in assenza di
neutrini. L'esperimento NEMO-3 sarà seguito dal "SuperNEMO", un esperimento analogo ma
condotto con apparecchiature più potenti.
Nel novembre del 2010 è stato inaugurato in Italia l'esperimento GERDA. Anche questo
esperimento ha come obiettivo la ricerca del doppio decadimento beta in assenza di
neutrini[1] [2]. Durante la prima fase di raccolta dati dell'esperimento, iniziata a novembre 2011 e
terminata a maggio 2015, non sono stati osservati eventi di doppio decadimento beta in
assenza di neutrini [3]. Nel dicembre 2015 è iniziata la seconda fase della raccolta dati.

Beta Decay
Decay is basically a loss of energy where the parent nuclide transforms either into a stable
nucleus in a different state or into nuclei of different number of protons and neutrons.
The radioactive decay is a process by which an unstable atomic nucleus loses its energy by
emitting ionizing particles.

There are commonly three types of decay which an unstable nucleus may undergo.

1. Alpha Decay

2. Beta Decay and

3. Gamma Decay.

Beta Decay is the phenomenon of emission of an electron from a radioactive nucleus.


When a parent nucleus emits a beta particle i.e. an electron then the mass number of the
nucleus remains same because the mass of electron is negligibly low.
Let us study more about beta decay in this section.

What is Beta Decay?


Back to Top

When a radioactive nucleus disintegrates by emitting a beta-particle, the atomic number


decreases by one and the mass number remains the same.

Beta Decay can be expressed as:


A A 0
zX ---------------> Z+1Y + -1e
Here, A = Mass number
Z = Atomic number
X = Parent nuclei
Y = Daughter nuclei
e = electron.

At a time, either alpha or beta particle is emitted. Both alpha and beta particles are not
emitted during a single decay.
The beta decay is classified into two types based on the type of the particle it emits.

1. If the particle emitted is electron then it is known as beta minus decay

2. If the positron (electron with positive charge) is emitted then it is said to be beta
plus decay.

Beta Decay Equation


Back to Top
The Beta decay can also be understood by the help of the radioactive decay equation.

Starting with the beta minus decay (β−β−), the equation is given by:
N N -
ZA ---------------> Z+1A + e + νe¯νe¯. .................................(a)
From the equation, it is clear that the daughter nucleus contains one proton more than the parent nucleus.
From this type of decay the parent atom converts to next higher neighbor in the periodic table.

The equation of the beta plus decay (β+β+) is given by,


N N' +
ZA -----------------> Z-1A + e + νe¯νe¯. .............................(b)
From the equation it is clear that the daughter nucleus has one proton less than the parent nucleus.
Beta Minus Decay
Back to Top

Beta Minus Decay is one of the two types of the beta decay in which a neutron in the nucleus decays into a
proton, electron and an antineutrino.

In this process, the emitted particle is electron and hence it is named as beta minus decay.
The beta minus decay is also known as electronic emission. This decay occurs generally in
the nuclei which are rich in neutrons.

As seen from the reaction below a neutron is decayed into proton, electron and antineutrino.
n -----------> p + e- + νe¯νe¯
where, n is neutron,
p is proton,
e- is electron and
νe¯νe¯ is antineutrino.
Beta Plus Decay
Back to Top

The Beta Plus Decay is also known as positron emission because of the fact that the particle
emitted in this type of beta decay is positron. This type of decay occur when a proton decay to form
neutron, positron (positively charged electron) and a neutrino.

The equation for this type of decay is:


p ---------> n + e+ + νe
where, n is neutron
p is proton
e+ is positron and
νe is neutrino.
Double Beta Decay
Back to Top
The Double beta decay occurs when an unstable nucleus releases two beta
particles in the single process.The double beta decay could be either of plus decay or
minus decay type, wherein either two neutrons or protons decayed to form a stable nucleus
with larger binding energy in the nucleus.

The double decay is the rarest phenomenon and theoretically 35 isotopes are capable of
double beta decay but it is observed for only 12 of 35 isotopes. This process is only allowed
if after the decay the binding energy of the daughter nucleus be larger than the binding
energy of the parent nucleus.

The following figure gives the double beta decay, where the two neutrons converted into
two protons and two electrons are emitted by the process.

Inverse Beta Decay


Back to Top

As from the name it is evident that the process is the reverse of the beta decay. In inverse beta
decay, a proton rich nucleus capture a lower orbital electron and changes its state to the neutron
thereby emitting a neutrino. This process is also known as electron capture. This type of decay is
primary mode decay in Radioisotopes which have abundance of the protons in its nucleus.

In this process, the number of neutron and proton changes by 1 hence the atomic mass remains
same and the nuclide is transformed into new element. The newly formed element is in excited
state due to the absence of the inner shell electron and hence may go through further different
types of decay before being in the normal state of the newly formed element.

The equation of the inverse beta decay is as shown below:


Probing New Physics Models of
Neutrinoless Double Beta Decay with
SuperNEMO
SuperNEMO Collaboration (R. Arnold (Strasbourg, IPHC) et al.) Mostrar
todos los 82 autores

May 2010 - 15 pages

 Eur.Phys.J. C70 (2010) 927-943

 DOI: 10.1140/epjc/s10052-010-1481-5

 MAN-HEP-2010-2

 e-Print: arXiv:1005.1241 [hep-ex] | PDF

 Experiment: SUPERNEMO

Abstract (arXiv)
The possibility to probe new physics scenarios of light Majorana neutrino exchange and right-
handed currents at the planned next generation neutrinoless double beta decay experiment
SuperNEMO is discussed. Its ability to study different isotopes and track the outgoing electrons
provides the means to discriminate different underlying mechanisms for the neutrinoless double
beta decay by measuring the decay half-life and the electron angular and energy distributions.

Note: 17 pages, 14 figures, to be published in E.P.J. C


Keyword(s): INSPIRE: double-beta decay: (0neutrino) | neutrino:
exchange | neutrino: Majorana | neutrino: mass generation | new physics | current:
right-handed | symmetry: left-right | angular correlation: (2electron) | energy:
correlation | neodymium: nuclide | selenium: nuclide | tracking
detector | calorimeter | sensitivity | Neutrino Ettore Majorana
Observatory | numerical calculations: Monte Carlo
Show
more plots

Types of Radioactive Emissions:


Alpha (α) Particles:
In alpha emission a particle with the composition of a helium nucleus, that is two protons and two
neutrons or an alpha particle , is emitted from an unstable heavy nucleus. This results in the parent
nucleus changing or transmutating into a daughter nucleus of the element with atomic number two
lower than the parent. Alpha sources are usually found among the heavier radioactive isotopes
including some of uranium and radium. The emitted alpha particle has a mass number of 4 and a
charge of 2+ so is relatively heavy and highly ionising. This means that an alpha particle can do a
lot of damage to cells in biological tissue that it hits but also travels only a short distance through
most substances (including air) as it loses kinetic energy through multiple collisions with other
particles.

A uranium-238 nucleus is unstable. It will spontaneously decay into a Thorium-234 nucleus, releasing an alpha
particle (He-4 nucleus). The combined mass of the alpha particle and thorium nucleus is slightly less than that
of the original uranium nucleus. The difference accounts for the energy released. As Einstein showed, mass
can be converted into energy (E = m.c2).

Beta (β) Particles

Beta decay occurs when a neutron either within a radioisotope or as a free neutron spontaneously
decays to form a proton, an electron and an electron antineutrino. The emitted electron has high
kinetic energy and is called a beta (β) particle. Beta decay is a weak nuclear interaction with the
W- particle acting as the force carrier (intermediate vector boson).

A neutron undergoes spontaneous beta decay to form a proton, a high energy electron (β particle) and an
electron antineutrino. Whilst atomic and mass numbers are conserved in the process the combined mass of
the products is slightly less than the original neutron mass. This accounts for the energy released.
Many radioisotopes undergo beta decay. The example below shows the beta decay of a Thorium-
234 nucleus (which is initially produced by alpha decay of U-238 as shown above).

Beta decay of Thorium-234 results in a high energy electron (beta particle) being released from the nucleus
plus an electron antineutrino (not shown in diagram). The daughter nucleus thus formed has the same mass
number of 234 as the parent but is one higher in atomic number as the decaying neutron has changed into a
proton which is retained within the nucleus. The Protactinium-234 nucleus still contains excess energy which it
gets rid of almost instantaneously by emitting a high energy gamma photon, a gamma ray.
Beta particles have a charge of -1 and a mass number of 0 though they still have an actual rest
mass about 1/1850th that of a proton.

Gamma (γ) Rays

Both alpha and beta decay events often produce daughter nuclei that still possess too much energy
and are intrinsically unstable. These nuclei may spontaneously and almost instantaneously emit a
high energy photon in the gamma radiation region of the electromagnetic spectrum. The photons
are generally termed gamma rays (γ). Emission of a gamma photon does not alter the mass or
atomic number of the daughter nucleus but does lower its energy.

Properties of Nuclear Radiation


All three types of nuclear radiation; alpha, beta and gamma, are highly energetic and can interact to
varying degrees with matter including biological tissue. In general the greater the charge and mass
of the type of radiation, the more damage it does when it hits or collides but this also means it
travels less distance through air or other matter before giving up its energy.
Alpha particles are thus most easily blocked and travel only a few centimetres through air on
average and can be blocked by a sheet or two of paper. Beta particles generally travel further
though can be blocked by 5mm thick aluminium sheet. Gamma rays can travel long distances
before they interact. About 10 cm of lead sheeting is needed to halve the intensity of the gamma
radiation.
Having a charge of +2e and high mass, alpha particles readily ionise any atoms or molecules that
they pass by.
Some of the properties of alpha, beta and gamma radiation are summarised in the following table:
Properties of Alpha, Beta and Gamma Radiation
Type of Radiation α β γ
What is it? Helium nucleus (2 protons, 2 electron gamma photon
neutrons)
Charge +2e -1e no charge
Energy (typical) 10 MeV 0.03 to 3 MeV 1 MeV
Speed (typical) 0.1c range up to 0.9c c
Penetration (typical) stopped by 5 cm of air of 0.5 stopped by 0.5 cm of intensity halved by 10
mm of paper aluminium cm lead
Ionisation effect high medium low
Deflected by magnetic (B) Yes Yes, opposite direction to α No
field? particle
Deflected by Electric (E) Yes Yes, opposite direction to α No
field? particle
Alpha, beta and gamma radiation also differ in how they are effected by magnetic and electric fields.
Being positively charged, alpha particles are deflected by both magnetic and electric fields. Having
a negative charge, beat particles are also deflected by both types of field but in the opposite
direction to that of alpha particles. Gamma rays have no charge so are unaffected by magnetic and
electric fields.

Positively-charged alpha particles are deflected in the direction of the E field lines. Negatively-charged beta
particles are deflected in the opposite direction to that of the E field lines.
The direction of deflection for charged particles may be determined using Fleming's left hand rule. Positively-
charged alpha particles will be deflected in the opposite direction to that of negatively-charged beta particles.

From the Standard Model to the Majorana neutrino

Particle physics research during the second half of the 20th century helped establishing a simple and
comprehensive description known as the Standard Model. 12 elementary particles, 6 quarks and 3 lepton
pairs, grouped in 3 families, and 12 associated anti-particles:

Elementay particles
1st Family 2nd Family 3rd Family
u "up" c "charm" t "top"
Quarks
d "down" s "strange" b "bottom"

electron muon tau


Leptons
electronic neutrino muonic neutrino tauic neutrino

All four known interactions (gravity, electromagnetism, weak and strong interactions) are described through an
exchange of bosons as mediating particles between the quarks and leptons.

The neutrino of the Standard Model is massless and appears to have three flavors (e, μ et τ). Its only way to
interact is the weak one: for instance, during a β decay, a u quark turns into a d quark by emitting a charged
particle, the W- boson, and subsequently decays into an electron/anti-neutrino pair.
Fig. 1. Décroissance β

The Standard Model has long earned its reputation as a reliable tool for the understanding of particle physics
and for numerous and precise predictions which turned out to be correct. Nonetheless, as a model, some limits
to its capabilities are to be found.

The very fact that neutrinos oscillate (transition from one flavor to the other while the neutrino moves), which
was observed in the Super-Kamiokande experiment in 1998 and later confirmed by many other experiments
like SNO and KamLAND, proves that the neutrinos are not massless. This implies physical processes beyond
the Standard Model.

Oscillation experiments do not give an absolute mass, but only mass differences. Now, it is crucial to measure
the neutrino mass, which we already know is extremely small (at least a thousand times less than that of the
electron), and this alone is already an enigma.

Not only the mass, but the nature of the neutrino has to be inquired. Ettore Majorana demonstrated that, as a
neutral particle, the neutrino could be its own anti-particle. We call such a neutrino a Majorana particle,
whereas it would be a Dirac particle in the opposite case. In order to explain the formation of the Universe with
its mater/anti-matter asymmetry, most of the models rely on a Majorana neutrino-type! Talk about the huge
impact in the Universe of such a tiny particle!

If the neutrino happens to be a Majorana one, then it opens the door for a process forbidden by the the
Standard Model: the double-beta decay without emission of a neutrino. And then, apart from solving the
enigma of the nature of the neutrino, what was out of reach for oscillation experiments, we have found the way
to measure its absolute mass.

The Double-Beta Decay

The double-beta decay with neutrino emission (2β2ν) is a seldom process with a half-life of some 1019years.
Seldom, but observed: for some nuclei, a simple β decay to the daughter nucleus is not energetically possible,
whereas two simultaneous decays are allowed.

For a Majorana neutrino, one of the two emitted anti-neutrinos might well be seen as a neutrino by the second
neutron and consequently absorbed during the second process instead of being emitted. In this particular
case, there is no neutrino emission. Such a sequence of events should occur far less often then the 2β2ν
decay, with a half-life around 1025 years!

Fig. 2. Décroissance double beta


How to distinguish the two scenarii? By measuring precisely the energy of the two emitted electrons, in the
case of emitted neutrinos, the value will be only a portion of the total Q energy involved in the decay.
ββ

Conversely, il there is no neutrino emitted, the total energy carried by the two electrons will be exactly Q and
ββ

we will see a discrete line in the spectrum at a well-defined energy.

Such a signal is the observable signature of the neutrinoless double-beta decay that experiments like NEMO
look for.

Spectre double beta

Diagrama de Feynman
https://es.wikipedia.org/wiki/Diagrama_de_
Feynman

En este diagrama de Feynman, un electrón y un positrón se aniquilan, produciendo


un fotón (representado por la onda sinusoidal azul) que se convierte en un par quark-antiquark, después
de lo cual el antiquark irradia un gluón (representado por la hélice verde).

Los diagramas de Feynman en física, son gráficos que representan las trayectorias de las
partículas en las fases intermedias de un proceso de colisión para resolver de manera eficaz
los cálculos implicados en dicho proceso, procedentes de la teoría cuántica de campos.1 Su
autor es el físico estadounidense Richard Feynman que los introdujo por vez primera en 1948,
publicándose su caracterización en un famoso artículo de 1949. 2 También son utilizados en
otras teorías para resolver problemas de muchos cuerpos como en la física del estado sólido.
El problema de calcular secciones eficaces de dispersión en física de partículas se reduce a
sumar sobre las amplitudes de todos los estados intermedios posibles, en lo que se conoce
como expansión perturbativa. Estos estados se pueden representar por los diagramas de
Feynman cuyo cálculo resulta menos complejo y más ilustrativo que el proveniente de la
expresión matemática directa. Sin embargo, han de sumarse todos los términos del desarrollo
perturbativo y, en ocasiones, puede no resultar convergente. Feynman mostró cómo calcular
las amplitudes del diagrama usando, las así llamadas, reglas de Feynman, que se pueden
derivar del lagrangiano subyacente al sistema. Cada línea interna corresponde a un factor
del propagador de la partícula virtual correspondiente; cada vértice donde las líneas se reúnen
da un factor derivado de un término de interacción en el lagrangiano, y las líneas entrantes y
salientes determinan restricciones en la energía, el momento y el espín.
Además de su valor como técnica matemática, los diagramas de Feynman proporcionan
penetración física profunda a la naturaleza de las interacciones de las partículas. Las
partículas obran recíprocamente en cada modo posible; de hecho, la partícula "virtual"
intermediaria se puede propagar más rápidamente que la luz. 3 La probabilidad de cada
resultado entonces es obtenida sumando sobre todas tales posibilidades. Esto se liga a la
formulación integral funcional de la mecánica cuántica, también inventada por Feynman —
véase la formulación integral de trayectorias.
El uso ingenuo de tales cálculos produce a menudo diagramas con amplitudes infinitas, lo que
es intolerable en una teoría física. El problema es que las auto-interacciones de las partículas
han sido ignoradas erróneamente. La técnica de la renormalización, iniciada por
Feynman, Schwinger, y Tomonaga, compensa este efecto y elimina los términos infinitos
molestos. Después de realizada la renormalización, los cálculos de diagramas de Feynman
emparejan a menudo resultados experimentales con exactitud muy buena. El diagrama de
Feynman y los métodos de la integral de trayectorias también se utilizan en la mecánica
estadística.
Murray Gell-Mann se refirió siempre a los diagramas de Feynman como diagramas de
Stückelberg,4 por el físico suizo Ernst Stückelberg que ideó una notación similar.

Índice
[ocultar]

 1Interpretación

 2Significado y aplicación

 3Construcción

 4Propagadores

 5Ejemplos

 6Bucles

 7Reglas de Feynman

o 7.1Fotones
o 7.2Bosones Z

o 7.3Bosones W

o 7.4Gluones

o 7.5Bosones de Higgs

 8Tipos de diagramas de Feynman

 9Estado Sólido. Analogía física

 10En la cultura popular

 11Bibliografía

 12Referencias externas

 13Notas y referencias

 14Véase también

Interpretación[editar]
Los diagramas de Feynman son realmente una manera gráfica de no perder de vista
los índices de Witt como la notación gráfica de Penrose para los índices en álgebra multilineal.
Hay varios diversos tipos para los índices, uno para cada campo (éste depende de cómo se
agrupan los campos; por ejemplo, si el campo del quark "up" y el campo del quark "down" se
tratan como campos diversos, entonces habría diversos tipos asignados a ambos pero si se
tratan como un solo campo de varios componentes con sabores, entonces sería solamente un
tipo); los bordes, (es decir los propagadores) son tensores de rango (2,0) en la notación de de
Witt (es decir con dos índices contravariantes y ninguno covariante), mientras que los vértices
de grado n son tensores covariantes de rango n que son totalmente simétricos para todos los
índices bosónicos del mismo tipo y totalmente antisimétricos para todos los índices
fermiónicos del mismo tipo y la contracción de un propagador con un tensor covariante de
rango n es indicado por un borde incidente a un vértice (no hay ambigüedad con cual índice
contraer porque los vértices corresponden a los tensores totalmente simétricos). Los vértices
externos corresponden a los índices contravariantes no contraídos.
Una derivación de las reglas de Feynman que usa integral funcional gaussiana se da en el
artículo integral funcional. Cada diagrama de Feynman no tiene una interpretación física en sí
mismo. Es solamente la suma infinita sobre todos los diagramas de Feynman posibles lo que
da resultados físicos.
Desafortunadamente, esta suma infinita es solamente asintóticamente convergente.

Significado y aplicación[editar]
Los diagramas de Feynman son una representación gráfica abstracta de las interacciones
entre partículas que se describirán matemáticamente por densidades de Lagrange . Por
ejemplo, la interacción entre los electrones y los fotones se describe mediante la siguiente
función de Lagrange:
En esta expresión, es el electrón (o positrón) con su correspondiente rotación, expresado
como un campo en forma de vector columna; es su campo complejo conjugado
expresado como un vector fila; , es la carga eléctrica del electrón; es la masa del
electrón; son las matrices de Dirac y , el correspondiente potencial vectorial
electromagnético del fotón. La derivada representa la propagación de las partículas en
el espacio-tiempo, durante la expresión mediante la que se acopla la carga eléctrica del
electrón con el fotón. Los índices y son las cuatro dimensiones del espacio de
Minkowski (). Se considera la notación de Einstein. El producto de los dos campos
rotacionales se calcula en términos de una multiplicación de matrices, es decir, que
corresponde a un escalar porque el primero de los campos es un vector fila y el segundo
es un vector columna.
Estas expresiones son generalmente muy complicadas, pero se pueden traducir
claramente en los correspondientes diagramas de Feynman que proporcionan una
presentación simplificada y clara. Sin embargo, los diagramas de Feynman no permiten
evitar por completo el uso de las expresiones matemáticas, necesarias para el cálculo de
los valores resultantes.
Por lo general, los diagramas de Feynman se utilizan en el cálculo de la dispersión de los
procesos en las teorías cuánticas de campos relativistas, como por ejemplo en la
electrodinámica cuántica. Para este propósito se calcula la distribución de probabilidad de
un estado mediante un desarrollo en serie de potencias por una constante de
acoplamiento, función de la suma de todos los diagramas de Feynman válidos.
Posteriormente, se calculan las amplitudes individuales posibles para cada estado.
Además, los diagramas de Feynman se utilizan en la física del estado sólido no relativista
(especialmente en la física de muchos cuerpos) y en física estadística.5

Construcción[editar]
Los diagramas de Feynman se componen de agrupaciones de símbolos básicos,
representando ciertos tipos de partículas elementales. Los fermiones (partículas
materiales) están de acuerdo con la convención habitual de representarse mediante líneas
continuas con flecha. La flecha indica con su sentido si se trata de una partícula (en la
dirección de tiempo) o una antipartícula (en contra de la dirección del tiempo).
Casualmente, a menudo se presentan antipartículas, cuyo movimiento no tiene el
significado físico que les atribuye el diagrama. Para las letras de las líneas de partículas y
antipartículas, hay varias convenciones. En la mayoría de los casos se escribe el símbolo
exacto de la partícula. Sin embargo, algunos autores utilizan una notación más corta y
más general, que puede referirse tanto a la partícula como a la antipartícula (por
ejemplo, en lugar de o de ), ya que la información, si se trata de una partícula o una
antipartícula, ya va indicada en la dirección de la flecha. La dirección del eje de tiempo
unas veces se elige de abajo arriba, y otras veces de izquierda a derecha.
Los bosones, elementos que median en la interacción entre partículas, por lo general son
representados mediante líneas onduladas o espirales, dependiendo de la interacción
representada. Las partículas escalares se represntan típicamente con líneas discontinuas.
Hay algunas excepciones a estas reglas generales, por ejemplo, los bosones W puede ser
simbolizados como líneas discontinuas.
En los gráficos que figuran a continuación, el tiempo se muestra de izquierda a derecha:
Símbolo Significado

Fermión

Antifermión

Bosones gauge en la interacción débil

Gluón g en la interacción fuerte

Bosón de Higgs

(o en general bosones escalares, raro para bosones vectoriales)

Terminador
(por ejemplo, interacción del bosón de Higgs con un condensado6 )

Además, las etiquetas se utilizan para definir a qué partícula elemental se hace referencia:

Leptones Bosones

Símbolo Significado Símbolo Significado

Electrón
Fotón

Positrón
Bosón Z

Muón

Bosón W+

Neutrino

Bosón W−

Los diagramas de Feynman tienen líneas externas que convergen en puntos de


interacción. Las líneas internas conectan pares de puntos de interacción. Las líneas
externas corresponden a partículas entrantes y salientes. Los puntos de interacción donde
las líneas se encuentran, también se llaman vértices. En los vértices se pueden crear,
destruir o dispersar partículas.
Siempre con el tiempo representado de izquierda a derecha, la rotación alrededor de un
vértice lleva a diferentes interpretaciones:

 Procesos de Confluencia y Divergencia

Fusión entre electrón y positrón liberando un fotón

Emisión de un fotón por un electrón


Absorción de un fotón por un positrón

Descomposición de un fotón en un electrón y un positrón


Debe señalarse que un diagrama de Feynman se compone exclusivamente de partículas
conectadas mediante vértices contiguos.

Propagadores[editar]
Las líneas interiores son llamadas propagadores y se interpretan como partículas virtuales
que no pueden ser observadas. Debido a esto, hay una ambigüedad. Cualquier pareja de
gráficos con las mismas líneas de entrada y de salida son equivalentes, y se pueden
sumar entre sí.

Ejemplos[editar]
Dispersión de Møller
Para el cálculo de la dispersión de dos fermiones -dispersión de Møller- se tienen en
cuenta los diagramas de Feynman con dos electrones de entrada y dos de salida.
Las imágenes muestran la dispersión en el orden más bajo (a nivel de árbol). Las cuatro
líneas externas representan los fermiones entrantes y salientes y la línea de eje interior
virtual representa los fermiones que genera la interacción electromagnética.

Dos fermiones (por ejemplo, electrón y positrón) con un bosón de mediación virtual (por
ejemplo, un fotón)

Un diagrama equivalente de dispersión de Møller con un propagador diferente


Cada uno de estos diagramas se corresponde con una contribución a la dispersión, todo
el proceso de difusión está representado por la suma de todos los diagramas.
Efecto Compton
Como otro ejemplo, a continuación figura el efecto Compton analizado en el orden más
bajo. Una vez más, los posibles diagramas se suman.


Efecto Compton = +

El cálculo de estos casos de dispersión y en general, las reglas de expresiones


matemáticas, que corresponden a las líneas y vértices de los diagramas de Feynman, se
pueden encontrar en muchos libros de texto de física de partículas (ver enlaces).

Bucles[editar]
Además de los diagramas con estructura de árbol, el software para el cálculo exacto de
los llamados diagramas en bucle son de la mayor importancia.

ningún bucle
(árbol)

un bucle
(1-loop)

dos bucles
(2-loop)

dos bucles
(2-loop)
Los posibles diagramas de Feynman se pueden clasificar por el número de bucles
internos a medida que se conoce el fin de cada bucle, y como parte de un desarrollo en
serie se suman:
.
Hay una cantidad indefinida de diagramas posibles. Sin embargo, las contribuciones
de orden superior dependen de las potencias correspondientes determinadas a partir
de las constantes de acoplamiento hasta anularlas. Las contribuciones de orden
suficientemente alto son entonces numéricamente insignificante de acuerdo con la
hipótesis de trabajo de la teoría de perturbaciones, ya que tienen un efecto mínimo
sobre el resultado final.

Reglas de Feynman[editar]
Las reglas de Feynman describen qué interacciones son posibles y cuáles no lo son.
Fotones[editar]
Los fotones interactúan con todas las partículas elementales cargadas eléctricamente.
Representación para electrones y muones:

Interacción entre electrones, positrones y fotones


Interacción entre muones y fotones
Bosones Z[editar]
El bosón Z interactúa entre todas las demás partículas elementales del modelo
estándar con la excepción de los gluones; simultáneamente, los fotones sólo
interactúan con los bosones W. En particular, los neutrinos (, y ) no tienen ninguna
interacción con los fotones. Por lo tanto, en este caso se deberá dar la generación y
detección de bosones Z y de bosones W.

Interacción entre bosón Z y neutrinos

Interacción entre electrones, positrones y bosón Z

Interacción entre muones, anti-muones y bosón Z


Bosones W[editar]
El bosón W media entre neutrinos por un lado y leptones con carga l (electrones,
muones y tauones) por otro. Entre quarks del tipo up y down, el bosón W es el
portador de la carga eléctrica positiva (W +) o negativa (W -). Debido a la carga
eléctrica, la interacción del bosón W está sujeta a la presencia del fotón. Además,
interactúa con el bosón Z y con otros bosones W.

Interacción entre la carga negativa de leptones, neutrinos y bosón W

Interacción entre los neutrinos, leptones con carga positiva y el bosón W

Interacción entre los dos bosones W con carga diferente (la línea de tiempo corre de
arriba a abajo)

Interacción entre los dos bosones W con carga diferente y dos fotones (la línea de tiempo
corre de arriba a abajo)

Interacción entre los dos bosones W con carga diferente y dos bosones Z (la línea de
tiempo corre de arriba a abajo)

Interacción entre los dos bosones W con carga diferente, un bosón Z y un fotón (la línea
de tiempo corre de arriba a abajo)
Los bosones W son especialmente interesantes porque tienen permitido el cambio
de "sabor". Esto significa que el número de electrones, neutrinos, etc. puede cambiar.
Esta característica juega un papel importante acerca de la desintegración beta.

β−-desintegración de un neutrón β+-desintegración de un protón

Gluones[editar]
Representación gráfica de la neutralización de las cargas a imagen de la mezcla de los
colores rojo, verde y azul, y de cada color con los otros dos colores

Los gluones median en la interacción fuerte entre quarks.


Los quarks tienen un "carga de color" libremente asociada. En contraste con la carga
eléctrica, que sólo presenta dos valores ("positivo" (+) y "negativo" (-)), la carga de
color de los quarks presenta múltiples posibilidades. Los gluones son los
responsables del equilibrio entre los "colores" asociados a cada partícula: "Rojo",
"Verde" y "Azul", y de sus opuestos: "Anti-Rojo" ("cian"), "Anti-verde" ("magenta"), y
"Anti-azul" ("amarillo"). En cada interacción, la neutralización de colores entre los
quarks con cargas de color {rojo, verde, azul}, {cian, magenta, amarillo}, {rojo, cian},
{verde, magenta} o {azul, amarillo} se verifica a través de los gluones.
Las partículas con tres quarks son los bariones (que incluyen por ejemplo a protones y
neutrones). Las partículas de dos quarks son los mesones denominados "quarks
libres", que se unen inmediatamente a bariones o mesones por la acción de los
gluones transmisores de la fuerza fuerte.
Matemáticamente, los gluones forman una estructura algebraica asimilable al grupo
unitario especial SU(3) de las matrices hermíticas sin traza de dimensión 3×3. Por lo
tanto, hay ocho (32-1) gluones diferentes.
Los gluones llevan dos cargas de color. Por lo tanto ellos mismos están sujetos a la
interacción fuerte, y por lo tanto se pueden conectar consigo mismos. Por lo tanto,
teóricamente también podrían producirse bolas de gluones sin la intervención de
quarks. Sin embargo, esta configuración aún no ha sido detectada.
Bosones de Higgs[editar]
El bosón de Higgs interactúa con todas las partículas elementales masivas, es decir,
también con sí mismo (auto-interacción). Únicamente no hay interacción con fotones y
gluones. El modelo estándar demuestra que las partículas elementales obtienen su
masa exclusivamente por esta interacción (véase mecanismo de Higgs).

Tipos de diagramas de Feynman[editar]


Diagramas conexos
Si cada vértice está conectado a través de líneas internas y a otros vértices entre sí, la
tabla se define como contigua, de otro modo es incoherente. En cada porción contigua
del diagrama, la suma de las energías, los impulsos y cargas de las partículas
entrantes es igual a la suma de las energías, los impulsos y cargas de las partículas
salientes.
Diagramas irreducibles
Si cuando se corta por cualquier punto el diagrama se generan siempre dos gráficas
inconexas, se dice que el diagrama es irreducible. En caso contrario, no pueden ser
simplificados sistemáticamente como un producto de integrales simples.
Diagramas amputados
Con una variación gráfica (relativa a las auto-energías) en función de la distancia de
las líneas exteriores, por lo que se llaman diagramas "amputados".
Diagramas de auto-energía
Un grafo con un lazo, líneas exteriores y sólo dos vértices se denomina (después de la
amputación) Diagrama de auto-energía. Su valor depende solamente de la energía y
el momento que fluye a la otra, además del giro por las líneas externas y un vértice.
Diagramas en esqueleto
Un gráfico sin subdiagramas de auto-energía se denomina un diagrama en esqueleto.

Estado Sólido. Analogía física[editar]


El traslado de la teoría común a la física del estado sólido se
obtiene estableciendo una equivalencia entre ondas
electromagnéticas (fotones) y ondas sonoras sobre una red
cristalina (phonones). En términos de la teoría de Feynman, la
cuantía de las ondas sonoras se interpreta en forma de
electrones. Las corrientes inversas no se interpretan
como positrones en el sentido de la electrodinámica cuántica,
sino como defecto de electrones. De esta manera pueden
reescribirse diagramas esenciales capaces de explicar
fenómenos como la superconductividad, la emisión de electrones,
la polarización, o la piezoelectricidad.
En todos estos procesos de interacción, la suma de las energías
(distribución de frecuencias ) o de los pulsos (distribución de los
números de onda ), se concluye que los diagramas mostrados
son capaces de satisfacer expresiones matemáticas bien
definidas para las amplitudes de interacción.

En la cultura popular[editar]
Este diagrama aparece en el decimotercer capítulo de la primera
temporada de la serie televisiva The Big Bang Theory.7

Bibliografía[editar]
 Otto Nachtmann: Phänomene und Konzepte der
Elementarteilchenphysik. Vieweg, Braunschweig 1986, ISBN
3-528-08926-1.

Referencias externas[editar]
 (Hyperphysics. Definiciones de la física de partículas. En
español. Visitado el 15-10-2015)

 (Cuentos cuánticos. Diagramas de Feynman para Todos. En


español. Visitado el 15-10-2015)

 ("¿Qué son los diagramas de Feynman?" "Soy científico"


23/01/2015. En español. Visitado el 15-10-2015)

 ("Richard Feynman: Diagramas de Feynman" Javier García,.


Publicado en YouTube el 2/5/2015. Video docente. En
español. Visitado el 15-10-2015)

 Wikimedia Commons alberga contenido multimedia


sobre Feynman-Diagramme.

 «Using Feynman diagrams to illustrate particle interactions in


the Standard Model» (en inglés). 27 de febrero de 2013.
«CERN».

 Martin Bäker (27 de febrero de 2013). «Wie funktionieren


Feynman-Diagramme?» (en alemán). Einfache Erklärung der
Berechnung von Feynman-Diagrammen. «ScienceBlogs».

 Plip Tanedo (27 de febrero de 2013). «Let’s draw Feynman


diagrams!» (en inglés). «USLHC, Cornell University».

 Carl Brannen (27 de febrero de 2013). «Feynman Diagrams


for the Masses (part 1)» (en inglés).

 Carl Brannen (27 de febrero de 2013). «Feynman Diagrams


for the Masses (part 2)» (en inglés).

Notas y referencias[editar]
1. Volver arriba↑ Martinus Veltman. 1994. Diagrammatica: the
path to Feynman diagrams. Cambridge Lecture Notes in
Physics. ISBN 0-521-45692-4. (en inglés)

2. Volver arriba↑ ("Space-Time Approach to Quantum


Electrodynamics" R. P. Feynman. Phys. Rev. 76, 769 –
Published 15 September 1949. En inglés. Visitado el 15-10-
2015)

3. Volver arriba↑ Esto no viola la relatividad por razones


profundas; de hecho, ayuda a preservar la causalidad en un
espacio-tiempo relativista.
4. Volver arriba↑ ("The Jaguar and the fox"; The Atlantic. 7/2000.
George Johnson. Página visitada el 15/10/2015. En lengua
inglesa)

5. Volver arriba↑ Abrikosov, Gor'kov, Dzyaloshinskii: Quantum


field theory methods in statistical physics. Dover, 1961 und
1977, ISBN 0-486-63228-8.

6. Volver arriba↑ «Demystifying the Higgs Boson with Leonard


Susskind» (en inglés). 16 de agosto de 2012. Consultado el 27
de febrero de 2013. «YouTube».

7. Volver arriba↑ «The Bat Jar Conjecture». Internet Movie


Database (en inglés). Consultado el 26 de septi

Núcleos y partículas
¿De qué están hechos los núcleos y cómo se mantienen unidos? la bomba atómica tiene que ver
con cambios en el interior del núcleo, mientras que la explosión de TNT tiene que ver con cambios
de los electrones en el exterior de los átomos.
Yukawa sugirió que las fuerzas entre neutrones y protones también tienen algún tipo de campo, y
que cuando este campo se agita se comporta como una partícula.
Además del protón y el neutrón, para tener fuerzas nucleares de hemos añadir el pión. Ahora
ustedes dirán: «¡Qué grande!, hagamos con esta teoría la nucleodinámica cuántica, utilizando los
piones tal como precisamente quería hacerlo Yukawa, y veamos si funciona, y entonces todo
quedará explicado». Mala suerte. Resulta que los cálculos implicados en esta teoría son tan
difíciles que nadie ha sido nunca capaz de calcular cuáles son las consecuencias de la teoría, o
comprobarla experimentalmente, y ¡esto ha estado sucediendo durante casi veinte años!
Resulta que hoy tenemos aproximadamente treinta partículas, y es muy difícil comprender las
relaciones entre todas estas partículas y para qué las quiere la naturaleza, o cuáles son los vínculos
entre unas y otras
Aunque todas las partículas salvo el electrón, el neutrino, el fotón, el gravitón y el protón son
inestables, sólo se han mostrado los productos de la desintegración para las resonancias. Las
asignaciones de extrañeza no son aplicables a los leptones, puesto que no interaccionan
fuertemente con los núcleos. Todas las partículas que están junto a los neutrones y los protones se
denominan bariones, y existen los siguientes: hay una partícula «lambda», con una masa de 1.154
MeV y otras tres, llamadas sigmas, menos, neutra y más, con masas diferentes pero casi iguales.
Hay grupos o multipletes casi de la misma masa, con una diferencia de un 1 o un 2 por 100. Todas
las partículas de un multiplete dado tienen la misma extrañeza. El primer multiplete es el doblete
protón-neutrón, y luego hay un singlete (el lambda), luego el triplete sigma, y finalmente el
doblete xi.
Hasta donde podemos decir, por todos los experimentos realizados hasta ahora, el electrón y el
muón sólo difieren en la masa. Todo funciona exactamente igual para el muón que para el
electrón, excepto que uno es más pesado que el otro. ¿Por qué hay uno más pesado que otro; para
qué sirve?
De hecho, parece haber sólo cuatro tipos de interacción entre partículas que, en orden de
intensidad decreciente, son la fuerza nuclear, las interacciones eléctricas, la interacción de la
desintegración-beta y la gravedad. El fotón se acopla a todas las partículas cargadas y la intensidad
de la interacción se mide por cierto número cuyo valor es 1/137. Se conoce la ley detallada de este
acoplamiento, que es la electrodinámica cuántica.

ECUACION DE SCHRODINGER
Por eso pudimos analizar la propagación de la onda piloto únicamente en el caso de una partícula
libre y no sabemos aún como tratar una partícula sometida a fuerzas. Falta, además, una relación
cuantitativa entre la onda y la partícula, que nos diga de qué forma la onda determina la
probabilidad de observar la partícula en un determinado lugar.
Resumiendo, hemos llegado al siguiente resultado:
Cuantificación de la energía en la teoría de Schrödinger: • si la relación entre Vx () y la energía total
E es tal que una partícula clásica está confinada (ligada), los niveles de energía permitidos son
discretos. • si esa relación es tal que una partícula clásica no está ligada, la energía total puede
tomar cualquier valor, de modo que los niveles de energía forman un continuo.
El conjunto de todos los niveles permitidos de la energía se denomina espectro de energía. En
general, entonces, el espectro de energía de una partícula cuya energía potencial es Vx () tiene una
parte discreta y una parte continua. Sólo cuando Vx () crece sin límite para x → ±∞ el espectro es
completamente discreto. Veremos que las conclusiones a que hemos llegado a partir de nuestra
discusión cualitativa se verifican en todos los casos específicos que estudiaremos.
El problema de la (7.36) es que para calcular la integral se precisaría expresar p en términos de x y
t. En un problema clásico, una vez resueltas las ecuaciones del movimiento se puede siempre
expresar p como función de x y t, pero no podemos hacer lo mismo en el caso cuántico, pues el
principio de incerteza establece que p y x no se pueden conocer simultáneamente con exactitud.
Luego hay que encontrar otra forma de expresar el integrando en términos de x y t. La forma que
buscamos se puede inferir considerando el caso de una partícula libre, cuya función de onda (ec.
7.8) es4
donde el operador ˆ(,,) f x p t se obtiene reemplazando5 p por el operador −ix h ∂∂ / en la función f
x p t (,,) que especifica la variable dinámica f. Estos resultados muestran que la función de onda,
además de determinar la densidad de probabilidad y la corriente de probabilidad como ya vimos,
contiene mucha más información, pues por medio de la (7.48) nos permite calcular el valor
esperado de cualquier variable dinámica. En realidad, la función de onda contiene toda la
información que podemos llegar a obtener acerca de la partícula, habida cuenta del principio de
incerteza.
QUIMICQ
la química teórica es de hecho física. la parte más profunda de la química teórica debe terminar en
la mecánica cuántica.
La mecánica estadística es entonces la ciencia de los fenómenos del calor. La química inorgánica,
como ciencia, está ahora reducida esencialmente a lo que se denominan química física y química
cuántica.
los principales problemas de la química orgánica no radican en estos aspectos, sino más bien en el
análisis y la síntesis de las sustancias que se forman en sistemas biológicos, en seres vivos. Esto
conduce imperceptiblemente, paso a paso, hacia la bioquímica, y luego a la propia biología, o la
biología molecular.

GRAVEDAD Y RELATIVIDAD
ley de la gravitación de Einstein. Una característica de esta nueva ley que es bastante fácil de
entender es la siguiente: en la teoría de la relatividad de Einstein, cualquier cosa que tenga energía
tiene masa; masa en el sentido de que es atraída gravitatoriamente.
Todavía no se ha encontrado ninguna de estas fuerzas nucleares o eléctricas que explique la
gravitación. Los aspectos mecanocuánticos de la naturaleza no han sido todavía trasladados a la
gravitación. Cuando la escala es tan pequeña que necesitamos los efectos cuánticos, los efectos
gravitatorios son tan débiles que la necesidad de una teoría cuántica de la gravitación no se ha
desarrollado todavía.
MECANICA CUANTICA

El comportamiento cuántico de los objetos atómicos (electrones, protones, neutrones, fotones y


demás) es el mismo para todos; todos son «partículas-ondas», o como quiera que ustedes
prefieran llamarlos. Así que lo que aprendamos sobre las propiedades de los electrones (que
utilizaremos como ejemplos) se aplicará también a todas las «partículas», incluyendo los fotones
de la luz.
Schrödinger, Heisenberg y Born. Estos obtuvieron finalmente una descripción consistente
comportamiento de la materia a pequeña escala.

DERIVADA
la derivada de una función mide la rapidez con la que cambia el valor de dicha función
matemática, según cambie el valor de su variable independiente.
la diferenciación manifiesta el coeficiente en que una cantidad cambia a consecuencia de un
cambio en otra cantidad
En física, coeficiente es una expresión numérica que mediante alguna fórmula determina las
características o propiedades de un cuerpo. Este coeficiente indicará lo rápido que crece o en su
defecto lo rápido que decrece una función en un punto respecto del eje de un plano cartesiano de
dos dimensiones
INTEGRAL
Las variaciones de una cantidad inciden en que otras cantidades cambien. Si se decide aumentar el
precio de un artículo la utilidad de la empresa ya no será la misma, probablemente la demanda
disminuya y la cantidad de materia solicitada cambiará. Si se aumenta la temperatura de un gas
contenido en un recipiente hermético la presión del gas sobre las paredes del recipiente aumenta.
Si aumentamos nuestro consumo diario de azucares probablemente aumente la insulina en sangre.
El cálculo diferencial trata del estudio del cambio de una cantidad cuando otra cantidad que está
relacionada con la primera varía.

Una manera de medir la relación entre los cambios de dos variables relacionadas es a través de la
tasa o razón de cambio promedio.
REGLAS DE DERIVACION
NUMERO ATOMICO