Sie sind auf Seite 1von 36

LOS INICIOS DE LA QUIMICA

Las primeras experiencias del hombre como químico se dieron con la utilización del fuego en la
transformación de la materia. Gran empeño fue dedicado a buscar una sustancia que
transformara un metal en oro, lo que llevo a la creación de la alquimia.
En su sentido más amplio, la química, estudia las diversas sustancias que existen en nuestro
planeta. Asimismo, las reacciones, que las transforman, en otras sustancias. Y por último, pero
no menos importante, sus propiedades.

DE LA ALQUIMIA A LA QUÍMICA

La aparición de la ciencia que llamamos "Química" requiere un proceso histórico más dilatado y
lento que otras ramas de la ciencia moderna, en sus primeros balbuceos meramente empíricos
los resultados no tengan otro carácter que el que denominamos "mágico": la magia como
conocimiento de la realidad que se oculta tras la apariencia de las cosas y como práctica que
permite actuar sobre ellas según nuestra voluntad.

ROBERT BOYLE, EL QUÍMICO ESCÉPTICO.

Robert Boyle (1627-1691) destruyó las teorías alquimistas y sentó algunas de las bases de la
Química Moderna con al publicación de su obra El químico escéptico en 1667. Y estableció el
concepto de elemento químico (sustancia inmutable e indestructible incapaz de
descomposición) y compuesto químico (combinación de elementos). Estudió también el
comportamiento de los gases; definió el ácido como la sustancia que puede hacer variar el color
de ciertos jugos vegetales; analizó sales por medio de reacciones de identificación, etc. Realizó
importantes experimentos sobre las propiedades de los gases, la calcinación de los metales y la
distinción entre ácidos y álcalis.

Lavoisier y el método científico

Lavoisier (1743-1794) Aplicó el método analítico cuantitativo. Determinó las propiedades del


oxígeno y dio una explicación al fenómeno de la combustión, desplazando al hipótesis flogista;
a partir de ahí fue posible generalizar la idea de óxido, ácido y sal, y de esta manera sistematizar
los conocimientos de la época y establecer la nomenclatura de al Química Moderna. Formuló la
ley de la conservación de la materia.

La Química se sistematiza: la Tabla Periódica

Dmitri Ivanovich Mendeleev (1834–1907)

La semejanza de las propiedades físicas y químicas de ciertos elementos sugirió a los científicos
del siglo XIX la posibilidad de ordenarlos sistemáticamente o agruparlos de a acuerdo con
determinado criterio.

En el año 1869, el genial químico ruso Dimitri Mendeleiev se propuso hallar una “ley de la
naturaleza”, válida para toda clasificación sistemática de los elementos. Clasificó todos los
elementos conocidos en su época en orden creciente de sus pesos atómicos, estableciendo una
relación entre ellos y sus propiedades químicas.
Lothar Meyer propuso una clasificación de los elementos relacionando los pesos atómicos

Mendeleiev no consideró el hidrogeno porque sus propiedades no coincidían con las de otros
elementos. Tampoco figuran en ella los gases nobles, porque no habían sido descubiertos aun.
Mendeleiev puede ser enunciada del siguiente modo: los elementos están reunidos en grupos y
períodos.

QUIMICA MODERNA, ENTRE LA RADIACTIVIDAD Y LOS ENLACES QUÍMICOS.

Linus Pauling (1901-1994), premio Nóbel de Química en 1954 y de la Paz en 1964.

Antoine Henry Becquerel, estudiando la fluorescencia, descubrió que algunas sustancias emiten
espontáneamente, sin estimulación previa, y de manera continua, radiación
Hoy sabemos que esa radiación incluye rayos gamma y dos tipos de partículas que salen a gran
velocidad: a y b. Las radiaciones gamma son ondas electromagnéticas (más energéticas que los
rayos X).

Linus Carl Pauling fue uno de los primeros químicos cuánticos, y recibió el Premio Nobel de
Química en 1954, por su trabajo en el que describía la naturaleza de los enlaces químicos.

TEORIA ATOMICA DE DALTON

La teoría atómico-molecular clásica tiene por base la teoría atómica de Dalton.


Existe entre estas dos teorías algunas diferencias fundamentales.

En realidad, los "átomos" de Dalton, son las partículas que nosotros llamamos moléculas
Los siguientes postulados, son los que constituyen la teoría atómico-molecular clásica:

1 - Toda la materia es discreta y esta formada por partículas pequeñas, definidas e


indestructibles denominadas átomos, que son indivisibles por los métodos químicos
ordinarios,

2 - Los átomos de un mismo elemento son iguales y tienen las mismas propiedades; los
átomos de elementos distintos son diferentes y tienen propiedades también diferentes

3 - Las moléculas se forman por la unión de un numero entero de átomos del mismo o de


distintos elementos, en relacionesnuméricas simples. (1:1; 2:1; 3:2; etc. )

 4 - Las sustancias simples y compuestas estan constituidas por moleculas.


 5 - Las moleculas de una misma sustancia son iguales en todos sus aspectos y distintas a
las de otras sustancias,

6 – Las moleculas de las sustancias simples estan formadas por atomos iguales (del


mismo elemento). Cuando el numero deatomos que forma la molecula de una sustancia
simple es uno, la molecula de esta sustancia se identifica con el atomo del elemento
correspondiente.

7 - Las moleculas de las sustancias compuestas estan formadas por atomos de por lo


menos dos elementos diferentes. El numero de atomos de cada elemento que interviene en
la formacion de una molecula de una misma sustancia compuesta, es el mismo para todas
las moleculas de la misma sustancia.

El Tubo de Crookes 

Es un cono de vidrio con 1 ánodo y 2 cátodos. Es una invención pero mas en parte una
innovacion del científico William Crookes en el siglo XIX, y es una versión más evolucionada
del desarrollo del Tubo de Geissler.
Descripción y utilización

Consiste en un tubo de vacío por el cual circulan una serie de gases, que al aplicarles
electricidad adquieren fluorescencia, de ahí que sean llamados fluorescentes.

Crookes dedujo que dicha fluorescencia se debe a rayos catódicos, que consisten
en electrones en movimiento, y, por tanto, también descubrió la presencia de electrones en los
átomos.
La Cruz de Malta

Crookes para comprobar la penetrabilidad de rayos catódicos, debe realizar un tercer tubo, el
cual llama la cruz de Malta, ya que entre el cátodo y el ánodo está localizado un tercer
elemento, una cruz hecha de Zinc, un elemento muy duro.

El experimento consistía en que el rayo se estrellaba contra la cruz y la rodeaba, para


posteriormente generar una sombra al final del tubo

Una pantalla metálica con forma de cruz de Malta, se dispone de modo que intercepte el haz de
los rayos catódicos.
Mejoras e innovaciones

El reemplazo de la máscara de sombra con un cilindro enfocador del rayo creó el  cañón de
electrones, que permitió la creación de un área de iluminación.

De esta forma, el tubo fue eventualmente desarrollado como el display del osciloscopio (un


artefacto de diagnóstico y visualización de uso en electrónica). También se observó que la
aplicación de alto voltaje (por ejemplo, 25.000 voltios) al ánodo en un tubo de alto vacío
produciría rayos X. Tubos especializados fueron desarrollados, que reemplazaron el fósforo con
un objetivo de metal y que enfocaban el rayo en una pequeña área para ayudar en la obtención
de una fuente puntual de los rayos -esto produciría entonces una imagen nítida del material
interviniente en el rollo-

Experimento de Millikan

Instalación de Millikan para el experimento de la gota de aceite.

El experimento de la gota de aceite fue un experimento realizado por Robert


Millikan y Harvey Fletcher en 1909 para medir la carga elemental (la carga del electrón).

El experimento implicaba equilibrar la fuerza gravitatoria hacia abajo con la flotabilidad hacia


arriba y las fuerzas eléctricas en las minúsculas gotas de aceite cargadas suspendidas entre
dos electrodosmetálicos, Millikan y Fletcher pudieron determinar la carga en las gotas de aceite
enequilibrio mecánico. Repitiendo el experimento para muchas gotas, confirmaron que las
cargas eran todas múltiplos de un valor fundamental, y calcularon que es 1,5924|(17).10 -19 C,
dentro de un uno por ciento de error del valor actualmente aceptado de 1,602176487|(40).10 -
19
 C. Propusieron que esta era la carga de un único electrón.
Procedimiento experimental

Aparato
Esquema simplificado del experimento de la gota de aceite de Millikan.

El aparato de Robert Millikan incorpora un par de placas metálicas paralelas horizontales. Al


aplicar una diferencia de potencial entre las placas, se crea un campo eléctrico uniforme en el
espacio entre ellas. Se utilizó un anillo de material aislante para mantener las placas separadas.
Cuatro agujeros se cortaron en el anillo, tres para la iluminación con una luz brillante, y otra
para permitir la visualización a través de un microscopio.

Una fina niebla de gotas de aceite se roció a una cámara por encima de las placas. El aceite era
de un tipo utilizado normalmente en aparatos de vacío 

Algunas gotas de aceite se cargaban eléctricamente a través de la fricción con la boquilla


cuando fueron rociadas

Las gotas entraban en el espacio entre las placas y, debido a que estaban cargadas se podía
hacerlas subir y bajar al cambiar el voltaje a través de las placas.
Modelo atómico de Thomson

Representación esquemática del modelo de Thomson.

El modelo atómico de Thomson, es una teoría sobre la estructura atómica propuesta en 1904


por Joseph John Thomson. En dicho modelo, el átomo está compuesto por electrones de carga
negativa en un átomo positivo, como un pudin de pasas.2 Se pensaba que los electrones se
distribuían uniformemente alrededor del átomo. En otras ocasiones, en lugar de una sopa de
carga negativa se postulaba con una nube de carga positiva

El modelo atómico de Thomson es un modelo actual como consecuencia de la elasticidad de


los electrones en el coseno de la citada estructura.
Radiactividad

Diagrama de Segrè. El color indica el periodo de semidesintegración de los isótopos radiactivos


conocidos, también llamado semivida.

La radiactividad (con frecuencia mal llamada radioactividad) ioniza el medio que atraviesa.


Una excepción lo constituye el neutrón, que no posee carga, pero ioniza la materia en forma
indirecta. En las desintegraciones radiactivas se tienen varios tipos de
radiación: alfa, beta, gamma y neutrones.

La radiactividad puede considerarse un fenómeno físico natural por el cual algunos cuerpos
o elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de
impresionar placas fotográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos
a la luz ordinaria, etc

La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se


mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar
su estado fundamental, deben perder energía

La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina


(radioterapia yradiodiagnóstico) y en aplicaciones industriales (medidas de espesores y
densidades, entre otras).

La radiactividad puede ser:

 Natural: manifestada por los isótopos que se encuentran en la naturaleza.


 Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones
artificiales.
Radiactividad natural

En 1896 Henri Becquerel descubrió que ciertas sales de uranio emiten radiaciones


espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro. Hizo
ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad de la
misteriosa radiación era siempre la misma.

El estudio del nuevo fenómeno y su desarrollo posterior se debe casi exclusivamente al


matrimonio de Marie y Pierre Curie, quienes encontraron otras sustancias radiactivas: el torio,
el polonio y el radio.

Marie Curie dedujo que la radiactividad es una propiedad atómica. El fenómeno de la


radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Se cree que se
origina debido a la interacción neutrón-protón

Las radiaciones emitidas por las sales de uranio pueden ionizar el aire y producir la descarga de
cuerpos cargados eléctricamente.

Radiactividad artificial

La radiactividad artificial, también llamada radiactividad inducida, se produce cuando se


bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas partículas
tiene un valor adecuado, penetran el núcleo bombardeado y forman un nuevo núcleo que, en
caso de ser inestable, se desintegra después radiactivamente

Clases y componentes de la radiación


Las partículas alfa (núcleos de helio) se detienen al interponer una hoja de papel. Las partículas
beta (electrones y positrones) no pueden atravesar una capa de aluminio. Sin embargo, los rayos
gamma (fotones de alta energía) necesitan una barrera mucho más gruesa, y los más energéticos
pueden atravesar el plomo.

Se comprobó que la radiación puede ser de tres clases diferentes, conocidas


como partículas,desintegraciones y radiación:

1. Partícula alfa: Son flujos de partículas cargadas positivamente compuestas por dos
neutrones y dos protones (núcleos de helio). Son desviadas por campos eléctricos y
magnéticos. Son poco penetrantes, aunque muy ionizantes. Son muy energéticas.
2. Desintegración beta: Son flujos de electrones (beta negativas) o positrones (beta
positivas) resultantes de la desintegración de los neutrones o protones del núcleo
cuando éste se encuentra en un estado excitado. Es desviada por campos magnéticos.
3. Radiación gamma: Se trata de ondas electromagnéticas. Es el tipo más penetrante de
radiación y se necesitan capas muy gruesas de plomo u hormigón para detenerlas. Este
tipo de emisión acompaña a las radiaciones alfa y beta.

Las leyes de desintegración radiactiva, descritas por Frederick Soddy y Kasimir Fajans, son:

 Cuando un átomo radiactivo emite una partícula alfa, la masa del átomo (A) resultante
disminuye en 4 unidades y el número atómico (Z) en 2.
 Cuando un átomo radiactivo emite una partícula beta, el número atómico (Z) aumenta o
disminuye en una unidad y la masa atómica (A) se mantiene constante.
 Cuando un núcleo excitado emite radiación gamma, no varía ni su masa ni su número
atómico: sólo pierde una cantidad de energía hν (donde "h" es laconstante de Planck y "ν"
es la frecuencia de la radiación emitida).

Causa de la radiactividad

En general son radiactivas las sustancias que no presentan un balance correcto


entre protones o neutrones, tal como muestra el gráfico al inicio del artículo.

 Radiación α, que aligera los núcleos atómicos en 4 unidades másicas, y cambia el


número atómico en dos unidades.
 Radiación β, que no cambia la masa del núcleo, ya que implica la conversión de un
protón en un neutrón o viceversa, y cambia el número atómico en una sola unidad (positiva
o negativa, según si la partícula emitida es un electrón o un positrón).
Símbolo

Símbolo utilizado tradicionalmente para indicar la presencia de radiactividad.

Nuevo símbolo de advertencia de radiactividad adoptado por la ISO en 2007 para fuentes que
puedan resultar peligrosas. Estandard ISO #21482.

El 15 de marzo de 1994, la Agencia Internacional de la Energía Atómica (AIEA) dio a conocer


un nuevo símbolo de advertencia de radiactividad con validez internacional. La imagen fue
probada en 11 países.

Contador Geiger

Un contador Geiger es un instrumento que permite medir la radiactividad de un objeto o lugar.


Cuando una partícula radiactiva se introduce en un contador Geiger, produce un breve impulso
de corriente eléctrica.

Periodo de semidesintegración radiactiva

La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:

N(t) = N0e − λt,

donde:

 N(t) es el número de radionúclidos existentes en un instante de tiempo t.


 N0 es el número de radionúclidos existentes en el instante inicial t = 0.
 λ, llamada constante de desintegración radiactiva, es la probabilidad de desintegración
por unidad de tiempo.

Ejemplos:

Isótopo Periodo Emisión


Uranio-238 4510 millones de años Alfa

Carbono-
5730 años Beta
14

Cobalto-60 5,271 años Gamma

Radón-222 3,82 días Alfa

Velocidad de desintegración

La velocidad de desintegración o actividad radiactiva se mide en Bq, en el SI. Un becquerel vale


1 desintegración por segundo. También existen otras unidades: elrutherford, que equivale a
106 desintegraciones por segundo, o el curio, Ci, que equivale idénticamente a
3,7·1010 desintegraciones por segundo (unidad basada en la actividad de 1 g de 226Ra que es
cercana a esa cantidad).

La velocidad de desintegración es la tasa de variación del número de núcleos radiactivos por


unidad de tiempo:

Dada la ley de desintegración radiactiva que sigue N(t) (ver Periodo de demidesintegración), es


evidente que:

donde:

  es la actividad radiactiva en el instante  .


  es la actividad radiactiva inicial (cuando  ).
  es la base de los logaritmos neperianos.
  es el tiempo transcurrido.
  es la constante de desintegración radiactiva propia de cada radioisótopo.

La actividad también puede expresarse en términos del número de núcleos a partir de su propia
definición. En efecto:
Ley de la radiosensibilidad

La ley de la radiosensibilidad (también conocida como ley de Bergonié y Tribondeau, postulada


en 1906) dice que los tejidos y órganos más sensibles a las radiaciones son los menos
diferenciados y los que exhiben alta actividad reproductiva.

Como ejemplo, tenemos:

1. Tejidos altamente radiosensibles: epitelio intestinal, órganos reproductivos (ovarios,


testículos), médula ósea, glándula tiroides.
2. Tejidos medianamente radiosensibles: tejido conectivo.
3. Tejidos poco radiosensibles: neuronas, hueso.
Riesgos para la salud

El riesgo para la salud no sólo depende de la intensidad de la radiación y de la duración de la


exposición, sino también del tipo de tejido afectado y de su capacidad de absorción. Por
ejemplo, los órganos reproductores son 20 veces más sensibles que la piel.

Dosis aceptable de irradiación

Hasta cierto punto, las radiaciones naturales (emitidas por el medio ambiente) son inofensivas.
El promedio de tasa de dosis equivalente medida a nivel del mar es de 0,00012 mSv/h (0,012
mrem/h).

La dosis efectiva (suma de las dosis recibida desde el exterior del cuerpo y desde su interior)
que se considera que empieza a producir efectos en el organismo de forma detectable es de 100
mSv (10 rem) en un periodo de 1 año.1

Zona Dosis

Zona gris o azul de 0,0025 a 0,0075 mSv/h

Zona verde de 0,0075 a 0,025 mSv/h

Zona amarilla de 0,025 a 1 mSv/h

Zona naranja de 1 a 100 mSv/h


Zona roja > 100 mSv/h

Dosis efectiva permitida

La dosis efectiva es la suma ponderada de dosis equivalentes en los tejidos y órganos del cuerpo
procedentes de irradiaciones internas y externas. En la Unión Europea, la Directiva
96/29/EURATOM limita la dosis efectiva para trabajadores expuestos a 100 mSv durante un
período de cinco años consecutivos, con una dosis efectiva máxima de 50 mSv en cualquier año,
y existen otros límites concretos de dosis equivalentes en determinadas zonas del cuerpo, como
el cristalino, la piel o las extremidades, además de límites concretos para mujeres embarazadas
o lactantes. Para la población general, el límite de dosis efectiva es de 1 mSv por año, aunque en
circunstancias especiales puede permitirse un valor de dosis efectiva más elevado en un único
año, siempre que no se sobrepasen 5 mSv en cinco años consecutivos. 2

En el caso de intervenciones (emergencias radiológicas), sin embargo, estos límites no son


aplicables. En su lugar se recomienda que, cuando puedan planificarse las acciones, se utilicen
niveles de referencia. En estos casos, las actuaciones comienzan cuando la dosis al público
puede superar los 10 mSv en dos días (permanencia en edificios).

Ejemplos de isótopos radiactivos naturales

 Uranio 235U y 238U
 Torio 234Th y 232Th
 Tritio 3H
 Radón 222Rn
 Polonio 210Po
Ejemplos de isótopos radiactivos artificiales

 Plutonio 239Pu y 241Pu
 Cesio 134Cs, 135Cs y 137Cs
 Yodo 129I, 131I y 133I
 Antimonio 125Sb
 Rutenio 106Ru
 Estroncio 90Sr
 Criptón 85Kr y 89Kr
Rayos X

Radiografía tomada por Wilhelm Röntgen en 1896.

La denominación rayos X designa a una radiación electromagnética, invisible, capaz de


atravesar cuerpos opacos y de imprimir las películas fotográficas. La longitud de onda está entre
10 a 0,1 nanómetros, correspondiendo a frecuencias en el rango de 30 a 3.000 PHz (de 50 a
5.000 veces la frecuencia de la luz visible).

Definición

Los rayos X son una radiación electromagnética de la misma naturaleza que las ondas de radio,
las ondas demicroondas, los rayos infrarrojos, la luz visible, los rayos ultravioleta y los rayos
gamma.

La historia de los rayos X comienza con los experimentos del científico británico William
Crookes, que investigó en el siglo XIX los efectos de ciertos gases al aplicarles descargas de
energía. Estos experimentos se desarrollaban en un tubo vacío, y electrodos para generar
corrientes de alto voltaje. Él lo llamó tubo de Crookes.

Nikola Tesla, en 1887, comenzó a estudiar este efecto creado por medio de los tubos de
Crookes. Una de las consecuencias de su investigación fue advertir a la comunidad científica el
peligro para los organismos biológicos que supone la exposición a estas radiaciones.

Pero hasta el 8 de noviembre de 1895 no se descubrieron los rayos X; el físico Wilhelm Conrad


Röntgen, realizó experimentos con los tubos de Hittorff-Crookes (o simplemente tubo de
Crookes) y la bobina de Ruhmkorff. Analizaba los rayos catódicos para evitar
la fluorescencia violeta que producían los rayos catódicos en las paredes de un vidrio del tubo.
Para ello, crea un ambiente de oscuridad, y cubre el tubo con una funda de cartón negro. Al
conectar su equipo por última vez, llegada la noche, se sorprendió al ver un débil resplandor
amarillo-verdoso a lo lejos: sobre un banco próximo había un pequeño cartón con una solución
de cristales de platino-cianuro de bario, en el que observó un oscurecimiento al apagar el tubo.
Al encender de nuevo el tubo, el resplandor se producía nuevamente. Retiró más lejos la
solución de cristales y comprobó que la fluorescencia se seguía produciendo, así repitió el
experimento y determinó que los rayos creaban unaradiación muy penetrante, pero invisible.
Observó que los rayos atravesaban grandes capas de papel e incluso metales menos densos que
el plomo.

En las siete semanas siguientes, estudió con gran rigor las características propiedades de estos
nuevos y desconocidos rayos. Pensó en fotografíar este fenómeno y entonces fue cuando hizo
un nuevo descubrimiento: las placas fotográficas que tenía en su caja estaban veladas. Intuyó la
acción de estos rayos sobre la emulsión fotográfica y se dedicó a comprobarlo. Colocó una caja
de madera con unas pesas sobre una placa fotográfica y el resultado fue sorprendente. El rayo
atravesaba la madera e impresionaba la imagen de las pesas en la fotografía.

El 22 de diciembre, un día memorable, se decide a practicar la primera prueba con humanos.


Puesto que no podía manejar al mismo tiempo su carrete, la placa fotográfica de cristal y
exponer su propia mano a los rayos, le pidió a su esposa que colocase la mano sobre la placa
durante quince minutos. Al revelar la placa de cristal, apareció una imagen histórica en la
ciencia. Los huesos de la mano de Berta, con el anillo flotando sobre estos: la primera imagen
radiográfica del cuerpo humano. Así nace una rama de la Medicina: la Radiología.

El descubridor de estos tipos de rayos tuvo también la idea del nombre. Los llamó "rayos
incógnita", o lo que es lo mismo: "rayos X" porque no sabía que eran, ni cómo eran provocados.

Producción de rayos X

Los rayos X son productos de la desaceleración rápida de electrones muy energéticos (del orden
1000eV) al chocar con un blanco metálicoLa producción de rayos X se da en un tubo de rayos
X que puede variar dependiendo de la fuente de electrones y puede ser de dos clases: tubos con
filamento o tubos con gas.

El tubo con filamento es un tubo de vidrio al vacío en el cual se encuentran dos electrodos en
sus extremos.
Esquema de un tubo de rayos catódicos y rayos X

El tubo con gas se encuentra a una presión de aproximadamente 0.01 mmHg y es controlada


mediante una válvula; posee un cátodo de aluminio cóncavo, el cual permite enfocar los
electrones y un ánodo.

Los sistemas de detección más usuales son las películas fotográficas y los dispositivos de
ionización.

La emulsión de las películas fotográficas varía dependiendo de la longitud de onda a la cual se


quiera exponer

Los dispositivos de ionización miden la cantidad de ionización de un gas producto de la


interacción con rayos X. En una cámara de ionización, los iones negativos son atraídos hacia el
ánodo y los iones positivos hacia el cátodo, generando corriente en un circuito externo. La
relación entre la cantidad de corriente producida y la intensidad de la radiación son
proporcionales, así que se puede realizar una estimación de la cantidad de fotones de rayos X
por unidad de tiempo.

Espectros

Espectro continuo

El tubo de rayos X está constituido por dos electrodos (cátodo y ánodo), una fuente de
electrones (cátodo caliente) y un blanco.

La energía adquirida por los electrones va a estar determinada por el voltaje aplicado entre los
dos electrodos. Como la velocidad del electrón puede alcanzar velocidades de hasta (1 /
3)c debemos considerar efectos relativistas, de tal manera que,

Los diferentes electrones no chocan con el blanco de igual manera, así que este puede ceder su
energía en una o en varias colisiones, produciendo un espectro continuo.

La energía del fotón emitido, por conservación de la energía y tomando los postulados
de Planck es

hν = K − K'

donde K y K’ es la energía del electrón antes y después de la colisión respectivamente.

El punto de corte con el eje x de la gráfica de espectro continuo, es la longitud mínima que
alcanza un fotón al ser acelerado a un voltaje determinado. Esto se puede explicar desde el
punto de vista de que los electrones chocan y entregan toda su energía. La longitud de onda
mínima esta dada por λ = hc / eV,la energía total emitida por segundo, es proporcional al área
bajo la curva del espectro continuo, del número atómico (Z) del blanco y el número de
electrones por segundo (i). Así la intensidad esta dada por

I = AiZVm

donde A es la constante de proporcionalidad y m una constante alrededor de 2.

Espectro característico

Cuando los electrones que son acelerados en el tubo de rayos X poseen cierta energía crítica,
pueden pasar cerca de una subcapa interna de los átomos que componen el blanco. Debido a la
energía que recibe el electrón, este puede escapar del átomo, dejando al átomo en un estado
supremamente excitado. Eventualmente, el átomo regresará a su estado de equilibrio emitiendo
un conjunto de fotones de alta frecuencia, que corresponden al espectro de líneas de rayos X.

La intensidad de cualquier línea depende de la diferencia del voltaje aplicado (V) y el voltaje
necesario para la excitación (V’) a la correspondiente línea, y está dada por

I = Bi(V − V')N

donde n y B son constantes, e i es el número de electrones por unidad de tiempo.

Interacción de los rayos X con la materia

Cuando los rayos X interactúan con la materia, estos pueden ser en parte absorbidos y en parte
transmitidos. Esta característica es aprovechada en medicina al realizar radiografías.

La absorción de rayos X va a depender de la distancia que estos atraviesan y de su intensidad.


Esta dada por

Ix = Ioe( − μ / ρ)ρx

μ / ρ, es característico del material e independiente del estado físico. μ el coeficiente lineal de


absorción y ρ la densidad del material.

Si un material esta compuesto de diferentes elementos, el coeficiente de absorción másico μ /


ρ es aditivo, de tal manera que

donde w significa la fracción del elemento constituyente.

Riesgos a la salud

La manera en la que la radiación afecta a la salud depende del tamaño de la dosis de esta. La
exposición a las dosis bajas de rayos X a las que el ser humano se expone diariamente no son
perjudiciales. En cambio, sí se sabe que la exposición a cantidades masivas puede producir
daños graves. Por lo tanto, es aconsejable no exponerse a más radiación ionizante que la
necesaria.

La exposición a cantidades altas de rayos X puede producir efectos tales como quemaduras en la


piel, caída del cabello, defectos de nacimiento, cáncer, retraso mental y la muerte.

Aplicaciones

Médicas

Desde que Röntgen descubrió que los rayos X permiten captar estructuras óseas, se ha


desarrollado la tecnología necesaria para su uso en medicina. Laradiología es la especialidad
médica que emplea la radiografía como ayuda de diagnóstico, en la práctica, el uso más
extendido de los rayos X.

Otras

Los rayos X pueden ser utilizados para explorar la estructura de la materia cristalina mediante


experimentos de difracción de rayos X por ser su longitud de ondasimilar a la distancia entre
los átomos de la red cristalina. La difracción de rayos X es una de las herramientas más útiles en
el campo de la cristalografía.

También puede utilizarse para determinar defectos en componentes técnicos, como


tuberías, turbinas, motores, paredes, vigas, y en general casi cualquier elemento estructural.

Experimento de Rutherford

El experimento de Rutherford mejoró el modelo atómico de Thomson.


Arriba Resultados esperados: Las partículas alfa pasando a través del modelo del pudding con
pasas sin verse alteradas

Abajo: Resultados observados: Una pequeña parte de las partículas eran desviadas, demostrando
la existencia de un minúsculo volumen de carga positiva

El experimento de Rutherford, también llamado experimento de la lámina de oro, fue


realizado por Hans Geiger y Ernest Marsden en 1909, y publicado en 1911,1 bajo la dirección
de Ernest Rutherford en los Laboratorios de Física de la Universidad de Manchester.

El experimento consistió en mandar un haz de partículas alfa sobre una fina lámina de oro y
observar cómo dicha lámina afectaba a la trayectoria de dichos rayos.

Las partículas alfa se obtenían de la desintegración de una sustancia radiactiva, elpolonio.

La carga positiva y los electrones del átomo se encontraban dispersos de forma homogénea en


todo el volumen del átomo. Como las partículas alfa poseen una gran masa (8.000 veces mayor
que la del electrón) y gran velocidad (unos 20.000 km/s), la fuerzas eléctricas serían muy
débiles e insuficientes para conseguir desviar las partículas alfa.

 Además, para atravesar la lámina del metal, estas partículas se encontrarían con muchos
átomos, que irían compensando las desviaciones hacia diferentes direcciones.

Rutherford concluyó que el hecho de que la mayoría de las partículas atravesaran la hoja
metálica, indica que gran parte delátomo está vacío, que la desviación de las partículas alfa
indica que el deflector y las partículas poseen carga positiva, pues la desviación siempre es
dispersa. Y el rebote de las partículas alfa indica un encuentro directo con una zona fuertemente
positiva del átomo y a la vez muy densa.
Modelo atómico de Rutherford

Modelo de un átomo de Rutherford.

El modelo atómico de Rutherford es un modelo atómico o teoría sobre la estructura interna


del átomopropuesto por el químico y físico británico-neozelandés Ernest Rutherford para
explicar los resultados de su "experimento de la lámina de oro", realizado en 1911.

El modelo de Rutherford fue el primer modelo atómico que incorporó el hecho de que el átomo
estaba formado por dos partes: La corteza, que está constituida por todos los electrones que hay
en el átomo, girando a gran distancia alrededor del núcleo, y el núcleo:(es muy pequeño; en él
se encuentra toda la carga eléctrica positiva y casi toda la masa del átomo). Este modelo suponía
que el átomo, estaba formado por tres partículas: protones y neutrones, estos se encuentran en el
núcleo; y electrones (está en la corteza).

Introducción

Antes de la propuesta de Rutherford, los físicos aceptaban que las cargas eléctricas en el átomo
tenían una distribución más o menos uniforme. Rutherford trató de ver cómo era la dispersión
de las partículas alfa por parte de los átomos de una lámina de oro muy delgada.

Rutherford apreció que esta fracción de partículas rebotadas en dirección opuesta podía ser
explicada si se asumía que existían fuertes concentraciones de cargas positivas en el átomo.
La mecánica newtoniana en conjunción con la ley de Coulomb predice que el ángulo de
deflexión de una partícula alfa relativamente ligera, por parte de un átomo de oro más pesado
depende del parámetro de impacto o distancia a la que la partícula alfa pasaba del núcleo: 1

(1)

Donde:
, siendo   la constante dieléctrica del vacío y  , es la carga
eléctrica del centro dispersor.
, es la energía cinética inicial de la partícula alfa incidente.
 es el parámetro de impacto.

Se deduce que el parámetro de impacto debe ser bastante menor que el radio
atómico.

Importancia del modelo y limitaciones

La importancia del modelo de Rutherford residió en proponer por primera vez


la existencia de un núcleo en el átomo. Término que, paradójicamente, no
aparece en sus escritos. Lo que Rutherford consideró esencial, para explicar los
resultados experimentales, fue "una concentración de carga" en el centro del
átomo, ya que sin ella, no podía explicarse que algunas partículas fueran
rebotadas en dirección casi opuesta a la incidente.

Rutherford propuso que los electrones orbitarían en ese espacio vacío alrededor


de un minúsculo núcleo atómico, situado en el centro del átomo. Además se
abrían varios problemas nuevos que llevarían al descubrimiento de nuevos
hechos y teorías al tratar de explicarlos:

 Por un lado se planteó el problema de cómo un conjunto de cargas positivas


podían mantenerse unidas en un volumen tan pequeño.
 Por otro lado existía otra dificultad proveniente de
la electrodinámica clásica que predice que una partícula cargada y
acelerada.
Átomo

Es la unidad más pequeña de un elemento químico que mantiene su identidad o sus propiedades,


y que no es posible dividir mediante procesos químicos

El núcleo del átomo es su parte central. Tiene carga positiva, y en él se concentra casi toda la


masa del mismo. El núcleo está formado por protones y neutrones.

El núcleo atómico

El núcleo del átomo se encuentra formado por nucleones, los cuales pueden ser de dos clases:

 Protones: una partícula con carga eléctrica positiva igual a una carga elemental, y una
masa de 1,67262 × 10–27 kg.
 Neutrones: partículas carentes de carga eléctrica, y con una masa un poco mayor que la
del protón (1,67493 × 10–27 kg).

El núcleo más sencillo es el del hidrógeno, formado únicamente por un protón. El núcleo del
siguiente elemento en la tabla periódica, el helio, se encuentra formado por dos protones y dos
neutrones. La cantidad de protones contenidas en el núcleo del átomo se conoce como número
atómico, el cual se representa por la letra Z y se escribe en la parte inferior izquierda
del símbolo químico. Es el que distingue a un elemento químico de otro. Según lo descrito
anteriormente, el número atómico del hidrógeno es 1 ( 1H), y el del helio, 2 (2He).

La cantidad total de nucleones que contiene un átomo se conoce como número másico,


representado por la letra A y escrito en la parte superior izquierda del símbolo químico. Para los
ejemplos dados anteriormente, el número másico del hidrógeno es 1 ( 1H), y el del helio, 4 (4He).

Existen también átomos que tienen el mismo número atómico, pero diferente número másico,
los cuales se conocen como isótopos. Por ejemplo, existen tres isótopos naturales del hidrógeno,
el protio (1H), el deuterio (2H) y el tritio (3H). Todos poseen las mismas propiedades químicas
del hidrógeno, y pueden ser diferenciados únicamente por ciertas propiedades físicas.
Otros términos menos utilizados relacionados con la estructura nuclear son los isótonos, que son
átomos con el mismo número de neutrones. Los isóbaros son átomos que tienen el mismo
número másico.

Historia de la teoría atómica

El concepto de átomo existe desde la Antigua Grecia propuesto por los filósofos


griegos Demócrito, Leucipo y Epicuro, sin embargo, no se generó el concepto por medio de la
experimentación sino como una necesidad filosófica que explicara la realidad.En 1773 el
químico francés Antoine-Laurent de Lavoisier postuló su enunciado:"La materia no se crea ni
se destruye, simplemente se transforma."; demostrado más tarde por los experimentos del
químico inglés John Dalton quien en 1804, luego de medir la masa de los reactivos y productos
de una reacción, y concluyó que las sustancias están compuestas de átomos esféricos idénticos
para cada elemento, pero diferentes de un elemento a otro. 7

Luego en 1811 Amedeo Avogadro, físico italiano, postuló que a una temperatura, presión y
volumen dados, un gas contiene siempre el mismo número de partículas, sean átomos o
moléculas, independientemente de la naturaleza del gas, haciendo al mismo tiempo la hipótesis
de que los gases son moléculaspoliatómicas con lo que se comenzó a distinguir entre átomos y
moléculas.8

El químico ruso Dmítri Ivánovich Mendeléyev creó en 1869 una clasificación de los elementos


químicos en orden creciente de su masa atómica, remarcando que existía una periodicidad en las
propiedades químicas. Este trabajo fue el precursor de la tabla periódica de los elementos como
la conocemos actualmente.9

La visión moderna de su estructura interna tuvo que esperar hasta el experimento de


Rutherford en 1911 y el modelo atómico de Bohr. Posteriores descubrimientos científicos, como
la teoría cuántica, y avances tecnológicos, como el microscopio electrónico, han permitido
conocer con mayor detalle las propiedades físicas y químicas de los átomos. 10

Partículas Fundamentales:
Las partículas fundamentales de un átomo son los bloques constituyentes básicos de cualquier
átomo. El átomo, y por tanto toda la materia está formado principalmente por tres partículas
fundamentales: electrones, neutrones y protones. El conocimiento de la naturaleza y la forma en
que funcionan es fundamental para comprender las interacciones químicas.
La masa y las cargas de las tres partículas fundamentales se muestran en la siguiente tabla.

Partícula Masa (uma) Carga


(Escala Relativa)

Electrón (e-) 0.00054858 1-

Protón (p+) 1.0073 1+

Neutrón (nº) 1.0087 Ninguna

La masa del electrón es muy pequeña en comparación con la masa del protón o del neutrón. La
carga del protón es de magnitud igual pero de signo opuesto a la carga del electrón.
El Electrón:
El electrón, comúnmente representado como e− es una partícula subatómica. En un átomo los
electrones rodean el núcleo, compuesto de protones y neutrones. Los electrones tienen la carga
eléctrica más pequeña, y su movimiento genera corriente eléctrica. Dado que los electrones de
las capas más externas de un átomo definen las atracciones con otros átomos, estas partículas
juegan un papel primordial en la química.
Electrones en el Universo: Se cree que el número total de electrones que cabrían en
el universo conocido es del orden de 10130.
Electrones en la vida cotidiana: La corriente eléctrica que suministra energía a nuestros
hogares está originada por electrones en movimiento. El tubo de rayos catódicos de un televisor
se basa en un haz de electrones en el vacío desviado mediante campos magnéticos que impacta
en una pantalla fosforescente. Los semiconductores utilizados en dispositivos tales como
los transistores Más información en: Electricidad
Electrones en la industria: Los haces de electrones se utilizan en soldaduras.
Electrones en el laboratorio: El microscopio electrónico, que utiliza haces de electrones en
lugar de fotones, permite ampliar hasta 500.000 veces los objetos. Los efectos cuánticos del
electrón son la base del microscopio de efecto túnel, que permite estudiar la materia a escala
atómica.
El Protón:
Partícula nuclear con carga positiva igual en magnitud a la carga negativa del electrón; junto
con el neutrón, está presente en todos los núcleos atómicos. Al protón y al neutrón se les
denomina también nucleones. El núcleo del atómo de hidrógeno está formado por un único
protón. La masa de un protón es de 1,6726 × 10-27 kg, aproximadamente 1.836 veces la
del electrón. Por tanto, la masa de un átomo está concentrada casi exclusivamente en su núcleo.
El protón tiene un momento angular intrínseco, o espín, y por tanto un momento magnético. Por
otra parte, el protón cumple el principio de exclusión.

El antiprotón, la antipartícula del protón, se conoce también como protón negativo. Se


diferencia del protón en que su carga es negativa y en que no forma parte de los núcleos
atómicos. El antiprotón es estable en el vacío y no se desintegra espontáneamente. Sin embargo,
cuando un antiprotón colisiona con un protón, ambas partículas se transforman en mesones,
cuya vida media es extremadamente breve. Si bien la existencia de esta partícula elemental se
postuló por primera vez en la década de 1930, el antiprotón no se identificó hasta 1955, en el
Laboratorio de Radiación de la Universidad de California.
El Neutrón:
El Neutrón es una partícula eléctricamente neutra, de masa 1.838,4 veces mayor que la del
electrón y 1,00014 veces la del protón; juntamente con los protones, los neutrones son los
constitutivos fundamentales del núcleo atómico y se les considera como dos formas de una
misma partícula: el nucleón.
La existencia de los neutrones fue descubierta en 1932 por Chadwick; estudiando la radiación
emitida por el berilio bombardeado con partículas, demostró que estaba formada por partículas
neutras de gran poder de penetración, las cuales tenían una masa algo superior a la del protón.
El número de neutrones en un núcleo estable es constante, pero un neutrón libre, en decir, fuera
del núcleo, se desintegra con una vida media de unos 1000 segundos, dando lugar a un protón,
un electrón y un neutrino.

TEORIA CUÁNTICA DE PLANCK


Cuando un cuerpo es calentado emite radiación electromagnética en un amplio rango de
frecuencias.

El cuerpo negro (ideal) es aquel que además absorbe toda la radiación que llega a él sin
reflejarla, de tal forma que sólo emite la correspondiente a su temperatura.

A fines del siglo XIX fue posible medir la radiación de un cuerpo negro con mucha precisión.
La intensidad de esta radiación puede en principio ser calculada utilizando las leyes del
electromagnetismo. El problema de principios del siglo XX consistía en que si bien el espectro
teórico y los resultados experimentales coincidían para bajas frecuencias (infrarrojo), estos
diferían radicalmente a altas frecuencias. Este problema era conocido con el provocativo
nombre de “la catástrofe ultravioleta”, ya que la predicción teórica diverge a infinito en ese
límite.

Quien logró explicar este fenómeno fue Max Planck, en 1900, que debió para ello sacrificar los
conceptos básicos de la concepción ondulatoria de la radiación electromagnética.

Para resolver la catástrofe era necesario aceptar que la radiación no es emitida de manera
continua sino en cuantos de energía discreta, a los que llamamos fotones.

La energía de estos fotones es:

E (fotón) = h.ν

ν : Frecuencia de la radiación electromagnética (s -1)

h : constante de Planck

h = 6,62.10-27 erg.s
h = 6,62.10-34 J.s

Cuando la frecuencia de la radiación es baja el efecto de la discretización se vuelve despreciable


debido al minúsculo valor de la constante de Planck, y es perfectamente posible pensar al
sistema como continuo, tal como lo hace el electromagnetismo

clásico. Sin embargo, a frecuencias altas el efecto se vuelve notable.

En 1905, Einstein utilizaría el concepto de fotón para explicar otro fenómeno problemático en


el marco de la física clásica, la generación de una corriente eléctrica al aplicar luz
monocromática sobre un circuito formado por chapas metálicas, conocido como el efecto
fotoeléctrico. Einstein obtendría tiempo después el Premio Nobel por este importante hallazgo
teórico.

EFECTO FOTOELÉCTRICO.

Hertz estudiaba la descarga eléctrica entre dos electrodos. Esta descargaba se efectuaba mas
fácilmente si iluminaba uno de los electrodos. La luz más eficaz era la luz ultravioleta. A este
efecto se le llamó efecto Hertz o fotoeléctrico. Este efecto de interpretó como una emisión de
electrones que son arrancados de un metal gracias a la energía de la luz incidente. Una célula
fotoeléctrica consiste en una ampolla que para con una ventana que permite el paso de la luz en
el interior de la ampolla se ha hecho un vacío y se han colocado dos láminas metálicas (ánodo y
cátodo)

Cuando una luz incide sobre el cátodo, arranca electrones de esta superficie metálica a causa de
la batería del circuito. Los electrones son acelerados hacia el ánodo. El galvanómetro de detecta
una débil corriente

Interpretación de efecto fotoeléctrico. Los electrones no escapan espontáneamente de un metal,


están en un pozo de potencial (ligada al metal por una Ep (-). Para extraerlos hay que aportar al
electrón una energía mínima, llamada trabajo de extracción We.

INTERPRETACIÓN CUNTICA DEL EFECTO FOTOELÉCTRICO. 

La luz se comporta como si estuviera compuesta de corpúsculos o fotones y la E V se los cuales


están ligados pro E = hV. 2. El efecto fotoeléctrico se produce cuando un electrón interacciona
con un único fotón, pero solo cuando la E del fotón es suficiente par arrancarlo del metal.
(Dibujo 3).

EXPLICACIÓN: Solo los fotones de E > o igual q es trabajo de extracción de metal podrán
producir el efecto fotoeléctrico. Esto explica la existencia de una frecuencia mínima, Vo, de
acuerdo con la 1ª ley experimental si el fotón no tiene esa energía no hay efecto fotoeléctrico.
We = hVo.

Si disminuye la I de la iluminación , disminuye el número de fotones que llegan y por tanto el


número de electrones que pueden arrancar.

Si se da efecto fotoeléctrico el exceso de energía del fotón si el We se invierte en comunicarle


energía cinética al electrón. Para los electrones del último nivel esta energía cinética tiene un
valor máximo. Para estos electrones podemos escribir E fotón = We + Ec max.
Si Vo es la frecuencia límite, We = h Vo. hV = h Vo + Ec max. Entonces Ec max. = h (V - Vo).

RELACIÓN ENTRE FRECUENCIA Y FRECUENCIA DE CORTE

Si aplicamos una V< 0 (a la pila de la célula fotoeléctrica) los electrones van frenándose y solo
llegan al ánodo aquellos cuya energía cinética > eV. Si aplicamos un potencial negativo tal que
Ec max. = eVo (potencial de corte), ningún electrón será capaz de llegar al ánodo y cesará la
corriente eléctrica. Esto puede expresarse: Ec max = h (V-Vo) = eVo.

Según Eistein: Si la fórmula deducida es correcta la representación gráfica de Vo en función de


la V de la luz incidente es una recta, cuya pendiente no depende del metal emisor. Vo = h / e (V-
Vo) h / e ----> pendiente = ctante.

MODELO ATÓMICO DE BOHR

Un átomo tiene una dimensión del orden de 10 -9 m. Está compuesto por un núcleo relativamente
pesado (cuyas dimensiones son del orden de 10 -14 m) alrededor del cual se mueven los
electrones, cada uno de carga (–e) (e = 1,6 10-19 C), y de masa me (me  = 9,1·10-31 kg).
El núcleo está compuesto por protones y neutrones. El número Z de protones coincide con el
número de electrones en un átomo neutro. La masa de un protón o de un neutrón es
aproximadamente 1850 veces la de un electrón. En consecuencia, la masa de un átomo es
prácticamente igual a la del núcleo.
Sin embargo, los electrones de un átomo son los responsables de la mayoría de las propiedades
atómicas que se reflejan en las propiedades macroscópicas de la materia.
Consideremos dos electrones separados una distancia d, y comparemos la fuerza de repulsión
eléctrica con fuerza de atracción entre sus masas.

La intensidad de la interacción gravitatoria es despreciable frente a la


interacción electromagnética.

Modelo atómico de Bohr


El modelo de Bohr es muy simple y recuerda al modelo planetario de
Copérnico, los planetas describiendo órbitas circulares alrededor del Sol. El
electrón de un átomo o ión hidrogenoide describe también órbitas circulares,
pero los radios de estas órbitas no pueden tener cualquier valor.
Consideremos un átomo o ión con un solo electrón. El núcleo de carga Ze es
suficientemente pesado para considerarlo inmóvil,
 

Si el electrón describe una órbita circular de radio r, por la dinámica del movimiento circular
uniforme

En el modelo de Bohr, solamente están permitidas aquellas órbitas cuyo momento angular está
cuantizado.

n es un número entero que se denomina número cuántico, y h es


la constante de Planck 6,6256·10-34Js
Los radios de las órbitas permitidas son:
 

Donde a0 se denomina radio de Bohr. Entonces, a0 es el radio de la órbita del electrón del


átomo de Hidrógeno Z=1 en su estado fundamental n=1.

La energía total es:


 
En una órbita circular, la energía total E es la mitad de la energía potencial:

La energía del electrón aumenta con el número cuántico n.


La primera energía de excitación es la que lleva a un átomo de su estado fundamental a su
primer (o más bajo) estado excitado. La energía del estado fundamental se obtiene conn=1, E1 =
-13,6 eV y la del primer estado excitado con n=2, E2 = -3,4 eV. Las energías se suelen expresar
en electrón-voltios (1eV=1,6 10-19 J)
La frecuencia f de la radiación emitida cuando el electrón pasa del estado excitado E2 al
fundamental E1 es :

PRINCIPIO DE DUALIDAD ONDA-CORPÚSCULO

Posesión de propiedades tanto ondulatorias como corpusculares por parte de los objetos
subatómicos. El principio fundamental de la teoría cuántica es que una entidad que estamos
acostumbrados a considerar como una partícula (por ejemplo, un electrón, con un momento
lineal p) puede comportarse también como una onda, mientras que otras entidades que solemos
concebir como ondas (por ejemplo, la luz, con una longitud de onda ë) también pueden
describirse como corpúsculos (en este caso, fotones). La longitud de onda ë y el momento
lineal p de una entidad cuántica están relacionados por la ecuación pë = h, donde h es una
constante conocida como constante de Planck.

Esta dualidad onda-corpúsculo se aprecia especialmente bien en los experimentos de `doble


rendija', en los que un cañón de partículas dispara electrones o fotones (uno cada vez) a través
de un par de agujeros en una barrera, tras lo que son detectados en una pantalla situada al otro
lado. En ambos casos, lo que sale del cañón y lo que llega a la pantalla detectora son partículas,
y cada una marca un punto individual en la pantalla. No obstante, la figura global que se
acumula en la pantalla a medida que se disparan más y más corpúsculos a través de los dos
agujeros es un diagrama de interferencia formado por franjas claras y oscuras, que sólo pueden
explicarse como resultado de ondas que pasan por ambos agujeros de la barrera e interfieren
entre sí. Esto se expresa en el aforismo de que las entidades cuánticas “viajan como ondas pero
llegan como partículas”.

HIPOTESIS DE DE BROGLIE.

Dualitat onda-corpusculo. Podemos hablar de un comportamiento dual para la luz porque ciertos


fenómenos se describen adecuadamente mediante el modelo ondulatorio (interferencias,
difracción ) mientras que otros requieren un modelo corpúsculo (efecto fotoeléctrico) E=hV
(fotón) Cantidad de movimiento(m V)---> p= E/C = h/landa =hV / C. ( C= h V ).

De Brouglie basándose en el modelo atómico de Bohr en la presencia de números enteros en sus


leyes, consideró que era posible considerar esta dualidad que los electrones y por extensión de
todos los corpúsculos.

La hipótesis establece que cualquier partícula de cantidad de movimiento p lleva asociada una
onda definida por landa---> p= h /k .

BASES DE LA FÍSICA CUÁNTICA. La mecánica cuántica es la única de explicar el


comportamiento de la naturaleza a escala atómica o inferior.

MECANICA ONDULATORIA DE SCHRODINGER.: Queremos estudiar el comportamiento


de un electrón en un átomo. Schrodinger propone abandonar la idea clásica de considerar al
electrón como una partícula y aceptar el modelo dual, describiendo el electrón mediante una
expresión matemática similar a la de un movimiento ondulatorio. Función de onda.(formula 2).

Esto es simplemente la expresión de un nuevo modelo matemático E -Et del electrón Ep =Ep
del electrón.

Como la I de una onda es proporcional al cuadrado de su amplitud Born asoció a la función de


onda un carácter de función de probabilidad (FORMULA 3) con la probabilidad de encontrar el
electrón dentro de un elemento de volumen dv situado en el entorno del punto r.

Cuantización del átomo.(Formula 4) Al resolver la ecuación de schrodinger aparecen los tres


números cuánticos ( n, l m ), que caracterizan cada estado electrónico. Además solo existen
solución para determinados valores de la E, los previstos por Bohr.

En = E1 /n2 E1 = -13,6 eV (Ef del H).

La función de onda permite calcular la probabilidad de encontrar el electrón a una determinada


distancia del núcleo para cada estado cuántico (1s, 2s, ).

imagen ilustrativa de la dualidad onda-partícula, en el cual se puede


ver cómo un mismo fenómeno puede tener dos percepciones distintas.

Mecánica cuántica

La mecánica cuántica es una de las ramas principales de la física, y uno de los más grandes
avances del siglo XX para el conocimiento humano, que explica el comportamiento de
la materia y de la energía. Su aplicación ha hecho posible el descubrimiento y desarrollo de
muchas tecnologías, como por ejemplo los transistores que se usan más que nada en la
computación. La mecánica cuántica explica y revela la existencia del átomo y los misterios de
la estructura atómica tal cual hoy son entendidos.
La mecánica cuántica es la base de los estudios del átomo, los núcleos y las partículas
elementales (siendo ya necesario el tratamiento relativista), pero también en teoría de la
información, criptografía y química.

Las técnicas derivadas de la aplicación de la mecánica cuántica suponen, en mayor o menor


medida, el 30 por ciento del PIB de los Estados Unidos.

Ecuación de Schrödinger

La ecuación de Schrödinger fue desarrollada por el físico austríaco Erwin


Schrödinger en 1925. Describe la evolución temporal de una partícula masiva no relativista. Es
de importancia central en la teoría de la mecánica cuántica, donde representa para las partículas
microscópicas un papel análogo a la segunda ley de Newton en la mecánica clásica. Las
partículas microscópicas incluyen a las partículas elementales, tales como electrones, así como
sistemas de partículas, tales como núcleos atómicos.

Nacimiento de la ecuación

Contexto histórico

Al comienzo del siglo XX se había comprobado que la luz presentaba una dualidad onda
corpúsculo, es decir, la luz se podía manifestar según las circunstancias como partícula
(fotón en el efecto fotoeléctrico), o como onda electromagnética en la interferencia luminosa.
En 1923 Louis-Victor de Broglie propuso generalizar esta dualidad a todas las partículas
conocidas. Propuso la hipótesis, paradójica en su momento, de que a toda partícula clásica
microscópica se le puede asignar una onda, lo cual se comprobó experimentalmente
en 1927 cuando se observó la difracción de electrones. Por analogía con los fotones, De Broglie
asocia a cadapartícula libre con energía E y cantidad de movimiento p una frecuencia ν y una
longitud de onda λ:

La comprobación experimental hecha por Clinton Davisson y Lester Germer mostró que la


longitud de onda asociada a los electrones medida en la difracción según la fórmula de Bragg se
correspondía con la longitud de onda predicha por la fórmula de De Broglie.

Esa predicción llevó a Schrödinger a tratar de escribir una ecuación para la onda asociada de De
Broglie que para escalas macroscópicas se redujera a la ecuación de la mecánica clásica de la
partícula. La energía mecánica total clásica es:
El éxito de la ecuación, deducida de esta expresión utilizando el principio de correspondencia,
fue inmediato por la evaluación de los niveles cuantificados de energía del electrón en
el átomo de hidrógeno, pues ello permitía explicar el espectro de emisión del hidrógeno: series
de Lyman, Balmer, Bracket, Paschen,Pfund, etc.

La interpretación física correcta de la función de onda de Schrödinger fue dada


en 1926 por Max Born. En razón del carácter probabilista que se introducía, la mecánica
ondulatoria de Schrödinger suscitó inicialmente la desconfianza de algunos físicos de renombre
como Albert Einstein, para quien «Dios no juega a los dados».

La derivación histórica

El esquema conceptual utilizado por Schrödinger para derivar su ecuación reposa sobre una
analogía formal entre la óptica y la mecánica:

 En la óptica ondulatoria, la ecuación de propagación en un medio transparente de índice


real n variando lentamente a la escala de la longitud de onda conduce —mientras se busca
una solución monocromática donde la amplitud varía muy lentamente ante la fase— a una
ecuación aproximada denominada eikonal. Es la aproximación de la óptica geométrica, a la
cual está asociada el principio variacional de Fermat.
 En la formulación hamiltoniana de la mecánica clásica, existe una ecuación de
Hamilton-Jacobi (que en última instancia es equivalente a las leyes de Newton). Para una
partícula masiva no relativista sometida a una fuerza que deriva de una energía potencial, la
energía mecánica total es constante y la ecuación de Hamilton-Jacobi para la ”función
característica de Hamilton” se parece formalmente a la ecuación de la eikonal (el principio
variacional asociado es el principio de mínima acción.)
Interpretación estadística de la función de onda

A principios de la década de 1930 Max Born que había trabajado junto con Werner


Heisenberg y Pascual Jordan en una versión de la mecánica cuántica basada en el formalismo
matricial alternativa a la de Heisenberg apreció que la ecuación de Schrödinger compleja tiene
una integral de movimiento dada por ψ*(x)ψ(x) (= |ψ(x)| 2) que podía ser interpretada como
una densidad de probabilidad. Born le dio a la función de onda una interpretación probabilística
diferente de la que De Broglie y Schrödinger le habían dado, y por ese trabajo recibió el premio
Nobel en 1954. Born ya había apreciado en su trabajo mediante el formalismo matricial de la
mecánica cuántica que el conjunto de estados cuánticos llevaba de manera natural a
construir espacios de Hilbert para representar los estados físicos de un sistema cuántico.

De ese modo se abandonó el enfoque de la función de onda como una onda material, y pasó a
interpretarse de modo más abstracto como una amplitud de probabilidad. La ecuación de
Schrödinger da una descripción cuantitativa de la tasa de cambio en el vector estado.
Formulación moderna de la ecuación

En mecánica cuántica, el estado en el instante t de un sistema se describe por un


elemento   del espacio complejo de Hilbert — usando la notación bra-ket de Paul
Dirac.   representa las probabilidades de resultados de todas las medidas posibles de un
sistema.

La evolución temporal de   se describe por la ecuación de Schrödinger :

donde

 : es la unidad imaginaria ;
 : es la constante de Planck normalizada (h/2π) ;
 : es el hamiltoniano, dependiente del tiempo en general, el observable corresponde a
la energía total del sistema ;
 : es el observable posición ;

 : es el observable impulso.

Como con la fuerza en la segunda ley de Newton, su forma exacta no la da la ecuación de


Schrödinger, y ha de ser determinada independientemente, a partir de las propiedades físicas del
sistema cuántico.

Limitaciones de la ecuación

 La ecuación de Schrödinger es una ecuación no relativista que sólo puede describir


partículas cuyo momento lineal sea pequeño comparada con la energía en reposo dividida
de la velocidad de la luz.
 Además la ecuación de Schrödinger no incorpora el espín de las partículas
adecuadamente. Pauli generalizó ligeramente la ecuación de Schrödinger al introducir en
ella términos que predecían correctamente el efecto del espín, la ecuación resultante es
la ecuación de Pauli.
 Más tarde Dirac, proporcionó la ahora llamada ecuación de Dirac que no sólo
incorporaba el espín para fermiones de espín 1/2, sino que introducía los efectos relativistas.
Resolución de la ecuación

La ecuación de Schrödinger, al ser una ecuación vectorial, se puede reescribir de manera


equivalente en una base particular del espacio de estados. Si se elige por ejemplo la base   
correspondiente a la representación de posición definida por:
Entonces la función de onda   satisface la ecuación siguiente:

Donde   es el laplaciano.

De esta forma se ve que la ecuación de Schrödinger es una ecuación en derivadas parciales en la


que intervienen operadores lineales, lo cual permite escribir la solución genérica como suma de
soluciones particulares. La ecuación es en la gran mayoría de los casos demasiado complicada
para admitir una solución analítica de forma que su resolución se hace de manera aproximada
y/o numérica.

Búsqueda de los estados propios

Los operadores que aparecen en la ecuación de Schrödinger son operadores lineales; de lo que
se deduce que toda combinación lineal de soluciones es solución de la ecuación. Esto lleva a
favorecer la búsqueda de soluciones que tengan un gran interés teórico y práctico: a saber los
estados que son propios del operador hamiltoniano. Estos estados, denominados estados
estacionarios, son las soluciones de la ecuación de estados y valores propios,

denominada habitualmente ecuación de Schrödinger independiente del tiempo. El estado


propio   está asociado al valor propio En, escalar real que corresponde con la energía de la
partícula en dicho estado.

Los valores de la energía pueden ser discretos como las soluciones ligadas a un pozo de


potencial (por ejemplo nivel del átomo de hidrógeno); resultando unacuantificación de los
niveles de energía. Estas pueden corresponder también a un espectro continuo como las
soluciones libres de un pozo de potencial (por ejemplo un electrón que tenga la suficiente
energía para alejarse al infinito del núcleo de átomo de hidrógeno).

A menudo se obtiene que numerosos estados   corresponden a un mismo valor de la


energía: hablamos entonces de niveles de energía degenerados.

De manera general, la determinación de cada uno de los estados propios del


hamiltoniano,  , y de la energía asociada, da el estado estacionario correspondiente,
solución de la ecuación de Schrödinger :

Una solución de la ecuación de Schrödinger puede entonces escribirse generalmente como una
combinación lineal de tales estados:
Según los postulados de la mecánica cuántica,

 el escalar complejo cn,i es la amplitud del estado | ψ(t) > sobre el estado   ;


 el real Σi | cn,i | 2 es la probabilidad (en el caso de un espectro discreto) de encontrar la
energía En mientras se hace una medida de la energía sobre el sistema.
Rareza de una solución analítica exacta

La búsqueda de estados propios del hamiltoniano es en general compleja. Incluso en el caso


resoluble analíticamente del átomo de hidrógeno solo es rigurosamente resoluble de forma
simple si se descarta el acoplamiento con el campo electromagnético que permite el paso a los
estados excitados, soluciones de la ecuación de Schrödinger del átomo, desde el nivel
fundamental.

Algunos modelos simples, aunque no del todo conformes con la realidad, pueden ser resueltos
analíticamente y son muy útiles. Estas soluciones sirven para entender mejor la naturaleza de los
fenómenos cuánticos, y en ocasiones son una aproximación razonable al comportamiento de
sistemas más complejos (enmecánica estadística se aproximan las vibraciones moleculares
como osciladores armónicos). Ejemplos de modelos:

 La partícula libre (potencial nulo) ;


 La partícula en una caja
 Un haz de partícula incidiendo sobre una barrera de potencial
 La partícula en un anillo
 El átomo de hidrógeno (potencial de simetría esférica)
 La partícula en una red monodimensional (potencial periódico)

En los otros casos, hay que usar técnicas de aproximación :

 La teoría perturbacional da expresiones analíticas en la forma de desarrollos


asintóticos alrededor de un problema sin-perturbaciones que sea resoluble exactamente.
 Las soluciones de Hartree-Fock
 Los métodos cuánticos de Montecarlo

Límite clásico de la ecuación de Schrödinger

Inicialmente la ecuación de Schrödinger se consideró simplemente como la ecuación de


movimiento de un campo material que se propagaba en forma de onda. De hecho puede verse
que en el límite clásico, cuando   la ecuación de Schrödinger se reduce a la ecuación
clásica de movimiento en términos de acción oecuación de Hamilton-Jacobi. Para ver esto,
trabajaremos con la función de onda típica que satisfaga la ecuación de Schrödinger dependiente
del tiempo que tenga la forma:

Donde   es la fase de la onda si substituimos esta solución en la ecuación de


Schrödinger dependiente del tiempo después de un poco de álgebra llegamos a que:

(4)

Si se toma el límite   el segundo miembro desaparece y tenemos que la fase de la


función de onda coincide con la magnitud de acción y esta magnitud puede tomarse como real.
Igualmente puesto que la magnitud de acción es proporcional a la masa de una
partícula   puede verse que para partículas de masa grande el segundo miembro es
mucho más pequeño que el primero:

(5)

Y por tanto para partículas macroscópicas, dada la pequeñez de la constante de Planck, los
efectos cuánticos resumidos en el segundo miembro se anulan, lo cual explica porqué los
efectos cuánticos sólo son apreciables a escalas subatómicas.

De acuerdo con el principio de correspondencia las partículas clásicas de gran masa, comparada
con la escala cuántica, son partículas localizadas describibles mediante un paquete de
ondas altamente localizado que se desplaza por el espacio. La longitud de onda de las ondas que
conformaban dicho paquete material están en torno a la longitud de De Broglie para la partícula,
y la velocidad de grupo del paquete coincide con la velocidad del movimiento de la partícula lo
que reconcilia la naturaleza corpuscular observada en ciertos experimentos con la naturaleza
ondulatoria observada para partículas subatómicas.

Das könnte Ihnen auch gefallen