Sie sind auf Seite 1von 23

La radiación del cuerpo negro

El término radiación se refiere a la emisión continua de energía desde la superficie de


cualquier cuerpo, esta energía se denomina radiante y es transportada por las ondas
electromagnéticas que viajan en el vacío a la velocidad de 3·108 m/s . Las ondas de radio, las
radiaciones infrarrojas, la luz visible, la luz ultravioleta, los rayos X y los rayos gamma,
constituyen las distintas regiones del espectro electromagnético.
Propiedades de la superficie de un cuerpo
Sobre la superficie de un cuerpo incide constantemente energía radiante, tanto desde el
interior como desde el exterior, la que incide desde el exterior procede de los objetos que
rodean al cuerpo. Cuando la energía radiante incide sobre la superficie una parte se refleja y
la otra parte se transmite.
Consideremos la energía radiante que
incide desde el exterior sobre la
superficie del cuerpo. Si la superficie
es lisa y pulimentada, como la de un
espejo, la mayor parte de la energía
incidente se refleja, el resto atraviesa
la superficie del cuerpo y es
absorbido por sus átomos o
moléculas.
Si r es la proporción de energía
radiante que se refleja, y a la
proporción que se absorbe, se debe de
cumplir que r+a=1.
La misma proporción r de la energía
radiante que incide desde el interior
se refleja hacia dentro, y se transmite
la proporción a=1-r que se propaga
hacia afuera y se denomina por tanto,
energía radiante emitida por la
superficie.
En la figura, se muestra el
comportamiento de la superficie de un
cuerpo que refleja una pequeña parte
de la energía incidente. Las anchuras
de las distintas bandas corresponden a
cantidades relativas de energía
radiante incidente, reflejada y
transmitida a través de la superficie.

Comparando ambas figuras, vemos que un buen absorbedor de radiación es un buen emisor,
y un mal absorbedor es un mal emisor. También podemos decir, que un buen reflector es un
mal emisor, y un mal reflector es un buen emisor.
Una aplicación práctica está en los termos utilizados para mantener la temperatura de los
líquidos como el café. Un termo tiene dobles paredes de vidrio, habiéndose vaciado de aire
el espacio entre dichas paredes para evitar las pérdidas por conducción y convección. Para
reducir las pérdidas por radiación, se cubren las paredes con una lámina de plata que es
altamente reflectante y por tanto, mal emisor y mal absorbedor de radiación.
haga clic en esta liga para ver un video:

http://www.youtube.com/watch?v=4PV3HIx4sjQ

El cuerpo negro
La superficie de un cuerpo negro es
un caso límite, en el que toda la
energía incidente desde el exterior es
absorbida, y toda la energía incidente
desde el interior es emitida.

No existe en la naturaleza un cuerpo negro, incluso el negro de humo refleja el 1% de la


energía incidente.

Sin embargo, un cuerpo negro se


puede sustituir con gran
aproximación por una cavidad con
una pequeña abertura. La energía
radiante incidente a través de la
abertura, es absorbida por las paredes
en múltiples reflexiones y solamente
una mínima proporción escapa (se
refleja) a través de la abertura.
Podemos por tanto decir, que toda la
energía incidente es absorbida.

Efecto fotoeléctrico
Un diagrama ilustrando la emisión de los electrones de una placa metálica, requiriendo de la energía que es
absorbida de un fotón.
El efecto fotoeléctrico consiste en la emisión de electrones por un metal o fibra de carbono cuando
se hace incidir sobre él una radiación electromagnética (luz visible o ultravioleta, en general). A veces
se incluyen en el término otros tipos de interacción entre la luz y la materia:
 Fotoconductividad: es el aumento de la conductividad eléctrica de la materia o en diodos provocada
por la luz. Descubierta por Willoughby Smith en el selenio hacia la mitad del siglo XIX.

 Efecto fotovoltaico: transformación parcial de la energía luminosa en energía eléctrica. La primera


célula solar fue fabricada por Charles Fritts en 1884. Estaba formada por selenio recubierto de una fina capa
de oro.

El efecto fotoeléctrico fue descubierto y descrito por Heinrich Hertz en 1887, al observar que el arco
que salta entre dos electrodos conectados a alta tensión alcanza distancias mayores cuando se
ilumina con luz ultravioleta que cuando se deja en la oscuridad. La explicación teórica fue hecha
por Albert Einstein, quien publicó en 1905 el revolucionario artículo “Heurística de la generación y
conversión de la luz”, basando su formulación de la fotoelectricidad en una extensión del trabajo
sobre los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años
experimentando para demostrar que la teoría de Einstein no era correcta, para finalmente concluir
que sí lo era. Eso permitió que Einstein y Millikan fueran condecorados con premios Nobel en 1921
y 1923, respectivamente.
Se podría decir que el efecto fotoeléctrico es lo opuesto a los rayos X, ya que el efecto fotoeléctrico
indica que los fotones luminosos pueden transferir energía a los electrones. Los rayos X (no se sabía
la naturaleza de su radiación, de ahí la incógnita "X") son la transformación en un fotón de toda o
parte de la energía cinética de un electrón en movimiento. Esto se descubrió casualmente antes de
que se dieran a conocer los trabajos de Planck y Einstein (aunque no se comprendió entonces).

Leyes de la emisión fotoeléctrica


1. Para un metal y una frecuencia de radiación incidente dados, la cantidad de fotoelectrones
emitidos es directamente proporcional a la intensidad de luz incidente.

2. Para cada metal dado, existe una cierta frecuencia mínima de radiación incidente debajo de
la cual ningún fotoelectrón puede ser emitido. Esta frecuencia se llama frecuencia de corte, también
conocida como "Frecuencia Umbral".

3. Por encima de la frecuencia de corte, la energía cinética máxima del fotoelectrón emitido es
independiente de la intensidad de la luz incidente, pero depende de la frecuencia de la luz incidente.

4. La emisión del fotoelectrón se realiza instantáneamente, independientemente de la


intensidad de la luz incidente. Este hecho se contrapone a la teoría Clásica:la Física Clásica esperaría
que existiese un cierto retraso entre la absorción de energía y la emisión del electrón, inferior a un
nanosegundo.

Formulación matemática
Para analizar el efecto fotoeléctrico cuantitativamente utilizando el método derivado por Einstein es
necesario plantear las siguientes ecuaciones:
Energía de un fotón absorbido = Energía necesaria para liberar 1 electrón + energía cinética del
electrón emitido.
Algebraicamente:
,

haga clic en la siguiente para ver un video:


http://www.youtube.com/watch?v=8_iJaX49h2g

¿Qué son los rayos x ?

Los rayos x, son energía electromagnética invisible, la cual es utilizada, como una
manera para obtener o sacar imágenes internas de los tejidos, huesos y órganos de
nuestro cuerpo u organismo.
los rayos x, son utilizados para descubrir si una persona posee o no, algún tumor
cancerígeno.

La historia de los rayos x comienza con los experimentos del científico William
Crookes, en el siglo XIX, quien investigó los efectos de ciertos gases, en conjunto
con descargas de energía. Estos experimentos, se desarrollaban en un tubo que
contenía al vacío, y electrodos para que se generaran corrientes de alto voltaje. El
lo llamó tubo de Crookes. Pues bien, este tubo al estar cerca de placas fotográficas,
generaba en las mismas algunas imágenes ciertamente borrosas. Pero este físico
inglés, no continuó investigando mayormente este efecto.

Es así, como Nikola Telsa en 1887, comenzó a estudiar este efecto creado por medio de los tubos
de Crookes. Claro que tras su investigación, se dio cuenta de los peligros para los organismos
biológicos de estas radiaciones y alerto a la comunidad científica.
Pero no fue hasta 1895, que Wilhelm Conrado Röntgen, que es considerado quien
inventó los rayos x, documentando estos experimentos con tubos al vacío fue el
primero en llamar rayos x a la radiación emitida, por ser de tipo desconocida. Por
ello, este científico fue galardonado con el primer Premio Nobel de Física. Más
adelante en sus experimentos notó casualmente que esta radiación podía atravesar
objetos materiales y dejar impresiones de su paso a través de estos y por supuesto,
al pasar a través del cuerpo humano con sus huesos; se dió cuenta de esto al sujetar
con su mano objetos para la experimentación. En 1896 publicó su descubrimiento y
dio la primera demostración.

La denominación rayos X designa a una radiación electromagnética, invisible,


capaz de atravesar cuerpos opacos y de imprimir las películas fotográficas. Los
actuales sistemas digitales permiten la obtención y visualización de la imagen
radiográfica directamente en una computadora (ordenador) sin necesidad de
imprimirla. La longitud de onda está entre 10 a 0,01 nanómetros, correspondiendo
a frecuencias en el rango de 30 a 3.000 PHz (de 50 a 5.000 veces la frecuencia de
la luz visible)
haga clic en la siguiente liga para ver un video:
http://www.dailymotion.com/video/x6z4p5_rayos-x-el-descubrimiento_school

Modelo atómico de Bohr


El modelo atómico de Bohr o de Bohr-Rutherford es un modelo
clásico del átomo, pero fue el primer modelo atómico en el que se
introduce una cuantización a partir de ciertos postulados (ver abajo).
Fue propuesto en 1913 por el físico danés Niels Bohr, para explicar
cómo los electrones pueden tener órbitas estables alrededor
delnúcleo y por qué los átomos presentaban espectros de emisión
característicos (dos problemas que eran ignorados en el modelo previo
de Rutherford). Además el modelo de Bohr incorporaba ideas tomadas
del efecto fotoeléctrico, explicado por Albert Einstein en1905
Diagrama del modelo atómico de Bohr
Bohr se basó en el átomo de hidrógeno para hacer el modelo que lleva
su nombre. Bohr intentaba realizar un modelo atómico capaz de explicar
la estabilidad de la materia y los espectros de emisión y absorción
discretos que se observan en los gases. Describió elátomo de
hidrógeno con un protón en el núcleo, y girando a su alrededor un
electrón. El modelo atómico de Bohr partía conceptualmente del modelo
atómico de Rutherford y de las incipientes ideas sobre cuantización que
habían surgido unos años antes con las investigaciones de Max
Planck y Albert Einstein. Debido a su simplicidad el modelo de Bohr es
todavía utilizado frecuentemente como una simplificación de la
estructura de la materia.
En este modelo los electrones giran en órbitas circulares alrededor del
núcleo, ocupando la órbita de menor energía posible, o la órbita más
cercana posible al núcleo. El electromagnetismo clásico predecía que
una partícula cargada moviéndose de forma circular emitiría energía por
lo que los electrones deberían colapsar sobre el núcleo en breves
instantes de tiempo. Para superar este problema Bohr supuso que los
electrones solamente se podían mover en órbitas específicas, cada una
de las cuales caracterizada por su nivel energético. Cada órbita puede
entonces identificarse mediante un número entero n que toma valores
desde 1 en adelante. Este número "n" recibe el nombre de Número
Cuántico Principal.
Postulados de Bohr
En 1913, Niels Bohr desarrolló su célebre modelo atómico de
acuerdo a tres postulados fundamentales:[1]
Primer postulado
Los electrones describen órbitas circulares en torno al núcleo del átomo
sin radiar energía.
La causa de que el electrón no radie energía en su órbita es, de
momento, un postulado, ya que según la electrodinámica clásicauna
carga con un movimiento acelerado debe emitir energía en forma
de radiación.
Para conseguir el equilibrio en la órbita circular, las dos fuerzas que
siente el electrón: la fuerza coulombiana, atractiva, por la presencia del
núcleo y la fuerza centrífuga, repulsiva por tratarse de unsistema no
inercial, deben ser iguales en magnitud en toda la órbita. Esto nos da la
siguiente expresión:
Donde el primer término es la fuerza eléctrica o de Coulomb, y el
segundo es la fuerza centrífuga; k es la constante de la fuerza de
Coulomb, Z es el número atómico del átomo, e es lacarga del
electrón, es la masa del electrón, v es la velocidad del electrón en la
órbita y r el radio de la órbita.
En la expresión anterior podemos despejar el radio, obteniendo:
Y ahora con ésta ecuación y sabiendo que la energía total es la suma
de las energías cinética y potencial:
Donde queda expresada la energía de una órbita circular para el
electrón en función del radio de dicha órbita.

Segundo postulado
No todas las órbitas para electrón están permitidas, tan solo se puede
encontrar en órbitas cuyo radio cumpla que el momento angular, , del
electrón sea un múltiplo entero de Esta condición matemáticamente se
escribe:
con
A partir de ésta condición y de la expresión para el radio obtenida antes,
podemos eliminar y queda la condición de cuantización para los radios
permitidos:
con ; subíndice introducido en esta expresión para resaltar que el radio
ahora es una magnitud discreta, a diferencia de lo que decía el primer
postulado.
Ahora, dándole valores a , número cuántico principal, obtenemos los
radios de las órbitas permitidas. Al primero de ellos (con n=1), se le
llama radio de Bohr:
expresando el resultado en ångström.
Del mismo modo podemos ahora sustituir los radios permitidos en la
expresión para la energía de la órbita y obtener así la energía
correspondiente a cada nivel permitido:
Igual que antes, para el átomo de Hidrógeno (Z=1) y el primer nivel
permitido (n=1), obtenemos:
que es la llamada energía del estado fundamental del átomo de
Hidrógeno.
Y podemos expresar el resto de energías para cualquier Z y n como:
Tercer postulado
El electrón solo emite o absorbe energía en los saltos de una órbita
permitida a otra. En dicho cambio emite o absorbe un fotón cuya energía
es la diferencia de energía entre ambos niveles. Este fotón, según la ley
de Planck tiene una energía:
Donde identifica la órbita inicial y la final, y es la frecuencia.
Entonces las frecuecias de los fotones emitidos o absorbidos en la
transición serán:
A veces, en vez de la frecuencia se suele dar la inversa de la longitud
de onda:
Ésta última expresión fue muy bien recibida porque explicaba
teóricamente la fórmula fenomenológica hallada antes por Balmerpara
describir las líneas espectrales observadas desde finales delsiglo
XIX en la des excitación del Hidrógeno, que venían dadas por:
con , y donde es la constante de Rydberg para el hidrógeno. Y como
vemos, la expresión teórica para el caso , es la expresión predicha por
Balmer, y el valor medido experimentalmente de la constante de
Rydberg ( ), coincide con el valor de la fórmula teórica.
Se puede demostrar que este conjunto de hipótesis corresponde a la
hipótesis de que los electrones estables orbitando un átomo están
descritos por funciones de onda estacionarias. Un modelo atómico es
una representación que describe las partes que tiene un átomo y como
están dispuestas para formar un todo. Basándose en laconstante de
Planck consiguió cuan tizar las órbitas observando las líneas del
espectro.
haga clic en la siguiente liga para ver un video:
http://www.youtube.com/watch?v=3wMf9we2ThE

Propiedades ondulatorias de las partículas

En las interferencias luminosas producidas por dos rendijas paralelas,


aparecen
unos máximos de intensidad, separados por mínimos (rayas negras).
En la fig.12.18,
se muestra la imagen de interferencias recogido en una pantalla, y a la
derecha un
gráfico de la correspondiente intensidad luminosa.

Intensidad
Si ahora repetimos el experimento de las dos rendijas pero enviando
partículas
materiales macroscópicas, como por ejemplo granitos de arena, ¿qué
pasará?. El
diagrama que contiene la intensidad de impactos sobre una pantalla,
fig.12.19, será
la suma de los impactos debidos a las partículas que pasan por cada
una de las
rendijas y es una curva en forma de campana centrada en un punto
equidistante de
las dos rendijas y abierta hacia los lados, debido a la dispersión de las
partículas al
colisionar con los bordes de las rendijas, presentando una distribución
continua.
haga clic en la siguiente liga para ver un video:
http://www.youtube.com/watch?v=hd--sq5U9kg

N U C L E O Y S U S F U E R Z A S

ttp://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen3/ciencia3/110/h
tm/sec_11.htm
LA FÍSICA puede describirse como un continuo vaivén entre teoría y
experimento, aunque éste tiene siempre la última palabra. Mientras los
grandes teóricos desarrollaban las ideas cuánticas, Rutherford y sus
alumnos continuaban ocupados desentrañando los misterios del núcleo.
Una vez que se descubrió el núcleo, la pregunta que surgió de inmediato
fue, ¿de qué está compuesto? Como se sabía ya desde el siglo pasado
que las masas de los elementos químicos se aproximan mucho a múltiplos
enteros de la masa del hidrógeno, resultó natural pensar que los distintos
núcleos estaban formados por protones, puesto que el del hidrógeno
consiste de un solo protón. Sin embargo, ésta no puede ser la historia
completa, ya que para entender la neutralidad eléctrica del átomo se
requiere postular la existencia de un cierto número de protones en el
núcleo, mientras que para explicar la masa es necesario el doble de ellos.
Tomó dos décadas descifrar esta incógnita y muchos físicos siguieron
pistas falsas —entre ellas la de suponer la existencia de electrones dentro
del núcleo— antes de encontrar al acompañante del protón en el centro
de los átomos. En vista de las predicciones de la mecánica cuántica se
puede entender fácilmente uno de los argumentos más contundentes para
descartar un núcleo compuesto por protones y electrones. Si aplicamos el
principio de incertidumbre a los electrones dentro del núcleo, concluimos
de inmediato que las energías electrónicas serían muy superiores a las
medidas en la desintegración beta y, también, mucho mayores a las
producidas por el campo eléctrico de atracción debido a los protones,
fuerza que se consideraba como responsable de confinar a protones y
electrones dentro del núcleo. El razonamiento teórico es el siguiente: si
una partícula de masam se confina en un local de largo l, su
incertidumbre en la correspondiente componente de la velocidad es
mayor queh/ml, pues de lo contrario se violaría el principio de Heisenberg.
A medida que l se hace menor, crece esta incertidumbre y por ende la
energía cinética de m. El efecto es mayor, también, mientras menor sea
la masa de la partícula, y afecta, por tanto, más a los electrones que a los
protones, pues la masa de éstos es 2 000 veces mayor que la de aquéllos.
Si usamos los datos de la Tabla 1, tomando para l el valor de 10-13 cm,
que es el apropiado al núcleo, las energías resultan enormes.
El 27 de febrero de 1932 James Chadwick, alumno de Rutherford, informó
a la comunidad científica que había encontrado pruebas de la existencia
de una nueva partícula neutra, a la cual llamó neutrón. Los físicos no
tardaron mucho en darse cuenta que éste era el acompañante misterioso
del protón en el núcleo atómico. La existencia del neutrón, cuya masa es
muy parecida a la del protón, permitió ver viejos conocimientos desde
una nueva perspectiva. Primero, fue evidente que la razón de que la masa
atómica sea casi un múltiplo entero de la masa del átomo de hidrógeno,
hecho ya conocido desde el siglo pasado, es que las masas del neutrón y
del protón sean casi iguales.

<><><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><>


<> <><><><><><><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><>
<><> <><><><> <><><><><><><><> <><><><> <><><><> <><><><> <><><><> <>
<><><> <><><><> <><><><> <><><><><><><><> <><><><> <><><><> <><><><>
<><><><> <><><><> <><><><> <><><><> <><><><><><><><> <><><><> <><><>
<> <><><><> <><><><> <><><><> <><><><> <><><><> <><><><><><><><> <><>
<><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><><><>
<><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><><>
<><><><><><><><> <><><><> <><><><> <><><><> <><><><> <><><><> <><><>
<> <><><><> <><><><><><><><> <><><><> <><><><> <><><><> <><><><> <><>
<><> <><><><> <><><><> <><><><><><><><> <><><><> <><><><> <><><><>

MASAS

electrón me = 9.1091 x 10-28 g

mp = 1.6725 x 10-24 g =
protón
1836 me

mn = 1.6748 x 10-24 g =
neutrón
1839 me
CARGAS

elemental e = 1.6021 x 10-19 c

electrón -e

protón +e

RADIOS

atómico cm

núclear -13 cm = 1 f

ENERGÍAS TÍPICAS

 1.6 x 10-6 erg = 1


nucleares
MeV

OTRaS CONSTANTES
IMPORTANTES

velocidad
c = 2.998 x 108 m/s
de la luz

constante h = 6.626 x 10-27 erg ·


de Planck s
número
NA = 6.023 x
de
10 moléculas/g · mol
23
Avogadro

RADIOACTIVADAD
La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se
mantienen en unestado excitado en sus capas electrónicas o nucleares, con lo que, para
alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones
electromagnéticas o en emisiones de partículas con una determinada energía cinética.
Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de
sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el
núcleo electrones, positrones,neutrones, protones o partículas más pesadas), y en varios
pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno
mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba
convirtiéndose en plomo.
RADIOACTIVIDAD NATURAL
interior mismo del átomo. En 1896 Henri Becquerel descubrió que ciertas sales de uranio
emiten radiaciones espontáneamente, al observar que velaban las placas fotográficas
envueltas en papel negro. Hizo ensayos con el mineral en caliente, en frío, pulverizado,
disuelto en ácidos y la intensidad de la misteriosa radiación era siempre la misma. Por
tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no
dependía de la forma física o química en la que se encontraban los átomos del cuerpo
radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.
DESINTEGRACION RADIACTIVA
La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
donde:
es el número de radionúclidos existentes en un instante de tiempo .
es el número de radionúclidos existentes en el instante inicial .
, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por
unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración),
es evidente que la constante de desintegración es el cociente entre el número de
desintegraciones por segundo y el número de átomos radiactivos ( ).
Se llama tiempo de vida o tiempo de vida media de un radioisótopo el tiempo promedio de
vida de un átomo radiactivo antes de desintegrarse. Es igual a la inversa de la constante de
desintegración radiactiva ( ).
Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un isótopo
radiactivo se reduzca a la mitad de la cantidad inicial se le conoce como periodo de
semidesintegración, período, semiperiodo, semivida o vida media (no confundir con el ya
mencionado tiempo de vida) ( ). Al final de cada período, la radiactividad se reduce a la
mitad de la radiactividad inicial
La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
donde:
es el número de radionúclidos existentes en un instante de tiempo .
es el número de radionúclidos existentes en el instante inicial .
, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por
unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración),
es evidente que la constante de desintegración es el cociente entre el número de
desintegraciones por segundo y el número de átomos radiactivos ( )
La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
donde:
es el número de radionúclidos existentes en un instante de tiempo .
es el número de radionúclidos existentes en el instante inicial .
, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por
unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración),
es evidente que la constante de desintegración es el cociente entre el número de
desintegraciones por segundo y el número de átomos radiactivos ( ).
Se llama tiempo de vida o tiempo de vida media de un radioisótopo el tiempo promedio de
vida de un átomo radiactivo antes de desintegrarse. Es igual a la inversa de la constante de
desintegración radiactiva ( ).
Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un isótopo
radiactivo se reduzca a la mitad de la cantidad inicial se le conoce como periodo de
semidesintegración, período, semiperiodo, semivida o vida media (no confundir con el ya
mencionado tiempo de vida) ( ). Al final de cada período, la radiactividad se reduce a la
mitad de la radiactividad inicial
da ceredito alos autores de esta informacion.
http://www.google.com.mx/images?q=radioactividad&hl=es&gbv=2&gs_l=hp.3...7703.84
406.0.86281.62.37.3.22.0.2.704.7237.0j18j10j1j0j1j1.31.0...0.0.cnzV9Bmt6y8&nfpr=1&spe
ll=1&prmdo=1&sa=X&oi=image_result_group

Cosmología física

Artículo principal: Cosmología física.


Se entiende por cosmología física el estudio del origen, la evolución y el destino del Universo
utilizando los modelos terrenos de la física. La cosmología física se desarrolló como ciencia
durante la primera mitad del siglo XX como consecuencia de los acontecimientos detallados
a continuación:

 1915-1916. Albert Einstein formula la teoría general de la relatividad, que será la


teoría marco de los modelos matemáticos del universo. Al mismo tiempo formula el primer
modelo matemático del universo conocido como universo estático donde introduce la
famosa constante cosmológica y la hipótesis conocida como principio cosmológico, que
establece que el universo eshomogéneo e isótropo a gran escala, lo que significa que tiene la
misma apariencia general observado desde cualquier lugar.
 1916-1917. El astrónomo Willem de Sitter formula un modelo estático de universo
vacío de materia con la constante cosmológica donde los objetos astronómicos alejados
tenían que presentar corrimientos al rojo en sus líneas espectrales.
 1920-1921. Tiene lugar el Gran Debate entre los astrónomos Heber Curtis yHarlow
Shapley que estableció la naturaleza extragaláctica de las nebulosas espirales cuando se
pensaba que la Vía Láctea constituía todo el universo.
 1922-1924. El físico ruso Alexander Friedmann publica la primera solución
matemática a las ecuaciones de Einstein de la relatividad general, que representan a un
universo en expansión. En un artículo de 1922 publica la solución para un universo finito y
en 1924 la de un universo infinito.
 1929. Edwin Hubble establece una relación lineal entre la distancia y elcorrimiento
al rojo de las nebulosas espirales que ya había sido observado por el astrónomo Vesto
Slipher en 1909. Esta relación se conocerá como Ley de Hubble.
 1930. El sacerdote y astrónomo belga Georges Édouard Lemaître esboza suhipótesis
del átomo primitivo donde sugería que el universo había nacido de un solo cuanto de energía.
 1931. Milton Humason, colaborador de Hubble, dio la interpretación de
loscorrimientos al rojo como efecto Doppler debido a la velocidad de alejamiento de
las nebulosas espirales.
 1933. El astrónomo suizo Fritz Zwicky publicó un estudio de la distribución de
las galaxias sugiriendo que estaban permanente ligadas por su mutua atracción gravitacional.
Zwicky señaló sin embargo que no bastaba la cantidad de masa realmente observada en la
forma de las galaxias para dar cuenta de la intensidad requerida del campo gravitatorio. Se
introducía así el problema de la materia oscura
 1948. Herman Bondi, Thomas Gold y Fred Hoyle proponen el modelo de estado
estacionario, donde el universo no solo tiene la misma apariencia a gran escala visto desde
cualquier lugar, sino que la tiene vista en cualquier época.
 1948. George Gamow y Ralph A. Alpher publican un artículo donde estudian las
síntesis de los elementos químicos ligeros en el reactor nuclear que fue el universo primitivo,
conocida como nucleosíntesis primordial. En el mismo año, el mismo Alpher y Robert
Herman mejoran los cálculos y hacen la primera predicción de la existencia de la radiación
de fondo de microondas.
 1965. Arno Penzias y Bob Wilson de los laboratorios Bell Telephonedescubren la
señal de radio que fue rápidamente interpretada como laradiación de fondo de
microondas que supondría una observación crucial que convertiría al modelo del Big Bang (o
de la Gran Explosión) en el modelo físico estándar para describir el universo. Durante el resto
del siglo XX se produjo la consolidación de este modelo y se reunieron las evidencias
observacionales que establecen los siguientes hechos fuera de cualquier duda razonable:

o El universo está en expansión, en el sentido de que la distancia entre cualquier


par de galaxias lejanas se está incrementando con el tiempo.
o La dinámica de la expansión está con muy buena aproximación descrita por
la teoría general de la relatividad de Einstein.
o El universo se expande a partir de un estado inicial de
alta densidady temperatura donde se formaron los elementos químicos ligeros, estado a
veces denominado Big Bang o Gran Explosión.
o
El Big Bang

A pesar de que el modelo del Big Bang o La Gran Explosion, es un modelo teórico
observacionalmente bastante robusto y ampliamente aceptado entre la comunidad científica,
hay algunos aspectos que todavía quedan por resolver:

 Se desconoce qué ocurrió en los primeros instantes tras el Big Bang. La respuesta se
busca mediante el estudio del universo temprano, una de cuyas metas es encontrar la
explicación a una posible unificación de las cuatrofuerzas fundamentales (fuerte, débil,
electromagnética y gravitacional).
 No existe un modelo definitivo de la formación de las estructuras actuales, a partir
del Big Bang. La respuesta se busca mediante el estudio de la formación y evolución de las
galaxias y la inflación cósmica.
 Queda por saber a qué se debe el hecho de que el universo se expanda
conaceleración (Véase Aceleración de la expansión del universo).
 No se sabe cuál es el destino final del universo.
 Se desconoce en su mayor parte la naturaleza de la materia oscura y la energía oscura.

 En el momento después del Big Bang las partículas elementales aparecieron, los
quarks arriba en los protones y los quarks abajo en los neutrones, y no se conoce la
proporcion entre protones y neutrones, estas particulas estan hechas por dos quarks con la
misma carga eléctrica, no se habrían podido unir gracias a la interacción electromagnética,
es inútil recurrir a la interacción nuclear fuerte, pues ésta solo tiene un alcance del tamaño
máximo de un núcleo atómico y además porque la interacción electromagnética tiene un
alcance gigantesco y si el universo se agrandó en un solo segundo cien octillones de veces,
en este brevísimo lapso de tiempo la interacción nuclear fuerte no podría unir la casi totalidad
(si no es la totalidad) de los quarks.
 para mas informacion consulte la siguiente pagina:

http://es.wikipedia.org/wiki/Cosmolog%C3%ADa
da clic e la siguiente liga para ver un video:
http://www.youtube.com/watch?v=6cN37YCv2jg&feature=fvwrel

TEORIA DEL BIG BANG


En cosmología física, la teoría del Big Bang o teoría de la gran explosión es un modelo
científico que trata de explicar el origen del Universo y su desarrollo posterior a partir de
una singularidad espaciotemporal. Técnicamente, este modelo se basa en una colección de
soluciones de las ecuaciones de la relatividad general, llamados modelos de Friedmann-
Lemaître - Robertson - Walker. El término "Big Bang" se utiliza tanto para referirse
específicamente al momento en el que se inició la expansión observable del Universo
(cuantificada en la ley de Hubble), como en un sentido más general para referirse
al paradigma cosmológico que explica el origen y la evolución del mismo

Curiosamente, la expresión Big Bang proviene -a su pesar- del astrofísico inglés Fred Hoyle,
uno de los detractores de esta teoría y, a su vez, uno de los principales defensores de la teoría
del estado estacionario, quien en 1949, durante una intervención en la BBC dijo, para
mofarse, que el modelo descrito era sólo un big bang (gran explosión). No obstante, hay que
tener en cuenta que en el inicio del Universo ni hubo explosión ni fue grande, pues en rigor
surgió de una «singularidad» infinitamente pequeña, seguida de la expansión del propio
espacio.[1]
La idea central del Big Bang es que la teoría de la relatividad general puede combinarse con
las observaciones de isotropía y homogeneidad a gran escala de la distribución de galaxias y
los cambios de posición entre ellas, permitiendo extrapolar las condiciones del Universo
antes o después en el tiempo.
Una consecuencia de todos los modelos de Big Bang es que, en el pasado, el Universo tenía
una temperaturamás alta y mayor densidad y, por tanto, las condiciones del Universo actual
son muy diferentes de las condiciones del Universo pasado. A partir de este modelo, George
Gamow en 1948 pudo predecir que debería de haber evidencias de un fenómeno que más
tarde sería bautizado como radiación de fondo de microondas
El Universo ilustrado en tres dimensiones espaciales y una dimensión temporal.

Michio Kaku ha señalado cierta paradoja en la denominación big bang (gran explosión): en
cierto modo no puede haber sido grande ya que se produjo exactamente antes del surgimiento
del espacio-tiempo, habría sido el mismo big bang lo que habría generado
las dimensiones desde una singularidad; tampoco es exactamente una explosión en el sentido
propio del término ya que no se propagó fuera de sí mismo.
Basándose en medidas de la expansión del Universo utilizando observaciones de
las supernovas tipo 1a, en función de la variación de la temperatura en diferentes escalas en
la radiación de fondo de microondas y en función de la correlación de las galaxias, la edad
del Universo es de aproximadamente 13,7 ± 0,2 miles de millones de años. Es notable el
hecho de que tres mediciones independientes sean consistentes, por lo que se consideran una
fuerte evidencia del llamado modelo de concordancia que describe la naturaleza detallada del
Universo.
El universo en sus primeros momentos estaba lleno homogénea e isótropamente de
una energía muy densa y tenía una temperatura y presión concomitantes. Se expandió y se
enfrió, experimentando cambios de faseanálogos a la condensación del vapor o a la
congelación del agua, pero relacionados con las partículas elementales.
Aproximadamente 10-35 segundos después del tiempo de Planck un cambio de fase causó que
el Universo se expandiese de forma exponencial durante un período llamado inflación
cósmica. Al terminar la inflación, los componentes materiales del Universo quedaron en la
forma de un plasma de quarks-gluones, en donde todas las partes que lo formaban estaban en
movimiento en forma relativista. Con el crecimiento en tamaño del Universo, la temperatura
descendió, y debido a un cambio aún desconocido denominado bariogénesis, los quarks y
los gluones se combinaron en bariones tales como el protón y el neutrón, produciendo de
alguna manera la asimetría observada actualmente entre la materia y la antimateria. Las
temperaturas aún más bajas condujeron a nuevos cambios de fase, que rompieron la simetría,
así que les dieron su forma actual a las fuerzas fundamentales de la física y a las partículas
elementales. Más tarde, protones y neutrones se combinaron para formar
los núcleos de deuterio y de helio, en un proceso llamado nucleosíntesis primordial. Al
enfriarse el Universo, la materia gradualmente dejó de moverse de forma relativista y su
densidad de energía comenzó a dominar gravitacionalmente sobre la radiación. Pasados
300.000 años, los electrones y los núcleos se combinaron para formar
los átomos (mayoritariamente de hidrógeno). Por eso, la radiación se desacopló de los
átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la radiación de fondo
de microondas.

Base teórica

En su forma actual, la teoría del Big Bang depende de tres suposiciones:


1. La universalidad de las leyes de la física, en particular de la teoría de la
relatividad general

2. El principio cosmológico

3. El principio de Copérnico

4. Inicialmente, estas tres ideas fueron tomadas como postulados, pero actualmente se intenta
verificar cada una de ellas. La universalidad de las leyes de la física ha sido verificada al
nivel de las más grandes constantes físicas, llevando su margen de error hasta el orden de 10-
5
. La isotropía del universo que define el principio cosmológico ha sido verificada hasta un
orden de 10-5. Actualmente se intenta verificar el principio de Copérnico observando la
interacción entre grupos de galaxias y el CMB por medio del efecto Sunyaev-Zeldovich con
un nivel de exactitud del 1 por ciento.
5. La teoría del Big Bang utiliza el postulado de Weyl para medir sin ambigüedad el tiempo en
cualquier momento en el pasado a partir del la época de Planck. Las medidas en este sistema
dependen de coordenadas conformales, en las cuales las llamadas distancias
codesplazantes y los tiempos conformales permiten no considerar la expansión del universo
para las medidas de espacio-tiempo. En ese sistema de coordenadas, los objetos que se
mueven con el flujo cosmológico mantienen siempre la misma distancia codesplazante, y el
horizonte o límite del universo se fija por el tiempo codesplazante.
Visto así, el Big Bang no es una explosión de materia que se aleja para llenar un universo vacío; es
el espacio-tiempo el que se extiende.Y es su expansión la que causa el incremento de la distancia
física entre dos puntos fijos en nuestro universo.Cuando los objetos están ligados entre ellos (por
ejemplo, por una galaxia), no se alejan con la expansión del espacio-tiempo, debido a que se asume
que las leyes de la física que los gobiernan son uniformes e independientes del espacio métrico. Más
aún, la expansión del universo en las escalas actuales locales es tan pequeña que cualquier
dependencia de las leyes de la física en la expansión no sería medible con las técnicas actuales