Beruflich Dokumente
Kultur Dokumente
Observações:
* Um fóton é um quantum (partícula) de energia eletromagnética.
* Os fótons não têm todos a mesma a energia. Os “quanta” de luz azul são de maior
energia que os de luz vermelha, pois têm menor comprimento de onda e portanto, maior
freqüência.
* Duas fontes luminosas de mesma freqüência (isto é, de mesma cor) emitem fótons de
igual energia “hf” .
* Uma fonte “brilhante” (grande intensidade luminosa) emite MAIS fótons por segundo do
que uma fonte “tênue” (pequena intensidade luminosa) da mesma cor, porém os fótons de ambas
as fontes têm a mesma ENERGIA.
2. O Efeito Fotoelétrico
Experimentalmente se verifica que:
* Quando a luz incide sobre a superfície de um metal, elétrons podem ser emitidos por ela.
* Quando a luz de certa freqüência (f) arranca elétrons do metal, eles não saem todos com
a mesma energia. Suas energias distribuem-se entre um valor mínimo e um máximo.
* É necessária uma energia mínima, para arrancar um elétron de determinado metal, é
chamada FUNÇÃO TRABALHO (W).
* Para explicar o efeito fotoelétrico o físico alemão Albert EINSTEIN (1905) afirmou que:
* A taxa de emissão de fotoelétrons é diretamente proporcional à intensidade da luz
incidente.
3. O Efeito Compton
“Os fótons apresentam propriedades corpusculares (de partículas)
quando se chocam com um elétron. Nessas circunstâncias, o fóton perde
energia para o elétron, diminuindo sua freqüência e aumentando o seu
comprimento de onda.”
4. Dualidade onda-partícula
“A Luz apresenta propriedades ondulatórias (reflexão, refração, difração, interferência e
efeito Dopler) e corpusculares (efeito fotoelétrico e efeito Compton)”.
Segundo o físico francês Louis DE BROGLIE as partículas subatômicas (elétrons, prótons,
etc.) também possuem características ondulatórias. Esse fato foi comprovado por Clinton
DAVISSON, Lester GERMER e G. P. THOMSON (filho de J. J. Thomson) .
HÉLIO:
PLUTÔNIO:
GAMA (g)
· é formada por ondas eletromagnéticas de altíssima freqüência.
· é usada em tratamentos de radioterapia (cobalto-60 ou césio-137 são boas fontes desse tipo
de radiação).
PODER DE PENETRAÇÃO
Exemplo:
Exemplo:
e
Se os nêutrons filhos não forem controlados poderemos ter uma reação em cadeia perigosa
(explosão).
FUSÃO NUCLEAR
“Reação nuclear em que núcleos leves reagem para formar outro mais pesado, com grande
desprendimento de energia. Na reação, parte da massa dos núcleos reagentes se transforma em
energia ( equação de EinsteinèE=mc2), é por isso a massa do núcleo resultante é menor do que
a soma dos reagentes. “
Observações:
· é a fonte e de energia das estrelas e do Sol, obviamente.
· é o processo usado na bomba H.
· é a fonte de energia dos TOKAMAKS (reatores de fusão nuclear inventados no Japão e
usados em pesquisas universitárias).
· não deixa “lixo atômico”.
Exemplo:
Informação adicional
Espécie de Matéria Processo Por quanto tempo a energia liberada pode manter
em operação uma lâmpada de 100 W?
Albert Einstein (1879 – 1955) explicou o efeito fotoelétrico teorizando que as ondas
eletromagnéticas (modelo ondulatório) que interagiam com a placa de metal só fariam com que os
elétrons fossem ejetados instantâneamente se elas se comportassem como partículas (modelo
corpuscular).
Essa intercalação de ideias entre ondas e partículas com relação à luz é aceita na comunidade
científica como a Natureza Dual da Luz; pois em determinados fenômenos (interferência,
refração, difração...) a teoria eletromagnética consegue explicar e a teoria corpuscular está
associada aos fenômenos de absorção e emissão de energia.
No ano de 1924, o físico francês Louis De Broglie (1892 – 1897), utilizando da ideia de que na
natureza existe simetria, trabalhou a hipótese da partícula se comportar como onda, através da
expressão matemática (ver figura 1) ele relacionou o comprimento de onda de uma partícula à
quantidade de movimento da mesma.
O francês De Broglie relaciona partícula-onda
As aplicações das três últimas teorias citadas podem ser vistas respectivamente em: estudo de
microestruturas através da difração da luz (comportamento ondulatório), as portas automáticas
(figura 3) de shoppings centers têm seu princípio de funcionamento baseado no efeito fotoelétrico
(modelo corpuscular) e o microscópio eletrônico que utiliza feixe de elétrons e não a luz
(partícula-onda).
Figura 1
Microscópio eletrônico permite visualizações que o microscópio óptico não permite
Fiugura 2
Estruturas analisadas através da difração de raios x
Figura 3
Porta automática que tem como princípio de funcionamento o efeito fotoelétrico
A Física de partículas é a área da Física que estuda as partículas elementares que constituem a
matéria, além da radiação que emitem e a interação entre elas. As partículas elementares são
assim chamadas porque são indivisíveis e formam todas as outras partículas encontradas na
natureza.
As primeiras pesquisas relacionadas com as partículas isoladas foram feitas pelos gregos. O
primeiro artigo foi formulado por Tales de Mileto, que abordou como tema a eletricidade. Já o
segundo artigo foi formulado por Demócrito e afirmava que toda a matéria poderia ser dividida até
chegar à sua parte mais fundamental e indivisível, o que introduziu a ideia de átomo.
Durante muito tempo, acreditou-se que as partículas elementares eram os fótons, prótons,
nêutrons e elétrons. Até o ano de 1932, acreditava-se que essas quatro partículas formavam toda
a matéria que constituía a natureza.
Entre os anos de 1932 e 1947, várias novas partículas foram sendo descobertas. Entre elas, o
neutrino, em 1933, pelo italiano Enrico Fermi.
Um novo método para detecção de partículas foi criado em 1933. Ele baseava-se no processo de
emulsões fotográficas, que são misturas sensíveis à luz. A partir de então, outras partículas foram
sendo descobertas, sendo a primeira o múon e, posteriormente, o píon, em 1947, após a
evolução desse método.
A evolução nessa área de pesquisa ocorreu de tal forma que até 1967, com a criação dos
aceleradores de partículas, já havia sido identificado um conjunto de mais de duzentas partículas.
A questão agora seria como organizá-las, agrupando-as de forma a reduzir essa quantidade.
Assim, o primeiro passo foi identificar características comuns entre elas, suas regularidades e
simetrias, na tentativa de encontrar origens comuns. As pesquisas desenvolvidas levaram os
pesquisadores Murray Gell-Mann e Georg Zweig a concluir que muitas das partículas descobertas
que foram consideradas elementares, como os prótons e os nêutrons, eram formadas por outras
partículas ainda menores, ou seja, não eram elementares. Esses estudos permitiram uma divisão
e classificação de várias partículas elementares em grupos que consideravam as suas
características em comum.
O Princípio da Incerteza
O Princípio da Incerteza
A física sempre buscou resultados e respostas para as perguntas do homem. A esperança era
que o absoluto fosse real. Esse pensamento foi contestado desde o início, quando as primeiras
ideias foram confrontadas com os experimentos realizados e, muitas vezes, provava-se que o dito
não batia com o experimental.
Foi assim, por exemplo, quando a comunidade científica imaginou ter mapeado as partículas
elementares do átomo, mas foi contrariada quando se provou que isso era algo impossível.
O estudante de física Werner Heisenberg, de Sommerfeld, foi o responsável pela valorização de
algo não muito aceito ou popularizado na física, a incerteza. Considerado um marco para a física
quântica, o Princípio da Incerteza ou da Indeterminação veio para jogar um balde de água fria na
comunidade científica, que esperava decifrar a estrutura da matéria em até vinte anos.
Em 1927, Heisenberg verificou e afirmou ser impossível conhecer de forma total e íntima a
estrutura da matéria, porque, na verdade, não havia e ainda não há como se saber exatamente a
forma de interação entre as partículas atômicas.
O Princípio da Incerteza é baseado no fato de não se saber qual o deslocamento exato feito pelas
partículas, o que impede a definição da sua localização no espaço, o trajeto percorrido, o tempo
determinado, além da direção e do sentido. Essa dificuldade acontece porque as partículas se
movem de forma tridimensional.
Para completar os estudos e a formulação do princípio apresentado por Heisenberg, Erwin
Schrödinger resolveu estudar temas que também eram polêmicos por volta da década de 20,
como o quanta de Planck, o efeito fotoelétrico e a constância da velocidade da luz de Einstein, a
dualidade corpúsculo-onda de De Broglie, etc.
Mas, na verdade, o que Schrödinger descobriu foi que o princípio de Heisenberg estava certo.
Pode-se concluir, então, que uma das características mais incríveis apresentadas no Princípio da
Incerteza é a quantização numérica da incerteza. A relação da teoria é dada por:
Partículas elementares
A divisão do átomo
Foram os filósofos gregos que primeiro observaram a grande quantidade de matéria existente na
natureza. Eles então deduziram que tudo isso devesse vir de algo que pudesse originar tal
variedade.
Demócrito e Leucipo já usavam o termo átomo por volta de 460 a.C., para fins de estudo, mas foi
apenas no século XIX que houve a convicção de que toda matéria de fato é constituída por
átomos.
Acreditou-se que o átomo seria a origem da matéria, pelo fato de que, no século XIX, cerca de
100 tipos de átomos já haviam sido mapeados. Mas esse número foi ficando cada vez maior, o
que levou os pesquisadores a observarem a existência de partículas ainda menores presentes na
constituição do átomo. Definiram, então, que os átomos são formados por elétrons, prótons e
nêutrons.
• Quando são formados por três quarks, os hádrons recebem o nome de bárions;
• Quando formado por um quark e um antiquark, recebem o nome de mésons.
Na parte externa do núcleo, ou seja, em volta dele, estão presentes os elétrons, que giram em
torno do núcleo em órbitas circulares, formando assim a eletrosfera.
Abordamos então um pouco das partículas elementares, mas o principal é considerar campos de
força e interações, o que direcionará este estudo para as partículas mediadoras, que são
fundamentais para a natureza.
Efeito Compton
Efeito Compton é a diminuição de energia (aumento de comprimento de onda) de um fóton de
raios X ou de raio gama, quando ele interage com a matéria.
Foi no ano de 1922 que Arthur Holly Compton, após realizar alguns estudos sobre a interação radiação-matéria,
percebeu que quando um feixe de raios X incidia sobre um alvo de carbono, sofria um espalhamento.
Inicialmente, Compton não percebeu nada de errado, pois suas medidas indicavam que o feixe espalhado tinha
frequência diferente do feixe incidente logo após atravessar o alvo.
De acordo com a teoria ondulatória, tal conceito era dado como certo, pois a frequência de uma onda não é
alterada por nenhum fenômeno que ocorre com ela, sendo característica da fonte que a produz. Mas o que se
constatou, através da experimentação, foi que a frequência dos raios X espalhados era sempre menor do que a
frequência dos raios X incidentes, dependendo do ângulo de desvio. A figura abaixo nos mostra o esquema da
ocorrência desse fenômeno, conhecido como Efeito Compton.
Para explicar o sucedido, Compton inspirou-se na abordagem de Einstein, ou seja, ele interpretou os raios X
como sendo feixes de partículas e a interação como sendo uma colisão de partículas. A energia do fóton
incidente, de acordo com Einstein e Planck, seria h.f; e o fóton espalhado teria elétron, em respeito à lei da
conservação da energia.
A abordagem funcionou perfeitamente, mas Compton foi ainda mais longe. Ele investigou também a interação
do ponto de vista da lei da conservação do momento linear. Experimentalmente, verificou que essa lei valia
para diversos ângulos de espalhamento, desde que o momento linear do fóton fosse definido como
Onde:
c – é a velocidade da luz no vácuo
h – é a constante de Planck
λ – é o comprimento de onda da radiação
O inventor da Câmara de Nuvens (Charles Wilson) obteve experimentalmente as trajetórias dos fótons e dos
elétrons espalhados, em colaboração com Compton. Duas características são notáveis na expressão acima:
uma é a própria redefinição do momento linear, que não pode ser escrito como m.v, porque o fóton não tem
massa; e a outra característica que pode ser observada é o estabelecimento de uma clara associação entre
uma grandeza típica de corpúsculos, isto é, a matéria, e uma grandeza caracteristicamente ondulatória.
Compton ainda desenvolveu um método que provava que o fóton e o elétron eram espalhados
simultaneamente, o que impedia explicações envolvendo absorção e posterior emissão de radiação.
Um dos resultados experimentais que mais chamou a atenção dos cientistas no final do século
XIX foi o estudo da luz emitida por corpos quando se encontram muito quentes, como o ferro “em
brasa” ou mesmo um carvão em brasa. Os ferreiros da época já sabiam que quando o ferro ficava
rubro, a sua temperatura estava por volta dos 1.000 K, podendo ser mais facilmente trabalhado.
Com a finalidade de estudar a luz emitida pelos corpos quentes, foi proposto um modelo no qual a
ideia era realizar os cálculos apenas da radiação produzida pela agitação térmica do corpo. Tal
corpo deveria absorver toda a radiação que chegava até ele, não podendo refleti-la. Dessa forma,
o corpo teria de ser totalmente negro, daí o nome do modelo: radiação do corpo negro.
Ao olharmos para o passado, levando em conta o que conhecemos hoje, podemos afirmar que o
estudo da radiação do corpo negro marca o surgimento da Mecânica Quântica.
Em primeiro lugar, temos que entender de fato o que é radiação de corpo negro. Ao aquecermos
um corpo, ele passa a emitir radiação eletromagnética. Dessa maneira, podemos dizer que o
espectro dessa radiação depende da temperatura do corpo. Por exemplo, o forno de uma
indústria siderúrgica ou o Sol produz radiação através da agitação térmica. Se observarmos o
carvão em brasa, na verdade veremos a radiação de corpo negro de um corpo à temperatura
muito alta.
Lâmpada de filamento
Um exemplo de radiação de corpo negro que temos no cotidiano é a lâmpada de filamento.
Quando passa corrente elétrica através do filamento da lâmpada, este se aquece pelo efeito
Joule e se comporta praticamente como um corpo negro. Quando a temperatura chega próxima
de 2.000 K, parte da energia é emitida como luz visível, que é utilizada para iluminação. No
entanto, uma boa parte da energia térmica é emitida no espectro do infravermelho e não é
aproveitada na iluminação.
Com intuito de aumentar a eficiência de iluminação de uma lâmpada elétrica, é preciso aumentar
a temperatura do filamento. Para que ela produza luz semelhante à luz do Sol, o filamento deve
operar com uma temperatura semelhante à superfície do Sol, que é de aproximadamente 5.700
K. O tungstênio usado para fabricar filamentos de lâmpadas tem temperatura de fusão de 3.137
K.