Beruflich Dokumente
Kultur Dokumente
Esta estructura de cristales tiene que ver con el tipo de ligadura atómica prevaleciente
en los sólidos. Recordemos que por lo general las ligaduras se forman por la tendencia de los
átomos a tener siempre ocho electrones en su último orbital, es decir, completar el “octeto”.
Ligaduras atómicas.
Ligadura iónica
Es un enlace fuerte, con energías típicas entre 1 y 10 eV, y se rige por la ley de
atracción de Coulomb. En general intervienen en este tipo de enlace los grupos extremos de la
tabla periódica (I y VII, es decir, a los que les sobra y a los que les falta un electrón para
completar el octeto; y en algunos casos II y VI). Los átomos tienden a perder o ganar
electrones para completar su último estado orbital, quedado así ionizados de forma positiva o
negativa, respectivamente.
En este enlace se necesita por lo menos un ion negativo y otro positivo, como por ejemplo en
la molécula del cloruro de sodio (ClNa-). En realidad, en el propio caso de la sal es posible
conformar cúmulos de moléculas que están atraídas entre sí, con tal que se produzca un cierto
ordenamiento espacial. Esta es la razón por la que el cloruro de sodio puede cristalizarse,
aunque en forma irregular. Este tipo de ordenamiento se traduce en una propiedad mecánica
de fragilidad y una eléctrica de poca conductividad
1
Desde el punto de vista del modelo químico de valencias, la estructura elemental del
cristal (tetraédrico) se produce de acuerdo al siguiente esquema gráfico:
Llamado a veces enlace metálico, es un enlace débil, con energías típicas entre 1 y 5
eV. Intervienen en el tipo de enlace los elementos de los grupos intermedios de la tabla
periódica, particularmente los del grupo de II y del grupo VI (por ejemplo, el cobre). También
adquieren este tipo de enlace algunos materiales de los grupos III y V.
2
Enlaces covalentes desde el punto de vista de la Mecánica
Cuántica. (esquema de cristales)
La materia sólida en general tiende a ubicarse en pequeña estructuras regulares que tienden a
repetirse y denominamos cristales. Precisamente sin los cristales covalentes los que tienden a
agruparse uniformemente, no así los metales iónicos
En general dos o mas átomos que conforman un cristal resulta del equilibrio entre fuerzas de
atracción y fuerzas de repulsión, un cristal iónico enlaza átomos que están sometido a fuerzas
1
colombianas que dependen de . A la vez los electrones que se encuentran en la última
𝑟2
órbita sufren fuerzas de repulsión de naturaleza cuántica por el principio de exclusión
de Pauli
Observamos que las fuerzas de repulsión son de corto alcance mientras que las de atracción
son de largo alcance.
La función de energía potencial que representa a ambas tiende a presentar un mínimo relativo
a cierta distancia r0. Esta distancia depende del tipo de átomo considerado y también de la
temperatura.
En un enlace covalente la situación es similar solo que las fuerzas de atracción no son de
naturaleza eléctrica sino de naturaleza cuántica. Aquí también puede obtenerse un mínimo
relativo de la energía potencial asociada a cierta energía potencial r0. Un caso paradigmático
del enlace covalente fuerte es el carbono diamantatizado que tiende a conformar cristales
tetraédricos altísimamente regulares material transparente fuerte y rígido
3
EL cristal tetraédrico no es el único tipo de cristal que puede conformar, ni siquiera es el único
tipo de cristal que puede tomar el carbono; Puede conformar forma hexaédrica espaciales o
incluso planares. Materiales estables y en consecuencia además de rígidos mecánicamente
pobre conductividad.
A muy bajas temperaturas debemos suponer que existe una gran coordinación tanto espacial
como temporal de los enlaces y en consecuencia podemos representar al material como un
4
mar de pares hueco electrón ligados lo que es imposible establecer la conducción eléctrica por
el movimiento de electrones. Al aumentar la temperatura la probabilidad de descoordinación
aumenta por lo que sería imposible establecer un transporte de cargas de electrones libres. Lo
podemos estableces atreves de los huecos
En el caso de los enlaces covalentes débiles como el cobre existe una gran disponibilidad de
estados libres por unidad de volumen del material, es decir una densidad baja de intercambio
de electrones para conformar el enlace cristalino.
A raíz de esto y a diferencia del covalente fuerte en general no existe carga por el movimiento
de electrones a lo largo del material que van de átomo a átomo.
Notemos que las probabilidades de interacción dependen del grado de desorden de las
trayectorias, y consecuentemente de la temperatura. Así, al aumentar la temperatura se
desplazan las curvas de potencial, produciendo un valle a una distancia de equilibrio distinta,
en general mayor.
Por otro lado, hay que considerar que los niveles de energía que pueden ocupar los
electrones de un átomo son discretos. Esto significa que sólo pueden existir determinados
niveles de energía permitidos, y todos los otros son prohibidos. Los diagramas de energía de
un átomo aislado, por consiguiente, son diagramas de rayas y no de bandas.
5
Bandas de energía:
Dado que para cada nivel de energía se tiene una distancia 𝑟 máxima de separación entre un
electrón que ocupa dicho nivel y el núcleo del átomo, se establece así una energía potencial
máxima que el electrón en cuestión puede adquirir para ese nivel de energía. Esta energía
potencial máxima determina una “barrera de potencial” que delimita el “pozo de potencial”
donde el electrón está confinado. Gráficamente, esto es:
Este diagrama es correcto para un átomo aislado, pero cuando los átomos se agrupan
formando cristales, esto cambia un poco. Para tener un modelo básico del cristal tenemos que
considerar simultáneamente ambos tipos de diagramas. Esto lo podemos hacer redibujando
los pozos de potencial coulombianos, pero ahora separados una distancia de equilibrio 𝑎0 , que
es la distancia de enlace.
6
potencial interna (varía la distribución de la energía potencial en el espacio) y el último estado
energético tiende a unificarse, como ya se ha advertido en la explicación de los enlaces.
Sin embargo, esto no puede aplicarse de una manera simple, ya que tiende a violarse
el principio de exclusión de Pauli. Por ejemplo, supongamos dos átomos de hidrógeno cuyo
último nivel de energía está caracterizado por 2𝑠 2 . Al unificar el nivel externo de energía,
quedaríamos con 2𝑠 2 + 2𝑠 2 = 2𝑠 4 , que viola el principio de exclusión de Pauli. La naturaleza
tiende a resolver este problema mediante una hibridación de estados, que lo hace
desdoblando el estado energético puro, creándose así un subestado ligeramente por debajo
del estado energético original, y otro ligeramente por arriba. El intervalo energético de esta
hibridación 𝛥𝐸 depende del tipo de enlace, pero fundamentalmente de la distancia de
equilibrio del mismo (mientras más cercano sea el enlace, mayor es el intervalo 𝛥𝐸).
Si se analiza un cristal, los mismos conceptos que valen para los dos átomos deben
generalizarse para una cantidad muy grande de átomos. Si el cristal tiene un volumen de
1 𝑐𝑚3 , existen en él, aproximadamente, 1023 átomos. Se puede demostrar que las energías
extremas en un desdoblamiento no varían al variar el número de átomos; son las mismas para
dos átomos que para el cristal, manteniéndose el intervalo 𝛥𝐸 característico. Por lo tanto, en
un cristal de 1 𝑐𝑚3 , existen unos 1023 niveles discretos de energía entre los niveles
desdoblados en el caso de dos átomos. Una cantidad tan grande de niveles discretos de
energía determina que se comporten como una banda de energía de niveles continuamente
variables. Las energías que la delimitan se denominan “fondo” y “tapa” de la banda,
respectivamente. Queda así determinado lo que se denomina modelo energético del cristal:
7
- Teoría de bandas
Para una separación mayor que 𝑎1 no existe interacción entre los niveles y, por lo
tanto, no existe desdoblamiento de las energías. Serían átomos de un gas. Para la separación
𝑎0 , que es la distancia real en el cristal, las energías se desdoblan en 𝐸4′ y 𝐸4′′ . Si la separación
fuese menor, el desdoblamiento sería aún mayor.
En un cristal, prácticamente todas las energías entre 𝐸4′ y 𝐸4′′ son permitidas, por lo
que, según se dijo anteriormente, se representan como una banda:
Si la separación entre los átomos sigue disminuyendo, también los niveles inferiores
comienzan a interaccionar entre sí:
Estos diagramas son teóricos en el sentido que la separación 𝑎 entre los átomos de un
cristal no es variable, sino que se mantiene en 𝑎0 .
8
- Bandas en los metales
Como podemos apreciar, a la distancia real de los átomos 𝑎𝑜 , las bandas superiores se
solapan entre sí, formando una única banda prácticamente continua, que denominaremos
“banda de conducción”, y no habiendo bandas prohibidas entre esos niveles energéticos.
Esto produce una gran cantidad de estados disponibles para relativamente pocos
electrones de enlace. Debido a esto, una pieza de metal puede ser representada, a los efectos
de la conducción eléctrica, prácticamente como la batea de potencial clásica cuya profundidad
es 𝑒𝜙 , que es la energía de extracción del metal. Dentro de esta banda única de conducción,
los electrones se encuentran en un estado virtualmente gaseoso (gas electrónico), ya que se
encuentran en una concentración espacial muy baja, con distancias medias de separación
relativamente grandes. Esta característica hace que este tipo de materiales tenga una alta
conductividad eléctrica y también térmica, por lo que en estas condiciones es muy simple
producir la conducción eléctrica por efecto de la aplicación de un campo eléctrico.
9
- Modelo de bandas de los sólidos
Lo que sí puede ocurrir, es que en un cristal, a la separación real 𝑎0 haya más de una banda
permitida, y en este caso las bandas permitidas están separadas por bandas prohibidas.
. Propiedades semiconductores
Las bandas de energías permitidas pueden estar ocupadas por electrones o no. Una banda
puede estar llena, parcialmente llena, parcialmente vacía, o vacía. Una banda prohibida, en
cambio, está siempre vacía.
En los enlaces covalentes fuertes, la hibridación alcanza sólo a los dos últimos subniveles. Por
ejemplo, átomos del grupo IV (como carbono, silicio y germanio) presentarían una hibridación
gradual según la distancia de enlace, como se aprecia a en el siguiente gráfico:
10
Cuando la separación es a2 existe un desdoblamiento normal y aparecen dos bandas de
energía, una superior cáracterizada por (2/6), vale decir con dos electrones para llenar los seis
niveles disponibles y una inferior caracterizada por (2/2), con dos electrones para llenar los dos
niveles disponibles. Lógicamente la banda superior está casi vacía, mientras la inferior está
llena.
Entre las distancias a3 y a4 ocurre un reagrupamiento de niveles y de bandas. Las dos bandas
degeneran en una sola que tiene todos los electrones (4) y todos los niveles (8) de las dos
bandas anteriores. Se indica (4/8). Para distancias menores de a4 nuevamente se reagrupan
los estados de energía y los electrones que los ocupan, determinando otra vez dos bandas.
Pero la distribución de los electrones disponibles y de los estados de energía totales es
diferente a la existente en la zona a2. La banda superior lleva consigo cuatro estados y ningún
electrón, mientras que en la banda inferior quedan cuatro estados y cuatro electrones. Se las
indica (0/4) y (4/4) respectivamente. La superior es una banda vacía y la inferior llena. Se las
llama de conducción y de valencia respectivamente, por motivos que se verán más adelante.
Las dos bandas quedan separadas por una banda prohibida que se indica (0/0).
El salto de energía necesario para que un electrón pase de la banda de valencia a la de
conducción se denomina Eg. En el diagrama 3.13 el valor numérico de Eg es 5,5 eV • para el
carbono, 1,1 eV para el silicio y 0,7 eV para el germanio.
Los diagramas normales de bandas de energía representan solamente la situación a la
distancia de separación de los átomos a0, que es la real en el cristal.
De esta manera, el mismo diagrama anterior se representa en siguiente
El eje horizontal no debe asociarse a ninguna magnitud, si bien en alguna oportunidad indicará
la dirección de algún eje cristalográfico en particular y alguna magnitud, el momento por
ejemplo, asociado a él.
Cuando la banda prohibida es pequeña, los electrones pueden saltar con mucha
facilidad a la banda de conducción, lo que le otorga al material la capacidad de conducir
electricidad. Es por esto que los gap inferiores a aproximadamente 2 eV dan origen a los
materiales denominados “semiconductores”. De hecho, a medida que aumenta la
temperatura de un semiconductor, la población en la banda de conducción aumenta con
mucha rapidez, y también la conductividad eléctrica.
- Aislantes
En estado de equilibrio, sus bandas de energía tienen una disposición similar a la de los
semiconductores, pero con la única diferencia de que la banda prohibida tiene un gap superior
a 5 eV.
11
Al ser tan grande el salto energético que un electrón debe realizar para pasar a la
banda de conducción, no hay energía térmica suficiente para producirlo sin dañar antes el
material. Si se aplicara un campo eléctrico lo suficientemente grande como para vencer el
salto energético de la banda prohibida, se produciría la ruptura del dieléctrico, estropeando el
material. Por eso las conductividades eléctricas y térmicas son prácticamente nulas.
En la física clásica se imaginaba al material conductor como una batea de potencial en el que lo
electrones permanecían vinculados al material.
Sin embargo, mantenían cierta capacidad de movilidad. Aplicando un campo eléctrico se
producía un desplazamiento y producía una corriente eléctrica,
Así los físicos clásicos imaginaban a los electrones como formando una nube de gas atrapado
en la batea.
12
Ley vectorial de Ohm
De esta forma, la teoría clásica de conducción se las arregla bien para explicar el
transporte de cargas, suponiendo que el electrón es como una molécula de gas (una partícula
que se encuentra sometida a fuerzas aleatorias) en un movimiento estocástico, en general, con
desplazamiento medio nulo.
La trayectoria media del electrón se desarrollará entre dos eventos de choque con
otros electrones, choques que pueden considerarse perfectamente elásticos, de modo que la
velocidad inicial media 𝑣⃗𝑚0 del electrón es nula, y la velocidad final media 𝑣⃗𝑚𝑚𝑎𝑥 viene dada
por la aceleración impresa por el campo eléctrico. Dicha trayectoria media será recorrida en un
tiempo libre medio 𝑡𝑙𝑚 entre choques.
13
𝑞
𝐹⃗𝑒 = −𝑞ℰ⃗ = 𝑚𝑒 𝑎⃗ ⇒ 𝑎⃗𝑚 = − 𝑚 ℰ⃗ ⟶Aceleración media
𝑒
𝑞
𝑣⃗𝑚𝑚𝑎𝑥 = 𝑎⃗𝑚 𝑡𝑙𝑚 ⇒ 𝑣⃗𝑚𝑚𝑎𝑥 = − 𝑚 𝑡𝑙𝑚 ℰ⃗ ⟶Velocidad media máxima
𝑒
- Movilidad
Esta ecuación representa un “corrimiento de electrones” en sentido opuesto al del
campo eléctrico ℰ⃗ aplicado, con un tiempo libre medio entre choques 𝑡𝑙𝑚 . La velocidad media
del electrón 𝑣⃗𝑚𝑚 puede ponerse ahora en función de otro parámetro, también medio,
denominado “movilidad”, que representa la mayor o menor facilidad de un electrón para
moverse dentro del metal.
𝑣⃗𝑚𝑚 = −𝜇𝑒 ℰ⃗
Donde se ha definido a la movilidad del electrón 𝜇𝑒 como:
𝑞
𝜇𝑒 = 𝑡
2𝑚𝑒 𝑙𝑚
En el modelo clásico, la movilidad depende del tiempo libre medio entre choques, el
cual a su vez depende de la temperatura. En efecto, a mayor temperatura (estadística)
aumenta la dispersión del movimiento estocástico, con lo que aumenta también la sección
eficaz de choque, por lo que aumenta la probabilidad de choque, y luego disminuye el tiempo
libre medio entre choques. Así, la movilidad debe decrecer con el aumento de la temperatura,
cosa que efectivamente ocurre en la práctica.
- Masa Eficaz
En el modelo de la teoría de bandas podemos considerar gran parte de esta idea, pero sin
perder de vista que el electrón en realidad es una “cuasi partícula”, ya que presenta
simultáneamente propiedades ondulatorias y corpusculares. Precisamente, las propiedades
ondulatorias se refieren a la función de onda, en la que está incorporada la interacción entre
los electrones, y entre éstos y la red cristalina. De esta manera no podemos hablar
auténticamente de una masa del electrón cual si fuera una partícula clásica, sino más bien de
una masa eficaz asociada 𝑚𝑒∗ .
14
deberíamos agregar una corrección a ese potencial clásico, que podemos denominar
“potencial cuántico” (como lo sugiere la teoría de David Bohm).
- Resistividad
La densidad de corriente podemos calcularla ahora en función de la carga incremental 𝛥𝑞 por
unidad de tiempo y por unidad de superficie:
𝛥𝐼 𝛥𝑞
𝐽 = lim = lim
∆𝑆→0 ∆𝑆 ∆𝑡→0 ∆𝑡∆𝑆
∆𝑆→0
15
𝛥𝑞
𝛥𝑞 = (−𝑞)𝑁∆𝑉 = −𝑞𝑛𝑣𝑚𝑚 ∆𝑡∆𝑆 = −𝑞𝑛(−𝜇𝑒 ℰ⃗)∆𝑡∆𝑆 ⇒ = 𝑞𝑛𝜇𝑒 ℰ⃗
∆𝑡∆𝑠
Por lo tanto:
𝐽⃗ = 𝑞𝑛𝜇𝑒 ℰ⃗ = 𝜎ℰ⃗
Esta última expresión se denomina “ley puntual (o vectorial) Ohm”, donde 𝜎 = 𝑞𝑛𝜇𝑒
es la conductividad eléctrica del material, que en general depende negativamente de la
temperatura (si aumenta la temperatura, 𝜎 decrece). La resistividad es la inversa de la
conductividad: 𝜌 = 1⁄𝜎 = 1⁄𝑞𝑛𝜇𝑒 .
Funciones de distribución
Una función de distribución relaciona una determinada magnitud física con el número de
individualidades que poseen un determinado valor de esa magnitud física.
16
Función de densidad distribución Cantidad de partículas que hay en un intervalo
unitario de energía entre 𝐸 y 𝐸 + ∆𝐸.
Todo esto nos lleva a discutir y determinar las estadísticas cuánticas aplicables y
eventuales aproximaciones.
Una función de densidad de distribución puede definirse de dos maneras. Por un lado,
entendiendo a esta como la distribución de todos los estado posibles que puede adoptar una
partícula, y por el otro, como la distribución de todos los estados que adopta una colección de
partículas. Dicha función nos sirve en primera medida para determinar los parámetros medios
de una partícula (por ejemplo, en una molécula de un gas, su energía media y su velocidad
media).
17
De esta forma, los estados posibles que puede adoptar dicha variable estocástica se describen
por la integral de la función de densidad de distribución:
𝐸𝑖
∫ 𝜌(𝐸)𝑑𝐸 = 𝑃(−∞ … ∞) = 1
−∞
Por otro lado, la segunda definición nos permite todavía hacer algún otro cálculo, más
precisamente deducir, por ejemplo, el número de partículas de una colección, lo que nos lleva
inmediatamente a poder determinar la concentración de partículas en un rango de estados.
𝑛
𝜌(𝐸) = ⇒ 𝑛 = 𝜌(𝐸)𝑑𝐸 ⟶ Concentración de partículas (número de partículas que existen
𝑑𝐸
en el intervalo 𝑑𝐸 de energía)
∞
𝑁 = ∫−∞ 𝜌(𝐸)𝑑𝐸 ⟶ Número total de partículas del sistema
Debido a las restricciones cuánticas, los estados son discretos, y no continuos, por lo que ahora
sí tiene sentido hablar del número de partículas dentro de un intervalo finito de energías sin
llegar al absurdo antes mencionado. Es decir, se utiliza la “función de distribución”.
Estadística Clásica
Distribución de Maxwell-Boltzman.
18
energías ¿puedo conocer el número de partículas que satisface dicha condición? La respuesta
es sí, a menos de una constante a determinar.
Supongamos un cierto gas que hay en un tubo atmosférico de sección unitaria y altura
infinita.
Consideremos una cierta pastilla que está ubicada en la coordenada 𝑧 y de espesor 𝑑𝑧.
De la densidad de moléculas se obtiene la masa de las mismas:
𝑚 𝑚
𝜌= = ⇒ 𝑚 = 𝜌𝐴𝑧
𝑉 𝐴𝑧
La presión es:
𝐹 𝑚𝑎 (𝜌𝐴𝑧)(−𝑔)
𝑃= = = = −𝜌𝑔𝑧
𝐴 𝐴 𝐴
Expresándola en forma diferencial:
𝑑𝑃 = −𝜌𝑔𝑑𝑧
𝑑𝑃 = −(𝑛𝑚)𝑔𝑑𝑧
Donde 𝑛 es la cantidad de moléculas por cm3. La homogeneidad de unidades se da en
las ecuaciones anteriores porque consideramos una sección de tubo unitaria (𝐴 = 1𝑐𝑚2 ).
Otro hecho experimental es la ecuación general de estado de los gases que debe
cumplirse simultáneamente con las ecuaciones anteriores:
𝑃𝑉𝑚 = 𝑅𝑇
19
𝑉𝑚 ⟶ Volumen molar [𝑚3 ]
𝑅 ⟶ Constante universal de Rydberg de los gases, 𝑅 = 8,31 [𝐽⁄𝑚𝑜𝑙 . 𝐾]
𝑇 ⟶ Temperatura absoluta [𝐾]
𝑁𝑎 𝑅
𝑃 = 𝑅𝑇 ⇒ 𝑃 = 𝑛 𝑇 = 𝑛𝑘𝑇
𝑛 𝑁𝑎
Donde se define una nueva constante, denominada Constante de Boltzmann:
𝑅
𝑘 = 𝑁 ⟶ Constante de Boltzmann, 𝑘 = 1,38 × 10−23 [𝐽⁄𝐾 ]
𝑎
Esta última forma de escribir la ecuación de estado de los gases nos vincula
directamente a la presión con la concentración de partículas a través del producto 𝑘𝑇 (que en
equilibrio térmico es constante), que es la energía media de la concentración, también
denominada “energía térmica”.
𝑑𝑃 = 𝑘𝑇𝑑𝑛
Igualándola con la primera expresión de 𝑑𝑃 se tiene:
𝑘𝑇𝑑𝑛 = −𝑛𝑚𝑔𝑑𝑧
Esta última ecuación tiene la siguiente lógica: para que la “pastilla” de gas de ancho 𝑑𝑧
se mantenga estable, las fuerzas de expansión del propio gas contenido en dicha pastilla deben
igualar a las fuerzas gravitatorias debidas a la concentración superior.
Ahora bien, de acá surge necesariamente que las partículas deben poseer una
densidad de distribución determinada (notar que 𝑇 ha sido tomada como constante). De la
última igualdad se obtiene la siguiente ecuación diferencial:
𝑑𝑛 𝑚𝑔
=− 𝑑𝑧
𝑛 𝑘𝑇
Notemos que 𝑚𝑔𝑑𝑧 no es otra cosa que el diferencial de energía potencial 𝑑𝐸, por lo
que:
𝑑𝑛 𝑑𝐸
=−
𝑛 𝑘𝑇
Esta ecuación diferencial las cumplirían no solo las moléculas de gas, sino cualquier
otra partícula que, como el gas, sufra interacciones débiles con las otras partículas.
Resolviendo la ecuación diferencial obtenemos la ecuación de Maxwell-Boltzmann:
1 1
∫ 𝑑𝑛 = ∫ − 𝑑𝐸
𝑛 𝑘𝑇
20
𝐸
ln 𝑛 = − +𝐶
𝑘𝑇
𝑛 = 𝑒 −𝐸⁄𝑘𝑇+𝐶
𝑛 = 𝐴𝑒 −𝐸⁄𝑘𝑇
𝑛|𝐸=0 = 𝐴 = 𝑛0
Por lo tanto, la función de densidad de distribución de partículas de Maxwell-
Boltzmann queda signada por la ecuación:
𝑛(𝐸) = 𝑛0 𝑒 −𝐸⁄𝑘𝑇
Vemos que esta refleja el valor 𝑘𝑇 mencionado, lo cual puede interpretarse como un
principio de equipartición de energía de las moléculas. Según se observa, la energía media 𝐸̅
es independiente de la altura.
21
Concluyendo, podría decirse que todo sistema de partículas con interacción débil
cumple con el principio de equipartición.
-------o-------
Por lo tanto, la energía media 𝐸̅ para un sistema cuántico (donde 𝐸 = ℎ𝑓) resulta:
∞ ∞
∫0 𝐸𝑛0 𝑓(𝐸)𝑑𝐸 ∫0 ℎ𝑓𝑛0 [1 + 𝑒 −ℎ𝑓⁄𝑘𝑇 + 𝑒 −2ℎ𝑓⁄𝑘𝑇 + 𝑒 −3ℎ𝑓⁄𝑘𝑇 + ⋯ ]𝑑ℎ𝑓
𝐸̅ = = ∞
𝑁 ∫0 𝑛0 [1 + 𝑒 −ℎ𝑓⁄𝑘𝑇 + 𝑒 −2ℎ𝑓⁄𝑘𝑇 + 𝑒 −3ℎ𝑓⁄𝑘𝑇 + ⋯ ]𝑑ℎ𝑓
ℎ𝑓
𝐸̅ =
𝑒 ℎ𝑓⁄𝑘𝑇 −1
Que es precisamente la distribución de Planck de la energía para el cuerpo negro.
Se concluye, pues, con Ehrenfest, que el origen del cuanto de Planck está en que los
estados energéticos del conjunto de osciladores no es continuo, sino discreto.
Estadística Cuántica:
En los sistemas cuánticos comenzamos por asumir que existen interacciones fuertes
entre las partículas (o más bien cuasi partículas). Ello lleva a violar el principio de equipartición
y, por lo tanto, a que la estadística de Maxwell-Boltzmann no se cumpla, como podemos
apreciarlo en la radiación del cuerpo negro.
Einstein y Bose, luego demostraron, cada uno por su cuenta, que el conjunto de
cuantos que conforma el campo electromagnético (es decir, los fotones) está distribuido con la
forma:
1
𝑓𝐵𝐸 =
𝑒 ℎ𝑓⁄𝑘𝑇 − 1
22
Esta es la “función de distribución de Bose-Einstein”. Notemos que esta función de
distribución (de probabilidades discretas) da origen a la distribución de Planck. En general,
toda partícula o agente de campo (el fotón es el agente del campo electromagnético) está
distribuida con la función de Bose-Einstein (por ejemplo, entre otras, el gravitón). A todas estas
partículas se las denomina, en honor a Bose, “bosones”; tienen en común masa en reposo
nula y espín entero.
Ya hemos indicado que las partículas cuánticas no siguen la estadística clásica, sino
solo para grandes niveles de energías, como se demuestra en el fenómeno de radiación de
cuerpo negro. Sin embargo, los electrones (y eventualmente los huecos) tampoco siguen la
estadística de Bose-Einstein. La razón principal es que las partículas materiales como el protón
y el electrón están sometidas al principio de exclusión de Pauli (no puede haber dos partículas
con el mismo estado cuántico).
Previo a determinar dicha estadística, analicemos las transiciones entre estados y las
probabilidades asociadas.
Probabilidad de transición.
Definimos ahora a 𝑊𝑖𝑗 como la probabilidad de transición del sistema desde el estado 𝑖
al estado 𝑗, e inversamente a 𝑊𝑗𝑖 como la probabilidad de transición del sistema del estado 𝑗 al
𝑖. Buscamos determinar la relación entre ellas.
𝑊𝑖𝑗 ⟶ 𝑃𝑟𝑜𝑏 (𝑖 → 𝑗)
{
𝑊𝑗𝑖 ⟶ 𝑃𝑟𝑜𝑏 (𝑗 → 𝑖)
23
Ahora consideremos un conjunto de 𝑀 sistemas, donde cada uno de ellos tiene un
estado 𝑖 y un estado 𝑗.
Por cuestiones estadísticas, el número 𝑀 de sistemas debe ser muy grande para que
las variaciones erráticas de las transiciones entre los estados 𝑖 y 𝑗 se anulen entre sí. Además, si
bien nunca podremos saber si un estado particular de un sistema particular está ocupado o no,
siempre que 𝑀 sea suficientemente grande, se puede conocer con precisión la proporción de
los estados que están ocupados frente al total de 𝑀 sistemas. Más precisamente, podemos
evaluar la probabilidad de ocupación de los estados 𝑖 y 𝑗 de forma independiente, de acuerdo
a la estadística de Maxwell-Boltzmann.
𝑛(𝐸𝑖 ) = 𝐴𝑒 −𝐸𝑖⁄𝑘𝑇
{
𝑛(𝐸𝑗 ) = 𝐴𝑒 −𝐸𝑗⁄𝑘𝑇
𝑛𝑗→𝑖 = 𝑛𝑖→𝑗
𝑊𝑗𝑖 𝑒 −𝐸𝑖⁄𝑘𝑇
=
𝑊𝑖𝑗 𝑒 −𝐸𝑗⁄𝑘𝑇
𝑊𝑗𝑖
= 𝑒 (−𝐸𝑖+𝐸𝑗)⁄𝑘𝑇
𝑊𝑖𝑗
24
𝑊𝑗𝑖
= 𝑒 −(𝐸𝑖−𝐸𝑗)⁄𝑘𝑇 = 𝑒 −∆𝐸⁄𝑘𝑇
𝑊𝑖𝑗
Esta última expresión quiere decir que la relación entre las probabilidades de
transición entre dos estados 𝑖 y 𝑗 es exponencial respecto a la diferencia de energía entre ellos.
En un sistema físico, la máxima probabilidad de transición pertenece a las partículas que
están ubicadas en los estados de mayor energía. Como estas probabilidades de transición no
dependen de restricciones cuánticas, esta última expresión es válida, haya o no interacción
entre las partículas. La probabilidad de transición existe aunque la partícula misma no pueda
existir.
Volviendo al tema que nos compete, definamos una función 𝑓 que describa la
probabilidad de ocupación de los estados dinámicos de un sistema cuántico, según sea su
energía.
Notemos que para definir todos los valores intermedios de esta función podemos usar
las dos definiciones de probabilidad. Una, que es la frecuencial, requiere un conjunto 𝑀 de
sistemas suficientemente grande. La otra, que es temporal, requiere que se cumpla la
propiedad de ergodicidad (requiere que el tiempo de observación tienda a infinito).
Como 𝑀 es muy grande, las variaciones erráticas se anulan entre sí, dando un valor
medio de ocupación que coincide con la probabilidad (0,5).
25
𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑜𝑐𝑢𝑝𝑎𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑛𝑖𝑣𝑒𝑙 𝑗
𝑓𝑗 =
𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖ó𝑛
-------o-------
Se aplican ahora a esta definición las restricciones cuánticas. Para que haya una
transición:
2°) El estado receptor debe estar vacío (debido al principio de exclusión de Pauli).
𝑖 → 𝑗 = 𝑀𝑓𝑖 (1 − 𝑓𝑗 )
{
𝑗 → 𝑖 = 𝑀𝑓𝑗 (1 − 𝑓𝑖 )
26
𝑛𝑖→𝑗 = 𝑛𝑗→𝑖
𝑊𝑖𝑗 𝑓𝑖 (1 − 𝑓𝑗 ) = 𝑊𝑗𝑖 𝑓𝑗 (1 − 𝑓𝑖 )
𝑓𝑖 𝑓𝑗
= 𝑒 (−𝐸𝑖+𝐸𝑗)⁄𝑘𝑇
1 − 𝑓𝑖 1 − 𝑓𝑗
𝑓𝑖 𝑓𝑗
= 𝑒 −𝐸𝑖⁄𝑘𝑇 𝑒 𝐸𝑗⁄𝑘𝑇
1 − 𝑓𝑖 1 − 𝑓𝑗
𝑓𝑖 𝑓𝑗
𝑒 𝐸𝑖⁄𝑘𝑇 = 𝑒 𝐸𝑗⁄𝑘𝑇
1 − 𝑓𝑖 1 − 𝑓𝑗
En esta última expresión se observa que el primer término depende sólo de 𝑖, y que el
segundo depende sólo de 𝑗. Pero como tanto 𝑖 como 𝑗 son estados energéticos arbitrarios, la
expresión vale para todos los estados de los sistemas en equilibrio, por lo tanto la única
alternativa de igualdad entre ambos miembros es que ambos sean igual a una constante. Es
decir que:
𝑓𝑗
𝑒 𝐸𝑗⁄𝑘𝑇 = 𝐶
1 − 𝑓𝑗
Donde 𝐶 es una constante independiente del estado particular 𝑗, y sólo función del
número total de partículas del sistema y de la temperatura. Despejando 𝑓𝑗 , se tiene que:
𝑓𝑗 𝑒 𝐸𝑗⁄𝑘𝑇 = 𝐶(1 − 𝑓𝑗 )
𝑓𝑗 𝑒 𝐸𝑗 ⁄𝑘𝑇 = 𝐶 − 𝐶𝑓𝑗
𝑓𝑗 𝑒 𝐸𝑗 ⁄𝑘𝑇 + 𝐶𝑓𝑗 = 𝐶
𝑓𝑗 (𝑒 𝐸𝑗⁄𝑘𝑇 + 𝐶) = 𝐶
𝐶
𝑓𝑗 = 𝐸𝑗 ⁄𝑘𝑇
𝑒 +𝐶
𝐶
𝑓𝑗 = 𝐸𝑗 ⁄𝑘𝑇
𝑒
𝐶( 𝐶 + 1)
1
𝑓𝑗 =
1
1 + 𝐶 𝑒 𝐸𝑗⁄𝑘𝑇
𝐶 = 𝑒 𝐸𝑓⁄𝑘𝑇
Se tiene que:
27
1
𝑓𝑗 =
1 𝐸𝑗 ⁄𝑘𝑇
1+ 𝐸𝑓⁄𝑘𝑇 𝑒
𝑒
1
𝑓𝑗 =
1 + 𝑒 (𝐸𝑗 −𝐸𝑓)⁄𝑘𝑇
Eliminando el subíndice 𝑗, se obtiene:
1
𝑓𝐹𝐷 (𝐸) =
(𝐸−𝐸𝑓 )⁄𝑘𝑇
1+𝑒
. Para T = 0°K
28
Para 𝑇 = 0°𝐾, todos los electrones ocupan el menor estado de energía posible.
Entonces, el nivel de Fermi es aquel nivel de energía propio del cristal para el cual, a 0°K, todo
estado dinámico cuya energía es mayor que la de este nivel, está vacío, y todo estado de
energía menor que dicho nivel, está ocupado. De aquí surge la definición física: es el estado
máximo de energía que puede ocupar un electrón a 0°K.
- Distribución de estados
Hasta aquí hemos hablado de la probabilidad de ocupación de los estados dinámicos.
Ahora debemos hablar de distribución de los estados, entendiendo ello a cómo están
distribuidos los estados en un cierto intervalo de energía.
Aquí nuevamente habrá que considerar una diferencia esencial entre los sistemas
cuánticos y los sistemas clásicos: mientras que en los sistemas clásicos hay una distribución
continua de estados, en los sistemas cuánticos hay una distribución discreta. Tengamos en
cuenta el comportamiento de ambos tipos de partículas en el denominado “espacio de
estado” (por ejemplo, una banda de energía). Un estado energético es un punto en ese
espacio.
En la física clásica, un estado queda definido para un instante determinado por una
posición y sus velocidades; considerando un espacio físico tridimensional, se tendrán tres
29
coordenadas de posición y tres coordenadas de velocidad (o lo que a los fines prácticos nos
resulta lo mismo, de impulso 𝑝 = 𝑚𝑣). Notemos que el sistema tiene seis grados de libertad, y
que además puede ocupar absolutamente todos los puntos de ese espacio. Un sistema
cuántico, en cambio, tiene cuatro grados de libertad, que son los dados por los cuatro
números cuánticos, y sólo admite una cantidad finita de estados permitidos.
Donde:
𝑝𝑥 = 𝑚𝑣𝑥
{ 𝑦 = 𝑚𝑣𝑦
𝑝
𝑝𝑧 = 𝑚𝑣𝑧
A su vez, las relaciones de incertidumbre1 son:
∆𝑝𝑥 ∆𝑥 ≥ ℎ
{∆𝑝𝑦 ∆𝑦 ≥ ℎ ⇒ (∆𝑝𝑥 ∆𝑝𝑦 ∆𝑝𝑧 )(∆𝑥∆𝑦∆𝑧) ≥ ℎ3 ⇒ ∆𝑉𝑝 ∆𝑉 ≥ ℎ3
∆𝑝𝑧 ∆𝑧 ≥ ℎ
1
Notar que aunque el principio de incertidumbre, según se vio antes, es ∆𝑟∆𝑝 ≥ ℏ, aquí se lo utiliza
simplemente bajo la forma ∆𝑟∆𝑝 ≥ ℎ.
30
La última expresión es denominada “relación volumétrica de Heisenberg”, y expresa el
vínculo entre el sistema espacial y el sistema de momentos.
Esto quiere decir que “localizar” la partícula en cierta posición espacial implica una
cierta incertidumbre en su “localización” en el espacio de momentos. Básicamente, esta
propiedad es la que nos permite computar la cantidad de estados en un cierto volumen de
energía.
ℎ3
∆𝑉𝑝𝑚𝑖𝑛 =
𝛥𝑉𝑚𝑖𝑛
Pero hay que considerar que el principio de exclusión de Pauli permite hasta dos
partículas con el mismo conjunto de coordenadas (espaciales y de momento) siempre que
tengan diferente spin. Por lo tanto, en un sistema cuántico tendremos un volumen mínimo de
′
incertidumbre en el espacio de momentos ∆𝑉𝑝𝑚𝑖𝑛 que será:
′ 1 ℎ3
∆𝑉𝑝𝑚𝑖𝑛 =
2 𝛥𝑉𝑚𝑖𝑛
El mismo es muy pequeño, pero siempre varias veces mayor que el volumen mínimo de
′
incertidumbre (vale decir 𝑑𝑉𝑝 ≫ ∆𝑉𝑝𝑚𝑖𝑛 ). Esta condición es para que las variaciones erráticas
de ocupación y de vacantes de estados se anulen entre sí, y valga dentro de ese volumen 𝑑𝑉𝑝
la probabilidad de Fermi-Dirac con su función de distribución 𝑓𝐹𝐷 (𝐸). Esto quiere decir que
dicho volumen elemental no es en realidad un volumen diferencial, pero se lo mantiene con
esa notación para poder usar la integración como herramienta de cálculo.
31
𝑑𝑉𝑝 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧 2 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝑑𝑁 = ′ = =
∆𝑉𝑝𝑚𝑖𝑛 1⁄2 ∙ ℎ3 ⁄𝛥𝑉𝑚𝑖𝑛 ℎ3 1⁄𝛥𝑉𝑚𝑖𝑛
𝑑𝑁 2
𝑑𝑆 = = 3 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝛥𝑉𝑚𝑖𝑛 ℎ
𝑛(𝐸) = 𝑓(𝐸)𝑆(𝐸)
En particular, si 𝑛(𝐸) se trata de fermiones, 𝑓(𝐸) debe ser la función de Fermi-Dirac, y
𝑆(𝐸) debe responder a los estados que cumplen con el principio de incertidumbre. Así:
𝑛 = ∫ 𝑓𝐹𝐷 (𝐸)𝑑𝑆(𝐸)
−∞
Este cálculo es un cálculo integral aproximado, ya que los estados energéticos no están
distribuidos de forma continua, sino discretamente. No obstante, 𝑑𝑆(𝐸) puede ser aún lo
suficientemente pequeño, ya que las incertidumbres asociadas también lo son, por lo que la
integral puede considerarse prácticamente exacta. Según se vio recientemente, la
concentración de estados en el espacio físico es:
2
𝑑𝑆(𝐸) = 𝑑𝑝 𝑑𝑝 𝑑𝑝
ℎ3 𝑥 𝑦 𝑧
Y la distribución de Fermi-Dirac es:
1
𝑓𝐹𝐷 (𝐸) =
(𝐸−𝐸𝑓 )⁄𝑘𝑇
1+𝑒
Por lo tanto, 𝑛 quedará:
∞
2 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝑛=∭
ℎ3 1 + 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇
−∞
∞
2 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝑛 = 3∭
ℎ 1 + 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇
−∞
32
Notemos que debemos computar una triple integral, donde las variables dependientes
finalmente son las velocidades, ya que 𝑝 = 𝑚𝑣.
Debemos considerar en cada paso particular cuáles son los límites de integración, los
que deberán estar de acuerdo al tipo de material considerado y a las bandas que los
constituyen.
Hay que realizar todavía una homogeneización de variables entre energía e impulso. En
general, e independientemente de los límites de energía, podremos escribir la relación entre la
energía y el impulso de la siguiente forma:
También debemos tener en cuenta los intervalos de energía en donde dichas partículas
pueden encontrarse en estado libre. Así, para los electrones “libres”, que tienen energías
mayores o iguales que la del piso de la banda de conducción, resulta:
Para los huecos “libres”, que tienen energías menores o iguales que la del techo de la
banda de valencia, resulta:
33
1
𝑓𝐹𝐷 (𝐸) = ≅ 𝑒 −(𝐸𝑓−𝐸)⁄𝑘𝑇
(𝐸𝑓 −𝐸)⁄𝑘𝑇
1+𝑒
Reemplazando esto en la integral expresada más arriba:
∞
2
𝑛 = 3 ∭ 𝑒 −(𝐸𝑓−𝐸)⁄𝑘𝑇 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
ℎ
−∞
34