Sie sind auf Seite 1von 34

CAPITULO 2

MODELO DE BANDAS DE LOS SOLIDOS

TEMA A: Características Eléctricas del Estado Sólido

Un sólido (materia condensada) es materia en un estado caracterizado por una


composición cristálica o cristalina, es decir, por un ordenamiento de átomos que tiende a ser
periódico y regular a lo largo de la pieza del material. Esto significa que estructuralmente, el
material se caracteriza por su composición sobre la base de cristales.

Esta estructura de cristales tiene que ver con el tipo de ligadura atómica prevaleciente
en los sólidos. Recordemos que por lo general las ligaduras se forman por la tendencia de los
átomos a tener siempre ocho electrones en su último orbital, es decir, completar el “octeto”.

Como sabemos, las ligaduras atómicas pueden ser de 4 tipos:

 Ligaduras atómicas.

 Ligadura iónica

Es un enlace fuerte, con energías típicas entre 1 y 10 eV, y se rige por la ley de
atracción de Coulomb. En general intervienen en este tipo de enlace los grupos extremos de la
tabla periódica (I y VII, es decir, a los que les sobra y a los que les falta un electrón para
completar el octeto; y en algunos casos II y VI). Los átomos tienden a perder o ganar
electrones para completar su último estado orbital, quedado así ionizados de forma positiva o
negativa, respectivamente.

En este enlace se necesita por lo menos un ion negativo y otro positivo, como por ejemplo en
la molécula del cloruro de sodio (ClNa-). En realidad, en el propio caso de la sal es posible
conformar cúmulos de moléculas que están atraídas entre sí, con tal que se produzca un cierto
ordenamiento espacial. Esta es la razón por la que el cloruro de sodio puede cristalizarse,
aunque en forma irregular. Este tipo de ordenamiento se traduce en una propiedad mecánica
de fragilidad y una eléctrica de poca conductividad

 Enlace covalente fuerte

Es un enlace fuerte, con un rango de energías entre 3 y 10 eV. Consiste en compartir


electrones entre dos o más átomos, y se da normalmente en los materiales o elementos de
grupos medios de la tabla, en particular de los grupos III, IV y V.

El enlace característico del grupo IV es el correspondiente al del carbono, que


dependiendo de las condiciones de presión y temperatura, puede cristalizar en forma
tetraédrica (como el diamante) o en forma hexaédrica (como el grafito).

1
Desde el punto de vista del modelo químico de valencias, la estructura elemental del
cristal (tetraédrico) se produce de acuerdo al siguiente esquema gráfico:

El enlace covalente, como en el caso del carbono diamantizado, exige un intercambio


ordenado de electrones, si tomamos al electrón en su imagen como partícula. Genera un nivel
de conductibilidad intermedia y, por ende, una característica de semiconducción.

 Enlace covalente débil

Llamado a veces enlace metálico, es un enlace débil, con energías típicas entre 1 y 5
eV. Intervienen en el tipo de enlace los elementos de los grupos intermedios de la tabla
periódica, particularmente los del grupo de II y del grupo VI (por ejemplo, el cobre). También
adquieren este tipo de enlace algunos materiales de los grupos III y V.

La clave es que nuevamente la compartición de electrones es el principio del enlace,


pero con mucha menor cantidad de electrones por órbita. Por ejemplo, en los materiales del
grupo II se requieren muchos átomos para conformar una órbita estable, de modo que no sólo
deben intervenir los electrones del último nivel energético, sino también los de los subniveles
más internos. Esto implica que las distancias de enlaces son más cortas y también mayor la
cantidad de átomos que conforman la unidad de cristalización. También podemos hablar aquí
de cristales tetraédricos o poliédricos, pero en casi todos los casos con átomos centrados en el
cuerpo del cristal o en las caras del cristal. Este tipo de enlace genera materiales que son
mecánicamente maleables, opacos y buenos conductores en general.

 Ligadura de Van Der Waals

Es una interacción entre los momentos dipolares eléctricos de átomos o moléculas, y


caracteriza básicamente al estado gaseoso. Es un enlace débil, con energías menores de 3 eV.
La energía potencial de interacción baja con mucha rapidez al aumentar la distancia 𝑟 de
separación, por lo general en función de 1⁄𝑟 6 , por lo que no se necesita mucha energía
térmica de agitación para romper estos enlaces débiles.

2
 Enlaces covalentes desde el punto de vista de la Mecánica
Cuántica. (esquema de cristales)

Aunque hay ciertos componentes iónicos en la electrónica, el interés tecnológico se centra


principalmente en los materiales covalentes

La materia sólida en general tiende a ubicarse en pequeña estructuras regulares que tienden a
repetirse y denominamos cristales. Precisamente sin los cristales covalentes los que tienden a
agruparse uniformemente, no así los metales iónicos

En general dos o mas átomos que conforman un cristal resulta del equilibrio entre fuerzas de
atracción y fuerzas de repulsión, un cristal iónico enlaza átomos que están sometido a fuerzas
1
colombianas que dependen de . A la vez los electrones que se encuentran en la última
𝑟2
órbita sufren fuerzas de repulsión de naturaleza cuántica por el principio de exclusión
de Pauli

Observamos que las fuerzas de repulsión son de corto alcance mientras que las de atracción
son de largo alcance.

La función de energía potencial que representa a ambas tiende a presentar un mínimo relativo
a cierta distancia r0. Esta distancia depende del tipo de átomo considerado y también de la
temperatura.

En un enlace covalente la situación es similar solo que las fuerzas de atracción no son de
naturaleza eléctrica sino de naturaleza cuántica. Aquí también puede obtenerse un mínimo
relativo de la energía potencial asociada a cierta energía potencial r0. Un caso paradigmático
del enlace covalente fuerte es el carbono diamantatizado que tiende a conformar cristales
tetraédricos altísimamente regulares material transparente fuerte y rígido

3
EL cristal tetraédrico no es el único tipo de cristal que puede conformar, ni siquiera es el único
tipo de cristal que puede tomar el carbono; Puede conformar forma hexaédrica espaciales o
incluso planares. Materiales estables y en consecuencia además de rígidos mecánicamente
pobre conductividad.

La clave de la estabilidad del enlace probablemente reside no solo en la regularidad espacial


sino también en la coordinación temporal de los intercambios electrónicos

Coordinación de enlaces mediante pares hueco-electrón

La coordinación temporal del enlace en el extremo puede concebir en el intercambio de pares


hueco-electrón. Cualquier descoordinación en el enlace producirá la liberación de electrones,
pero a la par la liberación de huecos receptores, es decir la descoordinación puede
representarse como la rotura de pares hueco-electrón.

A muy bajas temperaturas debemos suponer que existe una gran coordinación tanto espacial
como temporal de los enlaces y en consecuencia podemos representar al material como un

4
mar de pares hueco electrón ligados lo que es imposible establecer la conducción eléctrica por
el movimiento de electrones. Al aumentar la temperatura la probabilidad de descoordinación
aumenta por lo que sería imposible establecer un transporte de cargas de electrones libres. Lo
podemos estableces atreves de los huecos

En el caso de los enlaces covalentes débiles como el cobre existe una gran disponibilidad de
estados libres por unidad de volumen del material, es decir una densidad baja de intercambio
de electrones para conformar el enlace cristalino.

Aquí no se requiere coordinación temporal y como resultado el material es más conductivos


aun a bajas temperatura.

A raíz de esto y a diferencia del covalente fuerte en general no existe carga por el movimiento
de electrones a lo largo del material que van de átomo a átomo.

 Modelo energético del cristal.

El cristal desempeña un rol fundamental en las propiedades estructurales y eléctricas


del material. Energéticamente, podríamos representar el enlace de un cristal por dos fuerzas
contrapuestas, una de atracción y otra de repulsión. La fuerza de atracción, en los cristales
iónicos es la fuerza de Coulomb, pero en los cristales covalentes no lo es; no obstante, está
claro que existe dicha fuerza y que también depende de la inversa de r². Simultáneamente, la
fuerza de repulsión (también denominada fuerza de Pauli), puede decirse que deriva de evitar
la violación del principio de exclusión de Pauli. Ambas fuerzas dependen de la densidad de
probabilidad espacial y, en consecuencia, de r², una inversamente (la de atracción) y otra
directamente (la de repulsión). De aquí podemos calcular las energías de potencial asociadas y
construir un diagrama energético de la interacción.

Notemos que las probabilidades de interacción dependen del grado de desorden de las
trayectorias, y consecuentemente de la temperatura. Así, al aumentar la temperatura se
desplazan las curvas de potencial, produciendo un valle a una distancia de equilibrio distinta,
en general mayor.

Por otro lado, hay que considerar que los niveles de energía que pueden ocupar los
electrones de un átomo son discretos. Esto significa que sólo pueden existir determinados
niveles de energía permitidos, y todos los otros son prohibidos. Los diagramas de energía de
un átomo aislado, por consiguiente, son diagramas de rayas y no de bandas.

5
 Bandas de energía:

Dado que para cada nivel de energía se tiene una distancia 𝑟 máxima de separación entre un
electrón que ocupa dicho nivel y el núcleo del átomo, se establece así una energía potencial
máxima que el electrón en cuestión puede adquirir para ese nivel de energía. Esta energía
potencial máxima determina una “barrera de potencial” que delimita el “pozo de potencial”
donde el electrón está confinado. Gráficamente, esto es:

Este diagrama es correcto para un átomo aislado, pero cuando los átomos se agrupan
formando cristales, esto cambia un poco. Para tener un modelo básico del cristal tenemos que
considerar simultáneamente ambos tipos de diagramas. Esto lo podemos hacer redibujando
los pozos de potencial coulombianos, pero ahora separados una distancia de equilibrio 𝑎0 , que
es la distancia de enlace.

Al enlazar 2 átomos dentro del radio de equilibrio 𝑎0 del enlace, tienden a


distorsionase los orbitales más externos de cada átomo; en particular, se altera la barrera de

6
potencial interna (varía la distribución de la energía potencial en el espacio) y el último estado
energético tiende a unificarse, como ya se ha advertido en la explicación de los enlaces.

Sin embargo, esto no puede aplicarse de una manera simple, ya que tiende a violarse
el principio de exclusión de Pauli. Por ejemplo, supongamos dos átomos de hidrógeno cuyo
último nivel de energía está caracterizado por 2𝑠 2 . Al unificar el nivel externo de energía,
quedaríamos con 2𝑠 2 + 2𝑠 2 = 2𝑠 4 , que viola el principio de exclusión de Pauli. La naturaleza
tiende a resolver este problema mediante una hibridación de estados, que lo hace
desdoblando el estado energético puro, creándose así un subestado ligeramente por debajo
del estado energético original, y otro ligeramente por arriba. El intervalo energético de esta
hibridación 𝛥𝐸 depende del tipo de enlace, pero fundamentalmente de la distancia de
equilibrio del mismo (mientras más cercano sea el enlace, mayor es el intervalo 𝛥𝐸).

Esta hibridación de niveles es un fenómeno cuántico-ondulatorio que tiene su


parangón en los fenómenos ondulatorios clásicos, como por ejemplo la interacción de dos
osciladores acústicos o eléctricos. En un transformador doblemente sintonizado se produce
este efecto.

La modificación sustancial se da en el hecho de que a partir de un determinado nivel


energético, el pozo de potencial desaparece, lo que permite que ciertos niveles que antes
estaban dentro del pozo propio de cada átomo, sean ahora comunes a todos. Esto permite que
un electrón encerrado en un pozo común a ambos átomos, no pueda escapar del conjunto,
pero sí podrá desplazarse entre ellos.

Si se analiza un cristal, los mismos conceptos que valen para los dos átomos deben
generalizarse para una cantidad muy grande de átomos. Si el cristal tiene un volumen de
1 𝑐𝑚3 , existen en él, aproximadamente, 1023 átomos. Se puede demostrar que las energías
extremas en un desdoblamiento no varían al variar el número de átomos; son las mismas para
dos átomos que para el cristal, manteniéndose el intervalo 𝛥𝐸 característico. Por lo tanto, en
un cristal de 1 𝑐𝑚3 , existen unos 1023 niveles discretos de energía entre los niveles
desdoblados en el caso de dos átomos. Una cantidad tan grande de niveles discretos de
energía determina que se comporten como una banda de energía de niveles continuamente
variables. Las energías que la delimitan se denominan “fondo” y “tapa” de la banda,
respectivamente. Queda así determinado lo que se denomina modelo energético del cristal:

7
- Teoría de bandas

Si la distancia 𝑎0 de separación entre los átomos varía, también varía el


desdoblamiento de los niveles de energía. En el caso de dos átomos, resulta:

Para una separación mayor que 𝑎1 no existe interacción entre los niveles y, por lo
tanto, no existe desdoblamiento de las energías. Serían átomos de un gas. Para la separación
𝑎0 , que es la distancia real en el cristal, las energías se desdoblan en 𝐸4′ y 𝐸4′′ . Si la separación
fuese menor, el desdoblamiento sería aún mayor.

En un cristal, prácticamente todas las energías entre 𝐸4′ y 𝐸4′′ son permitidas, por lo
que, según se dijo anteriormente, se representan como una banda:

Si la separación entre los átomos sigue disminuyendo, también los niveles inferiores
comienzan a interaccionar entre sí:

Estos diagramas son teóricos en el sentido que la separación 𝑎 entre los átomos de un
cristal no es variable, sino que se mantiene en 𝑎0 .

8
- Bandas en los metales

En los enlaces metálicos (covalentes débiles) la distancia de interacción es menor, como ya se


advirtió, debido a la necesidad de que intervengan en el enlace las subcapas energéticas más
internas.

Por ejemplo, si tomamos el cobre, cuya estructura electrónica de la última órbita es


tan sólo de 2 electrones en el nivel 4, y acercamos múltiples átomos entre sí, tenderá a
producirse una hibridación gradual que sigue la forma de la siguiente figura:

Como podemos apreciar, a la distancia real de los átomos 𝑎𝑜 , las bandas superiores se
solapan entre sí, formando una única banda prácticamente continua, que denominaremos
“banda de conducción”, y no habiendo bandas prohibidas entre esos niveles energéticos.

Esto produce una gran cantidad de estados disponibles para relativamente pocos
electrones de enlace. Debido a esto, una pieza de metal puede ser representada, a los efectos
de la conducción eléctrica, prácticamente como la batea de potencial clásica cuya profundidad
es 𝑒𝜙 , que es la energía de extracción del metal. Dentro de esta banda única de conducción,
los electrones se encuentran en un estado virtualmente gaseoso (gas electrónico), ya que se
encuentran en una concentración espacial muy baja, con distancias medias de separación
relativamente grandes. Esta característica hace que este tipo de materiales tenga una alta
conductividad eléctrica y también térmica, por lo que en estas condiciones es muy simple
producir la conducción eléctrica por efecto de la aplicación de un campo eléctrico.

9
- Modelo de bandas de los sólidos
Lo que sí puede ocurrir, es que en un cristal, a la separación real 𝑎0 haya más de una banda
permitida, y en este caso las bandas permitidas están separadas por bandas prohibidas.

. Propiedades semiconductores

Las bandas de energías permitidas pueden estar ocupadas por electrones o no. Una banda
puede estar llena, parcialmente llena, parcialmente vacía, o vacía. Una banda prohibida, en
cambio, está siempre vacía.

En los enlaces covalentes fuertes, la hibridación alcanza sólo a los dos últimos subniveles. Por
ejemplo, átomos del grupo IV (como carbono, silicio y germanio) presentarían una hibridación
gradual según la distancia de enlace, como se aprecia a en el siguiente gráfico:

En el diagrama de bandas de energía de estos sólidos,'que cristalizan en el sistema del


diamante, aparecen algunas características distintivas. La última órbita tiene la estructura
física s2 — p2. Significa la existencia en ella de cuatro electrones sobre ocho estados posibles,
pues esos dos niveles llenos de electrones se escribirían s2 — p6. El nivel s2 se indicará (2/2)
significando 2 niveles y 2 electrones. El nivel p2 se indicará (2/6) significando dos electrones y 6
niveles. Con esta nomenclatura el diagrama 3.13 representa la situación que debernos
analizar. Si la separación entre átomos es al o mayor, no existe interacción entre los electrones
y por consiguiente los niveles son discretos y no existe desdoblamiento, ni, por consiguiente,
formación de bandas. Estamos en presencia
de un gas.

10
Cuando la separación es a2 existe un desdoblamiento normal y aparecen dos bandas de
energía, una superior cáracterizada por (2/6), vale decir con dos electrones para llenar los seis
niveles disponibles y una inferior caracterizada por (2/2), con dos electrones para llenar los dos
niveles disponibles. Lógicamente la banda superior está casi vacía, mientras la inferior está
llena.
Entre las distancias a3 y a4 ocurre un reagrupamiento de niveles y de bandas. Las dos bandas
degeneran en una sola que tiene todos los electrones (4) y todos los niveles (8) de las dos
bandas anteriores. Se indica (4/8). Para distancias menores de a4 nuevamente se reagrupan
los estados de energía y los electrones que los ocupan, determinando otra vez dos bandas.
Pero la distribución de los electrones disponibles y de los estados de energía totales es
diferente a la existente en la zona a2. La banda superior lleva consigo cuatro estados y ningún
electrón, mientras que en la banda inferior quedan cuatro estados y cuatro electrones. Se las
indica (0/4) y (4/4) respectivamente. La superior es una banda vacía y la inferior llena. Se las
llama de conducción y de valencia respectivamente, por motivos que se verán más adelante.
Las dos bandas quedan separadas por una banda prohibida que se indica (0/0).
El salto de energía necesario para que un electrón pase de la banda de valencia a la de
conducción se denomina Eg. En el diagrama 3.13 el valor numérico de Eg es 5,5 eV • para el
carbono, 1,1 eV para el silicio y 0,7 eV para el germanio.
Los diagramas normales de bandas de energía representan solamente la situación a la
distancia de separación de los átomos a0, que es la real en el cristal.
De esta manera, el mismo diagrama anterior se representa en siguiente
El eje horizontal no debe asociarse a ninguna magnitud, si bien en alguna oportunidad indicará
la dirección de algún eje cristalográfico en particular y alguna magnitud, el momento por
ejemplo, asociado a él.

La banda prohibida tiene un gap de magnitud 𝐸𝑔 que depende del material


considerado. Dicho gap es de alrededor de 5,5 eV para el carbono diamantizado, 0,7 eV para el
germanio, y 1,1 eV para el silicio. Como puede apreciarse, la energía 𝐸𝑔 es la energía de
ionización de cada material.

Cuando la banda prohibida es pequeña, los electrones pueden saltar con mucha
facilidad a la banda de conducción, lo que le otorga al material la capacidad de conducir
electricidad. Es por esto que los gap inferiores a aproximadamente 2 eV dan origen a los
materiales denominados “semiconductores”. De hecho, a medida que aumenta la
temperatura de un semiconductor, la población en la banda de conducción aumenta con
mucha rapidez, y también la conductividad eléctrica.

- Aislantes
En estado de equilibrio, sus bandas de energía tienen una disposición similar a la de los
semiconductores, pero con la única diferencia de que la banda prohibida tiene un gap superior
a 5 eV.

11
Al ser tan grande el salto energético que un electrón debe realizar para pasar a la
banda de conducción, no hay energía térmica suficiente para producirlo sin dañar antes el
material. Si se aplicara un campo eléctrico lo suficientemente grande como para vencer el
salto energético de la banda prohibida, se produciría la ruptura del dieléctrico, estropeando el
material. Por eso las conductividades eléctricas y térmicas son prácticamente nulas.

 Conducción eléctrica en los metales según la teoría de bandas:

En la física clásica se imaginaba al material conductor como una batea de potencial en el que lo
electrones permanecían vinculados al material.
Sin embargo, mantenían cierta capacidad de movilidad. Aplicando un campo eléctrico se
producía un desplazamiento y producía una corriente eléctrica,
Así los físicos clásicos imaginaban a los electrones como formando una nube de gas atrapado
en la batea.

El piso de la batea de potencial corresponde a la denominada función trabajo o energía de


extracción que mide la energía necesaria para que un electrón se libere de dicho potencial.
Cuando observamos el modelo de banda de un metal comparado con un gas de electrones
atrapado en la batea no podemos dejar de destacar la equivalencia de los dos modelos, a fin
de cuentas, la banda de energía es una multiplicidad de estados posibles en la que pueden
situarse los electrones de acuerdo a la energía que posee.
Al haber gran concentración de estados disponibles y una baja concentración de electrones en
ambos modelos podemos tratar la condición eléctrica como la molécula de gas de la teoría
cinética de gases, hebra choques de electrones y de hecho con la malla cristalina, tal que se
mantendrá en equilibrio de concentración a lo largo de la pieza metálica, equilibrio que estará
caracterizado por una temperatura (temperatura de estadística) todo esto pertenece a la
teoría de gases

12
 Ley vectorial de Ohm

La abundancia de estados disponibles en un material conductor, que se manifiesta


como una única banda, permite describir a la concentración de portadores (electrones) como
si fuera un gas (concentración diluida).

Los electrones se encuentran casi en estado libre y, en consecuencia, son el vehículo


normal del transporte de cargas. Esto permite trazar un puente con la teoría clásica de
conducción eléctrica, en la que un metal conductor se representaba con una batea de
potencial conteniendo un gas de electrones. Notemos que la profundidad de la batea, que es
𝑒𝜙 (energía de extracción), coincide aproximadamente con la profundidad de la banda de
conducción.

De esta forma, la teoría clásica de conducción se las arregla bien para explicar el
transporte de cargas, suponiendo que el electrón es como una molécula de gas (una partícula
que se encuentra sometida a fuerzas aleatorias) en un movimiento estocástico, en general, con
desplazamiento medio nulo.

Cuando aplicamos un campo eléctrico, se desarrolla una trayectoria media entre


choque y choque, es decir, un desplazamiento medio no nulo, pero que aún conserva ciertas
características estocásticas. Es como “desenrollar el ovillo” de la trayectoria.

La trayectoria media del electrón se desarrollará entre dos eventos de choque con
otros electrones, choques que pueden considerarse perfectamente elásticos, de modo que la
velocidad inicial media 𝑣⃗𝑚0 del electrón es nula, y la velocidad final media 𝑣⃗𝑚𝑚𝑎𝑥 viene dada
por la aceleración impresa por el campo eléctrico. Dicha trayectoria media será recorrida en un
tiempo libre medio 𝑡𝑙𝑚 entre choques.

Notemos que en este modelo prácticamente despreciamos cualquier interacción


posible entre los electrones que no esté comprendida dentro de la fuerza de choque, así como
también despreciamos la interacción de los electrones con la red cristalina.

Admitiendo este tipo de movimiento, calculemos ahora la aceleración y velocidad


media desarrollada.

13
𝑞
𝐹⃗𝑒 = −𝑞ℰ⃗ = 𝑚𝑒 𝑎⃗ ⇒ 𝑎⃗𝑚 = − 𝑚 ℰ⃗ ⟶Aceleración media
𝑒

𝑞
𝑣⃗𝑚𝑚𝑎𝑥 = 𝑎⃗𝑚 𝑡𝑙𝑚 ⇒ 𝑣⃗𝑚𝑚𝑎𝑥 = − 𝑚 𝑡𝑙𝑚 ℰ⃗ ⟶Velocidad media máxima
𝑒

Pero como la velocidad media inicial 𝑣⃗𝑚0 es nula:


⃗⃗𝑚𝑚𝑎𝑥
𝑣 𝑞
𝑣⃗𝑚𝑚 = 2
⇒ 𝑣⃗𝑚𝑚 = − 2𝑚 𝑡𝑙𝑚 ℰ⃗ ⟶Velocidad media media
𝑒

- Movilidad
Esta ecuación representa un “corrimiento de electrones” en sentido opuesto al del
campo eléctrico ℰ⃗ aplicado, con un tiempo libre medio entre choques 𝑡𝑙𝑚 . La velocidad media
del electrón 𝑣⃗𝑚𝑚 puede ponerse ahora en función de otro parámetro, también medio,
denominado “movilidad”, que representa la mayor o menor facilidad de un electrón para
moverse dentro del metal.

𝑣⃗𝑚𝑚 = −𝜇𝑒 ℰ⃗
Donde se ha definido a la movilidad del electrón 𝜇𝑒 como:
𝑞
𝜇𝑒 = 𝑡
2𝑚𝑒 𝑙𝑚

En el modelo clásico, la movilidad depende del tiempo libre medio entre choques, el
cual a su vez depende de la temperatura. En efecto, a mayor temperatura (estadística)
aumenta la dispersión del movimiento estocástico, con lo que aumenta también la sección
eficaz de choque, por lo que aumenta la probabilidad de choque, y luego disminuye el tiempo
libre medio entre choques. Así, la movilidad debe decrecer con el aumento de la temperatura,
cosa que efectivamente ocurre en la práctica.

- Masa Eficaz
En el modelo de la teoría de bandas podemos considerar gran parte de esta idea, pero sin
perder de vista que el electrón en realidad es una “cuasi partícula”, ya que presenta
simultáneamente propiedades ondulatorias y corpusculares. Precisamente, las propiedades
ondulatorias se refieren a la función de onda, en la que está incorporada la interacción entre
los electrones, y entre éstos y la red cristalina. De esta manera no podemos hablar
auténticamente de una masa del electrón cual si fuera una partícula clásica, sino más bien de
una masa eficaz asociada 𝑚𝑒∗ .

En esta masa eficaz consideramos la participación de la las fuerzas inerciales, pero


además la participación de las fuerzas aparentes de origen cuántico. Notemos que la presencia
de un campo eléctrico puede representarse por un potencial; en el modelo cuántico

14
deberíamos agregar una corrección a ese potencial clásico, que podemos denominar
“potencial cuántico” (como lo sugiere la teoría de David Bohm).

Afortunadamente, la diferencia entre un comportamiento netamente clásico y el


comportamiento real es relativamente pequeña, de modo que la introducción de una masa
eficaz apropiada resulta suficiente. De todas formas se debe tener presente que la masa eficaz
es un concepto relativo al medio, y que como tal, dependerá del metal y de la temperatura.

Admitido esto, podemos proceder como en la teoría clásica y computar la densidad de


corriente 𝐽. Consideremos para ello un volumen elemental 𝛥𝑉 dentro del metal, constituido
por una sección de control 𝛥𝑆, y el desplazamiento medio de los electrones 𝛥𝑙.

Este 𝛥𝑉 es “dinámico”, de modo que la cantidad de electrones que atraviesa la sección


de control 𝛥𝑆 de un conductor es igual a la cantidad de electrones que existen en este
volumen elemental. Si 𝑛 es la concentración de electrones libres, es decir, la concentración de
portadores de cargas negativas, entonces la cantidad total 𝑵 de electrones en el volumen ∆𝑉
es:

𝑁∆𝑉 = 𝑛∆𝑉 = 𝑛∆𝑙∆𝑆 = 𝑛𝑣𝑚𝑚 ∆𝑡∆𝑆

Donde la concentración volumétrica es 𝑛 = 𝑁⁄∆𝑉 [𝑚−3 ].

- Resistividad
La densidad de corriente podemos calcularla ahora en función de la carga incremental 𝛥𝑞 por
unidad de tiempo y por unidad de superficie:

𝛥𝐼 𝛥𝑞
𝐽 = lim = lim
∆𝑆→0 ∆𝑆 ∆𝑡→0 ∆𝑡∆𝑆
∆𝑆→0

Y como la carga total 𝛥𝑞 que hay dentro del volumen ∆𝑉 es:

15
𝛥𝑞
𝛥𝑞 = (−𝑞)𝑁∆𝑉 = −𝑞𝑛𝑣𝑚𝑚 ∆𝑡∆𝑆 = −𝑞𝑛(−𝜇𝑒 ℰ⃗)∆𝑡∆𝑆 ⇒ = 𝑞𝑛𝜇𝑒 ℰ⃗
∆𝑡∆𝑠

Por lo tanto:

𝐽⃗ = 𝑞𝑛𝜇𝑒 ℰ⃗ = 𝜎ℰ⃗

Esta última expresión se denomina “ley puntual (o vectorial) Ohm”, donde 𝜎 = 𝑞𝑛𝜇𝑒
es la conductividad eléctrica del material, que en general depende negativamente de la
temperatura (si aumenta la temperatura, 𝜎 decrece). La resistividad es la inversa de la
conductividad: 𝜌 = 1⁄𝜎 = 1⁄𝑞𝑛𝜇𝑒 .

 Descripción eléctrica del estado sólido, necesidad de determinar la


concentración de portadores.
Por lo visto recientemente, se observa que si se pretende desarrollar modelos
matemáticos con relación a las corrientes en metales y semiconductores, rápidamente nos
topamos con el inconveniente de estimar las concentraciones de portadores negativos y
positivos (𝑛, 𝑝), que son respectivamente electrones y lagunas.

Se estudiará la ubicación de los electrones y lagunas en las distintas bandas permitidas,


pero en equilibrio térmico (a cierta temperatura 𝑇 °K uniforme y constante, y donde la única
interacción con el medio es la temperatura).

Este problema es similar a estimar la concentración poblacional de cualquier elemento


u agente en otros campos científicos (por ejemplo, el social).

TEMA B: Descripción estadística de la concentración de portadores

 Conceptos sobre funciones de distribución.

 Funciones de distribución

Una función de distribución relaciona una determinada magnitud física con el número de
individualidades que poseen un determinado valor de esa magnitud física.

 Función de distribución  Cantidad de partículas que hay en el sistema para cada


valor de energía 𝐸.

 Funciones de densidad de distribución.


Una función de densidad de distribución da el número de individualidades que se
hallan dentro de un intervalo de esa magnitud física.

Si las individualidades fueran partículas y la magnitud física fuera la energía, entonces:

16
 Función de densidad distribución  Cantidad de partículas que hay en un intervalo
unitario de energía entre 𝐸 y 𝐸 + ∆𝐸.

 Comportamiento estadístico de las partículas

Si el problema está descripto en términos de “partículas clásicas”, es decir partículas o


individuos que no interaccionan entre sí, o al menos cuya interacción es débil, seguramente
deberíamos aplicar estimaciones estadísticas clásicas. Pero en el estado sólido en general, y en
los semiconductores en particular, los portadores no son estrictamente partículas, sino cuasi
partículas, cuya masa eficaz incorpora ya el concepto de interacciones cuánticas. En este
sentido ya nos ha advertido Planck, con su distribución de la radiación electromagnética de
cuerpo negro, que las distribuciones clásicas (como la que surge en la cinética molecular de
gases) no pueden aplicarse, y si se aplican, deberá hacerse restrictivamente (recordar la
distribución de Planck frente a la de Rayleigh-Jeans).

Todo esto nos lleva a discutir y determinar las estadísticas cuánticas aplicables y
eventuales aproximaciones.

 Espacio de estado dinámico de las partículas

En nuestro estudio no se considera una cantidad de partículas que corresponda a una


determinada energía, sino una cantidad de partículas con energías comprendidas dentro de un
intervalo ∆𝑬, como es una banda de energía. Ahora que hemos establecido este espacio
dinámico, comparemos la descripción estadística de las partículas clásicas con las cuánticas.

- partículas clásicas (descripción)

Si no existen restricciones cuánticas, la energía de una partícula es una función continua. Es


decir que entre 𝐸 y 𝐸 + ∆𝐸 existen infinitos valores de energía. Esto significa que entre 𝐸 y
𝐸 + ∆𝐸 podrían encontrarse infinitas partículas, lo cual es absurdo. Por ello debe hablarse de
la cantidad específica (finita) de partículas que hay entre 𝐸 y 𝐸 + ∆𝐸.

En otras palabras, como carece de sentido en mecánica clásica hablar de “función de


distribución”, se utiliza la “función de densidad de distribución”.

Una función de densidad de distribución puede definirse de dos maneras. Por un lado,
entendiendo a esta como la distribución de todos los estado posibles que puede adoptar una
partícula, y por el otro, como la distribución de todos los estados que adopta una colección de
partículas. Dicha función nos sirve en primera medida para determinar los parámetros medios
de una partícula (por ejemplo, en una molécula de un gas, su energía media y su velocidad
media).

En cuanto a la primera definición, si la variable estocástica (estocástico es contrario a


determinístico) es continua, su descripción estadística debe hacerse mediante funciones de
densidad de probabilidad. Se define a 𝜌(𝐸) como la densidad de probabilidad de que una
partícula tenga una energía entre −∞ y 𝐸, es decir, una función de densidad de distribución.

17
De esta forma, los estados posibles que puede adoptar dicha variable estocástica se describen
por la integral de la función de densidad de distribución:
𝐸𝑖

∫ 𝜌(𝐸)𝑑𝐸 = 𝑃(𝐸 ≤ 𝐸𝑖 ) = 𝑃(−∞ … 𝐸𝑖 )


−∞

Para todo el espacio de las energías resulta:


∫ 𝜌(𝐸)𝑑𝐸 = 𝑃(−∞ … ∞) = 1
−∞

Por otro lado, la segunda definición nos permite todavía hacer algún otro cálculo, más
precisamente deducir, por ejemplo, el número de partículas de una colección, lo que nos lleva
inmediatamente a poder determinar la concentración de partículas en un rango de estados.
𝑛
𝜌(𝐸) = ⇒ 𝑛 = 𝜌(𝐸)𝑑𝐸 ⟶ Concentración de partículas (número de partículas que existen
𝑑𝐸
en el intervalo 𝑑𝐸 de energía)

𝑁 = ∫−∞ 𝜌(𝐸)𝑑𝐸 ⟶ Número total de partículas del sistema

- partículas cuánticas- caso clásico (descripción)

Debido a las restricciones cuánticas, los estados son discretos, y no continuos, por lo que ahora
sí tiene sentido hablar del número de partículas dentro de un intervalo finito de energías sin
llegar al absurdo antes mencionado. Es decir, se utiliza la “función de distribución”.

La función no es continua, y por lo tanto carece de sentido la integración (o más bien,


la integración se convierte en una sumatoria). Simplemente debemos sumar las partículas que
ocupan cada estado para tener el número total de ellas.

 Estadística Clásica

 Distribución de Maxwell-Boltzman.

La distribución de Maxwell-Boltzmann es una función desarrollada para aplicarla en


sistemas clásicos, por lo tanto es una “función de densidad de distribución”. La estadística de
Maxwell-Boltzmann es ciertamente la estadística clásica. Aunque se aplica en general a
cualquier tipo de partícula considerada más o menos libre de las demás (partículas con
interacciones débiles), debemos indicar que ella surgió de la teoría cinética de gases. Es decir,
su origen está en la descripción del comportamiento estadístico de las moléculas de un gas, y
cómo varía este comportamiento en consecuencia.

La pregunta en este último caso sería la siguiente: Conocida la distribución de energía


de un conjunto estocástico de partículas (ensamble estadístico), si establezco un rango de

18
energías ¿puedo conocer el número de partículas que satisface dicha condición? La respuesta
es sí, a menos de una constante a determinar.

Describamos ahora cómo determinar, por ejemplo, la distribución de energía, o más


precisamente, la densidad de distribución de energía de un conjunto de moléculas que
constituyen, por ejemplo, un gas, y a partir de ella determinar la cantidad total de moléculas
del sistema. Para ello se considerará la distribución de las moléculas de un gas ideal bajo la
acción de la gravedad y de la temperatura.

Supongamos un cierto gas que hay en un tubo atmosférico de sección unitaria y altura
infinita.

El hecho físico inmediato es que la presión ejercida sobre un elemento de volumen


(sobre una de sus caras perpendiculares) decrece a medida que crece la altura. La presión es
ciertamente la fuerza por unidad de superficie, en este caso, debida a la acción gravitatoria
sobre las moléculas del gas. Luego, ello implica que a medida que crece la altura es esperable
una menor cantidad de partículas por unidad de volumen, es decir una menor densidad o
concentración de partículas. Dado que la energía potencial crece a medida que crece la altura,
lo anterior implica que la densidad de partículas (concentración) disminuye con el aumento de
la energía; y esta es la función buscada.

Consideremos una cierta pastilla que está ubicada en la coordenada 𝑧 y de espesor 𝑑𝑧.
De la densidad de moléculas se obtiene la masa de las mismas:
𝑚 𝑚
𝜌= = ⇒ 𝑚 = 𝜌𝐴𝑧
𝑉 𝐴𝑧
La presión es:
𝐹 𝑚𝑎 (𝜌𝐴𝑧)(−𝑔)
𝑃= = = = −𝜌𝑔𝑧
𝐴 𝐴 𝐴
Expresándola en forma diferencial:

𝑑𝑃 = −𝜌𝑔𝑑𝑧
𝑑𝑃 = −(𝑛𝑚)𝑔𝑑𝑧
Donde 𝑛 es la cantidad de moléculas por cm3. La homogeneidad de unidades se da en
las ecuaciones anteriores porque consideramos una sección de tubo unitaria (𝐴 = 1𝑐𝑚2 ).

Otro hecho experimental es la ecuación general de estado de los gases que debe
cumplirse simultáneamente con las ecuaciones anteriores:

𝑃𝑉𝑚 = 𝑅𝑇

19
𝑉𝑚 ⟶ Volumen molar [𝑚3 ]
𝑅 ⟶ Constante universal de Rydberg de los gases, 𝑅 = 8,31 [𝐽⁄𝑚𝑜𝑙 . 𝐾]
𝑇 ⟶ Temperatura absoluta [𝐾]

El volumen molar 𝑉𝑚 se obtiene según el número de Avogadro, 𝑁𝑎 , mediante:


𝑁𝑎
𝑉𝑚 =
𝑛
𝑁𝑎 ⟶ Número de Avogadro: cantidad de moléculas por mol, 𝑁𝑎 = 6,023 × 1023

Reemplazando el volumen molar en la ecuación de estado de los gases:

𝑁𝑎 𝑅
𝑃 = 𝑅𝑇 ⇒ 𝑃 = 𝑛 𝑇 = 𝑛𝑘𝑇
𝑛 𝑁𝑎
Donde se define una nueva constante, denominada Constante de Boltzmann:
𝑅
𝑘 = 𝑁 ⟶ Constante de Boltzmann, 𝑘 = 1,38 × 10−23 [𝐽⁄𝐾 ]
𝑎

Esta última forma de escribir la ecuación de estado de los gases nos vincula
directamente a la presión con la concentración de partículas a través del producto 𝑘𝑇 (que en
equilibrio térmico es constante), que es la energía media de la concentración, también
denominada “energía térmica”.

Diferenciando dicha ecuación, y tomando a 𝑛 como variable:

𝑑𝑃 = 𝑘𝑇𝑑𝑛
Igualándola con la primera expresión de 𝑑𝑃 se tiene:

𝑘𝑇𝑑𝑛 = −𝑛𝑚𝑔𝑑𝑧
Esta última ecuación tiene la siguiente lógica: para que la “pastilla” de gas de ancho 𝑑𝑧
se mantenga estable, las fuerzas de expansión del propio gas contenido en dicha pastilla deben
igualar a las fuerzas gravitatorias debidas a la concentración superior.

Ahora bien, de acá surge necesariamente que las partículas deben poseer una
densidad de distribución determinada (notar que 𝑇 ha sido tomada como constante). De la
última igualdad se obtiene la siguiente ecuación diferencial:
𝑑𝑛 𝑚𝑔
=− 𝑑𝑧
𝑛 𝑘𝑇
Notemos que 𝑚𝑔𝑑𝑧 no es otra cosa que el diferencial de energía potencial 𝑑𝐸, por lo
que:

𝑑𝑛 𝑑𝐸
=−
𝑛 𝑘𝑇

Esta ecuación diferencial las cumplirían no solo las moléculas de gas, sino cualquier
otra partícula que, como el gas, sufra interacciones débiles con las otras partículas.
Resolviendo la ecuación diferencial obtenemos la ecuación de Maxwell-Boltzmann:
1 1
∫ 𝑑𝑛 = ∫ − 𝑑𝐸
𝑛 𝑘𝑇

20
𝐸
ln 𝑛 = − +𝐶
𝑘𝑇
𝑛 = 𝑒 −𝐸⁄𝑘𝑇+𝐶

𝑛 = 𝐴𝑒 −𝐸⁄𝑘𝑇

La constante 𝐴 se determina según el problema. Por ejemplo, si en el problema del


tubo de aire conocemos la altura al piso 𝑧0 , que es donde la energía potencial es nula,
entonces la concentración en el piso 𝑛0 será, según la ecuación anterior:

𝑛|𝐸=0 = 𝐴 = 𝑛0
Por lo tanto, la función de densidad de distribución de partículas de Maxwell-
Boltzmann queda signada por la ecuación:

𝑛(𝐸) = 𝑛0 𝑒 −𝐸⁄𝑘𝑇

La función de densidad de distribución de probabilidad de Maxwell-Boltzmann se


determina dividiendo:
𝑛
𝑓𝑀𝐵 (𝐸) = = 𝑒 −𝐸⁄𝑘𝑇
𝑛0

La generalidad de la función de Maxwell-Boltzmann hizo suponer que todo problema


estadístico estaba sujeto a esta ley natural.

Efectivamente, si calculamos la energía media 𝐸̅ de una colección de partículas, que es


la energía total del sistema (contempla todas las partículas) sobre el número total de partículas
que conforman dicho sistema, se tiene que:
∞ ∞
∫ 𝑛(𝐸). 𝐸. 𝑑𝐸 ∫0 𝑛0 𝑓𝑀𝐵 (𝐸). 𝐸. 𝑑𝐸
𝐸̅ = 0 = ∞ = 𝑘𝑇
𝑁 ∫0 𝑛0 𝑓𝑀𝐵 (𝐸)𝑑𝐸

Vemos que esta refleja el valor 𝑘𝑇 mencionado, lo cual puede interpretarse como un
principio de equipartición de energía de las moléculas. Según se observa, la energía media 𝐸̅
es independiente de la altura.

21
Concluyendo, podría decirse que todo sistema de partículas con interacción débil
cumple con el principio de equipartición.

-------o-------

Precisamente, lo que se demuestra con el fenómeno de la radiación del cuerpo negro


es que no todo conjunto de partículas cumple el principio de equipartición de energía. En
particular, Planck suponía que una teoría cinética apropiada que describiera al conjunto de
osciladores debería basarse en el principio de equipartición. Esto mismo fue chequeado por
Rayleigh y Jeans, que como sabemos, lleva a la denominada catástrofe del ultravioleta. Por el
contrario, Ehrenfest reinterpreta la teoría de Planck y demuestra que no se cumple el principio
de equipartición, suponiendo que el conjunto de osciladores sólo puede adoptar estados
discretos de energía.

La versión discreta de la ecuación de Maxwell-Boltzmann puede expresarse


expandiendo en forma de serie la versión continua. Comparando la versión continua con la
discreta de la ecuación de Maxwell-Boltzmann:

𝑛 = 𝑛0 𝑒 −𝐸⁄𝑘𝑇 ⟶ Versión continua

𝑛 = 𝑛0 [1 + 𝑒 −𝐸1 ⁄𝑘𝑇 + 𝑒 −2𝐸2 ⁄𝑘𝑇 + 𝑒 −3𝐸3 ⁄𝑘𝑇 + ⋯ ] ⟶ Versión discreta

Por lo tanto, la energía media 𝐸̅ para un sistema cuántico (donde 𝐸 = ℎ𝑓) resulta:
∞ ∞
∫0 𝐸𝑛0 𝑓(𝐸)𝑑𝐸 ∫0 ℎ𝑓𝑛0 [1 + 𝑒 −ℎ𝑓⁄𝑘𝑇 + 𝑒 −2ℎ𝑓⁄𝑘𝑇 + 𝑒 −3ℎ𝑓⁄𝑘𝑇 + ⋯ ]𝑑ℎ𝑓
𝐸̅ = = ∞
𝑁 ∫0 𝑛0 [1 + 𝑒 −ℎ𝑓⁄𝑘𝑇 + 𝑒 −2ℎ𝑓⁄𝑘𝑇 + 𝑒 −3ℎ𝑓⁄𝑘𝑇 + ⋯ ]𝑑ℎ𝑓

ℎ𝑓
𝐸̅ =
𝑒 ℎ𝑓⁄𝑘𝑇 −1
Que es precisamente la distribución de Planck de la energía para el cuerpo negro.

Se concluye, pues, con Ehrenfest, que el origen del cuanto de Planck está en que los
estados energéticos del conjunto de osciladores no es continuo, sino discreto.

 Estadística Cuántica:

En los sistemas cuánticos comenzamos por asumir que existen interacciones fuertes
entre las partículas (o más bien cuasi partículas). Ello lleva a violar el principio de equipartición
y, por lo tanto, a que la estadística de Maxwell-Boltzmann no se cumpla, como podemos
apreciarlo en la radiación del cuerpo negro.

Einstein y Bose, luego demostraron, cada uno por su cuenta, que el conjunto de
cuantos que conforma el campo electromagnético (es decir, los fotones) está distribuido con la
forma:

1
𝑓𝐵𝐸 =
𝑒 ℎ𝑓⁄𝑘𝑇 − 1

22
Esta es la “función de distribución de Bose-Einstein”. Notemos que esta función de
distribución (de probabilidades discretas) da origen a la distribución de Planck. En general,
toda partícula o agente de campo (el fotón es el agente del campo electromagnético) está
distribuida con la función de Bose-Einstein (por ejemplo, entre otras, el gravitón). A todas estas
partículas se las denomina, en honor a Bose, “bosones”; tienen en común masa en reposo
nula y espín entero.

 Función de distribución de Fermi- Dirac.

Ya hemos indicado que las partículas cuánticas no siguen la estadística clásica, sino
solo para grandes niveles de energías, como se demuestra en el fenómeno de radiación de
cuerpo negro. Sin embargo, los electrones (y eventualmente los huecos) tampoco siguen la
estadística de Bose-Einstein. La razón principal es que las partículas materiales como el protón
y el electrón están sometidas al principio de exclusión de Pauli (no puede haber dos partículas
con el mismo estado cuántico).

De este modo, se requiere deducir específicamente una nueva función de distribución


que se acomode a dicho requerimiento, que da origen a una nueva familia de partículas
cuánticas que denominaremos “fermiones”.

Previo a determinar dicha estadística, analicemos las transiciones entre estados y las
probabilidades asociadas.

 Probabilidad de transición.

Sea un sistema con dos estados energéticos dinámicos que denominaremos 𝑖 y 𝑗,


donde la energía del estado 𝑗, denominado 𝐸𝑗 , es mayor que la energía del estado 𝑖,
denominado 𝐸𝑖 .

Definimos ahora a 𝑊𝑖𝑗 como la probabilidad de transición del sistema desde el estado 𝑖
al estado 𝑗, e inversamente a 𝑊𝑗𝑖 como la probabilidad de transición del sistema del estado 𝑗 al
𝑖. Buscamos determinar la relación entre ellas.
𝑊𝑖𝑗 ⟶ 𝑃𝑟𝑜𝑏 (𝑖 → 𝑗)
{
𝑊𝑗𝑖 ⟶ 𝑃𝑟𝑜𝑏 (𝑗 → 𝑖)

23
Ahora consideremos un conjunto de 𝑀 sistemas, donde cada uno de ellos tiene un
estado 𝑖 y un estado 𝑗.

Por cuestiones estadísticas, el número 𝑀 de sistemas debe ser muy grande para que
las variaciones erráticas de las transiciones entre los estados 𝑖 y 𝑗 se anulen entre sí. Además, si
bien nunca podremos saber si un estado particular de un sistema particular está ocupado o no,
siempre que 𝑀 sea suficientemente grande, se puede conocer con precisión la proporción de
los estados que están ocupados frente al total de 𝑀 sistemas. Más precisamente, podemos
evaluar la probabilidad de ocupación de los estados 𝑖 y 𝑗 de forma independiente, de acuerdo
a la estadística de Maxwell-Boltzmann.

Aplicando la función de Maxwell-Boltzmann a este conjunto de sistemas, se puede


establecer que el número promedio de partículas que ocupan el estado 𝑖 y el estado 𝑗 son,
respectivamente:

𝑛(𝐸𝑖 ) = 𝐴𝑒 −𝐸𝑖⁄𝑘𝑇
{
𝑛(𝐸𝑗 ) = 𝐴𝑒 −𝐸𝑗⁄𝑘𝑇

Las transiciones se evalúan mediante el número de partículas que estando en el estado


𝑖, hagan la transición de 𝑖 a 𝑗 y, análogamente, el número de partículas que estando en el
estado 𝑗, haga la transición de 𝑗 a 𝑖. Las mismas se determinan multiplicando el número
promedio de partículas 𝑛 que ocupan un estado, por la probabilidad de transición 𝑊 hacia el
otro estado.

Entonces, el número de partículas que estando en un estado pasen al otro son,


respectivamente:

𝑛𝑖→𝑗 = 𝑊𝑖𝑗 𝑛(𝐸𝑖 ) = 𝑊𝑖𝑗 𝐴𝑒 −𝐸𝑖⁄𝑘𝑇


{
𝑛𝑗→𝑖 = 𝑊𝑗𝑖 𝑛(𝐸𝑗 ) = 𝑊𝑗𝑖 𝐴𝑒 −𝐸𝑗⁄𝑘𝑇

Si los sistemas se encuentran en equilibrio con respecto al medio (equilibrio térmico


para un caso físico), la cantidad de transiciones en uno y otro sentido deben ser iguales. Esto
se debe a que, por estar aislado el sistema, la cantidad de partículas que pasan de 𝑗 a 𝑖 han
perdido energía, pero esa energía la absorben una misma cantidad de partículas que están en 𝑖
para simultáneamente subir al nivel 𝑗. Es decir:

𝑛𝑗→𝑖 = 𝑛𝑖→𝑗

𝑊𝑗𝑖 𝐴𝑒 −𝐸𝑗⁄𝑘𝑇 = 𝑊𝑖𝑗 𝐴𝑒 −𝐸𝑖⁄𝑘𝑇

𝑊𝑗𝑖 𝑒 −𝐸𝑗⁄𝑘𝑇 = 𝑊𝑖𝑗 𝑒 −𝐸𝑖⁄𝑘𝑇

𝑊𝑗𝑖 𝑒 −𝐸𝑖⁄𝑘𝑇
=
𝑊𝑖𝑗 𝑒 −𝐸𝑗⁄𝑘𝑇
𝑊𝑗𝑖
= 𝑒 (−𝐸𝑖+𝐸𝑗)⁄𝑘𝑇
𝑊𝑖𝑗

24
𝑊𝑗𝑖
= 𝑒 −(𝐸𝑖−𝐸𝑗)⁄𝑘𝑇 = 𝑒 −∆𝐸⁄𝑘𝑇
𝑊𝑖𝑗

Esta última expresión quiere decir que la relación entre las probabilidades de
transición entre dos estados 𝑖 y 𝑗 es exponencial respecto a la diferencia de energía entre ellos.
En un sistema físico, la máxima probabilidad de transición pertenece a las partículas que
están ubicadas en los estados de mayor energía. Como estas probabilidades de transición no
dependen de restricciones cuánticas, esta última expresión es válida, haya o no interacción
entre las partículas. La probabilidad de transición existe aunque la partícula misma no pueda
existir.

 Distribución de probabilidad de ocupación de estados


energéticos cuánticos de las funciones de Femi-Dirac.

Volviendo al tema que nos compete, definamos una función 𝑓 que describa la
probabilidad de ocupación de los estados dinámicos de un sistema cuántico, según sea su
energía.

Por ejemplo, si el conjunto de 𝑀 sistemas tiene todos los estados 𝑗 ocupados, la


función para ese estado particular valdrá uno (𝑓𝑗 = 1), en tanto que si están todos vacíos,
valdrá cero (𝑓𝑗 = 0).

Notemos que para definir todos los valores intermedios de esta función podemos usar
las dos definiciones de probabilidad. Una, que es la frecuencial, requiere un conjunto 𝑀 de
sistemas suficientemente grande. La otra, que es temporal, requiere que se cumpla la
propiedad de ergodicidad (requiere que el tiempo de observación tienda a infinito).

- Interpretación frecuencia (frecuencia de ocupación)

Si se observa el estado 𝑗 de todos los sistemas en un mismo instante, entonces 𝑓𝑗


define la proporción de los que están ocupados sobre el total.

𝑛° 𝑑𝑒 𝑒𝑠𝑡𝑎𝑑𝑜𝑠 𝑜𝑐𝑢𝑝𝑎𝑑𝑜𝑠 𝑑𝑒𝑙 𝑛𝑖𝑣𝑒𝑙 𝑗


𝑓𝑗 =
𝑛° 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑒𝑠𝑡𝑎𝑑𝑜𝑠 𝑑𝑒𝑙 𝑛𝑖𝑣𝑒𝑙 𝑗

Como 𝑀 es muy grande, las variaciones erráticas se anulan entre sí, dando un valor
medio de ocupación que coincide con la probabilidad (0,5).

- Interpretación temporal (tasa temporal)

Si se observa un estado 𝑗 particular de un sistema particular durante mucho tiempo,


entonces 𝑓𝑗 define la porción del tiempo que el estado 𝒋 estuvo ocupado sobre el tiempo
total.

25
𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑜𝑐𝑢𝑝𝑎𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑛𝑖𝑣𝑒𝑙 𝑗
𝑓𝑗 =
𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖ó𝑛

Como el estado se ocupa y queda vacante muchas veces, si el tiempo de observación


es suficientemente largo, las variaciones erráticas se anulan entre sí, dando un tiempo medio
de ocupación que coincide con la probabilidad (0,5).

-------o-------

Se aplican ahora a esta definición las restricciones cuánticas. Para que haya una
transición:

1°) El estado de base debe estar ocupado.

2°) El estado receptor debe estar vacío (debido al principio de exclusión de Pauli).

Debido a la primera restricción, nos preguntamos ahora cuántas partículas se


encuentran en un estado energético para un instante dado. Siguiendo la definición frecuencial
y suponiendo 𝑛 estados, la cantidad de partículas en un estado 𝑖 y en un estado 𝑗 están dadas,
respectivamente, por el producto entre la probabilidad de estados ocupados 𝑓 y la cantidad de
sistemas 𝑀.
𝑛𝑖 = 𝑀𝑓𝑖
{𝑛 = 𝑀𝑓
𝑗 𝑗

Considerando la segunda restricción, se observa que los estados vacantes quedan


determinados, respectivamente, por el producto entre la probabilidad de vacancia y 𝑀:
𝑖𝑣𝑎𝑐𝑎𝑛𝑡𝑒𝑠 = 𝑀(1 − 𝑓𝑖 )
{
𝑗𝑣𝑎𝑐𝑎𝑛𝑡𝑒𝑠 = 𝑀(1 − 𝑓𝑗 )

Una transición del estado 𝑖 al estado 𝑗 involucra un número de partículas mucho


menor que 𝑛𝑖 , no sólo por la existencia de una sola probabilidad de transición, sino por las
restricciones cuánticas de la vacancia del estado receptor 𝑗. En efecto, aun suponiendo que
todas las partículas que pudieran realizar la transición lo hicieran, el número máximo de
transiciones de 𝑖 a 𝑗, considerando ambas restricciones simultáneamente, está dado por el
producto entre la probabilidad de ocupación de 𝑖, la probabilidad de vacancia de 𝑗, y la
cantidad total 𝑀 de sistemas. Un análisis análogo vale para las transiciones en el otro sentido,
es decir, las de 𝑗 a 𝑖:

𝑖 → 𝑗 = 𝑀𝑓𝑖 (1 − 𝑓𝑗 )
{
𝑗 → 𝑖 = 𝑀𝑓𝑗 (1 − 𝑓𝑖 )

Ahora se puede evaluar el número de partículas esperado que realicen dichas


transiciones (por unidad de tiempo y por unidad de volumen), multiplicando por la
probabilidad de transición 𝑊:

𝑛𝑖→𝑗 = 𝑊𝑖𝑗 𝑀𝑓𝑖 (1 − 𝑓𝑗 )


{
𝑛𝑗→𝑖 = 𝑊𝑗𝑖 𝑀𝑓𝑗 (1 − 𝑓𝑖 )

Supongamos nuevamente el equilibrio térmico con el medio, por lo que ambas


cantidades deben ser iguales:

26
𝑛𝑖→𝑗 = 𝑛𝑗→𝑖

𝑊𝑖𝑗 𝑀𝑓𝑖 (1 − 𝑓𝑗 ) = 𝑊𝑗𝑖 𝑀𝑓𝑗 (1 − 𝑓𝑖 )

𝑊𝑖𝑗 𝑓𝑖 (1 − 𝑓𝑗 ) = 𝑊𝑗𝑖 𝑓𝑗 (1 − 𝑓𝑖 )

Separando homogéneamente por índices se tiene:


𝑓𝑖 𝑓𝑗 𝑊𝑗𝑖
=
(1 − 𝑓𝑖 ) (1 − 𝑓𝑗 ) 𝑊𝑖𝑗

𝑓𝑖 𝑓𝑗
= 𝑒 (−𝐸𝑖+𝐸𝑗)⁄𝑘𝑇
1 − 𝑓𝑖 1 − 𝑓𝑗

𝑓𝑖 𝑓𝑗
= 𝑒 −𝐸𝑖⁄𝑘𝑇 𝑒 𝐸𝑗⁄𝑘𝑇
1 − 𝑓𝑖 1 − 𝑓𝑗

𝑓𝑖 𝑓𝑗
𝑒 𝐸𝑖⁄𝑘𝑇 = 𝑒 𝐸𝑗⁄𝑘𝑇
1 − 𝑓𝑖 1 − 𝑓𝑗

En esta última expresión se observa que el primer término depende sólo de 𝑖, y que el
segundo depende sólo de 𝑗. Pero como tanto 𝑖 como 𝑗 son estados energéticos arbitrarios, la
expresión vale para todos los estados de los sistemas en equilibrio, por lo tanto la única
alternativa de igualdad entre ambos miembros es que ambos sean igual a una constante. Es
decir que:
𝑓𝑗
𝑒 𝐸𝑗⁄𝑘𝑇 = 𝐶
1 − 𝑓𝑗

Donde 𝐶 es una constante independiente del estado particular 𝑗, y sólo función del
número total de partículas del sistema y de la temperatura. Despejando 𝑓𝑗 , se tiene que:

𝑓𝑗 𝑒 𝐸𝑗⁄𝑘𝑇 = 𝐶(1 − 𝑓𝑗 )

𝑓𝑗 𝑒 𝐸𝑗 ⁄𝑘𝑇 = 𝐶 − 𝐶𝑓𝑗

𝑓𝑗 𝑒 𝐸𝑗 ⁄𝑘𝑇 + 𝐶𝑓𝑗 = 𝐶

𝑓𝑗 (𝑒 𝐸𝑗⁄𝑘𝑇 + 𝐶) = 𝐶
𝐶
𝑓𝑗 = 𝐸𝑗 ⁄𝑘𝑇
𝑒 +𝐶
𝐶
𝑓𝑗 = 𝐸𝑗 ⁄𝑘𝑇
𝑒
𝐶( 𝐶 + 1)

1
𝑓𝑗 =
1
1 + 𝐶 𝑒 𝐸𝑗⁄𝑘𝑇

Definiendo otra constante, 𝐸𝑓 , tal que:

𝐶 = 𝑒 𝐸𝑓⁄𝑘𝑇
Se tiene que:

27
1
𝑓𝑗 =
1 𝐸𝑗 ⁄𝑘𝑇
1+ 𝐸𝑓⁄𝑘𝑇 𝑒
𝑒
1
𝑓𝑗 =
1 + 𝑒 (𝐸𝑗 −𝐸𝑓)⁄𝑘𝑇
Eliminando el subíndice 𝑗, se obtiene:

1
𝑓𝐹𝐷 (𝐸) =
(𝐸−𝐸𝑓 )⁄𝑘𝑇
1+𝑒

Esta es la expresión buscada, y se la denomina “función de distribución de Fermi-


Dirac”, que para cada estado 𝐸𝑖 determinado, determina su grado de ocupación. La constante
𝐸𝑓 se denomina “nivel de Fermi”, que se supone que es una constante propia del medio
considerado. Así, cada material poseerá su propia constante de nivel de Fermi.

- Propiedades de la función de Fermi-Dirac, nivel de


Fermi.

Analizaremos el comportamiento de la función de Fermi-Dirac para distintas situaciones de


temperatura, comparando distintos niveles energéticos con el nivel de Fermi.

. Para T = 0°K

 Si 𝐸 < 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 = 0 ∴ 𝑓𝐹𝐷 = 1

 Si 𝐸 = 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 = 𝑒 0⁄0 ∴ ∄𝑓𝐹𝐷

 Si 𝐸 > 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 = +∞ ∴ 𝑓𝐹𝐷 = 0

El valor de 𝐸𝑓 es, por lo tanto, un punto de discontinuidad de la función para 0°K.

28
Para 𝑇 = 0°𝐾, todos los electrones ocupan el menor estado de energía posible.
Entonces, el nivel de Fermi es aquel nivel de energía propio del cristal para el cual, a 0°K, todo
estado dinámico cuya energía es mayor que la de este nivel, está vacío, y todo estado de
energía menor que dicho nivel, está ocupado. De aquí surge la definición física: es el estado
máximo de energía que puede ocupar un electrón a 0°K.

. Para T > 0°K

 Si 𝐸 < 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 < 1 ∴ 0,5 < 𝑓𝐹𝐷 < 1

 Si 𝐸 = 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 = 1 ∴ 𝑓𝐹𝐷 = 0,5

 Si 𝐸 > 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 > 1 ∴ 0 < 𝑓𝐹𝐷 < 0,5

Para temperaturas mayores a 0°K, en el nivel de Fermi la probabilidad de ocupación


vale siempre 0,5, y para el resto de los estados energéticos existen probabilidades de
ocupación que van de cero a uno. De aquí surge la definición probabilística: es el nivel de
energía para el cual la probabilidad de ocupación vale 0,5 en un material determinado.

. Para T < 0°K

 Si 𝐸 < 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 → 1 ∴ 𝑓𝐹𝐷 → 0,5

 Si 𝐸 = 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 = 1 ∴ 𝑓𝐹𝐷 = 0,5

 Si 𝐸 > 𝐸𝑓 ⇒ 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇 → 1 ∴ 𝑓𝐹𝐷 → 0,5

A medida que la temperatura aumenta, la probabilidad de ocupación se acerca cada


vez más a 0,5, para todos los niveles de energía.

 Función de distribución de Maxwell-Boltzman

- Distribución de estados
Hasta aquí hemos hablado de la probabilidad de ocupación de los estados dinámicos.
Ahora debemos hablar de distribución de los estados, entendiendo ello a cómo están
distribuidos los estados en un cierto intervalo de energía.

Aquí nuevamente habrá que considerar una diferencia esencial entre los sistemas
cuánticos y los sistemas clásicos: mientras que en los sistemas clásicos hay una distribución
continua de estados, en los sistemas cuánticos hay una distribución discreta. Tengamos en
cuenta el comportamiento de ambos tipos de partículas en el denominado “espacio de
estado” (por ejemplo, una banda de energía). Un estado energético es un punto en ese
espacio.

En la física clásica, un estado queda definido para un instante determinado por una
posición y sus velocidades; considerando un espacio físico tridimensional, se tendrán tres

29
coordenadas de posición y tres coordenadas de velocidad (o lo que a los fines prácticos nos
resulta lo mismo, de impulso 𝑝 = 𝑚𝑣). Notemos que el sistema tiene seis grados de libertad, y
que además puede ocupar absolutamente todos los puntos de ese espacio. Un sistema
cuántico, en cambio, tiene cuatro grados de libertad, que son los dados por los cuatro
números cuánticos, y sólo admite una cantidad finita de estados permitidos.

No obstante, se puede determinar el estado dinámico de una partícula basándose en


un enfoque semiclásico, utilizando el concepto de masa eficaz y restringiendo los estados
posibles mediante dos restricciones: una de estas restricciones es el principio de exclusión de
Pauli ya considerado en la función de Fermi-Dirac, de modo que nos queda considerar en este
problema la restricción faltante, que es el principio de incertidumbre de Heisenberg. Así, para
considerar la distribución de estados de un sistema cuántico, haremos lo mismo que para
considerar la distribución en un sistema clásico, solo que imponiéndole ahora las mencionadas
restricciones.

Consideremos el espacio de estados dividido en dos sistemas coordenados


simultáneos, uno de posición y otro de impulso. Ambos sistemas están vinculados entre sí
mediante las restricciones del principio de incertidumbre. La idea es, dado el espacio de
posición, determinar la relación con el espacio de los momentos. Luego, a un determinado
elemento de volumen del espacio físico se le aplican las restricciones mencionadas para
determinar su equivalente en el espacio de los momentos. Después se calcula el número de
estados en un intervalo del espacio de momentos. Finalmente, considerando la equivalencia
entre el espacio físico y el espacio de los momentos, se determina la concentración (o
densidad) de estados en el espacio físico.

Donde:
𝑝𝑥 = 𝑚𝑣𝑥
{ 𝑦 = 𝑚𝑣𝑦
𝑝
𝑝𝑧 = 𝑚𝑣𝑧
A su vez, las relaciones de incertidumbre1 son:

∆𝑝𝑥 ∆𝑥 ≥ ℎ
{∆𝑝𝑦 ∆𝑦 ≥ ℎ ⇒ (∆𝑝𝑥 ∆𝑝𝑦 ∆𝑝𝑧 )(∆𝑥∆𝑦∆𝑧) ≥ ℎ3 ⇒ ∆𝑉𝑝 ∆𝑉 ≥ ℎ3
∆𝑝𝑧 ∆𝑧 ≥ ℎ

1
Notar que aunque el principio de incertidumbre, según se vio antes, es ∆𝑟∆𝑝 ≥ ℏ, aquí se lo utiliza
simplemente bajo la forma ∆𝑟∆𝑝 ≥ ℎ.

30
La última expresión es denominada “relación volumétrica de Heisenberg”, y expresa el
vínculo entre el sistema espacial y el sistema de momentos.

Esto quiere decir que “localizar” la partícula en cierta posición espacial implica una
cierta incertidumbre en su “localización” en el espacio de momentos. Básicamente, esta
propiedad es la que nos permite computar la cantidad de estados en un cierto volumen de
energía.

Para comenzar, supongamos que definimos un cierto elemento de volumen mínimo


𝛥𝑉𝑚𝑖𝑛 en el espacio físico. Entonces el volumen mínimo en el espacio de momentos ∆𝑉𝑝𝑚𝑖𝑛
será, considerando la relación volumétrica de Heisenberg:

ℎ3
∆𝑉𝑝𝑚𝑖𝑛 =
𝛥𝑉𝑚𝑖𝑛
Pero hay que considerar que el principio de exclusión de Pauli permite hasta dos
partículas con el mismo conjunto de coordenadas (espaciales y de momento) siempre que
tengan diferente spin. Por lo tanto, en un sistema cuántico tendremos un volumen mínimo de

incertidumbre en el espacio de momentos ∆𝑉𝑝𝑚𝑖𝑛 que será:

′ 1 ℎ3
∆𝑉𝑝𝑚𝑖𝑛 =
2 𝛥𝑉𝑚𝑖𝑛

Ahora podemos calcular el número de estados en un intervalo del espacio de


momentos. Para ello, partamos de considerar otro volumen dentro del espacio de los
momentos, pero este será un volumen elemental que llamaremos 𝑑𝑉𝑝 :

El mismo es muy pequeño, pero siempre varias veces mayor que el volumen mínimo de

incertidumbre (vale decir 𝑑𝑉𝑝 ≫ ∆𝑉𝑝𝑚𝑖𝑛 ). Esta condición es para que las variaciones erráticas
de ocupación y de vacantes de estados se anulen entre sí, y valga dentro de ese volumen 𝑑𝑉𝑝
la probabilidad de Fermi-Dirac con su función de distribución 𝑓𝐹𝐷 (𝐸). Esto quiere decir que
dicho volumen elemental no es en realidad un volumen diferencial, pero se lo mantiene con
esa notación para poder usar la integración como herramienta de cálculo.

Designaremos con 𝑑𝑁 a la cantidad de estados ∆𝑽′𝒑𝒎𝒊𝒏 que caben dentro del


volumen elemental 𝒅𝑽𝒑 en el espacio de los momentos, lo cual se obtiene dividiendo dicho

volumen elemental 𝑑𝑉𝑝 por el espacio de momentos ∆𝑉𝑝𝑚𝑖𝑛 que ocupa cada partícula
cuántica:

31
𝑑𝑉𝑝 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧 2 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝑑𝑁 = ′ = =
∆𝑉𝑝𝑚𝑖𝑛 1⁄2 ∙ ℎ3 ⁄𝛥𝑉𝑚𝑖𝑛 ℎ3 1⁄𝛥𝑉𝑚𝑖𝑛

Considerando la equivalencia entre el espacio físico y el espacio de los momentos,


ahora podemos calcular la concentración (o densidad) de estados en el espacio físico, que
está dado por la cantidad de partículas 𝑑𝑁 que hay en el volumen mínimo del espacio físico
𝛥𝑉𝑚𝑖𝑛 :

𝑑𝑁 2
𝑑𝑆 = = 3 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝛥𝑉𝑚𝑖𝑛 ℎ

- Computo generalizado de fermiones


En general, el cálculo de partículas se referirá a la densidad 𝑛(𝐸), que es la densidad de
partículas por estado de energía; en pocas palabras, si conocemos la distribución de estados
por estado de energía 𝑆(𝐸), y además su probabilidad de ocupación 𝑓(𝐸), se tendrá que para
cada estado de energía 𝐸:

𝑛(𝐸) = 𝑓(𝐸)𝑆(𝐸)
En particular, si 𝑛(𝐸) se trata de fermiones, 𝑓(𝐸) debe ser la función de Fermi-Dirac, y
𝑆(𝐸) debe responder a los estados que cumplen con el principio de incertidumbre. Así:

𝑑𝑛(𝐸) = 𝑓𝐹𝐷 (𝐸)𝑑𝑆(𝐸)


𝑛 = ∫ 𝑓𝐹𝐷 (𝐸)𝑑𝑆(𝐸)
−∞

Este cálculo es un cálculo integral aproximado, ya que los estados energéticos no están
distribuidos de forma continua, sino discretamente. No obstante, 𝑑𝑆(𝐸) puede ser aún lo
suficientemente pequeño, ya que las incertidumbres asociadas también lo son, por lo que la
integral puede considerarse prácticamente exacta. Según se vio recientemente, la
concentración de estados en el espacio físico es:
2
𝑑𝑆(𝐸) = 𝑑𝑝 𝑑𝑝 𝑑𝑝
ℎ3 𝑥 𝑦 𝑧
Y la distribución de Fermi-Dirac es:
1
𝑓𝐹𝐷 (𝐸) =
(𝐸−𝐸𝑓 )⁄𝑘𝑇
1+𝑒
Por lo tanto, 𝑛 quedará:

2 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝑛=∭
ℎ3 1 + 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇
−∞


2 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧
𝑛 = 3∭
ℎ 1 + 𝑒 (𝐸−𝐸𝑓)⁄𝑘𝑇
−∞

32
Notemos que debemos computar una triple integral, donde las variables dependientes
finalmente son las velocidades, ya que 𝑝 = 𝑚𝑣.

Debemos considerar en cada paso particular cuáles son los límites de integración, los
que deberán estar de acuerdo al tipo de material considerado y a las bandas que los
constituyen.

Hay que realizar todavía una homogeneización de variables entre energía e impulso. En
general, e independientemente de los límites de energía, podremos escribir la relación entre la
energía y el impulso de la siguiente forma:

1 1 1 𝑝𝑥2 𝑝𝑦2 𝑝𝑧2 𝑝𝑥2 𝑝𝑦2 𝑝𝑧2


𝐸 = 𝑚∗ 𝑣 2 = 𝑚∗ (𝑣𝑥2 + 𝑣𝑦2 + 𝑣𝑧2 ) = 𝑚∗ ( ∗ 2 + ∗ 2 + ∗ 2 ) = + +
2 2 2 𝑚 𝑚 𝑚 2𝑚∗ 2𝑚∗ 2𝑚∗

De este modo sólo debe sustituirse en la función de Fermi-Dirac esta expresión


equivalente de la energía 𝐸, y ya queda homogeneizada para resolverla.

Otra consideración se refiere al cálculo de electrones y huecos en particular, por


ejemplo, los electrones en la banda de conducción “libres” y los huecos en la banda de
valencia, también “libres”. Ambos son fermiones, sin embargo son antipartículas, de modo que
hay que utilizar también funciones de densidad de probabilidad, pero complementarias. Por
ello, si con los electrones utilizamos la función de Fermi-Dirac, con los huecos debemos utilizar
′ (𝐸)
la función de Fermi-Dirac complementaria 𝑓𝐹𝐷 = 1 − 𝑓𝐹𝐷 (𝐸).

También debemos tener en cuenta los intervalos de energía en donde dichas partículas
pueden encontrarse en estado libre. Así, para los electrones “libres”, que tienen energías
mayores o iguales que la del piso de la banda de conducción, resulta:

𝑝𝑥2 𝑝𝑦2 𝑝𝑧2


𝐸 ≥ 𝐸𝐵𝐶 ⇒ 𝐸 = 𝐸𝐵𝐶 + + +
2𝑚𝑒∗ 2𝑚𝑒∗ 2𝑚𝑒∗

Para los huecos “libres”, que tienen energías menores o iguales que la del techo de la
banda de valencia, resulta:

𝑝𝑥2 𝑝𝑦2 𝑝𝑧2


𝐸 ≤ 𝐸𝐵𝑉 ⇒ 𝐸 = 𝐸𝐵𝑉 − ( + + )
2𝑚ℎ∗ 2𝑚ℎ∗ 2𝑚ℎ∗

Integración aproximada mediante Maxwell-Boltzmann, condiciones para su aplicación

Al ser tan compleja la integral de la concentración 𝑛 de portadores, puede efectuarse


una integración aproximada mediante Maxwell-Boltzmann, siempre y cuando se cumpla la
condición de que dichos portadores se encuentren en una concentración débil (diluida). Esto
se da para temperaturas no muy elevadas (𝐸 − 𝐸𝑓 ≫ 𝑘𝑇). Así, puede usarse la aproximación:

33
1
𝑓𝐹𝐷 (𝐸) = ≅ 𝑒 −(𝐸𝑓−𝐸)⁄𝑘𝑇
(𝐸𝑓 −𝐸)⁄𝑘𝑇
1+𝑒
Reemplazando esto en la integral expresada más arriba:

2
𝑛 = 3 ∭ 𝑒 −(𝐸𝑓−𝐸)⁄𝑘𝑇 𝑑𝑝𝑥 𝑑𝑝𝑦 𝑑𝑝𝑧

−∞

Este procedimiento será aplicado en el próximo capítulo, cuando se determine la


concentración de portadores en semiconductores, tanto intrínsecos como extrínsecos.

34

Das könnte Ihnen auch gefallen