Sie sind auf Seite 1von 45

INDICE: QUIMICA

1. La química como una pseudociencia


1.1. ¿Cómo se origina la química?
1.2. La alquimia
1.3. Iatroquímica
1.4. Flogisto
1.5. Refutación de Lavoisier
2. La química como ciencia
2.1. Distinción esencial entre materia orgánica e inorgánica
2.2. Tabla periódica
2.3. Creación de los colorantes sintéticos
2.3.1. Descubrimiento de la anilina
2.3.2. A base de anilina
2.3.3. A base de alizarina
2.3.4. Síntesis del índigo
2.4. De la naturaleza a la invención
2.4.1. Aluminio
2.4.2. Caucho
2.4.3. Polímeros
2.5. Descubrimiento de Pasteur
2.5.1. Fermentos y catálisis
2.5.2. Enzimas
2.5.3. Las moléculas muertas y su victoria
2.6. Relación entre la física y la química
2.6.1. Energía y fuerzas
2.6.2. Hipótesis cinética
2.6.3. Equilibrio termodinámico
2.7. Radioactividad
2.7.1. Definiciones
2.7.2. Elementos radiactivos
2.8. Estructura Atómica
2.8.1. Dalton
2.8.2. Thomson
2.8.3. Rutherford
2.8.4. Bohr
2.9. Importancia de la química en la actualidad
3. Conclusión
Línea de tiempo
Historia de la Química
I. La Química como pseudociencia
1.1 ¿Cómo se origina la química?
La química comienza cuando el hombre aprendió a utilizar el fuego. Para poder
fabricar piezas de alfarería, cocinar alimentos y construir objetos metálicos.
Como ciencia, tiene su origen en las culturas mesopotámicas y egipcias, unidas
ambas en la Grecia clásica. La generalización de la teoría los cuatro elementos:
tierra, aire, agua y fuego unidas por el amor o separadas por el odio de
Empédocles (490- 430 aC). Aristóteles supuso un paso importante en el intento
de explicar los fenómenos físico- químicos, fuera del gobierno de los astros o de
los dioses.

1.2 La alquimia
La Alquimia ocupa el estado intermedio entre el saber químico de la Grecia
Antigua y los cimientos de la química moderna en los siglos XVII-XVIII. La
Alquimia se ocupa del pretendido arte de transformar los metales inferiores en
oro mediante el descubrimiento de la piedra filosofal. Con el tiempo se amplió a
buscar también el elixir que proporcionase la juventud eterna, y por tanto la
inmortalidad. El razonamiento alquimista era deductivo y se basaba en que todo
era el resultado de la combinación e interacción de los principios alquimistas: el
mercurio o principio de fluidez, la sal con sus propiedades térreas y el azufre con
sus propiedades favorecedoras de la combustión. Estos tres principios podían
proporcionar el oro.
El profesor de medicina de la Universidad de Basilea, Teophrastus Bombastus
von Hohenhein (1493-1541), Paracelso. Su idea fundamental era que la vida es
en esencia un proceso químico. Si es el hombre un compuesto químico de los
tres principios alquímicos admitidos: mercurio, azufre y sal, entonces la buena
salud sería una señal de que éstos se hallan mezclados en la proporción correcta

1.3 Iatroquímica
Es una rama histórica de la ciencia que enlazaba la química y la medicina.
Buscaba encontrar explicaciones químicas a los procesos patológicos y
fisiológicos del cuerpo humano, y proporcionar tratamientos con sustancias. Con
la Iantroquímica y Paracelso surgen la Química Farmacéutica Suave (extracción
de principios activos de las plantas entre otras) y la Toxicología. La iatroquímica
fue una tendencia médica de vanguardia entre los siglos XVI y XVII. Su fundador
fue Paracelso.

1.4 Flogisto
A finales del siglo XVII, J.J Becher introdujo la teoria del flogisto y Georg Ernst
Stahl se encargó de popularizarla. La teoría del flogisto intentaba explicar el
fenómeno de la combustión y la causa de que algunos elementos fueran
combustibles mientras que otros no. Suponía que el calor se presenta en dos
formas: libre y en combinación. Éste último, que denominó flogisto -palabra que
en griego significa inflamable-, es inherente a todos los cuerpos combustibles.
Las cenizas y escorias que quedan tras la combustión carecen de flogisto y, por
consiguiente, son incapaces de volver a arder. Esta interpretación de la
combustión fue rebatida a finales del siglo XVIII por Lavoisier, al demostrar que
se trataba de una reacción química.

1.5. Refutación de Lavoiser


Fue el primero en hacer en pesar y cuantificar la cantidad de cada sustancia
antes y después de la reacción, llegando a la conclusión de que la materia que
se perdía, realmente pasaba a gas. Podemos excusar a sus colegas diciendo
que tenían miedo de que, al intentar encerrar el gas para “pesarlo”, se produjera
una explosión. Y Lavoisier propuso la famosa ley de conservación de la masa.

II. La química como ciencia


2.1 Distinción esencial entre materia orgánica e inorgánica
Todos los seres vivos estamos constituidos por una mezcla de materia
orgánica e inorgánica. Ambas son necesarias porque desempeñan un papel
fundamental en nuestra vida.
Las plantas fabrican materia orgánica a partir de materia inorgánica, en
un proceso llamado fotosíntesis. Los animales y los hongos transformamos la
materia orgánica de las plantas para producir nuestra propia materia inorgánica.
No somos capaces de transformar materia orgánica a partir de materia
inorgánica.

La materia orgánica: Está formada por moléculas fabricadas por los seres
vivos. Son moléculas hechas a base de carbono, suelen ser moléculas grandes,
complejas y muy diversas, como las proteínas, hidratos de carbono o glúcidos,
grasas o ácidos nucleicos.

CARACTERÍSTICAS:

 Es la que se encuentra presente en todos los seres vivos:


plantas, bacterias, animales, etc.
 Átomos: Además de carbono, las moléculas orgánicas están compuestas
principalmente por oxígeno, nitrógeno, azufre, fósforo, boro y halógenos.
 Pueden ser naturales (biomolecular) o artificiales, que son las creadas por
el hombre.
 Clasificación de materia orgánica de origen natural in vivo (los que forman
parte de los seres vivos):
o Carbohidratos: Compuestos principalmente por carbono, oxígeno
e hidrógeno. Se llaman también azúcares.
o Lípidos: Compuestos principalmente por carbono e hidrógeno, y
en menor medida oxígeno, y en algunos casos fósforo, azufre y
nitrógeno. Son insolubles en agua (hidrófobos) pero solubles en
disolventes orgánicos.
o Proteínas: Están formados por la poli péptidos.
o Ácidos nucleicos: Polímeros que forman cadenas. Formados por
carbono, hidrógeno, oxígeno, nitrógeno y fosfato. Es la sustancia
que almacena la información genética de los seres vivos.
o Moléculas pequeñas: Entre ellas se encuentran las hormonas y
los alcaloides.
 Materia orgánica de origen natural ex vivo. Son aquellas sustancias que
se encuentran fuera de las células de los organismos. Por ejemplo el
petróleo.
 Materia orgánica de origen sintético: Los seres humanos han logrado
crear sustancias orgánicas a partir de sustancias inorgánicas gracias a
la síntesis de Wöhler.
 La materia orgánica es el alimento de todos los organismos
heterótrofos.

La materia inorgánica: No está hecha de carbono y no son fabricadas por


los seres vivos, sino por la naturaleza (en reacciones químicas). Son
moléculas pequeñas y simples, como las sales, minerales, cloruros, etcétera.

CARACTERÍSTICAS:

 En los pocos casos en que contiene carbono, el mismo no forma enlaces


carbono-hidrógeno ni carbono-carbono.

 Átomos: tiene mucha mayor variedad de elementos que la materia


orgánica.

 A diferencia de la materia orgánica, no tiene enlaces iónicos (o


electrovalentes).

 Clasificación de la materia inorgánica:

 Compuestos binarios: óxidos metálicos, Anhídridos, Peróxidos, Hidruros


metálicos, Hidruros volátiles, Hidrácidos, Sales neutras, Sales volátiles

 Compuestos ternarios: Hidróxidos, Oxácidos, Oxisales.


 Los organismos autótrofos utilizan la materia inorgánica para producir M
sustancias inorgánicas.

2.2 Tabla Periódica

Durante el siglo XIX, los químicos comenzaron a clasificar a los elementos


conocidos de acuerdo a sus similitudes de sus propiedades físicas y químicas.
Se empezaron por varios modelos, siendo cada uno descartado por su sucesivo
y por presentar anomalías .El final de aquellos estudios es la Tabla Periódica
Moderna.
Johann Dobereiner 1780 – 1849: En 1829, clasificó algunos elementos en grupos
de tres, que denominó triadas. Los elementos de cada triada tenían propiedades
químicas similares, así como propiedades físicas crecientes. También el
elemento central de esta triada era la semisuma de los extremos. Ejemplos:
Cl, Br, I - Ca, Sr, Ba

TORNILLO TELÚRICO DE CHANCOURTOIS (1863): Químico francés que


ordeno los elementos químicos en función creciente de su pero atómico sobre
una curva helicoidal que envolvía a un cilindro, cuya base circular fue dividida
en 16 partes iguales. Esta curva tenía particularidad de que si por una parte
trazábamos una línea vertical, intersectaba a los elementos con propiedades
similares.
John Newlands 1838 - 1898: En 1863 propuso que los elementos se ordenaran
en “octavas”, ya que observó, tras ordenar los elementos según el aumento de
la masa atómica, que ciertas propiedades se repetían cada ocho elementos.

Dmitri Mendeleev 1834 - 1907: En 1869 publicó una Tabla de los elementos
organizada según la masa atómica de los mismos. Propuso que si el peso
atómico de un elemento lo situaba en el grupo incorrecto, entonces el peso
atómico debía estar mal medido. Estaba tan seguro de la validez de su Tabla
que predijo, a partir de ella, las propiedades físicas de tres elementos que eran
desconocidos.
Lothar Meyer 1830 - 1895: Al mismo tiempo que Mendeleeiev, Meyer publicó
su propia Tabla Periódica con los elementos ordenados de menor a mayor
masa atómica. Tanto Mendeleev como Meyer ordenaron los elementos según
sus masas atómicas. Ambos dejaron espacios vacíos donde deberían encajar
algunos elementos entonces desconocidos

TABLA PERIODICA MODERNA


Henry Moseley 1887 – 1915: En 1913, mediante estudios de rayos X,
determinó la carga nuclear (número atómico) de los elementos. Reagrupó los
elementos en orden creciente de número atómico.
ALFRES WERNER: La tabla periódica en su forma actual (forma larga) fue
diseñada por Alfred Werner en base a la Ley de Mosseley, y la distribución
electrónica de los elementos.
Además tomo como referencia la tabla de Mendeleiev.

TABLA PERIODICA ACTUAL:


DESCRIPCIÓN GENERAL: Los 109 elementos reconocidos por la Unión
Internacional de química Aplicada (IUPAC) están organizados según el número
atómico creciente, en 7 periodos y 18 columnas los que se agrupan 16 grupos
(8 grupos A y 8 grupos B ) .
PERIODO: Los PERIODOS están formados por un conjunto de elementos que
teniendo propiedades químicas diferentes, mantienen en común el presentar
igual número de niveles con electrones en su envoltura, correspondiendo el
número de PERIODO al total de niveles o capas.

#de periodo = # niveles del átomo

GRUPOS O FAMILIAS: Los elementos que conforman un mismo GRUPO


presentan propiedades físicas y químicas similares. Las columnas verticales de
la Tabla Periódica se denominan GRUPOS.

GRUPO A O ELEMENTOS REPRESENTATIVOS: En esta familia los


electrones externos o de valencia están en orbitales ¨s ¨y/o ¨p ¨, por lo tanto sus
propiedades dependen de estos orbitales.
Las propiedades varían de manera muy regular, a ello se debe el nombre de
elementos representativos.

GRUPO B O ELEMENTOS DE TRANSICIÓN : Se consideran como tránsito


entre metales de alta reactividad que forman bases fuertes IA y IIA y los
elementos de menor carácter metálicos que poseen más acentuado su
tendencia a formar ácidos IIIA a VIIA.
Las propiedades de los elementos de transición dentro del grupo o familia
varían en forma irregular.
CLASIFICACIÓN DE LOS ELEMENTOS:
1. SEGÚN SU CONFIGURACIÓN ELECTRONICA: Considerando el último
subnivel en la que termina su distribución electrónica se clasifica en
cuatro bloques: s, p, d, f.

2. SEGÚN SUS PROPIEDADES QUÍMICAS: Se puede clasificar en


metales, no metales y metaloides.
METALES:
 Son en total 84 elementos
 Tienen un lustre brillante; diversos colores, pero casi todos son
plateados.

 Los sólidos son maleables y dúctiles

 Buenos conductores del calor y la electricidad

 Casi todos los óxidos metálicos son sólidos iónicos básicos

 Tienden a formar cationes en solución acuosa

 Las capas externas contienen poco electrones habitualmente tres o


menos.

 Poseen brillo metálico por que reflejan la luz

NO METALES:
 Al reaccionar con los elementos metálicos tienden a ganar electrones
(se reducen)

 Al reaccionar con elementos no metálicos comparten electrones.

 No tienen brillo metálico y son opacos a la luz

 Las capas externas contienen cuatro o más electrones*.

METALOIDES:
 Son llamados también semimetales, sus propiedades varían como
metales y como no metales, según la temperatura y/o presión.

 Los Metaloides son: B, Si, Ge, As, Sb, Te, y Po.

PROPIEDADES DE UN ELEMENTO EN LA TABLA PERIODICA:


RADIO ATÓMICO: Es la mitad de la distancia internuclear de dos átomos
idénticos unidos mediante un enlace químico.

RADIO IÓNICO: Se define en forma análoga al R.A, pero en átomos ionizados;


por lo tanto , nos proporciona el tamaño relativo de los iones.

ENERGÍA DE IONIZACIÓN: Denominado también Potencial de Ionización. Es


la energía mínima necesaria para quitar un electrón del nivel externo de un
átomo en estado gaseoso y transformarse a catión. Proceso endotérmico.
AFINIDAD ELECTRÓNICA: Es la energía emitida o absorbida, cuando un
átomo en estado gaseoso gana un electrón para formar un anión. Proceso
exotérmico.

ELECTRONEGATIVIDAD: Es la fuerza relativa de un átomo para ganar


electrones al unirse químicamente con otro átomo. El elemento más
electronegativo es el Flúor y el menos electronegativo es el Francio.
2.3 Creación de los colorantes sintéticos
Colorantes a base de anilina
Primera generación
El malva de Perkin
William Henry Perkin, inicialmente, deseaba conseguir la síntesis de la quinina,
pero, en cambio, consiguió algo mucho más interesante, el primer colorante
artificial. El ayudante de Hofmann en el Royal College of Chemistry de Londres
agrego 4 átomos de oxígeno a dos moléculas de toluidina, obteniendo un
precipitado ocre sin mucha relevancia. Luego de esto realiza el mismo
experimento, pero ahora con anilina pura en lugar de toluidina y obtuvo como
resultado una sustancia negra. Luego de analizarla, extrajo de ella una sustancia
capaz de colorear la seda, bautizándola como aniline purple. Es así como el 26
de agosto de 1856 Perkin patenta su descubrimiento, para después convencer
a un fabricante de tintes de seda e instalar una fábrica en Greenford Green.
Aparte de su gran hallazgo, logra preparar un mordiente para teñir algodón y la
lana. El nuevo colorante consigue una gran fama tanto en Francia como en
Inglaterra, beneficiando a la expansión de la producción textil. En las industrias
francesas, como Kestner en Thann, el cual fabrica el colorante de Perkin y le da
el nombre de “malva”. Es asi como la malva de Perkin se expande por la corte
imperial de Napoleón III.

Estructura de la malva de Perkin


El rojo Magenta de Verguin
A partir de 1859, la fábrica francesa Renard et Frères de Lyon lanza el colorante
rojo fucsia o rojo Magenta, llamado fucsina, el cual fue descubierto por
Emmanuel Verguin. Este personaje obtiene el segundo colorante sintético
mediante la oxidación de toluidina mezclada con anilina. Es así como se forma
un conflicto donde Renard et Frères es llenado por una seria de litigios que lo
conlleva a perder la batalla de los colorantes. El rojo Magenta se encontraba
patentado por Verguin; sin embargo, era muy sencillo de producir ya que solo se
trataba de la oxidación de la anilina, proceso que no requería de altos
conocimientos. Gracias a este colorante se pudieron producir otros como el “azul
de Lyon” creado por la Société Monnet et Dury, o el violeta y el verde, elaborados
por Hofmann y Perkin. Entonces, la firma Renard et Frères, bautizado como La
Fuchsine, entabla acciones legales contra sus competencias francesas y
extranjeras y obtiene sentencia favorable por el rojo fucsia, ganando la patente.
Sin embargo, este no pretende ampliar el mercado y las investigaciones para
mejorar los procedimientos o encontrar medios para utilizar los subproductos se
detienen. No obstante, la patente de Verguin y Renard de la fucsina, el cual
obligaba a toda empresa a solicitar su autorización para fabricarla, no detuvo a
los Gerber de Mulhouse. Estos emigraron a Basilea y explotaron un
procedimiento más rentable utilizando arsénico. Debido a la confusión sobre la
legalización en materia de patentes, se permite producir el mismo producto
modificando los procedimientos.

Estructura de la fucsina
En 1867, la Exposición Universal presenta 11 nuevos colores, marcando el
apogeo de la industria francesa. Sin embargo, la Société Renard quiebra en 1868
y, tras la pérdida de Alsacia y Lorena, Francia queda fuera de la segunda
generación de colorantes.
La segunda generación

En esta segunda generación también se ve implicada la anilina, pero el proceso


de síntesis comprende una “nitrosación”, donde el ácido nitroso actua sobre la
anilina y se obtienen colorantes más estables, que se imprimen directamente sin
pasar por un “mordiente”.
En 1864, un estampador de tejidos instalado en Manchester llamado Heinrich
Caro, junto con Carl Martius, hace reaccionar las sales de diazonio sobre las
aminas aromáticas. De esta forma fabrica dos colorantes a los cuales nombre
Manchester yellow y Manchester Brown, debido a su lugar de origen.
Convencidos de que los azocolorantes son el futuro, Ivan Levinstein se une a
Caro y fundan una empresa. En 1884, salen al mercado los azocolorantes a base
de naftoles y naftilaminas.
Colorantes a base de alizarina
A pesar del aspecto de los colorantes a base de anilina, no llegaron a
suplementar a los colorantes vegetales. Es así como en 1869 se produce la
primera síntesis de un colorante a base de alizarina, lo cual produjo un cambio
en el panorama económico.
Jean Henri Fabre logra extraer de la rubia, una planta herbácea muy conocida
que proporciona el rojo granza, el principio tintóreo, la alizarina. La purificó y
concentró, para utilizarla directamente en la tinción de tejidos. No obstante, el
proceso realizado por Graebe y Liebermann con ácido sulfúrico llevo a este
colorante a ser comercial, debido a su bajo precio. Finalmente, la patente fue
registrada el 25 de junio de 1869, produciendo una caída en la producción de
colorantes vegetales.

Estructura de la Alizarina
El índigo artificial
Este marco el comienzo en siglo XX de la Big Science. La síntesis del índigo fue
tan complicada que tomo 30 años volverla comercial. Aquí se ve involucra la
“química programada”, segunda innovación en la práctica de los químicos.
Adolph von Baeyer emprende las primeras investigaciones del índigo en 1865 a
partir del descubrimiento de la estructura del benceno. En 1880 produce la
primera síntesis donde utiliza un derivado del ácido cinámico, obteniendo
pequeñas cantidades de índigo. Inmediatamente, BASF y Hochst compraron el
procedimiento y se comprometieron a financiar todas las investigaciones
relacionadas. En 1882, Baeyer utiliza otro método que implica orto-nitro-tolueno.
No obstante, esto consume demasiado tolueno y, por ende, se debería aumentar
la destilación de los alquitranes de la hulla y producir benceno y naftalina en
exceso. En 1897, BASF comercializa el índigo sintético, pero las investigaciones
continúan. Finalmente, en 1904, Hochst aprovecha al máximo un nuevo
procedimiento de Heumann y Pfleger, el cual es mucho más rentable. Es así
como en 1905, Baeyer recibe el premio Nobel de química y en 1910 no ya existe
el índigo natural en Europa.

Estructura del índigo artificial

2.4 De la naturaleza a la invención


Aluminio
En el siglo XX, el aluminio ingresa a la industria. Este se encontraba unido al
oxígeno, por lo que se debieron realizar múltiples medios para separarlo. Es por
ello que el aluminio está ligado a la electricidad.
Humphry Davy y Christian Oersted, tras mucho esfuerzo, no lograron aislar el
aluminio por electrolisis. Recien en 1827, Friedrich Wohler logra este aislamiento
mediante la acción de potasio sobre el cloruro de aluminio anhidro. Sin embargo,
pasar el experimento a la fábrica tomará mucho tiempo.
Más adelante, en 1854, el químico francés Henri Sainte-Claire Deville aisla el
aluminio de otra manera. Este sustituyó el potasio por sodio y utilizó una sal doble
más sencilla de separar. Sainte-Claire Deville trata la bauxita con carbonato de
sosa para obtener la alúmina junto con las técnicas de altas temperaturas. Es
así como en Gard, la Compagnie des produits chimiques d’Alais, fundada por
Henri Leblanc, produce por primera vez aluminio.
El caucho
Al principio, el caucho era utilizado para borrar los errores que se cometían al
momento de escribir en papel. Sin embargo, servía para mucho más que eso.
En el siglo XIX, en 1823, el irlandés Macintosh utiliza el caucho para
impermeabilizar los tejidos y es convertido en un material muy importante gracias
a Charles Goodyear, quien crea el procedimiento de vulcarización. Este consistía
en adicionar azufre y calentar por encima del punto de fusión, obteniendo como
resultado un caucho elástico y resistente a las variaciones de temperatura. Esto
permitió que el caucho adquiriera una gran variedad de usos, pero todavía no
podía ser producido a gran escala.
Los usos del caucho se enfocaron en los transportes. Robert William Thomson
había registrado en varios países una patente de una creación, la cual consistía
en la examinación de las propiedades de un colchón de aire en una funda de
caucho elástico. Aunque se creía que esta patente no tendría futuro, todo cambia
cuando aparece la bicicleta y el automóvil. John Boy Dunlop, reinventa el
neumático para la bicicleta de su hijo en la década de los años 1890. Al pasar de
los años, Edouard Michelin patentó el primer neumático desmontable de
automóvil, produciéndose la fabricación en masa.
Al aumentar la demanda, la Amazonía se tomó como lugar estratégico para la
extracción del caucho. De esta forma, muchos lograron hacer grandes fortunas.
No obstante, al solo tener Inglaterra dos colonias en Brasil, decidieron sembrar
la semilla de hevea en Kew Garden, para luego aclimatarla en Ceilán y Malasia.
Es asi como la producción de caucho cultivado supera a la de caucho silvestre
recogido de la Amazonía.
Los plásticos
Estos son el ejemplo de un producto de sustitución. Fueron creados ya que era
necesario sustituir las sustancias naturales demasiado escasas o costosas. En
el siglo XIX, aparece el celuloide, capaz de reemplazar, por ejemplo, el marfil, el
carey y el hueso en bolas, cuellos, varitas, entre otras. Es en 1909 cuando Leo
Backeland utiliza por primera vez el término “plástico” mientras fabrica la
baquelita, donde ya no se utiliza el celuloide, sino los derivados industriales (fenol
de los alquitranes de hulla y formol de los gases de los hornos de coque). Esta
encuentra una rápida aplicación en la fabricación de automóviles y los aparatos
de radio.
A pesar de la Gran Depresión, esto no detuvo a la industria química. Se
enfocaron en el desarrollo de polímeros termoplásticos como el nylon, el
poliéster, el polietileno de alta densidad y el caucho sintético.
En 1927, el profesor Wallace Carothers logra desarrollar el nylon 66, llamada
poliamida, siendo de gran importancia para la industria textil. Comienza a ser
producido en 1938 por una empresa del grupo I.G. Farben, pero la guerra
interfiere con sus planes.
Por otro lado, en 1939, los británicos de ICI empiezan con el desarrollo del
poliéster. Sin embargo, a causa de la guerra, no llegan a realizar la producción
esperada. Gracias a DuPont, se comienza a fabricar poliéster en 1953, mientras
que ICI inicia en 1955.
Luego de la 1ra Guerra Mundial, se había producido un exceso de equipamiento
por motivo de mantener la autonomía del abastecimiento. Por ello, se buscan
nuevos mercados y el plástico es distribuido por todo el mundo, remplazando los
materiales tradicionales.
2.5 Descubrimiento de Pasteur

Louis Pasteur era el hijo de un sargento de las guerras napoleónicas, que creció
amando apasionadamente a su nativa Francia. Pasó su niñez en el macizo del
Jura, en el este de Francia. No se destacó como alumno y era un apasionado
del dibujo y la pintura. De niño, hizo una serie de retratos de su familia que
revelan un buen ojo para la precisión y los detalles. Sus profesores alentaron ese
lado artístico, pero su padre consideraba que pintar era una indulgencia: lo que
importaba era el trabajo sólido escolar, así que Pasteur estudiaba con tensión.

• Fermentos y catálisis:
El descubrimiento de un fenómeno biológico de gran alcance, demostró que la
fermentación es debida a la presencia de microorganismos. Ello, con sus
estudios de desinfección y esterilización, sirvió de base para el desarrollo de las
técnicas de pasteurización. Estos descubrimientos suponen un nuevo camino
para la medicina, y con ellos la bacteriología se DESARROLLA COMO UNA
NUEVA RAMA DE LA CIENCIA MEDICA.

En 1857: Fermentación láctica: descubrimiento de la bacteria que la produce.

En 1860: Fermentación butírica: carácter anaerobio de sus agentes.

1861-1876: Fermentación alcohólica, invención de la pasteurización para evitar


«las enfermedades del vino «y de la cerveza. Pasteur demuestra que los hongos
de los vinos, siempre presentes, son los causantes de la fermentación acética,
responsable de malograr la formación y conservación del vino. Señala que si se
calienta el vino durante un minuto con la botella cerrada (69-75°C), se evita su
descomposición. Crea ENTONCES EL PROCESO DE PASTEURIZACION, que
constituye una base fundamental de la preparación de alimentos del tipo
conservas y lácteos.

Llamó fenómenos químicos indirectos o de contacto, ciertos actos químicos que se producen
por la única influencia de la presencia de un cuerpo que no es modificado por ninguna de las
afinidades que despierta; de las cuales químicamente no participa, y que sin él
permanecerían en inacción. Asó por la sola presencia del platino muy dividido, el albohol
absorbe el oxígeno atmosférico y se transforma en ácido acético. El contacto del ácido
sulfúrico diluido convierte el azúcar de caña en solución fija de agua en las proporciones que
constituyen la glucosa; en ambos casos, el platino y el ácido sulfúrico no experimentan
ninguna modificación, parecen solo obrar por presencia.
Los actos químicos indirectos pueden ser combinaciones o absorciones de gas,
metamorfosis isoméricas o desdoblamientos; de ahí la división de las catálisis en :
Catálisis isoméricas
Catálisis desdoblamientos
Las catálisis dan por resultados combinaciones y con más frecuencia desdoblamientos. Las
fermentaciones presentan dos órdenes de fenómenos anteriores, pero en estas los productos
gaseosos son fétidos.
Las fermentaciones por zimasas se parece demasiado a las catálisis propiamente dicha para
no considerarlas como actos puramente químicos, así es que todo el mundo está de acuerdo
en colocarlas bajo el dominio de la química.
•Enzimas:
Gran parte de la historia de la bioquímica es la historia de la investigación de los
enzimas. El nombre enzima (en la levadura) no se empleó hasta 1887, pero
mucho antes ya se sospechaba que ciertos catalizadores biológicos intervenían
en la fermentación del azúcar para formar alcohol (de aquí el nombre inicial de
Fermentos). La primera teoría general sobre la catálisis química, publicada por
J. L. Berzelius en 1835, incluían un ejemplo de lo que ahora se conoce como
enzima, la diastasa de la malta, y señalaba que la hidrólisis del almidón se
cataliza por la diastasa con más eficacia que por el ácido sulfúrico.
Aunque Luis Pasteur reconoció que la fermentación es catalizada por enzimas,
postulo en 1860 que éstos se hallaban ligados de modo inextricable con la
estructura y la vida de las células de la levadura. Creía que los sistemas vivos
estaban dotados de una ‘’fuerza vital’’ que les permitía evadir las leyes de la
naturaleza que gobiernan la sustancia inanimada. Constituyó, por ello, un logro
importante en la historia de la investigación enzimática.

• Moléculas muertas y su victoria:


Después de 1870, Louis Pasteur orientó su actividad al estudio de las
enfermedades contagiosas, de las cuales supuso que se debían a gérmenes
microbianos infecciosos que habrían logrado penetrar en el organismo enfermo.
En 1881 inició sus estudios acerca del carbunco del ganado lanar, y consiguió
preparar una vacuna de bacterias desactivadas, la primera de la historia

La continuación de sus investigaciones le permitió desarrollar la vacuna contra


la rabia, o hidrofobia, cuyo virus combatió con una vacuna lograda mediante
inoculaciones sucesivas en conejos de las que obtenía extractos menos
virulentos. La efectividad de esta vacuna, su última gran aportación en el campo
de la ciencia, se probó con éxito el 6 de julio de 1885con el niño Joseph Meister,
que había sido mordido por un perro rabioso y, gracias a la vacuna, no llegó a
desarrollar la hidrofobia.

El expermiento ‘’botella de cisne’’ fue la base para la fundación de la ciencia de


la bacteriología.

2.6 Relación entre la física y la química


La Física estudia las propiedades y el comportamiento de la energía y la materia
(como cualquier cambio en ella que no altere la naturaleza de la misma) así como
el tiempo, el espacio y las interacciones de éstos. La Química abarca el
comportamiento, cambios y composición de la materia y energía. De esta
manera la química guarda una estrecha relación con la Física en el sentido que
a través de la historia se han explicado muchos fenómenos físicos en
experimentos con reacciones químicas y además la química posee un
componente de carácter físico, de ahí que se ha desarrollado una disciplina que
es la FISICOQUIMICA. Estas dos ciencias se complementan una con la otra.
No se puede olvidar que la QUIMICA +FISCA= BIOLOGIA o sea la manifestación
de la vida y los seres vivos. Un claro ejemplo de esta relación ha sido la búsqueda
de la estructura y funcionalidad del átomo, en este ejemplo vemos la relación
que estas dos ciencias tienen entre si y la importancia que estas tienen para la
humanidad.

ENERGÍA Y FUERZA:

Energía:
La energía es una propiedad o atributo de todo cuerpo o sistema material en
virtud de la cual éstos pueden transformarse modificando su situación o estado,
así como actuar sobre otros originando en ellos procesos de transformación. Sin
energía, ningún proceso físico, químico o biológico sería posible. Dicho, en otros
términos, todos los cambios materiales están asociados con una cierta cantidad
de energía que se pone en juego, se cede o se recibe.
Conceptualmente, energía es la capacidad para realizar un trabajo o para
transferir calor; la energía a su vez se presenta como energía calórica, energía
mecánica, energía química, energía eléctrica y energía radiante; estos tipos de
energía pueden ser además potencial o cinética. La energía potencial es la que
posee una sustancia debido a su posición espacial o composición química y la
energía cinética es la que posee una sustancia debido a su movimiento.
Fuerza:
De modo natural, todos los cuerpos ejercen interacciones entre sí. Al hacerlo,
producen efectos que pueden cambiar la forma de algunos o pueden moverlos
o detenerlos.
La magnitud de estas interacciones se puede medir utilizando el concepto
de fuerza, la cual podemos definir así:
“Fuerza es la interacción entre dos cuerpos, que produce cambios ya sea en la
forma o en el estado (reposo o movimiento) de ellos.”
Las leyes que rigen el comportamiento de las fuerzas las enunció Newton y hoy
se conocen como Las tres leyes de Newton y conforman los Principios de la
Dinámica .

HIPÓTESIS CINÉTICA:
Las propiedades macroscópicas de la materia pueden predecirse, a partir de la
teoría molecular, mediante dos caminos diferentes, aunque relacionados. El
primero, llamado teoría cinética o dinámica, aplica leyes de la mecánica
(imaginariamente) a cada una de las moléculas de un sistema y de estas leyes
deduce, por ejemplo, expresiones de la presión, energía interna y calores
específicos del gas. El otro camino es el de la termodinámica estadística.
En un principio, la teoría cinética y la termodinámica estadística se desarrollaron
formulando la hipótesis de que las leyes de la mecánica, deducidas de los
comportamientos macroscópicos de la materia, eran aplicables, sin modificación,
a partículas, como moléculas y electrones. A medida que la ciencia progresó,
resultó evidente que en algunos aspectos esta hipótesis no era correcta, es decir,
que las conclusiones obtenidas a partir de éstas por razonamientos lógicos no
estaban de acuerdo con hechos experimentales.
La energía cinética es una forma de energía, conocida como energía de
movimiento. La energía cinética de un objeto es aquella que se produce a
causa de sus movimientos que depende de la masa y velocidad del mismo.
Suele abreviarse con las letras "Ec" o "Ek". La palabra cinética es de origen
griego “kinesis” que significa “movimiento”.
Se representa a través de la siguiente fórmula: Ec= ½ mv², se mide en Julios
(J), la masa en kilogramos (kg) y la velocidad en metros sobre segundos (m/s).

EQUILIBRIO TERMODINÁMICO:
Los orígenes de la Termodinámica como ciencia podrían establecerse en la
época de la invención del termómetro, que se atribuye a Galileo. En reacciones
que se desarrollan bajo condiciones controladas, la medición de las variaciones
de temperatura permite deducir los intercambios de calor (calores de reacción).
Un sistema está en equilibrio termodinámico cuando sus propiedades no tienden
a variar con el tiempo (pues el tiempo no es una variable de estado).
Para que en un sistema material se encuentre en equilibrio termodinámico se
requiere que en dicho sistema se den simultáneamente los tres siguientes tipos
de equilibrio:
• Equilibrio térmico: Tanto el sistema como su medio circundante deben estar
a la misma temperatura (salvo en el caso de que se trate de un sistema aislado,
en cuyo caso basta con que el sistema sea térmicamente homogéneo, es decir
que tengan igual temperatura en todos sus puntos).
• Equilibrio mecánico:
La existencia de equilibrio mecánico implica la total ausencia de movimientos
macroscópicos tanto del sistema en sí como éste con relación al medio
circundante que lo rodea, ( si hay movimiento las propiedades varían en función
del tiempo; este sería, por ejemplo, el caso de un gas encerrado en un cilindro
provisto de un pistón que puede desplazarse libremente; si la temperatura se
mantiene constante, el movimiento del pistón modifica el volumen del sistema,
variando en consecuencia la presión).
• Equilibrio químico:
Ello requiere que la composición química del sistema permanezca constante (es
decir; que no varíe en función del tiempo).
2.7 Descubrimiento de la Radioactividad

Poco después de que se descubrieran los rayos X, en 1895, Antoine Henri


Becquerel (1852-1908) trató de demostrar la relación entre los rayos X y la
fosforescencia de las sales de uranio. En uno de sus experimentos envolvió una
placa fotográfica en papel negro, colocó una muestra de sal de uranio sobre ella
y la expuso a la luz solar. Al revelar la placa apareció que los rayos emitidos por
la sal habían penetrado a través del papel. Tiempo después, Becquerel se
preparaba para repetir el experimento pero, como la luz solar era intermitente,
colocó el conjunto en un cajón. Días después reveló la placa, esperando
encontrarla sólo débilmente afectada. Se asombró al observar una imagen
intensa en la placa. Repitió el experimento en la oscuridad total y obtuvo los
mismos resultados, probando que la sal de uranio emitía rayos que afectaban la
emulsión fotográfica, sin necesidad de ser expuesta a la luz solar.

De este modo fue que Becquerel descubrió la radiactividad. Marie Curie, dos
años después, en 1898, dio a este fenómeno el nombre de
radiactividad. Radiactividad es la emisión espontánea de partículas o rayos por
el núcleo de un átomo. A los elementos que tienen esta propiedad se les llama
radiactivos. Posteriormente, Becquerel mostró que los rayos provenientes del
uranio podían ionizar el aire y también eran capaces de penetrar a través de
láminas metálicas delgadas.

En 1898, Marie Sklodowska Curie (1867-1934), con su esposo Pierre Curie


(1859-1906), dirigió sus investigaciones a la radiactividad. Los Curie
descubrieron dos elementos nuevos, el polonio y el radio, ambos radiactivos.
Para confirmar su trabajo sobre el radio, procesaron una tonelada de residuos
de mineral llamado pecblenda, para obtener 0.1 g de cloruro de radio puro, que
usaron para efectuar más estudios sobre las propiedades del radio y determinar
su masa atómica.

Ernest Rutherford, en 1899, comenzó a investigar la naturaleza de los rayos


emitidos por el uranio. Encontró dos tipos de rayos, a los que llamó rayos alfa y
beta. Pronto se dio cuenta que el uranio, al emitir estos rayos, se transformaba
en otro elemento. En 1912 se conocían ya más de 30 isótopos radiactivos y hoy
se conocen mucho más. Paul Villard descubrió en 1900 los rayos gamma, un
tercer tipo de rayos que emiten los materiales radiactivos y que es semejante a
los rayos X. De acuerdo con la descripción del átomo nuclear, Rutherford se
atribuyó el fenómeno de la radiactividad a reacciones que se efectúan en los
núcleos de los átomos.
En este sentido se repasa la simbología que se acostumbra para referirse a los
diferentes átomos de cada elemento químico, muy útil en química nuclear. (Ver
tabla periódica de los elementos).

Por ejemplo, 23892U representa un isótopo de uranio con número atómico 92 y


número de masa 238. A este se le llama U-238. Teóricamente el átomo es neutro
y el número de protones, electrones y neutrones es igual, como ocurre con los
primeros elementos representados en la tabla periódica. El número de protones
casi siempre se mantiene estable, pero el número de neutrones varía. ¿Por
qué? En este sentido se debe recordar que los compuestos químicos se forman
porque los elementos buscan estabilidad en su nube electrónica.

Algo parecido ocurre en el núcleo: busca la estabilidad y mientras esto ocurre,


se desprenden radiaciones espontáneamente, que pueden ser rayos alfa , rayos
beta o rayos gamma. A este fenómeno se le llama radiactividad.

Muestra algunos isótopos comunes


ISÓTOPOS CARGA ABUNDANCIA
Hidrógeno -1 1+ 99,985
Hidrógeno -2 1+ 0,015
Hidrógeno -3 1+
Helio -3 2+ 1.3 x 10-4
Helio -4 2+ 100
Berilio -9 4+ 100
Carbono -12 6+ 98,89
Carbono -13 6+ 1,11
Carbono -14 6+ 1,2 x 10-10
Nitrógeno -14 7+ 99,64
Nitrógeno -15 7+ 0,36
Oxígeno -16 8+ 99,76
Oxígeno -17 8+ 0,04
Oxígeno -18 8+ 0,20

El 87% de la radiactividad que hay en el planeta es natural. Los elementos


radiactivos no sólo se encuentran en los reactores nucleares y en las cabezas
nucleares que se usan como misiles; también están en el agua, en la leche, en
el mar, en el aire, en las plantas... podría decirse que en todo el planeta.

Niveles de radiactividad relativa en líquidos


Agua corriente del grifo 1
Descargas de una central nuclear 0.05 a 0.5
Agua del río 0.5 a 5
Cerveza 6.5
Agua del mar 17.5
Whisky 60
Leche 70

El Carbono -14

El carbono -14 se produce de manera continua en la atmósfera, cuando


neutrones de alta energía del espacio, chocan contra el nitrógeno –14, como se
ve en la siguiente reacción.

Al igual que el carbono -14 se produce continuamente por este proceso, se


descompone en forma continua al emitir partículas beta con el transcurso de los
años, por lo que la reacción puede considerarse de equilibrio, por lo que la
cantidad de 146C presente en la atmósfera permanece aproximadamente
constante.

El carbono -14 artificial que está actualmente en circulación por la Tierra alcanza
aproximadamente una tonelada y representa el 1% de la abundancia total
natural. Durante los últimos siete años, el hombre lo ha producido a un ritmo
considerablemente mayor que el resultante del proceso natural, mediante el cual
se forma por la acción de los neutrones de los rayos cósmicos. La mayoría está
todavía en la atmósfera combinado en dióxido de carbono. En los organismos
vivientes se ha elevado el contenido de carbono-14 hasta el 10% por encima de
lo normal, situación que puede confundir a los futuros arqueólogos.

Partícula Símbolo
1
Neutrón 0n
1
Protón 1H
0
Partícula beta (electrón) -1e
0
Positrón (electrón positivo) +1e
4
Partícula alfa (núcleo de helio) 2He
2
Deuterio (núcleo de hidrógeno pesado) 1H

Símbolos en notación isotópica, de varias partículas (e isótopos pequeños)


relacionados con la química nuclear. Se ha descubierto más de una docena de
radioisótopos naturales de vida larga y la lista continúa creciendo a medida que
los métodos para detectarlos se hacen más sensibles. Sin embargo, son sólo
tres de ellos: uranio- 238, torio-232 y potasio- 40, los que generan la mayor parte
de la radiación natural presente en el medio ambiente.
La localización de estos isótopos en la Tierra depende no de sus propiedades
nucleares, sino de sus propiedades químicas. Los tres son metales fácilmente
oxidables. Sus óxidos poseen una densidad relativamente baja y se presentan,
por tanto, en la corteza terrestre en vez del manto y en el núcleo metálico. Quizá
la mitad de la radiactividad de la Tierra procede de una región superficial, cuyo
espesor es de unos 60 kilómetros. Esta distribución aumenta significativamente
la radiación a la que todos los seres vivientes están expuestos y hace que el
hombre pueda disponer del uranio y del torio

La radiactividad natural y artificial

Los elementos radiactivos sufren una trasmutación, decaimiento o


transformación, por desintegración nuclear, para formar otros elementos como
ya se ha mencionado. Hay que recordar que las propiedades químicas de un
elemento están relacionadas con su estructura electrónica, pero la radiactividad
es una propiedad del núcleo.

Isótopos del hidrógeno

Se conocen hasta ahora tres isótopos: el núcleo normal consta de un sólo protón;
un isótopo del hidrógeno denominado deuterio, que tiene un núcleo compuesto
por un protón más un neutrón, otro isótopo denominado tritio, que tiene un núcleo
compuesto de un protón más dos neutrones. Otro producto de los rayos
cósmicos de gran interés es el hidrógeno -3, (tritio) 31H, que se origina
principalmente por transmutación del nitrógeno atmosférico; este hidrógeno pasa
a formar parte de moléculas de agua, tanto del mar, como de la lluvia.

Representación del hidrógeno y sus isótopos

Ambos isótopos se encuentran en la naturaleza, pero solo en cantidades


relativamente pequeñas. La llamada agua pesada consiste en agua donde están
presentes átomos de deuterio en lugar de átomos de hidrógeno en combinación
con el oxígeno.

La mayoría de las propiedades físicas y químicas de un elemento están


determinadas por el número de electrones y sus posiciones en los átomos.
Puesto que los isótopos de un elemento tienen estructuras electrónicas casi
idénticas, no es sorprendente que los dos isótopos de cloro, por ejemplo, tengan
el mismo color amarillo, el mismo olor sofocante, la misma eficiencia como
veneno y agente blanqueador y la misma propiedad para combinarse
químicamente con los metales. Debido a que los puntos de ebullición y
congelación dependen, en cierto modo, de la masa atómica, estas propiedades
difieren ligeramente entre los isótopos, como también la densidad. Sin embargo,
estas diferencias no son lo suficiente significativas para separar los isótopos de
un elemento en procesos naturales y por esto, su descubrimiento tuvo que
esperar hasta la invención del espectrómetro de masa.

Los elementos radiactivos pueden formar compuestos, cambiar de estado físico


y su carácter radiactivo no se ve afectado.

Las partículas alfa de los materiales


radiactivos son detenidas por un
pedazo de cartón. Las partículas
beta, penetran el cartón pero son
detenidas por una lámina de
aluminio. Aun una gruesa lámina de
plomo, puede no ser suficiente para
detener los rayos gamma.

La radiación natural en la tierra y las rocas son, en valor promedio, de 60 mrem


(rem unidad para medir la dosis de radiactividad) por año y en las edificaciones
se utilizan estas rocas en los materiales de construcción, añadiendo cantidades
apreciables de radiación. Por ejemplo, el habitar en una casa de ladrillo o piedra,
el hombre se expone a 7 mrem más por año que si se habita en una casa de
madera. Todos los edificios de granito emiten radiaciones y el vivir sobre granito
añade cantidades apreciables de radiación. El gas radón, que surge del radio
natural contenido en los materiales de construcción, también está presente en
las casas y oficinas y emite más radiación. Aún el dormir junto a otra persona
puede aumentar nuestra dosis anual de radiación, ya que cada cuerpo contiene
potasio radiactivo, que existe normalmente junto con el potasio normal que es
esencial a la vida, dando una dosis de radiación interna.

La radiactividad natural también se introduce en el cuerpo y estas radiaciones


internas llegan a la mayoría de los tejidos corporales, en una cantidad
aproximada de 18 mrem por año. Tanto el alimento como el agua y el aire,
contienen niveles bajos de radiactividad natural y esto ha sido así desde el
comienzo del mundo. Las fuentes naturales de radiación son típicas de la manera
actual de vivir. El arar la tierra libera gas radón a la atmósfera. Los materiales
radiactivos naturales se introducen en la cadena alimentaria, el aire que se
respira, y el agua que bebemos y los materiales de construcción: el concreto, la
piedra y el ladrillo emiten radiación natural.
Gráfico: Serie de desintegración de 23892U a 20682Pb, las flechas indican las
transformaciones que se inician en el uranio y terminan en el plomo las flechas
horizontales indican emisión de partículas ß y las diagonales partículas alfa.

Vida media o semivida de los elementos radiactivos

Cada núclido (átomo) radiactivo se desintegra según la intensidad o rapidez


específica constante, que se expresa en las llamadas unidades de semivida. La
semivida (t1/2 o vida media) es el tiempo necesario para que se desintegre la
mitad de una determinada cantidad de un núclido radiactivo. Las semividas de
los elementos alcanzan, desde una fracción de segundo, hasta miles de millones
de años. Por ejemplo, el 23892 U tiene una semivida de 4.5 x 109 años, el 22688Ra
tiene una semivida de 1620 años y el 156C tiene una semivida de 2.4s. Como
ejemplo, si hoy se tuviera 1.0g de 22688Ra, al cabo de 1620 años se tendrían 0.5
g de 22688Ra; al final de otro período de 1620 años, quedarían 0.25 g y así
sucesivamente.

Las semividas de los radioisótopos del mismo elemento son distintas. En la tabla
siguiente, aparecen las vidas medias de algunos isótopos del radio, carbono y
uranio.

Vidas medias de isótopos del radio, carbono y uranio


Isótopo Semivida Isótopo Semivida
Ra 223 11.7 días C 14 5668 años
Ra 224 3.64 días C 15 24 segundos
Ra 225 14.8 días U 235 7.1 x 108 años
Ra 226 1620 años U 238 4.5 x 109 años
Ra 228 6.7 años
La radiactividad artificial

Transmutación o transformación de los elementos es la conversión de un


elemento químico en otro, por medios naturales o artificiales. La transmutación
se efectúa espontáneamente en las desintegraciones radiactivas naturales.
Transmutar los metales en oro fue el sueño de los alquimistas, pero no se logró
hasta 1919, cuando Ernest Rutherford bombardeó los núcleos de átomos de
nitrógeno con partículas alfa y produjo núclidos de oxígeno y protones. La
partícula alfa entra en el núcleo del nitrógeno, formando 189F como intermedio, el
cual se descompone en los productos. Los experimentos de Rutherford abrieron
la puerta a transmutaciones nucleares de todos tipos. Se bombardearon átomos
con partículas alfa, neutrones, protones, deutrones (21H ), electrones y otros. Se
desarrollaron instrumentos masivos para acelerar dichas partículas a
velocidades y energías muy altas para lograr la penetración a los núcleos.

Los protones y neutrones en los núcleos atómicos están enlazados entre sí con
fuerzas mucho mayores, que las que enlazan a los átomos para formar
moléculas. De hecho, las energías asociadas con procesos nucleares son más
de un millón de veces mayores que las asociadas con reacciones químicas. Esto
hace que el núcleo sea potencialmente una fuente de energía muy atractiva. Hay
dos procesos nucleares que producen energía, al respecto, se solicita que
anoten. A saber un proceso consiste en unir núcleos livianos, liberando gran
cantidad de energía fusión nuclear y el otro proceso consiste en el rompimiento
de núcleos pesados, liberando también gran cantidad de energía fisión nuclear.

La fusión nuclear se descubrió a finales de la década de los años treinta,


cuando se observó que los
núcleos de 23592U
bombardeado con
neutrones, se dividían en
dos elementos más ligeros.

El neutrón constituye una partícula ideal para el bombardeo de los átomos de los
elementos pesados. A respecto, ilustre en forma creativa una reacción en cadena
donde se aprecie la fisión nuclear.

Usos de la radiactividad por la humanidad

Desarrollar variedades de cultivos agrícolas y hortalizas de alto rendimiento, bien


adaptadas y resistentes a enfermedades, induciendo mutaciones al alterar los
genes con el empleo de radiación: a-) para erradicar o controlar las plagas de
insectos esterilizando grandes cantidades de hembras, método que se ha
aplicado con éxito para erradicar el gusano barrenador (tórsalo) del ganado, b-)
mejorar el rendimiento reproductivo, c-) mejorar la nutrición y la salud de los
animales empleando isótopos radiactivos en los alimentos y d-) reducir las
perdidas posteriores a la cosecha mediante la eliminación de los brotes y la
contaminación, todo esto con tratamiento radiactivo, son algunos de los usos que
se le están dando actualmente a la radiactividad. Cada uno ocuparía un libro
entero o por lo menos un capítulo especial, dada la importancia que tiene. Sin
embargo no se va estudiar en detalle, pero sí comprendiendo que la idea popular
de que la radiactividad es algo lejano y que está en manos de muy pocos países,
no es cierta.

Las aplicaciones de la química nuclear son importantes en la medicina, la


industria, las artes y la investigación. Su impacto amenaza y ensancha al mismo
tiempo la vida del hombre y su futuro. Actualmente se desarrollan las nuevas
aplicaciones y nuevos radiofármacos, con el fin de ampliar la gama de
procedimientos, reducir las enfermedades contagiadas por los alimentos y
prolongar el período de conservación mediante la utilización de radiaciones y
estudiar los medios para reducir la contaminación originada por los plaguicidas
y productos agroquímicos.

Algunos núclidos o isótopos radiactivos, sus vidas medias y sus


aplicaciones médicas como marcadores en el cuerpo humano.
Núclido Vida media Área del cuerpo que se estudia
131
I 8.1 días Tiroides
59
Fe 45.1 días Glóbulos rojos
99
Mo 67 horas Metabolismo
32
P 14.3 días Ojos, hígado, tumores
51
Cr 27.8 días Glóbulos rojos
87
Sr 2.8 horas Huesos
99
To 6.0 horas Corazón, huesos, hígado, pulmones
133
Xe 5.3 días Pulmones
24
Na 14.8 horas Sistema circulatorio

Radioterapia y quimioterapia

Durante muchos años se ha empleado el radio en tratamientos del cáncer. Hoy


se usan exclusivamente el Co-60 y el Cs-137 en la radioterapia. La eficacia de
esta terapia depende del hecho que las células malignas, que crecen o se dividen
rápidamente, son más susceptibles a los daños por radiación que las células
normales. El cobalto- 60 emite tanto partículas beta, como rayos gamma. Se
enfoca la radiación hacia la zona donde se localiza el tumor, pero es muy difícil
limitar la exposición sólo a las células malignas. Muchos pacientes sufren
malestares ocasionados por la radiación después de este tipo de tratamiento.

Se puede emplear el yodo-131 para el tratamiento del hipertiroidismo. La dosis


terapéutica es mayor que la que emplea en el diagnóstico. La glándula tiroides
concentra selectivamente al Y-131. La sección de la glándula que es hiperactiva
quedará expuesta a una gran dosis del isótopo y será la que se destruya
específicamente. A Bárbara Bush, primera dama en Estados Unidos, se le aplicó
este tratamiento en 1989. El mal funcionamiento de la glándula tiroides desarrolla
el bocio en las personas y causa muchos trastornos en el metabolismo.

Diagnóstico
Se emplean los trazadores radiactivos normalmente en el diagnóstico médico. Al
respecto de cómo se debe detectar la radiactividad fuera del cuerpo,
generalmente se escogen isótopos radiactivos (radionúclidos) emisores de rayos
gama. También, el radionúclido debe ser efectivo a bajas concentraciones y debe
tener una semivida corta para reducir la posibilidad de daños al paciente.

Se emplea el yodo radiactivo (I-131) para determinar la función tiroidea, que es


donde el organismo concentra al yodo. En este proceso, se ingiere una pequeña
cantidad de yoduro radiactivo de sodio o de potasio. Se enfoca un detector a la
glándula tiroides y se mide la cantidad de yodo en la glándula. Este cuadro se
puede comparar con el de una tiroides normal para detectar cualquier diferencia.

Los médicos pueden examinar la eficiencia cardiaca en el bombeo y verificar la


evidencia de una obstrucción en las arterias coronarias mediante el barrido
nuclear. El radionúclido Tl 201, al inyectarse en el flujo sanguíneo, se aloja en el
tejido sano del corazón. El talio 201 emite radiación gama, que se detecta
mediante un dispositivo especial llamado cámara de centelleo. Los datos
obtenidos se traducen simultáneamente en cifras mediante una computadora.
Con esta técnica se puede observar si el tejido cardiaco ha muerto, después de
un ataque al corazón y si la sangre fluye libremente a través de los conductores
coronarios.

Una de las últimas aplicaciones de la química nuclear es el uso de la tomografía


de emisión de positrones en la medida de procesos dinámicos en el organismo,
como el uso de oxígeno o el flujo sanguíneo. Para esta aplicación, se fabrica un
compuesto que contiene un núclido emisor de positrones, como C 11, O 15 o N
13. Se inyecta el compuesto en el organismo y se coloca al paciente en un
instrumento que detecta las emisiones de positrones. Una computadora produce
una imagen tridimensional de la zona.

Los barridos de emisión de positrones se han empleado para localizar las zonas
del cerebro relacionadas con los ataques epilépticos. El cerebro emplea la
glucosa a velocidad distinta del tejido normal.

Agricultura

Los científicos usan la radiación gama del Co 60 u otras fuentes en la


investigación agrícola para desarrollar granos resistentes a las enfermedades, o
altamente productivos. Las semillas se exponen a la radiación gama para inducir
mutaciones. Las plantas más saludables y vigorosas que crecen de semillas
irradiadas, se seleccionan y se propagan para obtener variedades nuevas y
mejoradas para uso comercial. La preservación de alimentos mediante radiación
es otra aplicación benéfica. El alimento se expone a radiación gama o un haz de
partículas beta suministradas respectivamente por Co 60 o Cs 137. Se destruyen
los microorganismos que pudieran causar deterioro del alimento, pero sólo se
eleva ligeramente la temperatura de éste. El alimento no se vuelve radiactivo
como resultado de este proceso, pero aumenta notablemente su duración en
almacén.

Trazadores isotópicos
Los compuestos que contienen un radionúclido se dice que son trazadores o
señaladores. Estos compuestos participan en sus reacciones químicas
normales, pero se pueden detectar su ubicación debido a su radiactividad
señaladora. Cuando se suministran otros compuestos a plantas o a animales, se
pueden rastrear o trazar el movimiento del isótopo a través del organismo,
mediante el uso de un contador Geiger o algún otro detector.

Un uso importante de la técnica de rastreo o trazado fue la determinación del


mecanismo mediante el cual CO2 se fija en forma de carbohidrato (C6H12O6),
durante la fotosíntesis. La ecuación neta de la fotosíntesis es:

Se inyectó 14CO2 radioactivo en una colonia de algas verde. Las algas se


colocaron en la oscuridad, se extrajeron muestras a determinados intervalos y
se separaron los compuestos radiactivos mediante cromatografía en papel para
analizarlos. A partir de estos resultados se dilucidaron varias reacciones
fotosintéticas independientes de la luz.

Se tienen algunos otros ejemplos en los que se emplearon técnicas de


trazadores, como son (1) para determinar la velocidad de ingestión de fósforo
por las plantas, con radiofósforo. (2) El flujo de nutrimento en el tracto digestivo
con compuestos de bario radioactivo. (3) La acumulación de yodo en la glándula
tiroides, con el empleo de yodo radioactivo y (4) la absorción de hierro por la
hemoglobina de la sangre, con hierro radioactivo. En química, los usos son
ilimitados. El estudio de mecanismos de reacción, la medición de las velocidades
de reacciones químicas y la determinación de constantes físicas son sólo
algunas de las áreas de aplicación.

Control de plagas

Se ha usado radiactividad para controlar y en algunas zonas, eliminar al gusano


barrenador. Las larvas de este insecto se introducen en las heridas del ganado.
La mosca hembra, como una abeja reina, sólo se aparea una vez. Cuando se
sueltan gran número de moscas macho esterilizadas con rayos gama en el
momento oportuno y en la zona infestada con el gusano barrenador, la mayor
parte de las hembras se aparean con machos estériles. Como consecuencia, las
moscas no pueden reproducirse lo suficiente para mantener su número. Esta
técnica se ha usado para erradicar en algunas zonas la mosca mediterránea de
las frutas.

Para un buen cultivo se necesita un suelo con suficientes nutrientes y humedad.


Las técnicas nucleares son ideales para medir la eficacia del aprovechamiento
de los fertilizantes por los cultivos y para vigilar el contenido de humedad.

En la agricultura moderna, el empleo de fertilizantes es esencial para aumentar


al máximo los rendimientos de los cultivos; por ejemplo, es corriente alcanzar en
muchos suelos un aumento del rendimiento de los cereales, de un 50 % gracias
a una fertilización eficiente. Para brindar alimentos a la población mundial que
crece sin cesar, se estima que el consumo de fertilizantes dentro de 20 años ha
de ser cuatro o cinco veces superior al actual. Para reducir a un mínimo absoluto
la necesidad de fertilizantes y de este modo rebajar los costos de producción de
los agricultores y aminorar el daño al medio ambiente, se necesitan estudios que
permitan conocer las virtudes relativas de los diferentes procedimientos de
fertilización en los que respecta, por ejemplo, a los métodos para aplicar el
fertilizante, la oportunidad de su aplicación y los tipos de fertilizantes que han de
usarse. El método utilizado para resolver estos problemas exige introducir en el
suelo cantidades conocidas de fertilizantes marcados con isótopos, en diversos
tiempos y diferentes lugares. Como la planta no distingue entre los elementos
provenientes del fertilizante marcado y los del suelo natural, es posible medir la
cantidad exacta de nutrientes de fertilizante captados por la planta.

Los resultados de esta investigación se han incorporado a las prácticas agrícolas


relativas a los cereales y han permitido aumentar de manera importante la
productividad de los cultivos, reducir la aplicación de fertilizantes por ende los
costos y han sido favorables para el medio ambiente al reducir
considerablemente los fertilizantes residuales en los suelos. Las
recomendaciones basadas en los resultados de los experimentos realizados en
este campo se han aplicado en los programas de fertilizantes organizados por la
FAO en muchos países y han permitido ahorros importantes; un país que utiliza
estas técnicas afirma haber ahorrado, contando únicamente los cultivos de maíz,
nada menos que 36 millones de dólares de los Estados Unidos al año.

Se han adaptado métodos naturales similares para evaluar los depósitos de


fosfato de roca, que resulta barato como alternativa frente a los fertilizantes
fosfatados caros y a menudo importados y para descubrir el modo más eficiente
de utilización de esos depósitos de fertilizantes con miras a un máximo
crecimiento de las plantas.

Aunque el nitrógeno constituye un 80 % de los gases de la atmósfera, son pocas


las plantas que pueden aprovecharlo directamente. Sin embargo, gracias a un
proceso denominado fijación biológica del nitrógeno, las plantas son capaces de
aprovechar el nitrógeno del aire. El proceso más importante es resultado de la
simbiosis entre una planta y una bacteria y ha despertado gran interés en los
últimos años.

Las legumbres que fijan el nitrógeno pueden suministrar abundantes proteínas


para el consumo humano y animal y también aumentar el nitrógeno del suelo. La
planta acuática Azolla, por ejemplo, puede obtener de un 80 a un 90 % de su
nitrógeno mediante fijación y es muy valiosa para suministrar nitrógeno a los
cultivos de arroz con cáscara. Con el fin de obtener los máximos frutos de este
proceso biológico único, se utilizan isótopos para descubrir la cantidad de
nitrógeno que la planta puede fijar y las formas de aumentar esta fijación. Las
técnicas isotópicas constituyen un medio ideal para distinguir el nitrógeno
derivado de la atmósfera, el del suelo y del fertilizante aplicado.

Uno de los grandes retos en el mundo, es contar con suficientes alimentos sanos
para toda la población. Se realizan grandes esfuerzos para fertilizar la tierra,
desarrollar mutantes de cultivos básicos adecuados, ofrecer una infraestructura
adaptada al país y, en general, crear las circunstancias apropiadas para una
buena cosecha. Después de eso, hemos de hacer también esfuerzos para
asegurarnos que los alimentos cultivados con esmero han de conservarse y
protegerse contra contaminaciones y plagas, lo que constituye una importante
prioridad para el mundo en desarrollo.

Durante miles de años se ha convivido con este problema, de manera que los
métodos de conservación han evolucionado a partir del desecado al sol, a la
saladura, el ahumado, el envasado, la congelación, el calentamiento y la adición
de productos químicos. El último método que se agrega a la lista es la irradiación,
vale decir, la exposición de los alimentos a radiaciones ionizantes administradas
en cantidades cuidadosamente controladas.

A pesar de constituir un proceso comercial relativamente nuevo, la irradiación de


alimentos se ha estudiado con más detalle que ninguna otra tecnología de los
alimentos. Más de 40 años de investigaciones ha demostrado de forma definitiva
que el consumo de alimentos irradiados no tiene consecuencias negativas. En
realidad, en lo que respecta a muchos alimentos se ha demostrado que el mejor
método de conservación es la irradiación.

Aplicaciones generales de la irradiación de alimentos


Finalidad Dosis Productos
(kGy)
Dosis baja (hasta 1 kGy)
Inhibición de brotes 0.05-0.15 Patatas, cebollas, ajos raíz de jengibre
Desinfectación en relación con insectos 0.15-0.50 Cereales y legumbres, frutas secas y
y parásitos desecadas, carne y pescado
desecados, cerdo fresco
Retardo de la maduración 0.50-1.0 Frutas y verduras frescas
Dosis media (1-10 kGy)
Prolongación del período de 1.50-3.0 Pescado fresco, fresas y otros.
conservación
Eliminación de la putrefacción y de los 2.0-7.0 Mariscos frescos y congelados, aves y
microorganismos patógenos carne

Mejoramiento de las cualidades 2.0-7.0 Uvas (aumento del jugo), verduras


tecnológicas de los alimentos deshidratadas (reducción del tiempo de
cocción)
Dosis alta (10-50 kGy)
Descontaminación de aditivos e 0-50 Especias, preparados de enzimas,
ingredientes de alimentos chicle natural y otros.
Esterilización comercial (en 30-50 Carne, aves, mariscos, alimentos
combinación con calor suave) preparados, dietas hospitalarias.

Las autoridades internacionales competentes han aprobado todas las normas y


reglamentaciones necesarias para la irradiación de determinados alimentos,
pero existiendo cierta resistencia del público frente a esos alimentos. Se trata
seguramente de una situación transitoria, y es innegable que en el futuro, la
irradiación de alimentos se convertirá en un factor beneficioso para la humanidad
y la conservación de alimentos por irradiación, adquirirá máxima importancia
para los productos alimenticios de los países en desarrollo.

¿Qué ventaja tiene la utilización de la irradiación? Puede matar organismos


virales y microorganismos patógenos específicos que no generen esporas, como
la salmonela, o puede interferir en procesos fisiológicos, siendo posible utilizarla,
por ejemplo, para inhibir los brotes de las papas o prolongar el período de
conservación de la fruta fresca. En síntesis, la irradiación de alimentos constituye
una opción y en algunos casos el único método para lo siguiente:

o eliminar muchos riesgos para la salud provenientes de los alimentos


o mejorar la calidad de los productos frescos
o lograr que la producción y la distribución de alimentos sean más económicos
o reducir las pérdidas durante el almacenamiento o transporte y
o desinfectar productos almacenados, como granos, alubias o frijoles, frutas desecadas y
pescado desecado.

Desde el punto de vista económico, una de las aplicaciones más importantes se


traduce en la prolongación del período de conservación, lo que tiene sumo valor
para los países de clima cálido como muchos de los países en desarrollo. Lo
mismo es cierto para la reducción de las pérdidas durante el almacenamiento,
que son muy importantes en algunas zonas. Aunque resulte difícil de creer,
algunos países registran pérdidas posteriores a la cosecha de un 40 a un 50%,
debidas a la infestación de los alimentos básicos, como granos y el ñame o
batata. Por eso, cuando no se les irradia, en su mayoría, los alimentos básicos
almacenados se fumigan con productos químicos.

En una conferencia internacional celebrada en Ginebra en diciembre de 1988


sobre “Aceptación, control y comercio de alimentos irradiados” se aprobó un
documento que describe las ventajas de la irradiación de alimentos y recomienda
armonizar los procedimientos nacionales, para facilitar el comercio internacional
de esos productos.

En consecuencia, parecería que finalmente se han removido todos los


obstáculos prácticos que podían entorpecer el rápido desarrollo de esta
aplicación de las radiaciones que ha de resultar sumamente provechosa para la
humanidad en un futuro muy cercano.

Energía Nuclear

Casi toda la electricidad para uso comercial es producida por máquinas que
consisten en una turbina que mueve un generador eléctrico mediante un eje. La
energía necesaria para hacer girar a la turbina puede suministrarla una caída de
agua, como en las plantas hidráulicas, o el vapor de agua generado en una
caldera mediante el calor de un combustible, como en las plantas térmicas. Estas
centrales generadoras queman combustibles fósiles, como son el carbón, el
petróleo o el gas natural.

La demanda mundial de energía, principalmente a partir de combustibles fósiles,


ha continuado creciendo a una velocidad acelerada durante unos 250 años. Aún
a las tasas actuales de consumo, la reserva mundial estimada de combustibles
fósiles, es suficiente sólo para unos pocos siglos. Aunque Estados Unidos posee
grandes depósitos de carbón y petróleo, importa hoy aproximadamente un 40 %
de sus necesidades de petróleo. Es obvio que necesitan desarrollarse fuentes
alternativas de energía. Hoy el uranio constituye la alternativa más productiva y
aproximadamente el 12 % de la energía eléctrica que se consume en Estados
Unidos es generada en plantas térmicas que operan con una reacción nuclear a
base de uranio como “combustible”.

Una central nuclear es una planta térmica en la que el calor lo produce el reactor
de fisión en vez de una cámara de combustión. Los principales componentes de
un reactor nuclear son (1) una disposición de material reactivo fisionable, que
constituye el núcleo del reactor, (2) un sistema de control, que regula la velocidad
de fisión y por lo mismo la tasa de generación de calor y (3) un sistema de
enfriamiento, que elimina el calor del reactor y también mantiene el núcleo a la
temperatura adecuada. Un cierto tipo de reactor emplea pastillas metálicas que
contienen uranio enriquecido con U 235, desde un nivel normal de 0.7 %, hasta
aproximadamente 3 %. Se modera, o controla, la reacción autosostenida de
fisión, mediante las barras o varillas de control de posición regulable. Estos
elementos contienen sustancias que frenan y capturan algo de los neutrones que
se producen. Para enfriar se usan agua ordinaria, agua pesada, sodio fundido y
otros. La energía obtenida de la reacción nuclear es en forma de calor, y se usa
en la producción de vapor para impulsar las turbinas que impulsan a los
generadores de electricidad.

Dos eventos que demostraron los peligros potenciales de la energía nuclear


fueron los accidentes en la isla Three Mile, en Pennsylvania, EUA (1979) y
Chernobyl, URSS (1986). Ambos accidentes fueron originados por la pérdida de
refrigerante en el núcleo del reactor. Los reactores en la isla Three Mile están
envueltos por cascarones de cemento y por lo tanto dejaron escapar una
cantidad relativamente pequeña de material radiactivo a la atmósfera. Como en
la Unión Soviética no se usan estructuras de contención para las plantas
nucleares, el accidente de Chernobyl ocasionó miles de muertes. La descarga
de grandes cantidades de Y 131, Cs 134 y Cs 137, podrían originar problemas
de salud a largo plazo en esa población, que ya estuvo expuesta.
Otra desventaja principal de las plantas nucleares es que producen desechos
altamente radiactivos, algunos de los cuales tienen semividas de miles de años.
Hasta ahora, no se ha logrado un acuerdo acerca de cómo disponer con
seguridad de tales productos radiactivos. En Estados Unidos los reactores
diseñados para la producción comercial de electricidad usan óxido de uranio,
U3O8 , enriquecido con el isótopo fisionable U-235, relativamente escaso. Como
es limitado el suministro de U 235, se ha desarrollado un tipo nuevo de reactor,
llamado reactor de cría. Estos reactores están diseñados para producir más
material fisionable a la vez que se lleva a cabo la reacción. En un reactor de cría,
los neutrones convierten a isótopos no fisionables, como el U 238 o el Th 232,
en isótopos fisionables Pu 239 o U 233. Estas transmutaciones hacen posible
aumentar en gran medida el suministro de
reactivo fisionable para los reactores
nucleares.

Precauciones en el manejo de material


radiactivo

La vasta experiencia que ha adquirido la


industria nuclear en el uso de sustancias
radioactivas, ha permitido a ésta conocer
plenamente los peligros que entraña. Un
blindaje y una contención apropiados
evitarán la fuga de radiaciones. La clara
comprensión de los principios de
protección radiológica y el conocimiento
exhaustivo de las propiedades de la
radiación que posee la industria nuclear le
permiten diseñar, construir y explotar sus
plantas manteniendo en un mínimo la
exposición a las radiaciones que afecta a los trabajadores y el público, de
conformidad con las directrices internacionales. La vigilancia periódica de los
trabajadores de la industria nuclear y de su ambiente de trabajo garantiza que
no se rebasen estos niveles.
Seguridad de las centrales nucleares y protección del medio ambiente

Cuando se habla de una central nuclear, se cree que puede explotar como una
bomba atómica, pero esto no es así. Las bombas atómicas y las centrales
nucleares son esencialmente diferentes. Las bombas para explotar requieren la
unión rápida de dos piezas de uranio-235 metálico casi puro, formando una masa
compacta de geometría definida. Un reactor nuclear típico, que produzca vapor
para una central eléctrica, utiliza uranio cerámico (normalmente en forma de
óxido), no metal, con un contenido de uranio-235 sólo del orden del 3 %; el resto
del uranio se compone de uranio –238 que no se fisiona en el reactor.

La característica de una central nuclear es que produce radiaciones. Como


consecuencia de la fisión nuclear se producen núcleos radiactivos inestables,
que se transforman en estables emitiendo radiaciones; una vez que son estables,
ya no emiten radiaciones.
La seguridad nuclear estriba en evitar que se produzcan escapes incontrolados
de sustancias radiactivas, lo cual es necesario para proteger a los operadores
de la central y para proteger al público en general. Por esta razón, las pastillas
de uranio son protegidas por barreras de seguridad. 1- El combustible de uranio
está protegido por unas vainas. 2- Las vainas con el combustible está encerrado
en una vasija. 3- La vasija está encerrada en un recinto de blindaje biológico, un
envolvente de acero. Estas medidas de precaución hace que las personas
puedan trabajar en el entorno sin radiación. También se colocan unas barras de
control que son de un material especial que tiene la propiedad de atraer y
capturar neutrones con mucha facilidad. El Boro por ejemplo, es uno de esos
materiales.

Las medidas de seguridad y de precaución, como toda actividad humana, ha ido


evolucionando con el tiempo, tanto es así que actualmente se exige un área sin
poblar alrededor de las centrales nucleares, aunque varía de acuerdo con cada
país. A finalizar 1989, existían 426 centrales nucleares conectadas a la red
eléctrica en 25 países. Actualmente la cantidad de energía eléctrica representa
más del 20% de la demanda. El tema de la energía nuclear es un tema polémico.
Son muchas las personas que se pronuncian en contra y otras a favor.

Desechos radiactivos

Después de muchos años de investigación, desarrollo y aplicaciones


industriales, hoy se puede afirmar que existen soluciones tecnológicas bastante
seguras para manejar adecuadamente los desechos radiactivos. Estos no solo
provienen de los reactores que generan electricidad, sino también de los
hospitales, la industria, la agricultura y la investigación, como ya se estudió en
los apartados anteriores donde se conocieron las aplicaciones de la radiactividad
en esos campos.

Aproximadamente una vez al año, se extrae una parte del combustible nuclear
colocado dentro del reactor nuclear y se sustituye por uno nuevo. El combustible
“gastado” es muy radiactivo, debe aislarse con mucho cuidado, de lo contrario
causaría daños irreparables a las personas y al ambiente. Es extraído del reactor
por manos mecánicas y colocado en piscinas con agua para enfriarlo y aislarlo
por poco tiempo, mientras es llevado al depósito permanente. También se
almacena en contenedores de hormigón o acero mientras se les asigna el lugar
definitivo. Este uranio “gastado” también se reutiliza; en la actualidad, Francia,
Reino Unido y la Federación Rusa, cuentan con plantas de reelaboración a nivel
industrial y mundial para la obtención de uranio y plutonio, en el proceso químico.
Este tipo de desecho representa un 95% ya que una planta típica nuclear de
generación eléctrica produce 30 toneladas anuales de uranio “gastado”, esta
cantidad puede reducirse a 3 m3 de desecho radiactivo.

También existen desechos radiactivos sólidos, líquidos y gaseosos. Entre los


sólidos se cuentan toallas, papel, vidrio, metales y otros materiales usados en la
central. Cada uno tiene su manera de ser tratado para evitar problemas. Los
sólidos altamente radiactivos se sellan en recipientes de metal o cerámica
resistentes a la corrosión, para evitar que la humedad los afecte. Actualmente
algunos países que se dedican a la reelaboración del combustible gastado lo
vitrifican. Hay acuerdos internacionales para aislar esos desechos: colocarlos en
cavidades profundas de la tierra, con barreras tecnológicas y naturales como por
ejemplo minas de sal, granito, arcilla, basalto (roca volcánica) y otras más. Los
desechos sólidos vitrificados se sellan en recipientes de metal o cerámica
resistentes a la corrosión para evitar que la humedad los afecte.

2.8 Estructura Atómica

Estructura atómica de Leucipo y Demócrito


En el siglo V a.C.,Leucipo pensaba que sólo había
un tipo de materia. Sostenía que si dividíamos la
materia en partes cada vez más pequeñas,
acabaríamos encontrando una porción que no se
podría seguir dividiendo.
Un discípulo suyo, Demócrito (filósofo griego, del
año 500 a. De C.) Bautizó a estas partes indivisibles
de materia con el nombre de átomos, término que en
griego significa “indivisible”.
Los atomistas pensaban que:
 Todo está hecho de átomos.
Si dividimos una sustancia muchas veces, llegaremos a ellos.
 Las propiedades de la materia varían según como se agrupen los átomos.
 Los átomos no pueden verse porque son muy pequeños.

Estructura atómica de John Dalton


Su modelo atómico postulaba:
 La materia está formada por partículas muy
pequeñas llamadas átomos, que son indivisibles
y no se pueden destruir.
 Los átomos de un mismo elemento son iguales
entre sí, tienen su propio peso y cualidades
propias.
Los átomos de los diferentes elementos tienen pesos
diferentes.
 Los átomos permanecen sin división, aun cuando
se combinen en las reacciones químicas.
 Los átomos, al combinarse para formar
compuestos guardan relaciones simples.
 Los átomos de elementos diferentes se pueden combinar en
proporciones distintas y formar más de un compuesto.
 Los compuestos químicos se forman al unirse átomos de dos o más
elementos distintos.

Estructura atómica de Thompson


El modelo de Dalton desapareció ante el modelo de
Thomson, ya que no explica los rayos catódicos, la
radioactividad ni la presencia de los electrones (e-) o
protones (p+).
Luego del descubrimiento del electrón por Thomson se
determinó que la materia se compone en una parte
negativa y una positiva. La parte negativa estaba
constituida por electrones, los cuales se encontraban,
según este modelo, inmersos en una masa de carga
positiva a manera de pasas en un pastel.
Para explicar la formación de iones, positivos y
negativos, y la presencia de los electrones dentro de la
estructura atómica, Thomson ideó un átomo parecido a un pastel de frutas. Una
nube positiva que contenía las pequeñas partículas negativas (los electrones)
suspendidos en ella. El número de cargas negativas era el adecuado para
neutralizar la carga positiva. En el caso de que el átomo perdiera un electrón, la
estructura quedaría positiva; y si ganaba, la carga final sería negativa. De esta
forma, explicaba la formación de iones; pero dejó sin explicación la existencia de
las otras radiaciones.
Estructura atómica de Rutherford
Rutherford a partir de los resultados obtenidos en lo
que hoy se conoce como el experimento de Rutherford
en 1911. Representa un avance sobre el modelo de
Thomson, ya que mantiene que el átomo se compone
de una parte positiva y una negativa, sin embargo, a
diferencia del anterior, postula que la parte positiva se
concentra en un núcleo, el cual también contiene
virtualmente toda la masa del átomo, mientras que los
electrones se ubican en una corteza orbitando al
núcleo en órbitas circulares o elípticas con un espacio
vacío entre ellos. A pesar de ser un modelo obsoleto,
es la percepción más común del átomo del público no
científico. Rutherford predijo la existencia del neutrón
en el año 1920, por esa razón en el modelo anterior (Thomson), no se habla de
éste.
El modelo atómico de Rutherford presentaba varias incongruencias:
 Contradecía las leyes del electromagnetismo de James Clerk Maxwell,
las cuales estaban muy comprobadas mediante datos experimentales
 Según las leyes de Maxwell, una carga eléctrica en movimiento (en este
caso el electrón) debería emitir energía constantemente en forma de
radiación y llegaría un momento en que el electrón caería sobre el
núcleo y la materia se destruiría.
 Todo ocurriría muy brevemente.
No explicaba los espectros atómicos.
Estructura atómica de Bohr
Este modelo es estrictamente un modelo del átomo de
hidrógeno tomando como punto de partida el modelo de
Rutherford, Niels Bohr trata de incorporar los fenómenos
de absorción y emisión de los gases, así como la nueva
teoría de la cuantización de la energía desarrollada por
Max Planck y el fenómeno del efecto fotoeléctrico
observado por Albert Einstein.
“El átomo es un pequeño sistema solar con un núcleo
en el centro y electrones moviéndose alrededor del
núcleo en orbitas bien definidas.” Las orbitas están
cuantizadas (los e- pueden estar solo en ciertas orbitas)
 Cada orbita tiene una energía asociada. La más externa es la de mayor
energía.
 Los electrones no radian energía (luz) mientras permanezcan en orbitas
estables.
 Los electrones pueden saltar de una a otra orbita. Si lo hace desde una
de menor energía a una de mayor energía absorbe un cuanto de energía
(una cantidad) igual a la diferencia de energía asociada a cada orbita. Si
pasa de una de mayor a una de menor, pierde energía en forma de
radiación (luz).
El mayor éxito de Bohr fue dar la explicación al espectro de emisión del
hidrogeno. Pero solo la luz de este elemento. Proporciona una base para el
carácter cuántico de la luz, el fotón es emitido cuando un electrón cae de una
órbita a otra, siendo un pulso de energía radiada. Bohr no puede explicar la
existencia de orbitas estables y para la condición de cuantización. Bohr encontró
que el momento angular del electrón es h/2π por un método que no puede
justificar.
Después de que Louis-Víctor de Broglie propuso la naturaleza ondulatoria de la
materia en 1924, la cual fue generalizada por Erwin Schrödinger en 1926, se
actualizó nuevamente el modelo del átomo.
Estructura atómica actual: Estructura atómica de
Schrödinger
Schrödinger describe a los electrones por medio de
una función de onda, el cuadrado de la cual
representa la probabilidad de presencia en una
región delimitada del espacio. Esta zona de
probabilidad se conoce como orbital.
En 1926 se propone la ecuación de onda para
determinar la posición del electrón dentro del átomo,
y es el modelo que está vigente en la actualidad.

Das könnte Ihnen auch gefallen