Sie sind auf Seite 1von 16

Teoría del caos es la denominación popular de la rama de las matemáticas y la física que trata

ciertos tipos de comportamientos impredecibles de lossistemas dinámicos. Los sistemas


dinámicos se pueden clasificar básicamente en:

 Estables
 Inestables
 Caóticos

Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión
(atractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico
manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve
atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema
permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.

Una de las mayores características de un sistema inestable es que tiene una gran dependencia
de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características,
y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el
tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones
hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas
incluyen la atmósfera terrestre, el Sistema Solar, las placas tectónicas, los fluidos en régimen
turbulento y los crecimientos de población.

Por ejemplo, el clima atmosférico, según describió Edward Lorenz, se describe por 3
ecuaciones diferenciales bien definidas. Siendo así, conociendo las condiciones iniciales se
podría conocer la predicción del clima en el futuro. Sin embargo, al ser éste un sistema caótico,
y no poder conocer nunca con exactitud los parámetros que fijan las condiciones iniciales (en
cualquier sistema de medición, por definición, siempre se comete un error, por pequeño que
éste sea) hace que aunque se conozca el modelo, éste diverja de la realidad pasado un cierto
tiempo. Por otra parte, el modelo atmosférico es teórico y puede no ser perfecto, y
el determinismo, en el que se basa, es también teórico.

Los sistemas dinámicos deterministas, cuyo ámbito de aplicación cubre todas las ramas de la
ciencia, tienen movimientos de tal complejidad que resulta imposible toda predicción, por cuya
razón reciben el nombre de caóticos.

Atractores [editar]
Artículo principal: Atractor

Una manera de visualizar el movimiento caótico, o cualquier tipo de movimiento, es hacer un


diagrama de fases del movimiento. En tal diagrama el tiempo es implícito y cada eje representa
una dimensión del estado. Por ejemplo, un sistema en reposo será dibujado como un punto, y
un sistema en movimiento periódico será dibujado como un círculo.
Algunas veces el movimiento representado con estos diagramas de fases no muestra una
trayectoria bien definida, sino que ésta se encuentra errada alrededor de algún movimiento bien
definido. Cuando esto sucede se dice que el sistema es atraído hacia un tipo de movimiento, es
decir, que hay un atractor.

De acuerdo a la forma en que sus trayectorias evolucionen, los atractores pueden ser
clasificados como periódicos, cuasi-periódicos y extraños. Estos nombres se relacionan
exactamente con el tipo de movimiento que provocan en los sistemas. Un atractor periódico,
por ejemplo, puede guiar el movimiento de un péndulo en oscilaciones periódicas; sin embargo,
el péndulo seguirá trayectorias erráticas alrededor de estas oscilaciones debidas a otros
factores menores.

Atractores extraños [editar]


La mayoría de los tipos de movimientos mencionados y en la teoría anterior sucede alrededor
de atractores muy simples, tales como puntos y curvas circulares llamadas ciclos límite. En
cambio, el movimiento caótico está ligado a lo que se conoce como atractores extraños,
atractores que pueden llegar a tener una enorme complejidad como, por ejemplo, el modelo
tridimensional del sistema climático de Lorenz, que lleva al famoso atractor de Lorenz. El
atractor de Lorenz es, quizá, uno de los diagramas de sistemas caóticos más conocidos, no
sólo porque fue uno de los primeros, sino también porque es uno de los más complejos y
peculiares, pues desenvuelve una forma muy peculiar más bien parecida a las alas de una
mariposa.

Los atractores extraños están presentes tanto en los sistemas continuos dinámicos (tales como
el sistema de Lorenz) como en algunos sistemas discretos (por ejemplo el mapa Hènon). Otros
sistemas dinámicos discretos tienen una estructura repelente de tipo Conjunto de Julia la cual
se forma en el límite entre las cuencas de dos puntos de atracción fijos. Julia puede ser sin
embargo un atractor extraño. Ambos, atractores extraños y atractores tipo Conjunto de Julia,
tienen típicamente una estructura fractal.

El teorema de Poincaré-Bendixson muestra que un atractor extraño sólo puede presentarse


como un sistema continuo dinámico si tiene tres o más dimensiones. Sin embargo, tal
restricción no se aplica a los sistemas discretos, los cuales pueden exhibir atractores extraños
en sistemas de dos o incluso una dimensión.

Algo más de atractores [editar]


Los atractores extraños son curvas del espacio de las fases que describen la trayectoria eliptica
de un sistema en movimiento caótico. Un sistema de estas características es plenamente
impredecible, saber la configuración del sistema en un momento dado no permite predecir con
veracidad su configuración en un momento posterior. De todos modos, el movimiento no es
completamente aleatorio.
En la mayoría de sistemas dinámicos se encuentran elementos que permiten un tipo de
movimiento repetitivo y, a veces, geométricamente establecido. Los atractores son los
encargados de que las variables que inician en un punto de partida mantengan una trayectoria
establecida, y lo que no se puede establecer de una manera precisa son las oscilaciones que
las variables puedan tener al recorrer las órbitas que puedan llegar a establecer los atractores.
Por ejemplo, es posible ver y de cierta manera prever la trayectoria de un satélite alrededor de
la Tierra; lo que aparece en este caso como algo indeterminado, son los movimientos e
inconvenientes varios que se le pueden presentar al objeto para efectuar este recorrido.

Aplicaciones [editar]
La Teoría del Caos y la matemática caótica resultaron ser una herramienta con aplicaciones a
muchos campos de la ciencia y la tecnología. Gracias a estas aplicaciones el nombre se torna
paradójico, dado que muchas de las prácticas que se realizan con la matemática caótica tienen
resultados concretos porque los sistemas que se estudian están basados estrictamente con
leyes deterministas aplicadas a sistemas dinámicos.

En Internet se desarrolla este concepto en Teoría del Caos, el tercer paradigma, de como la
estadística inferencial trabaja con modelos aleatorios para crear series caóticas
predictoras para el estudio de eventos presumiblemente caóticos en las Ciencias Sociales. Por
esta razón la Teoría del Caos ya no es en sí una teoría: tiene postulados, fórmulas y
parámetros recientemente establecidos con aplicaciones, por ejemplo, en las áreas de
la meteorología o la física cuántica, y actualmente hay varios ejemplos de aplicación en
la arquitectura a través de los fractales, por ejemplo el Jardín Botánico de Barcelona de Carlos
Ferrater.

En meteorología [editar]
El clima, además de ser un sistema dinámico, es muy sensible a los cambios en las variables
iniciales, es un sistema transitivo y también sus órbitas periódicas son densas, lo que hace del
clima un sistema apropiado para trabajarlo con matemática caótica. La precisión de las
predicciones meteorológicas es relativa, y los porcentajes anunciados tienen poco significado
sin una descripción detallada de los criterios empleados para juzgar la exactitud de una
predicción.

Al final del siglo XX se ha vuelto común atribuirles una precisión de entre 80 y 85% en plazos
de un día. Los modelos numéricos estudiados en la teoría del caos han introducido
considerables mejoras en la exactitud de las previsiones meteorológicas en comparación con
las predicciones anteriores, realizadas por medio de métodos subjetivos, en especial para
periodos superiores a un día. En estos días es posible demostrar la confiabilidad de las
predicciones específicas para periodos de hasta cinco días gracias a la densidad entre las
orbitas periódicas del sistema, y se han logrado algunos éxitos en la predicción de variaciones
anormales de la temperatura y la pluviosidad para periodos de hasta 30 días.

Antes de la aparición de la Teoría del Caos, se pensaba que para que el clima llegara a
predecirse con exactitud newtoniana no era más que una cuestión de introducir más y más
variables en un ordenador lo suficientemente potente como para procesarlas. Sin embargo, de
unas pocas variables de hace tan solo unas décadas se ha pasado a considerar cientos de
miles de variables sin conseguir la predicibilidad esperada. El clima, como sistema caótico, ha
de entenderse como un sistema impredecible dentro de un atractor que le confiere cierto orden
a través de las estaciones. Sólo sabemos con seguridad que cada año habrá cuatro períodos
con unas caracteristicas climáticas conocidas. No es esperable, conforme a la teoría del caos,
que algún día consigamos averigüar con precisión matemática el tiempo que hará al día
siguiente. El clima es sensible a pequeñas variaciones en las condiciones iniciales y la
determinación de las condiciones iniciales con exactitud está abocado al fracaso a causa
del Principio de incertidumbre de Heisenberg.

No es posible contradecir la confiabilidad de las previsiones para periodos de tiempo más


largos debido a que no se han adoptado aún modelos de verificación; no obstante, los
meteorólogos profesionales tienden a ponerla en duda.

En mecánica cuántica, la relación de indeterminación de Heisenberg o principio de


incertidumbre afirma que no se puede determinar, simultáneamente y con precisión arbitraria,
ciertos pares de variables físicas, como son, por ejemplo, la posición y el momento lineal
(cantidad de movimiento) de un objeto dado. En otras palabras, cuanta mayor certeza se busca
en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal
y, por tanto, su velocidad. Esto implica que las partículas, en su movimiento, no tienen
asociada una trayectoria bien definida. Este principio fue enunciado por Werner
Heisenberg en 1927.

Introducción [editar]
Si se preparan varias copias idénticas de un sistema en un estado determinado, como puede
ser un átomo, las medidas de la posición y de la cantidad de movimiento variarán de acuerdo
con una cierta distribución de probabilidad característica del estado cuántico del sistema. Las
medidas del objeto observable sufrirán desviación estándar Δx de la posición y el momento Δp.
Verifican entonces el principio de indeterminación que se expresa matemáticamente como:

donde la h es la constante de Planck (para simplificar, suele escribirse como )


El valor conocido de la constante de Planck es:

En la física de sistemas clásicos esta indeterminación de la posición-momento no se manifiesta


puesto que se aplica a estados cuánticos del átomo y h es extremadamente pequeño. Una de
las formas alternativas del principio de indeterminación más conocida es la indeterminación
tiempo-energía que puede escribirse como:

Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la
formación de partículas virtuales, utilizadas para estudiar los estados intermedios de una
interacción. Esta forma del principio de indeterminación es también la utilizada para estudiar el
concepto de energía del vacío.

Expresión general de la relación de indeterminación [editar]


Además de las dos formas anteriores existen otras desigualdades como la que afecta a las
componentes Ji del momento angular total de un sistema:

Donde i, j, k son distintos y Ji denota la componente del momento angular a lo largo del eje xi.

Más generalmente si en un sistema cuántico existen dos magnitudes


físicas a y b representadas por los operadores u observables denotados como , en
general no será posible preparar una colección de sistemas todos ellos en el estado , donde
las desviaciones estándar de las medidas de a y b no satisfagan la condición:

Explicación cualitativa del principio de incertidumbre [editar]


Podemos entender mejor este principio si pensamos en lo que sería la medida de la posición y
velocidad de un electrón: para realizar la medida (para poder "ver" de algún modo el electrón)
es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su
posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador
modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero,
por muy perfectos que sean nuestros instrumentos.

No obstante hay que recordar que el principio de indeterminación es una limitación sobre el tipo
de experimentos realizables, no se refiere a la sensibilidad del instrumento de medida. No debe
perderse de vista que la explicación "divulgativa" del párrafo anterior no se puede tomar como
explicación del principio de indeterminación.
Consecuencias de la relación de indeterminación [editar]
Este principio supone un cambio básico en la naturaleza de la física, ya que se pasa de un
conocimiento absolutamente preciso en teoría (aunque no en el conocimiento basado sólo en
probabilidades).

Ha de tenerse muy en cuenta que, como otros muchos resultados de la mecánica cuántica,
esto sólo afecta significativamente a la física subatómica. Debido a la pequeñez de la constante
de Planck, en el mundo macroscópico la indeterminación cuántica es completamente
despreciable, y los resultados de las teorías físicas deterministas, como la teoría de la
relatividad de Einstein, siguen teniendo validez.

Las partículas, en mecánica cuántica, no siguen trayectorias definidas. No es posible conocer


exactamente el valor de todas las magnitudes físicas que describen el estado de movimiento de
la partícula en ningún momento, sino sólo una distribución estadística. Por lo tanto no es
posible asignar una trayectoria a una partícula. Sí se puede decir que hay una determinada
probabilidad de que la partícula se encuentre en una determinada región del espacio en un
momento determinado.

Comunmente se considera que el carácter probabilístico de la mecánica cuántica invalida


el determinismo científico. Sin embargo, existen varias Interpretaciones de la Mecánica
cuántica y no todas llegan a esta conclusión. Según puntualiza Stephen Hawking, la mecánica
cuántica es determinista en sí misma, y es posible que la aparente indeterminación se deba a
que realmente no existen posiciones y velocidades de partículas, sino sólo ondas. Los físicos
cuánticos intentarían entonces ajustar las ondas a nuestras ideas preconcebidas de posiciones
y velocidades. La inadecuación de estos conceptos sería la causa de la aparente
impredecibilidad.

l determinismo científico es un paradigma científico que considera que a pesar de la


complejidad del mundo y su impredictibilidad práctica el mundo físico evoluciona
en el tiempo según principios o reglas totalmente predeterminadas y el azar es
sólo un efecto

Introducción [editar]
Antes de hablar de determinismo científico es aconsejable hacer unas distinciones previas para
no perderse en la complejidad del problema. Así, se deberá distinguir entre determinismo en
su sentido más amplio, entendido como dimensión ontológica de las cosas, y determinismo
científico, que se refiere más bien a la dimensión epistemológica de la ciencia.
En Filosofía, el principio de causalidad, en el que se funda el determinismo, es un principio
universal que abarca todos los campos del ser. Bajo su dominio están, tanto el espíritu como la
materia. Todo suceso, todo acaecer, está determinado causalmente: todo sucede según una
razón o causa suficiente. Esta es la formulación determinista que se expresa por medio
del principio de razón suficiente, la expresión más general del principio de causalidad. La causa
representa, en el proceso universal del cambio, el momento anterior en el tiempo; el efecto es
la secuencia inmediata posterior que acusa todas las propiedades contenidas en la
causa: causa aequat effectum (la causa es equivalente al efecto). Debido a esta
proporcionalidad existente entre causa y efecto, se cree posible la deducción o la inferencia de
un polo de esta ecuación al otro.

En Ciencia reaparece este tipo de causalidad y esta concepción determinista fue adoptada sin
reservas. Lo nuevo de la Ciencia es que tal determinismo adquiere también un sentido
epistemológico, pues, además de afirmar implícitamente el principio de causalidad, extiende su
dominio al fenómeno del conocimiento humano de lo físico. La Filosofía no necesitaba llevar a
cabo esta ampliación ya que sus enunciados no exigen verificación y constatación empíricas.
Pero la Ciencia, que ha de vérselas continuamente con lo empírico, no puede menos de contar
con este aspecto nuevo y, al hacerlo, aplica también el principio de causalidad. Aunque la
Ciencia no ha definido nunca el principio de causalidad, se podría formular, más o menos,
según lo que un científico clásico entendería por causalidad, de la siguiente manera: todo
efecto tiene su causa determinante, y en esta relación de dependencia entre la causa y el
efecto no caben ni el azar ni la discontinuidad, por ser de una simplicidad absoluta. La imagen
de tal determinación está dada en las ecuaciones matemáticas, donde, dados ciertos valores y
sus cálculos, todo sucede con carácter de necesidad.

El sentido común, la Filosofía y la Ciencia [editar]


El hombre prefilosófico y precientífico entiende por causado un suceso, cuando ve en él el
resultado de algo anterior en el tiempo que lo produce. El sentido común aprecia, además,
regularidades entre sucesos, pero no intenta entresacar estructuras de los mismos. Una piedra
puede ser la causa de un tropezón, se pensará comúnmente, pero, de tomar tal suceso por
algo causado a admitir en él una determinación, va algo más que la mera evidencia de las
cosas, y pertenece, por ello, a un plano más elevado de especulación.

La Filosofía se ha planteado muy seriamente este problema de la determinación y, ya desde la


Antigüedad, han aparecido numerosas formulaciones del principio de causalidad o
determinación ontológica. «Nada sucede porque sí, sino que todo sucede con razón y por
necesidad», decía ya Leucipo (s. V a. C.), siendo esta formulación la que ha pasado a la
Filosofía con el nombre de principio de causalidad o principio de razón suficiente. Con ello,
la Filosofía identifica los términos razón y causa, dándoles, además, carácter de necesidad. Sin
embargo, la Filosofía ha andado y anda todavía dándole vueltas al problema que plantea
identificar razón y causa, ya que ambos términos suelen tomarse, con demasiada frecuencia,
como incompatibles, al pasar el término razón a ser dominio del espíritu, y referirse el término
causalidad más bien al campo de la materia. Es esta dualidad aquel imperium in imperio de
que hablaban los racionalistas, que no pudieron solucionar, pero que creían, en principio,
soluble. Esto se traduce en el intento de entender el mundo de la materia imponiéndole
estructuras racionales; queriendo acercarse a su conocimiento desde planos completamente
extraños a la materia, como son la Lógica y la Matemática; intento éste que se funda en un
supuesto metafísico: la realidad en sí tiene una constitución racional, regulada y armónica,
aunque nuestro conocimiento de ella sea siempre parcial, caótico y relativo; la continuidad y
determinación causal son propiedades esenciales de la realidad.

No es otra la concepción que tiene la nuova scienza del mundo físico cuando intenta apresar
matemáticamente la realidad. El proceso seguido para conseguirlo es harto conocido: todo
fenómeno ha de ser purificado de su materialidad, ha de ser cuantificado y geometrizado de tal
modo que sea susceptible de comprensión matemática. Al dar resultado el método, se
confirman la creencia filosófica y la evidencia del sentido común de que la realidad física, por
ser susceptible de matematización, debe estar constituida por una regularidad fija y
predeterminada.

El determinismo científico está dado y aceptado por la Ciencia con su propio método; aquel
método que postulaba ya Francis Bacon al decir que había que ir al conocimiento de las cosas
por sus causas, con lo que se adelantaba al mismo Laplace, considerado éste como el máximo
exponente del determinismo científico, al decir que el conocimiento de las causas lleva consigo
el dominio del universo. Pero, con el advenimiento de la Ciencia, acaece algo más que la
simple adaptación de concepciones filosóficas anteriores. En la Ciencia tiene lugar y se
encarna teórica y prácticamente la separación que estableciera Descartes entre materia y
espíritu. Entre el observador y lo observado, entre sujeto y objeto, no hay relación digna de
tener en cuenta. Con ello cree la Ciencia haber conseguido su ideal frente a la Filosofía: haber
descartado del experimento todo elemento subjetivo; haber construido, así, una teoría objetiva
del mundo, por no estar mediatizado su objeto, por dejar expresarse libremente a la realidad.

Antes de proseguir han de tenerse en cuenta dos consideraciones:

 Todo lo que la Ciencia clásica diga del determinismo se referirá no a la Naturaleza en


general, sino a la Naturaleza como objeto de ciencia, que es siempre el resultado de una
manipulación y de una selección. La Naturaleza, entendida así, difiere de lo que se
entiende comúnmente por naturaleza en Filosofía, por dejar, o pretender dejar, fuera todas
aquellas dimensiones que son por naturaleza inobservables y no susceptibles de
comprobación teórica o experimental.
 El objeto de ciencia constituye siempre una pequeña parte de la totalidad del universo y
de sus múltiples expresiones. Esta pequeña parte se considera, al momento de estudiarla,
como aislada del resto del universo y, aunque no se desconoce la posible relación en que
se encuentran todas las cosas, es ésta una dimensión que no contará ni se tendrá muy en
cuenta por ser de valor accidental. Por tanto, cuando se afirme en Ciencia que en la
Naturaleza rige la determinación, ha de entenderse tal determinación en el sentido, y sólo
en el sentido, que le dan los científicos.

La Naturaleza constituida en objeto de ciencia se cree determinada en el sentido de que todas


las manifestaciones de la misma, todos los fenómenos, se suponen regidos por leyes fijas que
han de ser descubiertas. Pero como lo que aparece en primer lugar no son las leyes, sino los
estados de los fenómenos, de aquí que lo que afirma la determinación es que entre los estados
distintos de un mismo sistema hay una relación continua de dependencia tal, que unos estados
se pueden explicar por los otros.

El determinismo de la Física [editar]


En la descripción de un sistema mecánico clásico se realiza mediante una serie de magnitudes
de posición y velocidades (alternativamente momentos lineales) asociadas a cada punto
material del sistema y que varían con el tiempo de acuerdo a ciertas leyes. Por simplicidad en
esta sección nos restringiremos a sistemas mecánicos con un número finito de grados de
libertad. En el caso de los fluidos y otras áreas de la física necesitamos definir funciones sobre
regiones continuas, lo cual formalmente equivale a tratarlos como sistemas con un
número infinito de grados de libertad.

El determinismo de la mecánica clásica [editar]


Las ecuaciones de movimiento describen las restricciones e interacciones que impone una
parte del sistema mecánico sobre la otra y generalmente se pueden representar como
ecuaciones diferenciales de segundo orden o como sistema de ecuaciones diferenciales. En
este caso las variables posición y cantidad de movimiento son las variables de estado. En el
espacio euclídeo tridimensional de n partículas con movimiento no restringido mediante
enlaces exteriores tendrá 6n grados de libertad.

La formulación matemática de la mecánica clásica, y otras disciplinas de la física clásica, son


tales que el estado de un sistema mecánico queda completamente determinado si se conoce
su cantidad de movimiento y posición siendo estas simultáneamente medibles. Indirectamente,
este enunciado puede ser reformulado por el principio de causalidad. En este caso se habla
de predictibilidad teóricamente infinita: matemáticamente si en un determinado instante se
conocieran (con precisión infinita) las posiciones y velocidades de un sistema finito de N
partículas teóricamente pueden ser conocidas las posiciones y velocidades futuras, ya que en
principio existen las funciones vectoriales
que proporcionan las posiciones de las partículas en cualquier instante de tiempo. Estas
funciones se obtienen de unas ecuaciones generales denominadas ecuaciones de
movimiento que se manifiestan de forma diferencial relacionando magnitudes y sus derivadas.
Las funciones

se obtienen por integración, una vez conocida la naturaleza física del problema y las
condiciones iniciales.

Ahora bien el objetivo habitual de las aplicaciones de la mecánica clásica no es precisar el


estado de un sistema sin más, sino además, partiendo de un estado dado, predecir y definir
unívocamente cualquier estado posterior del mismo sistema. En esto consiste el determinismo
clásico.

La mecánica clásica ha podido defender durante mucho tiempo este tipo de determinismo
apoyándose en sus éxitos. Lo que para Newton era todavía un supuesto implícito, se convierte
con Laplace en doctrina, seguro de estar ante el método único capaz de descubrir la realidad
tal cual es:

«Debemos considerar - decía Laplace- el estado presente del Universo como el efecto del estado anterior y
como la causa del estado que le siga. Una inteligencia que conociera todas las fuerzas que actúan en la
Naturaleza en un instante dado y las posiciones momentáneas de todas las cosas del universo, sería capaz de
abarcar en una sola fórmula los movimientos de los cuerpos más grandes y de los átomos más livianos del
mundo, siempre que su intelecto fuera suficientemente poderoso como para someter a análisis todos los datos;
para ella nada sería incierto, y tanto el futuro como el pasado estarían presentes a sus ojos»
Laplace

Esta fe en el método y en sus resultados y la consiguiente aceptación de la determinación de


los sucesos naturales no pudo ser destruida ni por la teoría de Maxwell, que tiene que explicar
fenómenos donde sólo ayudan las leyes estadísticas, ni por la teoría de la
Relatividad de Einstein en la que ya no queda fuera del sistema estudiado el observador, pero
que su intromisión no supone una perturbación esencial de las leyes determinantes de lo real.

La crisis del determinismo clásico [editar]


Muchos son los trabajos publicados referentes al tema de la crisis del determinismo, sin
especificar que lo que estaba en crisis no era el determinismo en general, sino el concepto de
determinismo que imperaba en la Ciencia. Al querer defender, por ejemplo, el determinismo
que resulta de admitir el principio de causalidad, han pretendido ciertos filósofos y científicos
asegurar posiciones en realidad no atacadas por la Ciencia moderna, que sigue siendo fiel a
sus límites y que habla, como la clásica, únicamente de su objeto. No es, pues, el principio de
causalidad lo que está en crisis, sino el objeto mismo de la Ciencia al verse enriquecido por
dimensiones, hasta ahora no tenidas en cuenta, y salir de su aislamiento. Por consiguiente, el
defender el indeterminismo en la Ciencia no implica la defensa de la libertad o de conceptos
semejantes. La Ciencia moderna, representada aquí por la Física cuántica, no pretende
resolver problemas del espíritu, como son la libertad o el destino humano; su innovación
consiste, precisamente, en desligarse cada vez más de los supuestos metafísicos de que partía
la Ciencia clásica, devolviendo las cosas a su sitio y procurando no eliminar lados del
problema, sino acatarlos tal cual se presentan.

El indeterminismo de la mecánica cuántica [editar]


Aunque existen diversas interpretaciones de la Mecánica cuántica la mayoría de ellas aceptan
que existe uno o varios factores aleatorios intrínsecos en la teoría por los cuales no existiría
determinismo como en el caso de la mecánica clásica. En especial, en la reducción o colapso
de la función de onda relacionado con el problema de la medida se cree que podría ser un
proceso donde interviene el azar de manera insoslayable. Recientemente han aparecido
trabajos que sugieren que la mecánica cuántica podría ser determinista,1 2 3 sin embargo, esta
posición no es la preferida actualmente en mecánica cuántica.

Las complicaciones relacionadas con el problema de la medida, el entrelazamiento cuántico,


el teorema de Kochen-Specker y otros resultados paradójicos desde el punto de vista clásico,
han llevado a algunos pensadores y físicos a trabajar en un modelo de ciencia en el que no se
asuma directamente que sus fórmulas sean el reflejo exacto de lo real, ni que asuma que el
mundo es tal cual se le muestra en el experimento. La mecánica clásica admitía,
prácticamente, dos componentes epistemológicos:

 la relación existente entre los datos empíricos y los postulados de la teoría, que, por
creerse en principio y por aproximación adecuados, no creaban mayores problemas;
 la interpretación a dar al concepto de probabilidad (concepto que tiene que admitir de
mal grado), que se resuelve aplicando la teoría del error, según la cual el experimento (que
da valores promedios) se interpreta como un caso límite, donde, a pesar de todas las
imperfecciones de experimentación y observación puede aparecer comprobada la teoría.

Pero olvidaba un tercer componente al pretender aislar el objeto en cuestión; esto es, olvidaba
la repercusión del experimento en el objeto estudiado. La novedad de la Mecánica cuántica
consiste, principalmente, en tener en cuenta este componente, dándole importancia capital.

El observador entra ya, con la teoría de la Relatividad, a formar parte del sistema en cuestión.
Pero Einstein no quiso jamás reconocer que ese «estar dentro» modificara lo más mínimo el
pensar tradicional determinista de la Ciencia, según el cual el objeto es independiente de la
observación.
Si el determinismo clásico está dado con la definición de estado mecánico, lo cual no deja de
ser una convención, el indeterminismo científico consistirá en negar la posibilidad de tal
definición, por no contener en sí todos los parámetros que realmente toman parte en un
fenómeno. Pero, además, negará que tal definición sea posible tal como se hace en la Ciencia
clásica, porque tampoco se podrán precisar simultáneamente las llamadas «variables de
estado».

El indeterminismo se basa en el hecho siguiente: existe una constante universal, que es


la constante de Planck, que marca un límite donde los errores ya no son ni despreciables ni
eliminables. Por lo mismo, cuando se trata de precisar la posición y la cantidad de movimiento
de un electrón (que por su magnitud se halla dentro de aquel campo microscópico donde se
hace relevante tal constante), se cae en la gran paradoja de querer definir el estado de un
sistema con conceptos clásicos, siendo así que los valores obtenidos no pueden reflejar jamás
ni la posición ni la cantidad de movimientos originarias, porque al observarlo se actúa
decisivamente sobre el electrón modificando tanto su posición como su cantidad de
movimiento. Ya no vale decir ni suponer lo que sucede entre dos actos de observación del
"mismo sistema". La inobservabilidad se convierte en principio o, mejor dicho, lo que sucede
entre dos observaciones, que son siempre observaciones de perturbaciones, sólo se puede
suponer mediante un cálculo de probabilidades. De aquí que ya no valgan los conceptos
clásicos para describir lo realmente observado en el experimento. Heisenberg dice que los
símbolos matemáticos, al bajarse al campo del átomo, no representan lo dado, sino lo posible;
el mundo físico objetivo en el tiempo y en el espacio no existe; lo que es (o que es objeto de
ciencia), el paso de potencia a acto, sucede durante el acto de observación científica, y lo que
sucede entre dos observaciones no lo puede decir jamás la experiencia; lo que sucede entre
dos observaciones sólo lo puede decir la teoría. Esto, que lo admitía también el determinista
empedernido Einstein, se convierte en lema intrínseco para la Mecánica cuántica que llega a
poder establecer el principio de inseguridad o indeterminación (de Heisenberg) que supone lo
siguiente: el producto de las indeterminaciones para posición y cantidad de movimiento no
puede ser menor que el quantum de acción de Planck. Es, por tanto, impredecible la posición,
por ejemplo, de un electrón en el futuro, partiendo de un dato inicial de su posición que se sabe
es el resultado de una perturbación. El objeto de ciencia, cuando se trata del microcosmos, es
indeterminado e indeterminable, lo cual no implica que la aparición del electrón en un lugar
determinado no tenga su causa. La cosa no sería tan grave si quedara ahí. Pero resulta que tal
imprecisión e inseguridad no concierne sólo al experimento, sino que está incorporada a la
parte teórica. En ésta, queda incluida una dimensiónestadística que no se puede eliminar.

¿Quiere esto decir que la realidad sea indeterminada en el sentido de que reine el azar? No
habrá científico serio que se atreva a decir tal cosa. Sus teorías no le dan pie para poder hacer
tal afirmación. Descontando lo que decía De Broglie, que en la Ciencia se trabaja como si
hubiese un determinismo estricto, se podrá decir, finalmente, que el principio de
indeterminación sólo asegura algo respecto al modo de conocimiento que se tiene del mundo
físico, y que el principio de causalidad, de existir, jamás podrá ser demostrado ni derrocado,
tanto desde los datos proporcionados por un experimento, como desde las teorías que tratan
de interpretar tales datos.

En física moderna, el fotón (Griego φῶς, φωτός [luz], y -ón) es la partícula


elemental responsable de las manifestaciones cuánticas del fenómeno electromagnético. Es la
partícula portadora de todas las formas de radiación electromagnética, incluyendo a los rayos
gamma, los rayos X, la luz ultravioleta, la luz visible (espectro electromagnético), la luz
infrarroja, las microondas, y las ondas de radio. El fotón tiene una masa invariante cero,1 y viaja
en el vacío con una velocidad constante c. Como todos los cuantos, el fotón presenta tanto
propiedades corpusculares como ondulatorias ("dualidad onda-corpúsculo"). Se comporta como
una onda en fenómenos como la refracción que tiene lugar en una lente, o en la cancelación
por interferencia destructiva de ondas reflejadas; sin embargo, se comporta como una partícula
cuando interacciona con la materia para transferir una cantidad fija de energía, que viene dada
por la expresión.

donde h es la constante de Planck, c es la velocidad de la luz, y λ es la longitud de onda.


Esto difiere de lo que ocurre con las ondas clásicas, que pueden ganar o perder
cantidades arbitrarias de energía. Para la luz visible, la energía portada por un fotón es de
alrededor de 4×10–19 julios; esta energía es suficiente para excitar un ojo y dar lugar a la
visión.2

Además de energía, los fotones llevan también asociada una cantidad de


movimiento o momento lineal, y tienen una polarización. Siguen las leyes de la mecánica
cuántica, lo que significa que a menudo estas propiedades no tienen un valor bien
definido para un fotón dado. En su lugar se habla de las probabilidades de que tenga una
cierta polarización, posición, o cantidad de movimiento. Por ejemplo, aunque un fotón
puede excitar a una molécula, a menudo es imposible predecir cuál será la molécula
excitada.

La descripción anterior de un fotón como un portador de radiación electromagnética es


utilizada con frecuencia por los físicos. Sin embargo, en física teórica, un fotón puede
considerarse como un mediador para cualquier tipo de interacción electromagnética.

La discusión sobre la naturaleza de la luz se remonta hasta la antigüedad. En el siglo


XVII, Newton se inclinó por una interpretación corpuscular de la luz, mientras que sus
contemporáneos Huygens y Hooke apoyaron la hipótesis de la luz como onda.
Experimentos de interferencia, como el realizado por Young en el siglo XIX, confirmaron
el modelo ondulatorio de la luz.
La idea de la luz como partícula retornó con el concepto moderno de fotón, que fue
desarrollado gradualmente entre 1905 y 1917 por Albert Einstein3 4 5 6 apoyándose en
trabajos anteriores de Planck, en los cuales se introdujo el concepto de cuanto. Con el
modelo de fotón podían explicarse observaciones experimentales que no encajaban con
el modelo ondulatorio clásico de la luz. En particular, explicaba cómo la energía de la luz
dependía de la frecuencia (dependencia observada en el efecto fotoeléctrico) y la
capacidad de la materia y la radiación electromagnética para permanecer en equilibrio
térmico.

Otros físicos trataron de explicar las observaciones anómalas mediante modelos


"semiclásicos", en los que la luz era descrita todavía mediante las ecuaciones de Maxwell,
aunque los objetos materiales que emitían y absorbían luz estaban cuantizados. Aunque
estos modelos semiclásicos contribuyeron al desarrollo de la mecánica cuántica,
experimentos posteriores han probado las hipótesis de Einstein sobre la cuantizaciónde la
luz (los cuantos de luz son los fotones).

El concepto de fotón ha llevado a avances muy importantes en física teórica y


experimental, tales como la teoría cuántica de campos, el condensado de Bose-Einstein y
la interpretación probabilística de la mecánica cuántica, y a inventos como el láser.

De acuerdo con el modelo estándar de física de partículas los fotones son los
responsables de producir todos los campos eléctricos y magnéticos, y a su vez son el
resultado de que las leyes físicas tengan ciertasimetría en todos los puntos del espacio-
tiempo. Las propiedades intrínsecas de los fotones (masa invariante y espín ) están
determinadas por las propiedades de la simetría de Gauge.

Los fotones se aplican a muchas áreas, como la fotoquímica, el microscopio fotónico y


la medición de distancias moleculares. Incluso se los ha estudiado como componentes
de computadoras cuánticas y en aplicaciones sofisticadas de comunicación óptica como
por ejemplo en criptografía cuántica.

El fotón no tiene masa,1 tampoco posee carga eléctrica11 y no se desintegra espontáneamente


en el vacío. El fotón tiene dos estados posibles de polarización que pueden describirse
mediante tres parámetros continuos: las componentes de su vector de onda, que determinan
su longitud de onda y su dirección de propagación. El fotón es el bosón de gauge de
la interacción electromagnética, y por tanto todos los otros números cuánticos —como
el número leptónico, el número bariónico, o la extrañeza— son exactamente cero.

Emisión [editar]
Los fotones se emiten en muchos procesos naturales, por ejemplo, cuando se acelera una
partícula con carga eléctrica, durante una transición molecular, atómica o nuclear a un nivel de
energía más bajo, o cuando se aniquila una partícula con su antipartícula.
Absorción [editar]
Los fotones se absorben en los procesos de reversión temporal que se corresponden con los
ya mencionados: por ejemplo, en la producción de pares partícula-antipartícula o en las
transiciones moleculares, atómicas o nucleares a un nivel de energía más alto.

Energía y movimiento [editar]


En el espacio vacío, los fotones se mueven a la velocidad de la luz c, y
su energía E y momento lineal p están relacionados mediante la expresión E = cp, donde p es el
módulo del momento lineal. En comparación, la ecuación correspondiente a partículas con
una masa m es E2 = c2p2 + m2c4, como se demuestra en la relatividad especial.

La energía y el momento lineal de un fotón dependen únicamente de su frecuencia o, lo que


es equivalente, de su longitud de onda .

y en consecuencia el módulo del momento lineal es:

donde (conocida como constante de Dirac o constante reducida de Planck); k es


el vector de onda (de módulo )y es la frecuencia angular. Debe
tenerse en cuenta que kapunta en la dirección de propagación del fotón. Este tiene
además momento angular de espín que no depende de la frecuencia. El módulo de tal espín
es , y la componente medida a lo largo de su dirección de movimiento, su helicidad, tiene
que ser . Estos dos posibles valores corresponden a los dos posibles estados
de polarización circular del fotón (en sentido horario o antihorario).

Para ilustrar la importancia de estas fórmulas, la aniquilación de una partícula con su


antipartícula tiene que dar lugar a la creación de al menos dos fotones por la siguiente razón:
en el sistema de referencia fijo en elcentro de masas, las antipartículas que colisionan no
tienen momento lineal neto, mientras que un fotón aislado siempre lo tiene. En consecuencia, la
ley de conservación del momento lineal requiere que al menos se creen dos fotones, para que
el momento lineal resultante pueda ser igual a cero. Las energías de los dos fotones —o lo que
es equivalente, sus frecuencias— pueden determinarse por las leyes de conservación. El
proceso inverso, la creación de pares, es el mecanismo principal por el que los fotones de alta
energía (como los rayos gamma) pierden energía al pasar a través de la materia.

Las fórmulas clásicas para la energía y el momento lineal de la radiación


electromagnética pueden ser expresadas también en términos de eventos fotónicos. Por
ejemplo, la presión de radiación electromagnéticasobre un objeto es debida a la trasferencia de
momento lineal de los fotones por unidad de tiempo y unidad de superficie del objeto, ya que la
presión es fuerza por unidad de superficie y la fuerza, a su vez, es la variación del momento
lineal por unidad de tiempo.

Das könnte Ihnen auch gefallen