Beruflich Dokumente
Kultur Dokumente
COSMOSAPIENS
Nombrar a todos los que me ayudaron a hacer realidad este libro es imposible. Entre
ellos están los autores cuyos documentos y libros he consultado. La sección de Notas del
final del libro incluye referencias completas de la mayoría de documentos académicos así
como referencias de los libros consultados, además de los documentos más extensos y
destacados, por autor y año. Los detalles completos de los libros y los documentos citados
en las Notas se encuentran en la Bibliografía que las sigue. La distinción es arbitraria
porque algunos de los documentos académicos son muy extensos y he incluido los más
destacados en la Bibliografía pero, en términos generales, he intentado evitar una
Bibliografía voluminosa.
De entre los muchísimos especialistas que han compartido con gran generosidad su
experiencia conmigo, me siento especialmente en deuda con aquellos que respondieron a
mi solicitud de revisar los borradores de las distintas secciones en busca de errores de
hecho u omisión o de conclusiones no razonables y de realizar cualquier tipo de
comentario. Los nombro a continuación dentro de amplias áreas de estudio, cada una de las
cuales abarca los diversos campos de especialización relevantes para el libro. El puesto que
aparece junto a cada nombre es que el que ocupaban en el momento de ser consultados.
Mitos: Charles Stewart y Mukulika Banerjee, profesores titulares del departamento
de Antropología, University College London (UCL).
Cosmología y astrofísica: George Ellis, profesor honorario de Sistemas Complejos
en el departamento de Matemáticas y Matemáticas aplicadas, Universidad de Ciudad del
Cabo; Paul Steinhardt, profesor Albert Einstein de Ciencias, Princeton University; Ofer
Lahav, catedrático Perren de Astronomía y director de Astrofísica, UCL; Bernard Carr,
profesor de Astronomía, Queen Mary, Universidad de Londres; el fallecido Geoffrey
Burbidge, profesor de Astronomía, Universidad de California, San Diego; Javant Narlikar,
profesor emérito, Inter-University Centre for Astronomy and Astrophysics, Pune, India; Jon
Butterworth, profesor de Física y director del departamento de Física y Astronomía, UCL;
Serena Viti, profesora adjunta del departamento de Física y Astronomía, UCL; Eric J
Lerner, presidente de Lawrenceville Plasma Physics, Inc.
Filosofía: Tim Crane, profesor y director del departamento de Filosofía, UCL, y
director del Institute of Philosophy, y también posteriormente profesor Knightbridge de
Filosofía, Universidad de Cambridge; Hasok Chang, profesor de Filosofía de las ciencias,
UCL.
Ciencias planetarias y atmosféricas: Jim Kasting, profesor honorario, Pennsylvania
State University.
Geología: John Boardman, profesor adjunto de Geomorfología y degradación del
suelo, Universidad de Oxford.
Historia de la ciencia: Adrian Desmond, biógrafo e investigador honorario del
departamento de Biología, UCL; Charles Smith, profesor y bibliotecario de Ciencias,
Western Kentucky University; John van Whye, fundador y director de The Complete Works
of Charles Darwin online; James Moore, biógrafo y profesor del departamento de Historia,
Open University; James Le Fanu, médico e historiador especializado en ciencias y
medicina.
El origen y la evolución de la vida: profesor Adrian Lister, investigador del
departamento de Paleontología del Museo de Historia Natural; Jim Mallet, profesor del
departamento de Genética, evolución y medioambiente, UCL; Johnjoe McFadden, profesor
de Genética molecular, Universidad de Surrey; Mark Pallen, profesor de Genómica
microbiana, Universidad de Birmingham; Chris Orengo, profesor de bioinformática, UCL;
Jerry Coyne, profesor del departamento de Ecología y evolución, Universidad de Chicago;
el fallecido Lynn Margulis, profesor honorario, Universidad de Massachusetts; Jim
Valentine, profesor emérito del departamento de Biología integrativa, Universidad de
California, Berkeley; Jeffrey H Schwartz, profesor de Antropología física y de Historia y
filosofía de la ciencia, Universidad de Pittsburgh; Hans Thewissen, profesor de Anatomía
del departamento de Anatomía y neurobiología, Northeastern Ohio Universities College of
Medicine; Rupert Sheldrake, biólogo celular y director del Perrott-Warrick Project,
patrocinado por el Trinity College, Cambridge; Simon Conway Morris, profesor de
Paleobiología evolutiva, Universidad de Cambridge; Francis Heylighen, profesor
investigador, Universidad Libre de Bruselas; Jonathan Fry, profesor titular del
departamento de Neurociencia, fisiología y farmacología, UCL; Thomas Lentz, profesor
emérito de Biología celular, Yale University School of Medicine; Richard Goldstein de la
división de Biología matemática del National Institute for Medical Research, Londres;
Avrion Mitchison, profesor emérito de Anatomía zoológica y comparativa, UCL.
Conducta animal: Volker Sommer, profesor de Antropología evolutiva, UCL; Alex
Thornton, Drapers’ Company Research Fellow, Pembroke College, Cambridge; Heikki
Helanterä, investigador académico, Universidad de Helsinki; Simon Reader, profesor
adjunto del departamento de Biología, McGill University.
El origen del hombre: Robin Derricourt, historiador y arqueólogo, Universidad de
Nueva Gales del Sur; C Owen Lovejoy, profesor del departamento de Antropología, Kent
State University; Tim White, profesor del departamento de Biología integrativa,
Universidad de California, Berkeley.
La evolución de los humanos: Steven LeBlanc, profesor de Arqueología, Harvard
University; John Lagerwey, profesor del Centre for East Asian Studies, Universidad China
de Hong Kong; Liz Graham, profesora de Arqueología mesoamericana, UCL; Subhash
Kak, profesor Regents de Ciencia de la computación, Oklahoma State University; Fiona
Coward, profesora titular de Ciencia de la arqueología, Bournemouth University; Dorian
Fuller, profesor adjunto de Arqueobotánica, UCL; Pat Rice, profesora emerita del
departamento de Sociología y antropología, West Virginia University; Damien Keown,
profesor de Ética budista, Goldsmiths, University of London; Stephen Batchelor, profesor
de budismo y escritor; Naomi Appleton, Chancellor’s Fellow en Estudios religiosos,
Universidad de Edimburgo; Simon Brodbeck, profesor de la Escuela de Historia,
arqueología y religión, Universidad de Cardiff; Chad Hansen, profesor de Filosofía,
Universidad de Hong Kong; Gavin White, autor de Babylonian Star-Lore; Magnus Widell,
profesor de Asiriología, Universidad de Liverpool; Stephen Conway, profesor y director del
departamento de Historia UCL; Bruce Kent, fundador y vicepresidente del Movimiento
para la abolición de la guerra; Dean Radin, director científico del Institute of Noetic
Sciences.
Charles Palliser, novelista, realizó comentarios en diversos capítulos desde el punto
de vista de un no especialista.
Cualquier error que pueda haber queda totalmente bajo mi responsabilidad. No
todos los especialistas mencionados se mostraron de acuerdo con las conclusiones que yo
extraje a partir de las evidencias. De hecho, busqué deliberadamente comentarios de
muchos cuyas publicaciones demostraban que tenían puntos de vista distintos al mío. Con
algunos entablé una larga correspondencia, llamándome la atención hacia evidencias que yo
desconocía, proporcionándome una interpretación distinta de las evidencias o cuestionando
mis argumentos. Valoré muchísimo estos intercambios, que sirvieron para mejorar el
manuscrito y las conclusiones. Otros exhibieron una mentalidad lo suficientemente abierta
como para decir que, después de reflexionar, estaban de acuerdo con mis conclusiones.
Varios especialistas se mostraron en desacuerdo con otros especialistas de su mismo
ámbito.
A pesar de que las preguntas sobre qué somos, de dónde venimos y por qué estamos
aquí me han intrigado desde que era un estudiante de ciencias, la idea de investigar y
escribir un libro sobre el tema surgió en 2002. Mi nombramiento como Royal Literary Fund
Fellow del University College London en 2004, me proporcionó los ingresos, el ambiente y
la biblioteca necesaria para permitirme desarrollar y dar forma a mis ideas y, en 2006, el
libro acabó adquiriendo la orientación con la que ha salido a la luz. Mi infinito
agradecimiento para la UCL y mis colegas en la institución, a la Graduate School por su
apoyo, a los estudiantes universitarios a los que he impartido clases y de los que tanto he
aprendido y al RLF por financiar el proyecto. Mi agradecimiento también para el Arts
Council of England por el regalo en forma de beca literaria que recibí en 2009 y que me
permitió trabajar prácticamente a tiempo completo en la investigación y la redacción del
libro. Katie Aspinall me ofreció muy amablemente su casita en Oxfordshire para poder
disfrutar de periodos de reflexión sin interrupciones.
Cuando mis amigos querían mostrarse comprensivos, decían que era un proyecto
ambicioso. Cuando querían ser realistas, decían que era una locura. En mis momentos más
cuerdos, es lo que yo pensaba también. He contraído una deuda enorme con mi agente,
Caspian Dennis, de Abner Stein, que mantuvo su fe en el proyecto y demostró la habilidad
necesaria para colocarlo en el editor adecuado en el momento adecuado. Andrew Lockett,
el recientemente nombrado director editorial de Duckworth, se quedó intrigado con la
propuesta y durante su primera semana en el puesto nos invitó a reunirnos con él. El
proyecto necesitaba la aprobación del propietario de Duckworth, Peter Mayer, fundador de
Overlook Press, Nueva York. El exhaustivo y extremadamente educado interrogatorio al
que me sometió Peter durante una de las visitas que realizó a Londres me hizo entender por
qué durante más de veinte años, incluyendo los dieciocho que pasó como consejero
delegado de Penguin Books, había sido el editor más destacado e innovador del mundo.
Andrew defendió el libro y proporcionó comentarios editoriales valiosísimos del
manuscrito. Su equipo, integrado por Melissa Tricoire, Claire Easthman, Jane Rogers y
David Marsall, se mostró entusiasta tanto en su apoyo como en las ideas proporcionadas
para producir un libro atractivo y accesible que llamara la atención de los potenciales
lectores, y similar entusiasmo mostraron Nikki Griffiths, el sucesor de Andrew como
director editorial, y Deborah Blake, la revisora. Mi agradecimiento también para Tracy
Carns y Erik Hane, de Overlook Press.
CAPÍTULO 1. LA EXPEDICIÓN
Si descubrimos una teoría completa, con el tiempo habrá de ser, en sus líneas
maestras, comprensible para todos y no únicamente para unos pocos científicos. Entonces
todos, filósofos, científicos y la gente corriente, seremos capaces de tomar parte en la
discusión de por qué existe el universo y por qué existimos nosotros. Si encontrásemos una
respuesta a esto, sería el triunfo definitivo de la razón humana, porque entonces
conoceríamos el pensamiento de Dios.
«¿Qué somos?» y «¿por qué estamos aquí?» son preguntas que llevan fascinando al
ser humano desde hace al menos veinticinco mil años. Durante la inmensa mayoría de este
tiempo, hemos buscado respuesta a través de las creencias sobrenaturales. Hace apenas tres
mil años, empezamos a buscar la respuesta a esas preguntas a través de la visión filosófica
y el razonamiento. Hace poco más de ciento cincuenta años, la obra de Charles Darwin, El
origen de las especies, aportó un enfoque completamente distinto. Adoptaba el método
empírico de la ciencia y llegó a la conclusión de que somos producto de la evolución
biológica. Cincuenta años atrás, los cosmólogos declararon que la materia y la energía de la
que estamos compuestos tenían su origen en un Big Bang que creó el universo. Y luego,
hará cuestión de treinta años, los neurocientíficos empezaron a demostrar que lo que
vemos, oímos, sentimos y pensamos está correlacionado con la actividad que desarrollan
las neuronas en distintas partes del cerebro.
Estos grandiosos logros en la ciencia fueron posibles gracias a avances tecnológicos
que generaron un incremento de datos de carácter exponencial. Esto a su vez llevó a la
ramificación de la ciencia en focos de investigación cada vez más delimitados y profundos.
En los últimos tiempos, nadie ha dado un paso atrás para examinar la hoja de una de esas
ramas sin ver que la totalidad del árbol evolutivo nos está mostrando quién somos, de
dónde venimos y por qué existimos.
Esta búsqueda es un intento de hacer precisamente eso: averiguar lo que la ciencia
puede contarnos de manera fiable a partir de la observación sistemática y la
experimentación sobre cómo y por qué evolucionamos desde el origen del universo y si lo
que somos nos hace distintos del resto de animales.
Abordaré esta tarea en cuatro partes. La primera parte examinará la explicación que
da la ciencia al origen y la evolución de la materia y la energía de las que estamos
formados; la segunda parte hará lo mismo para el origen y la evolución de la vida, puesto
que somos materia viva; la tercera parte examinará el origen y la evolución del ser humano.
En la cuarta parte veremos si en las evidencias existen patrones consistentes que nos
permitan extraer conclusiones generales.
En cada una de estas partes, desglosaré la cuestión fundamental «¿qué somos?» en
las diversas preguntas que investigan los distintos ámbitos de especialización; intentaré
encontrar en cada uno de estos ámbitos, y a partir de publicaciones académicamente
reconocidas, aquellas respuestas que estén validadas por las evidencias empíricas antes que
las derivadas de las especulaciones y creencias; y miraré si en estas evidencias existe o no
un patrón que permita extraer conclusiones. Solo en el caso de que esta estrategia no
ofrezca una explicación satisfactoria, consideraré la sensatez de hipótesis y conjeturas, así
como de otras formas posibles de conocimiento, como punto de vista.
Luego, pediré a especialistas de cada ámbito (que aparecen listados en los
Agradecimientos) que verifiquen los resultados de mi borrador en busca de errores de
hecho o de omisión y la posible presencia de conclusiones inadmisibles.
Al final de cada capítulo, realizaré una lista de conclusiones para que el lector que
desee saltarse cualquiera de las secciones más técnicas pueda conocer mis hallazgos.
La pregunta qué somos me ha intrigado desde que era estudiante de ciencias. Aparte
de ser el coautor de dos estudios de investigación, de escribir un libro sobre ciencias
sociales y de mis cuatro años como profesor de física a tiempo parcial en la Open
University, nunca he practicado como científico y por lo tanto, en este sentido, no estoy
cualificado para esta tarea. Por otro lado, pocos investigadores actuales poseen
conocimientos relevantes fuera de los campos de especialización que estudiaron y que
ahora practican.
Doy por supuesto que muchos de estos especialistas pensarán que no he escrito con
detalle suficiente sobre su campo de especialización. Me declaro culpable de ello de
antemano. Mi intención es escribir un libro, no una biblioteca entera, lo cual exige
necesariamente resumir con el objetivo de ofrecer al lector una imagen general de la
evolución humana: una visión de lo qué somos y de por qué estamos aquí.
A pesar de los esfuerzos por corregir errores, en una empresa como esta habrá
detalles que presentarán fallos, de los cuales asumo toda la responsabilidad. O que habrán
quedado superados por los resultados de nuevas investigaciones aparecidas entre el
momento de la escritura del libro y su publicación, pero la ciencia, a diferencia de las
creencias, avanza así. Lo que espero es que este libro ofrezca un marco de trabajo amplio
que otros puedan refinar y desarrollar.
Una mayoría de la población mundial, sin embargo, no acepta que seamos producto
de un proceso evolutivo. Cree en varios mitos que explicarían nuestros orígenes. Empezaré,
por lo tanto, con un capítulo que examina los diversos mitos sobre el origen, por qué han
sobrevivido durante los casi quinientos años que han transcurrido desde el inicio de la
revolución científica y si han tenido influencia sobre el pensamiento científico.
Gran parte de las desavenencias surgen porque distintas personas utilizan la misma
palabra para referirse a cosas distintas: los significados cambian con el tiempo y con los
diferentes contextos culturales. Para minimizar los malentendidos, la primera vez que
utilice una palabra relevante y potencialmente ambigua, definiré el significado concreto que
le aplico y, además, elaboraré una lista de dichos términos en el glosario que aparece al
final del libro, que incluye también definiciones de términos técnicos inevitables.
La primera palabra a definir es «ciencia». Deriva del latín scientia, que significa
conocimiento. Cada tipo de conocimiento puede adquirirse, o afirmarse que se ha
adquirido, de una manera distinta. Desde el siglo xvi se equipara con conocimiento sobre el
mundo natural —inanimado y animado— adquirido mediante la observación y la
experimentación, a diferencia del conocimiento adquirido únicamente a través del
razonamiento, la percepción o la revelación. En consecuencia, la definición de ciencia debe
incluir los medios a través de los cuales se adquiere el conocimiento. Nuestro concepto
actual de ciencia podría resumirse como
Ciencia: el intento de comprender y explicar los fenómenos naturales mediante la
observación y la experimentación sistemáticas, y preferiblemente mensurables, y de aplicar
el razonamiento al conocimiento obtenido de esta manera para deducir leyes verificables y
realizar predicciones o retrodicciones.
Retrodicción: un resultado que se ha producido en el pasado y que se deduce o
predice a partir de una ley o teoría científica posterior.
La ciencia pretende formular una ley, o una teoría más general, que explique la
conducta invariable de un sistema de fenómenos. Utilizamos dicha ley o teoría para
predecir resultados futuros, aplicándola a fenómenos concretos del sistema. Por ejemplo,
dentro del sistema de objetos en movimiento aplicamos las leyes del movimiento de
Newton para predecir el resultado de lanzar un cohete concreto al espacio dentro de un
conjunto de circunstancias concretas.
La ciencia puede también informarnos sobre resultados del pasado. Un ejemplo de
retrodicción es que, a partir de la teoría de las placas tectónicas, podemos deducir que cerca
de la costa este de América del Sur y de la costa oeste del África austral podremos
encontrar fósiles similares anteriores a la ruptura del súper continente Pangea, que se
produjo hace unos doscientos millones de años.
A partir del siglo xviii, el estudio de los fenómenos naturales incluyó también el ser
humano y sus relaciones sociales. En el siglo xix, la aplicación del método científico a estos
estudios dio como resultado el desarrollo de las ciencias sociales, un término amplio que
abarca disciplinas como la arqueología, la antropología, la sociología, la psicología, las
ciencias políticas e incluso, la historia. En la tercera parte evaluaré los descubrimientos más
relevantes de estas disciplinas.
En la ciencia, el término «teoría» tiene un significado más concreto que en su uso
general, aunque incluso en la ciencia, tanto «teoría» como «hipótesis» se utilizan a menudo
de forma vaga. Es importante distinguir entre ambos conceptos.
Hipótesis: teoría provisional planteada para explicar un fenómeno o un conjunto de
fenómenos y utilizada como base de posteriores investigaciones; suele llegarse a ella bien
por revelación, bien por razonamiento inductivo después de examinar evidencias
incompletas y puede ser susceptible de ser falsa.
El criterio de la falsabilidad fue propuesto por el filósofo científico Karl Popper. En
la práctica, puede no resultar claro, pero la mayoría de científicos actuales acepta el
principio de que para distinguir una hipótesis científica de una conjetura o creencia, debe
estar sujeta a pruebas empíricas que puedan falsarla.
Teoría: explicación de un conjunto de fenómenos que ha quedado confirmada por
diversos experimentos y observaciones y que se utiliza para realizar predicciones o
retrodicciones precisas sobre dichos fenómenos.
Cuanto más amplio sea el rango de fenómenos explicados, más útil resultará la
teoría científica. Y debido al hecho de que la ciencia avanza mediante el descubrimiento de
nuevas evidencias y la aplicación de nuevas ideas, una teoría científica puede quedar
modificada o refutada como resultado de evidencias contradictorias, aunque nunca podrá
ser demostrada de manera absoluta. Algunas teorías científicas, sin embargo, están
ampliamente consolidadas. Por ejemplo, a pesar de que la teoría de que la Tierra es el
centro del universo y el sol y las demás estrellas giran a su alrededor ha quedado refutada,
la teoría de que la Tierra gira en órbita alrededor del sol ha quedado validada por tantas
observaciones y predicciones precisas que se acepta hoy en día como un hecho establecido.
Sin embargo, puede darse el caso de que ni siquiera esto sea así. En realidad, es muy
probable que deje de ser cierto en el plazo de unos cinco mil millones de años, momento en
el cual muchos estudios sobre la evolución del sol predicen que éste se habrá convertido en
una estrella roja gigante que se expandirá y acabará engullendo y quemando la Tierra.
Cualquier investigación está fuertemente influenciada por creencias anteriores. Yo
nací y fui educado como católico, me volví ateo y ahora soy agnóstico. No tengo creencias
previas relacionadas con el teísmo, el deísmo o el materialismo. No sé nada, sinceramente.
Y esta es en parte la emoción que conlleva embarcarse en una expedición cuyo objetivo es
descubrir, a partir de evidencias científicas, qué somos y en qué podríamos convertirnos.
Invito a los lectores con mentalidad abierta a que se sumen a mi expedición.
PRIMERA PARTE.
El origen y la evolución de la materia
CAPÍTULO 2. MITOS SOBRE EL ORIGEN
Toda cultura a lo largo de la historia posee uno o más relatos sobre el origen del
universo y el ser humano: comprender de dónde venimos forma parte del deseo humano
inherente de comprender qué somos. El Rigveda, el texto sagrado más antiguo del mundo y
el escrito más importante de lo que hoy conocemos como hinduismo, presenta tres de estos
mitos en su décimo libro de himnos a los dioses. Los Brahmanas, la segunda parte de cada
veda dedicada básicamente a los rituales, contienen otros, mientras que las Upanishads,
relatos sobre las percepciones místicas de videntes que la tradición vincula al final de los
vedas,[2] expresan de diversas maneras una perspectiva única sobre el origen del universo.
[3] Las culturas judeo-cristiana e islámica comparten, en términos generales, la misma
explicación para la creación, mientras que otras culturas tienen otras. Los chinos poseen,
como mínimo, cuatro mitos sobre el origen que presentan, además, en distintas versiones.
Pero a pesar de que cada mito es diferente,[4] hay nueve temas principales recurrentes,
algunos de los cuales se solapan.
Caos o agua primigenios
Muchos mitos hablan de un caos preexistente, a menudo descrito como agua, del
cual emerge un dios para crear el mundo o partes del mismo. Los pelasgos, que hacia 3.500
a. C. invadieron la península griega procedentes de Asia Menor, trajeron con ellos la
historia de la diosa creadora Eurínome, que surgió desnuda de Caos.[5] Los mitos de
Heliópolis, en Egipto, que datan del cuarto milenio antes de Cristo nos hablan de Nun, el
océano primigenio, del cual surgió Atum, de cuya masturbación nació el mundo. Hacia
2.400 a. C., Atum quedó identificado con el dios del sol, Ra, y su aparición quedó asociada
con la salida del sol y la disipación de la oscuridad caótica.
El buceador de la tierra
Otros mitos, extendidos por Siberia, Asia y algunas tribus nativas norteamericanas,
hablan de un animal preexistente —a menudo una tortuga o un ave— que se sumerge en las
aguas primigenias para extraer de ellas un pedazo de tierra que posteriormente se expande y
crea el mundo.
El huevo cosmogónico
Un tema muy extendido es el del padre del mundo —normalmente el cielo— que se
empareja con la madre del mundo —normalmente la Tierra— para crear los elementos del
mundo. A menudo permanecen unidos en el acto sexual, mostrándose indiferentes hacia sus
hijos, como en un mito maorí de la creación.
La rebelión de los hijos
En varios mitos, los descendientes se rebelan contra los padres del mundo. Los hijos
del mito maorí —bosques, plantas alimenticias, océanos y el hombre— luchan contra sus
padres para obtener espacio. Tal vez el mito más conocido de este tipo sea la Teogonía,
compuesta por el griego Hesíodo en el siglo viii a. C. En ella se relata la rebelión de varias
generaciones de dioses contra sus padres, los primeros de los cuales fueron Caos, Tierra,
Tártaro (el inframundo) y Eros (el amor); la rebelión acabó con el triunfo de Zeus.
Sacrificio
La gran epopeya babilónica, el Enûma Elish, describe la guerra entre los dioses
sumerios y la deidad babilónica, Marduk, y sus seguidores. Marduk mata a la diosa original
superviviente, Tiamat, y a sus monstruos del Caos, establece el orden y se convierte en el
dios supremo y creador del universo: toda la naturaleza, incluyendo los humanos, le debe a
él su existencia. Encontramos mitos similares en todo el mundo, por ejemplo en la victoria
olímpica de los dioses masculinos del cielo de los invasores arios sobre las fértiles diosas
de la tierra de los pelasgos y los cretenses.
La creación a partir de la nada
Los mitos que presentan el tema de la creación a partir de la nada son escasos. Sin
embargo, su creencia no solo es una de las más extendidas, sino que además es la
explicación científica preferida actualmente.
La versión más antigua es la del Rig Veda. Investigaciones arqueoastronómicas
recientes desafían la datación que realizó Max Müller en el siglo xix y documentan con
pruebas la tradición india; concluyen que la obra fue compilada a lo largo de un periodo de
dos mil años que se inició en torno a 4.000 a. C.[7] En el décimo y último libro, el Himno
129 dice: «Entonces no existían ni lo existente ni lo inexistente, no existía el espacio etéreo,
ni el cielo que está más allá […]. Solo aquel Uno respiraba sin aire, por su propia
naturaleza. Aparte de él no existía cosa alguna».
La idea se desarrolla en las Upanishads, los más destacados de los cuales fueron
probablemente escritos entre 1000 y 500 a. C. La Chandogya Upanishad representa la idea
central de que «El universo proviene de Brahmán y regresará a Brahmán. Ciertamente, todo
es Brahmán». Varias Upanishad emplean la metáfora, la alegoría, la parábola, el diálogo y
la anécdota para describir a Brahmán como la realidad definitiva que existe a partir del
espacio y el tiempo, del cual mana todo y de lo cual todo está formado; se interpreta
generalmente como la Conciencia Cósmica, el Espíritu o la Divinidad Suprema que
sustenta cualquier forma.
El taoísmo expresa una idea similar. El principal texto taoísta, conocido en China
como Lao-Tzu y en Occidente como Tao Te Ching, fue seguramente compilado entre los
siglos vi y iii a. C. Destaca la unicidad y la eternidad del Tao, el Camino. El Tao es «nada»
en el sentido de que es «ninguna cosa»: carece de nombre o de forma; es la base de todo ser
y la forma de todo ser. El Camino, o la nada, da lugar a la existencia, la existencia da lugar
a los opuestos yin y yang, y el yin y el yang dan lugar a todo: macho y hembra, tierra y
cielo, y así sucesivamente.
El primer libro de las escrituras hebreas, escrito no antes de finales del siglo vii a. C,
[8] empieza con las palabras «En el principio, dios creo los Cielos y la Tierra».[9] El
siguiente versículo describe la Tierra en términos que evocan los mitos del caos y las aguas
primigenias, después de lo cual Dios dice que habrá luz y se crea la luz, y después Dios
separa la luz de la oscuridad en su primer día de creación. En el transcurso de los cinco días
siguientes, ordena la creación del resto del universo.
En el Corán, escrito a partir del siglo vii d. C., Dios ordena también la creación de
los Cielos y la Tierra.[10]
El ciclo eterno
Varios mitos originarios de India niegan que el universo fuera creado y sostienen
que el universo ha existido siempre, pero que este universo eterno está sometido a ciclos.
En el siglo v a. C., Buda dijo que realizar conjeturas sobre el origen del universo
provoca la locura a aquellos que lo intentan.[11] Esto, sin embargo, no impidió que sus
seguidores lo intentaran. Aplicaron su punto de vista de que todo es temporal, que todo
surge, se crea, cambia y desaparece constantemente, con el resultado de que la mayoría de
escuelas budistas predica en la actualidad que el universo se expande y se contrae, se
disuelve en la nada y evoluciona para volver a ser siguiendo un ritmo eterno.
Posiblemente estuvieron influidos por los jainistas, cuyo último Tirthankara
(literalmente «constructor de vados», aquel que enseña a cruzar el río de los renacidos para
alcanzar el estado de liberación eterna del alma) empezó a predicar sus enseñanzas en el
este de India antes que Buda. Los jainistas sostienen que el universo no está creado y es
eterno. El tiempo es como una rueda con doce ejes que miden los yugas, o edades del
mundo, cada uno de los cuales tiene una duración fija de miles de años. Seis yugas forman
un arco ascendente en el que el conocimiento humano y la felicidad aumentan, elementos
que disminuyen en el arco descendiente de seis yugas. Cuando el ciclo alcance su nivel más
bajo, desaparecerá incluso el jainismo. Entonces, en el transcurso del siguiente ascenso, se
redescubrirán los conocimientos jainistas y nuevos Tirthankaras se encargarán de
reintroducirlo, aunque al final del nuevo ciclo descendente de la rueda eterna del tiempo, el
proceso se repetirá.
Todo esto es similar a las principales creencias yóguicas, que derivan de la filosofía
védica. Suelen postular solo cuatro yugas. La primera, Satya Yuga o Krita Yuda, dura
1.728.000 años, mientras que la cuarta, Kali, dura 432.000 años. El descenso desde Satya
hasta Kali va asociado con un deterioro progresivo del dharma, o rectitud, manifestado en
forma de disminución de la duración de la vida humana y de la calidad de los estándares
éticos de la humanidad. Por desgracia, actualmente estamos en el periodo Kali.
Explicaciones
Las muchas explicaciones de estos mitos sobre el origen pueden agruparse en cinco
categorías.
Verdad literal
Todos los mitos sobre el origen son distintos y, en consecuencia, no todos pueden
ser literalmente ciertos. Sin embargo, algunas culturas afirman que su mito es literalmente
cierto. Un 63 por ciento de norteamericanos cree que la Biblia es la palabra de Dios y que
es literalmente cierta,[12] mientras que la abrumadora mayoría[13] de los 1,6 miles de
millones de musulmanes del mundo cree en la verdad literal del Corán porque es la palabra
eterna de Dios escrita sobre una tabla en el Cielo y dictada a Mahoma por el arcángel
Gabriel.
Muchos creyentes en la verdad literal de la Biblia suscriben el cálculo sobre el
Génesis que realizó James Ussher que afirmó que la creación en seis días del universo
culminó el sábado 22 de octubre de 4004 a. C. a las seis de la tarde.[14] [15] Sin embargo,
la mayoría de las evidencias geológicas, paleontológicas y biológicas, que se sirven de la
datación radiométrica obtenida a partir de rocas, fósiles y testigos de hielo, sitúa la edad de
la Tierra en al menos 4,3 miles de millones de años. Los datos astronómicos indican que el
universo tiene una antigüedad de entre diez y veinte mil millones de años. Las evidencias
contra la verdad literal de la creencia creacionista son conclusivas.[16] Más aún, creer en la
verdad literal de la Biblia es creer, como mínimo, en dos relatos contradictorios de la
creación. En Génesis 1:26-1, Dios crea las plantas y los árboles el tercer día, los peces y las
aves el quinto día, el resto de animales al principio del sexto día, y el hombre y la mujer, a
su propia imagen y semejanza, al final del sexto día. En Génesis 2, por otro lado, Dios crea
primero un varón humano a partir del polvo; solo después crea un jardín donde crecen
plantas y árboles y luego, a partir de la tierra, crea todos los animales y aves (no hay
mención de los peces), hasta que finalmente crea una mujer a partir de la costilla del
hombre.
También resulta ilógico que los creyentes en la verdad literal del Corán crean que
Dios creó la Tierra y los cielos en ocho días (Sura 41:9-12) y que creara la Tierra y los
cielos en seis días (Sura 7:54).
Metáfora
Sproul sostiene que todas las religiones declaran una realidad absoluta que es a la
vez trascendente (verdadera en todo momento y lugar) e inmanente (verdadera en el aquí y
ahora), y que «Solo los mitos de la creación tienen como finalidad principal la
proclamación de esta realidad absoluta».[18] Además, su conjunto de mitos de la creación
«no muestra ninguna disparidad esencial en su comprensión, sino que revela una similitud
de visiones a partir de una amplia variedad de puntos de vista».[19]
Así pues, muchos mitos sobre el origen mencionan polos opuestos: luz y oscuridad,
espíritu y material, macho y hembra, bien y mal, etc. Los más profundos identifican Ser y
No-ser y algunos, como la Chandogya Upanishad, afirman que el No-ser surge a partir del
Ser, mientras que otros, como un mito maorí, asevera que el No-ser en sí mismo es el
origen de todo Ser y No-ser. Algunos ven el origen de toda esta polaridad como el Caos,
que incluiría todas las distinciones posibles; la creación se produce cuando el Caos se
fusiona y toma forma y actúa sobre todo lo no formado para crear más distinciones y, con
ello, crear el mundo. «En este caso, ¿qué es la realidad absoluta? ¿El Caos en sí mismo? ¿O
el hijo del Caos que actúa sobre él? Ambos. Son uno». [20]
Las diferencias aparentes surgen porque los mitos hablan de lo desconocido en
términos de lo conocido, normalmente utilizando formas antropomórficas o sirviéndose de
palabras relacionadas para intentar describir lo absoluto. Según Sproul, incluso el rechazo
de un acto de creación por parte de los budistas, los jainistas y los yoguistas, separa su
universo eterno del universo creado; los mitos que relatan sucesos de creación
temporalizan, simplemente: hablan de lo absoluto en términos de lo primero.
La reivindicación de que todos los mitos sobre el origen revelan aspectos de la
misma realidad absoluta resulta fascinante. No está, sin embargo, sustentada por ninguna
evidencia. Queda igualmente explicada por la interpretación que Sproul realiza de estos
mitos según sus propias creencias de lo que constituye la realidad absoluta.
Verdad arquetípica
Según Sproul, que fue alumna de Joseph Campbell, los mitos de la creación son
importantes no solo por su valor histórico sino también porque revelan valores arquetípicos
que nos ayudan a comprender nuestro crecimiento personal «físicamente, mentalmente y
espiritualmente, en el contexto del flujo cíclico de ser y no-ser y, finalmente, en la unión
absoluta de los dos».[21]
Su utilización de los conceptos de Campbell, derivados de la psicología de Jung, no
logra presentar una explicación convincente.
Experiencia fetal
El biólogo molecular Darryl Reanney sugiere que el tema común de unas aguas
oscuras e informes preexistentes en las que aparece la luz y nace el universo podría
explicarse por los recuerdos subliminales del feto que experimenta el nacimiento al emerger
de las aguas oscuras, informes y nutritivas del útero. «Las huellas que la experiencia del
nacimiento deja en el cerebro pre-natal predisponen a los mitos a desarrollar
configuraciones concretas de imaginería simbólica que tocan teclas extremadamente
receptivas desde un punto de vista psicológico».[22] Para sustentar su teoría, afirma que a
partir del séptimo mes de embarazo es posible registrar actividad eléctrica en el córtex
cerebral del feto (datos más recientes sugieren que puede registrarse antes del sexto mes).
[23]
Se trata de una conjetura interesante, pero es difícil entender de qué manera podría
validarse o refutarse.
Sugiero tres explicaciones más.
Comprensión limitada de los fenómenos naturales
Carecemos de evidencias que validen científicamente los mitos sobre el origen y las
explicaciones que podamos hacer de ellos. Poseemos, sin embargo, evidencias suficientes
para refutar la verdad literal de la mayoría de estos mitos, incluyendo los que declaraban
haber sido revelados por un Dios externo y trascendente.
La comprensión limitada, o incluso falsa, de los fenómenos naturales, sumada a
necesidades culturales y políticas y a las interpretaciones culturalmente sesgadas de las
visiones místicas podrían ser explicaciones más prosaicas que las ofrecidas por muchos
mitólogos, etnólogos, psicólogos y otros eruditos, aunque no puedo citar evidencias
conclusivas que apoyen esto. Sin embargo, ellos tienen la ventaja de mostrarse de acuerdo
con estos hechos, como bien sabemos, y han llegado a dicho acuerdo aplicando la navaja de
Ockham o, lo que es lo mismo, la regla científica de la parsimonia: son la explicación más
sencilla.
Los relatos sobre el origen que sustentan su reivindicación de veracidad no en las
evidencias materiales, ni en la racionalidad ni en la revelación por parte de un Dios
trascendente, sino en la visión mística, no pueden ser ni validados ni refutados por la
ciencia ni por el razonamiento. Volveré a tratar con mayor profundidad la visión mística
cuando hable sobre el desarrollo del pensamiento filosófico. Sin embargo, desde una
perspectiva puramente científica y racional, la mayoría de mitos entra dentro de la categoría
de superstición, que definiré como
Superstición: creencia que entra en conflicto con las evidencias o para la que no
existe una base racional y que surge normalmente como consecuencia de una falta de
entendimiento de los fenómenos naturales o del miedo a lo desconocido.
El porqué de su supervivencia
Una explicación del porqué los mitos sobre la creación sobreviven incluso en
culturas científicamente avanzadas como la nuestra la encontramos en que la ciencia solo
examina el mundo físico, pero existe una realidad principal que trasciende ese mundo
físico; todos los mitos sobre la creación expresan esta realidad principal en términos —a
menudo antropomórficos— que son un reflejo de las distintas culturas.
Y a pesar de que esto podría ser cierto en muchos casos, hay demasiados mitos que
son mutuamente contradictorios con esta propuesta para que podamos considerarla válida
en términos generales. Una explicación más simple es que la supervivencia de estas
creencias no es el testimonio de su veracidad, sino más bien el poder de inculcación que
han tenido doscientas generaciones de sociedades humanas en el transcurso de más de
cinco mil años.
Influencia sobre el pensamiento científico
Somos materia. Podríamos ser algo más que materia. Podríamos ser manifestaciones
de una conciencia cósmica, como defienden las visiones místicas, o simulaciones
tridimensionales generadas por un ordenador súper inteligente, como propone una conjetura
filosófica. Pero el objetivo de este estudio es establecer lo que sabemos en la actualidad, o
lo que podemos deducir de un modo razonable, a partir de la experimentación y la
observación del mundo que percibimos: es decir, lo que la ciencia nos cuenta sobre qué
somos y de dónde venimos.
El punto de partida, por lo tanto, es lo que conocemos sobre el origen de la materia
a partir de la ciencia, y la teoría ortodoxa actual de la ciencia es que la materia y la energía
tienen su origen en el Big Bang que se produjo hace 13,8 miles de millones de años.
Me gustaría destacar la palabra «actual» porque tanto los medios de comunicación
como los libros científicos más populares presentan las teorías científicas, e incluso las
conjeturas, como si fueran hechos indiscutibles. Las teorías científicas cambian. Para dejar
claro este hecho, describiré la teoría imperante en la primera parte del siglo xx, explicaré
por qué y cómo cambió para dar lugar al modelo del Big Bang, examinaré los problemas
que presenta el modelo y consideraré las soluciones que proponen los cosmólogos actuales
para hacer frente a dichos problemas.
Primera mitad del siglo xx
De haber escrito este libro en 1928, habría dicho que la teoría ortodoxa actual de la
ciencia es que el universo es eterno e invariable.
Era una teoría tan establecida que Einstein cometió lo que posteriormente reconoció
como el mayor error de su vida. En 1915 presentó su Teoría general de la relatividad, que
incorporaba la gravedad en su descripción de toda la materia y las fuerzas conocidas. Sin
embargo, cuando la aplicó al universo como un todo, descubrió que predecía un universo
cambiante —la fuerza de la gravedad provocaba el efecto de unir toda la materia del
universo—, razón por la cual dos años después introdujo una constante arbitraria, Lambda
(Λ), en sus ecuaciones de campo. Realizando los ajustes necesarios al nivel de Lambda,
consiguió que ese término adicional de las ecuaciones equilibrara exactamente la fuerza de
la gravedad, produciendo, en consecuencia, un universo estático.
Durante los quince años siguientes, todos los teóricos físicos aceptaron la propuesta
porque estaba respaldada por la evidencia: las estrellas se movían muy poco. El concepto
de universo estático siguió imponiéndose incluso después de que el astrónomo Edwin
Hubble demostrara en 1924 que en la única galaxia conocida por aquel entonces —la Vía
Láctea— había manchas difusas de luz que no eran nubes de gas, sino galaxias de estrellas
muy lejanas.
Entre 1929 y 1931, sin embargo, Hubble demostró que en la luz emitida desde esas
galaxias remotas había un desplazamiento al rojo, y que ese desplazamiento al rojo
aumentaba cuanto más lejos estaban de nosotros. La luz roja consiste en una mezcla de
colores que se revela cuando un prisma se descompone en un espectro de longitudes de
onda, siendo las longitudes de onda más cortas de color azul y las longitudes de onda más
largas de color rojo. Cuando una fuente de luz se aleja del observador, su longitud de onda
aumenta y se desplaza hacia el extremo rojo del espectro. Las observaciones de Hubble
fueron interpretadas como un signo de que las galaxias se alejan de nosotros y que cuánto
más lejos están, a mayor velocidad se mueven.
No fue hasta entonces que los teóricos físicos se tomaron en serio el trabajo de
aquellos que habían producido soluciones distintas a las ecuaciones de campo de la
relatividad general de Einstein y que daban como resultado un universo en expansión. Uno
de ellos fue el jesuita y científico belga Georges Lemaître, que en 1927 incorporó los datos
de Hubble a sus propias ideas y planteó la expansión del universo con carácter retrospectivo
para obtener su hipótesis del átomo primitivo. La hipótesis defendía que en el tiempo cero,
todo lo que contiene el universo —toda la luz y todas las galaxias, estrellas y planetas—
estaba comprimido en un único átomo súper denso que explotó y formó un universo en
expansión.
En 1948, el astrónomo Fred Hoyle se refirió en tono despectivo a esta hipótesis
como el Big Bang después de haber desarrollado, junto a Thomas Gold y Herman Bondi, la
teoría del estado estacionario. Según esta hipótesis, el universo está en expansión pero no a
partir de un punto, sino que la materia se crea continuamente en el espacio en expansión y
produce una densidad uniforme en un universo infinitamente grande.
Durante la década posterior a la Segunda Guerra Mundial, varios teóricos físicos
volcaron su atención hacia el rompecabezas de la cosmogénesis, o cómo se inició el
universo. Enrico Fermi, Edward Teller, Maria Mayer, Rudolf Peierls, George Gamow,
Ralph Alpher y Robert Herman estuvieron entre los que examinaron la idea del Big Bang.
Gamow, Alpher y Herman intentaron averiguar de qué modo pudieron crearse todos
los tipos de átomos que vemos hoy en día en el universo a partir del plasma increíblemente
pequeño, denso y caliente de protones, neutrones, electrones y fotones de la hipótesis.[1]
Demostraron que los núcleos de helio y los isótopos[2] de hidrógeno estarían producidos
por la combinación de protones y neutrones en los tres primeros minutos posteriores al Big
Bang, puesto que aquel plasma se expandió y se enfrió a una temperatura inferior a mil
millones grados Kelvin.[3] El cálculo de Alpher y Herman sobre la proporción de
hidrógeno y helio producido de esta manera encaja aproximadamente con el que se observa
en el universo, lo que viene a sustentar la hipótesis del Big Bang pero ni ellos ni nadie,
debido a la inestabilidad de los núcleos formados por una combinación de cinco u ocho
protones y neutrones, fue capaz de demostrar cómo debieron crearse los elementos más
pesados. Todo ello sembró dudas sobre el Big Bang, y Fermi y sus colegas lo dejaron como
un modelo de cosmogénesis.[4]
Según el relato ortodoxo, Gamow y Alpher calcularon que, después de trescientos
mil años de expansión a partir del Big Bang, el plasma se enfrió hasta alcanzar una
temperatura de 4.000 K,[5] momento en el cual los electrones con carga negativa fueron
capturados por los núcleos atómicos con carga positiva para formar moléculas de hidrógeno
diatómicas estables y eléctricamente neutras, sus isótopos, y átomos de helio. Los fotones
—partículas de radiación electromagnética con carga neutra— dejaron entonces de estar
vinculados al plasma y se separaron para viajar libremente por el espacio en expansión.
Con ello, se enfriaron y su longitud de onda se incrementó. Cuando el universo alcanzó su
tamaño actual, esa longitud de onda se situó en la región de las microondas y llenó todo el
espacio, produciendo un fondo cósmico de microondas. En 1948, esos científicos estimaron
que la temperatura de este fondo cósmico de microondas era aproximadamente de 5 K. En
1952, Gamow estimó que la temperatura se situaba alrededor de 50 K.[6]
Entretanto, Fred Hoyle y sus colegas demostraron que los elementos más pesados
podían ser producto de una fusión nuclear en el interior de las estrellas.
Esta obra de la postguerra, por lo tanto, dejo la teoría del estado estacionario y el
Big Bang como dos hipótesis en competencia para explicar el origen del universo: la
primera sostenía que el universo era eterno y que, en consecuencia, no había principio,
mientras que la segunda defendía que el universo empezó como una explosión de luz y
plasma a partir de un punto.
Sin esperar las evidencias que la comunidad científica necesitaba y, de este modo,
poder elegir entre las dos, la iglesia católica romana emitió su veredicto. En 1951, el papa
Pío XII dijo a la Pontificia Academia de las Ciencias que el Big Bang era un testimonio del
relato de la creación plasmado en el Génesis, cuando Dios dijo que se hizo la luz. La
alacridad con la que la Iglesia respondió a esta hipótesis científica contrasta con los
doscientos años que fueron necesarios para que aceptase que Galileo tenía razón cuando sus
observaciones sustentaron la teoría de Copérnico de que la Tierra no es el centro del
universo, sino que la Tierra y los demás planetas orbitan alrededor del sol.
A diferencia de la iglesia católica, la comunidad científica siguió dividida entre los
seguidores del Big Bang y los de la teoría del estado estacionario hasta 1965, momento en
el cual, según la versión ortodoxa de la historia, un descubrimiento casual produjo las
evidencias decisivas.
Los astrónomos Arno Penzias y Robert Woodrow Wilson no conseguían eliminar el
«ruido» de fondo que llegaba desde todas las regiones del firmamento cuando las
observaban a través de su radiotelescopio en los Bell Laboratories de Nueva Jersey.
Pidieron consejo a Robert Dicke, de Princeton, que, sin que ellos estuvieran al corriente,
llevaba tiempo intentando encontrar la radiación de fondo cósmico de microondas predicha
por Gamow. Dicke se dio cuenta entonces de que este «ruido» uniforme en la región de las
microondas era esta radiación que se había enfriado a una temperatura de 2,7 K.[7]
Rara vez, si alguna, se comenta que Geoffrey Burbridge, profesor de astrofísica de
la Universidad de California, afirmó que este relato ortodoxo está distorsionado. Según él,
la elección de parámetros que Alpher y Herman realizaron para sus ecuaciones fue lo que
hizo que la proporción entre hidrógeno y los demás elementos ligeros que presentaron se
correspondiera aproximadamente a la proporción observada. Más aún, señaló que el
descubridor de la radiación de fondo cósmico de microondas fue Andrew McKellas, que
estimó además su temperatura entre 1,8 y 3,4 K, y que publicó dichos descubrimientos en
1941; alegó que Gamow conocía como mínimo estos resultados y que, por lo tanto, no
predijo la radiación de fondo cósmico de microondas que las observaciones posteriores
confirmaron.[8]
Sin embargo, el relato ortodoxo prevaleció y Penzias y Wilson recibieron un Premio
Nobel por su descubrimiento. La inmensa mayoría de la comunidad científica adoptó el Big
Bang como modelo para el origen del universo y los que no se mostraron de acuerdo con él
lo pasaron realmente mal. Según John Maddox, la continuada adhesión de Hoyle a la teoría
del estado estacionario «lo condenó al ostracismo de sus colegas académicos y a la renuncia
sin precedentes de su puesto como profesor en Cambridge».[9]
Probablemente, este último hecho fue una consecuencia de las duras críticas de
Hoyle a las evidencias contra la teoría del estado estacionario que presentó su colega
académico en Cambridge, Martin Ryle, y que acabaron con la enemistad entre los dos. Y
mientras que Hoyle jamás consiguió un nuevo puesto académico, Ryle acabó
convirtiéndose en Astrónomo Real de Gran Bretaña y siendo galardonado con un Premio
Nobel. De manera inexplicable, el Premio Nobel de 1983, concedido por el trabajo sobre la
nucleosíntesis estelar, fue otorgado únicamente a William Fowler e ignoró tanto a Hoyle
como a Geoffrey y Margaret Burbidge, los otros tres autores del trascendental documento
de 1957 que describe en detalle cómo se forman en el interior de las estrellas todos los
elementos naturales distintos al hidrógeno y el helio. Fowler reconoció libremente que
Hoyle fue el primero en establecer el concepto de nucleosíntesis estelar y que se había
incorporado a Cambridge con una beca Fullbright con el único fin de trabajar con Hoyle.
[10]
El relato ortodoxo ejemplifica el método científico según el cual una teoría
consolidada —el universo eterno— queda descartada cuando nuevos datos confirman
predicciones realizadas por una hipótesis distinta —el Bing Bang—, que pasa entonces a
convertirse en la teoría ortodoxa. En el trato recibido por Hoyle, ejemplifica también el
comportamiento de la clase dirigente científica hacia aquellos que se muestran
disconformes con la ortodoxia.
Desde mediados de la década de los sesenta del siglo pasado, el modelo del Big
Bang se ha mantenido con la misma convicción que mantenía la teoría del universo eterno e
invariable en 1928. ¿Pero siguen las evidencias validando este modelo y, en caso contrario,
como ha respondido la comunidad científica?
La teoría actual: el Big Bang
Para ver si el modelo del Big Bang ofrece una explicación satisfactoria del origen
del universo, debemos examinar su base teórica.
Base teórica
A diferencia del método científico[11] comúnmente aceptado, la teoría del Big Bang
no derivó de la observación sino que surgió a partir de soluciones a las ecuaciones de la
teoría general de la relatividad de Einstein, una de las cuales fue seleccionada por ser la que
mejor encajaba con las observaciones.
La visión de Einstein produjo leyes del movimiento que no dependen de que el
observador se mueva de un modo particular en relación con lo que está observando.
Einstein asumió que la velocidad de la luz (c) es constante, que es la misma para todos los
observadores en cualquier momento y en todas las partes del universo, y que no hay nada
que pueda viajar más rápido. Su teoría de la relatividad especial de 1905 aporta la idea de
que espacio y tiempo son independientes y absolutos: ofrece una matriz espacio-tiempo de
cuatro dimensiones en la que el espacio o el tiempo podrían expandirse o contraerse
dependiendo del movimiento del observador, pero el espacio-tiempo es igual para todo el
mundo.
Una consecuencia de la teoría de la relatividad especial es que la masa (m) y la
energía (E) son equivalentes, lo que queda reflejado en la famosa ecuación E = mc2.
Cuando Einstein incorporó la gravedad a estas leyes del movimiento para producir
una teoría general de la relatividad, su visión era que la gravedad no es una fuerza que actúa
instantáneamente entre masas, según definía la ley de Newton, sino que es una distorsión en
el tejido espacio-tiempo provocada por la masa y que, cuánto más grande sea la masa,
mayor será la distorsión. Estas distorsiones dictan entonces el movimiento de otras masas
en el espacio-tiempo. Para parafrasear a John Archibald Wheeler, la materia le dice al
espacio-tiempo cómo debe curvarse y el espacio-tiempo le dice a la materia cómo debe
moverse.
Para producir una ecuación que cuantificara este concepto y permitiera realizar
predicciones, Einstein utilizó una rama complicada de las matemáticas, conocida como
geometría diferencial, que se ocupa de las superficies curvas. Llegó de este modo a lo que
hoy en día se conoce como las ecuaciones de campo de Einstein. Se utiliza el plural porque
la ecuación única contiene tensores[12] que tienen diez posibilidades lo que genera, a todos
los efectos, diez ecuaciones. Las muchísimas soluciones posibles a estas ecuaciones
producen muchos universos teóricos y el reto consistía en descubrir la solución que mejor
encajara con los datos observacionales.
Friedman demostró que los universos con estas tres posibles geometrías tenían tres
destinos distintos. El universo cerrado (o esférico) se expande a partir de un Big Bang, pero
el efecto gravitacional de su materia es lo bastante fuerte como para ralentizar, detener y
cambiar el sentido de la expansión hasta que el universo en contracción termina en un Big
Crunch, o gran implosión. El universo abierto (o hiperbólico) se expande a partir de un Big
Bang, pero el efecto gravitacional de su materia es demasiado débil para detener esta
expansión, que continúa indefinidamente a un ritmo regular hasta que sus elementos dejan
de tener contacto entre ellos, lo que conduce a un universo vacío. El universo plano se
expande a partir de un Big Bang, pero el efecto gravitacional que une su materia equilibra
exactamente la energía cinética de la expansión, lo que da como resultado que el ritmo de la
expansión disminuya pero no lo bastante como para detenerla, de modo que el universo se
expande eternamente a un ritmo de expansión continuamente más lento.
Como consecuencia de los supuestos de simplificación, tanto el universo plano
como el abierto son necesariamente infinitos en su extensión: si llegaran a un límite
definido, entrarían en contradicción con el supuesto de que el universo se ve igual desde
todos los puntos. Pero esto no aplica para un universo esférico: una esfera perfecta tiene el
mismo aspecto desde todos los puntos de su superficie.
A diferencia de Einstein, Friedman no incorporó una constante arbitraria Lambda
para conseguir el resultado deseado. En su modelo matemático, la fuerza de la gravedad de
la materia en relación con la energía cinética de la expansión se expresa como el parámetro
de densidad crítica Omega (Ω). En un universo cerrado, Omega es mayor que 1; en un
universo abierto, Omega es menor que 1; en un universo plano, Omega es igual a 1.
Después de que Hubble publicara sus datos, la mayoría de científicos llegó a la
conclusión de que lo que más encajaba con las observaciones era un universo plano
iniciado a partir de un Big Bang muy caliente, razón por la cual el modelo Friedmann-
Lemaître pasó a ser el modelo ortodoxo.[14]
Una geometría cerrada es el análogo tridimensional de la superficie de una esfera:
en esta geometría, la suma de los ángulos de un triángulo es superior a 180º y la
circunferencia de un círculo es inferior a π veces su diámetro. Una geometría abierta es el
análogo de una superficie hiperbólica, o en forma de silla de montar: en este caso, la suma
de los ángulos de un triángulo es inferior a 180º y la circunferencia de un círculo es
superior a π veces su diámetro. Una geometría plana es la geometría euclidiana que
conocemos: la suma de los ángulos de un triángulo es igual a 180º y la circunferencia de un
círculo es exactamente π veces su diámetro. Las distintas geometrías espaciales cambian
con el tiempo según el factor de escala, o de expansión, del universo. Sin embargo, si
introducimos una constante cosmológica distinta a cero, podrá producirse cualquier tipo de
geometría con cualquier tipo de evolución en el tiempo.
Problemas de la teoría del Big Bang
Los dos supuestos del modelo ortodoxo producen un universo que es homogéneo, o
completamente uniforme, mientras que todas las demás soluciones a las ecuaciones de
campo de Einstein sin estos supuestos, producen universos irregulares.
Contrastando con este modelo, cuando observamos el universo vemos que no es
completamente uniforme. Tiene sistemas solares, cúmulos de galaxias y supercúmulos,
todos ellos separados por inmensos vacíos que contienen poca o ninguna materia. La Tierra
tiene una densidad unas 1030 veces superior a la de la media del universo, el aire que
respiramos tiene una densidad 1026 veces superior, la densidad media de nuestra galaxia, la
Vía Láctea, es 106 veces superior, nuestro grupo de galaxias tiene una densidad media
doscientas veces superior, mientras que los vacíos entre los supercúmulos tienen
normalmente una anchura de ciento cincuenta años luz.[17]
Si el universo fuese perfectamente homogéneo, no estaríamos aquí para observarlo.
Sin embargo, los cosmólogos piensan que en una escala del tamaño del universo, el
alejamiento de la homogeneidad es solo de una cienmilésima parte.
El modelo del Big Bang no consigue explicar cómo y por qué el universo debería
estar tan extremadamente cerca de la homogeneidad perfecta, aunque sin llegar a
alcanzarla, y permitir aun así la formación de estructuras como nuestro sistema solar, con
planetas como la Tierra en la que el hombre ha evolucionado.
Isotropía del fondo cósmico de microondas (el problema del horizonte)
El modelo del Big Bang defiende que el fondo cósmico de microondas (FCM) es la
radiación que se escindió de la materia en estado de plasma unos 380.000 años (según las
estimaciones revisadas) después del Big Bang, y que perdió energía y que, a medida que el
universo fue expandiéndose, se enfrió hasta alcanzar su temperatura actual de 2.73 K.
Los detectores de los satélites Cosmic Background Explorer (COBE) y Wilkinson
Microwave Anisotropy Probe (WMAP) demostraron que esta temperatura es prácticamente
isotrópica, es decir, que es la misma en todas direcciones. Para alcanzar esta temperatura
casi uniforme, todas las partículas de radiación (fotones) deberían haberse combinado a
través de colisiones repetidas justo después de escindirse del plasma.
La teoría de la relatividad afirma que nada puede viajar más rápido que la velocidad
de la luz. De ahí que, para poder combinarse, la distancia de separación entre los fotones no
debería ser mayor a la que se puede viajar a la velocidad de la luz. Esta distancia se conoce
como el horizonte de contacto del fotón.
Sin embargo, el modelo del Big Bang afirma que el ritmo de expansión del universo
se ralentizó. En consecuencia, en un universo mucho más joven, el horizonte de contacto de
un fotón era muy inferior al que pueda ser ahora. De ahí que habría sido imposible que
todos los fotones estuvieran en contacto entre sí justo después de escindirse del plasma. Por
lo tanto, la energía de los diversos fotones debía de ser distinta y esto tendría que quedar
patente en la actualidad con distintas temperaturas del fondo cósmico de microondas
medido en distintas direcciones.
La teoría del Big Bang es incapaz de explicar este conflicto con pruebas
observacionales.
Planicidad (Omega)
Hay una idea que afirma solucionar estos primeros cuatro problemas de un solo
plumazo.
A quién se le ocurrió la idea fue, y sigue siendo, tema de debate. Alan Guth, del
Massachusetts Institute of Technology, declara «Protagonicé el debut oficial de la inflación
en el seminario que impartí en SLAC el 23 de enero de 1989».[21] El ruso Andrei Linde,
que trabaja actualmente en la Universidad de Stanford, California, reivindica que Alexei
Starobinsky, David Kirzhnits y él desarrollaron los conceptos esenciales de la inflación en
la antigua Unión Soviética antes de esa fecha.[22]
Según la versión publicada por Guth en 1981, muy poco después de que se
produjera el Big Bang el universo sufrió una expansión enorme y casi instantánea que lo
infló billones de veces en lo que podría haber sido menos de un billón de billones de
billones de segundo. Para que este fenómeno fuera posible, el universo estaba en un estado
inestable tremendamente frío; esta inflación decadente acabó deteniéndose y el inmenso
universo inició la expansión desacelerada que predice el modelo básico del Big Bang.[23]
Después de la inflación, el universo ha quedado convertido en algo tan inmenso que
solo alcanzamos a ver una mínima fracción del mismo. Y esta es la razón por la cual, igual
que sucede con un área minúscula en la superficie de un globo gigantesco, nuestra parte
tiene aspecto plano. Dicho de otra manera, la inflación diluye de tal manera cualquier
desequilibrio entre la energía explosiva de la expansión y la energía de la fuerza de
gravedad de la materia del Big Bang que permite que el universo post-inflación
experimente una expansión desacelerada estable. En efecto, después de la inflación Omega
queda igual a uno y el universo no está destinado a sufrir una aceleración rápida hacia el
vacío ni una contracción veloz hacia el colapso: sigue el modelo matemático del universo
plano. Lo cual soluciona el problema de la planicidad.
La enorme expansión inflacionaria ha diluido también cualquier irregularidad
surgida a partir del Big Bang explosivo. Lo cual soluciona el problema de la
homogeneidad.
De un modo similar, todos esos monopolos magnéticos existen en algún lugar del
inmenso universo, pero nuestra región es tan increíblemente minúscula que no contiene
ninguno. Lo cual soluciona el problema de los monopolos magnéticos.
El universo que somos capaces de ver actualmente, cuyas distancias más lejanas
están limitadas por la velocidad de la luz y la edad del universo, es solo la región post-
inflación expandida de lo que fue una parte increíblemente minúscula del universo
inflacionado. En esta parte increíblemente minúscula, todos los fotones estuvieron en
contacto y alcanzaron una temperatura uniforme. Lo cual soluciona el problema del fondo
cósmico de microondas.
La conjetura sobre la inflación de Guth, sin embargo, tenía un punto débil que acabó
resultando fatal. Su mecanismo para terminar con la expansión exponencial desbocada y
que permitía que el universo pudiera entonces iniciar su expansión desacelerada según el
modelo básico de universo plano de Friedmann-Lemaître, producía en el universo grandes
heterogeneidades que las observaciones refutan. Guth la retiró después de un año.
Andreas Albrecht y Paul Steinhardt y, por otro lado, Linde, presentaron versiones
modificadas.
Pero según Linde, estas versiones tampoco funcionaban. Declaró que los problemas
de la conjetura de la inflación solo quedaron solventados cuando, en 1983, él concibió una
nueva versión más sencilla en la que prescindía del súper enfriamiento, de los efectos
cuánticos de la gravedad e incluso del supuesto habitual de que el universo era caliente en
su origen; se basaba simplemente en los campos escalares. Un campo escalar en un
concepto matemático según el cual todo punto del espacio está asociado a un escalar, una
cantidad como la masa, la longitud o la velocidad que queda totalmente especificada por su
magnitud.[24] Linde se limitó a asumir que el universo tenía todos los campos escalares
posibles, y que cada uno de ellos tenía todos los valores posibles. Este supuesto otorgó a su
modelo matemático infinitas posibilidades y produjo, teóricamente, regiones del universo
que continúan siendo pequeñas y otras que se inflan de manera exponencial. Por su
naturaleza arbitraria, lo denominó «inflación caótica». Se convirtió en una versión popular
de la inflación y desde entonces se han propuesto muchas más versiones de la misma.[25]
La conjetura de la inflación no solventa el problema del esqueleto en el armario —
de hecho, agranda incluso más el tamaño del esqueleto—, pero los cosmólogos se sintieron
tan aliviados al ver que solucionaba los cuatro problemas que habían identificado, que la
aceptaron con entusiasmo. De hecho, acordaron ponerle el título de Teoría de la inflación y
el modelo Inflacionario del Big Bang pasó a convertirse en la ortodoxia científica.
Validez de la teoría inflacionaria del Big Bang
La teoría básica del Big Bang caliente consta de dos partes. La primera es la
solución a las teorías de campo de Einstein que asume que el universo es tanto
omnicéntrico como isotrópico (y, por lo tanto, homogéneo) y la elección de un universo
geométricamente plano. La segunda parte es el modelo estándar de la física de partículas.
El supuesto omnicéntrico no es verificable. Incluso en el caso de que una
civilización avanzada de una galaxia remota nos hiciera llegar su visión del universo,
estaría tremendamente obsoleta cuando llegara a nosotros.
A pesar de que tanto el supuesto de isotropía como el supuesto de homogeneidad no
son totalmente válidos porque el universo está integrado por sistemas solares, galaxias,
grupos locales de galaxias, cúmulos de galaxias y supercúmulos separados por gigantescos
vacíos, los cosmólogos creen que estos supuestos son válidos en la escala del universo. Sin
embargo, cada vez que los astrónomos han examinado secciones grandes a enormes
distancias con instrumentos cada vez más sofisticados, han descubierto estructuras tan
grandes como el tamaño de la región examinada. En 1989, Geller y Huchra identificaron
una estructura casi bidimensional de aproximadamente 650 millones de años luz de
longitud a la que apodaron la Gran Muralla. En 2005, Gott y sus colegas detectaron la Gran
Muralla Sloan, de más del doble de longitud que la primera, 1,3 miles de millones de años
luz, a una distancia aproximada de nosotros de mil millones de años luz. En 2013, Roger
Clowes y sus colegas identificaron un grupo de cuásares sin precedentes con una longitud
de cuatro mil millones de años luz a una distancia que se sitúa entre ocho y nueve mil
millones de años luz.[26] En 2014, István Horváth y sus colegas informaron de que en 2013
habían realizado el descubrimiento de un objeto que multiplicaba por seis el tamaño de la
Gran muralla Sloan, de una longitud de entre siete y diez mil millones de años luz y a una
distancia aproximada de diez mil millones de años luz.[27] Los tamaños de estos objetos
contradicen los supuestos de isotropía y homogeneidad.
En cuanto a la elección de la geometría plana, no podemos verificar la consecuencia
de que el universo tiene un tamaño infinito.
Más aún, la idea de que el universo, espacio-tiempo incluido, cobra existencia a
partir de la nada gracias un Big Bang caliente partió de extrapolar la expansión del universo
al momento de tiempo cero. Pero la teoría cuántica se desmorona en ese momento porque
su Principio de la incertidumbre defiende que no es posible especificar nada dentro de un
periodo inferior a 10-43 segundos, lo que se conoce como tiempo de Planck.[28] Además,
esta extrapolación comprime el universo hasta un punto de densidad infinita donde la
curvatura del espacio-tiempo es infinita, lo que provoca el derrumbe de la teoría de la
relatividad.[29] Como dice Guth, «la extrapolación a temperaturas arbitrariamente elevadas
nos lleva mucho más allá de la física que comprendemos, razón por la cual no existen
motivos válidos para confiar en ella. La verdadera historia del universo en “t = 0” sigue
siendo un misterio».[30]
Una teoría que se basa en un misterio en el que las teorías que la sustentan se
desmoronan y, que se basa además en supuestos simplificadores, uno de los cuales no
puede verificarse mientras que los demás entran en contradicción con las observaciones
astronómicas, queda lejos de ser totalmente fiable.
La segunda parte de la teoría básica del Big Bang es el modelo estándar de la física
de partículas, que utiliza la teoría del campo cuántico para explicar cómo, mediante un
mecanismo denominado ruptura de simetría, se forman las partículas subatómicas a partir
de la energía liberada por el Big Bang.
Modelo estándar de la física de partículas: pretende explicar la existencia de, y
las interacciones entre, todas las cosas, excepto la gravedad que observamos en el universo,
en términos de partículas elementales y sus movimientos. Actualmente describe diecisiete
tipos de partículas elementales, agrupadas en forma de cuarks, leptones o bosones. Cuando
se tienen en cuenta las correspondientes antipartículas y variaciones de bosones, el total de
partículas elementales asciende a sesenta y una.
Según este modelo, distintos tipos de cuarks se combinan para crear los protones y
los neutrones (cuyas distintas combinaciones crean el núcleo de todos los átomos). Las
interacciones entre doce de estos tipos de partículas elementales son los movimientos de
cinco partículas elementales más, bosones que son portadores de fuerza, como los gluones,
que proporcionan la fuerza de unión a los cuarks.[31]
El modelo ha predicho con éxito la existencia de partículas que posteriormente han
sido detectadas, directamente o por inferencia en el caso de los cuarks, mediante
experimentación u observación. Una predicción clave es la existencia de una partícula
conocida como el bosón de Higgs, esencial para explicar por qué los dieciséis tipos de
partículas elementales restantes, con la excepción del fotón y el gluon, tienen masa. En
2012, dos experimentos llevados a cabo con el Large Hadron Collider, o Gran Colisionador
de Hadrones (LHC), construido por el Centro Europeo para la Investigación Nuclear
(CERN) en el subsuelo de la frontera franco-suiza, identificó la muy efímera existencia del
bosón de Higgs, o posiblemente de una familia de bosones de Higgs, en cuyo caso el
modelo estándar necesitaría revisión.
Incluso en el caso de que solo se confirmara un único bosón de Higgs después de
que el LHC reabriera en 2015 con niveles de energía muy superiores, seguiría habiendo
problemas importantes. El modelo estándar contenía diecinueve parámetros, que se
revisaron después de 1998 a veintinueve para permitir que los neutrinos tuvieran masa, algo
que no había predicho el modelo. Estos parámetros son constantes libremente ajustables
cuyos valores deben elegirse: desde un punto de vista matemático, la teoría resulta
consistente independientemente de los valores que se incorporen. Estas constantes
especifican las propiedades de la materia, como la carga de un electrón, la masa de un
protón y constantes de acoplamiento (números que determinan la fuerza de las
interacciones entre partículas). Las constantes se calculan experimentalmente y luego se
incorporan al modelo «a mano». Tal y como Guth reconoce «[según el modelo estándar] las
masas de la partícula W+ y del electrón surgen esencialmente de la misma manera, de
modo que el hecho de que la masa del electrón sea 160.000 veces inferior se incorpora a la
teoría amañando los parámetros para que así suceda».[32] Una teoría de este estilo es, por
naturaleza, menos fiable que aquella cuyas predicciones queden posteriormente
confirmadas por la experimentación y la observación.
Cuando se tienen en cuenta las antipartículas correspondientes y las variaciones en
los bosones, el número de partículas elementales asciende a sesenta y uno, [33] lo que
parece un número importante para definirlas como elementales o irreducibles. Además, el
actual modelo estándar es necesariamente incompleto porque no tiene en cuenta la
gravedad. De hacerlo, se harían necesarias más partículas elementales, como los gravitones.
La fiabilidad de la teoría básica del Big Bang depende también de su
correspondencia con la realidad. Los cosmólogos han adoptado la interpretación que hizo
Friedman para solucionar matemáticamente las ecuaciones de campo de Einstein. Esta
interpretación defiende que las estrellas (que posteriormente se revisaron para pasar a ser
galaxias y más adelante cúmulos galácticos) no se mueven. Están incrustadas en el espacio
y lo que se expande es el espacio entre las galaxias. Puede que la lógica matemática que lo
respalda sea correcta, pero para muchos no-cosmólogos parece una interpretación jesuítica:
en el mundo real, si la distancia entre dos galaxias aumenta con el tiempo, las galaxias se
distancian durante ese tiempo. De hecho, los cosmólogos se refieren al desplazamiento al
rojo de una galaxia como la medida de la velocidad a la que esa galaxia se aleja de la
nuestra.
Necesidad de evidencias que sustenten la teoría básica
Linde dice que «si el universo en el inicio de la inflación tenía un tamaño de 10-33
centímetros,[41] después de 10-35 segundos de inflación este campo adquiere un tamaño
increíble. Según algunos modelos inflacionarios, este tamaño en centímetros puede ser
equivalente a (1010)12», es decir, 101000000000000 centímetros.[42] Lo que pretende
decir uno de los creadores de la teoría de la inflación es que en cien mil millones de
millones de millones de millones de millonésimas de segundo, un universo con un supuesto
diámetro de mil millones de millones de millones de millones de millonésimas de
centímetro podría haberse expandido en un orden de magnitud de más de diez miles de
millones del universo que hoy observamos. Sería presuntuoso poner reparos al calificativo
«increíble» que propone Linde.
Pero que una conjetura sea increíble, sin embargo, no significa que sea
científicamente inválida. Aunque alcanzar un tamaño tan increíble en un espacio de tiempo
tan breve sí significa que el universo se expandió a una velocidad de magnitudes
muchísimo más elevadas que la velocidad de la luz. Los inflacionistas sostienen que esto no
viola la teoría de la relatividad. Apelando a la interpretación de Friedmann, defienden que
no fue la sustancia del universo lo que viajó más rápido que la velocidad de la luz sino el
espacio entre la sustancia, y lo que prohíbe la teoría de la relatividad es que la sustancia y la
información, que no el espacio, viajen más rápido que la luz.
Una mayoría de inflacionistas sostiene actualmente la postura de que el Big Bang
caliente se produjo después de la inflación, es decir, que lo que sufrió la inflación no fue
sustancia —materia y radiación— sino solo una burbuja de vacío que al finalizar la
inflación se convirtió en energía y materia. Sin embargo, los inflacionistas defienden
también que el espacio o vacío que se expandió posee una energía del estado fundamental,
y como que energía y masa son equivalentes, la masa-energía del espacio o vacío viajó a
una magnitud muchísimo más veloz que la luz, lo que entra en conflicto con la teoría de la
relatividad.
Cómo y cuándo se inició la supuesta inflación del universo sigue siendo una
pregunta sin respuesta. La versión que Guth planteó de entrada estaba basada en teorías de
gran unificación (TGU) de la física de partículas, y propone que la inflación se inició unos
10-35 segundos después del Big Bang. Desde entonces, los teóricos han desarrollado más
de cien versiones distintas de la inflación basadas en diversos mecanismos y que suelen
incorporar algún tipo de campo escalar al que genéricamente se refieren como campo de
inflación; entre estas teorías destacan la inflación caótica, doble, triple e hibrida, y la
inflación que utiliza la gravedad, el espín, los campos vectoriales y las branas de la teoría
de cuerdas.[43] Cada una de ellas plantea un distinto momento de inicio, un periodo
distinto de inflación exponencial más rápida que la velocidad de la luz y un momento
distinto de finalización, lo que produce una inmensa variedad de tamaños del universo.
Pero, con todo y con eso, cada versión defiende que su periodo inflacionario termina con un
universo con una densidad crítica altamente improbable en la que Omega = 1, de modo que
un universo plano experimenta una expansión estable y desacelerada.
Si el Big Bang se produjo después de que el universo experimentara una inflación,
surgen las preguntas acerca de qué había antes de la inflación y por qué, cómo y cuándo se
inició la inflación. Pero es algo que no parece preocupar a Guth: «la teoría inflacionista
permite una amplia variedad de supuestos sobre el estado del universo antes de la
inflacion»,[44] y «Independientemente de lo poco probable que sea que se iniciara la
inflación, el crecimiento exponencial externo puede fácilmente compensarlo».[45]
Respuestas tan vagas no son precisamente el sello distintivo de una teoría fiable.
Otra pregunta que suscitan estas teorías inflacionistas es la de qué es lo que conduce
a los distintos mecanismos a inflar de forma exponencial un universo primigenio súper
denso contra su inmenso campo gravitatorio, que cabría esperar que se comprimiera en un
agujero negro[46] del que nada podría escapar. Para dar una respuesta, la mayoría de
teóricos reintrodujo en sus ecuaciones la constante arbitraria Lambda que Einstein descartó
como un error. Al asignar a esta constante arbitraria un valor positivo mucho mayor del que
Einstein le otorgó, fueron capaces de proporcionar a sus campos de inflación conceptuales
una enorme energía gravitatoria negativa (o repulsiva) que hace insignificante el inmenso
campo gravitatorio normal.
Y en cuanto a lo que Lambda es en la realidad física, para diferenciarlo de la
constante matemática arbitraria que proporciona a una ecuación la solución deseada,
consideraré los distintos puntos de vista en el capítulo 4 puesto que, más de quince años
después de la presentación de la hipótesis de la inflación, los cosmólogos volvieron a
invocarla —aunque con un valor muy distinto— para explicar otra observación
astronómica que contradecía el modelo del Big Bang.
Es evidente que no todas las versiones de la inflación pueden ser acertadas, aunque
Guth comenta: «De las muchas versiones de la inflación que se han desarrollado, pueden
extraerse algunas conclusiones […]. La inflación solo exige que haya algún estado que
juegue el papel de falso vacío, y que haya algún mecanismo que produzca los bariones (por
ejemplo, los protones y neutrones) del universo una vez la inflación haya finalizado. Por lo
tanto, la inflación puede sobrevivir incluso si las teorías de gran unificación se equivocan
[la cursiva es mía]».[47] Esto no define una teoría tal y como la entiende la ciencia, sino
una colección de conjeturas tan abstracta y generalizada que carece de sentido en el mundo
físico.
Este problema de definición surge porque la cosmología ha estado liderada por
teóricos cuyo principal instrumento son las matemáticas. Los matemáticos utilizan el
término «teoría» para describir una colección de propuestas sobre un tema que son
demostrables mediante razonamiento deductivo para un conjunto de supuestos o axiomas y
que se expresan mediante símbolos y fórmulas. Una teoría matemática no tiene por qué
mantener relación con los fenómenos físicos, tal y como Einstein reconoció sin reservas:
«Los escépticos dirán: “Tal vez sea cierto que este sistema de ecuaciones es razonable
desde un punto de vista lógico. Pero ello no demuestra que tenga correspondencia en la
naturaleza”. Tiene usted razón, mi querido escéptico. Solo la experiencia puede decidir
acerca de la verdad».
Mientras que la mayoría de cosmólogos afirma que su disciplina es una ciencia,
muchos fusionan teoría matemática con teoría científica, algo que es bastante distinto. La
ciencia es una disciplina empírica, y una teoría científica es la explicación de un conjunto
de fenómenos validado por experimentos u observaciones independientes y se utiliza para
realizar predicciones o retrodicciones rigurosas sobre fenómenos.
Necesidad de evidencias que sustenten la teoría de la inflación
¿Hay alguna de las hipótesis de la inflación que realice predicciones únicas que
hayan quedado confirmadas por las evidencias? En 1997, Gurth escribió: «Es justo decir
que la inflación no está demostrada, pero creo que está avanzando rápidamente de hipótesis
de trabajo a hecho aceptado».[48] En 2004, declaró que «Las predicciones de la inflación
coinciden maravillosamente con las mediciones del fondo cósmico de microondas».[49] De
hecho, el equipo científico responsable del satélite espacial Wilkinson Microwave
Anisotropy Probe (WMAP) anunció en 2006 que las ondulaciones detectadas en el fondo
cósmico de microondas (FCM) favorecen las versiones más simples de la inflación, lo que
confirmó la inflación como un elemento esencial de la explicación que da la cosmología
ortodoxa a la aparición del universo.
Más aún, en 2014 el equipo encargado de examinar de uno a cinco grados del
firmamento (de dos a diez veces el ancho de una luna llena) desde una estación situada
cerca del polo sur, como parte del proyecto que lleva el nombre de BICEP2, anunció haber
encontrado evidencias directas de inflacion.[50]
Lo que de hecho descubrieron fue una señal de polarización de modo B en el fondo
cósmico de microondas (FCM). El equipo del BICEP2 llegó a la conclusión de que esta
señal estaba provocada por ondas gravitacionales primigenias generadas por la expansión
inflacionaria del universo. Después de la excitación inicial y de las declaraciones de
diversos premios Nobel, dos estudios independientes de los datos aportados por BICEP2
afirmaron que la señal podía ser también resultado del polvo y los campos magnéticos
galácticos de nuestra propia galaxia, la Vía Lactea.[51] Además, las señales eran mucho
más potentes de lo esperado e inconsistentes con los datos de la sonda WMAP y del
telescopio Planck.
Si las distintas versiones de la inflación consiguen realizar predicciones y si los
parámetros de sus ecuaciones de campo Estan forzados para producir resultados
consistentes con las observaciones es un tema que examinaré en el capítulo 8. Más aún, la
literatura cosmológica rara vez menciona que las ondas del FCM sean consistentes con
otras hipótesis, como la de un modelo de universo esféricamente simétrico y no
homogéneo, el modelo de universo cíclico ecpirótico, la cosmología de estado cuasi-
estacionario y el modelo de universo eterno de la cosmología del plasma.
Examinaré estas posturas y los datos de la sonda WMAP con más detalle cuando
trate sobre la cuestión de la interpretación de los datos en el capítulo 6. Baste con decir por
el momento que Peter Coles, profesor de Astronomía de la Universidad de Nottingham,
subraya las discrepancias entre los datos de la WMAP y la inflación, citando el
alineamiento inexplicable de determinados componentes de puntos calientes y fríos, que
teóricamente no deberían poseer estructura. Concluye con:
Existen escasas evidencias directas de que la inflación tuviera realmente lugar. Las
observaciones del fondo cósmico de microondas […] son consistentes con la idea de que la
inflación se produjo, pero eso no significa que realmente tuviera lugar. Lo que es más,
seguimos incluso sin saber qué habría causado de haberse producido.[52]
Lo cual es una réplica de la conclusión de Rowan-Robinson:
Se han propuestos distintas versiones sobre cómo se produjo la inflación. La
característica común esencial es el periodo de expansión exponencial en el universo
temprano, lo que resuelve los problemas del horizonte y la planicidad. Sin embargo, no
existen evidencias de que alguna de estas fases se haya producido y comprender cómo
podrían obtenerse dichas evidencias resulta tremendamente difícil.[53]
Ellis llama la atención hacia la debilidad explicativa y el escaso poder predictivo de
la teoría de la inflación.
Si la hipótesis solo soluciona los problemas concretos sobre el universo primigenio
para los que fue diseñada y nada más, la verdad es que tiene escaso poder explicativo y se
quedaría tan solo en una descripción alternativa (tal vez preferible desde un punto de vista
teórico) de la situación conocida […] el supuesto campo inflatón que sustenta una era
inflacionaria de rápida expansión en el universo primigenio no se ha identificado y ningún
experimento de laboratorio ha demostrado su existencia. Al ser φ un campo desconocido,
podemos asignarle un potencial arbitrario V(φ) […]. Se ha demostrado que podemos
obtener la evolución de escala S(t) deseada del universo si elegimos adecuadamente su
potencial; y también es posible obtener la perturbación del espectro que deseemos si
realizamos la elección (posiblemente distinta) adecuada. De hecho, en todos los casos es
posible realizar los cálculos matemáticos a la inversa, a partir del resultado deseado, para
determinar el potencial V(φ) requerido.[54]
Finalmente, para que una hipótesis se convierta en teoría científica debe ser
susceptible de ser verificada. La reivindicación principal de las diversas hipótesis de
inflación es que el universo que observamos no es más que una parte increíblemente
minúscula de la totalidad del universo. Si la información no puede viajar a velocidad
superior a la de la velocidad de la luz, no podremos comunicar con, ni obtener ninguna
información sobre, ninguna otra parte de este universo. Hasta que los proponentes de los
distintos modelos de inflación conciban un método para verificar sin ambigüedades la
existencia de algo con lo que no podemos ni comunicar ni obtener información, su principal
reivindicación no solo seguirá pendiente de verificación sino que además seguirá siendo no
verificable. En consecuencia, me referiré a ella como la conjetura de la inflación.
Como John Maddox, director editorial de Nature durante veintitrés años, dijo: «Un
hecho revelador sobre los hábitos de la comunidad científica es que no haya vertido con la
generosidad acostumbrada su perpetuo y sano escepticismo sobre esta atrevida e ingeniosa
teoría».[55]
Conclusiones
No solo no podemos ver aquello de lo que está hecha la mayor parte del universo,
sino que además ni siquiera estamos hechos de lo que la mayor parte del universo está
hecha.
Según el modelo del Big Bang, si echáramos hacia atrás el reloj de la expansión del
universo se produciría una singularidad. Los físicos teóricos desarrollaron el concepto de
singularidad cuando estudiaron los agujeros negros. Podría definirse como sigue:
Singularidad: región hipotética en el espacio-tiempo donde la fuerza de la
gravedad hace que una masa finita quede comprimida en un volumen infinitamente
pequeño, y por lo tanto tenga una densidad infinita, y donde el espacio-tiempo queda
infinitamente distorsionado.
En 1970, Stephen Hawking y Roger Penrose publicaron una prueba matemática de
que el universo empezó a existir a partir de una singularidad, el Big Bang, siempre y
cuando la teoría general de la relatividad fuera correcta y el universo contuviera toda la
materia que observamos. Y esto se convirtió en la teoría ortodoxa.
Hawking, sin embargo, ha cambiado de idea desde entonces y sostiene que la
singularidad desaparece en cuanto tenemos en cuenta los efectos cuánticos (véase el
universo sin límites de Hartle-Hawking en el próximo capítulo).
Nos preguntamos, por lo tanto, ¿hubo una singularidad en el Big Bang y, de haberla
habido, qué sabemos sobre el universo en aquel momento? La teoría ortodoxa se muestra
ambigua respecto a la primera parte de la pregunta. Y respecto a la segunda parte, si hubo
una singularidad en el Big Bang, no nos dice nada porque, como se ha comentado en el
capítulo anterior,[1] la teoría de la relatividad y la teoría cuántica que la sustentan se
desmoronan. Por mucho que un periodo de 10-43 segundos pueda parecer un periodo de
tiempo absurdamente pequeño en el que no es posible concretar nada, diversos modelos de
inflación especulan que en o durante ese periodo de tiempo, antes o después del Big Bang,
se produjeron sucesos tremendamente importantes.
Proporción observada de materia respecto a radiación
La teoría ortodoxa sobre el origen de la materia invoca la teoría estándar de física de
partículas para explicar la creación de la materia a partir de la energía que liberó la
explosión del Big Bang.
Según la teoría estándar, una partícula elemental de materia se materializa
espontáneamente a partir de un campo de energía junto con una partícula de antimateria
simétricamente opuesta a ella, que posee la misma masa y espín pero carga eléctrica
opuesta. Así pues, un electrón (con carga negativa) aparece con un positrón (carga
positiva), y un protón (carga positiva) lo hace con un antiprotón (carga negativa). En
condiciones de laboratorio, estas partículas y antipartículas pueden separarse y
«embotellarse» mediante campos electromagnéticos. Sin embargo, sin campos aplicados
externamente, la vida de estas partículas y antipartículas elementales es ínfima,
normalmente de 10-21 segundos, después de lo cual se aniquilan mutuamente en una
explosión de energía, un proceso contrario al que las crea.
De ahí que el modelo del Big Bang inflacionario tuviera que explicar lo siguiente:
(a) puesto que en la densidad extremadamente elevada que siguió al Big Bang todas las
parejas partícula-antipartícula se vieron presionadas entre ellas, ¿por qué esas partículas y
antipartículas no se aniquilaron mutuamente?; y (b) ya que sabemos que en el universo
existe una cantidad enorme de materia, ¿dónde está la cantidad correspondiente de
antimateria?
Las especulaciones sobre las anti-galaxias dieron paso a estimaciones
observacionales de la proporción entre fotones y protones del universo, que se sitúa
aproximadamente en dos miles de millones contra uno. Con ello, los teóricos llegaron a la
conclusión de que para cada mil millones de antipartículas (antiprotones y positrones) que
se materializaron a partir de la liberación de energía del Big Bang, debieron de
materializarse mil millones más una partículas correspondientes (protones y electrones).
Los mil millones de partículas y antipartículas se aniquilaron entre ellas en una explosión
de energía y produjeron dos mil millones de fotones, que son cuantos de energía
electromagnética. Según el modelo del Big Bang, es esta energía, ahora expandida y
enfriada, lo que forma la radiación de fondo cósmico de microondas que vemos hoy en día.
Los mil millones más uno protones y electrones que quedaron huérfanos sobrevivieron y se
combinaron para crear toda la materia del universo: todos los planetas, sistemas solares,
galaxias y cúmulos de galaxias.
Sin embargo, esto entraba en conflicto con la teoría estándar de la física de
partículas que decía que, según la ley de la simetría, solo pueden materializarse parejas de
partículas y antipartículas.
Este conflicto siguió siendo un problema para los físicos teóricos hasta mediados de
los años setenta del siglo pasado, cuando conjeturaron que, bajo las condiciones de
temperaturas extremadamente elevadas del Big Bang, las tres fuerzas fundamentales de la
naturaleza —electromagnética, nuclear débil y nuclear fuerte[2]— son simplemente tres
aspectos distintos de la misma fuerza. Los teóricos concibieron asimismo distintos modelos
matemáticos, que denominaron teorías de gran unificación (TGU), aunque los datos
experimentales han refutado la TGU original y hasta el momento no han conseguido validar
ninguna de las otras. Estas conjeturas permiten que todo tipo de partículas elementales
interactúen, y transmuten, con todas las demás partículas. Como consecuencia de ello, los
físicos teóricos consideraron que no era necesario conservar la simetría entre materia y
antimateria. Ajustaron el modelo estándar para que diera cabida a la asimetría. Este ajuste
no predice la cantidad de asimetría pero, como la carga de un electrón, requiere medidas
obtenidas a partir de la observación que se incorporan luego al modelo para que el mismo
sea consistente con la observación.
A pesar de las esperanzas albergadas en los años setenta, no fue posible detectar y
calibrar en laboratorio la asimetría materia-antimateria hasta 2001, momento en el cual se
produjeron mesones B y anti mesones B y se logró que sobrevivieran 10-12 segundos. Sin
embargo, la asimetría observada no resultó ser lo bastante grande como para explicar la
proporción estimada entre energía y materia en el universo.[3]
De ahí que la actual teoría ortodoxa de la ciencia sobre el origen de la materia
necesite ofrecer una respuesta convincente a la pregunta de cómo se formó la materia a
partir de la energía liberada por el Big Bang para producir la proporción entre materia y
energía que observamos actualmente en el universo.
Materia oscura y Omega
Y por si todo esto no fuera bastante malo para el modelo ortodoxo, en 1998 los
astrónomos anunciaron un descubrimiento de importancia mayor si cabe.
Gracias al desarrollo de la tecnología y de la teoría astrofísica, dos equipos
internacionales de astrónomos fueron capaces de recopilar datos de supernovas Tipo 1a con
gran desplazamiento al rojo; consideraron que estas explosiones violentas de estrellas
enanas blancas producían luminosidades estándar. Según la cosmología ortodoxa, el grado
de desplazamiento al rojo indicaba que eran estrellas lejanas, y por lo tanto jóvenes, que
habrían explotado cuando el universo tenía entre nueve y diez miles de millones de años.
Sin embargo, eran más tenues de lo esperado. Los cosmólogos llegaron a la conclusión de
que debían de estar situadas más lejos de lo predicho por el modelo de geometría plana de
Friedmann-Lemaître, que defiende que el ritmo de expansión del universo está
ralentizándose. De ahí que decidieran que alguna cosa tenía que haber provocado la
aceleración de la expansión del universo. Y a ese ingrediente desconocido le pusieron el
nombre de «energía oscura».[5]
Basándose en los supuestos de la teoría ortodoxa y en su interpretación de los datos
astronómicos, los científicos que dirigen la Wilkinson Microwave Anisotropy Probe
anunciaron en 2003 que el universo está integrado por un 4 por ciento de materia conocida,
un 23 por ciento de materia oscura de tipo desconocido y un 73 por ciento de esta
misteriosa energía oscura.[6] Es decir, que la materia oscura desconocida que deja reducida
a nada la materia que conocemos queda a su vez reducida a nada por una energía oscura
desconocida que es responsable de más de dos terceras partes del universo. Tal vez la cita
de Bernard Sadoulet que encabeza el capítulo debería decir: «No solo no estamos hechos de
aquello de lo que está hecho la mayor parte del universo, sino que además ni siquiera
sabemos de qué está hecha la mayor parte del universo».
La figura 4.1 describe esta versión ortodoxa revisada de la historia del universo.
Los científicos empezaron de inmediato a tratar de identificar la energía oscura. Los
cosmólogos teóricos pensaron que podía ser la responsable de aquel incremento
relativamente reciente de la expansión del universo si reintroducían Lambda en las
ecuaciones de campo de Einstein.
Como vimos en el capítulo 3, Einstein había descartado esta constante cosmológica,
describiéndola como su mayor error. No aparece en las ecuaciones de Friedmann utilizadas
en el modelo básico del Big Bang, pero la mayoría de modelos de inflación la
reintrodujeron, aunque con un valor muy superior al que le había otorgado Einstein y solo
durante un periodo de tiempo increíblemente breve, para justificar una inflación del
universo primigenio y así conseguir la densidad de masa crítica con Omega = 1 para una
expansión con desaceleración estable. (Al tratarse de una constante arbitraria, los
cosmólogos pueden otorgarle cualquier valor, positivo, negativo o cero.)
Los teóricos actuales han vuelto a introducir la constante cosmológica —aunque
con un valor distinto al que le otorgaron Einstein o los inflacionistas— para intentar
justificar la aceleración implícita, muy inferior a la aceleración inflacionista. No carece de
razón el cosmólogo de la Universidad de Chicago, Rocky Kolbe, cuando se refiere a ella
como la «constante cosmo-ilógica».
Pero si pretende ser algo más que una constante matemática que los teóricos pueden
insertar de manera arbitraria en sus ecuaciones y cuyo valor pueden manipular hasta que las
soluciones cuadren con la observación, deberá significar alguna cosa en el mundo real. Los
físicos de partículas pensaron que representaba la energía del punto cero, o energía del
estado fundamental de la mecánica cuántica, del universo: es decir, la energía más baja
posible del universo, que es la energía asociada al vacío del espacio. Pero cuando
calcularon su valor de esta manera, resultó que tenía una magnitud ciento veinte veces
superior a la observada por los astrónomos.4
El físico teórico Martin Kunz y sus colegas pusieron palos en la rueda de la
constante Lambda señalando que, en primer lugar, los datos astronómicos presentan una
gran dispersión y, en segundo lugar, la interpretación de los datos es implícitamente
sensible a los supuestos sobre la naturaleza de la energía oscura. Sugirieron que
comparando datos en una amplia variedad de fenómenos astrofísicos sería posible descartar
una constante cosmológica como el origen de la energía oscura.[7]
Otro físico de partículas, Syksy Rasanen, del CERN, lanzó un palo más a la rueda al
proponer que la expansión acelerada del universo está provocada no por una energía oscura
misteriosa sino, paradójicamente, por una disminución cada vez mayor del ritmo de
expansión de esas pequeñas regiones de espacio dominadas por la materia. Como que la
atracción gravitatoria de estas regiones las lleva a absorber más materia, se condensan y
representan un porcentaje cada vez más pequeño —y menos importante— del volumen del
universo. La expansión de los vacíos sigue avanzando de manera desenfrenada y, por
consiguiente, ocupan un porcentaje cada vez mayor del volumen del universo. La
consecuencia general de todo ello, sugiere Rasanen, es que el ritmo medio de expansión del
universo aumenta sin necesidad de energía oscura.[8]
En 2011, la física teórica Ruth Durrer, de la Universidad de Ginebra, destacó que
todas las evidencias aportadas hasta la fecha para corroborar la existencia de la energía
oscura dependen de distancias calculadas de desplazamiento al rojo que son mayores de lo
que cabría esperar según el modelo ortodoxo.[9] Richard Lieu, profesor de Astrofísica de la
Universidad de Alabama, va más allá y argumenta que gran parte del modelo ortodoxo, que
ahora incluye materia oscura y energía oscura, «está sustentado por una cantidad
impresionante de propaganda que reprime las evidencias que apuntan en direcciones
opuestas y los modelos alternativos». Apunta que dos modelos alternativos, uno que
elimina la materia oscura y otro que elimina tanto la materia oscura como la energía oscura,
no presentan resultados peores en cuanto a corresponderse o no con las evidencias, y
concluye diciendo que cuánto más fracase el ámbito ortodoxo —que es el que domina las
entidades de financiación— en su empeño de encontrar estos ingredientes oscuros
desconocidos, más se invertirá el dinero de los contribuyentes en intentar encontrarlos,
hasta el punto de ahogar por completo cualquier enfoque alternativo.[10]
Ellis sostiene también que hay explicaciones alternativas a los datos astronómicos
que poseemos que son perfectamente posibles. Podrían encajar con un modelo de universo
esféricamente simétrico y no homogéneo, o podrían deberse en parte a la retro-reacción de
heterogeneidades sobre la expansión cósmica, o al efecto de heterogeneidades sobre el área
distancia efectiva.[11]
El cosmólogo Lawrence Krauss concluye diciendo que «la naturaleza de la “energía
oscura” que está provocando la aparentemente acelerada expansión del universo es, sin
lugar a dudas, el mayor misterio de la física y la astronomía».[12]
Por lo tanto, si la teoría ortodoxa de la ciencia sobre el origen de la materia pretende
ser convincente, deberá responder a lo siguiente: (a) si la expansión del universo se está
acelerando o no; (b) en caso afirmativo, cuándo se produjo el cambio de expansión
desacelerada a expansión acelerada; y (c) que causa verificable está produciendo esta
aceleración.
El ajuste de precisión de los parámetros cosmológicos
La hipótesis de que el Big Bang surgió del colapso de un universo anterior fue
sugerida por Richard Tolman, del Instituto Tecnológico de California, en un momento tan
temprano como 1934. Se basó en otra solución a las ecuaciones de la relatividad general de
Einstein para el universo, que también asumió que era isotrópico y omnicéntrico, pero
cerrado en lugar de plano. Su solución muestra un universo oscilante, que se expande, se
contrae en un Big Crunch y luego vuelve a expandirse, proceso que se repite ad infinitum.
Cuando Tolman aplicó al modelo la segunda ley de la termodinámica, descubrió que cada
ciclo del universo oscilante era mayor y duraba más tiempo que el anterior.[11]
La hipótesis cayó en desgracia por varias razones, sobre todo cuando los
cosmólogos llegaron a la conclusión de que las evidencias obtenidas mediante la
observación apoyaban el modelo del universo plano. Pero, como hemos visto, el modelo del
universo plano se topó con conflictos tan importantes al ser contrastado con las evidencias
obtenidas mediante la observación, que hubo que incorporar la conjetura de la inflación
además de cantidades inmensas de materia oscura desconocida y de energía oscura
desconocida.
La hipótesis de Tolman parece evitar el problema de la singularidad. Sin embargo, si
cada ciclo del universo oscilante es mayor y más prolongado, cada ciclo precedente será
menor y habrá durado menos tiempo. Si movemos el reloj hacia atrás, llegará un punto en
el tiempo cero en el que el ciclo se aproximará a una insignificancia infinita y a una
densidad infinita, es decir, las condiciones que se conjeturan para la singularidad del Big
Bang. De ahí que el modelo no sea verdaderamente eterno y no evite el problema básico del
origen: cómo y por qué se origina una singularidad infinitamente pequeña y densa.
Además, nadie ha concebido hasta la fecha ningún medio que sirva para observar o
demostrar la existencia física de un universo previo del supuesto ciclo. Hasta que no se
consiga, esta conjetura deberá mantenerse también fuera del terreno de la ciencia, tal y
como la entendemos hoy en día.
La selección natural de universos
Lee Smolin es un teórico que no solo está preparado para pensar más allá de las
cuatro paredes de la ortodoxia, sino que además cree que es necesario para que la física
progrese. Su conjetura de una evolución de universos mediante selección natural ha sido
tomada muy en serio por diversos sectores de la comunidad científica, razón por la cual
merece la pena examinarla con cierto nivel de detalle.
En 1974, John Wheeler especuló que el colapso del universo en un Big Crunch
podría conducir a un Big Bounce, o «gran rebote», en el que el universo se reprocesara para
producir un nuevo universo donde las leyes de la física serían las mismas pero los
parámetros físicos, como el de la masa de un protón o la carga de un electrón, que las leyes
no predicen, serían distintos.
Como vimos en el último capítulo cuando hablamos sobre el ajuste de precisión de
los parámetros cosmológicos, cambios muy pequeños pueden producir universos muy
distintos. Por ejemplo, si el único cambio fuera que los protones son un 0,2 por ciento más
pesados, no se formarían átomos estables y el universo se mantendría en estado plasma; en
consecuencia, nunca podría haber evolucionado la materia compleja, como la del ser
humano.
Llevando este concepto un paso más allá, Smolin lanza la conjetura de que no es
solo el colapso de un universo en un Big Crunch lo que produce otro universo con
parámetros distintos a través de un Big Bounce, sino que además el colapso de una estrella
en un agujero negro produce otro universo con parámetros distintos al otro lado del agujero
negro. Generaciones de universos producidos de esta manera con parámetros aleatorios a
partir de un universo progenitor llevaría, mediante un proceso de selección natural similar
al de la biología,[12] a universos más adaptados para sobrevivir y capaces de permitir la
evolución de vida inteligente.[13]
Esta especulación se sustenta sobre ocho parámetros:
1. Los efectos cuánticos impiden la formación de una singularidad en la que el
tiempo se ponga en marcha o se detenga cuando un universo colapse en un Big Crunch o
una estrella colapse en un agujero negro, de tal modo que el tiempo continúa en una nueva
región de espacio-tiempo conectada al universo padre solo en su primer momento.
2. Esta nueva región de espacio-tiempo donde el tiempo continúa después del
colapso de una estrella en un agujero negro es inevitablemente inaccesible para nosotros
pero «podría ser tan grande y tan variado como el universo que podemos ver».
3. Debido a que nuestro universo visible contiene un número enorme de agujeros
negros, «debe de haber un número enorme de otros universos […], como mínimo tantos
como agujeros negros hay en nuestro universo […] [además] si hay muchos más que esos,
¿por qué, entonces, cada uno de estos universos no podría tener también estrellas que
colapsan en agujeros negros y engendran otros universos?».
4. Los parámetros del primer universo son tales que produce como mínimo una
descendencia de un universo.
5. Cada descendiente sucesivo produce al menos un vástago.
6. Los parámetros del nuevo universo formado por el colapso de un universo o de
una estrella son ligeramente distintos a los de su padre.
7. En el proceso aplican las reglas de la selección natural: el efecto acumulativo de
pequeñas mutaciones aleatorias en los parámetros de los universos hijos acaba generando
universos cuyos parámetros están mejor adaptados para producir muchos agujeros negros
—y de ahí, muchos vástagos— hasta acabar en universos como el nuestro, que crea
alrededor de 1018 agujeros negros.
8. Los parámetros de universos como el nuestro, con cantidades tan grandes de
agujeros negros, están ajustados para la evolución de vida inteligente.
Estos supuestos no son ni mucho menos evidentes.
Smolin comparte el supuesto (1) con muchos otros teóricos, pero reconoce que si
esto corresponde o no a la realidad depende de los detalles de la teoría de la gravedad
cuántica, que no está completa.
El supuesto (2) parece poco razonable. Si la teoría actual de los agujeros negros es
correcta, los agujeros negros pueden tener una densidad enorme, si no infinita, pero poseen
una masa limitada. Por ejemplo, un agujero negro podría estar formado por el colapso
gravitacional de una estrella con una masa tres veces superior a la de nuestro sol. Se estima
que la masa de la materia luminosa y de la hipotética masa oscura del universo es
aproximadamente la de diez mil millones de millones de soles. Incluso sin tener en cuenta
la energía necesaria para impulsar la expansión del nuevo universo, suponer que una masa
de, por ejemplo, cinco soles, colapsa en un agujero negro y explota hacia el otro lado como
una masa de diez mil millones de millones de soles, parece ilógico. Probablemente, Smolin,
al igual que Guth y otros teóricos,[14] está siguiendo las ideas de Tolman, pero se muestra
menos ambicioso y crea un nuevo universo a partir de cinco masas solares en vez de
hacerlo a partir de la nada.
En el supuesto (4), Smolin admite que si los parámetros del primer universo fueran
aleatorios es «más probable» (abrumadoramente probable, creo que sería más adecuado)
que en cuestión de microsegundos este primer universo se inflara hacia el vacío o
colapsara. Es decir, que el proceso evolutivo no empezara nunca. Para evitar esto, Smolin
asume que los parámetros del primer universo, y de los universos posteriores, están
afinados con precisión para que los universos puedan experimentar al menos un rebote. Sin
embargo, la única justificación que ofrece para sustentar este supuesto es que es necesario
para que su especulación funcione. Y además, la especulación no explica cómo se originó
este universo progenitor. Lo cual le impide reivindicar un poder explicativo superior al que
pueda tener el modelo ortodoxo del Big Bang inflacionario.
El supuesto (8) implica que la física que maximiza la producción de agujeros negros
es la física que permite la evolución de la vida, pero Smolin no ofrece ninguna base que
sustente este supuesto.
Por lo que a su base empírica se refiere, esta especulación plantea la existencia de
un número enorme de universos que o han desaparecido o, en el caso de existir todavía, nos
resulta imposible comunicarnos con ellos. Smolin, de todos modos, sostiene que su
conjetura es verificable argumentando que predice los parámetros de la ley de la física de
las partículas elementales que se acercan a un valor que maximiza el número de agujeros
negros de nuestro universo. Se trata de un argumento circular. La especulación no puede
verificarse con ningún método o medio conocido y de ahí que sea más una conjetura
filosófica que ciencia.
La gravedad cuántica de bucles
Igual que sucede con la conjetura de Smolin, la mayoría de las hipótesis alternativas
al modelo del Big Bang gestiona el problema de la singularidad especulando que, si
echáramos hacia atrás la expansión, los efectos cuánticos impedirían la formación de una
singularidad en la que el tiempo empieza o se detiene. Intentan unificar la teoría cuántica y
la teoría de la relatividad y proponen un universo que colapsa al otro lado del Big Bang al
cual está conectado nuestro universo a través de un túnel cuántico. De ser así, echarían por
tierra la reivindicación principal del modelo del Big Bang, a saber, que el espacio y el
tiempo surgieron en el Big Bang a partir de la nada.
Un problema importante, que tanto Smolin como otros cosmólogos reconocen, es
que todavía no disponemos de una teoría adecuada de la gravedad cuántica.
Gravedad cuántica: la esperada teoría de la gravedad cuántica que permitiría que
la energía gravitatoria se unificara con otras formas de energía en único marco teórico
cuántico.
Teoría cuántica: la teoría de que la energía es emitida y absorbida por la materia en
cantidades minúsculas y discretas, cada una de las cuales se conoce como un cuanto que
está relacionado con la frecuencia de radiación de la energía y, por consiguiente, posee
propiedades tanto de las partículas como de las ondas. Dio lugar a la mecánica cuántica. El
término se utiliza ahora en general para hacer referencia a todos los desarrollos teóricos
subsecuentes.
Abhay Ashtekar, sin embargo, declara con osadía que él y sus colegas del Penn
State Institute of Gravitational Physics and Geometry han sido los primeros en ofrecer una
descripción matemática robusta que establece sistemáticamente la existencia de un universo
colapsado previo y deduce propiedades de geometría espacio-tiempo en dicho universo.
Ashtekar y su equipo utilizan un enfoque denominado gravedad cuántica de bucles en el
afirman demostrar que en vez del clásico Big Bang, lo que se produce es un rebote
cuántico, al otro lado del cual hay un universo clásico como el nuestro.
Ashtekar reconoce una limitación en su modelo, a saber, los supuestos de que el
universo es homogéneo e isotrópico. «Es una aproximación que se hace en cosmología,
aunque sabemos que el universo no es exactamente así. Así que la pregunta es cómo
conseguir que el modelo sea cada vez más realista. Y eso es precisamente en lo que estamos
trabajando».[15]
El jurado está evaluando el modelo matemático, pero aun en el caso de que el
veredicto emitido fuera «queda demostrado», la ciencia exigiría evidencias físicas que
sustentaran cualquier prueba matemática, y nadie ha sugerido todavía cómo dichas
evidencias podrían obtenerse.
La cosmología de estado cuasi-estacionario
Eric Lerner, físico del plasma, publicó en 1991 un libro titulado The Big Bang
Never Happened, en el que recopilaba evidencias obtenidas a partir de la observación que
contradicen el modelo ortodoxo de la cosmología. Sostiene que ese modelo es un mito
renovado de un universo creado a partir de la nada que viola una de las leyes de la física
más comprobadas, el principio de conservación de la energía. Y que además, con el fin de
reconciliar el modelo matemático con la observación, exige la presencia de tres importantes
conjeturas —un campo de inflación, materia oscura y energía oscura— que carecen de base
empírica.
Basándose en el trabajo de Hannes Alfven, físico del plasma y laureado con un
premio Nobel, Lerner propone una cosmología que, según él, representa observaciones
astronómicas realizadas a partir de la física del plasma y la gravedad, ambas empíricamente
demostradas. Asume para el universo, igual que los defensores del modelo ortodoxo, una
geometría euclidiana, o plana, que ya conocemos (véase figura 3.2), pero propone que no
tiene ni principio ni fin y que tampoco se expande.
Según Lerner, dentro de este universo sin expansión, la teoría de la filamentación
del plasma predice la creación de estrellas de masa intermedia durante la formación de
galaxias así como la observada abundancia de los elementos ligeros. Las estructuras a gran
escala —como las galaxias, los cúmulos y los supercúmulos—, se forman a partir de
vórtices de filamentos comprimidos magnéticamente y ya que la conjetura propone que el
universo no tuvo un principio, el tiempo que necesitan las estructuras a gran escala
observadas para evolucionar a partir del desordenado plasma inicial, no tiene límite.
La radiación emitida por las primeras generaciones de estrellas proporciona la
energía necesaria para la aparición de eventos de creación de materia. La densa maraña de
filamentos de plasma comprimidos magnéticamente que impregna el medio intergaláctico
termaliza e isotropiza esta energía. Lo cual cuadra adecuadamente con el espectro del fondo
cósmico de microondas y predice la absorción observada de ondas de radio. Además, el
ajuste con la anisotropía del fondo cósmico de microondas, que contradice la cosmología
ortodoxa, queda explicado porque la densidad de los filamentos absorbentes es superior
localmente a lo largo del eje del supercúmulo local e inferior en los ángulos rectos con
respecto a este eje.[21]
Sospecho que muchos cosmólogos ortodoxos califican a Lerner de científico poco
serio porque no es un académico. Es presidente de Lawrenceville Plasma Physics Inc.
(compañía dedicada a la investigación de la energía de fusión), miembro del Institute of
Electrical and Electronic Engineers, de la American Physical Society y de la American
Astronomical Society, y ha publicado más de seiscientos artículos. Las evidencias que cita
incluyen muchos artículos de astrónomos del ámbito académico y en 2014 publicó un
artículo en coautoría con dos de estos astrónomos donde se compara el tamaño y la
luminosidad de alrededor de un millar de galaxias cercanas y extremadamente remotas.[22]
Afirma que los resultados contradicen la luminosidad de superficie predicha por un
universo en expansión y que son consistentes con un universo que no se expande.
Lo que podría denominarse modelo de universo estático evolutivo de la cosmología
de plasma propone un universo eterno y, a diferencia de la cosmología de estado cuasi-
estacionario, no requiere la creación de materia a partir de la nada. Explica la evolución
observada del universo como una interacción de fuerzas físicas conocidas:
electromagnetismo, gravedad y reacciones nucleares dentro de las estrellas y en rayos
cósmicos. Sin embargo, en su desarrollo hasta el momento, no explica qué fue lo que
provocó la existencia del plasma desordenado inicial de este universo eterno y qué fue lo
que provocó la existencia de estas fuerzas físicas conocidas y las llevó a interactuar para
que produjeran estados de materia más ordenados y complejos.
La quintaesencia
A partir de la teoría de cuerdas surge otra conjetura. Leonard Susskind afirma que
no hay razón para limitar la vibración de las cuerdas de energía fundamental para que
produzcan solo aquellas partículas y fuerzas que nosotros observamos. En una miríada de
universos distintos, las cuerdas vibran de formas distintas para producir una miríada de
partículas y fuerzas distintas y, en consecuencia, una miríada de leyes físicas distintas y
constantes cosmológicas distintas, etc. Susskind lo denomina el «paisaje de posibilidades»
de la teoría de cuerdas.[39][40]
Esto respondería al problema de afinación de los parámetros cosmológicos: ¿por
qué nuestro universo emergió tal y como es cuando podría haber sido de otra manera? El
paisaje de posibilidades de la teoría de cuerdas significa que nuestro universo no tiene nada
de especial. Es simplemente un universo donde las cuerdas vibran de tal manera que
generan las leyes de la física y las partículas que observamos; en una miríada de universos
más, son distintas.
Problemas de la teoría de cuerdas
Como hemos visto, la palabra «universo» se aplica hoy en día a cosas muy distintas.
Para evitar malentendidos, definiré el concepto tanto de este término como de términos
relacionados.
Universo: toda la materia y energía que existe en la única dimensión de tiempo y
las tres dimensiones de espacio que perciben nuestros sentidos.
Universo observable: la parte del universo que contiene materia capaz de ser
detectada mediante la observación astronómica. Según la cosmología ortodoxa actual,
queda circunscrito por la velocidad de la luz y por el tiempo, puesto que la materia y la
radiación se escindieron unos 380.000 años después de que el universo empezara a existir a
partir del Big Bang.
Megaverso: un hipotético universo con más dimensiones en el que estaría
incrustado nuestro universo de tres dimensiones espaciales. Algunas especulaciones
defienden que el cosmos comprende muchos megaversos.
Cosmos: todo lo que existe, incluyendo varias dimensiones hipotéticas adicionales
a las tres dimensiones de espacio y una de tiempo que percibimos, así como otros universos
con los que no tenemos contacto físico y de los que no podemos obtener información
observable o experimental.
Multiverso: un cosmos hipotético que contiene nuestro universo más múltiples, e
incluso infinitos, universos con los que no tenemos contacto físico y de los que no podemos
obtener información observable o experimental. Se han propuesto distintos tipos de
multiverso, cada uno con distintas propiedades.
Conclusiones
Ninguna modificación del modelo del Big Bang inflacionario ni ninguna otra
conjetura proporcionan hoy en día una explicación científica satisfactoria, excepto
matemática, al origen de la materia de la que estamos formados ni a por qué el universo
adoptó la forma, y no otra, que permitió la evolución del ser humano.
Tiene que haber una explicación —y es posible que alguna de estas conjeturas acabe
proporcionándola—, pero la cosmología actual tiene problemas para superar los test que
diferencian la ciencia de la creencia con carácter especulativo. Consideraré este tema en el
siguiente capítulo.
[1]Hawking (1988), pp. 132–141.
[2]Véase página 85.
[3]Penrose (2004), pp. 769–772.
[4]Linde (2001).
[5]Véase página 113.
[6]Citado en Science & Technology News, 1 de mayo de2004, p. 3.
[7]Guth (1997), pp. 250–252.
[8]Linde (2001).
[9]Borde, Arvind y Alexander Vilenkin, «Eternal Inflation and the Initial
Singularity», Physical Review Letters 72: 21, 1994, pp. 3305–3308.
[10]Magueijo (2003).
[11]Barrow, John D., «Einstein and the Universe», Conferencia ofrecida en
Gresham College, Londres, 18 de octubre de 2005.
[12]El efecto acumulativo de pequeños cambios genéticos que se producen en
generaciones sucesivas de los miembros de una especie que conduce al dominio de aquellos
miembros cuyas mutaciones los hacen más adaptados para competir y sobrevivir; las
mutaciones acaban produciendo una nueva especie cuyos miembros no se reproducen con
los de la especie original.
[13]Smolin (1998), pp. 112–132.
[14]Véase página 95 para el argumento de Guth sobre la energía neta cero del
universo.
[15]Ashtekar, Abhay, et al., «Quantum Nature of the Big Bang: An Analytical and
Numerical Investigation», Physical Review D (Particles, Fields, Gravitation, and
Cosmology), 73: 12, 2006, 124038.
[16] Véase Masa de Planck en el glosario para una explicación más completa.
[17]Narlikar y Burbidge (2008), capítulo 15.
[18]Véase página 75.
[19] Véase página 146.
[20]Ned Wright, tutorial sobre Cosmología, 2004,
http://www.astro.ucla.edu/~wright/stdystat.htm.
[21]Lerner (1992), actualizado en
http://www.bigbangneverhappened.org/index.htm.
[22]Scarpa, Riccardo, et al., «UV Surface Brightness of Galaxies from the Local
Universe to Z ~ 5», International Journal of Modern Physics, D 23: 6, 2014,1450058.
[23] Partículas subatómicas pesadas, como los protones y los neutrones.
[24] Partículas elementales ligeras o prácticamente carentes de masa que no
interactúan a través de la fuerza nuclear fuerte, como los electrones.
[25] Cuantos de energía electromagnética carentes de masa.
[26] La forma o formas desconocidas de materia no radiante invocadas para que la
teoría sea consistente con la observación.
[27]Steinhardt, comunicación personal, 24 de junio de 2007.
[28] Steinhardt lo denomina universo cíclico, pero yo utilizo el término universo
ecpirótico cíclico para diferenciarlo de otros modelos cíclicos, como el universo oscilante
cíclico de Tolman y los ciclos de la cosmología de estado cuasi-estacionario.
[29]Steinhardt, Paul J. y Neil Turok, «The Cyclic Model Simplified», Departamento
de Física, Princeton University, 2004. http://www.phy.princeton.edu/~steinh/dm2004.pdf.
Consultado el 11 de marzo de 2007.
[30] Véase página 68.
[31]Leake, Jonathan, «Exploding the Big Bang», The Sunday Times, Londres, 20 de
Agosto de 2006, p. 14.
[32]Steinhardt, comunicación personal, 9 de marzo de 2007.
[33] Véase página 95.
[34]Steinhardt y Turok (2004), (2007).
[35]Steinhardt, comunicación personal, 12 de marzo de 2007.
[36]Ibid.
[37]Steinhardt, comunicación personal, 30 de abril y 7 de mayo de 2007.
[38]Steinhardt, comunicación personal, 20 de agosto de 2014.
[39]Susskind (2005).
[40] Susskind lo denominó «megaverso», pero como he utilizado este término para
describir el universo de diez dimensiones espaciales de la teoría de las súper-cuerdas,
etiquetaré la versión de Susskind como una especulación sobre el cosmos, pues invoca una
miríada de megaversos.
[41]Smolin (2007), p. 105.
[42] Una partícula punto se considera una brana de cero dimensiones, una cuerda
como una brana de una dimensión, una membrana es una brana bidimensional, y así
sucesivamente.
[43]Magueijo (2003), p. 239.
[44]Gross, David «Viewpoints on String Theory», WGBH, 2003,
http://www.pbs.org/wgbh/nova/elegant/view-gross.html. Consultado el 15 de Agosto de
2006.
[45]Véase página 90.
[46]Citado en Smolin (2007), p. 154.
[47]Citado en ibíd., p. 197.
[48]Friedan, D., «A Tentative Theory of Large Distance Physics», Journal of High
Energy Physics, 2003, 10, pp. 1–98.
[49]Smolin (2007), p. 198.
[50]Woit (2006)
[51]Las dudas de la física en el siglo xxi: ¿es la teoría de cuerdas un callejón sin
salida?, Crítica, Barcelona, 2007.
[52]Smolin (2007), p. 176.
CAPÍTULO 6. LOS PROBLEMAS DE LA COSMOLOGÍA COMO MEDIO
EXPLICATIVO
Para que una explicación sea científica, debe ser verificable. Y de un modo más
concreto, los criterios científicos generalmente aceptados decretan que la validez de la
explicación de una cosa depende de nuestra capacidad de detectar y compilar, y a ser
posible medir, datos al respecto de dicha cosa, interpretar correctamente esos datos y
extraer una conclusión provisional, o hipótesis, a partir de los datos a modo de base a partir
de la cual realizar predicciones o retrodicciones que puedan ser verificadas mediante
observación o experimentación y que verificadores independientes puedan confirmar o
rechazar.
La cosmología es distinta de otras ramas de la ciencia, como la química o la
biología, en tres aspectos: solo tenemos un universo; formamos parte de él; y es
incomparablemente grande. No podemos experimentar con él cambiando su temperatura, su
presión o sus condiciones iniciales, por ejemplo, ni tampoco podemos compararlo con otros
universos porque, por definición, el universo es todo lo que nuestros sentidos pueden
percibir; no podemos observarlo desde el exterior; y su tamaño presenta retos colosales.
Estos factores juegan un papel muy importante en cuatro problemas interrelacionados a los
que se enfrenta la cosmología en su intento de explicar el origen y la evolución de la
materia: dificultades prácticas, interpretación de los datos, teoría inadecuada y limitaciones
intrínsecas.
Dificultades prácticas
Si la teoría de la relatividad es válida, no existe nada capaz de viajar más rápido que
la velocidad de la luz. Y esto crea el horizonte de partículas.
Horizonte de partículas: es imposible estar causalmente influidos, obtener
información e interactuar con toda partícula, independientemente de que tenga masa
positiva o masa cero, que esté más alejada de nosotros que la distancia que pueda recorrerse
a la velocidad de la luz desde que empezó el tiempo.
Si el relato de la cosmología ortodoxa actual es válido, nos enfrentamos a un
segundo límite de detección.
Horizonte visual: según el modelo del Big Bang, solo podemos retroceder hasta el
momento de la escisión entre materia y radiación electromagnética (estimado actualmente
380.000 años después del Big Bang) porque antes de eso los fotones estaban dispersos por
la interacción continua del plasma inicial, lo que hacía que el universo fuera opaco.
Lo que significa que no podemos detectar radiación electromagnética de épocas
anteriores.
Problemas de medición
Antes de que, en 1610, Galileo utilizara un telescopio para estudiar los planetas, las
observaciones podían interpretarse como que los planetas, incluyendo la Tierra, giraban
alrededor del sol o que el sol y los planetas giraban alrededor de la Tierra; ambas teorías
eran consistentes con los datos disponibles. Prácticamente todos los observadores
adoptaron la segunda interpretación. Se equivocaban, claro está, pero sus creencias
religiosas determinaban su interpretación.
Gran parte de la literatura cosmológica evoca interpretaciones guiadas por las
creencias. Los defensores de las distintas hipótesis cosmológicas suelen aprovechar o
interpretar las evidencias para que respalden sus creencias. Y esto aplica tanto a quienes
sostienen interpretaciones ortodoxas como a aquellos que las desafían.
Por otro lado, tendemos a prestar más atención a las conclusiones extraídas de la
observación que a los supuestos —normalmente no explícitos— que sustentan dichas
conclusiones. En el caso de la cosmología, estos supuestos son con frecuencia
cuestionables.
Edad del universo
Una de las interpretaciones más críticas de los datos es la que argumenta que el
desplazamiento al rojo siempre es una medida de la distancia y, combinada con la constante
de Hubble, es también una medida de la velocidad de recesión y, por lo tanto, de la edad de
los objetos celestes. En el capítulo 3 se expuso que Halton Arp. Geoffrey Burbidge y otros
desafiaban esta interpretación.[14]
La clave de este conflicto de interpretación es la naturaleza de los cuásares,
conocidos también como objetos cuasi-estelares. Estas potentes fuentes de emisiones
variables de ondas de radio fueron detectadas en 1961 e identificadas al principio con
minúsculos objetos visibles que se creía que eran estrellas de nuestra galaxia. Sin embargo,
cuando se analizó el espectro de su luz, se vio que eran desplazamientos al rojo muy
elevados. Se detectaron entonces otros objetos diminutos también con un elevado
desplazamiento al rojo; pero estos objetos no emitían ondas de radio sino luz visible,
principalmente azul, que variaba en periodos de días, y muchos de ellos emitían además
potentes rayos X que variaban en periodos de horas en comparación con los años o meses
de los que emitían ondas de radio.
Los cosmólogos ortodoxos interpretaron los elevadísimos desplazamientos al rojo
como que estos cuásares eran extremadamente remotos y se alejaban de nosotros a
velocidades de hasta el 95 por ciento la velocidad de la luz. Argumentaban que debido al
tiempo que tardaba su luz en llegar hasta nosotros, lo que veíamos ahora eran esos cuásares
cuando tanto ellos como el universo eran muy jóvenes. El problema estaba en explicar por
qué esas distancias tan enormes daban a entender que sus emisiones electromagnéticas eran
el equivalente a las de mil galaxias combinadas, mientras que su pequeño periodo de
variación en emisión daba a entender que esas fuentes eran muy pequeñas; además, solo
una veinteava parte de ellos emitía ondas de radio, mientras que la mayoría emitía luz
visible y rayos X, y algunos también rayos gamma.
En los años 80, los cosmólogos ortodoxos llegaron a una interpretación consensuada
razonable. La causa de esas emisiones ópticas y de rayos X tan enormes era un disco de gas
y polvo muy caliente que giraba y había sido absorbido por un gigantesco agujero negro
situado en el centro de una galaxia muy joven, mientras que las emisiones de radio eran
debidas a chorros expulsados a lo largo del eje de rotación, igual que se había observado en
la formación de estrellas. Era simplemente nuestro ángulo de visión lo que diferenciaba las
potentes fuentes de radio de las potentes fuentes ópticas y de rayos X.[15]
Arp, Burgidge y otros reivindicaron, sin embargo, que sus estudios de cuásares con
desplazamiento al rojo elevado muestran a muchos de estos cuásares alineados a lado y
lado de galaxias cercanas activas y, en algunos casos, con un vínculo físico con esas
galaxias; además, los análisis muestran un incremento de brillo y una disminución del
desplazamiento al rojo a medida que aumenta la distancia con respecto a la galaxia madre.
Interpretaron que estos datos sugieren que estos cuásares son pequeñas protogalaxias
expulsadas a una velocidad próxima a la de la luz desde agujeros negros situados en el
núcleo de galaxias activas, y que de ahí evolucionaron a galaxias, volviéndose así más
brillantes a medida que aumentaron su distancia de la galaxia madre a la vez que
desaceleraban.
En 2007, Michael Rowan-Robinson, presidente de la Royal Astronomical Society,
descartó la idea: «La historia de la anomalía del desplazamiento al rojo terminó hace treinta
años. Algunas de estas asociaciones son casuales, otras debidas a la lente gravitacional».
[16] Pero Burbridge mantuvo que lo que refuerza su interpretación es la acumulación de
datos en el transcurso de los últimos treinta años.
A menos que esto pueda explicarse argumentando que la materia oscura próxima a
las galaxias brillantes origina, a través de la lente gravitacional, el brillo de los cuásares
débiles que están lejanos —y no existe ningún modelo gravitacional de este estilo que
resulte satisfactorio—, la mayoría de los cuásares no están muy lejanos. La única salida que
le queda a la gente convencional es llegar a la conclusión de que todas las configuraciones
son accidentales y/o que las estadísticas son erróneas […]. Los datos siguen acumulándose.
En 2005, Margaret Burbridge y sus colegas mostraron un cuásar que emite rayos X y con
un desplazamiento al rojo de 2,1 a solo 8 segundos de arco de la galaxia activa NGC 7619.
La probabilidad de que esto sea casual es de una entre diez mil. Y hay muchos, muchísimos
más casos similares en la literatura.[17]
Pero, según Arp, no hay tantos como debería haber. Asegura que le cuesta mucho
conseguir publicar sus trabajos en revistas científicas. En 1998, reprodujo algunos de los
intercambios que ha mantenido con árbitros anónimos, a quienes calificó de
«manipuladores, taimados, insultantes, arrogantes y, sobre todo, rabiosos».[18] Este punto
de vista fue corroborado por Burbridge, que declaró que los que dominan la cosmología no
son científicos observacionales, sino teóricos matemáticos que solo prestan una atención
secundaria a los datos. «Ignoran por completo nuestros puntos de vista sobre la cosmología
y en el transcurso de los últimos veinte años, ha habido muchos intentos exitosos enfocados
a dejar de darnos invitaciones y hacer otras cosas para impedirnos intervenir en
conferencias cosmológicas. Seguramente lo hacen porque cuando tenemos una plataforma
para poder explicarnos resultamos bastante convincentes».[19]
Se trata de científicos respetables. Arp es tal vez el astrónomo especializado en
observación extragaláctica más experimentado que existe. Trabajó durante veintinueve años
en el observatorio Palomar y luego se incorporó al prestigioso Max Planck Institute, en
Alemania; entre sus galardones destaca el Helen B. Warner Prize de la American
Astronomical Society. Burbridge fue profesora de astrofísica de la Universidad de
California, San Diego y en 2005 recibió la medalla de oro de la Royal Astronomical
Society. Sus quejas por la represión a las alternativas al punto de vista ortodoxo fueron
replicadas por Richard Lieu.[20]
Esta interpretación alternativa de algunos desplazamientos al rojo tiene algo que me
sorprende: si las protogalaxias se expulsan a una velocidad próxima a la de la luz desde el
núcleo de galaxias existentes y activas, ¿por qué no se expulsan aleatoriamente, de modo
que haya la misma cantidad aproximada de protogalaxias expulsadas hacia nosotros que
expulsadas lejos de nosotros, lo que produciría, en consecuencia, tanto desplazamientos al
azul elevados como desplazamientos al rojo elevados?
Arp hizo hincapié en este asunto en el análisis que realizó en 2008 —como parte del
en el Two-degree-Field (2dF) Galaxy Redshift Survey— de un cúmulo integrado por
catorce cuásares con desplazamiento al rojo elevado situado alrededor de la galaxia AM
2330-284.[21] Afirma que sus desplazamientos al rojo se sitúan en un estrecho rango mayor
e inferior que la velocidad de recesión cósmica de la galaxia; esto sería consistente con que
fueran expulsados aleatoriamente de la galaxia madre a velocidades de más y menos 1.800
kilómetros por segundo. Esto es mucho menos que la velocidad de la luz, puesto que la
masa de los objetos expulsados aumenta con el tiempo y, para conservar la inercia, tienen
que reducir la velocidad.[22] Arp basa esta interpretación en la hipótesis de la masa
variable de Hoyle Narlikar, que forma parte de su teoría de la gravitación que defiende que
la materia de nueva creación empieza con masa cero y va aumentando con el tiempo a
través de la interacción con el resto de materia del universo.[23]
Arp tal vez esté equivocado, igual que podrían estar equivocados Burbridge y todos
los que han desafiado la interpretación ortodoxa del desplazamiento al rojo. Sin embargo,
hasta que los cosmólogos ortodoxos no entablen un debate razonado con Arp y otros
científicos reconocidos que plantean interpretaciones distintas de los datos y dejen de
ignorarlos o denigrarlos, seguirá colgando un interrogante sobre la interpretación ortodoxa
de todos los desplazamientos al rojo y, por ende, sobre el modelo del Big Bang.
Ondulaciones en el fondo cósmico de microondas
Los científicos del proyecto WMAP interpretaron sus datos como una validación
más del modelo ortodoxo del Big Bang inflacionario, diciendo que el patrón de puntos
calientes y fríos era consistente con las predicciones más simples de la conjetura de la
inflación.
En 2005, sin embargo, los análisis de los datos del WMAP realizados por otros
cosmólogos empezaron a sembrar dudas importantes. Richard Lieu y Jonathan Mittaz, de la
Universidad de Alabama, Huntsville, descubrieron que los datos del WMAP indican un
universo ligeramente «súper crítico» en el que hay más materia —y, en consecuencia, un
campo gravitatorio más potente— de lo que interpretan los científicos del proyecto WMAP,
lo cual presentaría graves problemas para la conjetura inflacionaria.[32] Descubrieron
asimismo una carencia de lo que se conoce como efectos de lente gravitacional en el fondo
cósmico de microondas que el modelo estándar del Big Bang predice. Según ellos, los
puntos fríos del fondo de microondas poseen un tamaño demasiado uniforme para haber
viajado durante casi catorce miles de millones de años luz desde los confines del universo
hasta la Tierra. Las consecuencias sugieren diversas explicaciones alternativas. La más
conservadora es que los parámetros cosmológicos del modelo ortodoxo, incluyendo la
constante de Hubble, son erróneos. La posibilidad más contenciosa es que la radiación de
fondo cósmico de microondas no sea un remanente del Big Bang sino que esté creada por
un proceso distinto, un proceso local tan próximo a la Tierra que la radiación no se
acercaría a ninguna lente gravitacional antes de alcanzar nuestros telescopios.
David Larson y Benjamin Wandelt, de la Universidad de Illinois, descubrieron una
desviación estadísticamente significativa de la distribución gaussiana de puntos calientes y
fríos predicha por la inflacion.[33] Kate Land y Joao Magueijo, del Imperial College de
Londres, analizaron la radiación de fondo cósmico de microondas a través de sus tres
componentes y descubrieron que dos de ellos —el cuadropolo y el octopolo— presentaban
una orientación de puntos calientes y fríos que estaba alineada a lo largo de lo que
Magueijo apodó como «el eje del mal», lo que contradeciría la predicción de orientación
aleatoria que defiende la inflación. Magueijo sugiere que podría deberse a que el universo
tuviera forma de losa, o de rosquilla, o a que el universo estuviera rotando, todo lo cual
entraría en conflicto con los supuestos de isotropía y omnicentrismo en que se basa el
modelo ortodoxo.[34]
La mayoría de cosmólogos, sin embargo, interpreta estas orientaciones no aleatorias
como desviaciones estadísticas con respecto a la media de más de cien medidas.[35]
Independientemente de que estos y otros científicos que han encontrado problemas
con los datos del WMAP tengan o no razón —y los últimos datos de Planck sugieren con
fuerza que la tienen (véase sección siguiente)—, su voluntad de examinar los datos con una
mentalidad abierta y plantearse interpretaciones alternativas contrasta con los científicos del
proyecto que parecen extraer únicamente aquellas conclusiones que apoyan la hipótesis que
están investigando.
La confirmación de evidencias contradictorias del telescopio Planck
Cuando en marzo de 2013 se anunciaron los datos de los quince primeros meses del
telescopio Planck, de la Agencia Espacial Europea, el científico líder del proyecto,
siguiendo el ejemplo de su colega del WMAP, dijo «observamos un encaje casi perfecto
con el modelo estándar de la cosmología», aunque se contradijo a continuación al añadir
«pero con características intrigantes que nos obligan a replantearnos algunos de nuestros
supuestos básicos».[36]
El telescopio Planck observó el fondo cósmico de microondas (FCM) con más
resolución y sensibilidad que nunca. Reveló muchas características que desafiaban el
modelo ortodoxo del Big Bang inflacionario. Entre ellas destacan no solo revisiones de la
edad del universo y de las conjeturas sobre las proporciones de la materia oscura y la
energía oscura, sino también un punto frío que se extiende sobre un espacio de cielo más
grande de lo esperado y fluctuaciones en la temperatura del FCM que no cuadran con las
predichas. Los datos confirmaron que la orientación de los puntos fríos y calientes no podía
descartarse como una desviación estadística, sino que, efectivamente, estaban alineados a lo
largo de un eje, lo que rebatiría la predicción del modelo ortodoxo de que tendrían que ser
isotrópicos, es decir, similares en cualquier dirección que mirásemos.
Selectividad de datos
En los capítulos 3 y 4 hemos hablado sobre los graves problemas del modelo del
Big Bang Inflacionario, mientras que en el capítulo 5 hemos llegado a la conclusión de que
las conjeturas que compiten contra el modelo ortodoxo, modificándolo o sustituyéndolo, no
proporcionan hasta el momento un relato científico sobre el origen del universo: sus
principales reivindicaciones siguen sin ser verificables y, en su mayoría, no son
verificables.
Consideraré a continuación los profundos problemas teóricos que subyacen en el
modelo cosmológico ortodoxo y en sus alternativas.
La inconclusión de la teoría de la relatividad y de la teoría cuántica
La teoría cuántica y la teoría de la relatividad forman la base tanto del modelo del
Big Bang como de las ideas que compiten con él. Ambas han alcanzado un éxito tremendo
en cuanto a realizar predicciones que han sido verificadas mediante observación y
experimentación dentro de su propio ámbito: las masas estelares extremadamente pequeñas
—subatómicas— para la teoría cuántica y las masas estelares extremadamente grandes y
con velocidades próximas a la de la luz para la de la relatividad. Pero ambas son
necesariamente incompletas porque son incapaces de explicar fenómenos que suceden fuera
de su propio ámbito.[40] Lo que sugiere que ambas son un caso limitador de una teoría más
completa y profunda.
Se han llevado a cabo numerosos intentos de unificar la teoría cuántica y la teoría de
la relatividad —la «teoría» de cuerdas y la gravedad cuántica de bucles, por ejemplo—
pero, como hemos visto, no están todavía probadas científicamente. Además, también ellas
presentan sus propios problemas: la idoneidad de la relatividad general para predecir o
incluso describir el universo como un todo, y la naturaleza de la realidad en la teoría
cuántica.
La idoneidad de la relatividad general
Newton desarrolló una nueva forma de matemáticas —el cálculo— que jugó un
papel esencial cuando desarrolló sus leyes físicas. A partir de Einstein, los físicos teóricos y
los cosmólogos han tomado prestadas o han adaptado las matemáticas existentes —la
geometría diferencial del espacio de cuatro dimensiones, las teorías de campos de gauge,
los campos escalares, etc.— para expresar y cuantificar sus ideas sobre el origen y la
evolución del universo. Como hemos visto, la matemática de algunas de estas ideas se
desmorona cuando retrocedemos hasta el origen del universo o no se corresponden con la
realidad tal y como la percibimos. Para expresar y cuantificar una teoría completa del
origen y la evolución del universo tal vez sería necesario desarrollar unas nuevas
matemáticas. Dicha teoría explicaría todo lo que la teoría de la relatividad explica a gran
escala y todo lo que la teoría cuántica explica a escala subatómica.
Limitaciones intrínsecas de la ciencia
Como hemos visto, muchas de las conjeturas que se han planteado para explicar el
origen del universo no solo no están verificadas, sino que además es imposible verificarlas:
si no podemos detectar un fenómeno, o su supuesto efecto sobre algo que podemos
detectar, entonces no podemos verificarlo. Cualquier conjetura no verificable queda
necesariamente fuera del ámbito de una disciplina empírica como la ciencia.
Conclusiones
A pesar de los anuncios optimistas, y a veces triunfalistas, que suelen realizar los
científicos responsables de los proyectos después de analizar los datos obtenidos a partir de
observaciones caras y prolongadas, la cosmología se enfrenta a muchas dificultades
prácticas. Se enfrenta también a problemas de interpretación de los datos obtenidos, lo que
incluye la puesta en duda de supuestos subyacentes a menudo sobreentendidos. Por lo
tanto, es imposible conocer con seguridad el valor de muchos parámetros clave —como la
constante de Hubble y la densidad del universo— y, en consecuencia, la edad del universo
y su ritmo de expansión. Ni el modelo ortodoxo del Big Bang ni las conjeturas que
compiten con él, ofrecen teorías científicamente robustas que expliquen el origen y la forma
del universo. Además, las dos teorías que sustentan todos los modelos cosmológicos —la
teoría de la relatividad y la teoría cuántica— son incompletas y presentan sus propios
problemas.
A medida que mejoren las técnicas de detección, y se desarrollen interpretaciones y
teorías como respuesta a nuevos datos y nuevos puntos de vista, las limitaciones prácticas,
de interpretación y de teoría quedarán relegadas y la cosmología nos ofrecerá una mejor
comprensión del origen del universo y, en consecuencia, del origen de la materia de la que
estamos compuestos.
Sin embargo, hasta que los cosmólogos presenten una nueva definición del concepto
de ciencia y un método científico que resulte aceptable tanto para la comunidad científica
como para la comunidad intelectual, muchas «teorías» cosmológicas deben quedar
clasificadas como conjeturas no verificables y, por lo tanto, quedar fuera del ámbito de la
ciencia.
Puede argumentarse, claro está, que la cosmología es distinta de las demás ramas de
la ciencia en los tres sentidos que enumeré al principio del capítulo y que, en consecuencia,
si la cosmología está limitada por la metodología científica convencional, siempre tendrá
escaso poder explicativo. Este argumento puede utilizarse para justificar que los
cosmólogos vayan más allá de los convencionalismos de la ciencia para explicar el
universo. De ahí que en el siguiente capítulo plantee si las conjeturas de la cosmología
producen razonamientos convincentes aun sin superar los test más estrictos de la ciencia.
[1]Ellis (2007), S.2.3.2.
[2]Maddox (1998), p. 36.
[3]Ibíd, p. 27.
[4]http://hubblesite.org/newscenter/archive/releases/1994/49/text/, 26 de octubre
de 1994.
[5]http://www.nasa.gov/centers/goddard/news/topstory/2003/0206mapresults.html#bctop,
11 de febrero de 2003.
[6]http://www.esa.int/Our_Activities/Space_Science/Planck/Planck_reveals_an_almost_per
fect_Universe, 21 de marzo de 2013.
[7]Rowan-Robinson (2004), p. 163.
[8]Bonanos, Alceste, et al., «The First Direct Distance Determination to a Detached
Eclipsing Binary in M33», The Astrophysical Journal, 652, 2006, pp. 313–322.
[9]Rowan-Robinson (2004), p. 164.
[10]Lerner (1992), con datos más completos, actualizado en
http://www.bigbangneverhappened.org/, consultado el 16 de febrero de 2014.
[11]Ned Wright, Tutorial de Cosmología, UCLA, 2003,
http://www.astro.ucla.edu/~wright/lerner_errors.html#SC.
[12]Ellis (2007), S.4.2.2 y S.2.3.5.
[13]Véase página 115.
[14]Véase página 75.
[15]«Quasar», McGraw-Hill Encyclopedia of Science and Technology; «Quasar»,
The Columbia Electronic Encyclopedia, 6ª ed. Consultado el 29 de enero de 2008.
[16]Rowan-Robinson, comunicación personal, 21 de noviembre de 2007.
[17]Burbidge, comunicación personal, 14 de enero de 2008.
[18]Arp (1998).
[19]Burbidge, comunicación personal, 14 de enero de 2008.
[20] Véase página 94.
[21]Arp, Halton y C. Fulton, «A Cluster of High Redshift Quasars with Apparent
Diameter 2.3 Degrees», http://arxiv.org/pdf/0802.1587v1, 2008. Consultado el 28 de
febrero de 2008.
[22]Arp, comunicaciones personales, 18 y 25 de febrero de 2008.
[23]Das, P. K., «Quasars in Variable Mass Hypothesis», Journal of Astrophysics
and Astronomy, 18: 4, 2008, pp. 435–450.
[24]Singh (2005), pp. 462 y 463, respectivamente.
[25]McKie, Robin, «Has Man Mastered the Universe?», The Observer, Londres, 26
de abril de 1992, News, pp. 8–9.
[26]Editorial, «Big Bang Brouhaha», Nature 356: 6372, 1992, p. 731.
[27]Narlikar, J. V., et al., «Inhomogeneities in the Microwave Background
Radiation Interpreted within the Framework of the Quasi–Steady State Cosmology», The
Astrophysical Journal, 585: 1, 2003, pp. 1–11.
[28] Véase página 118.
[29]Véase página 120.
[30]http://www.nasa.gov/home/hqnews/2006/mar/HQ_06097_first_trillionth_WMAP.html,
16 de marzo de 2006.
[31]Véase página 140.
[32]Lieu, Richard y Jonathan P. D. Mittaz, «On the Absence of Gravitational
Lensing of the Cosmic Microwave Background», The Astrophysical Journal, 628, 2005, pp.
583-593; Lieu, Richard y Jonathan P. D. Mittaz, «Are the WMAP Angular Magnification
Measurements Consistent with an Inhomogeneous Critical Density Universe?», The
Astrophysical Journal Letters 623, 2005, pp. L1–L4.
[33]Larson, David L. y Benjamin D. Wandelt, «A Statistically Robust 3-Sigma
Detection of Non-Gaussianity in the WMAP Data Using Hot and Cold Spots», Physical
Review, 2005, http://arxiv.org/abs/astro-ph/0505046. Consultado el 25 de mayo de 2007.
[34]Land, Kate y Joao Magueijo, «Examination of Evidence for a Preferred Axis in
the Cosmic Radiation Anisotropy», Physical Review Letters, 95, 2005, 071301.
[35]Paul Steinhardt, comunicación personal, 20 de marzo de 2007.
[36]http://www.esa.int/Our_Activities/Space_Science/Planck/Planck_reveals_an_almost_p
erfect_Universe, 21 de marzo de 2013.
[37] Véase página 130.
[38]Véase página 63 para una explicación de Omega y su relación con la geometría
del universo.
[39]Ellis, George, «Physics Ain’t What It Used to Be», Nature, 438: 7069, 2005, pp.
739–740.
[40] Por ejemplo, Wolfgang Tittel y sus colegas informaron de que dos fotones
entrelazados cuánticamente con más de diez kilómetros de distancia entre sí se
comportaban al instante de la misma manera si se enfrentaban a dos caminos alternativos e
igualmente posibles, violando claramente la Teoría especial de la relatividad de Einstein,
que prohíbe que la informacion viaje a velocidad más rápida que la de la luz. (Tittel, W. et
al., «Violation of Bell Inequalities by Photons More Than 10km Apart», Physical Review
Letters, 81, 17, 1998, pp. 3563-3566). Pero no es solo en el ámbito subatómico que la teoría
de la relatividad deja de aplicar. Rainer Blatt y sus colegas (Riebe, M. et al., «Deterministic
Quantum Teleportation with Atoms», Nature, 429: 6993, 2004, pp. 734-737) y D. J.
Wineland y sus colegas («Deterministic Quantum Teleportation of Atomic Qubits», Nature,
429: 6993, 2004, pp. 737-739), informaron de la transmisión cuasi instantánea de iones de
calcio e iones de berilio, respectivamente, en estado cuántico.
[41]Véase página 83.
[42] La ecuación gravitacional de Newton también permite esto siempre y cuando la
separación entre masas puntuales sea ilimitada.
[43]Véase página 85.
[44] Esto no aplicaría para el universo esférico: una esfera perfecta es igual desde
todos los puntos de su superficie.
[45]Tegmark, Max, «Parallel Universes», Scientific American. 1 de mayo de 2003.
http://www.sciam.com/article.cfm?articleID=000F1EDD-B48A-1E90-
8EA5809EC5880000. Consultado el 8 de agosto de 2006.
[46]Citado en Ellis (2007), S.9.3.2.
[47]Íbid, S.9.3.2.
[48]Davies (1990), p. 10.
CAPÍTULO 7. LA RACIONALIDAD DE LAS CONJETURAS
COSMOLÓGICAS
El universo me captura a través del espacio y me engulle como una mota de polvo;
yo lo capturo a través del pensamiento.
Hay dos preguntas que deberíamos formularnos para evaluar la racionalidad de las
explicaciones cosmológicas que quedan fuera del ámbito de la ciencia. La primera es: ¿cuál
tendría que ser el alcance de estas conjeturas? Y la segunda: ¿cómo someter a prueba su
racionalidad? Según las respuestas a estas preguntas, examinaré conjeturas cosmológicas en
dos aspectos: el origen del universo y la forma del universo, puesto que ambos son básicos
para comprender la emergencia de la materia de la que estamos hechos.
El alcance de las conjeturas cosmológicas[1]
¿Tendrían que limitarse las conjeturas cosmológicas solo al elemento material del
cosmos?
Muchos científicos son materialistas, y para ellos se trata de una pregunta trivial
porque creen que el cosmos material es todo lo que existe y que, con el tiempo, la ciencia
acabará explicando en términos de materia y de sus interacciones cosas como la conciencia
y la mente. Pero según el criterio de Popper, este punto de vista no es científico porque
nunca podrá falsarse.
Creo que es razonable extender el alcance examinando cosas no materiales que
tienen una relación directa con el origen y la evolución del universo material. Lo cual
suscita una serie de preguntas metafísicas interrelacionadas que tal vez podrían
considerarse como aspectos distintos de la misma pregunta, pero que resulta útil separarlas
en tres categorías, independientemente de que esta división sea arbitraria y permeable.
La causa de las leyes de la física
Los físicos teóricos suelen buscar la estética en sus teorías y ecuaciones. Según lo
expresa el teórico cuántico, Paul Dirac, «Es más importante tener belleza en las ecuaciones
que conseguir que cuadren con la experimentación». Steven Weinberg, físico teórico de
partículas galardonado con el Premio Nobel, observa que «Una y otra vez, los físicos se han
guiado por su sentido de la belleza no solo para desarrollar nuevas teorías, sino incluso para
juzgar la validez de teorías físicas una vez están desarrolladas».[7]
Pero la belleza es subjetiva. ¿Es bello el número π, que aparece como constante en
muchas ecuaciones y equivale a 3,141592653… (es imposible calcular su valor exacto)?
¿Es mi hipótesis o ecuación más bella que la tuya? ¿Es bello el relato de la creación que
ofrece el Génesis y que se mencionaba en el capítulo 1?
Sería muy distinto si los teóricos que dicen esto se refieren a que tienen un punto de
vista que explica bellamente un conjunto de fenómenos; por lo demás, examinaré formas de
saberlos distintas al racionamiento. Pero no creo que la belleza sea un test adecuado para
evaluar la racionalidad de una conjetura.
Parsimonia
La conjetura debería ser coherente, es decir, debería tener una consistencia lógica
interna para que sus distintas partes encajen y formen un todo armonioso. Si sufre
contradicciones internas, la conjetura será irracional, lo que lo convierte en un test esencial.
Consistencia externa con las evidencias
Una conjetura debe demostrar que es consistente con las evidencias que se conocen,
aunque no pueda realizar predicciones o retrodicciones susceptibles a ser verificadas
independientemente. Se trata de un test útil, aunque no alcanza el nivel de una validación
científica.
Consistencia externa con otros dogmas científicos
¿Cómo es que el universo inició su existencia con una forma determinada y no otra,
siendo todas las formas lógicamente posibles? Entre todas esas formas hay universos con
distintas constantes físicas, con distintas leyes físicas, con distinto número de dimensiones,
etc. Esta pregunta forma parte esencial de una pregunta antrópica más amplia: ¿por qué
nuestro universo está ajustado para permitir la evolución del ser humano?
Ajuste de los parámetros cosmológicos
En el capítulo 4 vimos que Martin Rees sostenía que si uno de entre seis parámetros
cosmológicos se diferenciaba de su valor medido por una cantidad minúscula, el universo
no habría evolucionado para permitir la emergencia de seres humanos pensantes con base
de carbono como nosotros. Las leyes de la física no predicen los valores de estos
parámetros y el actual modelo ortodoxo de la cosmología no logra explicar cómo o por qué
estos parámetros están tan ajustados.
Estos seis parámetros son:
1. Omega (Ω): una medida de la atracción gravitatoria de la materia en el universo
en comparación con su energía de expansión.
Si se produjo un Big Bang, el valor de Omega cuando el universo tenía un segundo
de antigüedad debió de situarse entre 0,99999999999999999 y 1,00000000000000001; de
lo contrario, el universo habría colapsado rápidamente en un Big Crunch o se habría
expandido rápidamente hacia el vacío.[10]
2. Lambda (Λ): la constante cosmológica.
Como vimos en el capítulo 4, esta hipotética constante que representa una energía
oscura desconocida anti-gravedad es cuestionable, igual que gran parte de los supuestos en
los que se basa su estimación. Pero, de todos modos, forma parte importante de la
cosmología ortodoxa actual y el valor que le han estimado los astrónomos es
increíblemente pequeño, unos 10-29 gramos por centímetro cubico. Si no fuera tan
pequeña, argumenta Rees, su efecto había impedido la formación de galaxias y estrellas y la
evolución cósmica se habría detenido antes incluso de empezar.
3. Nu (N): la razón entre la potencia de la fuerza electromagnética y la potencia de
la fuerza gravitatoria.
Tiene un valor aproximado de 1036 (1.000.000.000.000.000.
000.000.000.000.000.000.000).
La fuerza electromagnética proporciona estabilidad a los átomos y las moléculas al
equilibrar las fuerzas atractivas y repulsivas de núcleos y electrones con cargas opuestas. A
esta escala, la relativamente minúscula fuerza gravitatoria es insignificante. Pero con el
tamaño de planetas casi neutros eléctricamente y más grandes, la fuerza gravitatoria pasa a
ser dominante. Si Nu tuviese unos cuantos ceros menos, esta fuerza gravitatoria
relativamente potente produciría un universo en miniatura de vida corta, no se formarían
estructuras complejas y no habría tiempo para la evolución biológica.
4. Q: una medida que muestra la fuerza que mantiene cohesionadas estructuras
como estrellas, galaxias, cúmulos de galaxias y súper-cúmulos.
Es el cociente entre dos energías: la energía necesaria para romper y dispersar estas
estructuras cósmicas en relación con la energía de la masa en reposo calculada mediante E
= mc2. Se estima que su valor aproximado es 10-5, o 0,00001. Si Q fuese aún más pequeña,
el universo sería inerte y desestructurado. Si Q fuese mucho mayor, no sobreviran ni las
estrellas ni los sistemas solares: el universo estaría dominado por agujeros negros.
5. Épsilon (ε): una medida de la cohesión de los núcleos de helio.
La reacción nuclear en cadena esencial para crear todos los elementos y
proporcionar energía a las estrellas es la fusión de dos protones (núcleos de hidrógeno) y
dos neutrones para crear el núcleo de helio.[11] La masa de un núcleo de helio es un 0,7 por
ciento inferior que la masa de las partes que lo integran. Esta conversión en energía —
principalmente calorífica— del 0,007 de su masa, según la ecuación E = mc2, mide la
fuerza que cohesiona las partes integrantes del núcleo de helio, superando la fuerza
mutuamente repulsiva de los dos protones con carga positiva.
Si este factor de conversión fuera inferior (0,006, por ejemplo), no se produciría la
primera fase de la reacción en cadena, la unión de un protón con un neutrón, y, en
consecuencia, no habría producción de helio y el universo estaría hecho solo de hidrógeno.
Si fuese mayor (0,008, por ejemplo), los dos protones se unirían directamente para crear
helio y no quedaría hidrógeno para proporcionar el combustible necesario a las estrellas o
para permitir la posible producción de las moléculas esenciales para la vida humana, como
el agua.
6. D: el número de dimensiones espaciales del universo.
En el universo este número es tres (más una dimensión de tiempo). Una
consecuencia de ello, según Rees, es que fuerzas como la gravedad y la electricidad
obedecen una ley cuadrática inversa: si duplicáramos la distancia entre masas o partículas
cargadas, la fuerza entre ellas sería cuatro veces más débil; si triplicáramos la distancia, la
fuerza sería nueve veces más débil; y así sucesivamente. Esto permite una relación
equilibrada entre, por ejemplo, el movimiento centrífugo de un planeta y la fuerza
centrípeta de la gravedad de su sol, lo que permite una órbita estable. Si hubiera cuatro
dimensiones espaciales, las fuerzas seguirían una ley cúbica inversa y las estructuras serían
inestables: si un planeta en órbita ralentizara su movimiento, aunque fuera solo
mínimamente, se precipitaría contra su sol; si aumentara la velocidad, empezaría a girar en
espiral hacia la oscuridad. Si hubiera menos de tres dimensiones espaciales no podrían
existir estructuras complejas.8
John Barrow y Frank Tipler afirman que existen parámetros adicionales a los seis
propuestos por Rees que son necesarios para la evolución humana. Examinaré la cuestión
del «universo antrópico» cuando salga a relucir a lo largo de este viaje. Pero, por el
momento, estoy examinando solo la racionalidad de las conjeturas cosmológicas para
responder a la pregunta concreta de cómo y por qué el universo adoptó la forma que adoptó
en contraste con las creencias de que Dios, o un dios, lo diseñaron de esta manera.
La explicación multiverso
Tenemos que explicar por qué el universo es tan uniforme a grandes escalas y
sugerir, además, el mecanismo que produce las galaxias.
Por muy impresionante que sea una teoría cosmológica, tiene que cuadrar con lo
que nosotros vemos en el cielo.
Se cree que la interacción fuerte es la fuerza que mantiene unidos a los quarks para
que forman protones, neutrones y otros hadrones, y que une a protones y neutrones para
que formen el núcleo del átomo, superando con ello la repulsión eléctrica de los protones
con carga positiva. Por lo tanto, es la responsable de la estabilidad de la materia.
Su alcance es aproximadamente el de un núcleo atómico y a estas distancias su
fuerza es unas cien veces superior a la de la interacción electromagnética. Si fuera más
fuerte, sería difícil romper los núcleos, no habría reacciones nucleares en cadena en el
interior de las estrellas y no podría producirse ningún elemento más allá del litio. Si fuera
más débil, los núcleos atómicos que poseyeran más de un protón no serían estables y no
habría elementos más allá del hidrógeno. Si actuara sobre los electrones, los empujaría
hacia el núcleo y tanto las moléculas como las reacciones químicas serían imposibles. Si
tuviera un alcance infinito, como la gravedad y el electromagnetismo, uniría a todos los
protones y neutrones del universo en un único núcleo gigantesco.
Según el modelo estándar de la física de partículas, opera por el intercambio de un
gluon sin masa —una partícula mensajera o intermediaria— entre quarks, de los que se
supone que están compuestos protones y neutrones. No se han observado gluones libres, de
los que se supone que existen ocho tipos. Su existencia fue deducida en 1979 a partir de
colisiones entre electrones y positrones en el acelerador de partículas DESY de Hamburgo.
Interacción débil
Radio del universo: inflado hasta alguna cantidad situada entre 1010 y (1010)12
centímetros
Se producen menos neutrones porque su masa superior exige más energía. Los
protones y los neutrones se separan a una razón de 7:1.
Tiempo: 100-210 segundos; Temperatura: 109 K → 108 K; Radio de nuestra parte
del universo: ~1012 centímetros
Llegado este punto, los neutrones y los protones que colisionan se fusionan, se
enlazan gracias a la interacción fuerte, con lo que se libera un fotón de energía; la energía
de los fotones que colisionan con las partículas fusionadas ya no es superior a la energía
nuclear que los enlaza, razón por la cual los fotones no pueden separarlos.
Una pareja protón-neutrón recibe el nombre de núcleo de deuterio, que es un
isótopo[16] del hidrógeno. Los núcleos de deuterio se fusionan entre sí y con otros
productos de la fusión para producir núcleos de helio-3, helio-4, tritio y litio-7 (véase figura
8.1). Este proceso de fusión nuclear, increíblemente rápido y con diversas fases, se conoce
como nucleosíntesis.
En los núcleos del litio-7 se producen colisiones en cantidades minúsculas. Aparte
de esto, y debido a que no existe ningún núcleo estable con cinco partículas, el modelo de
nucleosíntesis del Big Bang no produce ningún núcleo mayor que el del helio-4, que
consiste en dos protones y dos neutrones. Presenta, con diferencia, la energía de enlace más
elevada de todos los núcleos, con un número de masa (número de nucleones) inferior a
cinco, y es el principal producto de la nucleosíntesis del Big Bang.[17]
Cuando el universo se expande y se enfría por debajo de cien millones de grados
(108 K), la temperatura no es lo suficientemente elevada como para provocar la fusión y la
nucleosíntesis se acaba, dejando en torno al 95 por ciento de los núcleos como protones
estables (hidrógeno-1), el 5 por ciento como núcleos estables de helio-4, y trazas de núcleos
de deuterio, helio-3 y litio-7.[18]
La relativa abundancia de estos elementos[19] que encontramos hoy en día en el
universo se presenta como una prueba poderosa del modelo del Big Bang, pero también
esto se ha puesto en duda.[20] Seguimos en el terreno de las hipótesis.
En este momento, la densidad media de la materia es equivalente a la actual
densidad del agua.
Los isótopos de hidrógeno reciben nombres especiales: el hidrógeno-2 se conoce
como deuterio, mientras que el hidrógeno-3 se conoce como tritio.
Tiempo: 3 ½ minutos hasta 380.000 años; Temperatura: 108 K → 104 K;
El universo se enfría hasta el punto en que los electrones con carga negativa acaban
siendo capturados por núcleos con carga positiva para formar moléculas de hidrógeno (H2)
diatómicas estables con carga eléctricamente neutra, más trazas de deuterio (D2 y HD)
junto con átomos de helio (He) y trazas de litio (Li). La radiación electromagnética se
escinde de la materia y se expande por el universo en proceso de expansión y enfriamiento
para formar el fondo cósmico de microondas que detectamos hoy en día.[21]
Tiempo: 200-500 millones de años; Temperatura: variable; Radio del universo
observable: 1026 (1 por ciento del radio actual) a 1027 centímetros (10 por ciento del radio
actual)
Los cosmólogos explican que lo que provocó la estructura del universo fue la
inestabilidad gravitatoria. Según esta explicación, las pequeñas heterogeneidades de la
materia (principalmente de las moléculas de hidrógeno) del universo primitivo crearon
regiones ligeramente más densas que el resto. El campo gravitatorio de estas regiones más
densas atrajo otra materia, que las hizo más densas si cabe, creando de este modo un campo
gravitatorio mayor que siguió atrayendo materia, y así sucesivamente.
Todo esto parece razonable, aunque plantea dos preguntas: (a) ¿cómo surgieron las
heterogeneidades iniciales? y (b) ¿cómo produjeron estas heterogeneidades las estructuras
que observamos actualmente?
Causas de las heterogeneidades iniciales
Pero un examen más detallado de esta explicación ortodoxa plantea dos problemas.
En primer lugar, los estudios muestran que cuando la parte más densa de una nube
molecular —lo que se conoce como el núcleo— está a punto de colapsar para formar una
estrella, contiene entre diez mil y un millón de moléculas de hidrógeno por centímetro
cubico.[46] En comparación, la densidad del aire que respiramos es de más de un trillón de
moléculas por centímetro cubico. ¿Cómo es posible que algo que es, como máximo, diez
mil miles de millones de veces menos denso que el aire, se contraiga bajo su propio campo
gravitatorio para formar una estrella? A pesar de que las observaciones de las nubes
moleculares gigantes de nuestra galaxia muestran núcleos de alta densidad o proto-estrellas
—o estrellas recién nacidas— más densas, no nos indican qué fue lo que inició el colapso
gravitatorio del núcleo y mucho menos, qué fue lo que creó esos núcleos. De ninguna
manera puede achacarse su creación a un halo masivo de materia oscura, puesto que la
escala es excesivamente pequeña.
En segundo lugar, estas observaciones muestran fuerzas que actúan contra el
colapso gravitatorio de la nube, concretamente:
1. Grandes turbulencias.
2. Campos magnéticos no uniformes en nubes que contienen iones (principalmente
protones o iones de hidrógeno) y electrones que hacen que la materia ionizada se extienda a
lo largo de líneas de campo magnético.
Los astrofísicos concibieron modelos virtuales, muchos de ellos basados en la
hidrostática, para intentar demostrar cómo se superan estas contrafuerzas, pero con tantas
variables con valores desconocidos, la tarea resulta tremendamente complicada y, además,
para que los modelos funcionen hay que realizar demasiados supuestos simplificadores.
Una conjetura razonable de la causa de las regiones de alta densidad y su posterior
colapso gravitatorio es que son debidas a la compresión creada por las ondas producidas
por la explosión de las supernovas, en parte responsables de las turbulencias en el seno de
una nube molecular gigante. Sin embargo, no puede decirse que esta sea la causa de la
formación de la primera generación de estrellas cuya vida terminó como supernovas de
primera generación.
Según declararon Kashlinsky y sus colegas en 2005: «Las mediciones obtenidas
recientemente de la polarización del fondo cósmico de microondas indican que las estrellas
empezaron a formarse temprano, cuando el universo tenía doscientos millones de años».
[47] La formación de las estrellas de primera generación plantea una vez más la pregunta
de cuáles fueron las primeras estructuras del universo en el supuesto de que el modelo
ortodoxo del Big Bang caliente sea correcto. En el transcurso de los últimos cincuenta años,
distintos cosmólogos han propuesto que fueron cúmulos globulares, agujeros negros
supermasivos o estrellas con poca masa.
A pesar de que las notas de prensa actuales, los libros científicos más populares y
los programas de televisión presentan la formación de las estrellas como algo bien definido,
me resulta difícil no estar de acuerdo con Derek Ward-Thompson, astrofísico de la
Universidad de Cardiff. Después de revisar toda la literatura actual, concluye: «Las estrellas
forman parte de los bloques constructivos más fundamentales del universo, pero seguimos
sin comprender por completo los procesos que llevaron a su formación».[48] En 2002,
Martin Rees, Astrónomo Real, llegó a la conclusión similar de que «la formación de las
estrellas es algo que seguimos sin comprender muy bien».[49]
Esto no significa que la ciencia no sea capaz de averiguar cómo se forman
actualmente las estrellas o cómo se formaron las primeras estrellas. Pero en el caso de las
primeras estrellas, será difícil obtener evidencias empíricas que distingan si el modelo del
Big Bang caliente, entre los diversos modelos que se manejan, es el correcto. Según este
modelo, medio millón de años después de que se produjera el Big Bang, la temperatura
cayó por debajo de los 3.000 K. Después de eso, la radiación primordial de cuerpo negro
pasó a infrarroja y el universo permaneció oscuro durante mil millones de años.[50]
Durante este periodo, conocido como la edad oscura cósmica, las estrellas serían demasiado
débiles para que cualquier tecnología pudiera detectarlas.
Explicación alternativa
La conjetura de que existe diez veces más cantidad de materia oscura (aún sin
determinar) que de materia visible suscitó la idea de que la atracción gravitatoria de toda la
materia del universo podría ser suficiente para ralentizar, y luego cambiar el sentido, de la
expansión del universo. Este universo en contracción invertiría también el sentido del
incremento de complejidad y acabaría en un Big Crunch, recreando la elevada entropía, o
desorden, del Big Bang.
Muerte térmica a largo plazo
[38]http://www.nasa.gov/home/hqnews/2006/aug/HQ_06297_CHANDRA_Dark_Matter.ht
ml, 21 de agosto de 2006.
[39]Ellis (2007), S 2.5.1, S 4.2.2, y S 4.3.1.
[40]Chown, Marcus, «Did the Big Bang Really Happen?», New Scientist, 2506,
2005, p. 30.
[41] Como se comentó en el capítulo 6, esta interpretación del desplazamiento al
rojo de los cuásares es discutible. Véase página 146.
[42]Springel et al. (2005).
[43]Clowes, Roger G, et al., «A Structure in the Early Universe at Z ~ 1.3 That
Exceeds the Homogeneity Scale of the R-W Concordance Cosmology», Monthly Notices of
the Royal Astronomical Society, 2013, enero.
[44] Véase página 196.
[45]Schilling, Govert, «Planetary Systems: From a Swirl of Dust, a Planet Is Born»,
Science, 286: 5437, 1999, pp. 66–68.
[46]Ward-Thompson, Derek, «Isolated Star Formation: From Cloud Formation to
Core Collapse», Science 295: 5552, 2002, pp. 76–81.
[47]Kashlinsky, A., et al., «Tracing the First Stars with Fluctuations of the Cosmic
Infrared Background», Nature 438: 7064, 2005, pp. 45–50.
[48]Ward-Thompson (2002).
[49]Rees, Martin J., «How the Cosmic Dark Age Ended», Science, 295: 5552, 2002,
pp. 51–53.
[50]Rees (2002).
[51] Véase página 113.
[52] La entropía es una medida del grado de desorden de las partes constituyentes
de un sistema. Véase capítulo 10 para una explicación más detallada de este concepto y su
relevancia para la evolución de la materia.
[53]Smolin (1998), pp. 144–172.
[54] Véase página 247.
[55]Rees (2002), pp. 31–32.
[56] Según predicen las teorías de gran unificación, pero no sustentado hasta el
momento por ninguna evidencia.
[57]Adams y Laughlin (1999).
[58] Véase página 90.
[59]Barrow, John D., «The Early History of the Universe», Conferencia en el
Gresham College, Londres, 14 de noviembre de 2006.
[60]Krauss, Lawrence M. y Turner, Michael S., «Geometry and Destiny», General
Relativity and Gravitation, 31: 10, 1999, pp. 1453–1459.
CAPÍTULO 9. LA EVOLUCIÓN DE LA MATERIA A PEQUEÑA ESCALA
Hemos visto que el modelo del Big Bang no podía explicar cómo, a excepción de
las ínfimas trazas de litio, se formaron los núcleos de los elementos a partir de la minúscula
sopa caliente de quarks, electrones y fotones creada a partir de la liberación de energía del
Big Bang antes de que la expansión y el enfriamiento del universo detuvieran el proceso de
fusión.[3]
El descubrimiento realizado en 1950 por Martin y Barbara Schwarzchild de que las
estrellas más antiguas contenían más elementos pesados que las estrellas más jóvenes
ofreció la primera pista sobre cómo podrían haberse formado los núcleos más grandes.
En 1957, Hoyle y sus colegas publicaron el trascendental documento que estableció
la teoría cosmológica ortodoxa actual que defiende que todos los elementos de origen
natural más pesados que el helio son producto de las estrellas. Llegaron a la conclusión de
que:
La razón básica por la que una teoría de origen estelar ofrece un método prometedor
para sintetizar los elementos es que la estructura cambiante de las estrellas durante su
evolución ofrece una sucesión de condiciones bajo las cuales pueden producirse muchos
tipos distintos de procesos nucleares. Así, la temperatura interna puede oscilar entre los
pocos millones de grados a los que empieza a opera la cadena pp (protón-protón), hasta
temperaturas entre 109 y 1010 grados, en las que se producen las explosiones de la
supernova. La densidad central puede oscilar también en rangos de millones. Por otro lado,
las escalas temporales oscilan entre miles de millones de años, que son periodos de vida
normales para estrellas de masa solar o inferior de la secuencia principal, y plazos de
tiempo de días, minutos y segundos, que son característicos del proceso de explosión.[4]
A pesar de que los detalles se han ido puliendo desde entonces, ningún cosmólogo
ha desafiado con seriedad esta teoría, que está soportada además por evidencias
espectroscópicas. Podríamos, por lo tanto, llegar a la conclusión de que todos los elementos
de origen natural, más allá del helio, se formaron a partir de la siguiente nucleosíntesis
estelar.
Los elementos desde el helio hasta el hierro
El tamaño de las estrellas oscila entre el equivalente a una décima parte la masa de
nuestro sol hasta más de sesenta veces su masa; las proto-estrellas de menor tamaño nunca
llegan a estar lo suficientemente calientes como para iniciar el proceso de fusión nuclear,
mientras que las masas más grandes se consumen con excesiva rapidez y no llegan a
convertirse en estrellas estables. El tamaño de la estrella determina el producto de la
nucleosíntesis.
En las estrellas pequeñas y de tamaño moderado (hasta ocho masas solares), el helio
se produce en el núcleo de la estrella como resultado de una serie de fusiones nucleares, lo
que se conoce como cadena protón-protón, en las que los protones —núcleos de hidrógeno
— se fusionan en una reacción en cadena para producir helio-4 y energía en forma de calor
y luz. Tal y como ilustra la figura 9.1, esta liberación externa de energía equilibra la fuerza
gravitatoria interna de contracción y la estrella se mantiene estable durante miles de
millones de años.
Al no ser muy estables los núcleos entre el helio y el carbono —de ahí el lapso de
cinco nucleones—, en las estrellas se produce muy poco litio, berilio y boro. Se piensa que
estos elementos se crean cuando los rayos cósmicos —considerados electrones y núcleos
eyectados desde las supernovas a una velocidad próxima a la de la luz— colisionan con el
gas y el polvo interestelar; la colisión desprende fragmentos, creando núcleos de elementos
más pequeños.
Estrellas de segunda y tercera generación
Por lo tanto, a partir del sencillo núcleo de hidrógeno, estos procesos generan
núcleos cada vez más grandes y más complejos, lo que lleva a los aproximadamente 95
elementos naturales que encontramos en el universo.[6] Dos de ellos, el hidrógeno (75 por
ciento) y el helio (23 por ciento), constituyen la mayor parte de la masa del universo.
De los 95 elementos, ocho de ellos constituyen más del 98 por ciento de la masa de
la corteza terrestre, que está formada principalmente por oxígeno (47 por ciento), silicio (28
por ciento), aluminio (8 por ciento) y hierro (5 por ciento); los océanos están formados
principalmente por oxígeno (86 por ciento) e hidrógeno (11 por ciento).[7]
El ser humano está compuesto por 41 elementos, pero el 99 por ciento de la masa de
nuestro cuerpo lo integran solo 6 elementos: oxígeno (65 por ciento de la masa), carbono
(18 por ciento de la masa), hidrógeno (10 por ciento de la masa), nitrógeno (3 por ciento de
la masa), calcio (2 por ciento de la masa) y fosforo (1 por ciento de la masa).[8]
A pesar de estar solo presentes en trazas, los elementos más pesados juegan un
papel importante en nuestra evolución. Por ejemplo, a través de su desintegración
radiactiva, el uranio, el torio y el potasio-40 generan en la corteza terrestre el calor
necesario para producir las placas tectónicas que, como veremos más adelante, son
necesarias para la biosfera, mientras que el molibdeno es imprescindible para la fijación del
hidrógeno, algo esencial para el metabolismo de plantas y animales.
El ajuste de precisión de los parámetros nucleares
Por razones que consideraré más adelante, un elemento esencial para el ser humano
y para todas las formas de vida conocidas es el carbono y más concretamente, el isótopo
estable carbono-12. Pero tal y como Hoyle destacó, para que las estrellas produzcan
suficiente carbono-12, es necesario ajustar con precisión tres parámetros.
En la página 176 vimos como el ajuste de Épsilon, una medida de la cohesión de los
núcleos de helio, era imprescindible para iniciar la serie de reacciones en cadena que lleva a
la producción de elementos y, finalmente, de átomos y moléculas, algo esencial para la
vida. Los tres parámetros de Hoyle muestran qué valores exactos son necesarios en las
reacciones nucleares en cadena para producir carbono. La producción de carbono en el
interior de las estrellas se lleva a cabo a través de un paso intermedio, representado por las
ecuaciones siguientes:
2He4 + 0.099 MeV → Be8
Estas ecuaciones significan que para fusionar dos núcleos de helio-4 y producir el
isótopo inestable berilio-8, son necesarios 0,099 millones de electronvoltios de energía. A
continuación, un núcleo de berilio-8 se fusiona con un núcleo de helio-4 para producir el
núcleo estable de carbono-12 con la liberación de dos rayos gamma, que son fotones con el
rango de energía más elevado que puede observarse. Para que se produzcan estas
reacciones deben cumplirse tres condiciones:
1. La vida del 8Be (~10-17seg) debe ser lo suficientemente larga en comparación
con el tiempo de colisión de 4He + 4He (~10-21seg) como para permitir que se produzca la
primera reacción, pero no debe ser tan estable como para que la reacción en cadena se
detenga aquí.
2. Hoyle propuso que el rendimiento del carbono sería despreciable a menos que la
suma de la energía de un núcleo de berilio y un núcleo de helio fuera casi exacta a la
energía de un determinado estado cuántico del núcleo de carbono-12, una condición que se
conoce como resonancia, y que predijo que sería de cerca de 7,7 MeV. Experimentos
posteriores confirmaron que el nivel de resonancia del núcleo del carbono-12 es de 7,6549
MeV. Este nivel de energía se sitúa justo por encima de la energía de Be8 + He4, que es de
7,3667 MeV, lo que permite que la reacción nuclear se produzca con la máxima eficiencia.
3. La fusión del carbono-12 con otro núcleo de helio-4 produciría un núcleo de
oxígeno. Si esta reacción fuese también resonante, todo el carbono se convertiría
rápidamente en oxígeno-16, lo que quedaría representado por la ecuación
C12 + He4 → O16
Según la teoría cuántica, algo tan pequeño como un electrón se comporta como si
fuera tanto una partícula como una onda. Un electrón con carga negativa puede interactuar
con un núcleo con carga positiva solo si está rodeado por una órbita parecida a un
caparazón, lo que se conoce como un orbital, que posee una energía discreta, E2. El
electrón puede perder un cuanto de energía, E, bajando a un orbital de energía inferior, E1,
lo que se representa como:
E = E2 – E1 = hν
Los átomos, que se forman a partir del plasma de núcleos y electrones que se enfría
al ser expulsado al espacio interestelar, evolucionan a formas más complejas gracias a los
enlaces. Lo que guía este proceso es la consecución del estado más estable y con la menor
energía posible. En la práctica, esto significa la configuración electrónica más próxima a
aquella en la que los orbitales de la capa de valencia contienen el número máximo de
electrones permitido por el principio de exclusión de Pauli.
Los átomos de los gases nobles tienen por naturaleza esta configuración y son
estables. Los demás átomos alcanzan la estabilidad enlazándose con uno o más átomos,
idénticos o diferentes, de una de las cuatro formas siguientes.
Métodos de enlace
1. A pesar de que el modo en que se formaron los átomos de helio sigue siendo
discutible, la teoría científica generalmente aceptada, y sustentada con solidez por la
observación espectroscópica, es que, mediante el mecanismo de reacciones de fusión en
cadena y captura de neutrones, más la desintegración en el interior de las estrellas y las
supernovas, los sencillos núcleos de hidrógeno evolucionaron hasta convertirse en los
núcleos de todos los demás elementos de origen natural. Estos procesos fueron provocados
por las transformaciones sucesivas de la energía gravitatoria potencial en energía cinética
que se produjo cuando estrellas de distintos tamaños empezaron a contraerse en el
momento en que el combustible de fusión de cada etapa de la cadena se hubo agotado, y
por la energía generada por el colapso gravitatorio catastrófico que se produjo cuando las
estrellas agotaron su combustible nuclear y se transformaron en supernovas.
2. Las supernovas lanzaron al frío espacio interestelar núcleos con carga positiva y
electrones con carga negativa. De ahí evolucionaron hasta transformarse en átomos y
moléculas de carga neutra, impulsados principalmente por flujos de energía en conformidad
no solo con los principios de conservación de la energía y de la carga, y la ley de la fuerza
electromagnética, sino también con las leyes de la mecánica cuántica y el principio de
exclusión de Pauli.
3. Mientras que en general se da por supuesto que los dos principios de
conservación son axiomáticos, las leyes cuánticas y el principio de exclusión de Pauli no lo
son. De hecho, en muchos sentidos, podría decirse que la teoría cuántica es contraria a la
lógica. Pero explica cómo se forman los átomos y evolucionan hacia las moléculas cada vez
más complejas que encontramos en el espacio interestelar, en meteoritos que se cree que
proceden del cinturón de asteroides de nuestro sistema solar, y en la superficie de la Tierra.
4. Aunque necesarios, ni siquiera los principios de conservación y la teoría cuántica
son suficientes para explicar cómo evolucionaron las complejas moléculas orgánicas de las
que estamos hechos nosotros y todas las formas de vida conocidas. Si los valores de tres
parámetros nucleares fueran ligeramente distintos, las estrellas no habrían generado
carbono suficiente para producir las moléculas orgánicas; si los valores de dos constantes
sin dimensión fueran ligeramente distintos —la constante de estructura fina y el cociente
entre la masa del protón y el electrón—, no se habrían formado ni átomos ni moléculas.
Ninguna teoría explica por qué estos parámetros tienen los valores que tienen.
5. A pequeña escala, la materia ha evolucionado de estados sencillos a estados cada
vez más complejos.
En el siguiente capítulo examinaré con más detalle este patrón predominante de
aumento de la complejidad y, en particular, qué fue lo que lo causó y a través de qué
mecanismos se llegó hasta él.
[1]http://www.foresight.org/Nanomedicine/Ch03_1.html, consultado el 22 de junio
de 2007.
[2]Esta sección se basa principalmente en Rowan-Robinson (2004), pp. 22–26;
Morowitz (2004), pp. 48–53; y Lochner, et al. (2005).
[3] Véase página 195.
[4]Burbidge, E. Margaret, et al., «Synthesis of the Elements in Stars», Reviews of
Modern Physics, 29: 4, 1957, pp. 547–650.
[5] Véase páginas 210 y siguientes.
[6] Se creía que los elementos naturales eran 91 y que los 27 restantes procedían de
una síntesis artificial. En 2014, un grupo de científicos declaró haber encontrado en la
naturaleza minúsculas trazas de siete de estos últimos. En consecuencia, utilizaré la
expresión «aproximadamente 95».
[7]http://www.windows.ucar.edu/tour/link=/earth/geology/crust_elements.html,
consultado el 22 de junio de 2007.
[8]Chang (2007), p. 52.
[9]Barrow y Tipler (1996), pp. 250–253.
[10]Esta sección se basa principalmente en Ellis (2002), capítulo 3; Barrow y Tipler
(1996).
295–305; Morowitz (2004), pp. 51–57.
[11] Véase página 187.
[12] Desde sus inicios, el principio se ha ampliado para establecer que no puede
haber dos fermiones (un tipo de partículas que incluye electrones, protones y neutrones)
con todos sus números cuánticos idénticos
[13]Barrow y Tipler (1996), pp. 295–305. Los valores de estas constantes están
extraídos del Physics Laboratory of the National Institute of Standards and Technology,
http://physics.nist.gov, consultado el 15 de noviembre de 2007.
[14] Una molécula es la unidad física más pequeña de una sustancia capaz de existir
independientemente y consiste en un átomo o varios átomos enlazados por compartición de
electrones. Véase glosario para la distinción entre «molécula», «átomo», «ion» y
«elemento».
[15]Snyder, Lewis E., et al., «Confirmation of Interstellar Acetone», Astrophysical
Journal 578: Part 1, 2002, pp. 245–255.
[16]Fuchs, G. W., et al., «Trans-Ethyl Methyl Ether in Space. A New Look at a
Complex Molecule in Selected Hot Core Regions», Astronomy and Astrophysics, 444: 2,
2005, pp. 521–530.
[17]Bell, M B, et al., «Detection of HC11N in the Cold Dust Cloud TMC-1»,
Astrophysical Journal, 483: parte 2, 1997, pp. L61–L64.
[18]Lunine (1999), pp. 51–53; «Chondrite», Cosmic Lexicon. Planetary Science
ResearchDiscovery, 1996.
CAPÍTULO 10. EL PATRÓN HACIA LA EVOLUCIÓN DE LA MATERIA
Sistemas locales
Reflexiones
Cuando inicié este viaje tenía la impresión de que el Big Bang era una teoría
científica sólidamente respaldada por las evidencias y que, por lo tanto, averiguar qué
conocemos sobre el origen y la evolución de la materia inanimada sería relativamente
sencillo. Pero cuantas más preguntas me formulaba, más quedaba patente que mis
supuestos iniciales eran erróneos.
Lo cual no era malo. Había abordado el tema con mentalidad abierta, intentando
buscar lo que sabíamos o podíamos deducir razonablemente a partir de la observación y la
experimentación, por un lado, y diferenciarlo de las hipótesis, la especulación o las
creencias, por el otro. Si las evidencias empíricas no sustentaban, o incluso contradecían,
mis supuestos, tenía que asumir que así es cómo funciona la ciencia funciona: el
conocimiento científico no está grabado en piedra, sino que evoluciona a medida que
aparecen evidencias y las ideas se desarrollan.
Pero lo que me resultó inquietante fue que algunos cosmólogos respondieran
tremendamente a la defensiva cuando les pedí que corrigieran en mis borradores algún error
de hecho u omisión o las conclusiones inadecuadas. Después de haber leído solo la mitad
de un capítulo, uno de ellos me dijo: «Bajo mi punto de vista, el gran público no debería
recibir una visión tan sesgada de lo que la ciencia ha conseguido y no».
Otro me respondió diciendo que «No creo que alguien que no ha estudiado
cosmología con todo su detalle físico y matemático pueda realmente escribir una crítica
creíble sobre la cosmología moderna». Cuando le recordé que el borrador del capítulo que
le había remitido exponía críticas a la ortodoxia vigente realizadas por varios cosmólogos
reconocidos, descartó a dos de ellos por «haber dejado de tener credibilidad en el mundo de
la cosmología». Uno de ellos había sido galardonado hacía tan solo dos años con la medalla
de oro de la Royal Astronomical Society.
Para justificar su aseveración de que el borrador «estaba lleno de fallos», destacó
una sección que concluía diciendo que los datos del telescopio espacial WMAP no
confirmaban en absoluto la teoría de la inflación. Dijo: «La mayoría de la gente considera
que los datos del WMAP son muy consistentes con la inflación». Si hubiese verificado las
fuentes que yo citaba para apoyar mi conclusión, habría visto que incluían parte de un libro
de texto y también un artículo que él mismo había publicado en Nature en el que llegaba a
la misma conclusión. Terminó diciendo que no quería perder más tiempo colaborando con
lo que consideraba un ataque contra la cosmología.
Creo que parte de esta triste respuesta defensiva tanto desde dentro como desde
fuera de la cosmología deriva de los problemas a los que se enfrenta la cosmología como
medio explicativo y que se describen en el capítulo 6. En parte surge también porque la
cosmología como disciplina empezó con una teoría matemática —las ecuaciones de campo
de la relatividad general de Einstein aplicadas al universo— y ha sido liderada
mayoritariamente por teóricos cuyo instrumento de trabajo principal son las matemáticas.
Muchos combinan las pruebas matemáticas con las pruebas científicas, cuando en realidad
se trata de dos cosas muy distintas. Introducir en sus ecuaciones un amplio rango de
parámetros arbitrarios cuyos valores pueden ajustarse libremente para que sean consistentes
con la observación es, para los teóricos, un modo razonable de desarrollar un modelo
matemático, pero esta práctica no constituye una prueba empírica, tal y como la comunidad
científica acepta el concepto. Todo esto resulta especialmente evidente cuando modelos
mutuamente contradictorios afirman ser consistentes con los mismos datos observados.
En ausencia de test observacionales o experimentales que puedan validar o rechazar
sin ambigüedades una hipótesis específica, sus proponentes disponen solo de un conjunto
de ecuaciones matemáticamente consistentes que creen que representan la realidad tal y
como la perciben nuestros sentidos. Los adeptos a estas creencias actúan de un modo
similar a los adeptos a cualquier creencia: quien no está de acuerdo con ellas es porque no
las entiende, se equivoca o carece de credibilidad. (Este último término de desaprobación
resulta revelador cuando lo utiliza un científico.) Cuando los adeptos a la creencia
mayoritaria adquieren poder entre los académicos, imparten sus enseñanzas a los nuevos
cosmólogos y deciden cuáles de ellos obtendrán puestos de investigación, recibirán
subvenciones y verán sus trabajos publicados, la creencia se institucionaliza; como sucede
con cualquier institución, las presiones para ajustarse a la ortodoxia vigente y de este modo
asegurar y mantener la carrera profesional son enormes. Como resultado de ello, cualquier
postura distinta sobre los mismos problemas queda sin investigar, la innovación en la forma
de pensar se reprime y se estanca en lo que el físico teórico Lee Smolin denomina
«pensamiento de grupo» (ejemplificado por lo que «la mayoría de la gente piensa» soporta
mi conclusión) y el progreso científico se ralentiza.
Si el patrón habitual del progreso científico continúa, acabará apareciendo un
inconformista que realizará un gran avance y se producirá un cambio de paradigma
kuhniano.[1] Pero en el campo de la cosmología, donde los test empíricos exigen un nivel
de presupuesto impresionante —como sucede con los detectores espaciales o los
colisionadores de partículas—, las oportunidades de que se produzca un rechazo académico
como el de Einstein son escasas.
Paradigma: patrón dominante de pensamiento y supuestos, incuestionables en gran
medida, que integra una disciplina científica, dentro del que se desarrollan las
investigaciones y según el cual se interpretan los resultados.
De este modo, la cosmología ortodoxa tiende a comportarse menos como una
ciencia y más como una religión que a punto está de alcanzar la violencia física en su
respuesta a los disidentes internos y a los infieles externos. Cuando en los capítulos 3 y 5 he
examinado las alternativas a la ortodoxia vigente, he apuntado ejemplos del trato recibido
por los cosmólogos que se muestran en desacuerdo con las creencias ortodoxas, con los
supuestos, con frecuencia sobreentendidos, que las sustentan o con la interpretación
ortodoxa de los datos. Smolin ofrece muchos ejemplos más en su libro Las dudas de la
física en el siglo xxi: ¿es la teoría de cuerdas un callejón sin salida?.[2] No es mi intención
atacar la cosmología, sino mostrar cómo funciona en la práctica y sugerir que estas
actividades son contrarias a los valores de la ciencia. Además, considero que aseverar que
las especulaciones cosmológicas son teoría científica establecida abre la puerta a que
especulaciones y creencias extravagantes quieran cobijarse bajo el manto de la ciencia.
Tampoco es mi propósito criticar a ningún cosmólogo a nivel individual. Muchos de
ellos se cuentan entre las mentes más brillantes que existen en el campo de la ciencia y las
matemáticas. Pero el resplandor intelectual no impidió que Newton y muchos otros grandes
científicos mostraran una conducta altamente cuestionable para con otros científicos.
Dicho esto, quiero expresar mi profundo agradecimiento a todos aquellos
cosmólogos que han tenido la amabilidad de corregir los errores, omisiones y conclusiones
erróneas de mis borradores. En la sección de Agradecimientos aparecen algunas de las
mentes más destacadas de la cosmología. Cualquier error residual es única y
exclusivamente mío y, como dejo claro, mi deuda con estos científicos no implica que estén
necesariamente de acuerdo con todas mis conclusiones y ni siquiera entre ellos. Establecer
este debate razonado, del que este libro se ha beneficiado enormemente, fue, por encima de
todo, una experiencia placentera y estimulante.
Mi intento de realizar una evaluación imparcial de lo que sabemos o de lo que
razonablemente podemos deducir a partir de la observación y la experimentación acerca del
origen y la evolución de la materia dio como resultado lo siguiente.
Conclusiones
Todas las formas de vida conocida están integradas por una gran variedad de
moléculas tremendamente complejas. El único elemento capaz de formar moléculas de tal
complejidad es el carbono,[1] razón por la cual la vida, al menos en su inicio, exige la
presencia del elemento carbono.
Todos los biólogos consideran el agua, en su formato líquido, como un elemento
esencial para la vida. Y ello se debe al tamaño, la forma y la particular distribución de la
carga eléctrica que presenta la molécula del agua, tal y como se muestra en la figura 12.1.
Una molécula de agua es eléctricamente neutra, pero en el interior de la molécula, la
carga se distribuye de forma desigual. El átomo de oxígeno atrae una gran parte de la carga
eléctrica y es electronegativo; los dos átomos de hidrógeno son electropositivos. Estas
cargas dipolares permiten que los átomos electropositivos de hidrógeno del interior de la
molécula de agua formen enlaces de Van der Waals[2] especialmente fuertes, atrayendo los
átomos electronegativos de otras moléculas; es lo que se conoce como enlaces de
hidrógeno. La figura 12.1 muestra estos enlaces de hidrógeno con otras moléculas de agua.
Esta fuerza hace que el agua puede permanecer en formato líquido a una temperatura
mucho más elevada que lo que podrían hacerlo otras moléculas pequeñas, como el metano,
el dióxido de carbono o el amoniaco, que se disocian en moléculas distintas en forma de
gas cuando alcanzan la temperatura debida. El agua existe en formato líquido en
condiciones de presión atmosférica normal y en un rango de temperatura excepcionalmente
amplio, que va desde los 0 a los 100 grados Celsius (de los 273 a los 373 grados Kelvin), el
rango ideal para que se produzcan reacciones bioquímicas y necesario para reproducir y
mantener la vida.
La capacidad de estas pequeñas moléculas de formar enlaces de hidrógeno hace que
el agua líquida sea además un potente solvente tanto para compuestos iónicos, como las
sales, como para aquellas moléculas orgánicas que presentan también una distribución
desigual de la carga eléctrica, como los aminoácidos, que son tan fundamentales para las
formas conocidas de vida que se los conoce como los bloques constructivos de la vida.
Los enlaces de hidrógeno pueden ser más fuertes que los enlaces covalentes que
unen el único átomo de oxígeno a dos átomos de hidrógeno, rompiendo estos últimos, de
modo que dos moléculas de agua líquida formen un ion de hidronio positivo, H3O+, y un
ion de hidroxilo negativo, OH-.
H2O + H2O → H3O+ + OH-
La temperatura no debe ser tan elevada como para provocar la ruptura de los enlaces
de las moléculas orgánicas complejas, ni tan baja como para que las reacciones bioquímicas
esenciales se produzcan con excesiva lentitud, lo que impediría la producción de más
moléculas complejas y el mantenimiento de las reacciones metabólicas esenciales. El
biofísico Harold Morowitz estima un rango de temperatura de 500º Celsius.[6] Sin
embargo, puesto que los biólogos consideran que el agua en estado líquido es esencial para
la vida, el rango se reduciría considerablemente. Bajo distintas presiones y otras
circunstancias, el agua en estado líquido es factible en un rango de temperatura que oscila
entre los 0 y los 100º Celsius con una presión atmosférica normal.
Las fuentes de energía
No toda la radiación que emite una estrella sirve para fomentar las reacciones
bioquímicas esenciales. Por encima de determinadas intensidades, las frecuencias de
algunas radiaciones (la radiación ultravioleta, por ejemplo) pueden dañar de forma
irreparable los organismos, mientras que las llamaradas solares —explosiones intensas de
radiación electromagnética y electrones, protones y otros iones de alta energía— pueden
arrasar la atmósfera de un planeta. Para que exista vida, la biosfera del planeta tiene que
quedar protegida de radiaciones nocivas de este tipo.
Por otro lado, la biosfera necesita estar protegida del impacto de cometas o
asteroides de tamaño capaz de destruir formas de vida complejas.
La estabilidad
La Tierra tiene una forma más o menos esférica, con una leve protuberancia en el
ecuador, y un diámetro medio de 12.700 kilómetros. Su masa es aproximadamente de 6 x
1024 kilos y posee un potente campo magnético. Gira alrededor de su estrella, el sol, en una
órbita ligeramente elíptica que tiene una duración de 365 días y cuarto, a una distancia
media de 149 millones de kilómetros. Rota cada 24 horas sobre su eje, que presenta una
inclinación de 23,5 grados con respecto a la perpendicular al plano elíptico de la órbita,
como se muestra en la figura 12.2.
A una distancia media de 384.000 kilómetros de la Tierra orbita su único satélite
natural, la luna. Con un diámetro algo superior a una cuarta parte el de la Tierra (y de casi
de tres cuartas partes el diámetro del planeta Mercurio), la luna es excepcionalmente grande
en comparación con su planeta.
Estructura interna
Hidrosfera
Aproximadamente dos tercios de la superficie de la Tierra están cubiertos por agua
en forma de océanos, mares y ríos. La profundidad de esta hidrosfera oscila entre 0 y 5
kilómetros.
Atmósfera
La capa gaseosa de la Tierra se extiende hasta 10.000 kilómetros por encima de la
superficie sólida y líquida, pero los primeros 65-80 kilómetros contienen el 99 por ciento de
la masa total de la atmósfera de la Tierra. Por densidad, está integrada aproximadamente
por un 78 por ciento de nitrógeno, un 20 por ciento de oxígeno, un 1 por ciento de argón y
el restante 1 por ciento por una mezcla de otros gases, incluyendo vapor de agua, cuya
concentración aumenta con la temperatura, y un 0,003 por ciento de dióxido de carbono; la
capa de entre 19 y 50 kilómetros que se eleva por encima de la superficie contiene ozono,
una forma de oxígeno con tres átomos por molécula, en vez de dos.
Magnetosfera
En principio, un campo magnético se extiende indefinidamente. En la práctica, el
campo magnético de la Tierra produce efectos significativos hasta decenas de miles de
kilómetros de distancia de la superficie y se denomina magnetosfera. Tal y como muestra la
figura 12.4, el viento solar deforma la forma habitualmente simétrica de un campo
magnético.
Biosfera
La biosfera integra todos los entornos capaces de mantener la vida tal y como la
conocemos. Se trata de un caparazón fino que abarca entre 5 kilómetros por debajo y 5
kilómetros por encima del nivel del mar y cubre parte de la litosfera, la mayoría de la
hidrosfera (la capa externa sólida de la Tierra) y parte de la atmósfera.
Formación
Evidencias
Las evidencias de cómo se desarrollaron la Tierra y sus esferas externas son difíciles
de encontrar. En la superficie no quedan restos relacionados con la formación del planeta:
las rocas se han visto erosionadas por las condiciones climatológicas, o han sufrido una
metamorfosis como consecuencia del calor y la presión, que han producido cambios
estructurales y químicos, o se han fundido por las altas temperaturas al verse empujadas
hacia el interior por un proceso conocido como subducción; la datación de las rocas
superficiales es controvertida, pero se considera que las más antiguas tienen alrededor de
3,8 miles de millones de años, es decir, son unos 700 millones de años más jóvenes que la
formación de la Tierra. La hidrosfera se ha recirculado continuamente a través de la
evaporación como vapor de agua seguido por precipitaciones en forma de lluvia, granizo o
nieve. Los procesos biológicos que examinaré más adelante han transformado por completo
la atmósfera.
Los científicos han desarrollado hipótesis sobre la formación de la Tierra mediante
inferencia: a partir de los estudios sobre las distintas etapas de la formación estelar en otros
lugares de nuestra galaxia; el examen de los meteoritos que se consideran representativos
de los planetesimales que, agregados, formaron la Tierra; la datación de rocas y otros
componentes de la superficie de la Tierra y del magma expulsado de su interior; análisis
fisicoquímicos y datación de rocas de la luna y de Marte; y los datos obtenidos con sondas
en la mayoría de planetas de nuestro sistema solar.
La datación precisa es un elemento crítico para determinar los procesos evolutivos.
La datación comparativa, basada en observaciones de las estrellas en diversas etapas de su
evolución, combinada con los estudios de fusión nuclear, suele utilizarse para explicar los
cambios que ha experimentado el tamaño y la luminosidad del sol con el paso del tiempo.
La datación radiométrica (conocida también como radioisotópica) proporciona un
método potente y preciso de datación absoluta de muestras, siempre y cuando puedan
determinarse ciertos parámetros. Por ejemplo, mediante experimentación, los científicos
han establecido la vida media del carbono-14 en 5.730 años. Esto significa que en 5.730
años, la mitad de cualquier cantidad de carbono-14 experimentará una desintegración
radiactiva que lo convertirá en nitrógeno-14 estable. Los científicos han establecido
también la proporción entre carbono-14 y carbono-12, un isótopo más común y estable
presente en los compuestos de carbono de origen natural. La determinación de las distintas
proporciones en una roca muestra qué cantidad de carbono-14 se ha perdido como
consecuencia de la desintegración radiactiva; un simple cálculo determina el tiempo que ha
durado este proceso y, en consecuencia, la antigüedad de la muestra. Técnicas similares se
emplean con otros elementos radiactivos, como el uranio-238, con una vida media de 4,6
miles de millones de años, y el torio-232, con una vida media de 14 mil millones de años.
Las hipótesis resultantes de estos datos obtenidos mediante observación y
experimentación, junto con los modelos realizados con ordenador, explican la formación de
la Tierra y sus esferas como sigue.
El planeta
La hipótesis general nebular esbozada en el capítulo 8[7] ofrece un relato sobre la
formación del planeta. En este caso en particular, hace aproximadamente 4,6 miles de
millones de años, la inmensa mayoría de un disco en rotación de unos 24 mil millones de
kilómetros de diámetro, giró en espiral sobre su centro masivo de hidrógeno,
incrementando con ello su densidad y su temperatura hasta el punto en que el núcleo se
encendió con una fusión nuclear que acabó generando el sol.
La formación del disco no era perfecta. En aquellas condiciones turbulentas, ciertas
acumulaciones de material —básicamente hielo y polvo— siguieron trazando órbitas muy
excéntricas alrededor del sol formando ángulo con el disco; es lo que acabó conociéndose
como cometas.
Del material que quedó en el disco en rotación, el viento solar —iones y electrones
que salen proyectados del sol ardiente— empujó los gases ligeros de hidrógeno y helio
hacia las regiones exteriores y frías del disco, donde se acumularon para formar nebulosas
planetarias —no lo suficientemente calientes ni densas como para fusionarse— que
acabarían formando los cuatro planetas gigantes gaseosos más exteriores.
Las moléculas más pesadas, formadas por hidrógeno combinado con otros
elementos —como las moléculas de metano (CH4), vapor de agua (H2O) y sulfuro de
hidrógeno (H2S)—, permanecieron en las regiones más interiores del disco, donde granos
de polvo, silicatos en su mayoría colisionaron, repeliéndose en ocasiones y en otras
adhiriéndose entre ellos. Los que se adhirieron formaron granos algo más grandes con
campos gravitatorios algo más fuertes que atrajeron granos más ligeros y moléculas de gas.
Se formaron grumos del tamaño de guijarros que fueron creciendo hasta convertirse en
planetesimales[8] de varios kilómetros de diámetro. Las colisiones caóticas entre
planetesimales acabaron dividiendo algunos de ellos y fusionando a otros, produciendo, en
este último caso, cuerpos más grandes.
En la frontera entre la región interior y la exterior, allí donde los planetesimales
estaban muy distanciados entre sí y lo bastante alejados del gigante gaseoso más próximo,
Júpiter, como para no ser atraídos hacia su órbita, esos objetos siguieron orbitando
alrededor del sol en lo que se conoce como el cinturón de asteroides.
Más cerca del sol, donde los planetesimales estaban mucho más próximos ente sí, se
produjeron más colisiones y, como consecuencia de ellas, cuatro protoplanetas
incrementaron su masa para acabar dominando el cinturón orbital del disco. Cada uno de
estos protoplanetas creció mediante un proceso violento de acreción, durante el cual su
campo gravitatorio, cada vez más potente, atrajo con voracidad hacia su región a los
planetesimales restantes. Estos planetesimales chocaron contra el protoplaneta y se
fusionaron con él, generando mucho calor; esto, combinado con el calor generado por la
desintegración radiactiva de algunos de sus elementos —como el uranio y el torio—, más el
calor procedente de la transformación de la energía gravitatoria potencial generada con la
condensación de su materia gaseosa, más el calor del sol, fue suficiente para fundir la
mayor parte de cada protoplaneta. Cuando la inmensa mayoría de los planetisimales quedo
absorbida por el cinturón, la fase de acreción tocó a su fin, probablemente entre 400 y 700
millones de años después de que el sol se encendiera. Acababa de nacer un planeta rocoso
fundido y con una atmósfera con silicatos en estado gaseoso.[9] La Tierra, el tercero de
estos planetas en relación a su distancia con el sol, entró en su eón hádico (de Hades, el
infierno) de acreción hace aproximadamente 4,56 miles de millones de años y emergió del
mismo con su masa actual hace entre 4 y 3,9 miles de millones de años.[10]
El núcleo de hierro
El calor generado por el bombardeo de planetesimales en la fase de acreción de la
Tierra fraccionó la mezcla fundida. Los elementos más pesados se sumergieron hacia la
parte central del planeta. El elemento preponderante, con diferencia, era el hierro. Así pues,
el núcleo del planeta estaba compuesto principalmente por hierro, con algo de níquel, el
siguiente elemento pesado en abundancia. El análisis de meteoritos ricos en hierro, junto
con las densidades deducidas a partir de datos sísmicos, sustentan esta hipótesis.[11]
Cuando terminó el eón de acreción generadora de calor, el núcleo empezó a
enfriarse por el centro, que se solidificó bajo una intensa presión, mientras que la parte
exterior del núcleo siguió fundida.
El campo magnético
Las evidencias que proporcionan las rocas de la superficie indican que en los
últimos 330 millones de años, el campo magnético de la tierra se ha invertido más de 400
veces, es decir, que el polo norte se ha intercambiado con el polo sur y viceversa. El
intervalo de tiempo entre estas inversiones varía oscila entre menos de 100.000 años y
decenas de millones de años; la última inversión se produjo hace 780.000 años.
Durante el último siglo, el polo norte magnético se ha desplazado 1.100 kilómetros.
Además, el seguimiento de desplazamientos anuales desde 1970 demuestra que este ritmo
se está acelerando y que el polo se desplaza actualmente más de 40 kilómetros anuales.[12]
Los científicos no comprenden cómo se formó el campo magnético. Una mayoría de
geocientíficos planetarios apoya la hipótesis de la dinamo, según la cual el movimiento de
un material conductor eléctrico en un campo magnético existente refuerza el campo
magnético original. En este caso, la rotación de la Tierra habría hecho que el hierro líquido
(un buen conductor eléctrico) de la parte exterior del núcleo circulara alrededor del eje de
rotación, generando con ello un campo magnético con un polo norte en el polo norte
geográfico y un polo sur en el polo sur geográfico. Sin embargo, esto no explica por qué los
polos magnéticos se han invertido de un modo tan errático o por qué los polos se trasladan
a un ritmo acelerado; el científico atmosférico de la Pennsylvania State University, James
Kasting, sugiere que es debido a que la dinamo es un sistema caótico.[13]
En 2009, Gregory Ryskin, profesor asociado de ingeniería química y biológica de la
Northwestern University, Illinois, presentó la controvertida hipótesis de que las
fluctuaciones en el campo magnético de la Tierra son debidas a los movimientos de los
océanos. La sal del agua de mar le permite conducir electricidad, generando con ello
campos eléctricos y magnéticos. En el Atlántico Norte, los cambios en la fuerza de las
corrientes oceánicas están correlacionados con los campos en los campos magnéticos de
Europa Occidental.[14] Históricamente, los movimientos de la placa tectónica han
provocado cambios en la ruta de las corrientes oceánicas, que podrían haber producido la
inversión de los polos magnéticos.
La corteza, la litosfera y el manto
Al final de la fase de acreción de la Tierra, el calor del bombardeo se detuvo y la
superficie se enfrió a medida que el planeta fue rotando para alejarse del sol e irradió su
calor hacia el cielo nocturno.
Los silicatos, tanto los que estaban en forma de vapor como los fundidos en forma
líquida, se condensaron de tal modo que los silicatos más ligeros quedaron depositados
encima y los silicatos más ricos en elementos pesados quedaron abajo. Los silicatos de la
parte exterior, más ligeros, fueron los primeros en enfriarse y solidificarse, formando la
corteza rígida; a eso le siguió el enfriamiento y solidificación de la capa superior del manto,
la capa entre la corteza y el núcleo externo. La mayor parte del manto conservó su calor,
pero la presión del material que tenía encima forzó su solidificación, aunque adoptando una
forma dúctil.
El enfriamiento uniforme provocado desde el exterior de una bola de material
fundido como aquella debería de haber originado capas lisas de profundidad consistente en
la corteza, en la capa superior del manto, etc. Pero en la corteza observamos montañas,
valles, volcanes y llanuras, separados entre sí por inmensos y profundos océanos. Se
plantearon diversas ideas para explicar esta topografía. A finales del siglo xix, los geólogos
adoptaron la idea sugerida por uno de sus representantes más ilustres, el austriaco Eduard
Suess: cuando la Tierra se enfrió, empezó a arrugarse, como una manzana al horno. A pesar
de los evidentes movimientos verticales, la visión de que los continentes y los océanos eran
características permanentes de la superficie de la Tierra se convirtió en la teoría ortodoxa de
la geología.
Inspirándose en las observaciones que indicaban que los continentes adoptan la
forma de piezas de un rompecabezas que en su día debieron de encajar, un austriaco de
treinta y dos años de edad llamado Alfred Wegener, propuso en 1912 una hipótesis
alternativa a la que puso el nombre de deriva continental, según la cual un súper-
continente, Pangea, se rompió y sus distintas partes, los continentes, fueron desplazándose
hasta quedar separadas. La geología ortodoxa rechazó la propuesta y la calificó de ridícula.
Wegener siguió trabajando su idea y en 1921 publicó una versión revisada y
ampliada de su libro para justificar la hipótesis. Incluía evidencias de estructuras geológicas
idénticas en la costa oriental de América del Sur y la costa Occidental de África, junto con
restos fósiles idénticos tanto de estos como de otros continentes separados por grandes
distancias. La ortodoxia ignoró o desdeñó las evidencias geológicas; Wegener, al fin y al
cabo, era un meteorólogo. Para justificar las evidencias fósiles, recurrieron a la idea de
puentes terrestres entre continentes que habían desaparecido sin dejar rastro. Era evidente
que la idea de Wegener era absurda: ¿qué fuerza podía mover algo tan colosal como los
continentes?
En 1944, Arthur Holmes, un geólogo inglés, ofreció una explicación. El calor
generado por la desintegración radiactiva de los elementos del interior proporcionaría la
energía necesaria para romper y desplazar los continentes. Exceptuando un pequeño
número de defensores de la deriva continental, la inmensa mayoría de geólogos se aferró a
la línea ortodoxa y siguió considerando la hipótesis una simple tontería fantasiosa.
Las evidencias fueron acumulándose con el paso de los años. Los oceanógrafos
descubrieron que la corteza oceánica era excepcionalmente joven, con una edad media de
55 millones de años que no era nada en comparación con la corteza continental, que tenía
una edad media de 2,3 miles de millones de años y presentaba rocas de incluso 3,8 miles de
millones de años de antigüedad. Descubrieron una serie de colosales cadenas montañosas,
de más de 50.000 kilómetros de longitud, que se elevaban desde el fondo oceánico y
serpenteaban alrededor del globo terráqueo como la costura de una bola de béisbol. En las
cimas de estas cordilleras oceánicas era donde se localizaban las rocas más jóvenes, que
mostraban la misma polaridad magnética que observamos hoy en día. A lado y lado, bandas
de roca alternaban su polaridad magnética. Esta alternancia era idéntica a la secuencia de
inversiones magnéticas ya conocidas a partir de los flujos de lava continental y se utilizó
para realizar la datación de las bandas de roca, lo que vino a demostrar que la edad de las
rocas se incrementaba a medida que se alejaban de la cima (véase figura 12.5). La
secuencia temporal de las inversiones magnéticas ofreció una base sólida a la idea de que el
magma del interior había sido empujado hacia arriba hasta superar la cima de una cordillera
oceánica y había partido en dos la corteza previamente existente, alejándola lateralmente de
la cordillera; al enfriarse, había dejado registrada la polaridad magnética que tenía la Tierra
en aquel momento.
Lawrence Morley, un geólogo canadiense, consiguió atar los distintos cabos de las
evidencias y ofrecer una explicación coherente de todos los datos, pero las revistas
científicas siguieron aferrándose al punto de vista ortodoxo y rechazaron su documento en
1963. El Journal of Geophysical Research lo rechazó con el argumento de que «no es el
tipo de cosa que debería publicarse bajo un patrocinio científico serio».[15]
Drummond Matthews, de la Universidad de Cambridge, y su alumno, Fred Vine,
tuvieron mejor suerte. Trabajando independientemente de Morley habían llegado a la
misma conclusión y el mismo año 1963, Nature publicó sus descubrimientos. Vine y
Matthews prescindieron del término «deriva continental» porque era evidente que se había
desplazado algo más que los continentes. En 1968, su teoría recibió el título de «placas
tectónicas», y en un cambio de paradigma kuhniano, la inmensa mayoría de geólogos la
adoptó rápidamente como la nueva ortodoxia.[16]
La teoría sigue en desarrollo y algunos elementos de la misma continúan siendo
preguntas abiertas. Sin embargo, a diferencia del modelo ortodoxo de la cosmología, este
cualifica como teoría científica. Ha realizado retrodicciones únicas, por ejemplo, en los
hallazgos de fósiles idénticos de determinadas edades y que han sido confirmados por la
investigación; ha realizado predicciones únicas, por ejemplo, con respecto a la localización
de zonas sísmicas y volcánicas y el movimiento de masas continentales, que han quedado
confirmadas por la observación.
Sirviéndose de las evidencias de campos tan diversos como la paleontología, la
oceanografía, la sismología y, más recientemente, los mapas del GEOSAT (Geostationary
Satellite), esta teoría unificadora explica actualmente los fenómenos geológicos en términos
de la formación, movimiento e interacción de siete grandes bloques, y varios más pequeños,
de la litosfera rígida, conocidos como placas tectónicas, que flotan sobre la astenosfera
(véase figura 12.6).
Los fenómenos geológicos están causados por la colisión entre placas. La figura
12.8 ilustra la lenta colisión de una placa oceánica contra una placa continental.
Las evidencias que sustentaban que la Tierra, si no única, sí podría ser el resultado
de una concurrencia especial de factores que permitió la aparición y evolución de la vida
compleja que conocemos, empezaron a acumularse muchos años antes que el libro de
Rowan-Robinson.
Zona galáctica habitable
El factor propuesto más recientemente es el de la localización de la Tierra en la zona
galáctica habitable. La idea fue avanzada en 2000 por dos científicos de la Universidad de
Washington, el paleontólogo y profesor de Biología y de Ciencias del espacio y de la Tierra,
Peter Ward, y el profesor de Astronomía, Don Brownlee,[37] y desarrollada por ellos y
otros científicos, destacando entre ellos Guillermo Gonzalez, antiguamente en la
Universidad de Washington y actualmente en la Ball State Unievrsity, Indiana.[38]
Basándose en estudios de nubes moleculares gigantes y de formación estelar en
distintas partes de la Via Lactea, junto con la actividad de la radiación, esta hipótesis aplica
a la galaxia el concepto de la zona circunestelar habitable. Propone que existen muy pocas
zonas donde puede evolucionar la vida compleja y que estas zonas cambian con el tiempo.
Las regiones exteriores de la galaxia no tienen elementos y moléculas esenciales en
la cantidad necesaria para permitir la formación de planetas rocosos con los ingredientes
imprescindibles para la vida. Estos elementos sí están presentes cerca del centro de la
galaxia, pero las interacciones gravitatorias caóticas que tienen lugar en esa concentración
de estrellas generan condiciones excesivamente inestables para una biosfera planetaria.
Además, durante los miles de millones de años necesarios para que evolucione la vida
compleja basada en el carbono, las estrellas y los sistemas planetarios podrían recibir
impactos mortales de radiación, bien procedente de explosiones de supernovas, bien de la
materia previa absorbida por el agujero negro gigante que se cree que ocupa el núcleo
galáctico. Esta región de radiación letal se ha encogido con el tiempo, probablemente
porque estas explosiones eran más habituales en la primera fase de la galaxia.
Los brazos de la espiral de nuestra galaxia también son adversas para la vida. Son
regiones de formación activa de estrellas donde las nubes moleculares gigantes se
condensan caóticamente para producir estrellas. La radiación energética ultravioleta de las
estrellas jóvenes de gran tamaño evapora los discos de gas y polvo de su alrededor antes de
que pueda iniciarse la formación planetaria mientras que, por otro lado, estas estrellas
grandes terminan su vida con relativa rapidez con explosiones de supernovas.
Las únicas zonas donde se dan las condiciones adecuadas y la estabilidad suficiente
para la evolución biológica se sitúan entre los brazos de la espiral en el plano del disco
galáctico, allí donde se encuentra actualmente nuestro sistema solar, a medio camino entre
el centro galáctico y el extremo exterior visible del disco. El hecho de que las estrellas de
estas zonas orbiten el centro galáctico, pero no necesariamente en el mismo plano o a la
misma velocidad que los brazos de la espiral, dificulta la tarea de evaluar dónde se
encuentran estas zonas.
Nikos Prantzos, del Institut d’Astrophysique de París, ha criticado la hipótesis
calificándola de imprecisa y no cuantificada. Hemos visto que las cuantificaciones iniciales
de la hipótesis de la zona circunestelar habitable eran excesivamente simplistas y no tenían
en cuenta los muchos factores que determinan la temperatura de la superficie planetaria.
[39] A escala galáctica, muchos de los determinantes son aún grandes desconocidos y
cuantificarlos queda actualmente más allá del alcance de los astrofísicos. Hay que decir,
para ser justos, que sus defensores han dejado claro que la hipótesis está en fase de
desarrollo. Pero, de todos modos, la propuesta básica parece sensata: las zonas que ofrecen
las seis condiciones para la aparición y la evolución de la vida compleja tal y como la
conocemos constituyen solo una pequeña parte de nuestra galaxia, y la localización física
de estas zonas cambia con el tiempo a medida que la galaxia evoluciona.
La Tierra lleva 4,5 miles de millones de años en una zona así y, por lo tanto, no
puede considerarse simplemente como un planeta típica que orbita una estrella de secuencia
principal típica que traza una órbita típica alrededor del centro de una galaxia típica.
Idoneidad de la estrella
El hecho de que un sistema estelar se encuentre en una zona galáctica habitable, no
significa que la estrella sea idónea para la aparición y la evolución de vida con base de
carbono. Las estrellas se clasifican mediante una letra —O, B, A, F, G, K, o M—, que las
ordena de grandes a pequeñas. Dentro de cada una de estas categorías, se subdividen por
número. Nuestro sol es una estrella G2.
Solo entre el dos y el cinco por ciento de todas las estrellas son tan grandes como el
sol. Un planeta que orbite una estrella menor que una K5 sufrirá seguramente lo que se
conoce como acoplamiento de marea, es decir, que siempre estará encarada del mismo lado
hacia la estrella; en consecuencia, es muy probable que el lado encarado a la estrella sea
demasiado caliente, y el lado oscuro demasiado frío, para permitir la evolución de vida
compleja. Tampoco es probable que evolucione vida compleja en un planeta que orbite una
estrella mayor que una F0, puesto que el tiempo de vida en la secuencia principal de las
estrellas grandes es relativamente corto y estas estrellas emiten grandes cantidades de
radiación ultravioleta nociva.
Lo cual nos deja con un veinte por ciento de las estrellas en la secuencia principal
con un tamaño idóneo. Sin embargo, unos dos tercios de la totalidad de las estrellas existen
en sistemas estelares binarios o multiples.[40] Un sistema estelar binario, sobre todo
cuando las dos estrellas están muy cerca la una de la otra, no es favorable para la vida:
cualquier planeta tendría a buen seguro una órbita extremadamente elíptica y la temperatura
de su superficie cambiaría de caliente a fría de forma tan extrema, que la vida sería
imposible en un solo giro alrededor de las dos estrellas.
Zona circunestelar habitable
En aquellas estrellas idóneas que se mantienen el tiempo suficiente en una zona
galáctica habitable, la vida tal y como la conocemos solo podrá aparecer y evolucionar
cuando la estrella tenga uno o más planetas que se mantengan el tiempo suficiente en una
zona en que la temperatura de la superficie del planeta permita la existencia de agua en
estado líquido, es decir, en lo que se conoce como una zona circunestelar habitable. Como
ya hemos visto, los primeros intentos de definición de una zona de este estilo fueron
excesivamente simplistas.
En 1993, James Kasting, el científico atmosférico considerado la autoridad puntera
en habitabilidad planetaria, junto con Daniel Whitmire y Ray Reynolds, realizó un intento
más sofisticado. Su modelo climático unidimensional tiene en cuenta la energía solar
reflectada (el efecto albedo) y el efecto invernadero, además de otros factores, pero no
considera el efecto del periodo rotacional del planeta sobre la cantidad de energía solar que
recibe la superficie y posteriormente irradia.[41] A pesar de que supone un avance
considerable con respecto a modelos anteriores, los supuestos y aproximaciones no hicieron
más que subrayar las dificultades que conlleva cuantificar los sistemas complejos e
interactivos que implican los procesos de retroalimentación climática. El equipo de
definición de ciencia y tecnología del proyecto Terrestrial Planet Finder de la NASA llegó a
la conclusión de que los modelos climáticos unidimensionales son incapaces de simular con
exactitud los efectos de las nubes (vapor de agua o dióxido de carbono) sobre la radiación
planetaria y, en consecuencia, no son fiables; presentó, de todos modos, una versión más
sofisticada del modelo de Kasting para sugerir una zona circunestelar habitable de entre
0,75 UA y 1,8 UA[42] para el sol, escalable para otras estrellas.[43]
Exoplanetas
En 1994 se confirmó el anuncio realizado en 1992 por dos radio-astrónomos, que
detectaron por primera vez la existencia de planetas fuera de nuestro sistema solar. Se
trataba de dos planetas, de aproximadamente tres veces el tamaño de la Tierra, y de un
objeto de tamaño similar al de la luna, que orbitaban una vieja estrella neutrón que giraba
velozmente, un pequeño y denso residuo de una estrella grande que había terminado su
tiempo de vida en la secuencia principal como consecuencia de un colapso gravitatorio
catastrófico y una explosión supernova.[44] Es uno de los lugares menos probables donde
los astrofísicos creían que podrían encontrar planetas, y su proximidad a la estrella de
neutrones, que emite radiaciones potentes, significa que las seis condiciones para la
evolución de formas de vida conocidas no pueden cumplirse.
El primer planeta en órbita alrededor de una estrella en secuencia principal fue
detectado al año siguiente. Los telescopios carecían de la resolución necesaria para
observarlo directamente, pero los astrónomos calcularon la masa del planeta y la distancia
que mantenía con respecto a su estrella mediante la oscilación que su campo gravitatorio
provocaba en la distancia de la estrella con respecto a la tierra cuando el planeta pasaba por
delante, alrededor y detrás de la estrella. 51 Pegasi b es un gigante gaseoso, como Júpiter,
que traza una órbita de cuatro días de duración alrededor de la estrella 51 Pegasi, lo cual
implica que su distancia con respecto a esa estrella es inferior a la de Mercurio, nuestro
planeta rocoso más interior, respecto al sol.
Hasta finales de 2008, los astrónomos habían detectado 330 planetas extrasolares, lo
que actualmente se conoce como exoplanetas. Su descubrimiento ha debilitado el modelo
de formación planetaria nebular, que predice que los planetas orbitan su estrella en la
misma dirección con órbitas casi circulares a la altura o cerca del ecuador de la estrella, y
con una distribución en la que los planetas más pequeños y densos, compuestos
principalmente por roca y hierro (como Mercurio, Venus, la Tierra y Marte) ocupan la parte
interior del sistema y los enormes gigantes gaseosos, compuestos principalmente por
hidrógeno y helio (como Júpiter, Saturno, Urano y Neptuno), orbitan a una distancia de la
estrella mucho mayor. Pero resulta que no solo hay «Júpiteres calientes» —gigantes
gaseosos que giran alrededor de su estrella más cerca que Mercurio del sol, a distancias en
las que la temperatura es demasiado elevada para permitir que hielos sólidos y gases
formen un núcleo planetario—, sino que hay además otros planetas que siguen órbitas
tremendamente elípticas, con algunos orbitando alrededor del polo de su estrella en vez de
alrededor de su ecuador y otros orbitando en dirección opuesta al giro de su estrella.
Posteriormente, la NASA lanzó al espacio el telescopio Kepler que detecta el tenue
oscurecimiento de la luz de una estrella cuando un planeta pasa por delante de ella, lo cual
ha permitido identificar planetas mucho más pequeños que las técnicas anteriores pasaban
por alto. A fecha agosto de 014, había descubierto 978 exoplanetas en órbita alrededor de
421 estrellas y tenía 4.234 planetas candidatos a la espera de confirmación.[45]
Todo lo cual ha dado pie a la creencia extendida de que la Tierra no es especial y
que en una galaxia de varios centenares de miles de millones de estrellas tiene que haber
muchos planetas habitables, en alguno de los cuales podría haber evolucionado la vida
inteligente.
Sin embargo, los sistemas estelares identificados por Kepler debilitan aún más el
modelo de formación planetaria nebular. Además de los Júpiteres calientes, el telescopio
espacial ha descubierto planetas gigantes con órbitas idiosincráticas, mientras que, por otro
lado, los planetas más comunes, que encontramos orbitando cerca del cuarenta por ciento
de las estrellas más próximas y más parecidas al sol, los llamados «súper-Tierras» —una
categoría de planetas más grandes que la Tierra pero más pequeños que Neptuno (17 masas
terrestres)—, orbitan tan cerca de sus estrellas que es imposible que puedan albergar vida.
Viendo estas evidencias, los astrofísicos han presentado diversas propuestas para
modificar la hipótesis de formación planetaria nebular. Varias de ellas conjeturan con que
en la zona que va desde la parte intermedia hasta el exterior del disco nebular crecen
planetas de todo tipo hasta alcanzar su tamaño máximo y que, cuando el gas viscoso del
disco ralentiza su órbita, giran en espiral hacia el interior; esto explicaría los Júpiteres
calientes. Sin embargo, los modelos de simulación muestran que estos planetas migratorios
continúan girando en espiral hacia su estrella. Nadie hasta la fecha ha sido todavía capaz de
explicar por qué detienen en seco su giro en espiral y se estabilizan en las órbitas que
observamos.[46] De hecho, ya que no las hemos observado con suficiente detalle durante
suficiente tiempo, podría ser que siguieran aun girando en espiral. Además, estos modelos
no explican por qué nuestro sistema solar es tan distinto, excepto cuando parten del
supuesto arbitrario de que el gas nebular de nuestro disco no era lo bastante viscoso como
para que los gigantes gaseosos de la zona exterior del sistema girasen en espiral hacia la
zona interior.
Las técnicas actuales no son capaces de detectar planetas de masa similar a la de la
Tierra alrededor de las estrellas. Es posible que instrumentos más sofisticados acaben
descubriendo muchos planetas parecidos a la Tierra en masa, tamaño y órbita estable en
zona circunestelar habitable.
Por otro lado, nuestro sistema solar no contiene los planetas más comunes
detectados hasta la fecha, las súper-Tierras. Tal vez el hecho de que un pequeño planeta
rocoso como la Tierra permanezca en una órbita estable —supuestamente como
consecuencia de la influencia gravitatoria de un gigante gaseoso exterior como Júpiter, que
además nos protege del bombardeo de los cometas— y a la distancia óptima de su estrella
durante más de cuatro mil millones de años, tiempo suficiente para que la vida compleja
evolucione, es realmente un caso curioso.
Impacto de un planetesimal del tamaño de Marte
La explicación ortodoxa de la ciencia es que la luna excepcionalmente grande de la
Tierra es consecuencia del impacto de un planetesimal del tamaño de Marte.
Estudios recientes sugieren que en las fases finales de la acreción planetaria, cuando
los cuatro protoplanetas rocosos absorbieron en sus zonas orbitales los planetesimales
grandes que aún quedaban, los impactos masivos no eran una excepción. Pero de todas
maneras, para crear el núcleo de hierro anormalmente grande de la Tierra y su corteza
anormalmente fina, para acelerar la velocidad de giro de la Tierra, para cambiar la
inclinación de su eje de 22º a 24º, y para producir una luna anormalmente grande que
estabilizara esta inclinación, ralentizara la rotación de la Tierra y provocara las mareas, se
necesitaría el impacto de un planetesimal con la masa suficiente y con la velocidad relativa
y el ángulo idóneos. Estas consecuencias afectaron de forma significativa la aparición y la
evolución de la vida.
a) Núcleo de hierro anormalmente grande
Un núcleo de hierro anormalmente grande significa que lo único que se ha enfriado
lo suficiente para solidificarse ha sido el núcleo interno, dejando durante 4,5 miles de
millones de años un núcleo externo en estado líquido y capaz de generar una magnetosfera
potente que protege la superficie de la tierra de la radiación ionizante nociva y su atmosfera
del viento solar.
Los análisis de las rocas recogidas en Marte indican que ese planeta tuvo en su día
un campo magnético, pero las prospecciones no detectan ningún campo de este tipo en la
actualidad. Lo cual planteó la hipótesis de que Marte había tenido en su día un núcleo de
hierro líquido que, al igual que el núcleo interior de la Tierra, se habría enfriado y
solidificado; sin una magnetosfera protectora, el viento solar habría destruido la atmósfera
marciana en su práctica totalidad. Los sondeos tampoco han logrado detectar un campo
magnético importante en Venus (se cree que este planeta conserva una atmósfera densa
porque la elevada temperatura de su superficie volatiliza componentes como el agua, que
sería líquida en la Tierra).
b) Corteza anormalmente fina
La corteza anormalmente fina de la Tierra permite el movimiento de las placas
tectónicas, algo que se considera único en el sistema solar;[47] las evidencias obtenidas a
partir de las sondas, por ejemplo, sugieren que las placas tectónicas de Venus están
bloqueadas.
Como hemos visto, Kasting defiende que a pesar del incremente de la energía
irradiada por el sol, el rango de temperaturas favorable a la biosfera se ha mantenido
durante miles de millones de años, principalmente gracias a la regulación del efecto
invernadero del gas dióxido de carbono a través del mecanismo de las placas tectónicas.
Además, miembros de una especie separados por la deriva continental debida a las
placas tectónicas, se encuentran en distintas condiciones físicas y climáticas; las dos ramas
de la especie evolucionarán de forma distinta en sendos ambientes distintos.
De esta manera, la corteza fina permite la evolución de las especies.
c) Cambio en la rotación
Los modelos por ordenador sugieren que el impacto gigante llevó a la Tierra a
incrementar la velocidad de giro sobre su eje, llegando tal vez a un giro completo cada
cinco horas, y que la luna, recién formada, estaba mucho más cercana a la Tierra.
La proximidad de la gran luna generó una fuerza de gravedad enorme sobre la
superficie de la Tierra, que llegaba a levantarse y descender unos sesenta metros cuando la
luna pasaba por encima. Esta presión sobre la corteza terrestre ralentizó la rotación de la
Tierra y forzó el alejamiento de la luna, tal y como evidencian las mediciones de los pulsos
láser realizadas por la NASA.[48] La rotación de la Tierra se ha ralentizado hasta llegar al
ritmo de una vuelta completa cada 24 horas que tenemos actualmente. Este día más largo
implica que la superficie recibe más energía solar durante el día e irradia más calor durante
la noche. De ahí que la variación de la temperatura de superficie con respecto a su media
sea superior a la de cualquier otro planeta que gire a mayor velocidad. Lo cual permite un
rango más amplio de reacciones bioquímicas —aunque siempre dentro del rango que hace
factible el agua líquida—, lo que conlleva una variedad más amplia de moléculas
complejas, lo que a su vez incrementa las posibilidades de que la complejidad de dichas
moléculas sea mayor. Una vez ha aparecido la vida, el mismo efecto produce una mayor
variedad de entornos, lo que a su vez fomenta una diversidad evolutiva mayor.
Por otro lado, el «planeta hermano» de la Tierra, Venus, con casi su misma masa,
rota sobre su eje una vez cada 243 días terrestres. Esto, combinado con el tiempo que tarda
en trazar su órbita alrededor del sol, hace que el día solar de Venus sea de 117 días
terrestres. Una exposición diaria a la radiación solar tan prolongada ayudó a crear un efecto
invernadero desenfrenado que produjo una temperatura de superficie que hoy en día se
mantiene en torno a los 470º Celsius, tanto de día como de noche, una temperatura tan
elevada que fundiría incluso el plomo.[49]
d) Inclinación axial de 23,5º
La inclinación de 23,5º del eje de rotación de la Tierra (véase figura 12.2) genera las
variaciones estacionales de temperatura, que son distintas en distintas latitudes pero que se
mantienen siempre dentro del rango biosférico. Esta variedad en los climas estacionales en
distintos lugares de la superficie produce una amplia variedad de entornos cambiantes que
fomenta la diversidad biológica evolutiva.
e) Estabilización de la inclinación axial
La proximidad de la luna anormalmente grande genera un potente campo
gravitatorio que estabiliza la inclinación axial de la Tierra.
La estabilización no es perfecta; la inclinación axial ha oscilado entre los 22º y los
24º en el transcurso de 41.000 años[50] y contribuye a las glaciaciones periódicas que sufre
la Tierra, tal y como propone la que se conoce como hipótesis Milankovitch. Sin embargo,
se trata de una variación pequeña. Un estudio realizado en 1993 llegó a la conclusión de
que sin la luna, esta inclinación oscilaría caóticamente entre 0º y 85º en una escala de
tiempo de decenas de millones de años, lo que causaría estragos en el clima de la Tierra.
Una simulación por ordenador llevada a cabo en 2011 cuestiona esta afirmación y sugiere
que la inclinación oscilaría entre 10º y 50º en el transcurso de 4 miles de millones de años.
[51] Sea como fuere, estos cambios en la inclinación darían como resultado grandes
cambios de temperatura, lo que haría extremadamente difícil la evolución de vida compleja.
f) Mareas
El potente campo gravitatorio de la luna es también responsable de las mareas de los
océanos y los mares de la Tierra. Estas mareas no solo alteran los entornos físicos —y, por
lo tanto, fomentan la diversidad biológica evolutiva— erosionando la costa, sino que
además arrastran material del mar hacia tierra y a su vez se llevan material de tierra hacia el
mar, lo que fomenta la aparición de ecosistemas dinámicos.
La suma de todos estos factores, combinada con un aumento significativo de la
energía irradiada por el sol y un cambio enorme en la composición de la atmósfera de la
Tierra, supone un flujo cambiante de energía a través de un sistema que se ha mantenido
estable, aunque alejado del equilibrio termodinámico, durante cerca de cuatro mil millones
de años. Partiendo del trabajo de Ilya Prigogine, Morowitz y otros científicos consideran
que un sistema así genera un aumento de la complejidad física y química que conduce hacia
la aparición de la vida y su posterior evolución.[52]
Conclusiones
La medicina alternativa
Los últimos cincuenta años han sido testigos en Occidente del crecimiento de una
medicina alternativa basada en antiguas técnicas de curación orientales. Tratamientos como
la acupuntura y la acupresión están concebidos para desbloquear restricciones en el flujo
del qi, mientras que terapias como el reiki (del japonés «rei», que significa invisible o
espiritual y «ki», que significa energía vital, de ahí «energía vital universal») están también
enfocadas a transmitir o canalizar la energía vital universal al paciente, bien a través del
contacto, bien a través del movimiento de las manos del profesional cerca del cuerpo del
paciente.
Desde 1972, cuando una revista médica occidental informó por vez primera del
empleo en China de la acupuntura como analgésico en la cirugía mayor en vez de la
anestesia con fármacos, una parte de la profesión médica occidental ha probado y utilizado
con éxito la acupuntura muchas enfermedades, destacando entre ellas la gestión del dolor
agudo y crónico, la recuperación de la parálisis después de un ictus y el alivio de las
enfermedades respiratorias. Su funcionamiento continúa siendo una pregunta sin respuesta.
El enfoque holístico oriental ha sido adoptado a mayor escala por la enfermería
occidental. El tratamiento más conocido, cuyas enseñanzas se imparte en cerca de un
centenar de universidades y escuelas de medicina y enfermería de los Estados Unidos y
Canadá, es el «toque terapéutico». El contacto, o toque, no es con el cuerpo del paciente,
sino con el campo de energía vital del cuerpo, o aura, que los profesionales consideran que
se extiende hasta varios centímetros o metros del cuerpo. Las técnicas utilizadas no se
distinguen de las del reiki y se practican además bajo varios nombres distintos como
curación, curación espiritual o curación psíquica.
Accedí a recibir este tratamiento en dos ocasiones. En la primera de ellas, cuando la
profesional me pasó las manos por encima del cuerpo, experimenté una sensación de calor
y en la segunda, un hormigueo. Desconozco la naturaleza de estas sensaciones, que se dice
que son características.
La fundadora de Therapeutic Touch, la profesora de enfermería de la Universidad de
Nueva York, Dolores Krieger, identifica la energía como prana. Sostiene que el toque
terapéutico, al igual que la hipnoterapia, funciona con mayor efectividad sobre el sistema
nervioso. «En el análisis final, es el paciente el que se cura a sí mismo».[9] El sanador, o
terapeuta, según este punto de vista, actúa como un sistema de soporte de energía humana
hasta que el sistema inmunológico del paciente es lo suficientemente robusto como para
tomar el relevo.
Los éxitos son en su mayoría anecdóticos, con escasas pruebas sistemáticas. En
1973, Krieger demostró que los valores medios de hemoglobina de 46 sujetos aumentaron
después de un tratamiento con toque terapéutico en comparación con la ausencia de
cambios significativos en un grupo de control de 29 sujetos.[10] En 1998, el Medical
Center de la Universidad de Pittsburgh informó de mejoras importantes en la función y en
el alivio del dolor provocada por la osteoartritis de rodilla en pacientes tratados con toque
terapéutico en comparación con grupos tratados con placebo y grupos de control, aunque
solo 25 pacientes acabaron completando el estudio.[11]
Por otro lado, es famoso el artículo que publicó el Journal of the American Medical
Association el 1 de abril de 1988 sobre una prueba supuestamente concebida por Emily
Rosa, de once años de edad. La niña invitó a 21 especialistas en toque terapéutico a pasar
las manos a través de un agujero abierto en una pantalla opaca para percibir su campo de
energía vital. Emily lanzaba una moneda al aire para decidir a cuál de las dos manos del
especialista iba a acercar las suyas y el especialista debía detectar su aura y decir a qué
mano se había acercado. Los especialistas alcanzaron un porcentaje de éxito del 44 por
ciento, un nivel inferior al 50 por ciento que cabría esperar que acertaran por puro azar.[12]
Hipótesis de campos
Todo lo cual nos lleva a la pregunta de cómo define la vida la ciencia ortodoxa
actual. Según Edward O. Wilson, una de las pocas autoridades mundiales que ha
reflexionado en profundidad sobre la ciencia más allá de su campo de especialización, el
estudio de las hormigas, «el reduccionismo es la actividad principal y esencial de la
ciencia».[19]
La mayor parte de nuestra inmensa riqueza de conocimientos sobre la naturaleza, y
de nuestra comprensión de la misma desde la primera revolución científica en Occidente, se
debe a la técnica analítica que consiste en descomponer las cosas en las distintas partes que
las componen y estudiarlas. Sin ella, no sabríamos que las páginas de este libro Estan
hechas principalmente de celulosa, que es un polímero lineal de moléculas consistentes en
átomos de carbono, oxígeno e hidrógeno, cada uno de los cuales consiste en un núcleo de
carga positiva orbitado a distancias relativamente enormes por electrones de carga negativa,
mientras que es el movimiento de los electrones libres lo que produce electricidad y campos
magnéticos.
Los éxitos espectaculares que cosechó el reduccionismo en la física durante el siglo
xix y principios del siglo xx se repitieron en la biología cuando, en 1953, James Watson y
Francis Crick demostraron que la estructura de doble hélice de la molécula de ADN (ácido
desoxirribonucleico) explica el funcionamiento de la herencia.
El reduccionismo, sin embargo, no puede explicar la vida, del mismo modo que
descomponer una obra de Shakespeare en palabras y luego esas palabras en letras del
alfabeto no puede explicar los personajes, las emociones y el drama de la obra.
Podemos ponernos de acuerdo en que un ser humano está vivo. Podemos también
ponernos de acuerdo en que los miles de millones de células que componen un ser humano
están vivas. Pero si examináramos los componentes de cada una de estas células,
¿podríamos decir que cada uno de sus cromosomas está vivo? ¿Que cada una de sus
proteínas está viva? La respuesta es claramente no, igual que lo es para todos los átomos
que componen todas las proteínas. El fracaso del reduccionismo[20] en cuanto a conseguir
explicar la vida llevó a los científicos a prestar atención al concepto de emergencia
articulado por el filósofo inglés John Stuart Mill en 1843 y desarrollado posteriormente en
centenares de versiones. En la más sencilla de todas ellas, significa que el todo es más que
la suma de sus partes, del mismo modo que la imagen resultado de un puzle solo emerge
cuando las partes del puzle están organizadas de una manera concreta.
La siguiente definición, que incorpora las tres grandes categorías relacionadas con
las preguntas que esta investigación pretende responder, ofrece el sentido que yo utilizo del
concepto (otros utilizan las mismas palabras para definir y categoriza de diversas maneras).
Emergencia: la aparición en un todo complejo de una o más propiedades nuevas
que ninguna de sus partes constituyentes presenta.
La «emergencia débil» se da cuando las propiedades nuevas que aparecen en el
nivel superior pueden explicarse por la interacción de las partes constituyentes.
La «emergencia fuerte» se da cuando las propiedades nuevas que aparecen en el
nivel superior no pueden reducirse ni predecirse a partir de la interacción de las partes
constituyentes.
La «emergencia de sistemas» se da cuando las propiedades nuevas que aparecen en
el nivel superior interactúan causalmente con propiedades de nivel inferior; esta causalidad
descendente, y también ascendente, suele formar parte de un enfoque sistémico que, en
contraste con el enfoque reduccionista, considera cada componente como una parte
interdependiente del todo.
El científico Francis Crick, abiertamente reduccionista, reconoció que invocar la
emergencia podría ser necesario, aunque reivindicó que con la emergencia débil bastaría
para explicar la vida.
Mientras que es posible que el todo no sea simplemente suma de todas las partes, su
conducta puede, al menos en principio, comprenderse a partir de la naturaleza y la conducta
de sus partes constituyentes más el conocimiento de cómo interactúan dichas partes.[21]
Paul Davies, físico teórico y cosmólogo que dirige actualmente el Center for
Fundamental Concepts in Science de la Universidad de Arizona, aplica esto a la vida
afirmando que:
No encontraremos el secreto de la vida entre los átomos per sé, sino en el patrón que
sigue su asociación, en la forma en que están unidos […]. Los átomos no necesitan ser
«animados» para producir vida, lo que simplemente necesitan es estar dispuestos de una
manera compleja y adecuada.[22]
El neurobiólogo británico, Donald Mackay, por otro lado, desafió la emergencia
débil dentro de este contexto sirviéndose del ejemplo de un panel publicitario (como los
que pueden encontrarse en Times Square, Nueva York) con bombillas de colores que se
encienden y se apagan de una forma programada para deletrear el mensaje «La vida es
mejor con Coca-Cola». Un ingeniero eléctrico reduciría este sistema a sus componentes y
explicaría cómo y por qué se encienden las distintas luces y cómo se coordina su ritmo de
encendido. Pero entender las interacciones de los distintos componentes eléctricos no
facilita la comprensión, y mucho menos predice, el mensaje de que beber Coca-Cola te
mejora la vida. Para ello se necesita otro nivel de explicación. Es un ejemplo de emergencia
fuerte.[23]
La explicación que Davies da de la vida resulta insuficiente. Los miles de millones
de células de un cuerpo humano no están simplemente dispuestas de una manera compleja
y adecuada; sino que las células interactúan entre ellas y dependen las unas de las otras para
formar un ser humano completo y vivo. Siguiendo esta lógica, la vida es una propiedad
emergente de un sistema
Pero esto no nos dice, sin embargo, qué es esta propiedad emergente. Más
concretamente, cuáles son las características de esta propiedad emergente que
denominamos vida que la diferencian de lo que no es vida.
Características de la vida
Pese a ser algo que intuitivamente parece evidente, los científicos y los filósofos no
consiguen ponerse de acuerdo con respecto a cuáles son las características de la vida. Casi
todos ofrecen un listado. Una o más de las siguientes características aparecen en la mayoría
de esos listados, pero el número de características incluidas en los distintos listados varía
considerablemente.
a) Reproducción.
b) Evolución.
c) Sensibilidad (respuesta al estímulo).
d) Metabolismo.
e) Organización.
f) Complejidad.
Son términos que significan cosas distintas para personas distintas y, por lo tanto,
para decidir si son necesarias o suficientes para definir la vida, es importante dejar claro lo
que significa cada una de estas características.
Reproducción
En 2004, Philip Ball, por entonces asesor editorial de Nature, defendió que el
ejercicio de intentar definir la vid no tiene sentido y es una pérdida de tiempo para filósofos
y científicos. Argumentando que no existen fronteras entre lo vivo y lo no vivo, citaba el
caso de los virus. Los virus se reproducen, evolucionan, están organizados y son complejos
(en comparación, por ejemplo, con un aminoácido), pero son parásitos. Lejos de una célula
viva, un virus es inactivo; solo se vuelve activo cuando encuentra una célula huésped
idónea y se apodera de la maquinaria metabólica de la célula para reproducir nuevas
partículas de virus, que pueden entonces infectar otras células.
Puesto que la actividad de los virus depende de la existencia de una célula huésped,
no pueden considerarse candidatos para el título de primeras formas de vida que
emergieron en la Tierra y, por otro lado, tampoco son formas de vida independiente. A
diferencia del punto de vista de Ball de que «Nadie sabe si calificar o no a los virus de seres
vivos»,[30] la mayoría de fuentes define a los virus como partículas que son activas o
inactivas a diferencia de vivas o muertas.[31]
Ball apunta también que en Agosto de 2002, Eckard Wimmer y sus colegas de la
State University de Nueva York, observaron la estructura química del genoma del virus de
la polio a través de Internet, ordenaron los segmentos de material genético de compañías
que sintetizan ADN y lo unieron todo para crear un genoma completo. Cuando lo
combinaron con las enzimas adecuadas, este ADN sintético proporcionó la semilla a partir
de la cual crecieron partículas de virus de la polio. A Ball no le cabe la menor duda de que
los biólogos pronto serán capaces de fabricar cosas como células que en general se
consideran vivas, reforzando con ello su punto de vista de que intentar definir la vida no
tiene sentido.
A pesar de que ir marcando las casillas de un listado de características más o menos
vagas no es en absoluto productivo, no hay que extraer la conclusión de que no existe
distinción entre lo que está vivo y lo que no lo está. Se han realizado intentos prometedores
de definir la vida en términos de un sistema que interactúa de maneras específicas con su
entorno, y a continuación examinaré los que considero más relevantes. (Resulta interesante
el detalle de que uno de ellos lo presenta un físico teórico, otro un antiguo físico teórico y
otro un biólogo cuya conjetura parte de las bases de la física teórica. La mayoría de
biólogos que trabaja en departamentos universitarios etiquetados como de «Ciencias
vivas», concentra su trabajo en campos limitados dentro de subespecialidades limitadas de
la biología, como el estudio de vectores retrovirales dentro de la subespecialidad de la
biología molecular, y muestra escaso interés por lo que define su especialidad dentro de la
ciencia).
El sistema auto-organizado de Smolin
El físico teórico Lee Smolin se inspira en las ideas de los sistemas complejos auto-
organizados propuestas por Ilya Prigogine, John Holland, Harold Morowitz, Per Bak y
Sturar Kauffman para construir lo que denomina una teoría en desarrollo para definir la
vida. (En el próximo capítulo consideraré estas ideas, puesto que afirman poder explicar la
aparición de la vida).
Todo ello le lleva a proponer que la vida en la Tierra podría definirse como:
1. Un sistema auto-organizado sin equilibrio
2. Cuyos procesos están gobernados por un programa que simbólicamente está
almacenado en las estructuras del ADN y el ARN (igual que el ADN, se trata de un ácido
nucleico pero que normalmente forma una sola hebra de nucleótidos[32]) y
3. Que puede reproducirse, incluyendo en esa reproducción su programa.[33]
Sin embargo, los únicos organismos que se reproducen a sí mismos son los
unicelulares. Un animal, por ejemplo, no es capaz de reproducirse a sí mismo ni de
reproducir por sí solo su programa de ADN; es el sexo con una pareja lo que produce un
vástago, que será distintos de sus dos progenitores y que tendrá un programa de ADN
distinto. Y, como se ha apuntado previamente, existen especies, como las mulas y las
hormigas obreras, que no pueden tener descendencia y satisfacen igualmente los criterios
(1) y (2). De ahí, que este intento no consigue alcanzar su objetivo.
La trama de la vida de Capra
La ausencia de finalidad como característica de las cosas vivas está extendida entre
los científicos; rara es la vez, si alguna, que tener una finalidad aparece en sus listados. Hay
científicos que parecen confundir teología con teleología (la explicación de los hechos en
términos de finalidad) y temen mencionar una finalidad por miedo a que alguien los acuse
de insinuar con ello la existencia de un creador divino que diseña dicha finalidad. Ni mucho
menos. Otros eluden el término porque, normalmente, una finalidad implica una intención.
De hecho, los actos de los animales son intencionados: el lector que gira las páginas de este
libro para leer su contenido, el halcón que se abalanza en picado para cazar un ratón. Sin
embargo, los actos de las formas de vida más primitivas, como la planta que abre sus hojas
a la luz del sol para generar energía mediante fotosíntesis o la bacteria que nada hacia una
fuente de comida, se consideran en general como respuestas a los estímulos, instintivas o
internamente dirigidas, y no actos intencionados. De ahí que probablemente sea mejor
utilizar la expresión «acto internamente dirigido» como característica de todas las formas
de vida; no existe ninguna ley física o química que diga que usted, el halcón, la bacteria o la
planta tendría que actuar de una determinada manera y no existe ningún ser no vivo, como
el agua o una piedra, que lleve a cabo actos dirigidos internamente.
La vida cuántica de McFadden
Para comprender cómo apareció la vida a partir de los átomos y las moléculas que
constituyeron la Tierra, necesitamos tener claro qué es la vida. Como hemos visto, llegar a
una definición razonable no es ni mucho menos fácil y ni científicos ni filósofos se ponen
de acuerdo al respecto. La definición funcional que propongo es la siguiente:
Vida: la capacidad de una entidad cerrada de responder a los cambios que se
producen dentro de sí misma y en su entorno, de extraer energía y materia de su entorno y
de convertir esa energía y esa materia en una actividad dirigida internamente que incluya el
mantenimiento de su propia existencia.
Una forma de vida puede tener capacidad para producir descendientes, pero no es
una característica necesaria.
Conclusiones
Esta definición rechaza el argumento de que no existe distinción entre lo que está
vivo y lo que no lo está: las cosas que no están vivas no son necesariamente cerradas y no
poseen las funciones características y la actividad dirigida internamente de las cosas vivas.
El hecho de que la frontera entre una cosa y otra sea muy difusa, como sucede en el caso un
virus, no implica que esa frontera no exista. El cambio de lo no vivo a lo vivo representa no
solo una simple diferencia de grado, sino una diferencia de tipo. Se trata de una diferencia
cualitativa, análoga a un cambio de fase, del mismo modo que el agua en estado gaseoso es
cualitativamente distinta del agua en estado líquido y no es simplemente agua más caliente,
por mucho que la superficie con burbujas del agua hirviendo no sea una frontera clara.
Cómo y cuándo tuvo lugar este cambio es algo que examinaré en el siguiente
capítulo.
[1]Nagler (1987), p. 265.
[2]Upanishads (1987), pp. 155–172.
[3]Nagler (1987), p. 265.
[4]Moira Yip, profesora de Fonética y lingüística del University College de
Londres, comunicación personal, 28 de enero de 2008.
[5]Gottlieb (2001), pp. 13–14.
[6]Ibid, p. 311.
[7]Ibid, pp. 230–239; «Vitalism», The Oxford Dictionary of Philosophy, Oxford
University Press, Oxford, 2005
[8]Bechtel, William y Richardson, Robert C., «Vitalism», Routledge Encyclopedia
of Philosophy editada por E. Craig, Routledge, Londres, 1998.
[9]Krieger (1993), p. 7.
[10]Krieger, Dolores, «Therapeutic Touch: The Imprimatur of Nursing», The
American Journal of Nursing 75: 5, 1975, pp. 784–787.
[11]Gordon, A., et al., «The Effects of Therapeutic Touch on Patients with
Osteoarthritis of the Knee», J Fam Pract, 47: 4, 1998, 271–277.
[12]Rosa, Linda, et al., «A Close Look at Therapeutic Touch», JAMA, 279: 13,
1998, pp. 1005–1010.
[13]Bohm (1980).
[14] Véase página 95.
[15]Laszlo (2006).
[16]Sheldrake (2009).
[17]Maddox, John, «A Book for Burning?», Nature, 293, 1981, pp. 245–246.
[18]Stenger, Victor J., «Bioenergetic Fields», The Scientific Review of Alternative
Medicine, 3, 1991, p. 1
[19]Wilson (1998), p. 58.
[20] Utilizo el término «reduccionismo» en su sentido científico y no hago
referencia a ninguna versión del reduccionismo metafísico.
[21]Crick (1995). p. 11.
[22]Davies (1990), p. 61.
[23]Citado por ibíd, pp. 61–62.
[24]Citado en McFadden (2000), p. 13.
[25]Davies (1990), p. 59,
[26]Ibíd, p. 65.
[27] Véase página 248.
[28] Véase página 247.
[29] Véase página 247.
[30]Ball, Philip, «What Is Life? Can We Make It?», Prospect, agosto, 2004, pp. 50–
54.
[31]Véanse, por ejemplo, las definiciones de virus que aparecen en Gale Genetics
Encyclopedia, 2003; McGraw-Hill Science and Technology Encyclopedia, 2005; Columbia
Electronic Encyclopedia. Consultado el 31 de Julio de 2008.
[32] Véase página 354 para su definición.
[33]Smolin (1998), p. 194.
[34]Capra (1997).
[35]Ibíd, p. 96.
[36]McFadden (2000), pp. 13–16.
CAPÍTULO 14. EL ORIGEN DE LA VIDA 1: EVIDENCIAS
Aristóteles, siglo iv a. C.
A pesar de que no existe una definición aceptada por todos sobre lo qué es la vida,
la mayoría de científicos se muestra de acuerdo en que las primeras formas de vida
debieron de ser las más sencillas. La primera de ellas fue una procariota autosuficiente, una
célula cuyo material genético no está encerrado en un núcleo. Biólogos y geólogos buscan
evidencias de estas formas de vida a partir de dos fuentes: los fósiles y los extremófilos,
organismos que actualmente viven en las condiciones extremas que se consideran
semejantes a las de la Tierra primitiva.
Fósiles
Los fósiles son los restos mineralizados o conservados de distintas formas de vida.
Normalmente se encuentran en rocas sedimentarias, aunque las temperaturas muy bajas, la
desecación o un ambiente anóxico (sin oxígeno) podría haber evitado también su
descomposición.
Los científicos que intentan localizar los fósiles más antiguos se enfrentan con dos
problemas. En primer lugar, hay muy pocos organismos fosilizados: en su mayoría han sido
devorados —vivos o muertos— por otros organismos o se han descompuesto después de su
muerte. En segundo lugar, los escasos fósiles que han llegado hasta nosotros se formaron
cuando los sedimentos —arena o barro, por ejemplo— cubrieron rápidamente el organismo
después de su muerte, es decir, lo comprimieron e integraron con la roca sedimentaria. Pero
apenas tenemos rocas sedimentarias de los primeros mil millones de años de existencia de
la Tierra y las que han llegado hasta nosotros están metamorfoseadas por procesos que
suelen destruir prácticamente por completo cualquier resto fósil.
Hasta 1993, las evidencias más tempranas eran las que se encuentran en las capas de
chert —una roca sedimentaria de grano fino—, de la cordillera de Gunflint, en la región
occidental de Ontario, Canadá. Entre 1953 y 1965, el botánico Elso Barghoorn, de la
Universidad de Harvard, y el geólogo Stanley Tyler, de la Universidad de Wisconsin,
descubrieron fósiles estructuralmente bien conservados y con morfología bien definida de
doce nuevas especies, incluyendo entre ellas microorganismos ramificados complejos cuya
antigüedad, determinada por la datación radiométrica de las capas de chert, se estableció en
torno a los dos mil millones de años.[1] Si estas estructuras complejas son la evolución de
formas de vida más simples, se deduce que la vida empezó a existir en un momento más
temprano.
Bill Schopf, paleobiólogo de la Universidad de California, Los Angeles, se propuso
descubrir estas formas de vida más antiguas investigando las rocas sedimentarias del cratón
de Pilbara, en el oeste de Australia, que, según una datación radiométrica uranio-plomo
muy precisa, tenían 3.465 miles de millones de años de antigüedad. Dichas rocas habían
sufrido metamorfosis, pero en 1993 el científico anunció que había descubierto once
microfósiles con estructuras distintas pertenecientes a distintas especies de cianobacterias
(bacterias verdeazuladas clasificadas previamente como algas). Sustentó su afirmación con
el análisis del contenido en isótopos de carbono de los fósiles. Se trata de una técnica
similar al método de datación con radiocarbono descrito previamente.[2] El isótopo más
común, el carbono-12, es más reactivo que el carbono-13 y participa en la fotosíntesis,
proceso por el cual los organismos metabolizan el dióxido de carbono de la atmósfera para
transformarlo en carbono orgánico. En consecuencia, la proporción entre carbono-13 y
carbono-12 en el carbono biogénico es un tres por ciento inferior que en el carbono
inorgánico, y esta proporción se conserva a lo largo de los procesos metamórficos que
destruyen los microfósiles. Schopf declaró que los ejemplares que había descubierto
mostraban esta proporción tan característica.[3]
El anuncio causó sensación en su momento. Lo que aquello implicaba era que
incluso antes de lo que se imaginaba habían existido formas de vida menos complejas. La
datación las situaba a finales del eón hádico, cuando la tierra estaba siendo bombardeada
por asteroides y otros desechos de la formación planetaria.
Se abrió entonces la veda para buscar evidencias. Stephen Mojzsis, estudiante de
doctorado del Scripps Institution of Oceanography de la Universidad de California, San
Diego, viajó al cinturón de Isua, en el oeste de Groenlandia, que contenía unas rocas que
habían sido datadas con una antigüedad de 3,8 miles de millones de años. Las rocas habían
sufrido un proceso de metamorfosis mayor incluso que las de Pilbara. Se estimaba que a lo
largo de mil millones de años de deposición de sedimentos, las rocas se habían visto sujetas
a temperaturas de 500º Celsius y a presiones superiores a 5.000 atmósferas, lo que en teoría
tendría que haber destruido cualquier fósil. Pero Mojzsis y su equipo anunciaron en 1996
que habían encontrado evidencias de vida no solo en aquellas rocas, sino también en rocas
50 millones de años más antiguas de la cercana isla de Akilia, lo que situaba las primeras
evidencias de vida hace 3,85 miles de millones de años, dentro del eón hádico.
Las trazas de carbono consistían en glóbulos increíblemente minúsculos —de una
billonésima de gramo—, pero Mojzsis decidió analizarlos mediante una microsonda de
iones y calculó su composición isotópica con un espectrómetro de masas de sector
magnético. Las pruebas delataron la característica reducción de carbono-13. Además de
esto, el equipo había encontrado estas trazas de carbono incrustadas en granos de apatita; a
pesar de ser un mineral común en pequeñas cantidades en muchas rocas, se encuentra
también en organismos, de modo que las evidencias sugerían la presencia de vida por
partida doble.[4]
A pesar de las muchas preguntas suscitadas por la edad de la roca Akilia, durante
seis años los paleobiólogos aceptaron la evidencia de que se había detectado vida durante el
eón hádico.
Pero en 2002, Christopher Fedo, del departamento de Ciencias medioambientales y
de la tierra, de la George Washington University, y Martin Whitehouse, del laboratorio de
Geología isotópica del Museo de Historia natural de Suecia, desafiaron la afirmación de
Mojzsis de que el descubrimiento de carbono se había realizado en capas de una roca
sedimentaria conocida como formación de hierro bandeado. Su análisis de la roca llegaba a
la conclusión de que era ígnea, formada a partir de antigua actividad volcánica y, en
consecuencia, no podía contener reliquias orgánicas. El desafío daba a entender también
que no podía asumirse que la disminución de carbono-13 fuera debida única y
exclusivamente a la actividad biológica.[5] Mojzsis y sus colegas desafiaron entonces los
datos de Fedo y Whitehouse y la interpretación que habían hecho de los mismos.[6]
Aquel mismo año, Martin Brasier y sus colegas de la Universidad de Oxford
anunciaron que habían examinado con detalle las muestras de Schopf, y que la afirmación
de Schopf de que la morfología de los ejemplares que había descubierto indicaba
indiscutiblemente que se trataba de células no era válida y mucho menos que fueran
cianobacterias. Brasier sostenía que los glóbulos de carbono debían de haberse formado por
la acción del agua hirviente sobre los minerales del sedimento circundante.[7] Schopf
defendió su posición, pero sus argumentos quedaron debilitados por las declaraciones de la
estudiante que había colaborado en su día en la investigación, Bonnie Packer, que adujo
que Schopf había sido selectivo a la hora de presentar evidencias y que había ignorado sus
protestas al respecto.[8]
En 2006 y 2007, el equipo de Mojzsis que había trabajado en la isla de Akilia
respondió a las críticas, pero el punto de vista generalizado entre los científicos
interdisciplinarios que trabajan en este campo es que las evidencias no sostienen hasta el
momento la afirmación de que los primeros rastros de vida en la Tierra se remonten a 3,85
miles de millones de años. Las evidencias actuales solo sustentan la hipótesis de que los
organismos conocidos como extremófilos existían hace aproximadamente 3,5 miles de
millones de años, es decir, alrededor de mil millones de años después de la formación de la
Tierra.
Extremófilos
Carl Woese, de la Universidad de Illinois, descubrió que los genes que codifican el
ARN de los ribosomas (las unidades de la célula que fabrican las proteínas) son antiguos y
existen en todo tipo de organismos. En 1977, publicó el análisis genético de pequeñas
subunidades ribosomales de ARN de un amplio abanico de células y las clasificó según su
similitud molecular. Asumiendo que las diferencias representaban un cambio evolutivo,
declaró que el árbol genealógico genético resultante describe los linajes evolutivos de
manera más precisa que el registro fósil incompleto o los puntos de vista subjetivos acerca
del tamaño y la forma de los organismos.[14]
La figura 14.1 muestra la versión actualizada por el biólogo molecular Norman Pace
del árbol filogenético de Woese, agrupando las células en tres dominios.
Distintos autores utilizan nombres distintos para estos tres grupos de formas de
vida. Siguiendo el trabajo pionero de Woese, los nombres que aparecen en el diagrama
fueron adoptados para distinguir con claridad entre los dos tipos de procariotas, los
dominios Arqueas y Bacterias, y los utilizaré por el bien de la consistencia; recientemente,
sin embargo, biólogos evolutivos han retomado los nombres originales de arqueobacterias y
eubacterias teniendo en cuenta los análisis de genomas completos que consideraré más
adelante.
Bacterias: organismos unicelulares extremadamente pequeños cuya información
genética, codificada en un bucle de ADN de doble hebra, no queda encerrada en un núcleo
delimitado por una membrana (y por lo tanto son procariotas). Además de este nucleoide, la
célula puede incluir uno o más plásmidos, hebras circulares de ADN capaces de replicarse
independientemente y que no son responsables de la reproducción del organismo. Suelen
reproducirse dividiéndose en dos y produciendo copias idénticas de sí mismas. Presentan
diversas formas, destacando entre ellas las esferas, las barras, las espirales y las comas.
Arqueas: procariotas que se diferencian de las bacterias tanto en su composición
genética como en la de sus membranas plasmáticas y sus paredes celulares. Incluyen la
mayoría de los extremófilos. A pesar de ser estructuralmente similares a las bacterias, su
ADN cromosómico y su maquinaria celular se parecen más a los de las eukarya.
Eucariotas: organismos cuyas células incorporan un núcleo delimitado por una
membrana y que contiene la información genética de la célula, además de orgánulos, que
son estructuras discretas que realizan funciones concretas. Más grandes y tanto estructural
como funcionalmente más complejas que las procariotas, comprenden organismos
unicelulares, como las amebas, y todos los organismos multicelulares, como las plantas, los
animales y el ser humano.
La mayoría de células eucariotas se replica para producir copias idénticas de sí
mismas. Sin embargo, los organismos multicelulares comprenden un tipo de célula
eucariota, el gameto, capaz de fusionarse con un gameto de otro organismo para producir
un organismo hijo que posee características genéticas de cada progenitor. Esta reproducción
sexual, pues, combina genes parentales distintos en una célula hija, a diferencia de la
reproducción asexual de las procariotas.
¿Antepasado universal común?
Para poder evaluar las ideas sobre cómo apareció la vida en la Tierra, debemos antes
comprender, por un lado, las diferencias de tamaño, complejidad, estructura y
funcionamiento de las moléculas que evolucionaron sobre la superficie de la Tierra
primitiva, o que evolucionaron en los asteroides y cometas que las depositaron en la
superficie de la Tierra durante el bombardeo y, por el otro, el tamaño, la complejidad, la
estructura y el funcionamiento de la forma de vida independiente más sencilla que
conocemos, a saber, una procariota unicelular.
Tamaño
Las procariotas tienen entre una milésima y una centésima de milímetro de longitud
y se presentan de diversas formas, incluyendo entre ellas esferas, barras, espirales y comas.
Componentes y estructura
La figura 14.2 muestra los componentes y la estructura de una bacteria simple, que
son las mismas que las de un arqueón (sus diferencias bioquímicas y estereoquímicas no
tienen por qué preocuparnos aquí.)
Si examinamos las partes de esta célula y cómo interactúan entre ellas, veremos que
la clave del funcionamiento de una forma tan simple como esta es su ADN.
ADN
ADN: ácido desoxirribonucleico, localizado en las células, contiene las
instrucciones genéticas utilizadas para el mantenimiento y la reproducción de todos los
organismos independientes conocidos y de algunos virus.
Una molécula de ADN está formada por dos largas cadenas con cuatro nucleótidos
dispuestos en una secuencia característica; las cadenas (denominadas comúnmente
«hebras») están trenzadas en una doble hélice y unidas mediante enlaces de hidrógeno entre
las bases complementarias de adenina (A) y timina (T) o citosina (C) y guanina (G), de tal
modo que su estructura recuerda la de una escalera de caracol.
Cuando se copia el ADN en una célula, las hebras se separan y actúan a modo de
plantilla para unir una nueva cadena complementaria a partir de las moléculas de la célula.
Las hebras de ADN actúan también como plantillas para la síntesis de proteínas en
la célula a través de un mecanismo que utiliza otro ácido nucleico, el ARN, como
intermediario.
ARN: el ácido ribonucleico se parece al ADN porque consiste en una cadena de
cuatro nucleótidos dispuestos en una secuencia característica, pero aquí el uracilo (U)
sustituye a la timina (T) que, junto con la adenina (A), la citosina (C) y la guanina (G)
forman las bases de los nucleótidos, y las hebras son únicas, excepto en determinados virus.
Gen: la unidad fundamental de la herencia, que normalmente comprende segmentos
de ADN (en algunos virus son segmentos de ARN, no de ADN); la secuencia de las bases
de cada gen determina las características hereditarias individuales, codificando para la
síntesis de proteínas. Los segmentos suelen estar dispersos, de modo que algunas partes se
encuentran en regiones lejanas del cromosoma y se solapan con otros genes.
Cromosoma: es la estructura que contiene la información genética de la célula. En
una célula eucariota, consiste en hebras filiformes de ADN envueltas en una doble hélice
alrededor de un núcleo de proteínas dentro del núcleo de la célula; además de este
cromosoma nuclear, la célula puede contener otros cromosomas más pequeños, por
ejemplo, una mitocondria. En una célula procariota, consiste en un único bucle de ADN
estrechamente enrollado; la célula puede contener también una o más moléculas circulares
y más pequeñas de ADN, lo que se conoce como plásmidos.
En el arqueón o bacteria más simple, el cromosoma suele adoptar la forma de un
único bucle de ADN de doble hebra que se dobla para poder ubicarse en la célula, como
muestra la figura 14.2.
El físico, químico y filósofo Michael Polany señaló que mientras que la capacidad
de establecer pares de base del ADN (A-T y C-G) está totalmente determinada por las leyes
de la química, la secuencia de base del ADN no lo está. El ADN es capaz de formar
cualquier secuencia de bases concebible, de cualquier longitud y de cualquier composición.
La información que determina cómo funciona una célula, como se repara y como se replica
está contenida en cada secuencia concreta y es irreducible: no puede predecirse a partir del
conocimiento de sus partes constituyentes, ni a partir del comportamiento de estas, ni a
partir de las leyes de la física y la química.[21]
El hipotético antepasado común tenía probablemente entre 800 y 1.000 genes. La
bacteria Mycoplasma genitalium tiene unos 470 genes, que incluyen en torno a 580.000
pares de base de ADN. Pero se trata de un parásito que depende de otras células para llevar
a cabo la mayor parte de su trabajo de biosíntesis. De ahí que sea razonable suponer que,
para funcionar de manera independiente, esa célula más simple que debió de ser el
antepasado común debería de haber tenido al menos 600.000 pares de base de ADN. Como
que cada base forma parte de un nucleótido que incluye la base, un azúcar, y uno o más
grupos de fosfatos, lo que hace un total de un mínimo de 30 átomos, su cromosoma
consistiría en un mínimo de 36 millones de átomos dispuestos de un modo muy específico
y complejo que cambiaría con el funcionamiento de la célula.
Ribosoma
La célula fabrica proteínas para su propia reparación y mantenimiento mediante una
hebra de ADN que actúa a modo de plantilla para crear ARN mensajero a partir de las
moléculas de la célula. El ARN mensajero transporta entonces la información genética del
ADN, codificada en la secuencia de sus bases, hasta un ribosoma.
Ribosoma: partícula redonda compuesta por ARN y proteínas que se encuentra en
el citoplasma de las células. Actúa a modo de lugar de reunión de las proteínas y traduce el
código genético lineal que transporta un ARN mensajero y lo transforma en una secuencia
lineal de aminoácidos.
Proteína: molécula consistente en una cadena formada por entre 50 y varios miles
de aminoácidos que proporciona estructura a todas las células y controla reacciones. Una
proteína se caracteriza por la secuencia formada por los hasta los 20 tipos distintos de
aminoácidos que integran la cadena, más la configuración tridimensional de dicha cadena.
La arquea más simple sintetiza proteínas de entre 50 y 300 aminoácidos de longitud.
Aminoácido: una molécula que consiste en un átomo de carbono enlazado con un
grupo amino (-NH2), un grupo carboxilo (-COOH), un átomo de hidrógeno y un cuarto
grupo que difiere de un aminoácido a otro y que suele denominarse grupo-R o cadena
lateral. El grupo-R, que puede variar mucho, es el responsable de las diferencias en las
propiedades químicas de la molécula.
Los aminoácidos suelen producirse en dos formatos, o isómeros ópticos, en los que
se intercambian las posiciones del grupo-R y del grupo carboxilo. Este fenómeno se conoce
como quiralidad, y una de las formas recibe el nombre de dextrogira o D (del latín
«dexter», derecha), mientras que la otra recibe el nombre de levogira o L (del latín
«laevus», zurdo). Prácticamente todos los aminoácidos que encontramos en las células
tienen formato L.
La figura 14.2 muestra dos cosas en el exterior del cerramiento de la célula. Los pili
son apéndices de aspecto similar a un pelo que conectan una célula con otra de su especie o
con otra célula de una especie distinta. El pilus construye un puente entre los citoplasmas
de las células conectadas.
El flagelo es una especie de cola que se mueve como un látigo para impulsar la
célula a través de un fluido, a menudo hacia una fuente de energía o hacia las moléculas
necesarias para el mantenimiento de su existencia.
Formas cambiantes de las proteínas
Y por si la célula más simple no fuera ya bastante compleja de por sí, no basta con
que cada una de sus muchas proteínas y enzimas consista en una combinación de hasta 20
aminoácidos distintos dispuestos en una cadena de entre 50 y 300 de estos aminoácidos con
una secuencia característica, sino que además, para ser funcional, cada una de estas cadenas
debe tener la forma correcta. La mayoría de proteínas se dobla en estructuras únicas
tridimensionales y cambia su forma cuando toma parte de las distintas reacciones químicas.
La figura 14.6 y la figura 14.7 ilustran la complejidad de la forma de una proteína.
Conclusiones
1. Se han identificado evidencias fósiles concluyentes de vida, en forma de
microorganismos complejos, en rocas datadas hace dos mil millones de años, unos 2,5
miles de millones de años después de que se formara la Tierra. Suponiendo que estos
microorganismos evolucionaran a partir de formas de vida más sencillas, la vida debió de
existir antes de entonces. Se han lanzado teorías que defienden que la vida se inició hace
3,5 miles de millones de años, o incluso 3,8 o 3,85 miles de millones de años, lo que
situaría este inicio en el eón hádico, cuando la Tierra se vio bombardeada por asteroides y
otros desechos resultado de la formación del sistema solar, pero tanto las evidencias como
su interpretación son discutibles. La mejor estimación actual sitúa el origen de la vida hace
3,5 miles de millones de años.
2. El descubrimiento de extremófilos, organismos que viven actualmente en
condiciones extremas similares a las que se cree que debía de haber durante el eón hádico,
sugiere que la vida podría haber existido en aquellos tiempos, durante los primeros 700
millones de años después de la formación de la Tierra, pero no lo demuestra.
3. Debido a la escasez de registros fósiles en general, y debido a que prácticamente
todas las rocas sedimentarias de los primeros dos mil millones de años de existencia de la
Tierra han quedado subducidas o se han visto metamorfoseadas, es prácticamente seguro
que nunca encontraremos evidencias claras de las primeras formas de vida que nos ayuden
a entender cuándo aparecieron en la Tierra.
4. La forma de vida más sencilla, y seguramente la más primitiva de todas ellas, es
una procariota independiente, un organismo unicelular en el que la información genética
codificada en el ADN no está encerrada en un núcleo localizado dentro de la célula.
5. Los análisis genéticos de un amplio abanico de células sugiere con fuerza, aunque
no demuestra, que la vida apareció de forma natural en la Tierra de una vez y en una sola
ocasión y que todas las formas de vida actuales —desde los numerosos tipos de bacterias
hasta el ser humano— han evolucionado a partir de un único antepasado común.
6. Para funcionar de manera independiente, la procariota más sencilla necesita un
cromosoma en forma de bucle de hebras de ADN de doble hélice que esté integrado por un
mínimo de 36 millones de átomos configurados siguiendo una estructura específica. Estas
hebras se despliegan para actuar a modo de plantillas y sintetizar las hebras de ADN
idénticas necesarias para que, por un lado, la célula se replique y, por el otro, para que
sintetice las proteínas necesarias para su reparación y mantenimiento. Esta síntesis es un
proceso complejo que implica la producción de una hebra mensajera de ARN que
transporta la información genética del ADN codificada en la secuencia de sus bases
nucleotídicas hasta un ribosoma, una especie de fábrica que, en el líquido interior de la
célula, contiene ARN y proteínas. Los ribosomas utilizan esta información genética para
producir aminoácidos a partir de las moléculas de la célula. Los aminoácidos, que están
producidos en uno de los dos estereoisómeros posibles, el formato L, se enlazan en
reacciones químicas catalizadas por enzimas, que son proteínas complejas. Las proteínas
están formadas a partir de combinaciones de 20 aminoácidos, de entre los
aproximadamente 500 aminoácidos conocidos. Las distintas cadenas de aminoácidos
constituyen las distintas proteínas necesarias para actuar como catalizadores y reparar y
mantener la célula, incluido su ADN. La procariota más sencilla necesita proteínas
constituidas por cadenas de entre 50 y 300 de estas formas limitadas de aminoácidos y
siguiendo además una secuencia característica. Y para funcionar, cada una de estas cadenas
deberá adoptar estructuras cambiantes para de este modo crear los productos requeridos.
Todo esto está encerrado en el interior de las capas semipermeables de proteínas y otras
moléculas complejas que separan la célula del entorno exterior, protegiéndola de moléculas
nocivas y permitiendo, a la vez, que determinadas moléculas entren y salgan de la célula
según sean necesarias o desechables.
7. Cualquier hipótesis sobre la aparición de la vida en la Tierra debería explicar
cómo una célula de este tamaño y con tan elevada complejidad de componentes, funciones
y configuraciones cambiantes emergió a partir de la interacción entre los átomos y las
moléculas simples, constituidas por un máximo de 13 átomos, que se encontraban en la
superficie del recién formado planeta.
[1]Barghoorn, Elso S. y A. Tyler Stanley, «Microorganisms from the Gunflint
Chert», Science, 147: 3658, 1965, pp. 563–577.
[2] Véase página 281.
[3]Schopf, J. William, «Microfossils of the Early Archean Apex Chert: New
Evidence of the Antiquity of Life», Science, 260: 5108, 1993, pp. 640–646.
[4]Mojzsis, S. J., et al., «Evidence for Life on Earth before 3,800 Million Years
Ago», Nature, 384: 6604, 1996, pp. 55–59.
[5]Fedo, Christopher M. y Whitehouse, Martin J., «Metasomatic Origin of Quartz-
Pyroxene Rock, Akilia, Greenland, and Implications for Earth’s Earliest Life», Science,
296: 5572, 2002, pp. 1448–1452.
[6]Mojzsis, S. J. y Harrison, T. M., «Origin and Significance of Archean Quartzose
Rocks at Akilia, Greenland», Science, 298: 5595, 2002, pp. 917–917.
[7]Brasier, Martin D., et al., «Questioning the Evidence for Earth’s Oldest Fossils»,
Nature, 416: 6876, 2002, pp. 76–81.
[8]Dalton, Rex, «Microfossils: Squaring up over Ancient Life», Nature 417: 6891,
2002, pp. 782–784.
[9]McFadden (2000), pp. 26–27.
[10]Kashefi, Kazem y Lovley, Derek, R., «Extending the Upper Temperature Limit
for Life», Science, 301: 5635, 2003, p. 934.
[11]Henbest, Nigel, «The Day the Earth Was Born», Origins, Channel 4, Reino
Unido, 21 de febrero de 2004.
[12] Véase página 292.
[13]Lin, Li-Hung, et al., «Long-Term Sustainability of a High-Energy, Low-
Diversity Crustal Biome», Science, 314: 5798, 2006, pp. 479–482.
[14] La bióloga Lynn Margullis, por aquel entonces profesora distinguida de la
Universidad de Massachusetts, y otros criticaron la utilización de una única característica
para el estudio. Consideraré el asunto con mayor detalle cuando examine las evidencias de
la evolución biológica.
[15]Véase, por ejemplo, Ouzounis, Christos A., et al., «A Minimal Estimate for the
Gene Content of the Last Universal Common Ancestor: Exobiology from a Terrestrial
Perspective», Research in Microbiology, 157: 1, 2006, pp. 57–68.
[16]Citado en Doolittle (2000).
[17]Ragan, et al. (2009).
[18]Ibíd.
[19]Theobald, Douglas L., «A Formal Test of the Theory of Universal Common
Ancestry», Nature, 465: 7295, 2010, pp. 219–222.
[20]Cavalier-Smith, Thomas, «Deep Phylogeny, Ancestral Groups and the Four
Ages of Life», Philosophical Transactions of the Royal Society B: Biological Sciences, 365:
1537, 2009, pp. 111–132.
[21]Polanyi, Michael, «Life’s Irreducible Structure», Science, 160: 3834, 1968, pp.
308–1312.
CAPÍTULO 15. EL ORIGEN DE LA VIDA 2: HIPÓTESIS
Cualquiera que te diga que sabe cómo empezó la vida en la Tierra hace
aproximadamente 3,45 miles de millones de años es un imbécil o un tunante.
Los problemas que conlleva explicar cómo pudo emerger la célula independiente
más sencilla de una sopa primigenia, llevó a algunos científicos a investigar una idea que ha
sido recurrente a lo largo de los siglos y que la ciencia ficción ha popularizado. Según la
versión de panspermia propuesta en 1903 por el químico sueco y ganador de un Premio
Nobel, Svante Arrhenius, los microbios expelidos de planetas con vida viajaron por el
espacio y aterrizaron en la Tierra.[9]
Otro científico galardonado con un Premio Nobel, Francis Crick, codescubridor de
la estructura de doble hélice del ADN junto con Leslie Orgel, entonces profesor del Salk
Institute for Biological Studies y destacado investigador de la NASA, llegaron a la
conclusión de que era altamente improbable que esto se hubiera producido por casualidad.
Por ello, en 1973 propusieron una panspermia dirigida, por la cual una civilización
avanzada de la galaxia habría enviado microorganismos a planetas como la Tierra de forma
deliberada.[10]
Por mucho que la idea dejara tremendamente satisfechos a los fans de la ciencia
ficción, la falta de evidencias no convenció a la comunidad científica. Pero en 1978, Fred
Hoyle y el que había sido su alumno, Chandra Wickramasinghe, entonces jefe del
departamento de Matemáticas aplicadas y astronomía de la University College Cardiff,
afirmaron tener evidencias de la panspermia. Muchos astrónomos llevaban años intentando
explicar ciertas líneas espectrales de polvo interestelar, que se creían compuestas
principalmente por cristales de hielo. Hoyle y Wickramasinghe anunciaron que aquellas
líneas espectrales eran consistentes con bacterias.[11]
Esto los llevó a proponer que los brotes repentinos de enfermedades a las que
tenemos escasa resistencia y que a menudo tienen un origen localizado, como la sífilis en el
siglo xv y el SIDA en el siglo xx, fueron causados por bacterias y virus depositados en la
Tierra por cometas. La propuesta es consistente con la opinión de Beda, historiador y monje
inglés del siglo viii, que declaró que los cometas presagiaban «un cambio de soberano o la
peste». En 2003, Wickramasinghe y sus colegas escribieron en la revista médica, The
Lancet, que el SRAG (Síndrome Respiratorio Agudo Grave) estaba provocado por los
microbios de un cometa.[12] Para apoyar esta afirmación, Wickramasinghe citó la
evidencia de que las muestras de aire recogidas de la estratosfera en 2001 por la Indian
Space Research Organization contenían células vivas y argumentó que es imposible que el
aire de capas inferiores pueda ser transportado hasta una altura de 41 kilómetros.
Más recientemente, y de un modo más sofisticado, análisis espectrales han
identificado moléculas orgánicas en el polvo interestelar. Pero, como vimos,[13] las
moléculas mayores están integradas por 13 átomos y están muy lejos de ser algo parecido a
una bacteria. Las muestras estratosféricas incluyen dos bacterias conocidas en la Tierra.
Pero si aplicamos el test de la razón, veremos que una explicación más sencilla, y
muchísimo más probable, es que sucesos meteorológicos transportaran estas bacterias a 41
kilómetros de la Tierra y no que viajaran miles de millones de kilómetros a través del
espacio interestelar. Los investigadores médicos han rechazado la idea del origen
extraterrestre de las enfermedades ofreciendo evidencias más convincentes que
Wickramasinghe no tiene en cuenta.[14]
En cualquier caso, las ideas de una panspermia simplemente posponen la cuestión
del origen de la vida en la Tierra, de un modo similar a como las diversas especulaciones de
multiverso y universo progenitor posponen la cuestión del origen de la materia.
En su versión de 2007, sin embargo, Wickramasinghe, su hija y otro colega del
Centro de Astrobiología de la Universidad de Cardiff (el centro no oficial de la
investigación de la panspermia), propusieron otro desafío. Afirmaron que la vida se originó
en el interior de los cometas.[15]
La afirmación presenta problemas. Depende, básicamente, de tres supuestos:
1. Los desechos de las supernovas que incorporan los cometas contienen elementos
radiactivos cuya desintegración mantiene el agua en estado líquido en el interior de los
cometas. No existen evidencias que sustenten este supuesto.
2. Los cometas contienen además arcilla, a partir de la cual evolucionan las células
vivas, según propuso Cairns-Smith. A pesar de que la misión de la sonda espacial Deep
Impact demostró en 2005 que el Cometa 9P/Tempel contiene arcillas y carbonatos, que
suelen requerir agua en estado líquido para su formación, no existen evidencias que
sustenten la conjetura de Cairns-Smith, y mucho menos de que esto se produzca en el
interior de los cometas.
3. El tiempo de vida de los entornos favorables a los prebióticos en el interior de los
cometas excede al de las regiones terrestres del mismo estilo en cuatro o cinco contra diez.
No existen evidencias que sustenten este supuesto.
Basándose en estos supuestos defienden que, ya que la masa de todos los cometas
de la galaxia supera la de los entornos favorables terrestres por un abrumador veinte contra
diez, la totalidad de cometas que orbita alrededor de estrellas enanas tipo G similares al sol
ofrece un escenario incomparablemente más probable para el origen de la vida que
cualquiera que pudiera estar disponible en la Tierra primitiva.
Sin embargo, es ilógico deducir esta probabilidad comparando la masa de todos los
cometas con la masa de la Tierra, puesto que lo que se defiende no es que la vida se
originara en el interior de algo cuya masa equivale a todos los cometas de la galaxia sino
que se originó en el interior de un determinado cometa, y la masa media de un cometa es 6
x 1010, o 60 miles de millones veces inferior a la de la Tierra. Lo que debería compararse
es la idoneidad para la formación de vida del interior de un único cometa —y la mayoría de
científicos cometarios deducen que el interior de los cometas está constituido
principalmente por hielo en estado sólido— con la idoneidad para formar vida de la
superficie de la Tierra primitiva.
La página web que realizó el anuncio defiende que la vida se originó en un cometa y
que «la vida emergente se diseminó rápidamente, como una infección, de un cometa a otro
cometa, de un sistema estelar a otro sistema estelar, abarcando volúmenes cada vez
mayores del universo».[16] Lo que no queda explicado es cómo la vida en el interior de un
cometa que orbita una estrella se diseminó hacia otros cometas, sobre todo hacia aquellos
que orbitan otras estrellas.
Diseño inteligente
El problema del término «diseño inteligente» es que, desde mediados de los años
noventa del siglo pasado, ha quedado indisolublemente asociado con el Diseño Inteligente,
una teoría científica cuyos proponentes están subvencionados por el Discovery Institute, o
son incluso miembros del mismo, un laboratorio de ideas norteamericano fundado y
financiado por cristianos con el objetivo de demostrar que Dios creó la vida.
Me temo que divorciar ideas de creencias es imposible, independientemente de si
estas creencias son en Dios o en el materialismo, sobre todo cuando, como en este caso, las
evidencias son tremendamente escasas y están por ello tan abiertas a interpretaciones de
todo tipo. En consecuencia, considero instructivo considerar las ideas de diseño inteligente
que no plantean un Dios judeo-cristiano o que no contradicen las creencias de sus
proponentes.
Simulación por ordenador
Nick Bostrom, filósofo de la Universidad de Oxford, dice que, ya que en la
actualidad somos capaces de crear simulaciones por ordenador de otros mundos y otra
gente, una civilización «post-humana» mucho más avanzada tecnológicamente que la
nuestra, podrá simular personas plenamente conscientes, y que lo que ahora percibimos
como vida podría ser una simulación por ordenador de este tipo.[17] Para que todo esto no
se considere el simple capricho fantasioso de un científico, Bostrom ofrece una ecuación
para demostrar que existe una elevada probabilidad de que su idea sea cierta.
Sin embargo, como sucede con la Ecuación de Drake, que calcula la probabilidad de
que existan civilizaciones inteligentes en nuestra galaxia,[18] la Ecuación de Bostrom es un
múltiplo de probabilidades independientes, cada una de las cuales se basa en supuestos o
suposiciones cuestionables. Además, después de extrapolar el crecimiento del poder de los
ordenadores en el transcurso de los últimos sesenta años hacia un futuro no especificado y
desconocido, su siguiente frase empieza con «Basándonos en este hecho empírico…». Una
proyección, por muy razonable que sea —y esta es más que cuestionable—, nunca es un
hecho empírico.
Tal vez no sea un capricho, pero no es más que una especulación que no puede
falsarse mediante un test empírico. Y, como sucede con la panspermia dirigida de Crick y
Orgel, no nos cuenta el origen de estos diseñadores post-humanos y, por lo tanto, del origen
de la vida en la Tierra tal y como la percibimos.
Complejidad irreducible
Michael Behe, profesor de Bioquímica de la Lehigh University, Pennsylvania, cree
que todas las formas de vida de la Tierra han evolucionado a partir de un antepasado
común, pero que la hipótesis darwiniana no explica las diferencias entre especies. Sin
embargo, tanto los componentes de la primera célula como las sofisticadas e
interconectadas rutas bioquímicas de su producción, son irreduciblemente complejos: si
falta cualquiera de sus partes no pueden funcionar. Por ello no pueden haber evolucionado a
través de un mecanismo [ultra]darwiniano, puesto que depende de la selección natural y de
una diversidad de mutantes en cada paso de la ruta, y todos estos pasos tienen que ser
viables. Entre las evidencias que cita están los sistemas que dirigen proteínas hacia lugares
específicos de la célula y el flagelo bacteriano.[19] Este último, por ejemplo, está
constituido por una docena o más de proteínas; no existe ninguna etapa intermedia que sea
viable como unidad funcional.
Argumenta que se ha visto obligado a llegar a la conclusión de que la primera forma
de vida, la célula antepasado común, solo pudo ser resultado del diseño inteligente. Para
reconciliar esto con la evolución biológica sugiere que esta primera célula contenía todo el
ADN necesario para la posterior evolución. No identifica el diseñador, pero asevera que la
ciencia ortodoxa ha rechazado esta conclusión debido a sus posibles implicaciones
teológicas.[20]
Los evolucionistas ortodoxos se apresuraron a censurar el libro que Behe publicó en
1996, La caja negra de Darwin: el reto de la bioquímica a la evolución.[21] En una crítica
publicada en Nature, el biólogo evolutivo de la Universidad de Chicago, Jerry Coyne,
encontraba una pista para seguir el razonamiento de Behe al identificarlo como católico
romano. La mayoría de científicos, sin embargo, no rechaza el trabajo de Newton en el
campo de la mecánica porque creyera en la alquimia o el trabajo de Kepler en el campo de
la astronomía porque creyera en la astrología. Una crítica más sustanciosa es la que aduce
que Behe no tiene en cuenta otros mecanismos que no sean los pasos secuenciales para la
producción de los componentes de la célula, como podrían ser la cooptación de
componentes que evolucionaron con otros fines, los genes duplicados y las primeras
enzimas multifuncionales.
En el caso del flagelo bacteriano, por ejemplo, el microbiólogo Mark Pallen y el
biólogo evolutivo Nicholas Matzke señalan que hoy en día no existe un único flagelo
bacteriano, sino miles, o tal vez millones, de flagelos distintos; de ahí que «no hubo miles o
incluso millones de actos de creación individuales» y «la totalidad de los muy variados
sistemas flagelares actuales ha evolucionado a partir de un antepasado común». Las
evidencias de la evolución del flagelo bacteriano incluyen la existencia de flagelos
vestigiales, de formas intermedias de flagelos y el patrón de similitudes entre las secuencias
de proteínas de los flagelos: prácticamente todas las proteínas flagelares poseen analogías
conocidas con proteínas no flagelares, lo que sugiere que los flagelos evolucionaron a partir
de combinaciones de componentes celulares existentes.[22]
Tanto Coyne como Keneth Miller, biólogo de la Brown University, apuntan que
Behe reconoce que algunos de los componentes de la primera célula podrían haber
evolucionado mediante un mecanismo [ultra]darwiniano, pero que antes de descartar el
diseño inteligente, sería necesario que todas las características bioquímicas quedaran
explicadas por efectos naturales. Debido a las dificultades que conlleva obtener evidencias,
es imposible demostrarlo. De ahí que defiendan que las ideas de Behe no cumplen el
criterio de falsabilidad y, por lo tanto, no son científicas.
La incapacidad de la ciencia para explicar ciertos fenómenos
La idea de Behe es un ejemplo particular que surge de un problema más general, la
incapacidad de la ciencia para explicar determinados fenómenos. Así lo expresó Fred
Hoyle, un ateo convencido. Fue el ateísmo lo que llevó a Hoyle a iniciar la búsqueda de una
alternativa a la teoría del Big Bang, pero cuando llegó el momento de considerar cómo
había surgido la vida en la Tierra, comparó la aparición casual de una célula, por simple que
esta fuera, a la probabilidad de que «un tornado arrase un depósito de chatarra y pueda
montar un Boeing 747 a partir de los materiales que allí se encuentran».[23]
Cuando en 1982 ofreció una conferencia en la Royal Institution, anunció la
siguiente conclusión:
«Si en este asunto se actúa de forma directa y franca, sin dejar que te bloquee el
miedo a provocar la ira de la comunidad científica, llegas a la conclusión de que los
biomateriales, con su asombroso nivel de orden, tienen que ser el resultado de un diseño
inteligente […]. Los problemas de orden, como el de las secuencias de aminoácidos en las
cadenas [que constituyen las células proteínas] […] son precisamente los problemas que se
vuelven sencillos cuando la inteligencia dirigida entra en el juego».[24]
No estoy al corriente de si Hoyle se convirtió a alguna religión, pero sus últimos
escritos sugieren que consideraba que los fenómenos que la ciencia se muestra incapaz de
explicar insinúan la existencia de algún tipo de inteligencia superior que gobierna el
universo. Y ahí está el problema. Que la ciencia se muestre incapaz de explicar un
fenómeno ahora, no significa que la ciencia nunca será capaz de explicar ese fenómeno. De
un modo similar, tampoco implica que la ciencia será capaz de explicar ese fenómeno en
un futuro, como aseveran algunos materialistas, como Richard Dawkins.
Puesto que las evidencias no permiten aprobar o rechazar el diseño inteligente como
el origen de la vida en la Tierra, el test de la racionalidad se aplica examinando la
consistencia con otra evidencia, que en este caso es el patrón de la comprensión humana de
los fenómenos naturales. Históricamente, siempre que los humanos no han entendido un
fenómeno, lo han achacado a causas sobrenaturales. Así por ejemplo, los griegos de las
ciudades-estado guerreras de entre los siglos x y v a. C. no comprendían la causa de los
relámpagos y los truenos, y atribuían esos hechos poderosos y amedrentadores al dios más
poderoso de un panteón de súper-humanos que era un reflejo de la jerarquía de su propia
sociedad.
Cuando la ciencia se desarrolló en una sociedad occidental predominantemente
cristiana, su razonamiento empírico llenó los vacíos de nuestra comprensión de los
fenómenos naturales y fue eliminando poco a poco la necesidad de explicaciones
sobrenaturales. Así pues, la Tierra dejó de ser algo creado por Dios como el centro del
universo y el sol dejó de ser algo creado por Dios para iluminar la Tierra entre periodos de
oscuridad.
Los vacíos —y, en consecuencia, el reino del creador trascendente, Dios—
siguieron disminuyendo a medida que el poder explicativo de la ciencia aumentaba y Dios
se vio relegado a ser la causa en última instancia, más que directa, de los fenómenos
naturales. (Utilizo aquí el concepto de Dios convencional, puesto que, a partir del siglo
XVI, la ciencia se desarrolló principalmente en el occidente cristiano. Otras religiones y
culturas tiene visiones distintas de Dios o los dioses, y algunas de ellas sostienen que un
espíritu cósmico creativo es tanto inmanente como trascendente, y no inmanente durante
solo treinta y tres años en la persona de un Dios trinitario trascendente.)
A pesar de que nada garantiza que este patrón de actuación continuará, la forma más
razonable de abordar la aparición de la vida en la Tierra tendría que basarse en, sin dejar en
ningún momento de mantener una mentalidad abierta, buscar una explicación natural más
que invocar una causa sobrenatural como Dios o un diseño inteligente.
Principio antrópico
Según Kauffman, cuando este mecanismo opera en una sopa primigenia, elimina la
necesidad de construir una cadena larga de sucesos químicos poco probables. La vida,
como conjunto auto-catalítico súper-complejo y autosuficiente, emerge de repente como
una transición de fase. «La vida cristaliza en una diversidad molecular crítica porque la
clausura catalítica también cristaliza».
Esta hipótesis es consistente con el concepto de evolución en red, y no en árbol
genealógico, discutido anteriormente. Sin embargo, Kauffman reconoce que «Hay todavía
escasas evidencias experimentales que sustenten este punto de vista».
Aplicando los test de racionalidad, la propuesta de complejidad auto-organizada es
internamente consistente y ofrece consistencia externa en cuando a que es consistente con
modelos obtenidos por ordenador. Por desgracia, eso es todo.
El modelo no explica cómo aparecen las moléculas catalíticas, A, B, C, etc. Como
hemos visto, incluso con supuestos favorables, la probabilidad de que el péptido auto-
replicante más simple conocido emergiera como resultado de reacciones aleatorias en la
sopa molecular es de una entre 1041.
Edward O. Wilson llega a la conclusión de que, por mucho que es posible que las
teorías de la complejidad vayan por buen camino, su problema es que en este contexto
quedan excesivamente divorciadas de los detalles biológicos.
La dificultad básica, por decirlo claramente, es la insuficiencia de hechos. Los
teóricos de la complejidad no disponen aún de información suficiente para poder llevar con
ellos al ciberespacio. Los postulados con los que empiezan necesitan a todas luces más
detalle. Sus conclusiones hasta el momento son demasiado vagas y generales como para ser
algo más que metáforas reivindicatorias y sus conclusiones abstractas nos cuentan pocas
novedades.[35]
En opinión de McFadden:
La aparición espontánea de conjuntos auto-catalíticos es factible solamente en
ordenadores, donde cada conjunto puede aislarse del revoltijo de reacciones que los rodea.
En las sopas químicas reales, cada componente está inmerso en un millar de reacciones
secundarias que inevitablemente diluye y disipa cualquier conjunto auto-catalítico
emergente.
Continúa presentando una objeción teórica, que considera de suma importancia, a la
teoría de la complejidad como hipótesis para explicar la aparición de la vida. La auto-
organización demostrada por los ciclones y otros ejemplos
Está generada por la interacción aleatoria de miles de millones de moléculas. Son
fenómenos que implican cantidades enormes de partículas y que tienen una estructura solo
a escala macroscópica; a nivel molecular, no hay más que caos y movimiento aleatorio.
Pero las células poseen estructuras ordenadas a todos los niveles, hasta llegar a las
partículas fundamentales. Las estructuras macroscópicas de células vivas no son resultado
de un movimiento incoherente y aleatorio.[36]
Creo que Wilson tiene razón cuando dice que, tal y como está desarrollada en la
actualidad, la teoría de la complejidad auto-organizada es demasiado abstracta y confía
excesivamente en modelos por ordenador como para poder proporcionar una hipótesis con
base empírica. La esperanza es que cuando se refinen estos modelos con la incorporación
de datos empíricos se pueda llegar a nuevas leyes de carácter más profundo que ayuden a
comprender la aparición de la vida a partir de materia inanimada.
Teoría de la emergencia
Si tuviera que dar un premio a la mejor idea que haya tenido alguien jamás, se la
daría a Darwin, por delante de Newton, Einstein y todos los demás.
Aristóteles
Su obra causó controversia, puesto que implicaba que no éramos más que una parte
cualquiera de la naturaleza y próxima, además, al mono.
Linneo, sin embargo, consideraba que su papel consistía en clasificar las distintas
especies que Dios había creado, a pesar de que en un momento avanzado de su vida su
mayor preocupación fuera que el cruce de distintas especies de plantas producía híbridos
que no habían existido previamente. Estuvo a punto de proponer la evolución, pero llegó a
la conclusión de que los híbridos eran productos de especies que Dios había creado en los
inicios del mundo.[3]
El sistema taxonómico de Linneo sigue utilizándose hoy en día, aunque biólogos,
zoólogos, paleontólogos, antropólogos, genetistas y biólogos moleculares han expandido la
jerarquía y desarrollado la base de la clasificación a partir solo de la morfología.
El desarrollo de las ideas evolucionistas
De Maillet
En el siglo xviii, unos pocos intelectuales, influidos por los geólogos que sugerían
que la Tierra era considerablemente más antigua de lo que insinuaba la Biblia, especularon
que las especies cambiaban. Probablemente, el primer defensor moderno de la evolución
biológica y de un antepasado común para animales radicalmente distintos fue el
diplomático francés e historiador especializado en ciencias naturales, Benoit de Maillet. Su
datación de la edad de la Tierra en 2,4 miles de millones de años y su idea de que toda la
vida empezó en aguas poco profundas quedan expuestas en su obra Telliamed, publicada de
forma póstuma en 1748.[4]
Buffon
El naturalista francés Etienne Geoffroy Saint-Hilaire fue un deísta que creía que
Dios había creado el universo y lo había dejado funcionando bajo leyes naturales sin más
intervención por su parte. Amigo y colega de Lamarck, defendió y amplió sus teorías.
Recopilando evidencias a partir de la anatomía comparativa, la paleontología y la
embriología, defendió la unidad subyacente del diseño de todos los órganos. Por analogía
con el desarrollo del embrión simple hasta el adulto complejo, utilizó el término
«evolución» para aplicarlo a la transmutación de especies en el tiempo geológico.[10]
Wells
Nueve años antes, con veinte años de edad, había viajado a Siberia y al norte de
Manchuria, ansioso por ser testigo directo de la lucha por la vida planteada en El origen de
las especies, que había sido publicado tres años antes y le había dejado tremendamente
impresionado. Lo que descubrió, sin embargo, lo llevó a la conclusión de que la hipótesis
evolucionista de Darwin había sido distorsionada por los seguidores del mismo Darwin.
Las detalladas observaciones que realizó Kropotkin de la vida humana y animal le
revelaron pocos casos de competencia despiadada entre miembros de la misma especie.
Entre las poblaciones rebosantes de vida de zonas aisladas sujetas a condiciones muy duras,
donde la competencia por los escasos recursos tendría que haber sido salvaje, descubrió en
cambio apoyo mutuo «llevado hasta el extremo que me hace sospechar que se trata de un
carácter de enorme importancia para mantenerse con vida, conservar las especies y procurar
por su evolucion».[56]
Observó asimismo apoyo mutuo entre los campesinos siberianos que vivían en
comunidades independientes, lo que lo llevó a la creencia de que un sistema de gobierno de
aquel estilo debería sustituir el estado centralizado, represivo y brutal.
Apoyo mutuo
En 1883, durante una de sus estancias en la cárcel, leyó una conferencia ofrecida
por el profesor Karl Kessler, respetado zoólogo y más importante que la competencia en la
evolución de las especies. Aquello corroboraba sus descubrimientos y en cuanto salió de la
cárcel, Kropotkin se instaló en Inglaterra para seguir con su trabajo e inspirarse tanto en sus
propias observaciones como en las de otros naturalistas de campo y antropólogos, de un
modo similar a lo que había hecho Darwin en su día.
En 1888, Thomas Huxley, el principal defensor de Darwin, publicó un ensayo muy
influente titulado «The Struggle for Existence» [La lucha por la existencia] en el que
argumentaba que la vida era una «continua lucha libre» y que la competencia entre
individuos de la misma especie no era simplemente una ley de la naturaleza, sino la fuerza
que impulsaba el progreso.
El mundo animal está prácticamente al mismo nivel que un espectáculo de
gladiadores. Las criaturas están preparadas y listas para luchar; razón por la cual el más
fuerte, el más rápido y el más astuto vivirá para luchar un día más. El espectador no
necesita mover el pulgar hacia abajo, puesto que la compasión no existe.[57]
Kropotkin consideró que las opiniones de Huxley, cuya experiencia se basaba en la
anatomía comparativa y la paleontología, no estaban respaldadas por las evidencias de los
naturalistas de campo y los zoólogos. Replicó a Huxley en una serie de artículos que
formarían la base de un libro. Mutual Aid: A Factor of Evolution[58] fue publicado en
1902, con una edición revisada en 1904 y una edición final en 1914, que es la que utilizo
aquí.
En ella, dice Kropotkin:
Si nos referimos al parágrafo [de El origen de las especies] titulado “Lucha por la
vida es rigurosísima entre individuos y variedades de la misma especie”, no encontramos en
él la riqueza de pruebas e ilustraciones que estamos acostumbrados a encontrar en todo lo
que Darwin escribió. La lucha entre individuos que se explica bajo ese encabezamiento no
queda ilustrada ni con siquiera un ejemplo.[59]
Koprotkin no discrepa de la selección natural ni niega que la lucha por la vida
juegue un papel importante en la evolución de las especies. Declara de manera inequívoca
que «la vida es una lucha; y en esa lucha sobrevivirá el mejor adaptado».[60] Pero no se
trata de una lucha competitiva entre miembros de la misma especie. Apoyo mutuo acumula
una gran riqueza de evidencias obtenidas a partir de estudios de campo de insectos, aves y
mamíferos criando y entrenando a su descendencia, protegiendo a los individuos de los
elementos dañinos y obteniendo comida para apoyar la conclusión de que «los animales
que adquieren los hábitos del apoyo mutuo son, sin duda alguna, los mejor adaptados [para
sobrevivir y evolucionar].»[61], [62]
Base empírica
Los experimentos con guisantes con caracteres distintos ofrecieron el mismo tipo de
resultados. Con ello, Mendel llegó a la conclusión de que los caracteres no se mezclaban,
sino que cada uno de ellos estaba representado por un factor (posteriormente denominado
«gen») que se presenta en formas alternadas (posteriormente denominadas «alelos»); en
este ejemplo, un alelo produce el color amarillo del guisante y otro alelo produce el color
verde. Los alelos se presentan en parejas; cuando los dos alelos de la pareja son distintos,
uno es el «dominante» (en este caso, el alelo que produce el color amarillo) y enmascara el
efecto del otro alelo, el alelo «recesivo» (en este caso, el alelo que produce el color verde).
Solo cuando se transmiten dos alelos recesivos, aparece en la planta el caracter
correspondiente.
Las leyes de Mendel
A partir de sus experimentos, Mendel dedujo unas leyes de la herencia que podrían
resumirse como sigue:
1. Los caracteres de un individuo están determinados por factores hereditarios
(genes) que se presentan por parejas.
2. Cada pareja de genes se separa durante la reproducción y cada progenitor
transmite al descendiente un solo gen de esa pareja de genes.
3. Hay genes dominantes capaces de enmascarar los efectos de los genes recesivos.
4. Para determinados caracteres no existe gen dominante.
La transmisión del gen funciona al azar. Como consecuencia de las leyes de
Mendel, cabe la posibilidad de que nuevas combinaciones de genes den lugar a nuevas
combinaciones de caracteres que no están presentes en ninguno de los dos progenitores.
Además, un individuo puede no mostrar un determinado caracter que sí aparecerá en una
generación posterior porque se habrá transmitido inalterado.
Esto solucionó el problema de la hipótesis de Darwin porque permite que los genes
responsables de los caracteres favorables de un individuo se hereden inalterables y sean
seleccionados en una población que compite por sobrevivir.
Darwin y la mayoría de naturalistas nunca leyeron el documento de Mendel, aunque
sí fue incorporado a la Enciclopedia Británica y apareció citado varias veces en una
publicación de 1881 sobre el cultivo de plantas escrita por el botánico Wilhelm Olbers
Focke, una copia de la cual, al parecer, Darwin sí tenía.
Neodarwinismo
Este paradigma, centrado en el gen, que asume que la selección natural surge de la
competencia, tiene cuatro consecuencias destacadas para el relato que da la ciencia sobre la
evolución de la vida.
En primer lugar, rechaza o ignora otras posibles causas de la evolución, entre ellas;
a. La selección sexual, que Darwin había defendido.
b. La herencia lamarquiana de caracteres adquiridos, que Darwin había aceptado.
c. La deriva genética, que Sewall Wright había considerado de importancia en
poblaciones pequeñas.
d. La simbiogénesis, la hipótesis desarrollada por Mereschkovsky, Wallin y otros
que defendía que la fusión de distintos tipos de organismos que viven juntos para obtener
un beneficio metabólico propio ofrece una explicación mejor para la innovación biológica y
la evolución que la competencia y la selección natural gradualista de Darwin.
e. La cooperación, que Kropotkin dedujo a partir de observaciones de campo de
animales y que defendió como causa más importante para la evolución que la competencia.
f. La ortogénesis, en el sentido de que la evolución biológica progresa como un
incremento de complejidad causado por una ley natural o una tendencia intrínseca, que fue
defendida por el paleontólogo, visionario y jesuita francés Teilhard de Chardin en su obra
póstuma Le Phenomene Humain [El fenómeno humano] (1955). Cabe resaltar que, de entre
los cuatro arquitectos del neodarwinismo a finales de los años 30 y principios de los años
40, Julian Huxley escribió una Introducción a la edición inglesa publicada en 1959
suscribiendo la mayoría de las ideas de Teilhard salvo el intento de reconciliación con el
cristianismo, mientras que Theodosius Dobshansky fue miembro fundador y presidente,
entre 1968 y 1971, de la American Teilhard de Chardin Association.
En segundo lugar, su foco reduccionista en los genes conduce a la postura, liderada
por Carl Woese, de que el análisis genético es el único método preciso para trazar un mapa
de la evolución de las especies: las diferencias moleculares en los genes supuestamente
conservados de las distintas especies representan sus relaciones evolutivas en el árbol
genealógico de evolución a partir de un antepasado común.[73] En palabras de Woese:
«Las secuencias moleculares pueden revelar relaciones evolutivas de un modo, y con un
detalle, que los criterios fenotípicos clásicos, e incluso las funciones moleculares, son
incapaces de hacerlo».[74]
En tercer lugar, produce una hipótesis de la evolución centrada en el gen que afirma
que el gen a nivel individual, y no el organismo, es la unidad de la selección natural.
En cuarto lugar, cuando en los años 70 se descubrió que cerca de un 98 por ciento
del genoma humano no estaba integrado por genes, definidos entonces como secuencias de
ADN para la codificación de proteínas, empezó a hablarse del «ADN basura», que parecía
un punto de vista osado, sino arrogante, de referirse a la inmensa mayoría de ADN que no
encajaba con el modelo.
En los capítulos que siguen consideraré hasta qué punto esta biología ortodoxa y sus
cuatro consecuencias siguen siendo válidas.
[1] El término «científico», tal y como lo entendemos en la actualidad, no empezó a
utilizarse hasta el siglo xix, pero recurriré a él de todos modos para referirme a aquellos que
practicaron lo que ahora reconocemos como ciencia, es decir, un enfoque de base empírica
que se distingue del enfoque puramente conceptual de la filosofía natural.
[2] Véase página 43.
[3]«Carolus Linnaeus», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/342526/Carolus-Linnaeus, consultado el 20 de
diciembre de 2008.
[4]Maillet (1968).
[5]«Georges-Louis Leclerc, Comte de Buffon», Gale Encyclopedia of Biography,
2006.
[6]Darwin, Erasmus (1796) y «Erasmus Darwin», Encyclopedia Britannica Online,
http://www.britannica.com/EBchecked/topic/151960/Erasmus-Darwin, consultado el 16 de
febrero de 2010.
[7]Darwin, Erasmus (1803).
[8]Pearson, Paul N., «In Retrospect», Nature, 425: 6959, 2003, pp. 665–665.
[9]Clifford, David, «Jean-Baptiste Lamarck», (2004)
http://www.victorianweb.org/science/lamarck1.html, consultado el 16 de febrero de 2010;
Shanahan (2004), pp. 14-23; Graur, Dan, et al., «In Retrospect: Lamarck’s Treatise at 200»,
Nature, 460: 7256, 2009, pp. 688–689;
http://www.ucmp.berkeley.edu/history/lamarck.html, consultado el 16 de febrero de 2010.
[10]Etienne Geoffroy Saint Hillaire Collection, American Philosophical Society,
http://www.amphilsoc.org/mole/view?docId=ead/Mss.B.G287p-
ad.xml;query=;brand=default, consultado el 20 de febrero de 2010.
[11]Green, J. H. S., «William Charles Wells, F.R.S. (1757–1817)», Nature 179,
1957, pp. 997–999.
[12]Desmond, Adrian, «Robert E. Grant: The Social Predicament of a Pre-
Darwinian Transmutationist», Journal of the History of Biology, 17, 1984, pp. 189–223, y
Desmond, Comunicación personal, 2 de abril de 2010.
[13]http://www.ucmp.berkeley.edu/history/matthew.html, consultado el 3 de
diciembre de 2009.
[14]Smith (1998, 2000–14).
[15] En la décimosegunda edición, publicada en 1884, apareció el nombre del autor,
Robert Chambers, LL. D.
[16]Darwin, Francis (1887), p. 68.
[17]Ibíd, p. 116.
[18]La correspondencia de Darwin anterior a la presentación a la Linnean Society se
encuentra en ibid, pp. 116–127.
[19]http://www.linnean.org/index.php?id=380, consultado el 20 de febrero de 2010.
[20]Pearson, Paul N., «In Retrospect», Nature, 425: 6959, 2003.
[21] La teoría de que los procesos físicos y químicos que se producen en la
superficie de la Tierra son los mismos desde su origen y son los responsables de todos los
fenómenos geológicos.
[22]Desmond, Adrian y Parker, Sarah E., «The Bibliography of Robert Edmond
Grant (1793–1874): Illustrated with a Previously Unpublished Photograph», Archives of
Natural History 33: 2, 2006, pp. 202–213.
[23] Fundada en 1826, fue la primera universidad de Inglaterra que admitió alumnos
que no fueran miembros de la iglesia anglicana, y en 1836 se constituyó oficialmente como
University College London.
[24]Darwin, Francis (1887), vol. 2, pp. 206–207.
[25]Darwin, Charles (1861), p. iv.
[26]Ibíd, pp. xiv–xv.
[27] Por ejemplo, a pesar de que las ideas de Matthew están integradas en un
Apéndice, ni están diseminadas ni son breves en comparación con su artículo del Linnean
Journal.
[28] A menos que se diga lo contrario, las citas que aparecen de El origen de las
especies se basan en la sexta edición, publicada en 1872, puesto que es la edición final e
incorpora los puntos de vista más tenidos en cuenta de Darwin. Todas las ediciones, y todas
las demás obras de Darwin, están disponibles online gracias al sobresaliente trabajo de John
van Whyhe, director de The Complete Works of Charles Darwin online, http://darwin-
online.org.uk/
[29]http://anthro.palomar.edu/evolve/evolve_2.htm, consultado el 16 de diciembre
de 2008.
[30]Steinheimer, Frank D., «Charles Darwin’s Bird Collection and Ornithological
Knowledge During the Voyage of HMS ‘Beagle’, 1831–1836», Journal of Ornithology,
145: 4, 2004, pp. 300–320; Sulloway, Frank J., «The Beagle Collections of Darwin’s
Finches (Geospizinae)», Bulletin of the British Museum of Natural History (Zoology), 43
(2), 1982, pp. 49–94; Sulloway, Frank J., «Darwin and His Finches: The Evolution of a
Legend», Journal of the History of Biology, 15: 1, 1982, pp. 1–53.
[31]Lack (1947).
[32]Desmond y Moore (1992), p. 209.
[33]Darwin, Charles (1872), pp. 70–71.
[34]Ibíd, p. 49.
[35]Ibíd, p. 106.
[36]Ibíd, p. 49.
[37]Ibíd, p. 103.
[38]Véase, por ejemplo, ibid, p. 42 y p. 47.
[39]Ibíd, p. 137.
[40]Ibíd, p. 50.
[41]Darwin, Charles (1882), p. 107.
[42]Darwin, Charles (1872), p. 59.
[43]Darwin, Charles (1868), pp. 5–6.
[44]Ibíd, p. 6.
[45]Darwin, Charles (1882), p. 606.
[46]Darwin, Francis (1887), p. 215.
[47]Darwin, Charles (1859), p. 134.
[48]Darwin, Charles (1882), p. v.
[49]Darwin, Charles (1872), p. 429.
[50]Darwin, Charles (1958), p. 85.
[51]Darwin, Francis (1887), Vol. 2.
[52]Ibíd. Vol. 2, pp. 243–244.
[53]Desmond (1989).
[54]Lyons, Sherrie L., « “The Origins of T H Huxley’s Saltationism: History in
Darwin’s Shadow», Journal of the History of Biology, 28: 3, 1995, pp. 463–494.
[55]Gould (2002), pp. 355–395.
[56]Kropotkin (1972), p. 18.
[57]Huxley, T. H., «The Struggle for Existence: A Programme», Nineteenth
Century, 1888, p. 165.
[58] Publicado en español bajo el título El apoyo mutuo: un factor de la evolución,
Editorial Dharana, Lugo, 2012.
[59]Kropotkin (1972), p. 71.
[60]Ibíd.
[61]Ibíd, p. 30.
[62] En la tercera parte consideraré las observaciones de Kropotkin sobre las
sociedades humanas.
[63]Sapp (2009), pp. 115–120.
[64] Mayr quiso restringir el término «neodarwinismo» a su uso inicial, que era
básicamente el darwinismo sin la herencia de caracteres adquiridos y, en consecuencia,
distinguirlo de la «síntesis moderna». Pero la distinción no llegó a adoptarse y «síntesis
moderna» no es un término evidente para los no biólogos. El «neodarwinismo» hace una
distinción útil del «ultradarwinismo», que definiré más adelante.
[65]http://nobelprize.org/nobel_prizes/medicine/laureates/1933/morgan-bio.html,
consultado el 20 de diciembre de 2008.
[66]Schrodinger (1992), basado en conferencias impartidas en 1943.
[67]Watson y Stent (1980); Crick (1990).
[68] Véase diagrama en página 356.
[69] Los resultados, incluyendo el papel de intermediario del ARN mensajero, están
descritos en las páginas 353-362.
[70]Crick, Francis, «Central Dogma of Molecular Biology», Nature, 227: 5258,
1970, pp. 561–563.
[71]Coyne (2006).
[72] Véase el glosario para la definición de «paradigma».
[73] Véase página 348.
[74]Woese, C. R., et al., «Towards a Natural System of Organisms: Proposal for the
Domains Archaea, Bacteria, and Eucarya», Proceedings of the National Academy of
Sciences of the United States of America, 87: 12, 1990, pp. 4576–4579.
CAPÍTULO 17. EVIDENCIAS DE LA EVOLUCIÓN BIOLÓGICA 1:
FÓSILES
Atribuido a J. B. S. Haldane
Combinar el fenómeno de la evolución biológica con solo una de sus varias posibles
causas puede llevar a un sesgo subconsciente a la hora de seleccionar e interpretar las
evidencias. Intentaré evitar caer en esto examinando solo el fenómeno y viendo si existe o
no un patrón en las evidencias. En los capítulos siguientes consideraré hasta qué punto el
modelo ortodoxo neodarwinista, junto con las hipótesis que modifican o desafían este
modelo, explican la existencia de un patrón de este tipo.
En este capítulo examinaré las evidencias fósiles y en el capítulo siguiente las
evidencias en especies vivas. Teniendo en cuenta que todas las evidencias hacen referencia
a especies, es necesario ante todo aclarar el significado del término.
Especies
Se estima que el número de especies eucariotas vivas oscila entre cinco y treinta
millones,[1] de las cuales aproximadamente dos millones están descritas.[2]
Solo se han descrito unas 4.500 especies procariotas (bacterias y arqueas),[3] pero
se estima que su número total encima de un simple kilómetro de corteza terrestre se sitúa
entre 108 y 1017 (entre un millardo y un trillón).[4] No existen en la actualidad
estimaciones disponibles de especies procariotas en otros lugares pero, para hacernos una
idea de su importancia en la biosfera, se calcula que el número total de células procariotas
que contienen los océanos es de unos 1029 (un millón de cuatrillones), al menos el doble
que en el suelo y 50 veces más que en la profundidad de las superficies oceánica y terrestre.
[5]
Una de las razones de la amplia discrepancia en las estimaciones es la falta de
acuerdo en cuanto a lo que es una especie. Como señaló Nick Isaac, de la Zoological
Society de Londres, «Existen casi tantos conceptos distintos del término “especies” como
biólogos dispuestos a discutirlos».[6]
Igual que Darwin, varios biólogos sostienen que las especies son conceptos
arbitrarios. Jim Mallet, un especialista en mariposas del University College de Londres,
cuya investigación se centra en la especiación, sostiene que «las especies consideradas
esencialmente como una “realidad” entran en grave conflicto con lo que entendemos como
especiación gradual y, en general, es algo que ya no está aceptado».[7] Y prosigue
defendiendo que «recientes estudios genéticos […] apoyan la existencia de un continuo
darwinista entre variedades y especies».[8]
Los biólogos especializados en evolución, Jerry Coyne y H. Allen Orr, discuten esto
en el libro que publicaron en 2004 y que titularon Speciation [Especiación], un extensivo
estudio sobre la investigación llevada a cabo en este ámbito.
Tal y como lo articuló Ernst Mayr, uno de los arquitectos del modelo neodarwinista:
Lo que se conoce como el «problema de las especies» puede reducirse a una sencilla
elección entre dos alternativas: ¿son las especies una realidad en la naturaleza o son
simplemente una invención de la mente humana?[9]
Teniendo en cuenta que un ser humano es claramente distinto a un ratón, una carpa
dorada, una bacteria E coli o un roble, existe una necesidad práctica, diferenciada de
cualquier tipo de necesidad ontológica, de definir aquello sobre lo que los científicos hablan
y estudian. Este fue uno de los principales motivos del desarrollo de la taxonomía: la
clasificación jerárquica de los organismos en grupos según los caracteres que tienen en
común, empezando por los más generales hasta llegar a los más específicos.
Independientemente de las diferencias que mantengan con respecto al significado
del término, la mayoría de científicos utiliza las especies —no un taxón de categoría
inferior a la especie, como la variedad, o un taxón de categoría superior a la especie, como
el género, el orden, la clase o el filo—, para describir a los organismos y sus relaciones con
otros organismos. Pero el modo en que taxonomistas, especialistas en el estudio de
sistemas, naturalistas, bacteriólogos, botánicos, entomólogos, zoólogos, biólogos
evolutivos, biólogos moleculares, genetistas, especialistas en el estudio del genoma,
ecologistas y otros especialistas definen el término «especie» es muy distinto porque no se
ponen de acuerdo en cuáles son los caracteres definitorios.
Preguntados por lo que entendían como «especie», los arquitectos del
neodarwinismo coincidían en que el caracter taxonómico tradicional, es decir, la morfología
—estructura y forma—, era inadecuada porque muchas difieren muy poco
morfológicamente mientras que otras especies exhiben una amplia variedad de morfologías.
Además, el macho y la hembra de todas las especies suelen ser distintos en cuanto a tamaño
y forma, y a menudo también en cuanto a color, igual que los ejemplares jóvenes y los
maduros, mientras que los adultos suelen mostrar formas distintas dependiendo de la
disponibilidad de alimento.
Para los neodarwinistas, el caracter clave era la capacidad de los miembros de una
población para poder intercambiar genes: el flujo genético dentro de una población define
una especie y distingue esa especie de otra población con la que no existe flujo genético, y
el flujo genético se consigue mediante la unión de miembros de la especie para producir
descendencia fértil. Ernst Mayr materializó este punto de vista en 1940 como el «concepto
biológico de especie», que definió sin apenas cambios más de cincuenta años después como
«grupos de poblaciones naturales de individuos que pueden cruzarse entre sí, o que
potencialmente pueden hacerlo, y que están reproductivamente aislados de otros grupos
afines».[10]
Como que los neodarwinistas defienden que la selección natural de caracteres de la
población de una especie en un entorno particular es la causa de la evolución biológica,
sostienen que el aislamiento geográfico es la vía principal hacia la especiación. Una
población se divide en dos bien por la migración de una parte de la misma o por la
formación de una barrera geográfica entre distintas partes de la población, como sucedió
cuando el istmo de Panamá se cerró hará cuestión de tres millones de años y separó los
organismos marinos que vivían en las costas del Atlántico y del Pacífico. El acervo génico
de las poblaciones aisladas geográficamente se altera en el transcurso de generaciones
cuando la selección natural favorece a los miembros mejor adaptados para competir por la
supervivencia y reproducirse en ese entorno. Al final, los miembros de las distintas
poblaciones ya no son capaces de intercambiar genes ni en el caso de que se produjera el
contacto. Es lo que se conoce como especiación alopátrica, a diferencia de la simpátrica, en
la que una población se divide en dos o más especies que comparten el mismo territorio.
El concepto biológico de especie neodarwinista fue ampliamente aceptado como
ortodoxia hasta los años 80, cuando los botánicos empezaron a rebatirlo alegando que no
aplicaba a muchas plantas.
Coyne y Orr, los zoólogos que investigaron la especiación mediante la mosca de la
fruta Drosophila melanogaster, siguieron a Mayr considerando que la alopátrica es la
principal vía hacia la especiación. Modificaron levemente su definición reconociendo que
la especiación darwinista es un proceso que exige mucho tiempo y que existen fases
intermedias en las que no es posible hacer una distinción de especies clara. Su actualización
del concepto biológico de especie, que se ha convertido en la ortodoxia actual, pero que no
por ello está aceptado unánimemente, lo define como «grupos de poblaciones que se
reproducen entre sí y que muestran un aislamiento reproductivo sustancial, aunque no
necesariamente completo, con respecto a otras poblaciones afines».[11]
Su revisión de las diversas barreras divide el aislamiento entre precopulatorio y
postcopulatorio. El aislamiento precopulatorio puede ser:
a. Ecológico, cuando las poblaciones ocupan o se reproducen en hábitats distintos.
b. Temporal, cuando las poblaciones se reproducen en momentos distintos, ya sea
del día o del año.
c. Conductual, cuando los miembros de la población eligen si emparejarse o no o
con quién hacerlo, lo que se conoce también como emparejamiento selectivo.
d. Mecánico, cuando diferencias morfológicas o fisiológicas impiden el
emparejamiento.
El aislamiento poscopulatorio implica que el resultado del emparejamiento es
inviable (aborto o mortinato), estéril (como la mula que resulta del emparejamiento de un
caballo y un asno) o no está tan bien adaptado como cualquiera de sus progenitores para
sobrevivir o reproducirse y, en consecuencia, se ve abocado a la extinción.
Pero la definición del término especie que sostiene la ortodoxia actual presenta
cuatro problemas principales.
1. Imposibilidad de verificación
Si la vía principal hacia la especiación es la separación geográfica de partes de una
población, al quedar dos partes aisladas entre sí se hace imposible observar si los miembros
de una parte son capaces de emparejarse con los miembros de la otra. La rara excepción se
produce cuando los miembros de una parte de la población migran de nuevo hacia el
territorio donde vive la otra parte.
2. Reproducción asexual
La definición se apuntala sobre la reproducción sexual, pero la mayoría de especies
se reproduce asexualmente. Uno de estos métodos de reproducción es la partogénesis,
conocida también como nacimiento virgen.
Partogénesis: desarrollo de un óvulo hasta convertirse en cría sin que se produzca
la fecundación por parte de un macho.
Muchos invertebrados, como los insectos, producen descendencia de esta manera.
Por ejemplo, la bdilloidea rotifers, un invertebrado acuático microscópico, es siempre
hembra pero se reproduce y ha desarrollado unas 300 especies reconocidas. La mayoría de
animales que se reproduce por partogénesis se reproduce también sexualmente. Entre ellos
destacan las abejas y las hormigas, además de algunos vertebrados como determinadas
especies de serpientes, peces, anfibios, reptiles y aves, aunque ningún mamífero. El
fenómeno es más excepcional entre las plantas, donde la reproducción partogenética natural
se produce en la rosa y el naranjo.
Otro método asexual de reproducción es la fisión binaria.
Fisión binaria: división de una célula en dos, en la que cada célula resultante es
idéntica a la célula original y suele alcanzar su mismo tamaño.
La abrumadora mayoría de especies del planeta —bacterias y arqueas— se
reproduce de esta manera.
Coyne y Orr defienden que la reproducción bacteriana es consistente con su
definición porque los genes se intercambian entre las bacterias a través de un proceso
conocido como transferencia genética horizontal, o lateral, que «puede causar
transferencias genéticas raras y recombinación»; este equivalente bacteriano de la
recombinación genética sexual produce incluso «una forma de aislamiento reproductivo».
Por otro lado, el informe de la Evaluación de los Ecosistemas del Milenio dice que:
«Los conceptos de especies que están basados en el flujo genético y sus límites,
como el concepto biológico de especie, no son aplicables a los taxones asexuales. Tampoco
son adecuados para taxones “pansexuales”, como es el caso de algunas bacterias, donde el
flujo de genes puede ser común entre tipos incluso muy distintos[12]».
3. Hibridación exitosa
La actual definición neodarwinista deja implícito que del emparejamiento entre
miembros de dos especies distintas resulta una descendencia que es inviable, estéril o tan
poco adaptada para sobrevivir y reproducirse, que su descendencia se extingue.
Sin embargo, el 25 por ciento de las plantas vasculares (que incluyen todas las
plantas con flor) de Gran Bretaña, el 16 por ciento de todas las mariposas de Europa, el
nueve por ciento de todas las aves del mundo y el seis por ciento de todos los mamíferos de
Europa (incluyendo el ciervo), hibrida y produce descendencia fértil.[13]
4. Hibridación poliploide
La hibridación no solo es exitosa en muchas plantas, sino que además puede generar
nuevas especies casi de inmediato en vez de hacerlo de forma gradual a lo largo de miles de
generaciones. En el capítulo siguiente trataré sobre este tipo concreto de hibridación,
conocida como poliploide, en la que el híbrido y su descendencia no pueden reproducirse
con miembros de las especies de sus progenitores.
Coyne y Orr hablan de un mínimo de 25 definiciones alternativas del término
«especie» vigentes hoy en día. Cada una de ellas, sin embargo, presenta tantos problemas
como la definición ortodoxa actual.
Lo cual me obliga a llegar a la conclusión de que, después de revisar las evidencias
de la evolución biológica, no queda otra alternativa que aceptar la definición de especie y
los caracteres que se utilicen para clasificar a un individuo dentro de una especie en
particular, que los especialistas más relevantes utilicen. Lo cual, de todos modos, produce
inconsistencias considerables. Por ejemplo, los caracteres utilizados para clasificar las
especies de hormigas son muy distintas de las que se emplean para clasificar las especies de
mariposas. El lobero irlandés, que tiene una altura a la cruz de 90 centímetros, se clasifica
como la misma especie (Canis lupus familiaris) que el chihuahua de 15 centímetros de
altura, mientras que la longitud media de una gaviota mediterránea (Larus melanocephalus)
adulta es de 39 centímetros y se clasifica como una especie distinta de la gaviota común
(Larus canus), que tiene una longitud media en edad adulta de 41 centímetros, es algo más
larga, tiene las patas más rojas y la cabeza negra solo en verano. Si únicamente
dispusiéramos de fósiles de ambos ejemplares, las gaviotas serian indistinguibles, mientras
que los dos perros quedarían clasificados como especies distintas.
Fósiles
El registro fósil se ha ampliado enormemente desde tiempos de Darwin, y muy en
especial en los últimos treinta años. Pero, de todos modos, la evaluación de fósiles para
comprender la evolución biológica presenta dos problemas principales.
Escasez del registro fósil
Esta imagen general muestra que si la formación de la Tierra que se produjo hace
aproximadamente 4,5 miles de millones de años puso en marcha el reloj, el supuesto
bombardeo de asteroides o cometas que tuvo lugar en la última parte del eón hádico
terminaría a las 3.12 h. (hace 3,9 miles de millones de años). A pesar de que nunca
sabremos con exactitud en qué momento apareció la vida a partir de los elementos químicos
inanimados de la superficie terrestre, las estimaciones menos discutidas sitúan los primeros
fósiles microbianos a las 5.20 h. (hace 3,5 miles de millones de años). Estos microbios,
principalmente bacterias y arqueas, fueron la única forma de vida durante casi tres mil
millones de años. Los animales no emergieron hasta aproximadamente las 20.32 h. (hace
0,65 miles de millones de años), mientras que los humanos lo hicieron solo 29 segundos
antes de medianoche.
Los análisis químicos y radiométricos de rocas indican que durante la mayor parte
de historia de la Tierra ha habido muy poco oxígeno en los océanos, profundos y no
profundos, y en la atmósfera (véase tabla 17.1).
Las correlaciones con el registro fósil sugieren que los primeros microbios eran
extremófilos que se mantenían ingiriendo elementos químicos, probablemente componentes
sulfurosos e hidrógeno procedentes de la descomposición del agua. Al final, los
antepasados de las cianobacterias evolucionaron para utilizar la luz del sol como fuente de
energía. El oeste de Australia posee uno de los registros más continuos y mejor estudiados
de estromatolitos, estructuras laminadas compuestas principalmente por cianobacterias,
organismos que dominaron el registro fósil en el periodo comprendido entre dos mil y un
millón de años antes de nuestros días.[20]
Algunas cianobacterias excretan oxígeno a modo de producto de desecho
metabólico. Pese a que el oxígeno era venenoso para las bacterias primitivas (anaeróbicas),
algunas especies se adaptaron para utilizar este oxígeno para su metabolismo (bacterias
aeróbicas).
El primer fósil de eucariota —una célula nucleada que contiene orgánulos tipo
mitocondrias, que utilizan oxígeno para generar energía para la célula— fue descubierto en
forma de finas películas de carbono en unas rocas de 2,1 miles de millones de años de
antigüedad localizadas en Empire Mine, cerca de Marquette, Michigan. Pudo haber sido
una colonia bacteriana, pero su tamaño superior a un centímetro y su forma de tubo
sugieren que podría tratarse de Grypania spiralis, una alga eucariota.[21]
En 2010, un equipo interdisciplinario liderado por Abderrazak El Albani, de la
Universidad de Poitiers, anunció el descubrimiento de más de 250 fósiles macroscópicos
bien conservados, de 2,1 miles de millones de años de antigüedad, en esquistos negros del
sudeste de Gabón que interpretaron como una representación de vida pluricelular. La
datación isotópica con carbono y azufre indican que las estructuras, que alcanzan un
tamaño de hasta 12 centímetros, eran biogénicas y los patrones de crecimiento deducidos a
partir de la morfología fósil sugieren la señalización celular y las respuestas coordinadas
que normalmente se asocian a una organización pluricelular. Además, los análisis de
especiación sugieren que los organismos utilizaron probablemente oxígeno para respirar.
Igual que sucede con la supuesta Grypania spiralis, la datación de estos fósiles coincide
con los inicios de la oxigenación de los océanos poco profundos y de la atmósfera (véase
tabla 17.1). Los investigadores no descartan la posibilidad de que estos fósiles representen
las eucariotas pluricelulares más antiguas.[22] Sin embargo, según señalan Philip
Donoghue y Jonathan Antcliffe, del departamento de Ciencias de la tierra de la Universidad
de Bristol, a falta de más evidencias, hay que suponer que representan colonias
bacterianas.22
Más ampliamente aceptados como los primeros fósiles eucariotas es la abundante
población de microfósiles esféricos conservados en los esquistos costeros del grupo
Ruyang, en el norte de china, clasificados como Shuiyousphaeridium macroreticulatum, un
organismo unicelular de entre 1,6 y 1,26 mil millones de años de antigüedad.[23]
Mientras que los niveles de oxígeno en los océanos y la atmósfera permanecieron
bajos durante casi tres mil millones de años, hace entre 0,85 y 0,54 miles de millones de
años, la oxigenación de los océanos de escasa profundidad se incrementó de manera
significativa y la atmósfera alcanzó el nivel actual de un 20 por ciento de oxígeno,
presumiblemente como consecuencia de la rápida diseminación de cianobacterias que
excretaban oxígeno. Todo esto es consistente con la aparición, hace aproximadamente 600
millones de años, de animales marinos simples que extraían oxígeno del agua para su
metabolismo, después de peces y, finalmente, de animales terrestres que metabolizaban
respirando oxígeno de la atmósfera.
En agosto de 2010, el geocientífico de Princeton, Adam Maloof y sus colegas,
afirmaron haber descubierto la primera evidencia de animales invertebrados de cuerpo
duro. Descubrieron fósiles con caparazón debajo de un depósito glacial en el sur de
Australia, lo que sugería que hace 650 millones de años en los acantilados vivían criaturas
semejantes a esponjas. De confirmarse, significaría que la vida animal existía, y sobrevivió,
antes de que la Tierra se convirtiera en un enorme copo de nieve como consecuencia del
suceso conocido como la glaciación marinoana, que dejó gran parte del planeta cubierta de
hielo.[24]
Por todo el mundo se han localizado huellas fosilizadas en arenisca de un amplio
rango de animales primitivos de cuerpo blando datados hace aproximadamente 600
millones de años. Marcan la aparición de la fauna ediacárica, que recibe su nombre por las
montañas Ediacara del sur de Australia, donde fueron descubiertos por primera vez.
Desaparecen en su mayoría del registro fósil hace 542 millones de años, aunque
descubrimientos más recientes indican que hubo organismos ediacáricos que siguieron
existiendo en el periodo cámbrico. A pesar de ser organismos que no se parecen a nada que
conviva en la actualidad con nosotros, las huellas sugieren algunos cnidarios semejantes a
las actuales medidas, líquenes, corales blandos, anémonas de mar, pennatulaceos y gusanos
anélidos, aunque sigue siendo controvertido si son ancestrales a especies extinguidas.[25]
A efectos prácticos, los paleontólogos conocen el primer periodo geológico
cámbrico, que se inició hace 545 millones de años, como la explosión cámbrica, pues
marcó la repentina aparición de una amplia variedad de miembros del reino animal, tanto
de cuerpo blando como de cuerpo duro —las eucariotas unicelulares que consumen otros
organismos y necesitan oxígeno para sobrevivir—, seguida por una desaparición
igualmente súbita de la mayoría de ellos al finalizar el periodo, hace 485 millones de años.
Sin embargo, teniendo en cuenta que los estratos del último 10 por ciento de la historia de
la Tierra están datados por su contenido fósil, estamos ante un argumento circular.
Descubrimientos más recientes, además de la posterior datación radiométrica de los estratos
rocosos, sugieren que muchas especies y linajes aparecieron antes, o desaparecieron
después, de este periodo de tiempo.
Fósiles de transición
Los creacionistas afirman que la ausencia de fósiles de transición entre una especie
y otra refuta la evolución biológica.
Richard Dawkins contraataca aseverando que «prácticamente todos los fósiles
descubiertos pueden describirse como algo intermedio entre dos cosas». Haciéndose eco del
comentario de Haldane que aparece como cita al principio de este capítulo, dice que no hay
nada en el registro fósil que falsee la evolución biológica.[26]
Las bacterias, aparte de las que evolucionaron hacia eucariotas, han conservado su
sencilla tipología corporal durante tres mil millones de años. Pero en el caso de los
animales, la primera aparición en el registro fósil de una especie más compleja nunca ha
sido datada antes de la primera aparición de una especie menos compleja. Me aventuro a
sugerir, de todos modos, que afirmar que cualquier fósil es un paso intermedio entre dos
cosas es tal vez simplificar la situación en exceso.
Para responder a los creacionistas, los biólogos evolutivos suelen señalar la escasez
inherente del registro fósil y emplean un argumento ya utilizado por Darwin: los
organismos transicionales que Estan peor adaptados al entorno que sus sucesores, acabarán
perdiendo la lucha por la supervivencia y la reproducción y se extinguirán rápidamente en
relación al tiempo geológico; de ahí que la probabilidad de encontrar fósiles de organismos
en transición sea todavía inferior que la de encontrar fósiles de aquellos que se adaptaron
con éxito.
Una serie de fósiles, de todos modos, presenta un caso factible para la evolución
biológica. La familia del caballo posee un registro fósil relativamente rico que va desde el
Hyracotherium, el caballo amanecer, un mamífero del tamaño aproximado de un zorro con
varios dedos terminados con pezuña y dentadura idónea para la alimentación omnívora,
datado aproximadamente hace 50 millones de años, hasta la única especie superviviente, el
caballo moderno con una sola pezuña y extremidades largas, Equus, con dentadura
adecuada para el pastoreo. La figura 17.4 ilustra los cambios anatómicos que este linaje ha
experimentado con el paso del tiempo.
El diagrama no representa una única sucesión lineal. Se han encontrado fósiles de
muchos más équidos extintos, lo que sugiere un árbol genealógico evolutivo en el que solo
el linaje que lleva hasta el caballo moderno sobrevivió hasta la actualidad.
Las transiciones anatómicas son consistentes con la hipótesis de que un pequeña
mamífero se adaptó para caminar sobre el suelo suave y húmedo de los bosques
primigenios y alimentarse de follaje blando y frutas y evolucionó a medida que los bosques
cedieron paso a la sábana; en el nuevo paisaje, solo las variedades más veloces podían
escapar de los predadores, lo que condujo a extremidades más largas y una única pezuña
para adquirir mayor velocidad y a la adaptación de la dentadura al pastoreo.
Las ballenas representan otro caso favorable para la evolución biológica. Como
todos los mamíferos, respiran aire y producen leche para alimentar a las crías. Sn embargo,
no salen nunca del agua, tienen los oídos cerrados, aletas en vez de piernas, y poseen un
metabolismo que retiene el oxígeno no en forma de gas, sino de compuesto químico, lo que
permite que algunas de ellas puedan sumergirse a 1.500 metros de profundidad y
permanecer bajo el agua durante dos horas; algunas, como la ballena azul, son gigantescas
y pueden alcanzar un peso de hasta 150 toneladas.
Según el paleontólogo y anatomista Hans Thewissen, de la facultad de Medicina de
las Northeastern Ohio Universities, una de las autoridades más destacadas en el estudio de
las adaptaciones acuáticas de las ballenas, sus primeros antepasados conocidos son la
familia de las Pakicetidae (ballenas en paquistana), que incluye los géneros Pakicetus,
Ichthyolestes y Nalacetus. Junto con su equipo, realizó el seguimiento de un primer
descubrimiento y encontró muchos huesos fosilizados en Pakistán y el noroeste de India,
zona que se cree que se localizaba cerca del antiguo mar de Tetis antes de que la placa india
colisionara contra la costa de Cimeria y diera lugar a las montañas más altas del mundo.
Las Pakicetidae fueron encontradas juntas y, por lo tanto, son de la misma época.
Pero siendo tan complicada la datación de las rocas, Thewissen solo está dispuesto a
estimarles una edad de 50 +/- 2 millones de años, aunque «con escasa seguridad».[27]
La figura 17.5 muestra los huesos del Pakicetus y el Ichthyolestes, mientras que la
figura 17.6 muestra una reconstrucción del primero, que tendría el tamaño aproximado de
un lobo.
Vivían en tierra, pero Thewissen asegura que tienen caracteres que no comparten
con otros mamíferos, sino única y exclusivamente con cetáceos arcaicos y recientes
(ballenas, delfines y marsopas): una reducción de la parte de la corona dental que tritura el
alimento, un aumento de la velocidad de cierre de las mandíbulas y una forma de la región
post-orbital y temporal del cráneo que afecta el oído y la visión. Lanza la hipótesis de que
estos ungulados cambiaron a una dieta de presas acuáticas cuando empezaron a adentrarse
en ríos de aguas poco profundas. Evolucionaron rápidamente. La transición de paquicétidos
a mamíferos marinos se realizó en menos de ocho millones de años vía los ambulocétidos
(ballena que camina), cuyo aspecto parecería el de un cocodrilo mamífero de tres metros de
longitud y cuyos fósiles se descubrieron en lo que se cree que fueron unas marismas, los
protocétidos con extremidades mucho más reducidas, los basilosauridos con cuerpos
enormes de aspecto serpenteo y cola similar a la de las ballenas y los dorudóntidos,
similares a los delfines.[28]
La interpretación de los huesos fosilizados y la reconstrucción del ejemplar a partir
de los mismos, junto con inferencias sobre cómo debían de funcionar estos animales, las
deducciones alcanzadas a partir de análisis de ADN calibrados utilizando la técnica del
reloj molecular, más la datación de los estratos rocosos por su contenido fósil, nunca
podrán proporcionar pruebas concluyentes. Sin embargo, las evidencias son consistentes
con la hipotética evolución de pequeños mamíferos terrestres ungulados hacia ballenas de
vida acuática. Son también consistentes con los mamíferos actuales adaptados en distintos
grados tanto a la vida terrestre como acuática, como la nutria, la nutria marina y la foca.
Otros fósiles llamados de transición son los descubiertos en la década de los 90,
sobre todo en la formación de Yixian, China; se trata de más de veinte géneros distintos de
dinosaurios con plumas fósiles datados con una antigüedad de entre 150 y 120 millones de
años.[29] Desde entonces se han descubierto muchos más dinosaurios alados de gran
tamaño, incluyendo la especie descubierta en 2012 bautizada como Yutyrannus huali, de
entre siete y ocho metros de longitud y alrededor de 1.400 kilos de peso. Además, las
secuencias de aminoácidos extraídas de los restos de un Tyrannosaurus rex más reciente
recuerdan las de un pollo actual. Todas estas evidencias son consistentes con la hipotética
evolución de las aves a partir de dinosaurios reptiles.
Finalmente decir que la explicación alternativa creacionista del registro fósil no solo
carece de evidencias falsables, sino que totalmente inconsistente con las evidencias que
tenemos; además, es internamente inconsistente.[30]
Extinción de especies
Como vimos en el último capítulo, una de las razones que retrasó la aceptación por
parte de la comunidad científica de la hipótesis de la selección natural de Darwin fue el
gradualismo que llevaba implícito, que no estaba sustentado por un registro fósil que
mostraba especies completamente formadas que permanecían invariables hasta su
desaparición. Las evidencias eran consistentes con el saltacionismo, la hipótesis de que la
evolución biológica se producía por saltos.
Sin embargo, la adopción del neodarwinismo por parte de los biólogos en la década
de 1940, consolidó los argumentos teóricos de los genetistas de la población a favor de un
proceso de evolución basado en el gradualismo darwinista e influyó las interpretaciones del
registro fósil.
Pero en 1972, un documento titulado «Punctuated Equilibria: An Alternative to
Phyletic Gradualism» [Equilibrios puntuados: una alternativa al gradualismo filético][42],
escrito por los paleontólogos Niles Eldredge y Stephen Jay Gould, desafío la base de
evidencias que sustentaba la explicación neodarwinista. La publicación provocó un debate,
a menudo mordaz, que continúa en la actualidad. Gould, posteriormente, resumió sus
conclusiones como sigue:
La historia de la mayoría de especies fósiles incluye dos características
especialmente inconsistentes con el gradualismo: (1) Estasis. La mayoría de especies no
exhibe un cambio direccional durante su estancia en la tierra. Aparecen en el registro fósil
básicamente con el mismo aspecto que tienen en el momento de su desaparición; el cambio
morfológico suele ser limitado y carente de dirección. (2) Aparición súbita. En toda área
localizada, la especie no surge gradualmente a partir de la transformación continuada de sus
antepasados; sino que aparece de repente y «completamente formada».[43]
Examinaré la hipótesis del equilibrio puntuado en un capítulo posterior. Lo que aquí
quiero ver es lo que muestran las evidencias fósiles.
Los neodarwinistas basan su modelo en el estudio llevado a cabo en 1987 por el
geólogo Peter Sheldon con 3.458 ejemplares de trilobites —el grupo de artrópodos marinos
extintos, parientes lejanos del cangrejo herradura y los insectos— recogidos en siete
estratos de roca sedimentaria de la zona central de Gales y que representaban un periodo de
alrededor de tres millones de años. Una característica que diferencia las especies es el
número de «costillas» pigidiales (segmentos fusionados de la cola). Sheldon descubrió que
en ocho géneros de trilobites la media de número de costillas pigidiales aumentaba con el
paso del tiempo. Llegó con ello a la conclusión de que, debido al cambio gradual, que a
veces se invertía temporalmente, era imposible asignar la mayoría de ejemplares a una
especie linneana concreta. Teniendo en cuenta que los taxonomistas incluyen diversas
formas morfológicas dentro de una misma especie, las asignaciones previas a taxones
linneanos podían haberse interpretado erróneamente como una evidencia de interrupción y
estasis.[44]
Eldredge, sin embargo, presenta una interpretación distinta de los datos de Sheldon.
En primer lugar, sostiene que la falta de costillas no significa que las divisiones de la cola
de un ejemplar de trilobites hayan desaparecido; sino que no se expresan en la superficie
exterior de la cola, igual que les sucede a los cangrejos herradura actuales antes de alcanzar
la edad adulta. En segundo lugar, en dos linajes de trilobites, el número de costillas
pigidiales oscila en vez de aumentar gradualmente, mientras que en tres linajes más el
número de costillas se mantiene constante durante varios estratos, después aumenta de
manera significativa y luego se estabiliza, todo lo cual es consistente con la inmigración, en
ese estrato en concreto, de linajes relacionados pero distintos. En tercer lugar, este
«trapicheo anatómico menor relacionado con el número de costillas —que básicamente no
conduce hacia ninguna dirección acumulativa concreta— no puede ser responsable de las
diferencias anatómicas mucho más sustanciales que se observan entre linajes estrechamente
relacionados».[45]
Alan Cheethan, paleontólogo del Museo Nacional de Historia Natural del Instituto
Smithsoniano, apoya este punto de vista. En 1986 llevó a cabo el estudio sobre un género,
el Metrarabdotus, integrado por invertebrados sésiles acuáticos cuyos fósiles han sido
descubiertos en estratos de rocas depositadas en un periodo que se extiende entre once y
cuatro millones de años atrás. Algunas especies de este género siguen vigentes en la
actualidad y ofrecen, por lo tanto, posibilidad de comparación morfológica. Cheetham
estudió hasta 46 caracteres morfológicos por ejemplar en un total de aproximadamente mil
especies de un centenar de poblaciones. Llegó a la conclusión de que la mayoría de estas
especies no experimentó cambios durante periodos de varios millones de años y que la
mayoría de nuevas especies apareció súbitamente, sin una población intermedia
transicional; si hubo formas intermedias, duraron menos de 160.000 años como media. En
al menos siete de los casos estudiados, las especies antecesoras continuaron vigentes
después de haber originado descendientes. Todo esto, defiende, apoya el modo de evolución
con equilibrio puntuado.[46] Posteriormente, sin embargo, advirtió sobre el peligro de basar
los argumentos en el cambio de un único carácter (como Sheldon había hecho con el
número de costillas pigidiales).[47]
Eldredge concede que las especies exhiben variación, pero comenta que el registro
fósil rara vez muestra una transformación progresiva en una única dirección que se
prolongue durante mucho tiempo. Los estudios de Bruce Lieberman sobre la historia
evolutiva de dos especies de moluscos arcaicos demuestran que ambas especies cambiaron
un poco, pero que transcurridos seis millones de años, las dos terminaron con un aspecto
muy similar al que tenían cuando aparecieron por vez primera en el registro fósil. Esto,
según Eldredge, es muy típico. «Lo que apreciamos […] es oscilación. Los caracteres
variables suelen girar en torno a un valor medio».[48]
Sostiene, además, que el pequeño y progresivo cambio en el seno de las especies
que observamos en el registro fósil es demasiado lento como para ser responsable de los
grandes cambios adaptativos evolutivos. Los primeros murciélagos y ballenas necesitaron
aproximadamente unos 55 millones de años para alcanzar su actual morfología. Pero si
extrapolamos este ritmo de cambio hacia atrás, los murciélagos y las ballenas habrían
tenido que divergir de los mamíferos terrestres primitivos mucho antes de que hubieran
evolucionado los mamíferos placentarios.
Por lo que se refiere a los puntos de vista actuales, en la edición de 2014 de la
Encyclopedia Britannica Online, el antiguo presidente de la American Association fort he
Advancement of Science, Francisco José Ayala, presenta el argumento de la ortodoxia
neodarwinista.
El registro fósil indica que la evolución morfológica es, en líneas generales, un
proceso gradual. Los grandes cambios evolutivos se deben normalmente a una acumulación
de cambios relativamente pequeños que se produce a lo largo del tiempo […]. Los
paleontólogos suelen atribuir las aparentes discontinuidades morfológicas del registro fósil
a […] los sustanciales vacíos temporales comprendidos en los límites entre estratos. El
supuesto es que, si los depósitos de fósiles fueran más continuos, mostrarían una transición
gradual en la forma [la cursiva es mía].[49]
Ayala, que está especializado en genética molecular, basa el caso en un supuesto.
Eldredge, que es paleontólogo, se muestra claramente en desacuerdo.
El mismo Darwin […] profetizó que generaciones futuras de paleontólogos
llenarían estos vacíos con su diligente investigación […], pero ha quedado abundantemente
claro que el registro fósil no confirmará esta parte de las predicciones de Darwin. Que el
registro fósil sea miserablemente pobre tampoco es el problema. El registro fósil muestra,
simplemente, que esta predicción es errónea […]. La observación de que las especies son
entidades que se muestran asombrosamente conservadoras y estáticas a lo largo de
prolongados periodos de tiempo presenta todas las cualidades del cuento del traje nuevo del
emperador: todo el mundo lo sabía, pero él prefería ignorarlo. Los paleontólogos,
enfrentados a un registro que de forma recalcitrante y obstinada se niega a confirmar el
patrón pronosticado por Darwin, se han limitado a mirar hacia el otro lado.[50]
Es indiscutible que el registro fósil contiene muchos ejemplos de animales fósiles
que se han mantenido morfológicamente invariables durante muchos millones de años. Las
bacterias no han experimentados cambios morfológicos importantes desde hace más de tres
mil millones de años.
Ayala reconoce que:
Las formas fósiles suelen mantenerse virtualmente sin cambios a lo largo de varios
estratos geológicos, y cada uno de ellos representa millones de años […]. Encontramos
ejemplos de ello en los linajes de lo que se conoce como «fósiles vivos»; por ejemplo, el
molusco Lingula, un género de braquiópodo (un filo de invertebrados con dos valvas) que
ha permanecido aparentemente inalterable desde el periodo ordovícico, hace 450 millones
de años; o el tuatara (Sphenodon punctatus), un reptil que ha mostrado escasa evolución
morfológica en 200 millones de años, desde los inicios del mesozoico.[51]
Lo mismo aplica a muchos cocodrilos (aligátores, cocodrilos, caimanes, gaviales),
que se han mantenido sin cambios importantes durante 200 millones de años, mientras que
los restos perfectamente conservados de crustáceos triopsidos de 220 millones de años de
antigüedad no se distinguen en nada del actual camarón de herradura, Triops cancriformis.
Estos, y otros, son ejemplos vivos de especies que han permanecido inalterables durante
millones de años, a pesar de los supuestos cambios catastróficos en el entorno que
produjeron sucesos de extinción en masa. Muchas más especies se muestran inalterables en
el registro fósil a lo largo de decenas de millones de años.
La ausencia de evidencias no es evidencia de ausencia. Debido a la escasez del
registro fósil, a los distintos caracteres morfológicos utilizados por distintos taxonomistas
para clasificar las especies, y a la posibilidad de que la aparición aparentemente súbita (en
tiempo geológico) de nuevas especies totalmente formadas fuera causada por la
inmigración de una nueva especie, podría obtenerse un patrón de estasis si el mecanismo
subyacente fuera gradual o de equilibrio puntuado. Sin embargo, no hay aparentemente
ejemplos fósiles indiscutibles de cambios graduales y acumulativos que produzcan especies
claramente distintas. Por otro lado, hay muchos ejemplos indiscutibles de estasis evolutiva.
Podemos concluir que el patrón normal de las evidencias fósiles de animales es de
estasis morfológica con cambios menores, y a menudo oscilantes, puntuados por la
aparición geológicamente súbita (decenas de miles de años) de nuevas especies, que
permanecen luego en estado básicamente invariable hasta que desaparecen del registro fósil
o siguen vigentes hasta la actualidad en forma de lo que conocemos como «fósiles vivos».
Registro fósil de animales y plantas
La figura 17.7 describe el patrón actualmente aceptado del registro fósil para
animales y plantas, que se origina hace aproximadamente 650 millones de años.
Evolución de los mamíferos
Conclusiones
1. El registro fósil es extremadamente pequeño en comparación con la estimación
del número de especies que han existido; está fragmentado y no es representativo de todas
las especias, además de ser extremadamente difícil de interpretar con un nivel elevado de
confianza. Teniendo en cuenta este telón de fondo, en las evidencias discernimos el
siguiente patrón.
2. Las procariotas fosilizadas muestran pocos cambios morfológicos a lo largo de
3,5 miles de millones de años; desde hace unos dos mil millones de años, suelen
encontrarse en colonias.
3. La extensión del registro fósil a lo largo del tiempo va de lo más sencillo a lo
complejo: las procariotas aparecen antes que las eucariotas, las eucariotas unicelulares antes
que las pluricelulares, la simetría radial antes que la bilateral y la cefalización, los
invertebrados antes que los vertebrados, los peces antes que los anfibios, los reptiles antes
que las aves, los mamíferos antes que los primates, y los monos antes que los humanos.
4. No se trata de una progresión lineal: la agrupación de fósiles animales a lo largo
del tiempo a partir de algunos caracteres morfológicos comunes sugiere un árbol
genealógico con muchísimos linajes que, en su inmensa mayoría, terminan con la extinción.
5. Estos linajes evolutivos están sustentados por algunas series de especies
transicionales.
6. A pesar de que los límites entre organismos cada vez más complejos son
indistinguibles (como hemos visto en todos los casos), estas apariciones de nuevas especies,
o transiciones evolutivas, son irreversibles: el registro fósil no presenta evidencias
convincentes de que organismos complejos se transformen en organismos más simples.
7. El ritmo del incremento de la complejidad biológica aumenta en general con el
tiempo, aunque dicho ritmo es distinto para cada linaje.
8. El patrón normal de la evidencia fósil de animales es de estasis, con cambios
menores y a menudo oscilantes salpicados por la aparición geológicamente súbita —
decenas de miles de años— de nuevas especies que luego permanecen invariables durante
decenas e incluso centenares de millones de años hasta desaparecer del registro fósil o, lo
que es menos común, seguir presentes hasta la actualidad.
9. A pesar de no ofrecer una prueba indiscutible, el registro fósil proporciona
evidencias contundentes del fenómeno de la evolución biológica, de la que el ser humano
es un producto.
[1]May, R. M., «How Many Species Inhabit the Earth?», Scientific American, 267:
4, 1992, pp. 42–48.
[2]UNEP (2007), p. 164.
[3]Torsvik, Vigdis, et al.,«Prokaryotic Diversity—Magnitude, Dynamics, and
Controlling Factors», Science, 296: 5570, 2002, pp. 1064–1066.
[4]Harwood y Buckley (2008).
[5]Whitman, William B., et al., «Prokaryotes: The Unseen Majority», Proceedings
of the National Academy of Sciences, 95: 12, 1998, pp. 6578–6583.
[6]Isaac, N. J. B., et al., «Taxonomic Inflation: Its Influence on Macroecology and
Conservation», Trends in Ecology & Evolution, 19: 9, 2004, pp. 464–469.
[7]Mallet, J., «The Speciation Revolution», Journal of Evolutionary Biology, 14: 6,
2001, pp. 887–888.
[8]Mallet, James, «Hybridization, Ecological Races and the Nature of Species:
Empirical Evidence for the Ease of Speciation», Philosophical Transactions of the Royal
Society B: Biological Sciences 363: 1506, 2008, pp. 2971–2986.
[9]Mayr (1982), p. 285.
[10]Mayr, Ernst, «What Is a Species, and What Is Not?», Philosophy of Science, 63:
2, 1996, pp. 262–277.
[11]Coyne (2004), p. 30.
[12]Mace, Georgina, et al., «Biodiversity», pp. 87-89 en Current State & Trends:
Millennium Ecosystem Assessment, 2005.
[13]Mallet, James (2008).
[14] Véase página 341.
[15]Leakey y Lewin (1996), p. 39 y p. 45.
[16]Ibíd. p. 45.
[17]Conway Morris (1998).
[18]Leake, Jonathan y Harloe, John, «Origin of the Specious», Sunday Times,
Londres, 24 de mayo de 2009, News, p. 16; Henderson, Mark, «Ida, the Fossil Hailed as
Ancestor of Man, “Wasn’t Even a Close Relative”», The Time, Londres, 22 de octubre de
2009, News, p. 25.
[19]Harding, Luke, «History of Modern Man Unravels as German Scholar Is
Exposed as Fraud», The Guardian, Londres 19 de febrero de 2005, News, p. 3.
[20]http://www.dmp.wa.gov.au/5257.aspx, consultado el 24 de marzo de 2010.
[21]Han, Tsu-Ming y Runnegar, Bruce, «Megascopic Eukaryotic Algae from the
2.1-Billion-Year-Old Negaunee Iron-Formation, Michigan», Science, 257: 5067, 1992, pp.
232–235.
[22]Albani, Abderrazak El, et al., «Large Colonial Organisms with Coordinated
Growth in Oxygenated Environments 2.1gyr Ago», Nature, 466: 7302, 2010, pp. 100–104.
[23]Donoghue, Philip C. J. y Antcliffe, Jonathan B., «Early Life: Origins of
Multicellularity», Nature, 466: 7302, 2010, pp.41–42.
[24]Knoll, A. H., et al., «Eukaryotic Organisms in Proterozoic Oceans»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 361: 1470, 2006,
pp. 1023–1038.
[25]http://www.princeton.edu/main/news/archive/S28/14/71M11/index.xml?
section=topstories#top, consultado el 17 de Agosto de 2010.
[26]http://www.simonyi.ox.ac.uk/dawkins/WorldOfDawkins-
archive/Dawkins/Work/Articles/alabama/1996-04-01alabama.shtml, consultado el 20 de
diciembre de 2008.
[27]Hans Thewissen, comunicación personal, 22 de Julio de 2010.
[28]Thewissen, J. G. M., et al., «Whales Originated from Aquatic Artiodactyls in
the Eocene Epoch of India», Nature, 450: 7173, 2007, pp. 1190–1194; Thewissen, J. G.M.,
et al., «Developmental Basis for Hind-Limb Loss in Dolphins and Origin of the Cetacean
Bodyplan», Proceedings of the National Academy of Sciences, 103: 22, 2006, pp. 8414–
8418; Thewissen, J. G. M., et al., «Eocene Mammal Faunas from Northern Indo-Pakistan»,
Journal of Vertebrate Paleontology, 21(2), 2001, pp. 347–366.
[29]Pallen (2009), p. 83.
[30] Véase página 43.
[31]«Extinction», McGraw-Hill Encyclopedia of Science and Technology, 2005.
[32]«Dinosaurs», Museo Americano de Historia Natural,
http://www.amnh.org/exhibitions/dinosaurs/extinction/mass.php, consultado el 29 de
octubre de 2008.
[33] Véase página 312.
[34] Véase página 284.
[35]Alvarez (1997).
[36]Véase, por ejemplo, «Dinosaur extinction link to crater confirmed»,
http://news.bbc.co.uk/1/hi/sci/tech/8550504.stm, 4 de marzo de 2010.
[37]Schulte, Peter, et al., «The Chicxulub Asteroid Impact and Mass Extinction at
the Cretaceous-Paleogene Boundary», Science, 327: 5970, 2010, pp. 1214–1218.
[38]Courtillot, Vincent y Fluteau, Frederic, «Cretaceous Extinctions: The Volcanic
Hypothesis», Science, 328: 5981, 2010, pp. 973–974.
[39]Keller, Gerta, et al., «Cretaceous Extinctions: Evidence Overlooked», Science,
328: 5981, 2010, pp. 974–975.
[40]Archibald, J. David, et al., «Cretaceous Extinctions: Multiple Causes», Science,
328: 5981, 2010, p. 973.
[41]Elliott (2000); Officer, David K., «Victims of Volcanoes: Why Blame an
Asteroid?», New Scientist: 1861, 2003, p. 4.
[42]Eldredge y Gould (1972).
[43]Gould (1980), p. 182.
[44]Sheldon, Peter R., «Parallel Gradualistic Evolution of Ordovician Trilobites»,
Nature, 330: 6148, 1987, pp. 561–563.
[45]Eldredge (1995), pp. 70–74.
[46]Cheetham, Alan H., «Tempo of Evolution in a Neogene Bryozoan: Rates of
Morphologic Change within and across Species Boundaries», Paleobiology 12: 2, 1986, pp.
190–202.
[47]Cheetham, Alan H., «Tempo of Evolution in a Neogene Bryozoan: Are Trends
in Single Morphologic Characters Misleading?», Paleobiology, 13: 3, 1987, pp. 286–296.
[48]Eldredge, pp. 69–70.
[49]Ayala (2014).
[50]Eldredge y Tattersall (1982), pp. 45–46.
[51]Ayala (2014).
[52]http://www.britannica.com/EBchecked/topic/360838/mammal, consultado el 11
de enero de 2015.
[53]Luo, Zhe-Xi, et al., «A Jurassic Eutherian Mammal and Divergence of
Marsupials and Placentals», Nature 476, 2011, pp. 442–445.
[54]Wible, J. R., et al., «Cretaceous Eutherians and Laurasian Origin for Placental
Mammals near the K/T Boundary», Nature 447: 7147, 2007, pp. 1003–1006.
CAPÍTULO 18. EVIDENCIAS DE LA EVOLUCIÓN BIOLÓGICA 2:
ANÁLISIS DE LAS ESPECIES VIVAS
Durante los últimos cuarenta años apenas se han elaborado estudios sobre las
especies vivas que hayan sido diseñados para investigar si la evolución biológica es o no
una realidad. Los biólogos tienen asumido que lo es y, en su mayor parte, asumen además
que la evolución sigue el modelo neodarwinista. De ahí que hayan centrado sus
investigaciones en los detalles de dicho mecanismo o en avanzar hipótesis para explicar los
fenómenos que no coinciden con el modelo.
En consecuencia, solo encontramos las evidencias que sustentan el fenómeno de la
evolución en las especies vivas en forma de subproducto de estas investigaciones. En el
presente capítulo consideraré lo que, en un sentido general, pueden denominarse análisis,
que agruparé en ocho categorías: (a) estructuras homólogas, (b) vestigios, (c) biogeografía,
(d) embriología y desarrollo, (d) cambios en especies, (e) bioquímica, (f) genética y (g)
genómica. En el capítulo siguiente examinaré la conducta de las especies vivas.
Estructuras homólogas
Ningún ingeniero sería capaz de diseñar estructuras tan similares para funciones tan
distintas. Las estructuras homólogas se hacen patentes en otras partes del cuerpo de los
animales. El grado de similitud refleja la proximidad de la primera aparición de la especie
en el registro fósil. Así pues, existen más similitudes entre humanos y chimpancés, menos
entre humanos y otros mamíferos, menos aún entre humanos y aves, y muchísimas menos
si cabe entre humanos y peces.
La explicación más razonable es que se trata de adaptaciones evolutivas a diferentes
entornos de distintas partes del cuerpo de antepasados comunes.
Vestigios
También, en este caso, las evidencias nos proporcionan más ejemplos de lo que
Darwin clasificó como estructuras rudimentarias, atrofiadas y abortadas. Las alas de aves
como los avestruces, los emús, los ñandúes y los pingüinos no sirven para volar; su diseño
sugiere que son alas degeneradas de antepasados que sí volaban. Los avestruces utilizan las
alas para equilibrarse y para exhibirlas en los rituales de cortejo, mientras que los pingüinos
las emplean para nadar bajo el agua, hechos consistentes con una adaptación evolutiva a un
nuevo entorno a partir de las alas de un antepasado volador. La explicación más frugal de
las pequeñas patas posteriores internas de las ballenas es que son restos de las patas
posteriores del mamífero terrestre cuya transición a la vida marina quedó examinada en el
anterior capítulo. De un modo similar, el coxis humano carece de función, pero podría
explicarse como los restos de una cola ancestral que degeneró y disminuyó por falta de uso
a medida que el linaje humano se adaptó a la bipedestación.
Los vestigios no se limitan a las estructuras anatómicas. Las lagartijas de cola de
látigo de la especie Cnemidophorus uniparens, que solo integra individuos hembra, exhibe
conductas de apareamiento complejas a pesar de reproducirse sin la fertilización del macho.
Las comparaciones entre el genoma humano y el del chimpancé muestran docenas de genes
homólogos en el hombre que no tienen ya ninguna función.
Biogeografía
Después de tomar nota de las similitudes entre los embriones de especies muy
distintas, durante su fase de desarrollo y también en los jóvenes ejemplares dependientes de
sus progenitores que carecen de las diferencias morfológicas y de color que aparecen al
alcanzar la edad adulta, Darwin consideró este hecho como «uno de los asuntos más
importantes de la totalidad de la historia natural».[1]
Sin embargo, hubo escasos avances en este ámbito hasta que los desarrollos
tecnológicos de finales del siglo xx hicieron más asequible la secuenciación genética. Así
fue como nació la sub-disciplina de la biología evolutiva del desarrollo (informalmente
«evo-devo», del inglés evolutionary developmental), que investiga los mecanismos
genéticos del desarrollo embrionario en las distintas especies. La disciplina ha producido
descubrimientos importantes e inesperados: los mismos genes controlan el desarrollo de los
mismos órganos en especies de forma, estructura y tamaño muy distintos. Por ejemplo, un
gen denominado Pax-6, de la mosca de la fruta Drosophila melanogaster, controla y
coordina los aproximadamente dos mil genes responsables de la creación de sus ojos,
dotados con múltiples lentes. Un gen Pax-6 prácticamente idéntico, pero en la rata tiene el
mismo papel y regula genes muy distintos que producen ojos muy distintos con una única
lente. Y lo más sorprendente de todo es que si insertáramos un único gen Pax-6 de rata en el
genoma de una mosca de la fruta, se produciría el desarrollo de un ojo de mosca de la fruta,
mientras que si insertáramos un gen Pax-6 de mosca de la fruta en una rana, obtendríamos
un ojo de rana.[2]
Paradójicamente, a pesar de contradecir las predicciones del modelo neodarwinista
(Mayr defendía que el ojo debe haber evolucionado al menos cuarenta veces
independientemente en el reino animal), la existencia de los mismos genes maestros
controlando el desarrollo de tipologías muy distintas del mismo órgano en un amplio rango
de especies apoya la hipótesis de que estos genes se conservan en la historia evolutiva y
proceden de un remoto antepasado común.
Cambios en especies
Selección artificial
Bacterias
El cambio biológico puede demostrarse en el transcurso de 24 horas con una
población de bacterias en el interior de una placa de Petri con un medio nutriente. Si se
incorpora un antibiótico letal se produce una muerte en masa. Sin embargo, una o más
variedades de las bacterias serán inmunes a ese antibiótico en particular y sobrevivirán.
Entonces, se replicarán rápidamente para sustituir a la población original. Si el resultado
constituye una nueva especie o una variedad de la especie original pasa a ser un tema
debatible. La definición ortodoxa actual no ayuda a solventarlo, puesto que lo hace
depender de la reproducción sexual y las bacterias suelen replicarse asexualmente mediante
fisión binaria y, por otro lado, los análisis genéticos de las bacterias están abiertos a
múltiples interpretaciones.
En 1988, Richard Lenski, que trabajaba por aquel entonces en la Universidad de
California, Irvine, inició un experimento con doce poblaciones de una cepa de Escherichia
coli derivada de una única bacteria. Siguió sus mutaciones genéticas y su adaptación
relativa —seleccionándolas por la velocidad con que crecían en el limitado azúcar
disponible en el medio nutriente— en el transcurso de 50.000 generaciones durante un
periodo de más de veinte años. La mayoría de las mutaciones no marcaron diferencia
alguna o fueron mortíferas, pero algunas se correlacionaron con un crecimiento ventajoso
de hasta un 10 por ciento por encima de sus predecesoras. En general, las mutaciones
aumentaron linealmente, mientras que la adaptación aumentó en saltos.
Cuando el experimento alcanzó la generación 33.127, los investigadores observaron
un gran incremento en la turbiedad de uno de los matraces. Las bacterias, a falta de azúcar,
habían empezado a recurrir al citrato, un amortiguador del ph presente en el medio
nutriente de todos los matraces, para metabolizar y el resultado había sido un enorme
incremento de la población. Es discutible si esta nueva cepa constituiría una nueva especie.
Pero lo que es evidente es que coexistió con una minoría que siguió utilizando el azúcar
para su metabolismo.[3]
Cambios reversibles
Según el biólogo evolucionista Francisco José Ayala, de la Universidad de
California, Irvine, la selección artificial suele producir variaciones de carácter reversible.
Los criadores eligen gallinas que producen huevos más grandes, vacas que dan más
leche y maíz con un contenido en proteínas más elevado. Pero la selección debe ser
continuada o restablecerse de vez en cuando, incluso después de haber alcanzado los
objetivos deseados. Si se detiene por completo, la selección natural vuelve a surtir efecto y
los caracteres regresan a su valor intermedio original.[4]
Hibridación
Los horticultores llevan tiempo utilizando la hibridación para producir nuevas
especies de plantas con caracteres específicos. Los híbridos producidos mediante el cruce
entre dos especies distintas reciben el nombre de híbridos F1; los híbridos producidos por el
cruce entre híbridos F1 reciben el nombre de híbridos F2, y así sucesivamente; los híbridos
retrocruzados se producen cuando un descendiente híbrido se cruza con un miembro de
cualquiera de su especies progenitoras; los híbridos retrocruzados que vuelven a cruzarse de
nuevo con miembros de la misma especie progenitora reciben el nombre de segunda
generación retrocruzada.
En promedio, los mamíferos híbridos son menos capaces de sobrevivir y
reproducirse. Muchos híbridos seleccionados artificialmente, como un asno macho con una
yegua para producir una mula que suele ser más fuerte que sus padres, son estériles. Pero,
contrariamente al supuesto generalizado, esto no es ni mucho menos una norma general; la
fertilidad suele ser distinta entre sexos. Por ejemplo, el cruce de una vaca doméstica con un
bisonte para incrementar la producción de carne produce lo que se conoce como un
«beefalo». El beefalo macho resultante del primer cruce suele ser esteril, pero cuando las
hembras parcialmente fértiles resultado de un retrocruce se retrocruzan de nuevo, los
machos resultantes suelen ser fértiles. El cruce de un perro con un chacal para crear un
híbrido con un olfato más sensible produce descendencia que aparentemente es tan fértil y
estable como la amplia variedad de perros domésticos producidos por criadores. Estos
híbridos muestran caracteres que caen fuera del rango de la variación parental, lo que se
conoce como heterosis, a pesar de que la mayoría de híbridos no es heterótica.
En zoológicos abiertos, se conocen híbridos entre distintas especies. Un ligre, el
producto del cruce de un león y una tigresa, suele ser más grande y más fuerte que sus
padres (heterosis positiva), mientras que un tigón, el producto del cruce de un tigre con una
leona, suele ser más pequeño que sus padres (heterosis negativa). No se han realizado
estudios sobre la fertilidad y la estabilidad de estos híbridos en el transcurso de
generaciones. Sin embargo, la descendencia del cruce entre osos polares y osos pardos
criados en cautividad es fértil.
Poliploidía
En 1912, los botánicos de los Kew Gardens demostraron el fenómeno de una
descendencia que poseía más de dos juegos de cromosomas en una misma célula después
de cruzar una especie de primavera, la Primula floribunda, con otra especie, la Primula
verticillata. El híbrido resultante era estéril, pero se propagaba mediante esquejes.
Posteriormente, en tres años distintos, este clon estéril produjo brotes que dieron lugar a
una planta fértil a la que pusieron por nombre Primula kewensis, que no podía cruzarse con
éxito con miembros de sus especies progenitoras. La razón era que sus células habían
doblado el número de cromosomas. Esta mutación cromosómica (a diferencia de la
genética) puede inducirse en plantas a través de un mutágeno como la colchicina.
El incremento del número de cromosomas en relacion con el de los progenitores de
una misma especie se conoce como autopoliploidía, mientras que el incremento de
cromosomas que resulta de la hibridación entre miembros de dos especies distintas se
conoce como alopoliploidía.
Especies en estado salvaje
Bacterias
En los capítulos anteriores se explicó que la bacteria más antigua claramente
reconocible data de hace aproximadamente 3,5 miles de millones de años. A pesar de todas
las mutaciones genéticas durante todo este tiempo, las bacterias actuales siguen siendo
unicelulares y morfológicamente idénticas a los antiguos fósiles.
Un cuerpo de investigación cada vez mayor ha dado la vuelta a la idea tradicional
de que las procariotas —bacterias y arqueas— y las eucariotas unicelulares —como la
ameba— han llevado vidas relativamente independientes y han evolucionado de manera
gradual mediante la selección natural neodarwinista, que ha actuado sobre las mutaciones
genéticas aleatorias que se han transmitido a lo largo de generaciones por replicación.
Muchas especies procariotas pueden incorporar, o perder, ADN, mientras que las
eucariotas unicelulares pueden incorporar ADN procariota mediante transferencia genética
horizontal por tres vías distintas:
1. Transformation natural
Absorción directa del ADN liberado en el entorno por células en descomposición,
células alteradas o partículas virales, o por excreción de las células vivas.
2. Transducción
Transferencia de ADN de una bacteria a otra a través de un agente, como podría ser
un virus.
3. Conjugación
Transferencia de elementos genéticos móviles, como los plásmidos, por contacto
directo a través de los pili.[5]
Estas transferencias entre la misma generación pueden tener lugar entre especies
muy distintas, como la Escherichia coli, una bacteria que normalmente habita en el
intestino de los animales, y la Synechocystis sp. PCC6803, una cianobacteria del agua. Las
transferencias pueden ser dañinas, neutrales o favorables para la supervivencia y la
replicación. Cuando son favorables, pueden generar nuevas capacidades o funciones en el
receptor, como la inmunidad a una toxina. Un análisis llevado a cabo en 2008 de 181
genomas procariotas secuenciados estimó que las transferencias genéticas horizontales eran
las responsables de 81 +/- 15 por ciento de los genes, lo que destaca la importancia de este
mecanismo en la evolución de las bacterias, las arqueas y las eucariotas unicelulares.[6]
Hibridación
En la actualidad se reconoce que la hibridación no solo juega un papel importante
en la especiación natural de las plantas, sino que se produce además entre peces, aves y
mamíferos.[7] En los últimos años, el cárabo norteamericano del medio oeste de los
Estados Unidos se ha desplazado hacia la costa Pacífica, donde se ha instalado en el hábitat
boscoso del búho manchado, con el cual se ha cruzado y ha producido descendencia fértil.
El oso pardo y el oso polar no solo se han cruzado con éxito en cautividad, sino también en
estado salvaje. En los últimos años, el oso pardo, que normalmente abunda en el noroeste
de los Estados Unidos, de Canadá y en Alaska, se ha desplazado hacia el norte,
probablemente como consecuencia del calentamiento global, adentrándose en el hábitat del
oso polar. En 2006, un cazador disparó contra lo que creía que era un oso polar, pero el
animal, a pesar de tener un grueso pelaje blanco, su lomo protuberante, su cara plana y unas
manchas marrones, junto con las pruebas genéticas que le fueron posteriormente realizadas,
demostraron que era un híbrido de un padre pardo y una madre polar.
Poliploidía
La cría con poliploidía ha producido nuevas especies fértiles, sobre todo entre las
plantas, pero este medio de especiación es seguramente más común en estado salvaje de lo
que se suponía. En 2005, en un estudio llevado a cabo sobre la literatura existente, Pamela
Soltis, especializada en taxonomía molecular, llegó a la conclusión de que todas las plantas
con flor son probablemente poliploides o descendientes de poliploides naturales,7 mientras
que en otro estudio de 2005, los genetistas evolutivos T. Ryan Gregory y Barbara Mable
destacan que:
La poliploidía no es tan común entre los animales como entre las plantas, pero
tampoco es tan excepcional como suele suponerse. En parte, el porcentaje relativamente
bajo de descubrimiento de poliploidía entre animales es un reflejo del escaso nivel de
esfuerzo dedicado a averiguarlo […]. Uno a uno, los supuestos sobre la poliploidía animal
han ido tambaleándose ante la aparición de nuevas evidencias.[8]
Entre estas evidencias destacan la poliploidía en peces, anfibios, reptiles y
mamíferos. Milton Gallardo y sus colegas de la Universidad Austral de Chile descubrieron
en 1999 que la rata vizcacha roja, Tympanoctomys barrerae, es tetraploide (posee cuatro
juegos de cromosomas en el núcleo de la célula), una evidencia que sugiere con fuerza que
es resultado de una hibridación poliploidal ancestral entre dos especies distintas.
Informaron posteriormente de que la rata vizcacha dorada, Pipanacoctomys aureus,
también es tetraploide y resultado de una poliploidía ancestral.[9]
La polilla del abedul
Muchos maestros y libros de texto presentan la polilla del abedul, o polilla moteada,
como el principal ejemplo de la evolución biológica en estado salvaje en tiempos del
hombre.
Antes de mediados del siglo xix, todos los ejemplares de Biston betularia de
Inglaterra eran polillas blancas con manchitas negras, una forma denominada typica. En
1848, se registró en Manchester, el corazón de la revolución industrial británica, una
variedad negra, la carbonaria. En 1895, el 98 por ciento de la Biston betularia de la zona
eran ejemplares negros. La carbonaria apareció también en muchas zonas más de Gran
Bretaña, alcanzando su mayor frecuencia en los centros industriales. En 1896, el
especialista en lepidópteros, J. W. Tutt, lanzó la hipótesis de que el incremento de
carbonaria era el resultado de una diferenciación de aves predatorias en las regiones
contaminadas.
Nadie, sin embargo, verificó nunca esta hipótesis, de modo que Bernard Kettlewell,
un médico que había obtenido una beca de investigación en el departamento de Genética de
la Universidad de Oxford, inició en 1952 una serie de estudios en busca de evidencias.
Según Kettlewell, este cambio de color estaba provocado por las aves que comían las
polillas que más destacaban en el lugar donde solían posarse, el tronco de los árboles. La
industrialización del norte de Inglaterra había generado hollín y lluvia ácida que habían
oscurecido los árboles, acabando en primer lugar con los líquenes que los adornaban y
ennegreciendo después los troncos desnudos. La typica, que quedaba antiguamente
camuflada por los líquenes, se volvió llamativa y se convirtió en presa fácil para las aves,
mientras que las mutantes negras quedaban ahora camufladas; con el transcurso de las
generaciones, las negras sobrevivieron más tiempo y se reprodujeron más, sustituyendo al
final a las typica. El fenómeno recibió el nombre de melanismo (oscurecimiento) industrial.
Después de la aprobación, en la década de 1950, de las leyes de calidad del aire, los árboles
recuperaron su aspecto anterior y la typica su predominio en el norte de Inglaterra.
Kettlewell apoyó sus conclusiones con estudios que demostraban la correlación
entre niveles de contaminación y frecuencias de la variedad negra. Y lo más sorprendente es
que sus experimentos demostraron que, después de liberar ejemplares de typica y
carbonaria en bosques tanto contaminados como no contaminados, se recapturaron muchos
más ejemplares de la variedad críptica, o camuflada, que de la variedad llamativa; esta
depredación diferencial quedó sustentada por la observación directa de las aves comiendo
las polillas de los árboles. Finalmente, Kettlewell demostró en el laboratorio que cada
forma tenía sus preferencias de conducta para instalarse sobre fondos similares a su color.
De este modo quedó demostrada la hipótesis que había lanzado Tutt en 1896, quedó
validado el modelo neodarwinista y los libros de texto reprodujeron las fotografías de
Kettlewell en las que se veían polillas posadas en los troncos de distintos árboles.
El genetista de la Universidad de Cambridge, Michael Majerus, que había trabajado
con mariquitas y polillas, recibió un encargo por parte de Oxford University Press para
escribir un libro, Melanism: Evolution in Action [Melanismo: Evolución en acción] que se
publicaría veinticinco años después de The Evolution of Melanism [La evolución del
melanismo], de Kettlewell. Mientras trabajaba en la crítica del libro para Nature,[10] Jerry
Coyne descubrió graves fallos en la obra de Kettlewell. Entre ellos el detalle de que «es
probable que la B. betularia no se pose en el tronco de los árboles; de hecho en más de
cuarenta años de investigación intensiva solo se han encontrado dos polillas en esa posición
[…]. Esto, por sí solo, invalida los experimentos de liberación y recaptura de Kettlewell,
puesto que, al ser liberadas, las polillas fueron colocadas directamente sobre troncos de
árboles donde son perfectamente visibles para las aves predadoras». Las fotografías eran de
polillas muertas, pegadas y clavadas a los troncos y utilizadas para ilustrar el camuflaje y la
vistosidad. Además, Kettlewell liberó las polillas durante el día, mientras que normalmente
buscan su lugar de descanso durante la noche; la resurgencia de la typica se produjo mucho
antes de que los líquenes recolonizaran los árboles contaminados; en paralelo, en áreas
industriales de los Estados Unidos donde no se había observado alteración en la abundancia
de líquenes, se produjo también tanto un incremento como una disminución de la forma
melánica; y los resultados de los experimentos de conducta de Kettlewell no se replicaron
en estudios posteriores: las polillas no presentan tendencia a elegir un fondo similar a su
aspecto.
Coyne refiere muchos fallos más en el trabajo descubiertos por Majerus más
problemas adicionales que él mismo encontró al leer por primera vez los documentos de
Kettlewell. «Mi reacción me recuerda la desilusión que sentí, con seis años de edad, cuando
descubrí que era mi padre, y no Santa Claus, quien me traía los regalos por Navidad».
Concluye diciendo que «por el momento, debemos descartar la Bisto como ejemplo
bien comprendido de selección natural en acción». Comenta además que «merece también
la pena reflexionar sobre por qué se ha producido una aceptación tan generalizada e
incontestable del trabajo de Kettlewell. Tal vez sea porque historias tan potentes como esta
desaniman el escrutinio detallado».
Majerus no coincidía con las conclusiones de Coyne y defendió su punto de vista
sobre el melanismo industrial haciendo referencia a otros estudios y añadiendo:
Dicho esto, mi convicción de que la depredación por parte de las aves es la gran
responsable del caso no se basa pura y simplemente en datos empíricos de publicados en la
literatura. Sino que «sé» que la hipótesis de la depredación diferencial de Tutt es correcta
porque «conozco» la polilla moteada. Sin embargo […], para los científicos, formados en el
rigor y en los controles estrictos y experimentales, esta afirmación, por diferentes motivos,
parece resultarles insuficiente e incluso herética. Yo, sin embargo, me aferro a ella.[11]
Poca distinción hay entre este «saber» y el «saber» de los creacionistas, que
defienden que Dios creó todas las especies. Tal vez sea una respuesta a la aceptación sin
críticas de Coyne del trabajo Kettlewell, pero es la antítesis de la ciencia.
El mismo año de la publicación del libro de Majerus, Theodore Sargent, biólogo
evolutivo de la Universidad de Massachusetts y sus colegas, publicaron una crítica de la
explicación clásica del melanismo industrial y llegaron a la conclusión de que «hay escasas
evidencias convincentes, en forma de observaciones y experimentos rigurosos y replicados,
que sustenten esta explicación [que la depredación por parte de las aves provoca una
mutación genética que acaba siendo dominante entre la población con el paso de las
generaciones] en estos momentos».[12] Sargent sugirió otras causas, como que algún tipo
de inducción desencadenada por un cambio medioambiental podría haber producido el
fenómeno del melanismo industrial en una población entera y que esto explicaría mejor la
velocidad con que la variedad melánica sustituyó la forma típica en diversos estudios.
Algunos creacionistas aprovecharon las revelaciones sobre el trabajo de Kettlewell
para acusar a los biólogos evolucionistas de complicidad para ofrecer pruebas fraudulentas
del darwinismo. Pero las revelaciones no refutan el fenómeno de la evolución biológica. Lo
que hacen es poner al descubierto un diseño experimental con fallos que, según la ley de la
interpretación de datos, intentar demostrar una hipótesis en la que el experimentador cree
en vez de someter dicha hipótesis a test. Los datos verificables suscitan preguntas, que
Sargent intentó plantear, sobre la causa y el mecanismo del melanismo industrial. Sargent,
sin embargo, no hizo más progresos porque los biólogos evolutivos cerraron filas alrededor
del modelo vigente como defensa contra los creacionistas.
La controversia oscureció un aspecto importante del fenómeno del melanismo
industrial: se produjo cuando el entorno cambió y se invirtió cuando el entorno volvió a
cambiar. Por lo tanto, el cambio fenotípico era reversible, y los cambios reversibles no
forman parte de la evolución de las especies. Lo que sucedió en el transcurso de 150 años
—un instante desde el punto de vista geológico— fue una oscilación en el color, que es
menos importante que las oscilaciones en torno a una morfología básica que Eldredge
describe como estasis evolutivo en el registro fósil.
Ecotipos
Ecotipo es el término que se aplica a la variedad de una especie que se adapta a
condiciones locales y exhibe un cambio morfológico o fisiológico como consecuencia de
ello y que, a pesar de ese cambio, puede reproducirse con éxito con otras variedades. Un
ejemplo es el pino escocés, cuyos veinte ecotipos se extienden desde Escocia hasta Siberia
y son capaces de cruzarse entre sí.
La categoría taxonómica de los delfines tucuxi (género Sotalia) ha sido cuestión de
controversia durante más de un siglo. El género comprendía en su día cinco especies, pero
en el siglo xx se agruparon en dos, Sotalia fluviatilis, que vivía en ríos, y Sotalia
guianensis, que vivía en mar abierto. Estudios posteriores concluyeron con que sus
diferencias eran solo de tamaño, y a principios de los 90, la mayoría de investigadores lo
clasificaron todo como una única especie, S. fluviatilis, con ecotipo marino y fluvial. Al
estar geográficamente separados, no puede decirse que los dos ecotipos puedan
reproducirse en estado salvaje. Pero ahora, recurriendo a la definición de especies
filogenética en vez de a la definición de especies biológica actualizada, los
conservacionistas defienden que se trata de especies distintas; citan los análisis moleculares
que muestran, por ejemplo, que su gen citocromo b difiere en 28 de 1.140 nucleotidos.[13]
Si una diferencia del 2,5 por ciento en los nucleótidos de este gen es suficiente para definir
una especie es debatible, por supuesto, y consideraré con mayor detalle los problemas que
presentan estos análisis moleculares en un capítulo posterior. Estos ecotipos podrían
hallarse en el proceso de constituir una nueva especie, pero este proceso podría ser
reversible, como en el caso de la polilla moteada.
«Los pinzones de Darwin»
Como hemos visto en el capítulo 16, Darwin nunca utilizó los pinzones de las islas
Galápagos como ejemplo de la evolución biológica,[14] pero el equipo formado por la
pareja Peter y Rosemary Grant, biólogos evolutivos de la Universidad de Harvard, dedicó
más de veinticinco veranos a estudiar estas aves, principalmente en la isla Daphne Mayor.
En su libro ganador del Premio Pulitzer de 1994, The Beak of the Finch: A Story of
Evolution in Our Time [El pico del pinzón: una historia de la evolución en nuestra época],
el escritor especializado en temas científicos, Jonathan Weiner, repite el desacreditado mito
de los pinzones de Darwin y describe la obra de los Grant como «la mejor y más detallada
demostración hasta la fecha del poder del proceso de Darwin». Sin embargo, Darwin
«desconocía la fuerza de su teoría. Infravaloró tremendamente el poder de la selección
natural. Su acción ni es lenta ni es una excepción. Sino que conduce hacia la evolución a
cada día y a cada hora que pasa»[15] en vez de hacerlo gradualmente, a lo largo de los
prolongados periodos de tiempo vaticinados por Darwin y el modelo neodarwinista.
De hecho, las meticulosas mediciones que realizaron los Grant de los picos de
pinzones muestran que las cantidades de pinzones con pico grande y con pico pequeño
oscilaron a lo largo de veinticinco años según si la sequía dejaba solo semillas grandes y
duras o las fuertes lluvias de otros años daban como resultado semillas más pequeñas y
blandas.
Esto no es evolución biológica. A lo largo de los veinticinco años no se produce un
cambio significativo. Los Grant, simplemente, descubrieron redistribuciones periódicas de
frecuencias de genes —variaciones genéticas ya presentes en el acervo genético— como
respuesta a condiciones medioambientales cambiantes. Se trata de un ejemplo más de
cambio adaptativo reversible dentro de la población de una especie.
Los miembros de las seis especies de pinzones de la isla Daphne Mayor y la isla
Genovesa no se emparejaban con miembros de especies que no fueran la suya debido a una
de las barreras pre-copulatorias de los neodarwinistas, la conductual (en este caso, el canto
de las aves). Pero cuando lo hacían, su descendencia era tan fértil como sus progenitores,
igual que las dos primeras generaciones descendientes de esos híbridos. Otros estudios de
campo realizados en Norteamérica han demostrado que la hibridación de especies de aves
que comparten territorio es posible y que los híbridos sobreviven y son fértiles en la
mayoría de los casos. Lo cual suscita la siguiente pregunta: ¿son estos pinzones,
clasificados básicamente por el tamaño y la forma del pico, especies distintas o variedades
de la misma especie? La pregunta resulta especialmente pertinente porque la investigación
de los Grant ha demostrado que los cambios en el tamaño y la forma del pico son
reversibles bajo distintas condiciones medioambientales.
Los Grant apuntan que el concepto de especie biológica que defiende la ortodoxia
actual deriva de los estudios de la Drosophila, la mosca de la fruta. Y que mientras que
según esta definición existen casi 10.000 especies distintas de aves,
Las interpretaciones de la especiación se han aplicado aproximadamente a 500 de
ellas. Pero la base genética de la variación en aquellos caracteres que producen el
aislamiento precopulatorio y que están implicadas en la especiación se conoce (y de forma
incompleta) en menos de 100 especies, mientras que la base genética del aislamiento
postcopulatorio se desconoce prácticamente para todas ellas. La base de conocimientos a
partir de la cual generalizamos sobre la genética de la especiación de las aves es
precariamente escasa.[16]
Definición de especie
Cualquier discusión sobre la evolución biológica se ve empañada por las distintas
definiciones del término «especie» que utilizan no solo los bacteriólogos, botánicos y
zoólogos, sino también los especialistas dentro de cada una de estas ramas de la biología,
definiciones que, además, están muy diferenciadas debido a los diferentes puntos de vista
sobre cuáles son los caracteres que definen una especie. Si la especie, y no la variedad
subespecie o el género subespecie, la clase o el orden, tiene que ser el elemento taxonómico
básico que marque una fase claramente definida de la evolución biológica que pueda
utilizarse para describir una población y su relación con otras poblaciones, me parece que el
principal caracter debería ser la irreversibilidad: nadie discutiría que el hombre moderno
pudiera evolucionar de nuevo hacia el Australopithecus afarensis (o cualquiera que fuera el
antepasado común de los humanos), un individuo con un tercio de nuestra actual capacidad
craneal.
En consecuencia, sugiero las siguientes definiciones genéticas para reducir la
confusión:
Subespecie, variedad o raza: población de organismos cuyos caracteres
hereditarios definitorios adultos han experimentado un cambio reversible con relación a los
de su población o poblaciones ancestrales.
Especie: población de organismos cuyos caracteres hereditarios definitorios adultos
han experimentado un cambio irreversible con relación a los de la población o poblaciones
a partir de las cuales ha evolucionado.
Especiación: proceso por el cual una población de organismos cambia de manera
irreversible sus cuyos caracteres hereditarios definitorios adultos con relación a los de la
población o poblaciones a partir de las cuales ha evolucionado.
La palabra «proceso» que aparece en la definición de la especiación reconoce las
fases intermedias durante las cuales puede producirse con éxito la reproducción entre
subespecies que pueden estar o no en camino de convertirse en una nueva especie.
Estas definiciones genéricas dejan en manos de los especialistas elaborar la lista de
los caracteres hereditarios definitorios adultos que definen una especie en particular; y
podría haber buenas razones para aplicar criterios distintos a distintos tipos de especies.
Estas definiciones no especifican si la causa de la transformación irreversible es la
selección artificial, las mutaciones genéticas generadas al azar y seleccionadas
naturalmente, la deriva genética, la poliploidía, la hibridación o cualquier otra causa posible
de las que examinaré en el siguiente capítulo. Confío, de todos modos, en que alcancen el
objetivo de ser lo bastante amplias como para abarcar todo tipo de organismos, incluyendo
bacterias y plantas, y poder distinguir entre especies y variaciones dentro de una especie.
Bioquímica
Todas las bacterias, plantas y animales están constituidos por elementos químicos
iguales o similares, estructurados de forma igual o similar y que experimentan reacciones
iguales o similares.
Las células de prácticamente todas las formas de vida conocidas (la excepción
serían las moléculas de ARN) utilizan moléculas de ADN estructuradas como una doble
hélice para su mantenimiento y reproducción. Comprenden una secuencia distinta de cuatro
nucleótidos iguales aun siendo químicamente posibles muchos más nucleótidos y
estructuras.
Los mismos tripletes de estos nucleótidos actúan a modo de patrón para la
producción de los mismos aminoácidos en todos los organismos. Las diversas proteínas
utilizadas para construir y mantener todos los organismos se sintetizan a partir de
combinaciones y secuencias distintas de esos veinte aminoácidos, prácticamente siempre
como isómeros-L,[17] a pesar de que existen varios centenares más de aminoácidos.
La serie de reacciones químicas, conocidas como vías metabólicas, por las cuales se
sostienen formas de vida muy diversas, son también muy similares.[18]
La explicación más razonable para que una bioquímica igual opere en todas las
formas de vida es que deriva de la primera forma de vida que hubo en la Tierra, a partir de
la cual evolucionaron todas las formas de vida existentes.
Genética
Estos estudios que cuestionan los paradigmas son posibles gracias a los avances
tecnológicos del siglo xxi, que han permitido secuenciar no solo genes a nivel individual
sino también el genoma completo de un organismo,[22] la totalidad de su contenido
genético.
En 2009 se habían secuenciado ya los genomas de unos 2.000 organismos y muchos
más virus, lo que permite análisis y comparaciones entre distintas especies mucho más
precisos que los que ofrecen los genes a nivel individual. Gracias a ellos sabemos, por
ejemplo, que mientras que el 98 por ciento del código genoma de una procariota codifica
para proteínas estructurales, en eucariotas es solo un 2 por ciento.
En 2003 se secuenció el genoma humano y reveló, entre muchas otras cosas, que no
poseemos 100.000 genes, como se estimaba hasta entonces, sino probablemente solo
30.000, una cifra que desde esa fecha se ha revisado a la baja hasta dejarla en
aproximadamente 25.000, con múltiples copias de algunos genes. El Proyecto del Genoma
Humano explicó:
«A pesar de que el proyecto se ha completado, seguimos teniendo muchas preguntas
sin respuesta, incluyendo la de cuál es la función de los 30.000 genes humanos estimados.
Por otro lado, los investigadores siguen sin conocer el rol de los Polimorfismos de
Nucleótido Único, o SNP [del inglés Single Nucleotide Polymorphism] [polimorfismos que
producen una variación en un solo par de bases dentro del genoma] ni el papel de las
regiones no codificadoras y de las repeticiones en el genoma».[23]
El hombre no solo tiene aproximadamente el mismo número de genes que una rata,
sino que además, otros datos demuestran que cuenta con menos de la mitad de genes que
las cepas de arroz japónica e indica. Estos descubrimientos provocaron una respuesta
general tipificada por las palabras del escritor especializado en temas científicos, Matt
Ridley: «Un destronamiento a tan gran escala no se había vivido desde que Copérnico nos
quitó del centro del sistema solar».[24]
Esta respuesta se vio reforzada por conocidas estadísticas que indican que los
humanos compartimos el 98,5 por ciento de nuestros genes con el chimpancé, el 90 por
ciento con la ata, el 85 por ciento con el pez cebra Danio rerio, de entre 4 y 6 centímetros
de longitud, el 36 por ciento con la mosca de la fruta, Drosophila melanogaster, y en torno
al 21 por ciento con la lombriz de 1 milímetro de longitud, Caenorhabditis elegans.
Esta respuesta, sin embargo, está basada en tres falacias. En primer lugar, la cifra de
que loso humanos compartimos el 98,5 de nuestros genes con los chimpancés está sacada
de una diferencia estimada del 1,5 por ciento entre secuencias nucleotídicas de genes que se
considera que tienen una función similar. Pero los estudios que tienen en cuenta las
pérdidas de genes, las inserciones de genes y las duplicaciones dan a entender que, en sus
genes complementarios, humanos y chimpancés se diferencian en al menos el 6 por ciento.
[25]
En segundo lugar, no compara peras con peras ni manzanas con manzanas. Por
ejemplo, las plantas confían en la duplicación de genes para su diversidad proteica,
mientras que los humanos consiguen la diversidad proteica a través de un proceso de
empalme alternativo: un único gen realiza varias funciones y los genes se dividen y
empalman constantemente con una secuencia y una función distintas. En consecuencia, el
funcionamiento de los genes humanos produce un organismo mucho más complejo que el
de una planta de arroz.
En tercer lugar, asume que el grado de parentesco de las especies se calcula mejor a
partir del número de genes que tienen en común e ignora aproximadamente el 98 por ciento
del ADN de los cromosomas eucariotas, en particular, las secuencias reguladoras que
determinan cuándo, hasta qué punto y durante cuánto tiempo se mantienen los genes
conectados y, en consecuencia, los caracteres observables del organismo.
La secuenciación del genoma nos ofrece evidencias de que la duplicación de genes
a gran escala, e incluso la duplicación completa del genoma, contribuyeron de manera
significativa tanto a la expansión de la familia de genes como a la evolución del genoma.
[26]
Fue la genómica la que reveló una inconsistencia más con la biología ortodoxa que
ya se ha mencionado: entre procariotas, e incluso entre especies que no están estrechamente
relacionadas, se producen transferencias genéticas horizontales.[27] Según Ford Doolittle,
bioquímico de la Dalhousie University, los análisis genómicos muestran que, al menos para
las procariotas, la transferencia genética horizontal juega un papel más importante en el
desarrollo evolutivo que la transferencia genética vertical de una célula madre a una célula
hija.[28]
En las eucariotas encontramos también transferencia genética horizontal, aunque no
está tan extendida como en las procariotas. De todos modos, contribuyó de forma
significativa a la emergencia de las eucariotas. Hay que tener en cuenta además, que las
hibridaciones de animales y plantas son, de hecho, transferencias horizontales de genes de
carácter masivo.
Los recientes descubrimientos en el campo de la genética y la genómica no
invalidan el fenómeno de la evolución biológica; más bien al contrario, refuerzan las
evidencias. Aunque, por otro lado, cuestionan también la idoneidad del modelo
neodarwinista para explicarla.
Conclusiones
Ciertamente se ha dicho que todo en la naturaleza está en guerra; al final, los más
fuertes prevalecerán, los más débiles caerán […]. La dura y a menudo recurrente lucha
por la existencia determinará que aquellas variaciones favorables, por sutiles que sean,
sean conservadas o seleccionadas, y las desfavorables sean eliminadas.
Un organismo pluricelular está compuesto por células eucariotas. Cada una de estas
células está compuesta a su vez por varias partes unidas mediante una membrana que
realizan funciones concretas, como el núcleo que controla y coordina las demás partes, o
los orgánulos, como la mitocondria, donde se genera la energía (véase figura 19.1). Una
célula eucariota es, esencialmente, una colección de orgánulos de diferentes procariotas que
colaboran para mantener y reproducir la célula.
Un grupo de estas células, lo que llamaremos un tejido, colabora para realizar una
función específica, como por ejemplo tejido muscular que se contrae y se expande. De un
modo similar, diversos tipos de tejido colaboran para formar un órgano que tiene un
objetivo concreto, como un corazón que bombea sangre u otras colaboraciones de nivel
incluso más elevado que este. De hecho, un organismo consiste, a muchos niveles, en partes
que colaboran para mantener el todo vivo y reproduciéndose.
Los biólogos evolutivos David Queller y Joan Strassmann sugieren que «la esencia
del carácter de organismo está en este objetivo compartido; las partes trabajan juntas para el
todo integrado, con mucha colaboración y muy poco conflicto».[6] Esta actividad con un
propósito está muy relacionada con la definición de vida sugerida en la página 333.
Genes
Los insectos son probablemente los animales más estudiados. Una amplia mayoría
de hormigas, avispas y especies de abejas (orden Hymenoptera) y termitas (orden Isoptera,
a pesar de que algunos investigadores las clasifican ahora como un suborden de las
Dictyoptera, o cucharachas) colaboran de un modo tan coordinado que se les conoce como
«insectos sociales».
A pesar de que algunas especies de abejas son solitarias, los miembros de la
mayoría de sus especies viven en colonias que, en el caso de las abejas melíferas tropicales
sin aguijón, pueden llegar a alcanzar los 180.000 ejemplares. Una colonia de abejas trabaja
en colaboración para utilizar la cera que segregan y mezclarla con resina de plantas con el
fin de construir y mantener sofisticados panales compuestos por celdillas de forma
hexagonal y paredes finas, lo que se conoce como colmenas, con áreas diferenciadas para
criar las larvas y almacenar miel y polen, además de un espacio para reciclaje, todo ello
rodeado por sinuosos entramados.
Las hormigas cultivadoras de hongos de América Central excavan en el suelo nidos
que llegan a alcanzar varios centenares de metros de longitud y hasta seis metros de
profundidad, provistos con varios miles de entradas y alrededor de mil cámaras distintas.
Las termitas construyen montículos para protegerse con una sustancia parecida al
cemento fabricada por las termitas obreras con tierra y saliva. Las cámaras y los túneles se
enfrían mediante un sistema de aire acondicionado que lleva a las obreras a humedecer
constantemente las paredes con su saliva e incluye además cavidades que permiten que el
aire caliente se eleve y salga al exterior a través de minúsculos orificios realizados en la
superficie del montículo. En el centro de la construcción se encuentra la cámara real, en la
cual el rey –el único macho fértil de la colonia- y la reina viven y procrean. A su alrededor,
se disponen cámaras de incubación donde las termitas obreras transportan los huevos
después de ser puestos. Los túneles conducen a cámaras donde almacenan la comida y, por
encima de ellas, hay jardines de hongos, donde se cultiva el alimento.
A pesar de las diferencias particulares en la conducta las especies de los llamados
insectos sociales, se evidencia un patrón general.
a. Colonia jerárquica
Los insectos sociales viven juntos como una colonia jerárquica de miembros
interdependientes en un nido, colmena o montículo que ellos mismos se construyen.
b. Division del trabajo
La reproducción queda a cargo de solo una o más reinas (más un rey en el caso de
las termitas), mientras que las obreras suelen especializarse en tareas como la construcción
y mantenimiento del nido, la búsqueda de alimento, la alimentación de las crías y la
vigilancia y defensa de la colonia. Una colonia de abejas, por ejemplo, puede contener
50.000 hembras, todas las cuales han desarrollado ovarios y pueden poner huevos. Pero el
100 por ciento de las hembras y el 99,9 por ciento de los machos son hijos de una sola
hembra, la reina. Las demás hembras son las obreras, mientras que los machos, o zánganos,
carentes normalmente de aguijón, no producen miel, no trabajan y su única función es
aparearse con la reina en vuelo.
c. Diferenciación morfológica
En muchos casos, los miembros de la colonia desarrollan una morfología adecuada
para su papel, como es el caso de reinas grandes capaces de elevador niveles de
reproducción. En el orden Hymenoptera, por ejemplo, la reina necesita a menudo ser lo
bastante grande como para poder almacenar y mantener con vida millones de
espermatozoides recogidos en un único vuelo de apareamiento y luego ir racionando su
expulsión a lo largo de un periodo de veinte años para poder fertilizar los huevos que irá
poniendo.
d. Cambio en la capacidad reproductora
Mientras que las reinas desarrollan capacidades reproductivas mejoradas, las
obreras pierden su capacidad de apareamiento y solo ponen huevos machos haploides sin
fertilizar. En algunos géneros de hormigas y abejas sin aguijón, las obreras son totalmente
estériles.
e. Control y coordinación
La división del trabajo está coordinada y es obligada. Las abejas obreras construyen
una celdilla de mayor tamaño para criar a la reina, a la que alimentan con jalea real,
mientras que a las demás larvas no les proporcionan los nutrientes necesarios para poder
convertirse en reinas. En el caso de la abeja Melipona, las obreras encierran a todas las
larvas en celdas idénticas y con comida idéntica; luego, cuando las larvas salen de la celda
convertidas en adultas, las obreras matan a las reinas sobrantes. En muchas especies, los
huevos puestos por las obreras acaban devorados por otras obreras —el 98 por ciento en el
caso de las abejas— o por la reina. Las obreras que ponen huevos pueden, además, ser
víctimas de ataques.[11]
f. Altruismo
Algunos insectos exhiben una conducta aparentemente altruista. Una abeja obrera
utiliza su aguijón para defender a la colonia a pesar de que la utilización y la pérdida del
aguijón tienen como consecuencia la muerte. La mayoría de biólogos evolutivos y etólogos
describen como altruismo la reducción o pérdida de capacidad reproductiva de las obreras a
favor del incremento de la capacidad reproductora de la reina. Sin embargo, si esta
conducta es obligada, no se trata de altruismo, según el concepto generalmente entendido
del término.
Altruismo: conducta caracterizada por una preocupación desinteresada por el
bienestar de los demás; abnegación.
Trabajar en colaboración de forma voluntaria por el beneficio mutuo es tan distinto
a hacerlo de manera forzada, como las sociedades cooperativas voluntarias de campesinos
de Siberia que observó en su día Kropotkin lo son de las granjas colectivas que se
desarrollaron bajo el control central en época soviética. Considero útil distinguir entre los
dos casos y, de aquí en adelante, utilizaré los siguientes términos:
Cooperación: trabajar conjuntamente de manera voluntaria para alcanzar objetivos
acordados por todos o por el beneficio mutuo.
Colectivización: trabajar conjuntamente de manera involuntaria,
independientemente de que se haga por instinto, por aprendizaje aprendido o por coerción.
La conducta de los insectos sociales es instintiva y, por lo tanto, es muy probable
que sea heredada y seleccionada genéticamente, tal y como propusieron Lorenz y
Tinbergen. Sin embargo, a medida que las especies se vuelven más complejas, vemos la
aparición y el desarrollo de conductas aprendidas.
Peces
Los experimentos de laboratorio que se están llevando a cabo desde principios del
siglo xxi muestran que los peces introducidos en un banco nuevo imitan a su nuevo banco
en el seguimiento de las rutas, en la preferencia por un alimento en particular y en la
utilización de lugares determinados para alimentarse y reproducirse. Esta adopción de
patrones de conducta aprendida se produce demasiado rápidamente como para ser resultado
de la selección natural de conductas genéticamente determinadas adaptadas al entorno.[12]
Según el etólogo Kevin Laland, de la Universidad de St. Andrews, estas conductas
socialmente aprendidas violan uno de los supuestos fundamentales del neodarwinismo.
Además, «se mantienen como “tradiciones” durante múltiples generaciones».[13]
Suricatas
Las suricatas, unos pequeños mamíferos no primates que viven en regiones áridas
del sur de África, viven en colonias de entre dos y cuarenta individuos. Estas colonias están
integradas por un macho dominante y una hembra dominante, que son los padres de cerca
del 80 por ciento de las crías del grupo, y por una cantidad variable de machos y hembras
de unos tres meses de edad que colaboran en la labor de criar a los pequeños además de
realizar otras funciones sociales, como montar guardia para avisar de la presencia de
predadores mientras los demás estan acicalándose, jugando o buscando comida.
La adquisición de comida en ese entorno requiere grandes habilidades, y tanto las
observaciones como los experimentos con suricatas en libertad muestran no solo
aprendizaje individual a través del método de prueba y error y la conducta socialmente
aprendida de la imitación,[14] sino también adultos que enseñan a los cachorros a cazar sin
riesgo dándoles escorpiones con los que practicar.[15]
Primates
Igual que las especies menos complejas, algunos primates matan a miembros de
otras especies para comer, pero en general su dieta está integrada por fruta y vegetales.
Dentro de su especie, los primates muestras conductas competitivas y agresivas que
pueden dar como resultado la muerte, sobre todo cuando los machos compiten por hembras
con las que copular o por el territorio y los recursos. En el caso de los gorilas y los
chimpancés, los primates más estudiados, esta conducta puede llegar al infanticidio cuando
el macho que se hace con el dominio de un grupo mata a la descendencia engendrada por
otro macho. Pero los primates también son animales sociales que viven en grupo, y dentro
del grupo la agresión suele tener más un carácter de exhibición que un deseo de hacer daño.
La colaboración es como mínimo tan importante como la competencia tanto para la
supervivencia como para la reproducción, y se muestra en conductas como la protección de
los depredadores, la caza, la crianza de los pequeños y la migración. El acicalamiento
mutuo y el juego sirven para reforzarla.
Los estudios del primatólogo Carel van Schaik sobre la conducta del orangután
llegan a la conclusión de que la inteligencia depende más de las oportunidades para la
transmisión social que del entorno o los genes, y que las especies con más oportunidades
para el aprendizaje social son más inteligentes.[16] Para Laland, el aprendizaje social y la
inteligencia de los primates no humanos, medido por la invención de las soluciones más
novedosas a los problemas a los que se enfrentan, aumenta con el tamaño del cerebro.[17]
La comparación que realizó el etólogo cognitivo, Simon Reader, de 62 especies de primates
concluyó de un modo similar que el aprendizaje social evoluciona conjuntamente con el
aumento de tamaño del cerebro del primate y la inteligencia.[18]
Estos y muchos más estudios realizados desde mediados de la primera década del
siglo xxi en adelante, extienden y refuerzan los descubrimientos que realizó Kropotkin hace
más de cien años:
El apoyo mutuo es tanto una ley de la vida animal como lo puede ser la lucha
mutua, pero aquel, como factor de evolución, es probablemente de mucha mayor
importancia, en tanto que favorece el desarrollo de hábitos y caracteres que garantizan el
mantenimiento y el desarrollo de la especie, junto con una cantidad superior de bienestar y
de disfrute de la vida para el individuo, junto con la disminución del gasto inútil energía.
[19]
Y:
Por lo tanto encontramos, en lo más alto de cada clase de animales, las hormigas,
los loros y los monos, que todos combinan la mayor sociabilidad con el desarrollo más
elevado de la inteligencia. Los más adaptados son, por lo tanto, los animales más sociables,
y la sociabilidad es el principal factor de la evolución.[20]
Estas conductas no encajan con el modelo neodarwinista, que está enraizado en la
competencia. En un capítulo posterior examinaré diversas hipótesis para explicar la
conducta cooperativa extendiendo ese modelo.
Asociación entre especies
Árboles filogenéticos
Las evidencias revisadas en los cuatro capítulos anteriores muestran varios patrones
que el neodarwinismo no explica y muchos que lo refutan.
Estasis y especiación rápida
El modelo neodarwinista define una especie como una rama del árbol evolutivo que
se separa de otra rama y cuyos miembros son incapaces de reproducirse con éxito con
miembros de esa otra rama. El único ejemplo inequívoco de este tipo de especiación,
independientemente de si se consigue mediante selección artificial o de si se observa en la
naturaleza, es la poliploidización en plantas y en algunos peces, anfibios, reptiles e incluso,
mamíferos. Este incremento en el número normal de cromosomas por célula produce una
nueva especie inmediatamente, no gradualmente a lo largo de miles de generaciones, lo que
contradice el mecanismo neodarwinista. El fenómeno está seguramente más extendido de lo
que en general se supone.[12]
Reproducción asexual
El modelo ortodoxo no explica qué es lo que causa que una única célula formada
por la fusión de un espermatozoide y un óvulo se replique en un cúmulo de células con
genoma idéntico, que se diferencian después en células con funciones específicas que
forman un embrión, que a continuación se desarrolla, en el caso de los humanos, en un
cuerpo independiente que puede ser macho o hembra y que pesa como media entre 75 y 85
kilos, en el caso del adulto macho, y entre 55 y 65 kilos, en el caso del adulto hembra,
posee dos piernas para caminar erecto, dos brazos y una cabeza que contiene el objeto más
complejo del universo conocido, un cerebro humano.
El descubrimiento de genes reguladores del desarrollo, como la familia Hox, que
determinan el desarrollo de las distintas partes del cuerpo en prácticamente todos los
animales bilaterales estudiados hasta el momento, no explica este fenómeno. Estos genes,
que organizan una cascada de sucesos de expresión genética, son muy similares en la mosca
de la fruta, los gusanos, los peces, las ranas y los mamíferos. El modelo ortodoxo no
explica qué es lo que provoca que estos genes se pongan en funcionamiento o por qué
activan cascadas de sucesos distintas para producir los planes orgánicos tan distintos que
producen moscas de la fruta, gusanos, peces, ranas y mamíferos.
Genotipos y fenotipos
Como se apuntó al final del capítulo 16, durante cerca de cincuenta años, los
neodarwinistas, centrados siempre en el gen, descartaron como basura el 98 por ciento del
genoma humano que no estaba integrado por genes, puesto que no tenía cabida en su
modelo. Una postura arrogante, puesto que ahora sabemos que alrededor del 80 por ciento
de este ADN muestra signos de actividad funcional; gran parte del mismo parece estar
implicado en redes reguladoras colaborativas.[19]
Muchos defensores del actual modelo ortodoxo argumentan que las regiones del
ADN que no codifican proteína siguen siendo ADN y, por lo tanto, están sujetas a mutación
y selección natural del mismo modo que las regiones codificantes. Sin embargo, en 2007,
Michael Lynch, profesor distinguido de Biología de la Indiana University, revisó la
evolución de las redes genéticas y llegó a la conclusión de que, contrariamente a la creencia
extendida, no existen evidencias empíricas ni teóricas de que haya rasgos de las vías
genéticas que estén fomentados por la selección natural.[20]
Herencia de caracteres adquiridos
Otra conclusión importante del capítulo 17 es que el patrón general del registro fósil
a lo largo del tiempo va de lo sencillo a lo más complejo; las evidencias de animales que
tenemos disponibles indican que la complejidad va en aumento a lo largo de todos los
linajes, lo cual se hace claramente patente en el linaje que conduce hasta el hombre. Las
evidencias del capítulo 18 muestran que las especies vivas constituyen un patrón de
complejidad progresiva que va desde las bacterias hasta el hombre. Los estudios de
conducta repasados en el capítulo 19 demuestran que, a medida que la complejidad de la
especie se incrementa, desde los peces hasta los primates, el aprendizaje social se
incrementa a su vez para complementar la conducta instintiva; esto se correlaciona
asimismo con un incremento de la complejidad del cerebro junto con un incremento de la
inteligencia, atestiguado por las soluciones cada vez más innovadoras a los problemas.
A pesar de que Darwin había concluido con que «Como la selección natural obra
solamente por y para el bien de cada ser, todos los atributos corpóreos y mentales tenderán
a progresar hacia la perfección».
Según Francis Heylighen, cibernético y teórico de la complejidad interdisciplinaria:
[24]
Igual que Maynard Smith y Szthmary, en sus estudios sobre las principales
transiciones en la evolución, [los biólogos evolutivos] se sienten obligados a defender de
boquilla la ideología [relativista] apuntando la «falacia» de creer que existe algo como el
progreso o el avance hacia un incremento de la complejidad, y describiendo luego con
detalle los ejemplos de este incremento que han estudiado.[25]
Antes de examinar las objeciones al patrón de incremento de la complejidad,
intentaré minimizar los malentendidos que surgen a partir de los distintos significados que
se otorgan a una misma palabra. Teóricos de sistemas, teóricos de autómatas, teóricos de la
información, teóricos de la complejidad, cibernéticos, biólogos evolutivos, especialistas en
el genoma, etólogos y otros, definen la complejidad de distintas maneras. Cada uno de ellos
se centran en aspectos distintos —cualitativos, cuantitativos, estructurales (subsistemas
incrustados en supersistemas) o funcionales (niveles de proceso o control de la
información)— de la complejidad. A nadie sorprende, por lo tanto, que los resultados sean
distintos.
Intentaré ser objetivo y concentrarme en el bosque y no en el árbol y utilizar una
definición abstracta, que espero sea del agrado de la mayoría de especialistas.
Complejo: un todo compuesto de distintas partes interrelacionadas.
Complejidad: cualidad de ser complejo.
Aumento de la complejidad: el proceso que hace que algo sea cada vez más
complejo.
A partir de esa definición, se entiende que cada parte es necesariamente más simple
que el todo que incluye varias de esas partes. Prácticamente todos los objetos físicos del
universo son complejos y forman jerarquías anidadas de incremento de la complejidad,
desde las partículas subatómicas hasta los átomos, las moléculas, los organismos
unicelulares, los organismos pluricelulares, hasta las sociedades de organismos. Además,
está generalmente aceptado que, en la historia del universo, los componentes más simples
aparecieron antes que los sistemas compuestos y más complejos. Es lógico: normalmente,
es imposible construir un sistema de orden más elevado, como una molécula, a partir de sus
partes constituyentes, en este caso los átomos, sin que dichas partes constituyentes se hayan
creado. Por lo tanto, la evolución conduce hacia sistemas cada vez más complejos y va
añadiendo gradualmente más niveles de jerarquía. Lo que causa este este fenómeno
evolutivo ya es otra historia. Las causas pueden ser distintas en distintas transiciones
evolutivas, y es por ello que considero que, en el mapa de la trayectoria de la evolución,
resulta sensato distinguir entre el fenómeno y su causa.
Si examinamos el fenómeno de incremento de la complejidad utilizando los
métodos de la ciencia, resultará útil medirlo. Considero que la mejor medida la ofrece el
número de partes multiplicado por el número de conexiones. En el caso de los seres vivos,
sin embargo, no disponemos de todos los datos.
El biólogo evolucionista, James Valentine, y sus colegas de la Universidad de
California, Berkeley, utilizaron la cantidad de tipos de célula no «para medir la complejidad
en sí, sino […] simplemente a modo de índice de complejidad [morfológica]»,
reconociendo que «sin duda estamos agrupando células que poseen diferencias bioquímicas
y, a buen seguro, funcionales». Este índice omite además las conexiones entre células del
mismo y de distintos tipos, y cosas como la complejidad de conducta. Pero de todos modos,
sirviéndose de solo una medida de complejidad morfológica y contrastándola a partir de la
primera aparición en el registro fósil de un rango del taxón de los animales, Valentine
descubrió una progresión en la complejidad de las familias más primitivas en cada taxón,
desde las Porifera (esponjas) hasta la más reciente, Homínidos, incluso agrupando las
distintas neuronas como un único tipo de célula.[26]
Sin embargo, tal y como observó el biólogo evolucionista de Princeton, John Tyler
Bonner: «Entre los biólogos se da un interesante punto ciego. A pesar de que admitimos sin
dilación que los primeros organismos eran similares a bacterias y que el organismo más
complejo que existe es el nuestro, se considera malas formas aceptar esto como algún tipo
de progresión».[27]
Las objeciones son tanto con respecto al fenómeno de la progresión (el patrón de
incremento de complejidad que se observa en la evolución biológica) como con respecto a
lo que implica el progreso (los resultados de mejora que provoca esa progresión).
A pesar de solaparse, los argumentos contra el incremento de complejidad pueden
agruparse en los nueve que se ofrecen a continuación, seguidos con la respuesta a cada uno
de ellos.
a. La evolución biológica está causada por la selección natural que actúa mediante
mutaciones aleatorias de origen genético y, por lo tanto, no puede haber un patrón de
incremento de complejidad.
La deducción a la que se llega no se deduce por su premisa. No hay razón por la que
la selección natural que actúa mediante mutaciones aleatorias no pueda dar un incremento
de complejidad (si la selección natural actúa para causar la evolución biológica es otra
cuestión que se ha considerado en un momento anterior de este mismo capítulo).
b. La evolución biológica es consecuencia de resultados accidentales de sucesos
fortuitos; no existe ningún patrón de progresión evolutiva.
Esta objeción acepta que la evolución biológica ocasiona especies más complejas
pero argumenta, en palabras de Gould, que existe «constancia de complejidad modal a lo
largo de toda la historia de la vida».[30]
Dicho de forma muy sencilla, teniendo en cuenta que los organismos más
numerosos, los procariotas, son los más simples, si calculáramos la complejidad media de
todas las especies que viven en la Tierra en cualquier punto determinado del tiempo, el
astronómico número de procariotas resultante empequeñecería el número de organismos
más complejos y, por lo tanto, reduciría casi a cero su contribución a la complejidad
general.
A pesar de ser un argumento estadísticamente correcto, es engañoso. Igual que
existe una cantidad astronómicamente superior de procariotas que de animales, también
existe una cantidad astronómicamente superior de moléculas que de procariotas, una
cantidad astronómicamente superior de átomos que de moléculas y una cantidad
astronómicamente superior de partículas fundamentales que de átomos. En cualquier
momento de la historia del universo existe una «constancia de complejidad modal»
estadística, representada por las partículas fundamentales. Pero esto no significa que el
universo haya permanecido en una constancia de partículas fundamentales a lo largo de
toda su historia y no haya progresado hacia estructuras más complejas.
e. La evolución biológica no muestra ningún patrón de incremento de complejidad;
algunos organismos complejos evolucionan hacia organismos más simples.
En 1988, Matthew Nitecki editó un libro titulado, tal vez con cierta ironía,
Evolutionary Progress [Progreso evolutivo], en el que llegaba a la siguiente conclusión: «El
concepto de progreso ha sido prohibido en la biología evolutiva por ser considerado
antropomórfico o, en el mejor de los casos, por su utilidad limitada y ambigua».[35]
Según uno de los autores que contribuyeron en la publicación, Stephen Jay Gould,
«El progreso es un concepto nocivo, culturalmente arraigado, no verificable, no operativo e
intratable que debería ser sustituido si queremos comprender los patrones de la historia».
[36]
De un modo menos polémico, Bains articuló su punto de vista en otra publicación
haciendo la siguiente pregunta retórica: «¿Existe una razón a priori para distinguir
cualitativamente los caracteres recientemente adquiridos por el hombre, como podrían ser
la inteligencia y la talasemia, de los de la E. coli, como podría ser el operón Lac?»[37]
La respuesta es sí. La inteligencia humana es una capacidad que en diversos grados
poseen todos los miembros de la especie. Es distinta cualitativamente a la talasemia, que es
una enfermedad relativamente rara en los humanos resultante de un defecto genético
heredado que suele ser recesivo en ambos progenitores. Ambos caracteres son
cualitativamente distintos del operón Lac, que es un sistema regulador genético para el
metabolismo de la lactosa en la bacteria E. coli. Insinuar que una capacidad general entra
en la misma categoría que una enfermedad rara o tres genes es una falacia lógica.
Bains prosigue aseverando que «el valor de la inteligencia para la supervivencia
sería complicado de defender aun en el caso de que pudiéramos decidir qué es la
inteligencia».
Consideraré la inteligencia en más detalle más adelante. Basta decir por el momento
que la inteligencia permitió a los primeros humanos elaborar utensilios más complejos y
eficientes con los que defenderse contra depredadores más grandes y fuertes que ellos y
aumentar su éxito en la caza para procurarse alimento, construir refugios para protegerse de
los elementos hostiles, confeccionar prendas con las pieles de sus presas para mantenerse
abrigados, hacer fuego para calentarse, ahuyentar a los depredadores y cocinar alimentos, y
plantar y cultivar cosechas para alimentarse mejor que con la caza y recolección, entre
muchas otras habilidades de supervivencia.
A pesar de que la mayoría de neodarwinistas contemporáneos rechazan el concepto
de progreso evolutivo, los fundadores del neodarwinismo no eran del mismo parecer. Más
bien al contrario, reconocían que el mayor progreso era el observado en las especies
humanas. Mayr esbozó las fases de este progreso:
¿Quién puede negar que, en general, existe un avance desde las procariotas que
dominaron el mundo de los seres vivos hace más de tres mil millones de años hasta las
eucariotas, con su núcleo bien organizado, sus cromosomas y sus orgánulos
citoplasmáticos; desde las eucariotas unicelulares hasta los metafitos y los metazoos y hasta
[…] [los animales de sangre caliente] con un importante sistema nervioso central,
desarrollo parental altamente desarrollado y la capacidad de transmitir información de
generación en generación?[38]
Incluso Simpson, siempre más escéptico, llegó a la siguiente conclusión:
Sin embargo, una mayoría [de los criterios para el progreso evolutivo] muestra que
el hombre se cuenta entre los productos más elevados de la evolución y el equilibrio que se
da entre ellos nos lleva a concluir que el hombre es, en el aspecto global aunque no en
todos los sentidos, el pináculo del progreso evolutivo hasta la fecha.[39]
Julian Huxley fue desde siempre un defensor entusiasta del progreso evolutivo y
argumentaba que:
Antes de que el hombre apareciera en la tierra ya había progreso […]. Su llegada
sirvió para continuar, modificar y acelerar un proceso que ha estado operativo desde el
amanecer de la vida.[40]
Dobzhansky también se mostraba inequívoco:
A tenor de cualquier criterio razonable, el hombre representa el producto más
elevado, más progresista y más exitoso de la evolución orgánica. Lo realmente extraño es
que algunos biólogos cuestionen una y otra vez un elogio tan evidente.[41]
Las objeciones a las evidencias abrumadoras de la complejidad progresiva conducen
a ignorar las evidencias o a intentos falaces de explicarlas, porque entran en conflicto bien
con una causa asumida por la evolución biológica, bien con una ideología que trata a todas
las especies como iguales.
La negación de las evidencias por entrar en conflicto con una creencia resulta más
sorprendente en un científico que el hecho de que un creacionista niegue las evidencias del
fenómeno de la evolución biológica.
En los dos capítulos siguientes examinaré las hipótesis que intentan complementar o
desafiar el paradigma utilizado actualmente para explicar el patrón de las evidencias.
[1]Barreiro, Luis B., et al., «Natural Selection Has Driven Population
Differentiation in Modern Humans», Nat Genet, 40: 3, 2008, pp. 340–345.
[2]http://www.britannica.com/EBchecked/topic/406351/natural-selection.
Consultado el 14 de junio de 2014.
[3]«Ernst Mayr», Gale Encyclopedia of Biography, 2006.
[4] Véase páginas 419 a 421.
[5] Véase página 442.
[6] Véase página 443.
[7]Schwartz, Jeffrey H. y Maresca, Bruno, «Do Molecular Clocks Run at All? A
Critique of Molecular Systematics», Biological Theory, 1: 4, 2006, pp. 357–371.
[8]Coyne (2006).
[9] Véase página 482.
[10]Mayr (2001), p. 195.
[11]Williamson, Peter G., «Morphological Stasis and Developmental Constraint:
Real Problems for Neo-Darwinism», Nature, 294, 1981, pp. 214–215.
[12] Véase páginas 491 y 493.
[13] Véase página 451.
[14] Véase página 491.
[15] Véase página 492
[16]Hotopp, Julie C. Dunning, et al., «Widespread Lateral Gene Transfer from
Intracellular Bacteria to Multicellular Eukaryotes», Science, 317: 5845, 2007, pp. 753–
1756.
[17]Boto, Luis, «Horizontal Gene Transfer in Evolution: Facts and Challenges»,
Proceedings of the Royal Society B: Biological Sciences, 277: 1683, 2010, pp. 819–827.
[18] Véase página 504.
[19] Véase página 503.
[20]Lynch, Michael, «The Evolution of Genetic Networks by Non-Adaptive
Processes», Nat Rev Genet, 8: 10, 2007, pp. 803–813.
[21]Anway, Matthew D., et al., «Epigenetic Transgenerational Actions of Endocrine
Disruptors and Male Fertility», Science, 308: 5727, 2005, pp. 466–1469.
[22]Jablonka, Eva y Raz, Gal, «Transgenerational Epigenetic Inheritance:
Prevalence, Mechanisms, and Implications for the Study of Heredity and Evolution», The
Quarterly Review of Biology, 84: 2, 2009, pp. 131–176.
[23]West, Stuart A, et al., «Sixteen Common Misconceptions About the Evolution
of Cooperation in Humans», Evolution and Human Behavior, 32: 4, 2011, pp. 231–262.
[24]Darwin, Charles (1872), p. 428.
[25]Heylighen (1999).
[26]Valentine, J. W., et al., «Morphological Complexity Increase in Metazoans»,
Paleobiology, 20: 2, 1994, pp. 131–142.
[27]Bonner (1988), p. 5.
[28]Gould (2004).
[29]Ibíd.
[30]Ibíd.
[31]Borowsky, R. y Wilkens, H., «Mapping a Cave Fish Genome: Polygenic
Systems and Regressive Evolution», J Hered, 93: 1, 2002, pp. 19–21.
[32]http://www.bio.sci.osaka-u.ac.jp/~hfuruya/dicyemids.html. Consultado el 24 de
febrero de 2011.
[33]Simpson (1949).
[34]Bains, William, «Evolutionary Paradoxes and Natural Non-Selection», Trends
in Biochemical Sciences, 12, 1987, pp. 90–91.
[35]Nitecki (1988).
[36]Gould, Stephen Jay, «On Replacing the Idea of Progress with an Operational
Notion of Directionality», en Evolutionary Progress, editado por Matthew H. Nitecki,
Chicago; Londres, University of Chicago Press, 1988, p. 319.
[37]Bains (1987).
[38]Mayr (1988), pp. 251–252.
[39]Simpson (1949), p. 262.
[40]Huxley (1923), p. 40.
[41]Dobzhansky (1956), p. 86.
CAPÍTULO 22. HIPÓTESIS COMPLEMENTARIAS Y EN
COMPETENCIA 1: EL INCREMENTO DE LA COMPLEJIDAD
Durante la primera mitad del siglo xx, los biólogos estaban ansiosos por convertir su
especialidad en una ciencia respetable, como la física, cuyas teorías se expresaban en
ecuaciones matemáticas que permitían predicciones precisas y verificables. Este deseo
nació en los años veinte y treinta, con las formulaciones matemáticas de adaptación
evolutiva de Ronald Fisher, los diez documentos que publicó J. B. S. Haldane bajo el título
de A Mathematical Theory of Natural and Artificial Selection [Una teoría matemática de la
selección natural y artificial] y los cálculos de paisajes adaptativos y deriva genética de
Sewall Wright. Este enfoque, que proporcionó la base teórica de la genética de poblaciones,
estaba enraizada en el determinismo newtoniano.
El modelo neodarwinista combinó este enfoque con los métodos analíticos de la
genética molecular. La ciencia de la biología observacional, que hasta el momento había
sido cualitativa, se endureció para pasar al determinismo y el reduccionismo genético, con
hipótesis expresadas como ecuaciones matemáticas o modelos estadísticos.
Paradójicamente, la física experimentó al mismo tiempo un cambio de paradigma y
se alejó del determinismo para adentrarse en la teoría de la relatividad y la indeterminación
de la teoría cuántica con su no localización, su principio de incertidumbre, sus
entrelazamientos cuánticos y sus interpretaciones holísticas. Sin embargo, la mayoría de las
hipótesis presentadas para explicar los patrones de las evidencias que el paradigma
neodarwinista no explica adoptan el enfoque general de ese paradigma y utilizan modelos
matemáticos. Una minoría, no obstante, adopta un punto de vista holístico y defiende que
las formas de vida están integradas por componentes colocados en distintos niveles
jerárquicos que interactúan entre sí y también con su entorno.
Las hipótesis van desde aquellas que buscan complementar o ampliar el modelo
neodarwinista hasta las que lo desafían. En este capítulo, examinaré las presentadas para
explicar el rápido incremento de complejidad y en el siguiente, las presentadas para
explicar la colaboración.
Diseño inteligente
En 1995, el paleontólogo Niles Eldredge declaró que las tres respuestas de los
miembros de la población de una especie a un cambio en su entorno son, en orden de
probabilidad:
1. Búsqueda de hábitat.
Los miembros migran a un hábitat en el que estén bien adaptados.
2. Extinción.
Cuando los miembros no son capaces de encontrar un hábitat adecuado.
3. Transformación muy lenta y gradual de la población para adaptarse al entorno
cambiado.
Esta tercera respuesta, menos probable, es el único mecanismo de especiación
reconocido por el modelo neodarwinista.
Por otro lado, George C. Williams, biólogo evolucionista teórico neodarwinista,
rechaza la búsqueda de hábitat y la considera pura fabulación, a pesar de que Eldredge
ofrece una cantidad destacada de evidencias para sustentar su hipótesis.[10]
En el emblemático artículo que publicaron en 1972 desafiando el gradualismo del
modelo neodarwinista por considerar que entra en conflicto con el registro fosil,[11]
Eldrege y el paleontólogo Stephen Jay Gould, se inspiraron en la idea de Ernst Mayr, que
argumentaba que la especiación era más rápida en las subpoblaciones pequeñas y aisladas,
para proponer la hipótesis del equilibrio puntuado. Afirmaban que, para una población
grande que ocupe una región geográfica extensa, las mutaciones genéticas nuevas, aun
siendo beneficiosas, quedan diluidas por el tamaño de la población y por factores como los
cambios constantes en el entorno. Se producen pequeñas variaciones adaptativas, pero
también una estabilización general de la morfología, lo cual es consistente con cambios
morfológicos menores que fluctúan alrededor de una media y que muestra el registro fósil a
lo largo de decenas o incluso cientos de millones de años.
Pero en el caso de un grupo pequeño localizado en la periferia de la región
geográfica, las mutaciones genéticas que codifican rasgos adaptativos beneficiosos, se
diseminarán rápidamente y transformarán el acervo génico de ese grupo en un periodo
geológicamente breve de decenas de miles de años. El resultado será una nueva especie
incapaz de reproducirse con éxito con el grupo principal.
Richard Dawkins, defensor de Williams, rechazó esta hipótesis considerándola «una
arruga interesante, aunque de escasa importancia, sobre la superficie de la teoría
neodarwinista» que «no merece una cantidad de publicidad especialmente grande».[12] Lo
cual encendió un acalorado intercambio entre Dawkins y la pareja Eldredge/Gould que
sigue vigente en la actualidad.
Orígenes súbitos
Desde que en 1968 publicara su artículo introduciendo la idea, Motoo Kimura lideró
un grupo de genetistas de poblaciones que defendían con argumentos matemáticos que
prácticamente todas las mutaciones genéticas que persisten o alcanzan una frecuencia
elevada entre la población a lo largo de generaciones son selectivamente neutrales; es decir,
no tienen un efecto apreciable sobre la idoneidad o la adaptación morfológica.
Entre las evidencias que aportan a la hipótesis está una especie conocida como el
tiburón de Port Jackson, que ha permanecido morfológicamente similar durante unos 300
millones de años a pesar de los drásticos cambios medioambientales que supuestamente han
provocado tres extinciones en masa; subsiste hoy en día como un «fósil vivo» a pesar de su
tasa de cambio genético, calculada por el número de diferencias en los aminoácidos de la
globina alfa y la globina beta (150) que se acerca a la del linaje humano (147). A lo largo
del mismo periodo, por otro lado, los humanos evolucionaron, con muchas transiciones, a
partir de mamíferos con aspecto de reptil. En general, la tasa de cambio genético es
constante para todos los linajes, pero la tasa de cambio morfológico varía de forma
significativa entre distintos linajes.[16],[17]
La teoría neutral es, esencialmente, la hipótesis de la deriva genética de Sewall
Wright, que fue ignorada por los arquitectos del modelo neodarwinista por ser inconsistente
con la transformación del acervo genético de una población a partir de la selección natural
de mutaciones genéticas adaptativamente beneficiosas.
H. Allen Orr, defensor de la ortodoxia neodarwinista, argumenta que las nuevas
tecnologías que permiten la secuenciación del genoma y los nuevos test estadísticos que
facilitan la distinción entre los cambios neutrales que se producen en el genoma y los
cambios adaptativos, sugieren que los defensores de la teoría neutral infravaloran la
importancia de la selección natural. Cita un análisis llevado a cabo por David J. Begun y
Charles H. Langley, de la Universidad de California, Davis, con 6.000 genes de dos
especies de mosca de la fruta que divergen de un antepasado común y llega a la conclusión
de que la selección natural positiva —en la que el entorno aumenta la frecuencia de una
mutación beneficiosa que de entrada es muy excepcional— es responsable de al menos el
19 por ciento de las diferencias genéticas entre las dos especies.[18] De ser así, no sería un
respaldo categórico para un modelo cuyo único mecanismo para la transformación genética
es la selección natural (a pesar de la falacia de que el entorno selecciona activamente).
Duplicación total del genoma
Motivado por el descubrimiento de que los genes reguladores del desarrollo son
muy similares en un amplio rango de especies, el paleontólogo y biólogo evolutivo Neil
Shubin y sus colegas de la Universidad de Chicago, propusieron en 1997 la hipótesis de la
homología profunda. La hipótesis reivindica básicamente que un antepasado común muy
remoto poseía estos genes, o antiguas versiones de estos genes, y que lo que podrían
parecer convergencias evolutivas independientes son en realidad evoluciones paralelas.
Además, los proponentes afirman que su hipótesis se ha visto reforzada por el
descubrimiento de muchas más homologías profundas a lo largo de los doce años siguientes
a su anuncio.[22]
En el caso de los ojos, por ejemplo, Shubin afirma que todas las variaciones
modernas de sensibilidad a la luz que presentan animales bilaterales se remontan a la
existencia de células fotosensibles en un antepasado común, con el Pax-6 y otros factores
de transcripción ocupando una vía reguladora génica que conduce a la producción de
proteínas opsinas.
A pesar de que Shubin defiende que esos circuitos reguladores antiguos
proporcionan un sustrato al partir del cual se desarrollan estructuras nuevas, no explica ni
por qué se desarrollan ni por qué la regulación por parte de los genes de la familia Hox
producen planes orgánicos tan distintos en los animales bilaterales.
Convergencia evolutiva
Muy similar en concepto, pero más amplia en su aplicación, puesto que abarca la
Tierra entera, es la hipótesis de Gaia que originó en los años 60 el científico independiente
británico, James Lovelock. Propone que la biosfera, la atmósfera, los océanos y el suelo de
la Tierra forman un sistema interactivo y autorregulado que produce un entorno físico y
químico óptimo para la aparición de la vida.[38]
Desde que Lovelock desarrollara su hipótesis en colaboración con Lynn Margulis,
los nuevos datos y las críticas iniciales han hecho que el argumento se ramificara en
multitud de formas defendidas por diversos proponentes.
Por lo que a la evolución biológica se refiere, la hipótesis de Gaia rechaza el modelo
neodarwinista de una adaptación muy gradual de las poblaciones a su entorno físico. Ese
entorno físico está conformado por una red de sistemas vivos capaz de innovar, lo que da
como resultado la co-evolución a nivel planetario con esas redes inanimadas. Según lo
expresa Lovelock: «La evolución de los organismos vivos está tan estrechamente ligada a
su entorno, que juntos constituyen un único proceso evolutivo».[39]
Por intuición, todo esto tiene sentido, y gran parte de las sencillas simulaciones por
ordenador de la hipótesis de Gaia se asientan sobre datos atmosféricos, oceánicos y
biológicos a nivel global. Sin embargo, tal y como está actualmente desarrollada, la
hipótesis no ofrece una explicación lo bastante tangible de la evolución de las especies.
Causación formativa
Gran parte de lo que Darwin dijo está, en detalle, equivocado. Si Darwin lo leyera
[El gen egoísta] apenas reconocería en él su teoría original.
Sociobiología
No sé si se trata de un mito urbano, pero se dice que esta hipótesis tiene sus orígenes
en un pub británico a mediados de la década de los 50, cuando al genetista J. B. S. Haldane
le preguntaron si daría la vida por su hermano. Después de hacer unos cuantos cálculos,
respondió que solo daría la vida por dos hermanos u ocho primos. Su razonamiento era el
siguiente: teniendo en cuenta que cada hermano compartía la mitad de sus genes, y que
cada primo hermano compartía una octava parte de sus genes, solo podía garantizar la
supervivencia de las copias de sus genes si un mínimo de dos hermanos u ocho primos
sobrevivían después de su muerte.
Publicó estas conclusiones en 1955,[6] pero fue otro genetista teórico, William D.
Hamilton, quien formalizó la hipótesis en 1964[7] en forma de un complejo modelo
matemático basado en supuestos sobre genes que llevaría a los individuos a comportarse
según una fórmula que acabó conociéndose como la Regla de Hamilton:
rxB>C
Stuart West considera que el hecho de que la explicación de la colaboración sea uno
de los principales problemas a los que se enfrentan las ciencias biológicas y sociales es un
problema autoimpuesto causado por la adopción del modelo neodarwinista, que está
enraizado en la competencia. Las dos hipótesis siguientes solventan este problema mediante
el sencillo dispositivo de reconocer que la colaboración supera en importancia a la
competencia como causa de la evolución biológica.
Apoyo mutuo
Los humanos somos algo más que los caracteres fenotípicos resumidos en la clase
taxonómica Homo sapiens. Somos seres conscientes. Filósofos, psicólogos, antropólogos y
neurocientíficos no se ponen de acuerdo en cuanto a qué es la consciencia humana. La
mayoría lo estudian como algo en sí mismo, y trataré más sobre la consciencia humana en
la tercera parte. Sugiero, sin embargo, que del mismo modo que el fenotipo humano
evolucionó a partir de las primeras formas de vida de la Tierra, también lo hizo la
consciencia humana, y podremos llegar a comprenderla mejor, o como mínimo comprender
sus correlaciones físicas, si somos capaces de seguir su trayectoria evolutiva a lo largo del
linaje humano.
Para ello, utilizaré una definición amplia de la consciencia que aplica en cualquier
forma de ser vivo incipiente o rudimentario y que lo distingue de la materia inanimada.
Consciencia: la percepción del entorno, de otros organismos y de uno mismo que
incentiva a la acción.
La consciencia así definida puede plasmarse según las acciones consiguiente, es
decir, según la conducta de los organismos, y, en consecuencia, debemos trazar la evolución
de la conducta del organismo a lo largo del linaje humano.
La evolución de la conducta
Los fósiles rara vez insinúan conductas y, por lo tanto, la única manera de trazar el
recorrido de esta evolución consiste en examinar la conducta de aquellas especies vivas que
de un modo más razonable se asemejan a los fósiles datados en su estimada primera
aparición en las categorías taxonómicas que van desde los dominios de Bacterias y Arqueas
hasta la especie Homo sapiens, según se muestra en la tabla 20.1.
Bacterias y arqueas
Las especies más parecidas a las primeras formas de vida de la Tierra son las
procariotas: bacterias y arqueas. Estos sencillos organismos actúan respondiendo
directamente a estímulos externos e internos para sobrevivir.
Los estímulos externos son el calor, la luz, los elementos químicos del entorno y la
presencia de otros organismos; pueden ser fuente tanto de sustento como de peligro. Las
bacterias y las arqueas responden moviéndose hacia los elementos químicos y los
organismos que pueden utilizar para su mantenimiento y alejándose de aquellos que pueden
resultarles nocivos. En el capítulo 19 vimos un ejemplo de bacterias que respondían a otras
bacterias emitiendo moléculas de señalización hacia su entorno inmediato y con puntos
receptores para esas moléculas. Cuando sus receptores registraban una cantidad de señales
suficiente —lo que les daba una medida de la densidad de población local—, se
desencadenaba una respuesta directa y colaborativa, como un intercambio de genes, que
llevaba a la producción y excreción de polisacáridos para un biofilm comunitario o enzimas
para digerir las presas.[1]
Las bacterias muestran también una percepción rudimentaria de sí mismas al
responder directamente a estímulos internos. Un daño importante a su ADN desencadena lo
que se conoce como la respuesta SOS: el encendido de genes SOS, normalmente en
silencio, que activa un mecanismo reparador del ADN.
Eucariotas: unicelulares
Una eucariota sencilla unicelular, como una ameba, actúa también con una respuesta
directa sencilla a un estímulo externo, por ejemplo, formando extensiones temporales de su
citoplasma (conocidas como pseudópodos, o falsos pies) para impulsarse hacia los
elementos químicos que desprenden los alimentos o alejarse de los elementos químicos
nocivos.
Las eucariotas unicelulares más complejas presentan un sistema de respuesta directo
más complejo y utilizan orgánulos, o partes especializadas de la célula, tanto a modo de
receptores de estímulos como a modo de efectores de respuesta. Entre los receptores
destacan los filamentos sensoriales rígidos de los ciliados y los puntos fotosensibles de los
flagelados. Entre los efectores destacan los cilios (apéndices múltiples con aspecto de pelo
que surgen de la superficie de la célula y son capaces de golpear al unísono) y los flagelos
(cilios más alargados que se asemejan a látigos) que impulsan la célula, junto con otros
orgánulos que atraen alimento.
Eucariotas: animales
En 1969, Heinz Stephan, del Max Planck Institute for Brain Research y O. J. Andy,
del departamento de Neurocirugía del University of Mississippi Medical Center, llegó a la
conclusión de que todos los primates, así como muchos, sino todos, los órdenes más
recientes de mamíferos placentarios, descienden de antiguos insectívoros, pequeños
mamíferos comedores de insectos.
Quince años más tarde, Stephan, junto con Pierre Jolicoeur y sus colegas del
departamento de Ciencias biológicas de la Universidad de Montreal, examinaron las
diferencias en el cerebro de 28 especies actuales de insectívoros, 63 especies de quirópteros
(el orden de los murciélagos) y 48 especies de primates. Descubrieron que el componente
del cerebro que experimenta el mayor incremento volumétrico relativo desde los
insectívoros hasta los primates es el neocórtex, que está 150 veces más desarrollado en el
Homo sapiens que en un hipotético insectívoro basal del mismo peso corporal.[13]
Por lo tanto, la característica más distintiva de la evolución del cerebro humano con
respecto a otros mamíferos y especies de primates es el crecimiento del neocórtex, la parte
del cerebro de evolución más reciente, que procesa funciones cognitivas superiores como la
memoria a corto plazo, la asociación, la innovación, el lenguaje, el racionamiento y la
introspección, características todas ellas de niveles superiores de consciencia.
El aspecto arrugado del neocórtex es importante por tres motivos. En primer lugar,
los dobleces del tejido neural proporcionan una centralización incluso mayor: en el mismo
volumen pueden caber más neuronas, lo que consigue una mayor densidad neuronal. En
segundo lugar, y como consecuencia de lo primero, la longitud de las fibras que conectan
estas neuronas es inferior que si las neuronas estuvieran más distanciadas, lo que reduce la
transmisión interneuronal y el tiempo de respuesta del cerebro. En tercer lugar, todo esto
implica que la cabeza no tiene que crecer para acomodar más volumen de cerebro. Como
resultado de este tercer factor, el tamaño del animal no tiene por qué aumentar; de ahí que
la cantidad y la longitud de las fibras nerviosas que conectan con el tejido sensorial, como
la piel, y con el tejido efector, como los músculos, situados en partes remotas del cuerpo no
necesita aumentar. Esto reduce el tiempo de transmisión neural; y da también como
resultado un porcentaje mayor de neuronas asociadas a funciones cognitivas avanzadas con
respecto a neuronas asociadas a funciones motoras o de mantenimiento. En términos
generales, optimiza la proporción cerebro-cuerpo para una respuesta más flexible y más
rápida y para funciones cognitivas avanzadas, como la innovación. Todo esto no es
resultado de la selección natural entre un abanico prácticamente ilimitado de posibilidades
aleatorias, sino de las leyes de la física.
[1] Véase página 510.
[2]Conway Morris, pp. 197–200.
[3]Chomsky (2006).
[4]Tomasello (2003).
[5] Véase página 519.
[6]Reader, Simon M. y Laland, Kevin N., «Social Intelligence, Innovation, and
Enhanced Brain Size in Primates», Proceedings of the National Academy of Sciences of the
United States of America. 99: 7, 2002, pp. 4436–4441.
[7] Véase página 462.
[8] Por qué los animales evolucionaron bilateralmente en vez de hacerlo, por
ejemplo, trilateralmente o cuadrilateralmente es una pregunta que rara vez se formula y que
nunca se ha respondido de manera satisfactoria. El «principio adaptativo» no lo hará: el
entorno posee tres dimensiones espaciales.
[9]Azevedo, Frederico A. C., et al, «Equal Numbers of Neuronal and Nonneuronal
Cells Make the Human Brain an Isometrically Scaled-up Primate Brain», The Journal of
Comparative Neurology, 513: 5, 2009, pp. 532–541.
[10]Kendrick, Keith, «Understanding the Brain: A Work in Progress», Gresham
College Lecture, Londres, 22 de noviembre de 2010.
[11]Deaner, R. O., et al, «Overall Brain Size, and Not Encephalization Quotient,
Best Predicts Cognitive Ability across Non-Human Primates», Brain, Behavior and
Evolution, 70: 2, 2007, pp. 115–124.
[12]Lahr, Marta Mirazon, «African Origins – the Morphological and Behavioural
Evidence of Early Humans in Africa», Human Evolution, Migration and HistoryRevealed
by Genetics, Immunity and Infection, Royal Society, Londres, 6 de junio de 2011.
[13]Jolicoeur, Pierre, et al, «Brain Structure and Correlation Patterns in Insectivora,
Chiroptera, and Primates», Systematic Zoology, 33: 1, 1984, pp. 14–29.
CAPÍTULO 25. REFLEXIONES Y CONCLUSIONES SOBRE EL ORIGEN
Y LA EVOLUCIÓN DE LA VIDA
Nullius in verba (En las palabras de nadie) (No aceptes nada por autoridad).
Reflexiones
Una de las alegrías de este viaje ha sido descubrir cosas que no me esperaba. Los
cosmólogos ven el planeta Tierra como una de las cosas más insignificantes de una galaxia
integrada por miles de millones de estrellas, muchas de las cuales tienen su propio sistema
planetario, y esa galaxia no es más que una entre las cien mil millones de galaxias del
universo visible que es, según la cosmología ortodoxa actual, una parte increíblemente
mínima de la totalidad del universo.
Sin embargo, desde la relativamente nueva ciencia de la astrobiología es posible
deducir seis condiciones necesarias para que las moléculas más complejas de 13 átomos del
espacio interestelar y los asteroides evolucionen hasta crear seres tan complejos como el
hombre. Estas seis condiciones reducen dramáticamente los lugares en una galaxia y en un
sistema solar donde una evolución como esta podría tener lugar en conformidad con las
leyes físicas y químicas conocidas. La superficie de la Tierra ofrece estas condiciones pero
—y aquí llega la sorpresa— solo las ofrece porque se produce en ella una coincidencia de
hechos estelares y planetarios de lo más poco común. Si no es única, lo que sí que es la
Tierra es un lugar excepcional para albergar vida inteligente en esta galaxia.
Otra sorpresa es la ausencia de una definición generalmente acordada del concepto
de vida. Las definiciones propuestas no son ni suficientes ni necesarias para distinguir los
seres vivos de los que no lo están, y muchas de ellas excluyen seres vivos, como las mulas,
que no se reproducen. Confío en que la definición sugerida en el capítulo 13 ofrezca una
distinción viable y muestre que existe una frontera irreversible, aunque trazada con
imprecisión, que marca una importante transición evolutiva de la materia inanimada a la
vida.
Estoy muy agradecido a los astrobiólogos y los geólogos que corrigieron los errores
de hecho u omisión y comentado mis conclusiones en los borradores de los capítulos. Lo
hicieron con mentalidad abierta y sin dogmatismo, siguiendo la mejor tradición de la
ciencia. Tal vez sea así porque la astrobiología es una ciencia nueva y emergente y la
geología vivió un cambio de paradigma en los 60, después de que cincuenta años de
testarudez ortodoxa rechazando la hipótesis de la deriva continental cayeron bajo el peso de
las evidencias que sustentaban el mecanismo de las placas tectónicas, cuyos detalles siguen
investigándose hoy en día.
Por desgracia, en lo referente a la investigación de la evolución de la vida, gran
parte de las respuestas a mis preguntas y mis borradores fueron similares a las posturas de
los cosmólogos y los físicos teóricos ortodoxos comentadas en el capítulo 11, al final de la
primera parte. Estas respuestas podrían agruparse en cinco tipologías:
a. Imperiosamente despectivas.
b. Educadamente despectivas.
c. Usted desconoce los hechos.
d. Usted parece conocer los hechos pero no entiende nada.
e. El neodarwinismo es compatible con todas las evidencias y con las distintas
hipótesis.
Una respuesta imperiosamente despectiva a una petición de revisar el borrador de
un capítulo que empezaba afirmando que en los últimos cuarenta años ha habido muy pocos
estudios sobre las especies vivas diseñados para investigar si la evolución biológica se
produce o no, empezaba con «No he pasado [sic] de la primera fase de su artículo […]. Lo
que usted dice no podría estar más lejos de la verdad». Continuaba diciendo que ha habido
miles de estudios experimentales diseñados para investigar si la evolución biológica se
produce o no, y añadía «No puedo evitar la sensación de que cualquiera que sea objetivo y
esté debidamente informado debería conocerlos». Y proseguía recomendándome un libro
publicado en 1986 o cualquier libro de texto universitario sobre la evolución.
Fue precisamente porque reconozco mi ignorancia en su campo que le pedí que me
corrigiera los errores de hecho u omisión en el borrador de aquel capítulo. Pero resulta que
aquel libro de 1986 no examina si la evolución biológica se produce o no, sino los métodos
para investigar su mecanismo neodarwinista, que era precisamente lo que decían la segunda
y la tercera frase del borrador; el resto del borrador hablaba sobre los ejemplos
proporcionados en los actuales textos universitarios. Esta respuesta supone un ejemplo
extremo de los biólogos evolutivos que equiparan el fenómeno de la evolución biológica
con el mecanismo neodarwinista, que no es más que uno de sus supuestos mecanismos.
Un destacado miembro de la élite biológica de los Estados Unidos respondió en
cuestión de horas el mensaje de correo electrónico en el que le pedía si podía revisar el
borrador de mi capítulo diciendo: «He realizado una lectura rápida del texto que me ha
enviado […]. Lo que ha escrito resulta ingenuo a veces, incompleto y sesgado en su
totalidad, no está actualizado en muchos casos y lleno de errores de hecho y atribución, así
como de teoría».
39 de las 60 referencias citadas, y correctamente atribuidas, en el borrador eran
artículos publicados a lo largo de los seis años anteriores, incluyendo una larga entrada de
una enciclopedia redactada por él mismo y publicada online aquel mismo año. Le respondí
diciéndole que me preocupaban mucho sus comentarios y que le estaría agradecido si
pudiera aclararme dónde estaba mi sesgo e indicarme los principales errores y atribuciones
erróneas. A pesar de que posteriormente le envié un recordatorio, sigo aún esperando
respuesta.
Las respuestas educadamente despectivas me decían que no estaban de acuerdo con
mis conclusiones pero que me deseaban lo mejor. Algunos insinuaban que estaba atacando
la teoría evolutiva —una interpretación errónea de mis intenciones, que había dejado muy
claras— y me daban a entender que era prácticamente un creacionista. Me vi por ello
obligado a realizar un prefacio en mis solicitudes posteriores, declarando que no creía ni en
el creacionismo ni en el diseño inteligente y que en capítulos previos había llegado a la
conclusión de que ambos quedaban fuera del territorio de la ciencia.
En el libro trazo brevemente el desarrollo de la teoría científica en cada campo para
ilustrar la evolución de la ciencia en respuesta a las evidencias y las ideologías más
novedosas antes de iniciar el examen de la teoría ortodoxa actual, que suscribe la amplia
mayoría de los investigadores del campo en cuestión.
Uno de los consultados mostró sus objeciones ante el uso de la palabra «ortodoxia»,
basándose en que es un término que implica creencia. Dos ejemplos de la ortodoxia vigente
en la biología son la hipótesis de la aptitud inclusiva y la del «altruismo recíproco», que
invocan los sociobiólogos para explicar cómo es posible que un fenómeno tan extendido
como la colaboración sea compatible con la competencia neodarwinista.
Edward O. Wilson, considerado en términos generales su fundador, tuvo la
perspicuidad de decir que la sociobiología había dado un giro equivocado en los años 60 y
70. En 2010, y junto con dos biólogos matemáticos evolutivos, publicó un artículo en
Nature argumentando que la teoría de la aptitud inclusiva había demostrado ser de escaso
valor para explicar el mundo natural. Cinco meses más tarde, Nature publicó un comentario
firmado por 138 biólogos evolutivos proclamando: «Creemos que sus argumentos se basan
en una comprensión fallida de la teoría evolutiva y en una interpretación errónea de la
literatura empírica [la cursiva es mía]». Una nota al pie decía que varios científicos más que
habían contribuido de forma importante al documento no aparecían listado porque
aparecían nombrados en distintos cometarios. 17 académicos más firmaron otros cuatro
comentarios atacando distintos aspectos del artículo de Wilson. Que 155 biólogos
evolutivos suscriban un artículo declarando que creen que el fundador de la sociobiología
no entiende sus teorías, me parece que ilustra bien a qué me refiero cuando hablo de la
ortodoxia y de la mentalidad grupal que con frecuencia engendra.
En el capítulo 23 se comenta lo mucho que le costó a Lynn Margulis ser publicada
en las principales revistas de ciencias y biología revisadas por sus colegas, a pesar de las
evidencias genéticas que demostraban sin ninguna duda que al menos varias de sus
hipótesis eran válidas.
El modo en que la clase dirigente de los biólogos trata a los disidentes de dentro y a
los de fuera que se hacen preguntas recuerda en exceso lo que sucede con la clase dirigente
cosmológica. Sospecho que se debe en gran parte a los mismos motivos. En el campo de la
biología, la clase dirigente está dominada por una escuela que integra, por un lado, teóricos
que utilizan la estadística de los genetistas de poblaciones y, por el otro, por zoólogos
experimentales que trabajan principalmente en el laboratorio con la mosca de la fruta y que
extrapolan sus descubrimientos no solo a todos los demás animales sino también a las
plantas, los hongos, las protoctistas y las bacterias. Esa escuela ha hecho grandes
contribuciones en el campo de la biología y sus hipótesis han explicado gran parte de lo que
conocíamos en su momento.
Pero más de sesenta años después, la situación se ha osificado en una cultura que
equipara evolución biológica con modelo neodarwinista y que fusiona pruebas matemáticas
con pruebas empíricas. Las evidencias contradictorias, especialmente las proporcionadas
por el registro fósil y por las observaciones de un amplio rango de especies en la naturaleza,
se ignoran o se contratacan con afirmaciones carentes de base, falacias lógicas o modelos
matemáticos cuyos parámetros arbitrarios pueden ajustarse para producir los resultados
deseados. Otras hipótesis son descartadas de entrada o se acusa a sus proponentes de atacar
la evolución biológica.
Un factor específico de los biólogos, y muy especialmente en los Estados Unidos, es
su respuesta al intento de enseñar en las escuelas, junto con la evolución biológica, tanto el
creacionismo como el diseño inteligente. Paradójicamente, ignorar o negar las evidencias
que contradicen el neodarwinismo da alas a los creacionistas y al movimiento que defiende
el diseño inteligente.
Quiero expresar mi agradecimiento a todos aquellos que entablaron lo que acabó a
menudo siendo un largo diálogo conmigo aun sosteniendo su punto de vista ortodoxo. Me
remitieron a algunos artículos de los que no estaba al corriente y me llamaron la atención
hacia partes del borrador donde el razonamiento no era sólido o había una falta patente de
claridad. Algunos, al final, reconocieron que el borrador tenía varios puntos válidos.
El quinto tipo de respuesta fue la de aquellos biólogos evolutivos que reconocían
contradicciones entre el neodarwinismo y las evidencias de la naturaleza así como la
plausibilidad de hipótesis alternativas. Adoptaron el punto de vista de que la ciencia avanza
y que el neodarwinismo es compatible con todas las evidencias y las hipótesis. Para citar
uno: «Hay neodarwinistas que creen que el cambio debe ser gradual. Si hubiera equilibrio
puntuado, o incluso saltación, se demostraría que esos puntos de vista concretos de esos
científicos concretos están equivocados, no que el neodarwinismo está equivocado». Pero
el gradualismo es un principio básico tanto para el darwinismo como para el
neodarwinismo.
Una postura tan tolerante, que abarca hipótesis mutuamente contradictorias e
hipótesis que las evidencias contradicen, hace que cualquier teoría pierda sentido. Una
teoría científica se define por sus principios básicos, y Jerry Coyne tendría que llevarse el
mérito por haber definido los principios básicos del neodarwinismo contemporáneo.
El patrón histórico de las teorías científicas es aquel que muestra pequeños pasos
progresivos hacia el refinamiento y la aplicación de los principios básicos, seguidos por el
aumento de evidencias nuevas y de nuevas ideas que desafían esos principios básicos, luego
por la resistencia defensiva a esos desafíos y, finalmente, por la aceptación de un nuevo
conjunto de principios básicos, normalmente por parte de los investigadores de la
generación más joven. Es lo que sucedió en la geología y también en la física: Neils Bohr
se vio desanimado a seguir estudiando física porque el punto de vista newtoniano clásico no
admitía discusión y no quedaban más descubrimientos importantes que hacer en ese
sentido. Un punto de vista del que Richard Dawkins se hace eco en la cita que aparece justo
después del título de este capítulo.
La biología evolutiva tiene que pasar aún por este cambio de paradigma. La
humildad frente a lo que aún no sabemos ni entendemos es una cualidad admirable, aunque
no universalmente presente, en los biólogos.
Las evidencias robustas reveladas en el transcurso de los últimos quince años por la
secuenciación rápida de genomas completos de muchas especies, han generado modelos
que reflejan mejor las nuevas evidencias e ideas y que ofrecen una nueva visión de ideas
anteriormente ignoradas o rechazadas que en realidad son compatibles con dichas
evidencias. Confío en que acabe emergiendo una nueva teoría de la evolución biológica en
la que el neodarwinismo, o partes del mismo, se consideren un caso especial o limitador.
No todos los biólogos evolutivos respondieron a mis borradores del modo en que he
esbozado antes. Un investigador eminente hizo el siguiente comentario: «He leído la
sección de su libro y es, con diferencia, el caso sobre el incremento de complejidad más
completo que he visto nunca». Mientras que otro escribió: «Aplaudo su esfuerzo por
presentar todas las teorías alternativas, etc. de las que dispone, sobre todo teniendo en
cuenta que […] muchas de ellas han sido ignoradas o no han sido puestas a disposición del
gran público […]. En general, creo que su presentación mantiene un tono de neutralidad
que necesitábamos desde hace mucho tiempo».
Conclusiones
Aun en el caso de que las capacidades craneales estimadas de las muestras fueran
correctas y el tamaño de la muestra mucho mayor, vimos en el capítulo 24 que ni el tamaño
del cerebro ni la relación entre tamaño del cerebro y peso corporal son criterios fiables de
capacidad cognitiva y, por lo tanto, de nivel de consciencia.[10]
En cuanto a los esqueletos, en términos generales los adultos son más grandes que
los jóvenes y la mayoría de homínidos varones son más grandes que las hembras, pero el
grado de dimorfismo por género varía entre especies, lo que complica la interpretación de
algunos fragmentos, a menudo dispersos. Durante muchos años, el Ramapithecus, un
género que se creía vivió hace entre 15 y 5 millones de años, se consideró antepasado del
Australopithecus y, por lo tanto, del humano moderno. Esta postura se basaba en la
mandíbula reconstruida y los fragmentos de dentición descubiertos en lugares tan apartados
entre sí como Fort Ternan, en Kenia, y las montañas Siwalik, en India. La genética
molecular y fósiles descubiertos posteriormente llevaron a la hipótesis de que eran, de
hecho, hembras de un género previamente descrito, el Sivapithecus, que al reconstruirse
pasó a considerarse como un antepasado del orangután.[11]
A partir del registro fósil, resulta imposible determinar si un ejemplar es un híbrido.
Como hemos visto, cuando la hibridación entre mamíferos relacionados produce
descendencia fértil el asunto se complica (véase páginas 453 y 489); y esto sucede también
entre el chimpancé y el bonobo y entre muchas más especies de mono. La hibridación con
éxito puede producir cambios fisiológicos importantes en los descendientes.
La escasez del registro fósil hace además especialmente difícil deducir conductas
con un buen grado de fiabilidad.
Otros restos
Los ejemplares encontrados junto con homininos o a menudo aislados, se utilizan
para deducir la conducta —y, por lo tanto, el nivel de consciencia— de los homininos.
Los más comunes son utensilios, y en particular utensilios de piedra porque son los
que mejor se conservan, lo que dio lugar al término «Edad de Piedra». Y ahí aparece una
limitación: no sabemos si los primeros homininos utilizaron utensilios perecederos y otras
herramientas, por ejemplo, lanzas y flechas de madera o dardos venenosos, o refugios
construidos con bambú y pieles.
Cuando los utensilios son los únicos restos descubiertos en una capa geológica,
interpretar su función, su nivel de sofisticación y su similitud con los utensilios de piedra
asociados a los escasos ejemplares fósiles descubiertos en otra parte de un continente, o
incluso en otro continente, y deducir a partir de ahi qué especie los fabricó es, en el mejor
de los casos, todo un arte, más que una ciencia.
Los restos de carbón vegetal pueden ser de una hoguera, lo que demostraría el uso
controlado del fuego para proporcionar calor, protegerse contra los depredadores o preparar
comida, pero también podría tratarse del tronco de un árbol calcinado por un incendio
forestal. Entre otros restos destacan los fósiles de animales, como fragmentos de huesos de
león o de lobo. Tanto estos como los demás fósiles de homininos suelen presentarse
esparcidos por todo el yacimiento y, con frecuencia, no queda en absoluto claro si el
hominino mató o devoró al animal o viceversa, o uno arrastró parte del cadáver del otro
desde otro lugar, todo lo cual afecta a la datación.
Datación
La datación relativa asume que los ejemplares encontrados en las capas geológicas
inferiores son más antiguos que los encontrados en las capas superiores. Pero las erosiones,
los corrimientos de tierra, los terremotos y otros fenómenos geológicos pueden confundir la
cronología de las capas. En casos excepcionales, las cenizas de una erupción volcánica
pueden diseminarse y puede afirmarse con confianza que los ejemplares encontrados en una
capa de este estilo corresponden a la misma época pero, aun siendo así, ese hecho no sirve
para proporcionar la datación.
La datación por radiocarbono introducida en los años 50 fue prometedora en este
sentido.[12] Sin embargo, posteriormente se reconoció que las dataciones anteriores a
30.000 años son poco fiables debido a que la cantidad de carbono-14 que queda en una
muestra transcurrido ese tiempo es demasiado pequeña como para poder realizar
mediciones precisas y la contaminación puede, además, distorsionar los resultados.
Descubrimientos posteriores sobre las fluctuaciones de los rayos cósmicos y los cambios en
la circulación atmosférica de la Tierra socavaron el supuesto de que el porcentaje de
carbono-14 en la atmósfera ha sido siempre constante.
Se han desarrollado otras técnicas radiométricas, resumidas en la tabla 26.2, para
extender el rango de datación y ofrecer más verificaciones. Todas, sin embargo, presentan
sus propias limitaciones y problemas, que resume con precisión Chris Stringer.
La frente retraída ha sido interpretada como una indicación de que los neandertales
tenían un cerebro anterior, la región donde se procesan las funciones cognitivas superiores,
menos desarrollado que los humanos.
Mientras que los análisis del ADN mitocondrial han datado hace 500.000 años la
división entre el linaje neandertal y el del humano moderno, los análisis de su ADN nuclear
sugieren que dicha división se produjo hace entre 440.000 y 270.000 años.[26]
Los restos atribuidos al Homo neanderthalensis se han encontrado en lugares
repartidos por toda Europa, Asia occidental, y tan al este como en Uzbekistán, en Asia
central, y tan al sur como Oriente Próximo. Su datación les da una antigüedad de entre
400.000 y 30.000 años, lo que significa que los neandertales se solaparon con el Homo
sapiens durante al menos 10.000 años. Algunos se solaparon también geográficamente, tal
y como sugiere el primer borrador del genoma neandertal antes mencionado. El análisis del
ADN nuclear extraído de tres huesos de tres individuos encontrados en la cueva de Vindija,
Croacia, indica que los humanos tienen entre un 1 y un 4 por ciento de genes del
neandertal, lo que da a entender que hubo cruzamiento.[27]
Entre los utensilios de piedra asociados con los yacimientos neandertales
encontramos raspadores, hachas de mano triangulares bifaciales, puntas triangulares con
una talla en láminas que sugiere que formaban parte de lanzas, probablemente más para
clavar que arrojadizas, y punzones, o utensilios puntiagudos utilizados para hacer agujeros,
aunque ningún utensilio de hueso, como agujas.[28]
En 2010, Joao Zilhao, de la Universidad de Bristol, y sus colegas, anunciaron que
en dos yacimientos neandertales de la provincia de Murcia, en el sudeste de España, habían
encontrado conchas marinas perforadas y manchadas con pigmentos que supuestamente
habrían sido ornamentos corporales. En cualquier otro yacimiento, el hallazgo habría sido
considerado como señal de un nivel elevado de consciencia, incluso de consciencia
reflexiva, y se habría asumido que eran artefactos humanos. Pero Zilhai dice que las
conchas tienen «aproximadamente 50.000 años de antigüedad». Constituyen «una
evidencia segura de que […] diez milenios antes de que se haya registrado la presencia del
humano moderno en Europa, la conducta de los neandertales ya estaba organizada
simbólicamente». De hecho, la información complementaria de su artículo deja constancia
de la datación por radiocarbono de cinco conchas con fechas que van desde 30.150 ± 360
hasta 45.150 ± 650 años en uno de los yacimientos, y de cuatro ejemplares de carbón de
leña de otro yacimiento que van desde 98 ± 23 hasta 39.650 ± 550 años.[29] Lo cual
contradice los supuestos 50.000 años de antigüedad.
La mayoría de paleoantropólogos señalan la ausencia de evidencias sólidas de
símbolos, arte y otros indicios de consciencia reflexiva en los yacimientos neandertales en
comparación con su extensa presencia en yacimientos humanos y llegan a la conclusión de
que los neandertales eran cognitivamente inferiores a los primeros humanos.
A falta de evidencias fiables, la extinción de los neandertales hace aproximadamente
30.000 años es más una cuestión de especulación que una hipótesis. Los paleoantropólogos
sugieren distintos factores para su extinción: que, a diferencia de los humanos, no
consiguieron adaptarse a los rápidos cambios climáticos de la época; que se reprodujeron
con humanos y acabaron siendo asimilados por ellos; que contrajeron enfermedades
humanas a las que no eran inmunes; que los humanos los mataron a todos.
Hobbits
En 1994, un equipo conjunto australiano-indonesio reconstruyó los huesos
fosilizados descubiertos en una cueva de la isla indonesia de Flores y obtuvo el esqueleto
parcial de un adulto de un metro de altura, con brazos largos, frente retraída y sin barbilla.
Le estimaron una capacidad craneal de 380 centímetros cúbicos, aproximadamente la
misma que la del australopiteco más pequeño que se conoce e inferior a la del chimpancé;
pero el yacimiento estaba asociado con utensilios de piedra e indicios de una hoguera, junto
con los restos de un stegodón, un elefante enano, que aparentemente había sido cazado.
El equipo de investigadores llegó a la conclusión de que la criatura descendía del
Homo erectus, que se cree que llegó a la región hace aproximadamente un millón de años.
En aquella isla aislada, sin competencia y con alimento limitado, aquellos homininos se
habían empequeñecido, igual que el stegodón. (De hecho, en Flores se han encontrado
también restos de ratas enormes, lagartos gigantescos y tortugas descomunales, y no está
claro por qué algunas especies empequeñecieron mientras otras se hicieron
excepcionalmente grandes.) Clasificaron el hallazgo como una nueva especie humana, el
Homo floresiensis, apodado «Hobbit», un hecho que generó gran publicidad a nivel
mundial y controversia en el campo de la paleontología.[30] Posteriormente fueron
localizados más restos que corresponden a entre seis y nueve individuos, según como se
reconstruyan, y tienen una antigüedad de entre 17.000 y 95.000 años.
En 2009, Peter Brown, miembro del equipo de la Universidad de Nueva Inglaterra
que había designado de entrada la criatura como Homo floresiensus, cuestionó la
clasificación. Declaró que investigaciones posteriores habían demostrado que el Homo
erectus asiático no era el antepasado de los Hobbits, cuyas características tenían más en
común con los australopitecos que con los fósiles de 1,75 millones de años de antigüedad
de Dmanisi, Georgia, que se consideran representantes de la primera especie Homo fuera de
África.[31]
Denisovanos
En 2010, un equipo internacional liderado por Svante Paabo, del Max Planck
Institute for Evolutionary Anthropology, anunció que habían identificado una nueva
población de homininos en base no a evidencias fósiles, sino tan solo a evidencias
genéticas. Habían extraído ADN del hueso de un dedo desenterrado en la cueva Denisova,
en el sur de Siberia, donde los restos de utensilios de piedra indicaban que el lugar había
estado ocupado por ejemplares de Homo desde hacía 280.000 años. El hueso se había
localizado en una capa de entre 50.000 y 30.000 años de antigüedad que había producido
previamente lascas microscópicas de piedra y piedras pulidas típicas del Paleolítico
superior, así como utensilios más toscos más típicos del Paleolítico medio, lo que había
llevado a especular que la cueva había estado ocupada en uno u otro momento tanto por
neandertales como por humanos modernos.
Los análisis del ADN mitocondrial (ADNmt) indicaron que aquel individuo
pertenecía a un grupo clasificado como denisovano que se había separado hacía un millón
de años del linaje común que lleva al humano moderno y al neandertal, es decir, el doble de
tiempo antes de que se produjera la divergencia entre el neandertal y el humano moderno y,
en consecuencia, se trataba de una especie anterior. Se demostraba asimismo que el genoma
denisovano difería del genoma humano moderno el doble de lo que difería del genoma
neandertal.
Sin embargo, análisis posteriores del ADN nuclear basados en varios supuestos,
incluyendo entre ellos la fecha de la divergencia entre el humano y el chimpancé, indicaron
que el individuo compartía un origen común con los neandertales hace aproximadamente
640.000 años, y que el genoma denisovano difería del genoma humano moderno en la
misma proporción en que difería del genoma neandertal. El equipo de Paabo utilizo el
análisis del ADNmt de un diente que no se parecía ni a un molar humano ni neandertal para
sugerir que los denisovanos tenían una historia poblacional diferente. En particular, los
denisovanos no habían realizado ninguna contribución genética al humano euroasiático,
como sí habían hecho los neandertales, pero entre el 4 y el 6 por ciento de su genoma sí
había contribuido al de los melanesios actuales, aunque no al de otras poblaciones asiáticas
más próximas a Denisova, como los chinos han o los mongoles.
El equipo se contuvo de asignar a los denisovanos o los neandertales a una
clasificación taxonómica específica. E interpretó los resultados genéticos del dedo y el
diente hallados en Denisova como la existencia de al menos dos formas de homininos
arcaicos en Eurasia a finales del Pleistoceno (hace entre 125.000 y 10.000 años): los
neandertales, que estaban ampliamente extendidos por la zona occidental de Eurasia y los
denisovanos, que estaban ampliamente extendidos por la zona oriental de Asia; cada uno de
ellos tuvo un cruzamiento limitado, aunque independiente, con el Homo sapiens.[32]
Primeros indicios de Homo sapiens
Es difícil establecer cuándo se inició el uso controlado del fuego y la fecha oscila
entre hace 0,2 y 1,7 millones de años. Las evidencias de creatividad y métodos de
invención para generar y utilizar el fuego para calentarse, cocinar y protegerse de los
depredadores se encontraron en Sudáfrica en forma de huesos calcinados con una datación
que se sitúa entre 200.000 y 700.000 años antes de nuestros días.[39]
Símbolos y ornamentos
En 1994, Jean-Marie Chauvet descubrió, junto con dos colegas, una serie de
imágenes espectaculares en los muros de una cueva situada en el desfiladero del río
Ardeche, en el sur de Francia. Incluyen cuatro cabezas de caballo dibujadas con sombreado
y perspectiva, junto con sofisticadas representaciones de dos rinocerontes con los cuernos
enredados, leones persiguiendo una manada de bisontes, osos y otros animales. En su
mayoría están pintadas con carboncillo o con un pincel o un dedo embadurnados con
pigmento rojo.
En la cueva no se detectó presencia de humanos, pero sí los huesos de más de 190
osos, incluyendo un cráneo colocado encima de una gran roca plana. Los hallazgos
suscitaron la sugerencia de que la cueva tenía un uso más ceremonial que ocupacional, tal
vez para la invocación de los espíritus de los animales con el fin de garantizar el éxito en la
cacería.
Se han realizado más de ochenta dataciones con radiocarbono de las marcas de las
antorchas y las pinturas de las paredes, así como de los huesos de animales y el carbón del
suelo, proporcionando una cronología detallada de lo que ahora se conoce como la cueva de
Chauvet. Las dataciones muestran que las obras de arte se realizaron en dos periodos
distintos, uno hace 30.000 años y el otro hace 35.000 años, lo que las convierte en las
pinturas murales más antiguas que conocemos.[47]
Algunos paleoantropólogos pusieron en duda estas dataciones, en particular por la
sofisticación de las pinturas, y sugirieron que las muestras estaban contaminadas o que el
carbón era de un periodo posterior, pero las técnicas de datación se defendieron con vigor.
[48] Pero es posible que estas pinturas no sean las más antiguas. Un equipo italiano que
trabaja en la cueva de Fumane, cerca de Verona, ha datado fragmentos de piedra con
imágenes de un animal y uno en el que aparece una figura medio humana, medio animal,
con una antigüedad que oscila entre 32.000 y 36.500 años, aunque los fragmentos estaban
separados de la pared de la cueva.[49]
En Francia y en España se han descubierto casi 350 cuevas con arte de tiempos
prehistóricos. Las más famosas son las de Lascaux, en una cueva situada en la ladera de una
montaña de la región de la Dordogne, en el sur de Francia. Este gigantesco complejo
contiene cerca de 600 imágenes en los techos y las paredes, creadas con carbón y diversos
pigmentos minerales; algunas están grabadas en la piedra. La altura a la que Estan situadas
muchas de ellas sugiere el montaje de andamios para su elaboración, lo que implica
cooperación y, muy probablemente, lenguaje.
En común con otro arte cavernícola del oeste de Europa, las pinturas de Lascaux
representan animales salvajes de tamaño grande, como bisontes, caballos, uros y ciervos;
uno de los ejemplares ha sido clasificado como un unicornio, pero podría tratarse también
de un caballo con una lanza clavada en la cabeza. Las paredes de la cueva están además
decoradas con huellas de manos humanas, así como con dibujos abstractos, lo que se
conoce como estrías o acanalado con dedo. Dataciones recientes con radiocarbono ofrecen
un rango de fechas para las distintas imágenes que sitúa las más antiguas entre 18.900 y
18.600 años atrás.[50]
Las imágenes de humanos son muy excepcionales y cuando se encuentran, son de
figuras que combinan el humano con el animal, lo cual evidencia imaginación además de
representación; se trata posiblemente de humanos con tocados de cabezas de león, águila u
otros animales depredadores. En cualquier caso, constituyen evidencia de creencia,
probablemente en espíritus de animales cuya intercesión debían de buscar los chamanes.
Las evidencias de creencias e imaginación se ven reforzadas por el descubrimiento
de fragmentos de colmillos de mamut en la parte posterior de la cueva de Hohlestein-
Stadel, en el sudoeste de Alemania. Estos fragmentos, datados recientemente con
radiocarbono en unos 40.000 años de antigüedad, se han unido para crear la figura
espectacularmente detalla de un hombre de 30 centímetros de altura con la cabeza de un
león. En la cueva de Hohle Fels, a 40 kilómetros al sudoeste de Hohlenstein-Stadel, se
encontró la figurilla de un humano con cabeza de león creada a partir de marfil de mamut
de tamaño mucho más pequeño (2,5 centímetros de altura).
Esta región alemana ha producido muchas más figurillas con una antigüedad de
entre 30.000 y 35.000 años que se han encontrado en capas de cuevas ricas en utensilios de
piedra. Entre ellas destaca una figurilla de marfil de mamut de una mujer sin cabeza ni
piernas con pechos, nalgas y vulva exageradamente grandes. El escultor omitió
deliberadamente la cabeza para surtirla por un pequeño aro de marfil del que debía de
colgar la figurilla. Este tipo de figuritas, de menos de 10 centímetros de altura, se han
encontrado también en otros yacimientos de Europa. Algunas son de animales; muchas
representan mujeres en distintas fases de su vida fértil: jóvenes, embarazadas y dando a luz.
A pesar de que algunas van adornadas con collares de cuentas o cinturones, casi todas van
desnudas a pesar datadas en una Edad del Hielo en la que debía de ser habitual vestirse con
pieles. Muchas de las figuritas exhiben pechos y nalgas grandes, cuando debía de tratarse
de una morfología excepcional (los restos de esqueletos indican cuerpos delgados que
caminan grandes distancias, cargan bultos pesados y sufren con frecuencia desnutrición).
Los detalles se concentran más en el cuerpo desnudo que en las extremidades o la cara, que
a menudo ni siquiera se representan, lo que sugiere que tratarse de símbolos de fertilidad.
Muchas de estas figuras incluyen un orificio, por lo que se piensa que es probable que se
concibieran como talismanes para llevar colgados. En las sociedades actuales de cazadores-
recolectores, los hombres no toman parte del proceso del parto por lo que es posible que las
mujeres fueran las encargadas de tallas estas figuras.[51]
Tres de los yacimientos alemanes de datación similar han producido también los
instrumentos musicales más antiguos. Se han encontrado cuatro flautas fabricadas con
huesos de alas de cisnes y buitres, con orificios en toda su longitud situados a intervalos
regulares; la más completa fue encontrada a 70 centímetros de la figurita de mujer sin
cabeza ni extremidades.
Una demostración de incluso mayor inventiva, imaginación, creatividad y raciocinio
es una flauta fabricada con colmillo de mamut, reconstruida a partir de 31 fragmentos
hallados en la cueva de Geisenklosterlen, cerca de Ulm. En vez de fabricarla a partir del
hueso hueco de un ala de ave, su creador tuvo que partir el colmillo curvo sin estropearlo,
vaciar cada mitad, realizar tres orificios en cada parte y luego pegar las dos mitades de
marfil sin que quedaran espacios por donde se pudiera filtrar el aire.[52]
Muchos arqueólogos siguen considerando estas evidencias del Paleolítico superior
en forma de arte representativo, imaginativo y simbólico, plasmado en ornamentos
personales, esculturas, pinturas y utensilios decorados, junto con los instrumentos
musicales, como un fenómeno único de la región occidental de Europa. Tal y como Colin
Refrew, del McDonald Institute for Archaeological Research de la Universidad de
Cambridge escribió en 2008:
Es importante recordar que lo que se califica a menudo como arte rupestre —las
pinturas de las cuevas, las bellas figuritas de «Venus»— se produjo durante el Paleolítico
(es decir, en el periodo climático del Pleistoceno) y se limita a una única trayectoria de
desarrollo que localizamos en Europa occidental.[53]
Pero no es ni mucho menos así. Como ya se ha mencionado, distintos niveles de la
cueva sudafricana de Blombos, datados con una antigüedad de entre 100.000 y 75.000
años, han producido piezas de ocre tallado con símbolos. En la cueva Apolo XI, situada en
las montañas Huns, al sudoeste de Namibia, se encontraron siete losas de piedra con
pinturas datadas con una antigüedad de entre 35.500 y 23.500 años que poseen una
sofisticación comparable a la de las muestras europeas. Decorar paredes rocosas con
pinturas utilizando materiales similares sigue siendo una actividad habitual en algunas
zonas tribales actuales, aunque la exposición a las condiciones climáticas sugiere que su
longevidad es limitada.[54] En Australia se han encontrado también pinturas rupestres. En
2010, por ejemplo, se descubrió una pintura realizada con ocre rojo en la zona central de la
meseta de la Tierra de Arnhem donde aparecen representadas dos aves de aspecto similar a
un emú con el cuello estirado; se dice que esas aves debían de pertenecer al género
Genyornis, aves gigantes que se extinguieron hace más de 40.000 años.[55] Cinco grupos
de abrigos rocosos en la meseta central de India exhiben pinturas similares a muchos
ejemplos europeos. No se han aplicado las técnicas de datación más recientes, pero se cree
que tienen alrededor de 12.000 años de antigüedad; los miembros de las tribus locales de la
actualidad siguen pintando en las rocas.[56]
Estos descubrimientos dejan la impresión de que la cantidad muy superior de
muestras de arte prehistórico que se ha encontrado en Europa es consecuencia del esfuerzo
mayor que se ha consagrado a descubrirlo y analizarlo, junto con condiciones más
favorables para su conservación, que a la posibilidad de que se trate de un fenómeno único
de los humanos europeos arcaicos. Para determinar si el arte encontrado en yacimientos de
África, Asia y Australia es más antiguo, contemporáneo o posterior al europeo, se
necesitarían técnicas de datación más rigurosas.
Lenguaje
Chris Stringer y otros defendieron al principio que los Homo erectus que se
dispersaron regionalmente murieron o evolucionaron hacia especies sucesoras, como el
Homo neanderthalensis en Eurasia; solo en África, y muy probablemente en un área
pequeña y propicia como África Oriental, evolucionaron hacia Homo sapiens hace
aproximadamente 130.000 años.
Hace cuestión de 100.000 años, algunos grupos de Homo sapiens migraron hacia
Israel y Oriente Próximo y algunos llegaron a Australia hace unos 60.000 años. El rápido
desarrollo de los utensilios en la Edad de Piedra tardía y la conducta compleja del Homo
sapiens en África hace alrededor de 50.000 años, permitió que algunos pudieran migrar
hacia Europa, adonde llegaron hace 35.000 años (aunque, al parecer, el Homo erectus o su
sucesor ya había llegado a Asia y Europa un millón de años antes sin utensilios tan
avanzados y sin conductas tan complejas).
El Homo sapiens, cognitivamente más avanzado, sustituyó a las especies indígenas
de Homo, que acabaron extinguiéndose. Solo después de esta emigración relativamente
reciente desde África, y como consecuencia de la adaptación a los entornos regionales, se
fueron desarrollando las distintas características raciales.
Los defensores del modelo argumentaron que los trascendentales análisis del ADN
mitocondrial (la «Eva mitocondrial») sustentaban su hipótesis, aunque estos análisis fueron
criticados posteriormente (véase página 680).
Modelo de asimilación
Este modelo de compromiso, avanzado por Fred Smith y Erik Trinkaus, acepta las
tesis del modelo de los orígenes africanos recientes sobre el origen del Homo sapiens pero
defiende que, en vez de que los humanos modernos sustituyeran a las especies de Homo
indígenas de las distintas regiones, fueron el cruce y la selección natural local lo que llevó a
la asimilación de las especies indígenas, lo cual explicaría las características raciales del
humano moderno.
Orígenes africanos recientes con modelo de hibridación
Como resultado de los análisis genómicos antes mencionados que indicaban que se
habían producido cruces entre Homo sapiens y Homo neanderthalensis, Stringer y sus
colegas modificaron su modelo original. El genoma neandertal es más similar al del
humano asiático y europeo occidental actual que al del humano africano, lo que sugiere que
estos cruces tuvieron lugar en Oriente Próximo después de que los humanos salieran de
África, pero antes de su expansión por Europa y Asia.
Términos como «cruce» y «asimilación» podrían transmitir cierta impresión de
armonía, como sucede con las parejas interraciales contemporáneas, pero hay que recordar
que la violación lleva mucho tiempo siendo un arma de guerra. Se menciona en numerosas
ocasiones en la Biblia, por ejemplo en Zacarías 14: «Reuniré a todas las naciones para
luchar contra Jerusalén, y la ciudad será tomada, las casas saqueadas y las mujeres
violadas».
Es un recurso constante desde tiempos históricos hasta la actualidad. Un informe de
las Naciones Unidas documentó la violación sistemática de las mujeres tutsi por parte de
los hutu en la guerra genocida que libraron en 1994 por el control de Ruanda y se estimó
que el resultado habían sido entre 2.000 y 5.000 embarazos.
Modelo de revolución humana
Una mutación genética que causara un avance de conducta tan dramático en tan
poco tiempo es incompatible con lo que sabemos sobre el funcionamiento de los genes. A
pesar de que una única mutación puede llegar a ser destructiva e inhibir una conducta
existente, o incluso producir la muerte (aunque en este caso suelen necesitarse varias
mutaciones genéticas), el desarrollo de una conducta nueva o muy mejorada casi siempre
exige que muchos genes actúen en red. Vimos en la página 513, por ejemplo, que un
estudio realizado en 2010 demostró que la inteligencia humana está controlada por una red
de miles de genes y no por unos pocos genes potentes, como se creía anteriormente.
Si el cambio genético fuera la única o la principal causa de una revolución
relativamente repentina de la conducta que quedara reflejada en un aumento relativamente
repentino de la consciencia —en este caso, hasta el punto de la consciencia reflexiva—, lo
más probable que este cambio estuviera causado no por una mutación genética sino por un
cambio genómico importante que implicaría muchos genes y mecanismos reguladores,
como sucede con los resultantes de la hibridación o de la duplicación del genoma.[59]
Cambio climático en África Oriental
Durante muchas décadas, la explicación ortodoxa fue que los humanos emergieron
en África Oriental porque el cambio climático dio como resultado la conversión de la selva
en sabana al este del valle del Rift, recién creado como consecuencia de movimientos
tectónicos. La bipedestación fue seleccionada porque suponía una ventaja adaptativa con
respecto a caminar apoyándose en los nudillos, como el chimpancé y el gorila: permitía a
los humanos desplazarse de un modo más eficiente durante las grandes distancias que
tenían que recorrer por las praderas en busca de sustento, y/o les permitía divisar presas y
depredadores desde mayores distancias, y/o exponía menos el cuerpo al calor del sol —del
que habían dejado de estar protegidos al desaparecer la densa vegetación de la selva—, y/o
les liberaba las manos para poder emplear utensilios.[60]
Al principio del capítulo he hecho la observación de que la bipedestación no es
exclusiva de los humanos. Además, quitándole autoridad a la explicación de la sabana, hay
que decir que el Ardipithecus ramidus vivió en un entorno mixto de bosques y selva y se
supone que era bípedo, mientras que, por otro lado, se ha observado al chimpancé
utilizando y construyendo incluso utensilios muy simples. Además, las antropólogas Sally
McBrearty y Nina Jablonski comunicaron en 2005 el descubrimiento en Kenia de un fósil
de chimpancé de 545.000 años de antigüedad[61], contradiciendo la postura de que los
homininos fueron los únicos que migraron y sobrevivieron en la sabana del este del valle
del Rift[62] (aunque, lógicamente, ese chimpancé podría no haber sobrevivido en aquellas
condiciones).
Cambios climáticos globales
1. La única característica que distingue a los humanos de todas las demás especies
es la consciencia reflexiva.
2. Su aparición puede rastrearse a partir del aumento de consciencia en los primates
hasta que llega un punto en que la consciencia se vuelve consciente de sí misma. Los signos
de los primeros destellos de esta consciencia reflexiva se encuentran en las indiscutibles
evidencias que muestran que facultades ya poseídas por los primates se transforman
radicalmente y en las nuevas facultades secundarias que dicha consciencia reflexiva genera.
3. La escasez de evidencias, sin embargo, hace imposible seguir la pista del linaje
que va desde los primates hasta el humano moderno. La escasez de evidencias hace
también imposible elegir entre las distintas hipótesis que pretenden explicar dónde y cómo
se produjo este proceso. Y por lo que al «cuándo» se refiere, las evidencias disponibles son
compatibles hasta cierto punto tanto con el modelo de la revolución humana como con el
modelo gradualista. La consciencia reflexiva no surgió de repente de la nada. La
consciencia emergió de forma gradual en distintos homininos hace aproximadamente 2,5
millones de años; aunque el ritmo de cambio aumentó, y siguió aumentando, en los últimos
250.000 años, cuando los distintos indicios de consciencia reflexiva aparecen con relativa
rapidez en distintos lugares, hasta llegar al momento en que encontramos todos estos
indicios en la Edad de Piedra tardía en África y en el Paleolítico superior en distintos
continentes, hace entre 40.000 y 10.000 años
4. La misma escasez de evidencias hace imposible identificar la causa o causas
concretas de la emergencia del hombre. Posiblemente, la causa básica fue el instinto de
supervivencia ante los depredadores y la necesidad de encontrar sustento en un entorno
fluctuante, consecuencia de un clima fluctuante, todo lo cual llevó al reconocimiento de que
las necesidades quedaban mejor cubiertas con cooperación que con competencia. Es posible
que la hibridación o la duplicación del genoma jugaran también algún tipo de papel en el
cambio evolutivo.
5. En términos generales, parece que nos encontramos ante un caso de
emergencia[65] de sistemas en el que la interacción de facultades en un nivel de
complejidad inferior —como la comprensión, la inventiva, el aprendizaje y la
comunicación— genera una facultad novedosa en un nivel de complejidad superior —en
este caso, la consciencia reflexiva— y esa facultad de nivel superior interactúa causalmente
con las facultades de nivel inferior para transformarlas y generar facultades nuevas —como
la imaginación, el lenguaje, la abstracción y las creencias.
6. Igual que sucede con la aparición de la materia y la aparición de la vida, la
escasez inherente de evidencias hace que sea prácticamente seguro que la ciencia nunca
conseguirá identificar cuándo, cómo y por qué aparecieron los humanos. Pero esto no
implica que haya que negar, ni mucho menos, la emergencia del hombre. Para ampliar la
analogía utilizada en la segunda parte, diremos que la consciencia reflexiva es como una
flor que crece a partir de la semilla de la consciencia. En algunos ambientes, la semilla
nunca llega a dar una flor. En otros, da lugar a un brote, que produce un capullo que se
acaba marchitando. En otros, ese capullo acaba abriéndose en una flor. Un capullo no es
una flor, pero es imposible decir en qué momento concreto el capullo se transforma en flor.
[66]
[1] Véase página 630.
[2]Stringer (2011), p. 28.
[3]Morris (1986).
[4] Véase página 504.
[5]Green, Richard E., et al., «A Draft Sequence of the Neandertal Genome»,
Science, 328: 5979, 2010, pp. 710–722.
[6]Jorde, Lynn B. y Wooding, Stephen P., «Genetic Variation, Classification and
“Race”» Nat Genetics, 36, 2004, pp. 528–533.
[7] Véase página 518.
[8]Derricourt, Robin, «Getting “out of Africa”: Sea Crossings, Land Crossings and
Culture in the Hominin Migrations», Journal of World Prehistory, 19: 2, 2005, pp. 119–
132.
[9] Véase página 457.
[10] Véase página 630.
[11]Stoneking, Mark, «Human Origins», EMBO Reports, 9: S1, 2008, S46–S50.
[12] Véase página 281 para una descripción más detallada de esta técnica.
[13]Stringer (2011), pp. 33–44.
[14]Cann, R. L., et al., «Mitochondrial DNA and Human Evolution», Nature,
325:6099, 1987, pp. 31–36.
[15]Stringer (2011), pp. 23–24.
[16]Cruciani, Fulvio, et al., «A Revised Root for the Human Y Chromosomal.
Phylogenetic Tree: The Origin of Patrilineal Diversity in Africa», The American Journal of
Human Genetics, 88: 6, 2011, pp. 814–818.
[17]Underhill, P A, et al., «The Phylogeography of Y Chromosome Binary
Haplotypes and the Origins of Modern Human Populations», Annals of Human Genetics,
65: 1, 2001, pp. 43–62.
[18]http://web.archive.org/web/20070706095314/http://www.janegoodall.com/chimp_centr
al/default.asp, consultado el 8 de diciembre de 2011.
[19]«Bonobo», The Columbia Electronic Encyclopedia, 6ª ed., Columbia University
Press, 2011. Consultado el 8 de diciembre de 2011;
http://www.britannica.com/EBchecked/topic/73224/bonobo, consultado el 16 de enero de
2012.
[20]Brunet, Michel, et al., «New Material of the Earliest Hominid from the Upper
Miocene of Chad», Nature, 434: 7034, 2005, pp. 752–755; Zollikofer, Christoph P. E., et
al., «Virtual Cranial Reconstruction of Sahelanthropus Tchadensis», Nature, 434: 7034,
2005, pp. 755–759.
[21]Henke, et al., (2007).
[22]White, T. D., «Human Origins and Evolution: Cold Spring Harbor, Deja Vu»,
Cold Spring Harbor Symposia on Quantitative Biology, 2009; Lovejoy, C. Owen,
«Reexamining Human Origins in Light of Ardipithecus Ramidus», Science, 326: 5949, 74,
2009, pp. 74e1–74e8.
[23]Pickering, Robyn, et al., «Australopithecus Sediba at 1.977 Ma and
Implications for the Origins of the Genus Homo», Science, 333: 6048, 2011, pp.1421–1423.
[24]Spoor, Fred, «Palaeoanthropology: Malapa and the Genus Homo», Nature, 478:
7367, 2011, pp. 44–45.
[25]Leakey, Meave G., et al., «New Fossils from Koobi Fora in Northern Kenya
Confirm Taxonomic Diversity in Early Homo», Nature, 488: 7410, 2012, pp. 201–204.
[26]Reich, David, et al., «Genetic History of an Archaic Hominin Group from
Denisova Cave in Siberia», Nature, 468: 7327, 2010, pp. 1053–1060.
[27]Green, Richard E., et al., «A Draft Sequence of the Neandertal Genome»,
Science, 328: 5979, 2010, pp. 710–722.
[28]«Mousterian», The Concise Oxford Dictionary of Archaeology, Oxford
University Press, 2003.
[29]Zilhao, Joao, et al., «Symbolic Use of Marine Shells and Mineral Pigments by
Iberian Neandertals», Proceedings of the National Academy of Sciences, 107: 3, 2010, pp.
1023–1028.
[30]Brown, P., et al., «A New Small-Bodied Hominin from the Late Pleistocene of
Flores, Indonesia», Nature, 431: 7012, 2004, pp. 1055–1061.
[31]Brown, P. y Maeda, T., «Liang Bua Homo Floresiensis Mandibles and
Mandibular Teeth: A Contribution to the Comparative Morphology of a New Hominin
Species», Journal of Human Evolution, 57: 3, 2009, pp. 571–596.
[32]Reich, David, et al., «Genetic History of an Archaic Hominin Group from
Denisova Cave in Siberia», Nature, 468: 7327, 2010, pp.1053–1060.
[33]White, Tim D., et al., «Pleistocene Homo Sapiens from Middle Awash,
Ethiopia», Nature, 423: 6941, 2003, pp. 742–747.
[34]Fleagle, John G., et al.,«Paleoanthropology of the Kibish Formation, Southern
Ethiopia: Introduction», Journal of Human Evolution, 55: 3, 2008, pp. 360–365.
[35]«Paleolithic», McGraw-Hill Encyclopedia of Science and Technology, 2005.
[36]Bahn, Paul Gerard, «Stone Age», Microsoft Encarta Online Encyclopedia,
2005, http://uk.encarta.msn.com/.
[37]Stringer (2011), pp. 125–126.
[38]Brown, Kyle S., et al, «Fire as an Engineering Tool of Early Modern Humans»,
Science, 325: 5942, 2009, pp. 859–862.
[39]James, Steven R., «Hominid Use of Fire in the Lower and Middle Pleistocene»,
Current Anthropology, 30: 1, 1989, pp. 1–26.
[40]http://www.wits.ac.za/academic/research/ihe/archaeology/blombos/7106/blomboscave.
htm, consultado el 1 de febrero de 2012.
[41]Botha y Knight (2009); Henshilwood, Christopher S., et al., «Emergence of
Modern Human Behavior: Middle Stone Age Engravings from South Africa», Science, 295:
5558, 2002, pp. 1278–1280; d’Errico, Francesco, et al., «Additional Evidence on the Use of
Personal Ornaments in the Middle Paleolithic of North Africa», Proceedings of the
National Academy of Sciences, 106: 38, 2009, pp. 16051–16056.
[42]d’Erico et al., (2009).
[43]Roberts, Richard G, et al., «The Human Colonisation of Australia: Optical
Dates of 53,000 and 60,000 Years Bracket Human Arrival at Deaf Adder Gorge, Northern
Territory», Quaternary Science Reviews, 13: 5, 1994, pp. 575–583.
[44]Bahn (2005).
[45]Stringer (2011,) p. 126.
[46]Bowler, James M., et al., «New Ages for Human Occupation and Climatic
Change at Lake Mungo, Australia», Nature, 421: 6925, 2003, pp. 837–840.
[47]Zorich, Zach, «A Chauvet Primer», Archaeology, 64, 2011, p. 2.
[48]Balter, Michael, «Going Deeper into the Grotte Chauvet», Science, 321: 5891,
2008, pp. 904–905.
[49]Balter, Michael, «Paintings in Italian Cave May Be Oldest Yet», Science, 290:
5491, 2000, pp. 419–421.
[50]http://www.lascaux.culture.fr/#/en/04_00.xml, consultado el 1 de febrero de
2012.
[51]Muchas de estas esculturas fueron exhibidas en la exposición del Museo
Británico que llevó por título «Ice Age Art: Arrival of the Modern Mind», visitada el 17 de
mayo de 2013. Véase también Cook (2013) y Conard, Nicholas J., «A Female Figurine
from the Basal Aurignacian of Hohle Fels Cave in Southwestern Germany», Nature, 459:
7244, 2009, pp. 248–252.
[52]Schneider, Achim, «Ice-Age Musicians Fashioned Ivory Flute», Nature News,
2004. http://www.nature.com/news/2004/041217/full/news041213-14.html, consultado el
18 de enero de 2012; Stringer (2011), pp. 119–120.
[53]Renfrew, Colin, et al., «Introduction. The Sapient Mind: Archaeology Meets
Neuroscience», Philosophical Transactions of the Royal Society B: Biological Sciences,
363: 1499, 2008, pp. 1935–1938.
[54]Departmento de Arte de África, Oceanía y América, The Metropolitan Museum
of Art, 2000, http://www.metmuseum.org/toah/hd/apol/hd_apol.htm, consultado el 15 de
diciembre de 2011.
[55]http://www.abc.net.au/news/2010-05-31/megafauna-cave-painting-could-be-
40000-years-old/847564, consultado el 15 de diciembre de 2011.
[56]http://whc.unesco.org/en/list/925/, consultado el 15 de diciembre de 2011.
[57]Enard, Wolfgang, et al., «Molecular Evolution of FOXP2, a Gene Involved in
Speech and Language», Nature 418: 6900, 2002, pp. 869–872.
[58]Shu, Weiguo, et al., «FOXP2 and FOXP1 Cooperatively Regulate Lung and
Esophagus Development», Development, 134: 10, 2007, pp. 1991–2000.
[59] Véase página 660.
[60]Las fuentes son Stringer (2011); d’Errico, Francesco y Stringer, Chris B.
«Evolution, Revolution or Saltation Scenario for the Emergence of Modern Cultures?»,
Philosophical Transactions of the Royal Society B: Biological Sciences, 366: 1567, 2011,
pp. 1060–1069; Renfrew, Colin, et al., (2008); Green, Richard E, et al. (2010); Klein,
Richard G., et al., «The Ysterfontein 1 Middle Stone Age Site, South Africa, and Early
Human Exploitation of Coastal Resources», Proceedings of the National Academy of
Sciences of the United States of America 101: 16, 2004, pp. 5708–5715; McBrearty, Sally y
Brooks, Alison S., «The Revolution That Wasn’t: A New Interpretation of the Origin of
Modern Human Behavior», Journal of Human Evolution, 39: 5, 2000, pp. 453–563; Tuttle
(2014).
[61] El fósil consiste en tres piezas dentales que según McBrearty son similares a
los incisivos del chimpancé y poseen, como en los chimpancés, una capa fina de esmalte
dental.
[62]McBrearty, Sally y Jablonski, Nina G., «First Fossil Chimpanzee», Nature, 437:
7055, 2005, pp. 105–108.
[63] Véase página 310 y siguientes para los factores planetarios que influyen el
clima.
[64]Maslin, Mark, et al., «A Changing Climate for Human Evolution», Geotimes,
septiembre de 2005, http://www.geotimes.org/sept05/feature_humanclimateevolution.html,
consultado el 17 de junio de 2014.
[65] Véase el Glosario para la definición de «emergencia» y sus tres tipos
principales.
[66]www.smithsonianmag.com/arts-culture/Q-and-A-Rick-Potts.html, consultado el
31 de enero de 2012.
CAPÍTULO 27. LA EVOLUCIÓN HUMANA 1: El PENSAMIENTO
PRIMITIVO
Físicamente
El registro visible del lenguaje sobre materiales como la piedra, la arcilla o el papel
es exclusivo de la especie humana. Permite la transmisión de ideas a grandes distancias de
espacio y tiempo. Sin este avance, las sociedades complejas y grandes no se habrían
desarrollado jamás.
La disposición de letras o símbolos en grupos o secuencias para expresar
significados complejos previamente definidos y comprendidos evolucionó desde las
representaciones pictóricas a las representaciones simbólicas de las cosas. Se desarrolló de
manera independiente en al menos tres lugares distintos en momentos distintos,[25]
normalmente para anotar las cantidades de productos agrícolas o artefactos comerciados o
tomadas a modo de impuestos o tributos para un gobernante, o para promulgar leyes, dejar
constancia de historias de veneración de dioses y gobernantes o anotar instrucciones para
celebrar rituales.
Como se ha comentado en el capítulo 26, la mayoría de lingüistas considera que el
primer sistema de escritura fueron los pictogramas cuneiformes sumerios, grabados en
tablillas de arcilla a partir de 3000 a. C., y los jeroglíficos egipcios, grabados en piedra a
partir aproximadamente de la misma época. Es discutible si la escritura egipcia se
desarrolló de forma independiente o bajo la influencia de la escritura sumeria.
Los escribas cretenses utilizaron una escritura jeroglífica indígena sobre tablillas de
arcilla a partir de 2200 a. C. Entre 1900-1800 a. C., esta escritura se desarrolló en lo que se
conoce como Lineal A, cuyo contenido sigue sin poder descifrarse y que presumiblemente
transcribía el lenguaje minoico. El Lineal B aparece en el Peloponeso a partir de 1500 a. C.,
así como en los palacios cretenses; se utilizó para escribir en griego micénico y es varios
siglos anterior al alfabeto griego clásico.
En Harappa, en el valle del Indo, se descubrieron inscripciones de tipo jeroglífico en
sellos rectangulares hechos con piedra blanca y también en utensilios, tablillas, platos de
cobre y cerámica; su datación se sitúa hacia 2500 a. C., pero sigue sin descifrarse si se trata
de una proto-escritura o de escritura. El sanscrito, el idioma clásico de India, tiene sus
raíces en el sanscrito védico, idioma en el cual están escritos los himnos a los dioses más
antiguos, pero los eruditos occidentales e indios no se ponen de acuerdo en cuanto a si ese
lenguaje se desarrolló a partir de idiomas locales o fue importando a India por los arios que
invadieron el territorio procedentes de lo que ahora es Irán. De todos modos, la hipótesis de
la invasión aria tiene escasa base a nivel de evidencias, por lo que el origen del sanscrito
sigue sin estar claro.
En China, la escritura se inventó de forma independiente y las primeras evidencias
descubiertas hasta la fecha consisten en inscripciones en los lomos del ganado y en
caparazones de tortuga utilizados en rituales de adivinación y que datan de 1250 a. C.,
cuando la dinastía Shang ostentaba el poder. La escritura china que se desarrolló
posteriormente no emplea un alfabeto con un número limitado de caracteres, como los
idiomas occidentales, sino que cada carácter representa normalmente una silaba del chino
hablado y puede ser tanto una palabra como parte de una palabra de múltiples silabas, lo
que da como resultado más de 5.000 caracteres.
La escritura se desarrolló de forma independiente en América Central. Una losa de
piedra descubierta en el estado mexicano de Veracruz y datada hacia 900 a. C. ha sido
declarada la muestra de escritura más antigua del continente por el patrón secuencial de los
62 signos que tiene grabados. A pesar de que sigue todavía sin descifrarse, ha sido atribuida
a los olmecas.[26] El lenguaje escrito antiguo mejor entendido de la región es el maya del
periodo clásico (entre 200 y 900 d. C.), calificado a menudo de escritura jeroglífica. Se ha
encontrado grabado en madera y piedra, pintado en cerámica y muros y escrito en unos
pergaminos hechos con corteza de árbol que se conocen como códices. Estos últimos
fueron quemados, en su mayoría, por orden de Diego de Landa, el cura franciscano
responsable de convertir a los mayas al catolicismo, aunque algunos ejemplares se salvaron.
El más extenso es el Códice de Dresde, que recibe su nombre por la biblioteca donde se
conserva, datado hacia los siglos xi o xii de nuestra era, que se considera una copia de un
texto original escrito entre 300 y 400 años antes.[27]
Los cimientos de la astronomía y las matemáticas
1. Durante la mayor parte del tiempo transcurrido desde que emergió del hominino,
hace aproximadamente 25.000 años, el humano moderno ha vivido como cazador-
recolector y ha vivido en pequeños grupos integrados por la familia extendida en los que la
competencia por la supervivencia con otros grupos similares y con los depredadores dio
como resultado una tasa de mortalidad elevada.
2. Los primeros destellos de consciencia reflexiva evolucionaron muy lentamente
hasta hace aproximadamente 10.000 años, momento en el cual los humanos inventaron la
agricultura como un método de sustento más efectivo que la caza y la recolección y
comprendieron los beneficios de la cooperación, lo que los llevó a establecerse en poblados
agrícolas más grandes. Este avance se produjo en distintos lugares y en distintos momentos,
y en algunos lugares no ha llegado a producirse nunca.
3. Con más oportunidades para reflexionar y transmitir ideas a través del dibujo, el
habla y la escritura, los humanos de estas comunidades agrícolas cooperaron para inventar
tecnologías que ayudaron a mejorar y ampliar el tamaño de sus tierras de cultivo, y
empezaron a cooperar con otros asentamientos para comerciar tanto bienes como ideas, lo
que permitió el crecimiento de los poblados tanto en tamaño como en complejidad.
4. A pesar de que la cooperación había empezado a evolucionar, chocaba
constantemente con el instinto de competencia arraigado durante millones de años de
antepasados pre-humanos; como consecuencia de ello, abundaron las luchas por el control
de los poblados y sus recursos, tanto dentro de los asentamientos como con otros poblados.
El resultado fue la centralización y la colaboración forzada.
5. A medida que los asentamientos crecieron, fueron desarrollando una jerarquía
social que reflejaba las distintas habilidades transmitidas de padres a hijos: gobernantes,
sacerdotes, guerreros, comerciantes y artesanos, campesinos y esclavos. Los poblados
dieron lugar a ciudades gobernadas autocráticamente, luego a ciudades-estado y finalmente
a imperios, que vivieron épocas de esplendor y de caída. El patrón general en todo el
planeta fue de un incremento de tamaño, complejidad y centralización de las sociedades
humanas.
6. La evolución del pensamiento primitivo estuvo íntimamente relacionada con la
evolución de creencias supersticiosas surgidas de la imaginación, combinadas con la falta
de comprensión de los fenómenos naturales y el miedo a lo desconocido. A partir del
animismo, el totemismo y el culto a los antepasados de los cazadores-recolectores, las
creencias dieron paso a religiones[50] organizadas que fueron un reflejo del crecimiento en
tamaño, complejidad, estructura y especialización de las sociedades humanas. Las
religiones evolucionaron a partir del culto a una diosa de la fertilidad, pasaron por el
politeísmo y por los panteones gobernados por un poderoso dios del cielo y de la guerra,
hasta llegar al monoteísmo patriarcal, donde todos los dioses quedan sometidos a un Dios
único o degradados a la categoría de ángeles.
7. Al aplicar la consciencia reflexiva a la concepción de tecnologías para la
supervivencia y la reproducción, así como destinadas a influir a las fuerzas naturales que
supuestamente determinaban estos factores, el pensamiento primitivo sentó las bases del
arte, la música el lenguaje hablado y escrito, las matemáticas y la astronomía.
8. A pesar de que muchas ideas e invenciones se difundieron y desarrollaron
mediante transmisión cultural, existen casos evidentes de evolución convergente o paralela,
ejemplificados por la evolución independiente de la escritura y la evolución independiente
de la astronomía y los sistemas numéricos.
9. Esta primera fase de la evolución humana, el pensamiento primitivo, se
caracteriza, pues, por la necesidad de sobrevivir y reproducirse, por el dominio de un
instinto competitivo profundamente arraigado sobre la recién surgida cooperación, y por la
superstición.
La figura 27.1 ofrece una representación simplificada de la evolución de algunas de
las principales ramas del pensamiento primitivo que siguió a la emergencia de la
consciencia reflexiva. No se trata de un diagrama de árbol convencional, como podría ser
un árbol genealógico con relaciones fijas, sino de una imagen bidimensional de un proceso
dinámico de cuatro dimensiones en el que las ramas y las sub-ramas no solo cambian con el
tiempo —desarrollándose, ramificándose más aún o marchitándose, quedándose en un
estado moribundo o muriendo—, sino que además interactúan con otras ramas para
hibridarse, mutar o generar una rama nueva.
Solo hay una cosa que un filósofo a buen seguro hará bien: contradecir a otros
filósofos.
India[19]
Sócrates
En términos generales, Sócrates (469-399 a. C.) está considerado como el primero
de los tres grandes pensadores que conformaron la evolución de la filosofía occidental. No
escribió nada y lo que ha llegado hasta nosotros de sus ideas es a partir de cuatro fuentes. El
dramaturgo Aristófanes fue el único que escribió sobre Sócrates estando el filósofo con
vida y lo hizo para desacreditarlo. Jenofonte, alumno de Sócrates, se hizo historiador
después de seguir la carrera militar, pero carecía del alcance intelectual necesario como
para servirnos como guía fiable hacia la filosofía de Sócrates. Aristóteles, nacido quince
años después del fallecimiento de Sócrates, conoció las ideas de Sócrates indirectamente a
través de Platón. La fuente más extensa es Platón, un discípulo que idolatró a Sócrates hasta
el punto de que le atribuía a su maestro todo lo que consideraba sabiduría, y lo que Platón
consideraba sabiduría cambió mucho en el transcurso de cuarenta años.
Sabemos de Sócrates que era un ateniense de ascendencia noble que prescindió de
las riquezas para consagrarse al pensamiento, que empleaba un tipo especial de
razonamiento y que murió por sus creencias. A diferencia de la mayoría de sus predecesores
griegos, no le preocupaba la realidad suprema o la materia básica que componía el
universo. Sócrates se centró en la ética: en cómo debería comportarse el hombre y por qué.
Su método consistía en interrogar las creencias de los demás, en exponer las debilidades de
esos argumentos y en buscar a través de este sistema la verdad.
Presentados de esta manera, Sócrates y Buda, que vivieron aproximadamente en la
misma época, no podían ser más distintos. Sócrates proclamaba que toda su vida había sido
una búsqueda infructuosa de la sabiduría mientras que Buda reivindicaba ser un hombre
iluminado. Sócrates empleaba el razonamiento dialectico, mientras que Buda daba forma a
sus ideas a través de la meditación.
Sin embargo, una investigación más profunda revela similitudes sorprendentes,
además del foco que ambos ponen en la ética. Según Platón, Sócrates, durante su servicio
militar
empezó a pelearse con algún problema justo al amanecer y se quedó allí en pie,
perdido en sus pensamientos, y cuando le llegó la respuesta siguió todavía allí, pensativo
[…]. Y por fin, cuando cayó la noche, después de cenar, los jonios le trajeron la ropa de
cama […] en parte para ver si pensaba quedarse allí toda la noche. Y allí se quedó, hasta la
mañana, y en cuanto amaneció, dirigió sus oraciones al sol y se marchó.[24]
Si sustituimos sentarse por quedarse en pie y le añadimos una higuera, tendremos
que esta descripción es comparable a la meditación de Siddhartha Gautama.
Sócrates consideraba que nuestra conducta no tendría que estar determinada por la
esperanza de una recompensa celestial o el miedo a un castigo en la otra vida, sino por lo
que nos aporte felicidad ahora. Y no le parecía una postura egoísta porque defendía que la
única manera de alcanzar la felicidad es actuando con justicia y comportándose
virtuosamente con todo el mundo, incluyendo —y en eso contradecía la tradición griega—
tanto los enemigos como los amigos. Su receta es similar a la del Noble camino óctuple del
Buda, y su descripción de la felicidad es un estado de serenidad como el que el Buda
garantizaba a aquellos que seguían su camino.
Platón
El segundo gran pensador fue Platón (circa 429-374 a. C.), un noble ateniense que
abandonó su ciudad después de que su maestro y amigo, Sócrates, fuera condenado y
sentenciado a muerte por un jurado integrado por quinientos ciudadanos por haberse
negado a reconocer los dioses oficiales. Ese hecho confirmó en Platón una profunda
desconfianza en la democracia, a la que después sumó una profunda desconfianza en los
tiranos (el tirano era por aquel entonces aquel que se hacía con el poder, a veces liderando
una revuelta popular contra un gobierno aristocrático o plutocrático, y gobernaba con
autoridad absoluta aunque no necesariamente cruel u opresiva).
Viajó entonces durante doce años y, entre otros lugares, realizó estancias en las
ciudades griegas del sur de Italia, donde recibió la influencia de los pitagóricos, y en la
ciudad griega de Siracusa, en Sicilia, donde coincidió con el tirano Dionisio I.
Llegó a la conclusión de que solo los filósofos deberían ser gobernantes, o los
gobernantes convertirse en filósofos, porque solo los filósofos poseían la sabiduría y los
conocimientos necesarios para actuar con justicia. A su regreso a Atenas, fundó una
academia para educar a los hijos de los nobles en la indagación filosófica. Su obra escrita
suele dividirse en tres fases, aunque tanto la datación como la autenticidad de algunos
textos son cuestionables.
Su conjetura más influyente es su concepto de las Formas. Una Forma es una idea
trascendental y eterna que nuestros sentidos perciben, aunque solo a través de ejemplos
imperfectos y temporales. Por ejemplo, un plato circular es tan solo un ejemplar imperfecto
y provisional del Círculo ideal que existe por encima y aparte del mundo material. De un
modo similar, la Sabiduría, la Justicia y la Bondad son las Formas de cualidades que en el
mundo solo encontramos de manera imperfecta pero a las que deberíamos aspirar.
Aristóteles
Los antiguos pensadores griegos eran supuestamente eruditos. Si tenemos que creer
las fuentes secundarias y terciarias, el tercer gran filósofo griego, Aristóteles (384-322 a.
C.), los supera a todos en cuanto a alcance y volumen de su obra. Pero solo nos ha llegado
entre una cuarta y una quinta parte de su trabajo, y debemos tener presente que nunca
escribió nada pensando en publicarlo. Lo que ha sobrevivido son notas que preparaba para
sus conferencias y discusiones, apuntes de sus alumnos y notas de investigación, todo lo
cual fue después editado y compilado en libros por sus alumnos, en especial por Eudemo y
Teofrasto, del Liceo, la academia de Atenas donde Aristóteles impartió sus enseñanzas
durante doce años.
La versión que nos ha llegado de su obra fue editada por Andrónico de Rodas en el
siglo i a. C. Fue descubierta en el siglo viii por eruditos musulmanes que la tradujeron al
árabe y al sirio, después de lo cual diversos filósofos musulmanes, entre los que destaca
Averroes, en el siglo xii, escribieron sus comentarios. Las traducciones del árabe y el sirio
al latín empezaron a aparecer en Occidente a finales del siglo xii.
El cuerpo de la obra incluye retórica, lógica, ética, teoría política, teoría literaria,
metafísica, teología y lo que ahora clasificamos como ciencias de la biología, anatomía,
física, astronomía y cosmología. Antiguo alumno de Platón y elogiado en Occidente como
«El filósofo», a Aristóteles se le atribuye la invención de la ciencia y el método científico.
Y puesto que el objetivo de nuestro viaje es descubrir lo que la ciencia puede explicarnos
sobre la evolución humana desde el nacimiento del universo, me centraré en este aspecto
concreto de la obra de Aristóteles.
Su método científico deriva de un sistema de lógica que formalizó el razonamiento
deductivo y de su búsqueda de la causa de las cosas y su esencia, o forma. A diferencia de
la Forma trascendental de Platón, la forma de Aristóteles es intrínseca de cada cosa.
Clasificó las cosas en una escala de perfección que queda expresada en su forma,
que se deduce a partir de la organización interna de lo que denominó psyche, o alma. Las
plantas son la forma de vida inferior y poseen un alma vegetativa responsable de su
reproducción y crecimiento, los animales tienen un alma vegetativa más un alma sensitiva
responsable de la movilidad y las sensaciones, y los humanos poseen un alma vegetativa,
un alma sensitiva y un alma racional, con capacidad de pensamiento y reflexión.
Aristóteles aplicó su método con éxito a la fisiología y la conducta de alrededor de
540 ejemplares zoológicos basándose tanto en sus propias disecciones y observaciones
como en los informes de estudios realizados por otros. A pesar de que cometió varios
errores, una gran parte de su explicación sobre el corazón y el sistema circulatorio, por
ejemplo, no fue superada hasta el siglo xvii.
Dividió a los animales en animales con sangre y sin sangre (o, al menos, sin sangre
roja), con cierta correspondencia con la distinción moderna entre vertebrados e
invertebrados, y agrupó luego las especies con formas comunes en un género. Su
clasificación no quedó superada hasta la de Lineo, en el siglo xviii.
Sin embargo, en sus restantes investigaciones sobre la naturaleza, Aristóteles dejó
de lado el empirismo. En anatomía llegó a la conclusión de que los hombres tenían más
dientes que las mujeres. En física razonó que los cuerpos caían hacia la Tierra con una
velocidad proporcional a su masa, una conclusión que Filópono, en el siglo vi d. C.,
desaprobó mediante un sencillo experimento. Aristóteles no dio la talla en este sentido. Su
trabajo puede describirse más como filosofía natural que como ciencia, tal y como la
entendemos actualmente y queda definida en el capítulo 1.
En cosmología llega a la conclusión de que la luna, el sol y las constelaciones están
incrustadas en una serie de esferas cristalinas perfectas y concéntricas que giran
eternamente a distintas velocidades alrededor de la Tierra. Y de ahí pasa a la metafísica.
Todo tiene una causa. En un libro, Aristóteles razona que esas esferas están conectadas de
tal modo que el movimiento de la esfera más interior y próxima a la Tierra está causado por
el movimiento de la esfera adyacente, cuyo movimiento está a su vez causado por el
movimiento de la siguiente esfera, y así sucesivamente. Pero la cadena de causalidad tiene
que detenerse en algún punto. ¿Qué es lo que provoca el movimiento de la esfera más
exterior? El primer motor inmóvil, o motor primario. Aristóteles razonó que esta primera
causa sin causa tenía que ser sencilla, inmutable, perfecta, eterna y sin tamaño ni forma
física; constituida única y exclusivamente por contemplación intelectual, el ejercicio de la
razón más puro posible: es divino.
A diferencia de prácticamente todos sus predecesores en el mundo griego y otros
orígenes, Aristóteles no muestra indicios de haber tenido una revelación.
Filosofía helenística
La muerte de Aristóteles un año después de que falleciera su antiguo alumno,
Alejandro Magno, marca convencionalmente el fin de la fase helénica (griega) del
pensamiento filosófico y el inicio de la fase helenística (greciana). El imperio de Alejandro
se fragmentó y sus gobernadores intentaron hacerse con el poder en sus respectivas
regiones para crear monarquías independientes. Se desarrollaron centros intelectuales que
rivalizaron con Atenas, entre los que destaca Alejandría en Egipto, Antioquia en Siria,
Pérgamo en Asia Menor y, posteriormente, la isla egea de Rodas.
El Liceo de Aristóteles continuó su existencia en Atenas, pero cayó en el declive a
partir de mediados del siglo iii a. C. En este periodo surgieron tres escuelas de pensamiento
destacadas. Los epicúreos, los estoicos y los escépticos, que coincidían en que la filosofía
tenía que ser práctica y que su objetivo era alcanzar la ataraxia, un estado de tranquilidad.
Lo que sugiere que estaban más influidos por Sócrates que por Aristóteles.
Epicuro (341-271 a. C.) siguió la metafísica atomística de Leucipo y Demócrito y
argumentó que, puesto que la mente no era más que un conjunto de átomos que se
dispersaría cuando la vida abandonara el cuerpo, el miedo a la muerte carecía de sentido y
había que buscar el placer en esta vida. Sus detractores, y posteriormente los cristianos, le
dieron efectivamente la vuelta al concepto describiéndolo como una indulgencia excesiva
en manjares y sexo. Sin embargo, el placer para Epicuro era «la libertad del dolor del
cuerpo y el tumulto del alma», y por lo que parece llevó una vida abstemia durante la cual
cultivó las amistades y mostró generosidad con sus esclavos.
Los estoicos, una escuela de pensamiento fundada por Zenón de Citio a principios
del siglo iii a. C., creía que la ataraxia se alcanzaba cuando el hombre vivía en consonancia
con la naturaleza. De ahí que preguntaran a la naturaleza y llegaran a la conclusión de que
todo está determinado por el destino; en consecuencia, que proporcionaba la tranquilidad
era una actitud de aceptación del destino.
Los escépticos sostenían no conocemos con seguridad la naturaleza de las cosas, lo
cual demostraban formulando cualquier pregunta en dos sentidos; por lo tanto, la paz
mental se conseguía con la suspensión del juicio sobre las cosas.
Filosofía grecorromana
Todas estas corrientes de pensamiento siguieron evolucionando durante el ascenso
del imperio romano, en el cual los romanos adoptaron y desarrollaron el pensamiento
griego. El aristotelismo revivió durante esta época, aunque sus seguidores se concentraron
en conservar y comentar las obras de Aristóteles más que en realizar algún avance a partir
de ellas, y la escuela acabó muriendo en el siglo iii d. C.
Pero no se consiguió transformar la filosofía en una forma de pensar puramente
racional. En el siglo ii, por ejemplo, Marco Aurelio, emperador romano de pensamiento
estoico, aconsejaba retraerse en uno mismo, y ese uno mismo en el que el hombre tenía que
retraerse era «como la inteligencia universal que permea y organiza el mundo; de hecho,
forma parte de esa inteligencia».[25] Es un argumento similar a la revelación central de los
Upanishads: no solo todo es Brahmán, sino que el Yo también es Brahmán.
Podemos decir que el principal pensador de esta fase fue Plotino (circa 205-270 d.
C.), considerado el fundador del neoplatonismo. Por las evidencias de las seis Enéadas, se
deduce que era un místico cuyo objetivo era la unión con el Uno, algo que afirmaba haber
experimentado en diversas ocasiones. Para disfruta de la unión dichosa con el Uno,
aconsejaba que debemos abandonar
las demostraciones, las pruebas, el diálogo del alma consigo misma. Pero no
confundamos la razón con el acto y la facultad de ver; porque ambas cosas son mejores que
la razón y aun anteriores a ella, como lo es su objeto mismo.[26]
A través de la contemplación y de la virtud moral podemos elevar la mente hacia el
Uno. Este viaje mental no es solo un regreso al origen de nuestra existencia, sino también
un descubrimiento de nuestro verdadero yo. «Cuando el alma empieza a ascender de nuevo,
no va hacia otro ser sino hacia sí misma».[27] Esta revelación es también un reflejo de la
revelación de los Upanishads.
El pensamiento filosófico, sin embargo, bien sea a través del razonamiento o de la
revelación, a diferencia de la creencia en fuerzas sobrenaturales como los dioses o un Dios,
quedó reprimido en Occidente a partir de 529 d. C., cuando el emperador romano
Justiniano clausuró las escuelas atenienses porque socavaban el auge del cristianismo.
Escolasticismo
Los eruditos cristianos conocieron el aristotelismo en el siglo xii a través de las
traducciones y los comentarios árabes y sirios. La corriente había tenido escasa o nula
relevancia en Occidente durante casi mil años, lo que equivalía prácticamente al doble de
su existencia (a pesar de que en el mundo musulmán había renacido después de cinco
siglos).
Los teólogos cristianos conocidos como escolásticos adoptaron el razonamiento
aristotélico para demostrar la existencia de Dios. El más destacado de ellos, el dominico
Tomás de Aquino, que vivió en el siglo xiii, utilizó entre otros argumentos la primera causa
sin causa y el primer motor inmóvil.
Paradójicamente, el cristianismo había nacido a partir de la revelación. Los
evangelios de Mateo, Marcos y Lucas hablan del Espíritu de Dios que descendió sobre
Jesús de Nazaret, que pasó cuarenta días y cuarenta noches en el desierto sin comida.
Emergió de aquella circunstancia para predicar la revelación de que amar a Dios y amar al
prójimo igual que nos amamos a nosotros mismos (una versión de la Regla de Oro) era más
importante que la adherencia ciega a las leyes proclamadas en la Biblia hebrea.
La revelación espiritual continuó con los Padres del Desierto del siglo iii, a los que
siguieron las órdenes monásticas y una serie de personajes contemplativos como el Maestro
Eckhart, santa Teresa de Ávila y san Juan de la Cruz, hasta el siglo xvi.
A partir de finales del siglo xii, sin embargo, el razonamiento escolástico pasó a ser
dominante y se convirtió en el único método de pensamiento de las escuelas y
universidades occidentales, controladas todas ellas por la iglesia católica romana.
Filosofía moderna
El razonamiento escolástico acabó tan incrustado en Occidente, que los
reformadores protestantes del siglo xvi lo utilizaron para atacar a la iglesia católica romana,
mientras que los pensadores de la Ilustración del siglo xviii se sirvieron de él para
argumentar contra cualquier Iglesia. En la actualidad, los departamentos de Filosofía de las
universidades occidentales, la inmensa mayoría de las cuales son seglares, enseñan solo
razonamiento escolástico. De las nueve enciclopedias y diccionarios norteamericanas y
británicas que he consultado, siete definen la filosofía única y exclusivamente en términos
de este razonamiento. Esto, creo, fusiona esencia con método.
La ramificación del pensamiento filosófico
Las primeras ciencias pueden dividirse en tres grupos que se solapan entre sí —
ciencias físicas, ciencias de la vida y ciencias médicas—, cuyas ramas emergieron en
momentos distintos.
Ciencias físicas: las ramas de la ciencia que estudian los fenómenos inanimados;
incluyen la astronomía, la física, la química y las ciencias de la Tierra.
Ciencias de la vida: las ramas de la ciencia que estudian las características de los
organismos vivos (plantas, animales y humanos), así como las relaciones entre dichas
características.
Ciencias médicas: las ramas de la ciencia que se aplican para conservar la salud,
impedir y tratar enfermedades, y tratar lesiones.
Ciencias médicas
Este último grupo aplica los descubrimientos de los dos primeros, en especial de las
ciencias de la vida, para alcanzar el objetivo de la supervivencia humana. Sus raíces se
remontan a la antigüedad, cuando las enfermedades y los males se consideraban producto
de los espíritus o los dioses. Los primeros intentos de comprender y tratar las causas físicas
de la enfermedad surgieron a partir de estas supersticiones y están relacionados con ellas.
Sin embargo, tanto el Papiro Edwin Smith, datado hacia 1600 a. C. y considerado
una copia de varias obras egipcias anteriores, como el Manual de diagnóstico, de origen
babilónico y datado hacia 1050 a. C., detallan de manera racional el examen, diagnóstico,
tratamiento y prognosis de diversas enfermedades.
El texto fundacional de la medicina china es el Huangdi neijing, atribuido
tradicionalmente al mítico Huangdi, o «emperador amarillo», datado entre el siglo iiiy ii a.
C. El texto aborda con un enfoque empírico, basado en la filosofía taoísta, diversas
enfermedades y sus tratamientos y se impone como objetivo recuperar el equilibrio
dinámico de las energías vitales del cuerpo, en especial del qi (la fuerza vital) y de la
circulación sanguínea, armonizando el yin y el yang tanto de la conducta como de los
órganos del cuerpo.[6] Su legado es la medicina tradicional china que se practica hoy en
día.
En la antigua India, la ayurveda, que significa conocimiento de una larga vida,
aplicaba métodos racionales a los tratamientos médicos. Sus dos textos más influyentes
pertenecen a las escuelas de Charaka y Sushruta, nacidas ambas en torno a 600 a. C. El
primero detalla ocho ramas de la medicina, mientras que el segundo incorpora un amplio
abanico de técnicas quirúrgicas, entra las que destaca la cirugía de las cataratas y la cirugía
plástica para reconstruir la nariz (que solía cortarse a modo de castigo). La ayurveda
aplicaba la teoría de los cinco elementos que componen todo el universo y hacía hincapié
en el equilibrio entre tres energías elementales, o humores, para mantener un estado óptimo
de salud. En la antigua Grecia (ver más adelante) encontramos un enfoque similar. La
pregunta de si se trata de conclusiones alcanzadas de forma independiente o resultado de la
transmisión cultural sigue abierta.
En la antigua Grecia se construyeron asclepieia, templos dedicados a Escolapio, el
dios de la curación, adonde acudían los pacientes para ser tratados. A partir de esos inicios
basados en la superstición surgieron cerca de setenta textos atribuidos al médico del siglo v
a. C., Hipócrates de Cos (aunque lo más probable es que fueran escritos por sus alumnos a
lo largo de varias décadas), que describen y clasifican muchas enfermedades, tratamientos
—incluyendo tratamientos quirúrgicos— y prognosis. Los textos se basan en la visión
dominante en la época de que todo en el cosmos estaba constituido por cuatro elementos:
fuego, aire, agua y tierra.[7] Por el cuerpo circulaban además cuatro humores, o líquidos —
la bilis negra, la bilis amarilla, la flema y la sangre—, resultado de distintas combinaciones
de los cuatro elementos. Para conservar un cuerpo sano y una buena disposición mental era
imprescindible que estos humores se mantuvieran en equilibrio.
Durante el periodo helenístico, las disecciones de animales realizadas por
Aristóteles estimularon la aparición de nuevas ideas sobre la anatomía y la fisiología
humanas, una tendencia que culminó en el periodo grecorromano con las obras del griego
Galeno (circa 130-200 d. C.). Su síntesis y desarrollo de las teorías anatómicas y médicas
aristotélicas, platónicas e hipocráticas, incluyendo los cuatro humores, crearon un canon.
Hacia 750 d. C., los eruditos del imperio musulmán habían traducido al árabe las
obras atribuidas a Charaka, Sushruta, Hipocrates y Galeno. Sus médicos, y muy en especial
el erudito Ibn Sina (conocido en Occidente como Avicena), utilizaron y desarrollaron estas
ideas. La magistral enciclopedia escrita por Avicena en 1025, el Canon de Medicina, fue
traducida al latín en el siglo xii y se convirtió en el texto médico más influyente hasta el
siglo xvii, no solo en el mundo musulmán sino también en Europa.
A mediados del siglo xvi, sin embargo, la investigación con cadáveres humanos
llevada a cabo por el belga Andreas Vesalio, de la Universidad de Padua, demostró unos
doscientos errores en la anatomía de Galeno (los conceptos de Galeno estaban basados en la
disección de animales, a partir de los que se habían extraído conclusiones sobre la anatomía
humana). En 1628, el médico inglés William Harvey publicó Exercitatio Anatomica de
Motu Cordis et Sanguinis in Animalibus (Estudio anatómico sobre los movimientos del
corazón y la sangre de los animales), que describe una serie de experimentos que
condujeron al descubrimiento de la circulación de la sangre y del papel desempeñado por el
bombeo del corazón que anuló numerosos conceptos galénicos. Este respetable trabajo
empírico señaló la emergencia de la ciencia médica moderna a partir de sus raíces en la
medicina antigua.
Ciencias de la vida
Astronomía
El telescopio fue inventado para espiar a los ejércitos enemigos. Sin embargo,
después de la aparición de la astronomía como consecuencia del rechazo de la creencia de
que la Tierra era el centro del universo, los astrónomos desarrollaron tecnologías al servicio
de sus necesidades en vez de utilizar aquellas diseñadas con otros fines.
Newton se dio cuenta de que el telescopio refractor, que consistía en dos lentes de
cristal, daría refracciones distintas de luz para distintos colores, de modo que desarrolló un
telescopio reflector que utilizaba espejos en lugar de lentes para eliminar de esta manera las
aberraciones cromáticas. Los telescopios reflectores de diseño cada vez más sofisticado se
convirtieron en el telescopio astronómico predominante. Los individuos que observaban el
cielo con sus propios instrumentos han dado paso a equipos cada vez más numerosos de
astrónomos y técnicos que trabajan en cooperación, una forma de trabajo cuya culminación
será el Telescopio Europeo Extremadamente Grande que, según las previsiones, entrará en
funcionamiento en la década de 2020 en Chile. Su espejo principal consistirá en 798
segmentos hexagonales que alcanzaran en conjunto 40 metros de diámetro y será capaz de
reunir más luz que la suma de todos los telescopios existentes en la actualidad en el planeta.
[16]
El descubrimiento casual en 1931 de las emisiones naturales de radiofrecuencia
desde el espacio llevó al ingeniero de radio norteamericano Grote Reber a instalar en el
jardín de su casa un radiotelescopio parabólico de 9 metros de diámetro que utilizó en 1940
para identificar la Vía Láctea como una de las fuentes de emisión. En 1957, el
departamento de Astronomía de la Universidad de Manchester instaló un radiotelescopio de
76 metros de diámetro en Jodrell Bank, al noroeste de Inglaterra, para investigar rayos
cósmicos, meteoritos, cuásares, púlsares y otras fuentes de ondas de radiofrecuencia así
como para realizar el seguimiento de sondas espaciales.
La investigación de los fenómenos celestes a través de sus emisiones y absorciones
en frecuencias fuera del espectro visible dio como resultado tecnologías cada vez más
desarrolladas y una cooperación cada vez más extensa que se amplió más allá de los
miembros de una única universidad. El Observatorio Solar Orbital, una serie de ocho
satélites lanzados entre 1962 y 1971 por la Administración Nacional de la Aeronáutica y del
Espacio de los Estados Unidos, conocida por todos como la NASA, detectó imágenes en
longitudes de onda ultravioletas y de rayos X que habrían pasado desapercibidas debido a la
atmósfera de la Tierra. El telescopio Hubble, lanzado en 1990 por la NASA y operado no
solo por los científicos de esa organización sino también por los de la Agencia Espacial
Europea, investigó las longitudes de onda visibles, ultravioletas y más cercanas. A finales
del siglo xx, equipos internacionales de astrónomos especializados empezaron a dibujar
mapas del firmamento a través de las diferentes regiones del espectro electromagnético y a
utilizar las tecnologías del análisis por ordenador y la imagen digital para realizar
reconstrucciones.
Física
Los físicos se sienten orgullosos del aforismo que dice: «Si un biólogo no lo
entiende, pregúntale a un químico; si un químico no lo entiende, pregúntale a un físico; y si
un físico no lo entiende, se lo pregunta a Dios». La frase captura la realidad de que la física
es la ciencia fundamental, puesto que las relaciones entre materia, energía, fuerza y
movimiento forman parte de todas las demás ciencias físicas, que se ramificaron a partir de
la física a medida que los conocimientos produjeron campos de estudio cada vez más
especializados.
A pesar que con el fin de facilitar su comprensión, la figura 29.1 muestra la física
como una sola rama, está ramificada en sub-ramas como la mecánica —que a su vez se
divide en la mecánica de sólidos y la mecánica de fluidos, que incluye ramas como la
hidrostática (fuerzas sobre fluidos en reposo), la hidrodinámica (fuerzas sobre fluidos en
movimiento), la aerodinámica y la neumática—, la acústica, la óptica, la termodinámica, la
electricidad estática y corriente y el magnetismo.
A partir de esta física clásica, que estudiaba lo que es normalmente observable, los
físicos desarrollaron tecnologías para investigar la materia y la energía que no son
normalmente observables. Las investigaciones sobre la desintegración radiactiva llevadas a
cabo por Ernest Rutherford a finales del siglo xix y principios del xx, le llevaron a postular
la existencia del núcleo atómico. Esto, a su vez, provocó la segunda revolución científica
que se inició con la teórica cuántica y la teoría de la relatividad a principios del siglo xx.
Esta segunda revolución produjo más ramificaciones y dio lugar a las sub-ramas
especializadas de la física atómica, la física nuclear, la física de partículas y la física del
plasma.
De los físicos que trabajaban en solitario, como Einstein, y los pequeños
laboratorios, como el laboratorio Cavendish de la Universidad de Cambridge donde
Rutherford trabajaba con J. J. Thompson, la cooperación ha ido incrementándose, no solo
entre científicos sino también entre países. Desde 1954, los veinte estados miembros del
CERN cooperan para financiar la construcción de aceleradores de partículas diseñados por
sus físicos e ingenieros para descubrir la interacción de las partículas fundamentales. En
2008, se puso en funcionamiento el producto tecnológico más grande y más complejo
conocido hasta la fecha, el Gran Colisionador de Hadrones.
Todas las sub-ramas de la física tienen su propio sub-departamento dentro de los
departamentos de física de las universidades y sus propias publicaciones especializadas.
Química
La química es otra sub-rama que acabó siendo reconocida como ciencia por derecho
propio.
Química: la rama de la ciencia que investiga las propiedades, la composición y la
estructura de las sustancias y los cambios que experimentan cuando se combinan o
reaccionan en determinadas condiciones.
Sus raíces se encuentran en la alquimia, en la fabricación de municiones y en los
remedios médicos. Es debatible el momento en que emergió como ciencia tal y como
entendemos actualmente el término. Algunos, sobre todo en el entorno británico, lo
atribuyen al teólogo y físico inglés Robert Boyle, conocido por sus leyes sobre las
propiedades de los gases. Fue, afirman, su publicación de El químico escéptico, en 1661, lo
que separó la química del arte esotérico de la alquimia. Se trata de una lectura incorrecta
del libro, que critica solo a aquellos alquimistas que divorciaron su trabajo de cualquier
base teórica. Boyle siguió practicando la alquimia durante toda su vida.
Lo que sí es evidente es que la química huyó de sus raíces supersticiosas y se separó
de la física durante el último cuarto del siglo xviii, gracias al trabajo de un grupo de
científicos franceses liderado por Antoine Lavoisier. Debido al secretismo que guardaban
los alquimistas y los fabricantes de municiones, los componentes y sus interacciones
recibían nombres distintos, razón por la cual era complicado, si no imposible, realizar
comparaciones y pruebas objetivas. Lavoisier introdujo una nueva nomenclatura química
que permitió a los químicos compartir y expandir sus conocimientos empíricos y escribió el
primer manual de química, que incluía un programa de investigación y una metodología
cuantitativa para futuros químicos.
El reconocimiento como una rama independiente de la ciencia llegó con el
establecimiento de sus propias sociedades de eruditos, como la Chemical Society de
Londres, en 1841, que acabó convirtiéndose en la Royal Chemical Society, seguida por
sociedades similares en Alemania, Estados Unidos y otros países, además de departamentos
propios en las universidades.
El incremento de conocimientos y comprensión de la materia llevó a esta rama de la
ciencia a diversificarse. Los químicos reconocieron que las propiedades de los componentes
de origen biológico eran muy distintos de los de origen mineral, de modo que algunos se
especializaron en investigar lo que denominaron la química orgánica. En 1828, Friedrich
Wohler descubrió que una molécula orgánica podía estar compuesta de moléculas
inorgánicas, de modo que la definición cambió. La química orgánica se convirtió
simplemente en la química del carbono y sus componentes, y la química inorgánica pasó a
ocuparse de todos los demás elementos, mientras que la química física se consagró al
estudio de las propiedades físicas de las sustancias, como su comportamiento eléctrico y
magnético y su interacción con los campos magnéticos.
Estas ramas se subdividieron aún más en ramas especializadas como la química
órgano-metálica, la química de polímeros y la nanoquímica.
Ciencias de la Tierra
Más difícil es incluso discernir en qué momento las ciencias de la Tierra se
independizaron como grupo.
Ciencias de la tierra: las ramas de la ciencia que estudian el origen, la naturaleza y
la conducta de la Tierra y sus partes, incluyendo sus interacciones.
Entre los siglos x y xii, los intelectuales del imperio musulmán escribieron sobre
estos temas. En la segunda parte del compendio titulado El libro de la curación, publicado
en 1027, el físico y erudito persa Avicena propuso, basándose en estudios de campo
realizados en lo que hoy en día es Uzbekistán, explicaciones sobre la formación de las
montañas, el origen de los terremotos, la formación de minerales y fósiles y otros temas
clasificados en la actualidad como geología y metereología.[17] A finales del siglo xv,
Leonardo da Vinci especuló correctamente sobre la naturaleza de los fósiles y el papel que
juegan los ríos en la erosión del terreno y la estratificación de las rocas sedimentarias.
Las ciencias de la Tierra emergieron claramente como disciplina independiente en
1795, cuando James Hutton[18] publicó su teoría del uniformismo, que defendía que los
procesos que observamos ahora y que dan forma a la Tierra —como la erosión, el
volcanismo, etc.— fueron también los responsables de dar forma a la Tierra en el pasado.
De ahí que la Tierra fuera mucho más antigua que lo calculado por la Biblia y que sus
rasgos no fueran consecuencia de sucesos catastróficos como el Diluvio universal del que
se salvó Noé.
Las ciencias de la Tierra se dividieron en cuatro ramas interrelacionadas: la
geología, el estudio de la corteza rocosa de la Tierra, o litosfera, que a su vez se ramificó en
especialidades como la mineralogía, la petrología, la paleontología y la sedimentología; la
geografía física, el estudio de las características de la superficie del planeta; la
oceanografía; y las ciencias atmosféricas.
Ciencias de la vida
La ciencia más novedosa, la psicología, que emergió a finales del siglo xix, tiene
sus raíces en la filosofía.
Psicología: la rama de la ciencia que investiga los procesos mentales y las
conductas de individuos y grupos.
Su nombre deriva de la palabra griega «psyche», que significa alma o respiración,
aunque se refiere al estudio de la mente. En el siglo xvii, el filósofo y matemático francésm
Rene Descartes, reivindicó la distinción entre el cuerpo y la mente: el cuerpo estaba hecho
de materia, que era mensurable y divisible; la mente era una entidad completamente aparte,
incorpórea, indivisible y no espacial cuya función era pensar. Se trata del concepto
filosófico del dualismo.
Dualismo: la especulación o creencia de que el universo consta de dos elementos
constituyentes fundamentales, materia y mente, o consciencia.
La ciencia de la psicología empezó a emerger como tal a partir de la filosofía
cuando el médico Wilhelm Wundt fundó en 1879, en la Universidad de Leipzig, el primer
laboratorio psicológico para el estudio experimental de las sensaciones, la memoria y el
aprendizaje. Su trabajo atrajo a estudiantes de todo el mundo y en 1881, puso en marcha la
primera revista para divulgar los descubrimientos de la psicología experimental. En 1890,
William James, un filósofo que impartía clases de medicina en la Universidad de Harvard,
publicó Principios de psicología, que abarcaba el enfoque experimental pero hacía además
hincapié en la experiencia subjetiva de la mente. No fue hasta el siglo xx que las
asociaciones profesionales y los departamentos universitarios de filosofía y psicología
empezaron a independizarse.
A partir de ahí, la psicología se expandió rápidamente, diversificándose en un
amasijo de ramas según el objetivo, el objeto y el método de estudio, junto con las
correspondientes escuelas de pensamiento. Los objetivos se solapan y van desde la
adquisición de conocimientos y comprensión hasta la aplicación de dichos conocimientos.
Las divisiones de la psicología aplicada incluyen desde la psicología clínica, para curar
enfermedades concretas como la esquizofrenia o la depresión, hasta la psicología educativa,
como por ejemplo la psicología infantil, pasando por la psicología motivacional, como
podría ser el caso de la psicología deportiva. Los objetos de estudio son la inteligencia, la
memoria, el aprendizaje, la emoción, la personalidad y la conducta grupal, mientras que los
métodos van desde la utilización de fármacos a la hipnosis, el psicoanálisis, los
cuestionarios y los experimentos, pasando por tecnológicas relacionadas con la
neurociencia como el PET y los escáneres cerebrales con RNM. Las escuelas van desde la
conductista hasta la freudiana y junguiana. En el capítulo 24 he considerado dos ideas
conductistas, el reflejo condicionado de Pavlov y el condicionamiento operante de Skinner,
que fueron influyentes a principios y mediados del siglo xx, respectivamente, y he llegado a
la conclusión de que no consiguieron explicar por qué los humanos piensan y se comportan
como lo hacen.[22]
A principios de los años 60, el centro neurálgico de este amasijo proteico había
pasado de los departamentos universitarios a hospitales, clínicas, consultas privadas y
empresas. Me centraré en dos de las múltiples sub-ramas de la psicología porque afirman
ser capaces de responder a la pregunta fundamental de esta investigación: ¿quién somos?
Neuropsicología
En La búsqueda científica del alma,[23] publicado en 1994, Francis Crick, que
había recibido el Premio Nobel por el descubrimiento conjunto de la estructura del ADN,
respondió sucintamente a la pregunta:
La Hipótesis Asombrosa es que «Tú», tus alegrías y tus penas, tus recuerdos y tus
ambiciones, tu sentido de la identidad y tu libre albedrío, no son en el fondo más que la
conducta de un montón de células nerviosas y de las moléculas asociadas a ellas.[24]
Como la mayoría de científicos, Crick rechazó el dualismo cartesiano para favorecer
el monismo.
Monismo: la especulación o creencia de que todo lo que existe está formado, y es
reducible, a la misma realidad suprema o principio de existencia.
Y su versión particular, conocida como fisicalismo.
Fisicalismo: la especulación o creencia de que solo la materia física es real y que
todo lo demás, como la mente, la consciencia o los pensamientos, acabarán explicándose
como objetos físicos o sus interacciones; conocido también como materialismo, incorpora
una visión más amplia de la fisicidad que la materia, por ejemplo, fuerzas no materiales
como la gravedad, que surgen de la materia.
El punto de vista de Crick es lo que Julian Huxley denominó «en absoluto
lisonjero». Es evidente que somos algo más que la conducta de nuestras neuronas y las
moléculas asociadas a ellas. Las neuronas transmiten impulsos eléctricos en respuesta a los
estímulos, pero las neuronas y sus redes no entienden el contenido informativo de estos
impulsos.
Aun en el caso de que asumiéramos que la mente está generada por nuestras
neuronas y sus interacciones, o emerge de ellas, la mente no es lo mismo que el cerebro.
Por ejemplo, la decisión de disparar al vecino provoca la activación de neuronas cerebrales
que envían señales que activan los músculos del brazo y los dedos para que cojan una
escopeta, apunten al vecino y presionen el gatillo. Pero las que toman la decisión no son las
neuronas cerebrales.
Además, la neuropsicología, o al menos lo que dice Crick de ella, no ha sido capaz
de proporcionar observaciones verificadas o experimentos independientes que expliquen en
qué consiste tener experiencias subjetivas de los fenómenos, como la noción del yo, la
sensación de orgullo, la sensación de escuchar música o de ver un color (lo que se conoce
como los qualia). Dos destacados neurocientíficos, V. S. Ramachandran y Colin Blakemore,
describen el problema:
El acertijo de los qualia queda perfectamente ilustrado con un experimento mental.
Imaginemos un neurociéntifico del futuro, que conoce a la perfección el funcionamiento del
cerebro —incluyendo los mecanismos de la visión del color— pero que resulta que tiene
problemas para discriminar los colores y no puede diferenciar entre rojo y verde. Utiliza las
técnicas más novedosas de escaneado para generar una descripción completa de todos los
sucesos eléctricos y químicos que se producen en el cerebro de un ser humano normal
cuando visualiza un objeto rojo. El relato funcional podría parecer completo, ¿pero cómo es
posible que lo sea sin una explicación del carácter de la experiencia única que proporciona
el rojo y que el científico nunca ha percibido personalmente? Existe una distancia
epistemológica inmensa entre las descripciones de los sucesos físicos que se producen en el
cerebro y las experiencias personales y subjetivas que suponemos asociadas a dichos
sucesos.[25]
Hasta que la neuropsicología no pueda explicar empíricamente las experiencias
subjetivas, la respuesta de Crick a la pregunta permanecerá en el terreno de la filosofía más
en el de la ciencia, e incluso en ese terreno el argumento tiene puntos débiles.
Psicología evolutiva
La otra sub-rama de la psicología que dice responder a la pregunta es la psicología
evolutiva: lo qué somos, en el sentido de qué pensamos, cómo nos comportamos y qué
sentimos, es el resultado de la acumulación neodarwinista de mutaciones genéticas
aleatorias, durante miles de generaciones, que son las responsables de los mecanismos
psicológicos seleccionados naturalmente para proporcionar una ventaja adaptativa en la
competencia por la supervivencia de nuestros antepasados de la Edad de Piedra. Según lo
expresan Leda Comides y John Tooby, codirectores del Centro de Psicología Evolutiva de
la Universidad de California, Santa Barbara: «Nuestro cráneo moderno alberga una mente
de la edad de piedra».[26]
Los supuestos de los psicólogos evolutivos, por ejemplo, que la mente humana
consiste en una gran colección de módulos computacionalmente distintos conformados por
selección natural para resolver un determinado problema de la Edad de Piedra, son
altamente cuestionables. Sus métodos son los modelos matemáticos basados en el gen y los
juegos de la sociobiología. No repetiré aquí los muchos defectos de estos modelos
aplicados a los animales puesto que ya han quedado expuestos en el capítulo 23,[27] y solo
diré que los defectos se hacen mucho más patentes cuando se aplican a humanos reflexivos.
Por ejemplo, la persona que ha nacido y se ha criado en Tíbet presenta muchas más
probabilidades de pensar y comportarse como un budista que la persona que ha nacido y se
ha criado en Arabia Saudí, que mucho más probablemente pensará y se comportará como
un musulmán, mientras que quien ha nacido en Falls Road, Belfast, presentará muchas más
probabilidades de ser un cristiano católico que odia a los cristianos protestantes nacidos y
criados en Shankill Road, al otro lado del famoso «muro de la paz» de 12 metros de altura.
Enfrentados con evidencias de este calibre, algunos psicólogos evolutivos se
alejaron de la línea dura de la explicación de la naturaleza humana como una máquina de
genes, que defiende que somos marionetas de nuestros genes, y propusieron la hipótesis del
entorno de adaptación evolutiva. La hipótesis defiende que existe una naturaleza humana
básica que está genéticamente programada para la supervivencia en la Edad de Piedra y que
determina el pensamiento, la conducta y emociones como el orgullo y la culpabilidad. Sin
embargo, existe también un programa de desarrollo genéticamente determinado que
absorbe información del entorno social y adapta la mente en consecuencia mediante un
proceso de maduración, afinando, a todos los efectos, estas facultades básicas para que, por
ejemplo, algunos se sientan menos culpables que otros. Hemos heredado este rango de
pensamientos, conductas y emociones de la Edad de Piedra.[28] No existen evidencias que
sustenten este intento especulativo de racionalizar los defectos del determinismo genético.
Además, la hipótesis sigue sin demostrar cómo ideas humanas como la de concebir la
mecánica cuántica para explicar las interacciones de las partículas subatómicas o la de
componer una sinfonía son el resultado de una naturaleza humana programada
genéticamente para la supervivencia en la Edad de Piedra.
Otro cambio en el énfasis hacia la idea de que el entorno tiene una influencia sobre
lo que somos adopta la forma de la hipótesis de la co-evolución genético-cultural, o
herencia dual, que defiende que lo que somos y cómo nos comportamos es resultado de la
interacción de dos mecanismos evolutivos darwinianos distintos: el genético y el cultural.
Una hipótesis que no está tampoco libre de problemas. Por ejemplo, diversos estudios
divergen en cuanto a explicar si existe una base genética para la homosexualidad. Los que
afirman que la hay, se abonan al neodarwinismo. En consecuencia, necesitan explicar cómo
se transmite esta combinación de genes y cómo se acumula en el acervo génico humano a
lo largo de muchísimas generaciones, puesto que los homosexuales presentan menos
probabilidades de tener descendencia y transmitir sus genes. Los intentos de explicación
son, en el mejor de los casos, en absoluto convincentes.
Nadie razonable puede negar que los genes jugaron un papel importante en la
evolución biológica humana o que podrían jugar un papel en la evolución del pensamiento,
las emociones y la conducta humana. Sin embargo, como vimos en la segunda parte, a
pesar de las reivindicaciones del neodarwinismo, las complejidades de su papel, de su
regulación y de su interacción con el entorno en la evolución biológica siguen sin estar bien
comprendidas. Lo cual concede menos firmeza a los deterministas genéticos en el campo de
la psicología.
Para completar la explicación, me gustaría añadir que la facultad de la consciencia
reflexiva no solo permite a los humanos trascender su herencia genética, sino que además
les permite trascender su herencia cultural: muchas personas nacidas y criadas en Falls
Road han llegado a la conclusión que odiar a los protestantes que viven al otro lado del
«muro de la paz» es moralmente incorrecto y hacen campaña para que sea derribado.
Interactividad y sub-ramas híbridas
Mensaje del presidente de los Estados Unidos, Jimmy Carter, guardado en la nave
espacial Voyager, 1977
La ortodoxia actual
Según este argumento, pese a que los humanos son superiores a otras especies en
determinadas características, como el tamaño del cerebro y la destreza manual, existen otras
especies que los superan en otras características. Así, los murciélagos poseen unas dotes de
ecolocalización excelentes, las aves poseen unas dotes de navegación supremas, y
podríamos encontrar muchos ejemplos más entre otras especies. Poner un conjunto de
características por encima de otro por el simple hecho de que las poseemos nosotros es
antropocéntrico, egoísta, subjetivo y en absoluto científico.
Este punto de vista se centra en las diferencias fisiológicas y no reconoce las
facultades que transforma u origina la consciencia reflexiva, una facultad superior exclusiva
del hombre. Por mucho que los humanos no dominen la ecolocalización, han inventado el
radar, que realiza esta función por ellos. Por mucho que los humanos no sean buenos
navegantes, han inventado el GPS (Global Positioning System) que les ofrece una
capacidad de navegación muy precisa. Resulta difícil pensar en una característica animal
que la creatividad y la inventiva de los humanos no haya compensado. Ninguna otra
especie ha trascendido sus características fisiológicas naturales de esta manera.
Identidad genética
Este argumento, articulado por Gerhard Roth, del Brain Research Institute de la
Universidad de Bremen, defiende que los humanos comparten el 99 por ciento de sus genes
con dos especies de chimpancés. Estas tres especies están más estrechamente relacionadas
genéticamente que los chimpancés puedan estarlo con cualquier otro primate actual. De ahí
que podría crearse un nuevo taxón que incluyera el chimpancé, el bonobo y el hombre.[1]
De hecho, los humanos y los chimpancés no comparten el 98,5 por ciento de sus
genes, como se afirma con frecuencia. Esta diferencia del 1,5 por ciento es una medida de
la diferencia entre genes equivalentes; la diferencia real en complementos de genes es más
bien del 6 por ciento.[2] Además, una serie de mutaciones en el ADN humano producidas
con posterioridad al antepasado común de chimpancés y humanos genera, entre otras cosas,
moléculas de ARN que están implicadas en el desarrollo del cerebro en los fetos humanos.
[3]
Y lo que es más importante, esta fijación en el 2 por ciento del genoma humano que
consiste en genes productores de proteínas ignora secuencias reguladoras mucho más
importantes que determinan cuándo, en qué grado y durante cuánto tiempo están
conectados los genes y, en consecuencia, las características observables del organismo.
Ignora también el aspecto cualitativo conductual y otras diferencias que se consideran en la
réplica siguiente.
Diferencia conductual solo en grado
Conclusiones
En un siglo que se inició con el atentado de Al Qaeda contra las Torres Gemelas de
Nueva York, que causó la muerte de 2.750 civiles, la invasión de Irak por parte de los
Estados Unidos y la intervención militar en Afganistán, más las guerras civiles en Congo,
Liberia, Sudan, Darfur, Libia y Siria, después de un siglo marcado por dos guerras
mundiales y la utilización de armas nucleares, podría parecer contradictorio decir que la
evolución humana se ha caracterizado por una disminución de la agresividad.
Cualquier impresión de un incremento en la agresividad se debe a tres principales
factores. En primer lugar, la percepción del concepto de agresividad ha cambiado. En las
sociedades científicamente avanzadas, la gente ya no considera aceptable, y mucho menos
honorable, librar la guerra contra los infieles respaldándose en la creencia de que es lo que
Dios desea, castigar un acto erróneo según la ley bíblica o coránica del ojo por ojo,
solventar las disputas con duelos, matar a un miembro femenino de la familia cuando se
produce un fallo en el código ético para restaurar de este modo el honor familiar, torturar
hasta la muerte o ejecutar por haber cometido un robo.
Entre los siglos xi y xiii, sin embargo, los reyes y los nobles europeos, a instancias
de Papas que prometían el acceso inmediato al cielo a aquellos que mataban, libraron
guerras sagradas contra los musulmanes y masacraron a judíos y a otros con creencias
supuestamente infieles. Para aquellos que se sienten horrorizados ante los actuales azotes
públicos, las amputaciones de manos y las decapitaciones en países menos desarrollados
como castigo a crímenes que van desde el robo hasta el adulterio, resulta saludable recordar
que todo ello eran prácticas comunes en nuestra sociedad hasta tiempos relativamente
recientes. La Torre de Londres contiene un museo de instrumentos de tortura, cuya práctica
no quedó abolida en Inglaterra hasta mediados del siglo xvii. El 13 de octubre de 1660,
Samuel Pepys anota despreocupadamente en su diario que presenció el ahorcamiento
público del general Harrison y su posterior descuartizamiento ante los vítores de la
multitud.[1] En Gran Bretaña, a principios del siglo xix, había más de doscientos crímenes,
desde el hurto hasta el asesinato pasando por el robo, que estaban castigados con pena de
muerte. En el Reino Unido, las ejecuciones públicas tocaron a su fin en 1868, y la última
ejecución tuvo lugar en 1964. En Francia, las decapitaciones públicas continuaron hasta
1939, mientras que la pena de muerte quedó abolida en 1981. En 2014, castigar con la vida
haber acabado con otra vida era legal según el gobierno federal y según 32 estados de los
Estados Unidos.[2]
El segundo factor es el foco en el número de víctimas de la agresividad y la
ignorancia del aumento de proporción geométrica del tamaño de las poblaciones. Es más
racional examinar la agresividad en relación con el tamaño de la población considerada.
En tercer lugar, hasta el invento de las comunicaciones globales, la mayoría de la
gente desconocía lo que ocurría en otros países. Ahora estamos inundados por noticiarios
televisivos las 24 horas del día, 7 días a la semana, junto con los vídeos subidos a YouTube
que muestran imágenes gráficas de guerras, violaciones y todo tipo de actos violentos que
se producen en el mundo.
Pese a todo, las evidencias de que existe una reducción de la agresividad son claras.
En el capítulo 27 he resumidos los estudios que demuestran el elevado índice de mortalidad
de la época de pensamiento primitivo dominada por las sociedades cazadoras-recolectoras
como consecuencia de batallas crónicas intergrupales, peleas en el seno del grupo,
infanticidio y gerontocidio. En el libro publicado en 2011, Los ángeles que llevamos dentro,
[3] el psicólogo de Harvard, Steven Pinker, evalúan las evidencias disponibles a partir de
investigaciones forenses, arqueológicas, etnográficas, históricas y estadísticas. La inmensa
mayoría de la existencia humana se ha basado en sociedades de cazadores-recolectores y
cazadores-agricultores. Estudios llevados a cabo con 27 grupos de este tipo muestran una
variación en los índices de mortalidad anuales como consecuencia de las guerras. Los
índices más elevados corresponden a tiempos remotos, mientras que los más bajos
pertenecen a tribus que viven en entornos aislados e inhóspitos, como desiertos sin apenas
agua o estepas gélidas, donde no están en competencia con otras tribus o donde han sido
pacificadas por países o imperios desarrollados. El índice anual de mortalidad como
consecuencia de la guerra que muestran estos estudios es de 524 fallecimientos por cada
100.000.
En comparación, si sumamos todas las muertes que se han producido en el siglo xx
como consecuencia de la violencia organizada —guerra, genocidios, purgas y hambrunas
provocadas por el hombre—, obtenemos un índice anual de mortalidad de 60 fallecimientos
por 100.000 en el año 2005, con el ejército de los Estados Unidos implicado en conflictos
en Irak y Afganistán, las muertes militares por cada 100.000 fallecimientos en los Estados
Unidos, o en el mundo entero, representan una cifra demasiado pequeña como para quedar
reflejada en el gráfico de Pinker.[4]
Razones para la disminución de la agresividad
Sugiero que la causa subyacente de esta disminución de la agresividad es la
evolución del pensamiento humano tal y como ha quedado expresada en la Tercera Parte de
este libro. En la fase del pensamiento filosófico, todos aquellos de distintas culturas que
reflexionaron sobre la conducta humana, bien fuera a través de la revelación bien lo
hicieran a través del razonamiento, defendieron la regla de oro de actuar con los demás
como nos gustaría que los demás actuasen con nosotros. Hubo, como hemos visto, una gran
resistencia a este punto de vista, puesto que iba en contra de un instinto de competencia
tremendamente arraigado. Sin embargo, esta postura inició un largo proceso de cambio de
nuestro concepto de las relaciones humanas que ha quedado codificado en forma de leyes
en el seno de las sociedades y de acuerdos entre sociedades.
La Primera Guerra Mundial fue el último gran conflicto entre países científica y
tecnológicamente desarrollados en el que la lucha estuvo considerada como un acto noble.
La divulgación de información resultante de los avances científicos y tecnológicos ayudó a
cambiar la consciencia popular. A mediados del siglo xx, no solo la prensa estaba ya
masificada, sino que además la radio y los noticiarios presentados en los cines empezaron a
mostrar los horrores de la guerra, incluyendo la destrucción con bombas atómicas de dos
ciudades japonesas. Todo ello tuvo una consecuencia jamás imaginada por los gobiernos y
los militares que habían ordenado el lanzamiento de las bombas: la comprensión de que la
guerra entre naciones e imperios en competencia es contraproducente.
Los pensadores más destacados de la época tomaron la iniciativa. El filósofo
Bertrand Russell, junto con Albert Einstein, se pusieron en contacto con distinguidos
científicos, entre ellos Joseph Rotblat, que había sido reclutado por el gobierno
norteamericano para trabajar en el diseño de la bomba atómica. En 1955, publicaron en
Londres lo que acabó conociéndose como el Manifiesto Russell-Einstein. Hablando «no
como miembros de tal o cual nación, continente o credo, sino como seres humanos,
miembros de la especie humana […]», plantearon la pregunta directa: «¿desaparecerá la
raza humana o la humanidad renunciará a la guerra?».[5]
La declaración tuvo como consecuencia las conferencias de Pugwash, que reunieron
a intelectuales influyentes y figuras públicas preocupados todos ellos por reducir los
peligros del conflicto armado y buscar soluciones cooperativas a los problemas globales.
En 1995, Pugwash y su cofundador, Joseph Rotblat, fueron galardonados conjuntamente
con el Premio Nobel de la Paz.
El manifiesto fomentó también movimientos pacifistas en todo el mundo, pero los
gobiernos y los intereses egoístas de sus complejos militares e industriales se resistieron a
sus llamadas al desarme, tal y como el presidente de los Estados Unidos y antiguo general,
Dwight Eisenhower, atestiguó en su discurso de despedida en 1961. Después de destacar
que los Estados Unidos gastaban más en seguridad militar que el equivalente a los ingresos
netos de todas las compañías norteamericanas, dijo explícitamente:
Debemos protegernos contra la adquisición de influencias indebidas, sean buscadas
o no, por parte del complejo militar-industrial. Existe y existirán circunstancias que harán
posible que surjan poderes en lugares indebidos, con efectos desastrosos. [6]
La segunda mitad del siglo xx vivió pasos titubeantes para dejar atrás los imperios
en competencia y avanzar hacia la cooperación de las sociedades humanas a nivel
supranacional y global. Los vencedores de la Segunda Guerra Mundial reclutaron 51 países
en 1945 para formar las Naciones Unidas con los objetivos de mantener la paz y la
seguridad y fomentar la cooperación internacional para abordar problemas globales que
afectaran a toda la humanidad. La consecución de este objetivo, sin embargo, se vio
entorpecido por la Guerra Fría entre los Estados Unidos y la Unión Soviética. Pero, de
todos modos, las Naciones Unidos hicieron avances a escala global a nivel económico,
cultural y humanitario a través de las agencias que estableció, como la Organización
Mundial de la Salud y el Fondo de las Naciones Unidas para la Infancia (UNICEF).
Paradójicamente, el imperio soviético fue derrotado no por la fuerza de las armas, sino por
la escalada de precios, que socavó la economía soviética, combinada con las demandas de
libertad por parte de los pueblos que la opresión soviética había oprimido.
Europa, el continente donde se inició la revolución científica, tomó el liderazgo en
la búsqueda de la cooperación, y no la competencia, entre naciones estado. En 1951,
Francia, Alemania, Italia, Bélgica, Holanda y Luxemburgo fundaron la Comunidad Europea
del Carbón y del Acero (CECA). Su objetivo era integrar las industrias del carbón y el
acero de los estados miembros para no tener que librar nunca la guerra por esos productos.
La CECA evolucionó hasta la actual Unión Europea (UE) integrada por 28 naciones, 17 de
las cuales comparten además divisa. La pérdida de parte de su soberanía nacional a cambio
de paz y beneficios sociales y económicos, junto con la percepción de imposición
burocrática de medidas presupuestarias en 2013 y 2014, generó un incremento de votos de
facciones ultranacionalistas en las elecciones parlamentarias europeas de 2014. La crisis de
refugiados resultante de las guerras internas de Oriente Próximo y Afganistán impulsó el
auge del nacionalismo en toda Europa y llevó a la decisión que tomó el Reino Unido por
referéndum en 2016 de abandonar la UE. Pero la evolución noética, igual que la evolución
biológica, no es proceso regular. Fundamentalmente, resulta impensable que cualquiera de
los estados miembros pudiera declarar la guerra a otro, un hecho reconocido por el Premio
Nobel de la Paz que recibió la UE en 2012 por «durante más de seis décadas, haber
contribuido a los avances de paz y reconciliación, democracia y derechos humanos en
Europa».[7]
La reducción generalizada de la agresividad entre sociedades ha tenido un
paralelismo en la reducción de la agresividad tanto entre individuos como entre sociedades
e individuos, independientemente de que dichos individuos sean miembros de esa o de otra
sociedad. La amplia aceptación de esta tendencia estuvo marcada por la adopción en 1948
por parte de la Asamblea General de las Naciones Unidas de la Declaración Universal de
los Derechos Humanos por 48 votos a favor contra cero y las ocho abstenciones del bloque
soviético, Sudáfrica y Arabia Saudí. El primer artículo declara:
Todos los seres humanos nacen libres e iguales en dignidad y derechos y, dotados
como están de razón y consciencia, deben comportarse fraternalmente los unos con los
otros.
Los restantes artículos denuncian la esclavitud, la tortura y el trato y el castigo cruel,
inhumano y degradante. Una señal del desarrollo del pensamiento humano la representa el
hecho de que la mayoría de habitantes de las sociedades científicamente avanzadas se
horrorice ante este tipo de actos, sobre todo cuando los autores de los mismos son los
gobiernos o sus agencias, como es el caso de las torturas por parte de militares
estadounidenses en la cárcel de Abu Ghraib, Irak, en 2003 y 2004, o la violación de
manifestantes políticos por parte de sus interrogadores y de la guardia revolucionaria iraní
en las cárceles iraníes después de las elecciones de 2009.[8]
Aumento de cooperación
Globalización
Durante al menos el 60 por ciento del tiempo de existencia del hombre, los humanos
han vivido en pequeños grupos de estructura sencilla, principalmente familias ampliadas,
en movimiento constante, con el único objetivo de la supervivencia y con una división del
trabajo entre caza y recolección; todos los adultos varones participaban en la guerra. Tal y
como se ha detallado en el capítulo 27, la invención de la agricultura, y los asentamientos
permanentes que se asocian a ella, iniciaron un proceso de aumento de complejidad de las
sociedades humanas y de su cultura.
La evolución del pensamiento científico llevó a un rápido aumento de la
complejidad en todos los aspectos de las sociedades humanas y de su cultura, desde las
organizaciones sociales, económicas y políticas hasta las comunicaciones, la educación, los
oficios, las artes y las actividades de ocio. En el siglo xxi, un individuo de un país
científicamente avanzado puede vivir con su familia inmediata y ser miembro de una
familia extendida diseminada por el planeta con la que se comunica electrónicamente.
Gracias a su formación, puede ser una persona socialmente móvil y tener una ocupación
profesional muy distinta a la de sus progenitores. Puede trabajar en una empresa u
organización local, regional, nacional o internacional. Puede ser miembro de un barrio, de
una comunidad local, de un partido político, de un ayuntamiento, de una nación y de una
organización supranacional, como la Comunidad Europea. Por otro lado, puede ser además
miembro de un coro local, de un club de fútbol y de un grupo de lectura, que pueden ser
organizaciones tanto locales como globales, además de miembro de varias redes sociales
globales. Este aumento de la complejidad se ha iniciado hace aproximadamente 65 años de
modo que, teniendo en cuenta que la especie humana está presente desde hace 25.000 años,
estamos hablando de menos del 0,25 por ciento de la existencia humana.
Tendencia hacia la vanguardia
A lo largo de nuestro viaje ha quedado claro que la ciencia tiene límites en cuanto a
lo que puede explicarnos sobre quién somos y cómo hemos evolucionado desde el origen
del universo. Revisaré dos categorías de limitaciones: (1) dentro del ámbito de la ciencia y
(2) fuera del ámbito de la ciencia. Mencionaré brevemente algunos asuntos que quedan
fuera del ámbito de la ciencia y que debemos conocer para responder a las preguntas de qué
somos, de dónde venimos, cómo hemos evolucionado, y concluiré sugiriendo cualquier
posible limitación.
Limitaciones dentro del ámbito de la ciencia
El poder explicativo de la ciencia queda limitado cuando las propuestas que afirman
ser científicas contradicen algún dogma básico de la ciencia o sus métodos. La frontera
entre ciencia y ciencia defectuosa puede llegar a ser muy difuso. Antes he sugerido que la
objetividad en la elección de supuestos y en la selección e interpretación de datos es un
ideal inalcanzable. Cuando el grado de subjetividad es pequeño, estamos ante buena
ciencia; cuando es grande, y sobre todo cuando además es deliberado, tenemos ciencia
defectuosa. Esta investigación se ha encontrado con otros tipos adicionales de ciencia
defectuosa.
Utilización inapropiada de modelos
Un modelo por ordenador o matemático puede ser extremadamente útil para
construir o refinar una hipótesis que luego se verifique empíricamente. Fusionar el modelo
con la realidad, sin embargo, es ciencia con defectos.
Además, suponer que la prueba matemática constituye prueba científica cuando no
existe manera conocida de verificar el modelo empíricamente, también es ciencia
defectuosa.[34] Es el caso, por ejemplo, de las diversas «teorías» de cuerdas y de la teoría
M,[35] y de la afirmación que el modelo de la gravedad cuántica de bucles ha establecido
sobre la existencia de un universo colapsado previamente con propiedades específicas.[36]
Introducir en un modelo matemático un parámetro arbitrario o un campo escalar y
alterar su valor para obtener el resultado deseado o validar una teoría también es ciencia
defectuosa. El modelo carece de cualquier función predictiva.
Como se apuntó en el capítulo 3, Einstein introdujo la constante cosmológica
lambda (Λ) en sus ecuaciones de campo de la relatividad general y le asignó un valor
calculado para producir un universo estático. Después de aceptar los datos obtenidos
mediante observación que confirmaban la expansión del universo, tanto él como otros
científicos eliminaron Λ de las ecuaciones. Cuando este modelo básico del Big Bang
empezó a plantear grandes problemas, los teóricos de la inflación reintrodujeron Λ, pero
con un valor muchísimo mayor que el que originalmente le había asignado Einstein y solo
durante un periodo increíblemente breve para así obtener la densidad de masa crítica de un
universo tremendamente expandido que experimenta una expansión desacelerada estable.
Posteriormente, para confirmar su interpretación de la radiación de las supernovas Tipo 1a,
los cosmólogos asignaron otro valor arbitrario muy distinto a Λ y quisieron demostrar con
ello que, contrariamente a lo dicho de que el universo experimentaba una expansión
desacelerada estable, el ritmo de expansión había empezado a acelerarse después de
transcurridos dos tercios de su vida; Λ, en este caso, representaría una energía oscura
desconocida para la que no existe ningún tipo de base empírica.[37] Hoyle y sus colegas
asignaron un cuarto valor a Λ para producir un universo en expansión en un estado
estacionario a través de ciclos de expansión y contracción de 50 mil millones de años.[38]
En los años 70, y para explicar aquellas conductas animales y humanas que
contradecían el modelo neodarwinista, los sociobiólogos adoptaron modelos de juego
simplistas utilizados en la economía que están divorciados de la realidad biológica.
Eligiendo de manera arbitraria las reglas de los juegos, los parámetros y los valores
asignados a dichos parámetros, obtuvieron los resultados deseados.[39] Un juego
económico distinto con un conjunto de elecciones distintas produjo el resultado contrario.
[40]
Afirmaciones que van más allá de las evidencias o las contradicen
La creencia en supuestos más que en una valoración objetiva de las evidencias
produce afirmaciones exageradas. Por ejemplo, la afirmación de que la sonda espacial
Wilkinson Microwave Anisotropy Probe (WMAP) permitió a los científicos distinguir entre
diferentes versiones de lo que sucedió durante la primera billonésima de segundo de la
existencia del universo se basa en un conjunto de supuestos sin ninguna base empírica.[41]
El relato de la paleontología ortodoxa de cinco sucesos de extinción en masa en los
últimos 500 millones de años, con estimaciones de porcentajes de especies extinguidas en
periodos geológicamente súbitos, va mucho más allá de las evidencias fósiles, dejando
aparte la incertidumbre sobre lo que en aquellos tiempos podía considerarse una especie.
[42]
Basándose en el supuesto neodarwinista de cómo se produce la evolución, la
mayoría de biólogos afirma que si dispusiéramos de evidencias fósiles más completas
observaríamos un cambio gradual. Lo cual entra en contradicción con las evidencias
documentadas por los paleontólogos que muestran una estasis morfológica con cambios
menores, y a menudo oscilantes, salpicados por la aparición geológicamente repentina de
nuevas especies que a su vez permanecen sin cambios hasta desaparecer del registro fósil o
seguir hasta la actualidad como lo que se conoce como «fósiles vivos».[43]
A diferencia de los fundadores del neodarwinismo, la mayoría de los neodarwinistas
contemporáneos niega, a pesar de que las evidencias son abrumadoras, que la evolución
biológica muestre un patrón de aumento de complejidad, puesto que de ser así entraría en
conflicto con lo que tienen asumido como causa de la evolución biológica o con una
ideología que cree que todas las especies son iguales.[44]
Selección de datos sesgada
Cuando la selección de datos presenta un sesgo deliberado para poder sustentar una
teoría o hipótesis, se convierte en ciencia fallida.
El capítulo 6 destaca que la argumentación que ofrece un destacado teórico de
cuerdas para explicar por qué el universo adopta la forma que adopta no considera en
ningún momentos los datos que no le son favorables.[45]
En la disputa sobre si las minúsculas trazas de carbono descubiertas en unas rocas
antiguas eran los fósiles con indicios de vida más antiguos de la Tierra o depósitos
inorgánicos, uno de los defensores fue acusado por una estudiante que había colaborado en
la investigación de ignorar sus protestas sobre el carácter selectivo de las evidencias.[46]
El panel que revisó los 20 años de investigación de las causas de la extinción en
masa de especies, consideró que se había producido hace 65 millones de años (la extinción
Cretácica-Terciaria) sustentándose en la explicación ortodoxa de que un asteroide gigante
había impactado contra la península mexicana de Yucatán. Pero algunos investigadores
acusaron al panel de haber interpretado erróneamente sus descubrimientos mientras que
otros los acusaron de haber ignorado un amplio cuerpo de evidencias inconsistente con su
conclusión.[47]
Metodología defectuosa
Los experimentos llevados a cabo por Bernard Kettlewell en los años 50 y 60 con el
objetivo de demostrar la selección natural a través del oscurecimiento industrial de la
polilla moteada contenían numerosos defectos que socavaron la conclusión a la que quería
llegar. A pesar de que dichos defectos salieron a la luz en 1998, su trabajo sigue
utilizándose como prueba del neodarwinismo.[48]
Un artículo emblemático publicado en 1987 utilizó el ADN mitocondrial para
realizar el seguimiento del linaje de una mujer que vivió hace 200.000 años en África, la
conocida «Eva mitocondrial». La metodología utilizada fue puesta en duda posteriormente
en diversos aspectos, destacando entre ellos la selección de muestras y el programa
informático utilizado. Pero sus conclusiones siguen citándose todavía.[49]
Perpetuación de una teoría defectuosa
La perpetuación de una teoría que ha quedado contradicha por las evidencias
empíricas es algo que entra en conflicto con uno de los dogmas básicos de la metodología
científica. Normalmente, esta perpetuación surge de la elección de supuestos y queda
reforzada por la posterior selección e interpretación de datos que se apartan de forma
significativa de la objetividad para poder justificar la teoría. En el capítulo 12 hemos visto
que la teoría geológica ortodoxa que explica las arrugas características de la superficie de la
Tierra se mantuvo vigente durante más de cincuenta años a pesar de que las evidencias que
sustentaban la teoría de la deriva continental (que posteriormente se desarrolló para dar
lugar a la teoría de las placas tectónicas) se acumulaban.[50]
Durante los últimos treinta años, la explicación ortodoxa de la emergencia en la
Tierra de las primeras formas de vida independientes ha sido que la energía del sol, y
posiblemente también de otras fuentes, provocó reacciones aleatorias en la sopa acuosa de
moléculas compuestas por un máximo de 13 átomos que con el tiempo dieron como
resultado la selección ultradarwinista de moléculas auto-replicantes de ARN. Sin embargo,
los intentos experimentales de sustentar esta idea no solo han fracasado, predeciblemente
por razones químicas según varios científicos, sino que además la probabilidad estadística
de que reacciones aleatorias produzcan moléculas de ese tamaño y complejidad es cercana
a cero.[51]
La teoría ortodoxa de la evolución biológica desde mediados del siglo xx asume la
validez de la selección natural darwinista gradual, que incorpora en un modelo matemático
de genética de poblaciones. Sin embargo, los capítulos 17 al 23 incluyen una cantidad
considerable de evidencias empíricas, obtenidas tanto a partir del registro fósil como a
partir de estudios de un rango mucho más amplio de especies en estado salvaje que las
moscas de la fruta y los gusanos nematodos de laboratorio, que entran en conflicto con este
modelo neodarwinista. Y pese a ello, uno de sus principales proponentes afirmó en 2006
que el neodarwinismo ya no era tan solo una teoría, sino que además era un hecho
establecido.[52] De hecho, hoy en día, la inmensa mayoría de biólogos equipara el
fenómeno de la evolución biológica (que tiene una base de evidencias atractiva) con el
modelo matemático neodarwinista, y tiende a tratar cualquier duda sobre el neodarwinismo
como un ataque a la realidad de la evolución biológica.[53]
Estos y otros ejemplos ilustran que la teoría acaba a menudo solidificándose y
transformándose en dogma, que es la antítesis de la ciencia y limita sus avances. La
mentalidad de pensamiento grupal que genera queda ejemplificada por los 155 biólogos que
firmaron artículos publicados por Nature afirmando que el fundador de la sociobiología no
comprendía ni sus propias teorías después de que este tuviera la transparencia y la valentía
de publicar un artículo reconociendo que, después de 40 años, sus teorías no habían
aportado apenas avances en la explicación de la conducta animal y humana.[54]
Supresión de teorías alternativas
El progreso científico está limitado además cuando los proponentes de una teoría
que se ha convertido en dogma obstaculizan e incluso suprimen los intentos de otros de
desarrollar o publicar teorías alternativas.
El mismo año que Nature publicó las evidencias acumuladas a lo largo de 50 años
que demostraban que la teoría de la deriva continental explicaba fenómenos geológicos
mucho mejor que la teoría ortodoxa vigente, el Journal of Geophysical Reseach rechazaba
un artículo similar escrito por otro investigador argumentando que «no es el tipo de cosa
que debería publicarse bajo un patrocinio científico serio».[55]
En el capítulo 5 se comenta que el dominio por parte de los teóricos de cuerdas de
los comités que deciden en los Estados Unidos los nombramientos y las becas académicas
en el campo de la física teórica ha dificultado que, aun a pesar de la falta de éxitos que las
conjeturas de cuerdas han demostrado a lo largo de 30 años, cualquier enfoque alternativo
obtenga financiación, mientras que, por otro lado, algunos teóricos de cuerdas llevan a cabo
prácticas más que dudosas para reprimir cualquier tipo de opinión disconforme.[56]
En el capítulo 3 hemos visto que la adhesión continuada de Fred Hoyle a la teoría
del estado estacionario lo llevó a ser condenado al ostracismo por sus colegas académicos y
lo obligó a dimitir de su puesto como profesor en Cambridge en un acto sin apenas
precedentes.[57] Varios astrónomos distinguidos han protestado diciendo que las revistas
académicas se niegan a publicar aquellas interpretaciones de los datos astronómicos que
contradicen la interpretación ortodoxa que además, afirman, es fruto de matemáticos
teóricos y no de astrónomos consagrados a la observación. Alegan, por otro lado, que ha
habido muchos intentos fructíferos de impedir que reciban invitaciones a determinadas
conferencias[58] y que se les niega tiempo de utilización de telescopios para poder verificar
sus hipótesis.[59]
El capítulo 23 muestra que los que ofrecen alternativas al actual modelo ortodoxo
de evolución biológica tampoco salen muy bien parados. Un ejemplo sorprendente es lo
sucedido con la teoría de la simbiogénesis de Lynn Margulis, que tanto le costó publicar.
Incluso después de que los neodarwinistas reconocieran que su explicación de la evolución
de la mitocondria y los cloroplastos en células eucariotas estaba sustentada por evidencias
genéticas y era correcta, las revistas principales del ámbito de la ciencia y la biología
siguieron negándose a publicar su trabajo. Un destacado neodarwinista la tildó en 2011 en
su página web de loca por haberse atrevido a plantear aquella alternativa al modelo
neodarwinista.[60]
El anquilosamiento en forma de dogma de la mejor teoría disponible en el momento
da como resultado la respuesta defensiva a cualquier postura contraria que caracteriza a las
creencias más institucionalizadas e, inevitablemente, la ciencia ha acabado
institucionalizándose a través de sus sociedades especializadas y de los departamentos
universitarios que forman a los futuros científicos. Prácticamente todas las instituciones
humanas —partidos políticos, gobiernos o religiones— responden de forma similar cuando
se ven cuestionadas desde dentro o desde fuera, de modo que la resistencia al cambio de los
defensores y enseñantes de la ortodoxia actual no es en absoluto en fenómeno extraño. Pero
corresponde a los miembros de las instituciones científicas recordar que lo que distingue a
la ciencia de los partidos políticos, los gobiernos y las religiones es su compromiso con la
verificación empírica llevada a cabo del modo más objetivo posible, así como la
modificación o el rechazo de una teoría cuando aparezcan nuevos datos que entren en
conflicto con ella.
Fraude
En la inmensa mayoría de los casos, el alejamiento de los científicos de la
objetividad a la hora de elegir supuestos, seleccionar e interpretar los datos, perpetuar
teorías defectuosas e incluso suprimir teorías alternativas, está motivado por razones
honestas, aunque con frecuencia erróneas. Pero a lo largo de este viaje me he encontrado
también con casos de fraude. El falso fósil del Hombre de Piltdown pasó desapercibido
durante 40 años, mientras que Reiner Protsh falsificó sistemáticamente la datación de sus
fósiles a lo largo de un periodo de 30 años.[61] En 2010, la Universidad de Harvard declaró
a Marc Hauser culpable de falsificar datos en experimentos sobre la conducta de animales.
[62]
Esto, sin embargo, no son simples ejemplos aislados de «manzanas podridas», tal y
como dan a entender los medios de comunicación. En 2009, Daniele Fanelli, del Institute
for the Study of Science, Tecnnology & Innovation de la Universidad de Edimburgo, llevó
a cabo la primera revisión y meta-análisis sistemático de datos sobre la mala praxis
científica. Descubrió que casi el 2 por ciento de los científicos reconocía haber inventado,
falsificado o modificado datos o resultados al menos en una ocasión —una forma grave de
mala praxis— y que hasta un tercio de ellos reconocía otras prácticas de investigación
cuestionables. Cuando preguntó a los científicos acerca de sus colegas, el 14 por ciento
declaró que creía que los demás científicos falsificaban datos y hasta un 72 por ciento dijo
sospechar que los demás utilizaban métodos de investigación cuestionables. Fanelli
concluye su estudio diciendo: «Considerando que estas encuestas formulan preguntas
capaces de herir la susceptibilidad y presentan otras limitaciones, parece probable que
estemos ante una estimación conservadora de la verdadera prevalencia de mala praxis
cientifica».[63]
No es en absoluto mi intención desprestigiar la ciencia, que ha revolucionado y
expandido sobremanera nuestros conocimientos sobre los fenómenos naturales, pero sí creo
que debemos reconocer las limitaciones que existen en el ámbito de la ciencia en cuanto a
nuestra comprensión actual de cómo emergimos y evolucionamos desde el origen del
universo.
Limitaciones fuera del ámbito de la ciencia
Como individuos somos algo más que la suma de nuestras células, moléculas,
átomos y sus interacciones. Estamos conformados en gran parte por lo que vemos, oímos,
sentimos, recordamos, pensamos, etc. Estas experiencias subjetivas no pueden observarse
objetivamente ni experimentarse con el método científico. El mejor ejemplo de ello son los
qualia, examinados en el capítulo 29, donde he citado el caso aportado por los
neurocientificos V. S. Ramachandran y Colin Blakemore: un neurocientífico que no puede
distinguir los colores por un problema congénito podría controlar todos los procesos
fisicoquímicos que se producen cuando un individuo ve una rosa roja, pero nunca sería
capaz de experimentar la calidad del rojo percibida por ese individuo.
Los neurocientíficos reduccionistas, sin embargo, afirman ser capaces de llevar a
cabo test objetivos de visión. En 2012, un equipo de la Universidad de California, Berkeley,
utilizó la IRMf (Imagen por Resonancia Magnética Funcional) para controlar la actividad
neural de 30.000 regiones del córtex cerebral de cinco hombres mientras veían dos horas de
imágenes de vídeo que contenían 1.705 categorías de objetos y acción como animales,
edificios y vehículos. Descubrieron que los cinco hombres compartían mapas cerebrales
similares de áreas activas que se solapaban y se correspondían con las distintas categorías.
[64] Pero esto no nos informa de qué animales, edificios y vehículos concretos veían
aquellos hombres cuando esas áreas estaban activas, a menos que (como sucedía en el
experimento) el investigador estuviera también viendo la misma imagen o el individuo en
cuestión se lo comunicara al investigador.
Para poner otro ejemplo, por mucho que en el futuro un neurocientífico fuera capaz
de controlar la actividad de todas y cada una de las neuronas del cerebro de un individuo
mientras este individuo está soñando, el neurocientífico no podría predecir ni saber qué
sueño en concreto estaría teniendo el individuo ni compartir la experiencia del individuo en
ese sueño.
De un modo similar, escuchar una interpretación de la sinfonía Júpiter de Mozart no
puede reducirse a recibir unas ondas de sonido que vibran en los tímpanos y son
transmitidas por vías fisicoquímicas hasta que activan las neuronas del cerebro. La
experiencia de escuchar implica muchas más cosas, como la sensación de placer, la
comparación con la interpretación por parte de otras orquestas, la anticipación de los
compases siguientes, los recuerdos de la última vez que se ha escuchado la pieza, etc. Son
experiencias que ni son mensurables, ni pueden observarse sistemáticamente, ni pueden
replicarse. Todas estas respuestas se combinan para proporcionarnos una experiencia
subjetiva y holística que es única para cada individuo.
He llegado a la conclusión de que la característica exclusiva y diferenciadora de la
especie humana es el pensamiento reflexivo. En 2010, un grupo de neurocientíficos del
University College de Londres correlacionaron la capacidad de introspección con la
estructura de una pequeña región del córtex prefrontal del cerebro. Pero no averiguaron la
relación casual: ¿se desarrolló esta área a medida que mejoramos en la reflexión sobre
nuestros pensamientos, o acaso los humanos somos mejores en introspección precisamente
porque el córtex prefrontal está más desarrollado?[65] Y lo que es más fundamental, el test
objetivo no mostró cuáles eran esos pensamientos introspectivos.
A pesar de que la neurociencia está logrando grandes éxitos en la demostración de
las correlaciones físicas de muchas cosas no físicas, sería un error fundamental confundir
las correlaciones físicas de la experiencia subjetiva con la experiencia en sí.
Algunas experiencias subjetivas —como la inspiración que proporciona un maestro,
enamorarse, ser testigo de un nacimiento o de un fallecimiento y alcanzar un objetivo
importante— pueden jugar un papel fundamental en la determinación de quién somos a
nivel individual.
Conceptos y valores sociales
Todos los aspectos de la realidad están sujetos a evolución, desde los átomos y las
estrellas hasta los peces y las flores, pasando por las sociedades y los valores humanos; de
hecho […] toda la realidad es un único proceso de evolución.
Reflexiones
Inicié este viaje de exploración con mentalidad abierta decidido a averiguar qué
puede contarnos la ciencia sobre lo que somos los humanos y cómo hemos evolucionado,
no solo desde las primeras formas de vida de la Tierra, sino también desde el origen de la
materia y la energía. Cuanto más cosas aprendía, más cuenta fui dándome de lo mucho que
no sabemos. El reconocimiento del alcance de nuestra ignorancia no suele estar presente, y
tal vez es comprensible, en los científicos centrados en el último descubrimiento de su
estrecho campo de especialización. Tampoco está presente, y esto sí que es menos
comprensible, en los científicos cuya adhesión a una teoría concreta se ha solidificado hasta
transformarse en una creencia inquebrantable.
El capítulo 32 considera las limitaciones de nuestro conocimiento dentro del ámbito
de la ciencia y fuera también del ámbito de la ciencia. La ciencia diferencia la explicación
científica de los demás tipos de explicación por sus intentos de comprender y describir los
fenómenos naturales mediante observaciones o experimentos repetibles, sistemáticos y
preferiblemente mensurables e inferir, a partir de estos datos, leyes verificables que puedan
utilizarse para realizar predicciones o retrodicciones.
El relato de la cosmología ortodoxa actual sobre el origen de la materia y la energía
de la que estamos hechos encaja mal dentro del ámbito de la ciencia.
Las evidencias obtenidas a partir de la observación contradicen el modelo básico del
Big Bang. Las dos grandes modificaciones que se hicieron al modelo para solventar estos
conflictos dieron como resultado el modelo del Big Bang caliente inflacionario con
fluctuación cuántica, pero la reivindicación central de estas modificaciones —a saber, que
el universo que podemos observar no es más que una parte increíblemente minúscula de la
totalidad del universo, del cual no podemos obtener información— es imposibles de
verificar. Además, estas modificaciones producen un modelo lógicamente inconsistente
siempre y cuando se mantenga que el Big Bang es el inicio de todo, o un modelo que
contradice este principio básico en el caso de que existiera un vacío cuántico y un campo de
inflación antes del supuesto Big Bang.
Por otro lado, reconciliar este modelo modificado con la interpretación ortodoxa
actual de los datos observados invoca la presencia de una «materia oscura» misteriosa que
integra el 27 por ciento del universo observable y de una «energía oscura» anti-gravedad,
más misteriosa si cabe, que integra el 68 por ciento del universo observable. El modelo
presenta importantes problemas conceptuales, el menor de los cuales no es precisamente
ofrecer una explicación convincente de la creación de la materia y la energía a partir de la
nada.
Otras hipótesis planteadas para modificar aún más el modelo ortodoxo o sustituirlo
no están verificadas o son imposibles de verificar con los medios conocidos hasta la fecha.
La disciplina empírica de la ciencia sigue sin poder determinar si el cosmos es eterno o no.
A partir de las evidencias empíricas podemos deducir que evolucionamos de la
energía primigenia hacia formas de vida con base de carbono y con conducta sofisticada, y
que poseemos el objeto más complejo de todo el universo conocido: el cerebro humano.
Pero esa evolución solo fue posible porque las prácticamente ilimitadas interacciones entre
la materia y la energía se vieron constreñidas por una serie de leyes físicas y químicas,
además de por el ajuste de precisión de seis parámetros cosmológicos, dos constantes sin
dimensión y tres parámetros de nucleosíntesis. Además, esta evolución necesitó de un
planeta con un rango de masa limitado, que poseyera los elementos químicos necesarios y
que estuviera situado en una parte concreta de una galaxia y en una parte concreta de un
sistema solar, donde recibiera la cantidad justa del tipo de energía adecuado durante varios
miles de millones de años y quedara protegido de las radiaciones letales de energía y de las
colisiones de los cometas y otros desechos espaciales.
La ciencia, una disciplina empírica, no puede explicar cuál es la causa de la
existencia de estas leyes físicas y químicas, por qué estos parámetros tienen los valores
críticos que tienen y por qué se produjo la concurrencia de factores altamente improbables e
inusuales en el planeta Tierra, todo lo cual se combinó para producir las condiciones
necesarias para nuestra evolución. (Las muchas explicaciones que giran en torno a un
multiverso son especulaciones no verificables y en su mayoría parten de una lógica
cuestionable).[1] Sin este conocimiento, sin embargo, la cadena de causalidad que llevó a la
emergencia y la evolución de los humanos queda incompleta.
Pese a que la ciencia es capaz de informarnos acerca de las correlaciones físicas de
nuestras experiencias subjetivas, no puede explicarnos la esencia de dichas experiencias,
que se combinan holísticamente para que cada uno de nosotros tenga una sensación única
que conforma, en un muy alto grado, lo que somos a nivel individual. De un modo similar,
la ciencia tampoco puede explicarnos la esencia de determinados conceptos, como los
valores que ayudan a conformar a los humanos al nivel de las sociedades.
En términos generales, las limitaciones dentro del ámbito de la ciencia son de dos
tipos: permanentes y temporales. Estas últimas desaparecerán a medida que la ciencia
avance con nuevos datos y nuevas ideas. Pero algunas limitaciones, como la pérdida
irreparable de datos, son permanentes.
De todos modos, lo que la ciencia puede explicarnos actualmente acerca de quién
somos y de dónde venimos es importante. Y existe, además, un patrón general que domina
las evidencias.
Conclusiones
———
r2
Figuras 3.2 y 3.3 de The Inflationary Universe © 1997, Alan Guth, con la debida
autorización por parte del autor.
Figura 4.1, NASA.
Figura 5.1 de A Brief History of Time © 1988, Stephen Hawking con la debida
autorización de Writers House LLC, en nombre del autor.
Figura 5.2 de Facts and Speculations in Cosmology © Jayant Narlikar y Geoffrey
Burbidge, 2008 con la debida autorización de Jayant Narlikar.
Figura 5.3 con la debida autorización de Paul Steinhardt.
Figura 8.1 From The Inflationary Universe © 1997, Alan Guth con la debida
autorización por parte del autor.
Figura 8.2, NASA.
Figura 8.3, Observatorio Europeo Austral.
Figuras 8.4, 9.1, y 9.2, NASA.
Figura 9.3 con la debida autorización de International Union of Pure & Applied
Chemistry.
Figura 10.1, NASA.
Figura 12.2, Dna-Dennis.
Figura 12.3 de Environmental Science: Earth as a Living Planet, de Daniel D.
Botkin y Edward A. Keller (Media Support Disk) © 1999, de John Wiley and Sons Inc. con
la debida autorización del editor.
Figura 12.4, NASA.
Figura 12.5, dibujo de un original de Stephen Nelson, con su debida autorización.
Figuras 12.6, 12.7 y 12.8, The United States Geological Survey.
Figura 14.1 con la debida autorización de Norman Pace.
Figura 14.2, Mariana Ruiz Villarreal.
Figure 14.3, The National Human Genome Research Institute.
Figura 14.4, adaptada de un original de Yassine Mrabet.
Figura 14.5, Yassine Mrabet.
Figuras 15.1 y 15.2 de At Home in the Universe © 1995, Stuart Kauffman; figuras
© 1993 Oxford University Press, reproducidas con la debida autorización de Oxford
University Press.
Figura 16.1, John Gould.
Figuras 17.1 y 17.2 de The Crucible of Creation © 1998 Simon Conway Morris,
con la debida autorización del autor y de Oxford University Press.
Figura 17.3 © John Hands, digitalizada por Kevin Mansfield.
Figura 17.5 de http://web.neomed.edu/web/anatomy/Pakicetid.html.
Figura 17.6 de http://web.neomed.edu/web/anatomy/Pakicetid.html, ilustración de
Carl Buell.
Figura 17.7 con la debida autorización de Encyclopedia Britannica Inc. © 2011.
Figura 18.1, Trevor Bounford.
Figura 19.1, Mediran.
Figura 20.1, © John Hands.
Figura 20.2, con la debida autorización de Douglas L. Theobald.
Figura 23.1, © John Hands.
Figura 23.2, Kathryn Delisle, reproducida con la debida autorización de Lynn
Margulis.
Figura 24.1, adaptada del dibujo de Quasar Jarosz.
Figura 24.2, © John Hands, dibujo modificado por Trevor Bounford.
Figura 24.3, dibujo modificado por Trevor Bounford a partir de un original de
William Tietien.
Figura 24.5, adaptada con la debida autorización de la página web de HOPES,
Universidad de Stanford, https://www.stanford.edu/group/hopes/cgi-bin/wordpress/?
p=3787.
Figura 24.6, con la debida autorización de http://brainmuseum.org/ y
https://www.msu.edu, con el apoyo de la US National Science Foundation.
Figura 26.1, © John Hands.
Figura 26.2, con la debida autorización de Encyclopedia Britannica Inc. © 2013.
Figura 27.1, © John Hands.
Figura 28.1 Klem.
Figuras 28.2, 29.1, 29.2, 31.1 y 31.2, © John Hands. figura 31.1 dibujo modificado
digitalmente por Kevin Mansfield. figura 31.2 dibujo modificado digitalmente por
Fakenham Prepress Solutions.
Allí donde no aparece mencionada la debida autorización, es porque la ilustración
no posee derechos de reproducción. Se han hecho todos los esfuerzos posibles con el fin de
localizar a todos los titulares de derechos de reproducción y tanto el autor como la editorial
rectificarán en ediciones futuras cualquier error u omisión que se les comunique.