Sie sind auf Seite 1von 27

Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton

4. CRISIS DE LA FUNDAMENTACIÓN MATEMÁTICA Y LÓGICA DE LA CIENCIA DE NEWTON

1. La crisis del principio de evidencia: El nacimiento de las geometrías no euclídeas


1.1 Importancia de la geometría de Euclides en la Antigüedad y en la ciencia de
Galileo y Newton
1.2 Los pasos que condujeron a las nuevas geometrías
1.3 Relevancia de las nuevas geometrías
1.4 La formalización de Riemann

2. Fracaso del intento cantoriano de fundamentar la matemática:La teoría de conjuntos de


Cantor
2.1 Problemas con el infinito en el cálculo infinitesimal
2.2 Algunas aportaciones de Cantor acerca de los infinitos
2.3 La teoría de conjuntos de Cantor
2.4 Antinomias en dicha teoría de conjuntos

3. Fracaso del intento de Frege de fundamentar la matemática: La antinomia de Russell


3.1 El proyecto de Frege en lógica y matemática
3.2 La antinomia de Russell
3.3 Relevancia metafísica de las antinomias

4. Fracaso del intento de Hilbert de fundamentar la matemática: Los teoremas de Gödel


4.1 El planteamiento formalista de Hilbert
4.2 El problema de los axiomas de la aritmética
4.3 Los teoremas de Gödel
4.4 Otros teoremas de limitación

5. Consecuencias de los fracasos anteriores: la muerte científica del cientificismo


5.1 La muerte científica del cientificismo
5.2 Consecuencias de los teoremas de limitación
5.3 Los sistemas lógicos abiertos
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
1. La crisis del principio de evidencia:El nacimiento de las geometrías no euclídeas
1.1 Importancia de la geometría de Euclides en la Antigüedad y en la ciencia de
Galileo y Newton
-Por todo lo que hemos visto hasta ahora resulta muy claro que en la ciencia de Galileo y
Newton la geometría de Euclides, es decir, la geometría plana, ocupaba un lugar
fundamental.
-Esta geometría se consideraba como la única posible y como algo evidentes, es más, era
el prototipo de evidencia. De hecho muchos científicos y filósofos querían dar a la
filosofía este tipo de rigor y de evidencia. Esta era una de las raíces del carácter
apodíctico que tenía la ciencia de Newton y Galileo.
-Con todo hay que decir que no todos en la Antigüedad habían considerado este carácter
necesario de la geometría de Euclides. El problema fundamental estaba en el famoso
quinto postulado: dadas dos paralelas no se encuentran ni en el infinito. Aristóteles, por
ejemplo, tiene diversos fragmentos en sus obras que responden a geometrías en las que no
se admiten los axiomas que luego desarrollará Euclides.
-De una manera intuitiva se advierte el problema: muchas líneas curvas, que se
consideran asíntotas, es decir, que se acercan cada vez a una recta dada: en lo finito no se
encuentran, pero sí en el infinito. Esto hacía pensar que el quinto postulado no era tan
evidente y que se debería demostrar. No obstante, Euclides y otros muchos lo
consideraron evidente.
1.2 Los pasos que condujeron a las nuevas geometrías
-En los siglos XVIII y principios del XIX hubo varios intentos de demostrar el quinto
postulado, por parte de Saccheri (1667-1733), Lambert (1728-1777) y Legrende (1752-
1833) entre otros, pero fueron incapaces. Sin embargo, dado el momento histórico de
auge de la ciencia, muchos consideraron que no se podía demostrar, precisamente
porque era evidente. Con esto se afianzaba la convicción de que los principios de la
nueva ciencia eran evidentes.
-Ya hacia 1820 Gauss (1777-1855) uno de los mayores matemáticos de la historia
empezó a pensar que la imposibilidad de demostración no era una simple cuestión de
hecho, sino que en realidad era posible que existieran otras geometrías coherentes sin el
quinto postulado, es decir, eran posibles geometrías no-euclídeas. Con esto desaparecía
el carácter absoluto de la geometría de Euclides. No obstante Gauss se dio cuenta de que
esta conclusión resultaría tremendamente escandalosa para su tiempo y no la divulgó.
-Continuaron trabajando en este sentido Lobacevskij (1793-1856) y Bolyai (1802-1860),
que publicaron sus conclusiones, semejantes a las de Gauss y buscaron, en vano, el apoyo
público del matemático alemán. Lobacevskij desarrolló una geometría llamada por él
imaginaria, porque es diferente de la percepción común, pero perfectamente coherente;
Bolyai demostró que no es contradictorio admitir que por un punto pasen infinitas
paralelas. Posteriormente Riemann (1826-1866) llevó a su culminación esta revolución
conceptual.
1.3 Relevancia de las nuevas geometrías
-La consecuencia fundamental de las nuevas geometrías es que desapareció la convicción
tradicional de que los axiomas de la geometría (o los axiomas de cualquier sistema)
pudieran ser probados mediante una aparente auto-evidencia.
-La labor del matemático será derivar teoremas de postulados que son hipotéticos, es
decir, se abandona el carácter apodíctico de muchos principios, que ahora se deben
considerar hipotéticos, y conforme a ellos sacar conclusiones.
-La pretensión cartesiana y la de la ciencia de Galileo que consideraba como criterio de
verdad la auto-evidencia, en lugar de la adecuación al ser y el estudio de las causas,
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
realidades oscuras y no evidentes, se mostraba como algo infundado. Ya la geometría no
era la depositaria de verdades absolutas.
-Se puede decir que para la filosofía kantiana estas nuevas geometrías fueron algo así
como el descubrimiento de las cantidades inconmensurables para el sistema pitagórico:
perdía gran parte de su fuerza, y en sus grandes líneas quedaba sin fundamento.
1.4 La formalización de Riemann
-El estudio de las geometrías no euclídeas fue profundizado por B.Riemann. Desarrolló
la llamada geometría hiperbólica, según la cual no de puede trazar ninguna paralela por
un punto exterior a una recta dada.
-Sin embargo la gran aportación de Riemann fue axiomatizar completamente la
geometría. Esto significaba dos cosas:
a) Los postulados de esta ciencia no se pueden considerar nunca como verdades
absolutas, sino como hipótesis.
b) El contenido descriptivo de los axiomas y de los conceptos primitivos (de los que
parten los razonamientos) se debe abandonar.
-El último punto señalado es especialmente importante: la matemática pasa de ocuparse
de entes matemáticos (espacios, rectas, figuras, de la experiencia ordinaria) a tratar
simplemente relaciones sintácticas entre símbolos del lenguaje matemático. La
matemática pasa de ser la ciencia de la cantidad a ser la ciencia de las relaciones.
-Ahora ya la geometría es una ciencia formalizada. Ya vimos que un primer paso en
este sentido lo dio Descartes, cuando relacionó el álgebra y la geometría. Un ejemplo es
la fórmula de las potencias de un binomio: (a+b)n. Si n=2 podemos visualizar el problema
dibujando segmentos y cuadrados; si n=3 podemos construir objetos en tres dimensiones
que representen este problema, pero si n es mayor de tres ya no podríamos hacer nada.
Gracias a Descartes se podían ampliar los postulados de Euclides a más dimensiones. El
segundo paso lo da Riemann, antes de él las expresiones del álgebra usadas en
geometría están siempre referidas a magnitudes (numéricas y/o espaciales) indicadas de
una manera simbólica. Después de Riemann las expresiones algebraicas usadas en
geometría no denotan nada, son expresiones sin significado referencial, que pueden
asumir diversos significados a través de una interpretación adecuada. La geometría se
convierte en un sistema formal en sentido moderno, esto es, la geometría se convierte en
una ciencia deductiva que puede representar de manera abstracta, mediante su formalismo
de símbolos, no relaciones entre cantidades, sino relaciones y estructuras.
-La matemática cada vez se parecerá más a la lógica formal, y aquí el criterio no será la
verdad, sino la coherencia o consistencia del sistema formal, es decir que esté bien
construido conforme a una serie de reglas. Un ejemplo de teoría matemática axiomatizada
es la aritmética de G.Peano. Los términos primitivos de este sistema son: «cero»,
«número entero», «relación de sucesión». Estos primitivos satisfacen (esto es, adquieren
un significado meramente sintáctico) para los siguientes cinco axiomas: 1)Cero es un
número; 2)Si n es un número, entonces el sucesor de n es un número; 3)Cero no es el
sucesor de ningún número; 4)Dos números cuyos sucesores sean iguales son ellos
mismos iguales; 5)Toda propiedad de la cual goza el cero y el sucesor inmediato de todo
número que goza de dicha propiedad, pertenece a todos los números. La aritmética
ordinaria constituye un modelo de este sistema formal que lo hace verdadero en esa
aplicación concreta. A la inversa, el sistema formal de Peano constituye una
axiomatización de la aritmética ordinaria, pues con este modelo se pueden deducir todas
las operaciones de la aritmética ordinaria.
-Volviendo al tema de la geometría no euclídea, Riemann propuso un modelo euclídeo o
interpretación euclídea de su geometría: si se trazaban dos líneas sobre una esfera,
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
como si fueran dos círculos máximos (como los meridianos en una esfera terrestre)
siempre se encontrarán en los polos, no es posible, por tanto, trazar una paralela por un
punto exterior a otra recta. Con este modelo se podía visualizar, por así decir, la nueva
geometría, pero no debemos olvidar que esto es simplemente un modelo de un sistema
axiomático que es la geometría de Riemann.

2. La teoría de conjuntos de Cantor


2.1 Problemas con el infinito en el cálculo infinitesimal
-En el cálculo infinitesimal, otro de los elementos irrenunciables de la ciencia de Newton
aparecían algunos problemas con los infinitésimos, es decir, la divisibilidad hasta el
infinito, para poder explicar tanto la noción de integral como de derivada. Estas
cantidades, que cada vez se hacían más pequeñas, hasta convertirse en evanescentes,
fueron uno de los blancos preferidos de las críticas de Berkeley a la matemática de
Newton en este punto. Leibniz trató de explicar el análisis con otros conceptos, como el
de número infinitesimal.
-Posteriormente se trató de explicar con más rigor el cálculo diferencial mediante la
noción de función y de límite. Se quería superar la intuición geométrica de un continuo,
muy denso, tal como lo había pensado Newton, y establecer el cálculo diferencial basado
en la aritmética y en la noción de número real. Ahora bien, todo esto, exigía suponer la
actualidad de la totalidad infinita de los números reales, que, por así decir, recorre la
variable para llegar a su límite. Hay un texto de Cantor bastante significativo:
«No hay duda de que no podemos prescindir de cantidades variables en el seno del
infinito potencial; y desde aquí se puede demostrar la necesidad del infinito actual.
Para que haya una cantidad variable en una teoría matemática, el «dominio» de su
variabilidad debe ser, hablando estrictamente, conocido por anticipado mediante una
definición. En cualquier caso, este dominio no debe ser a su vez algo variable, pues en
caso contrario cualquier base para el estudio de la matemática desaparecería. Así pues,
este dominio es un conjunto de valor definido, actualmente infinito»
2.2 Algunas aportaciones de Cantor acerca de los infinitos
-Cantor ha pasado a la historia de la matemática como el que ha comenzado a contar y
distinguir los infinitos. Una primer distinción que se encuentra en él es entre tres géneros
de infinito, que aquí simplemente indicamos, pues estudiaremos más adelante: i/ infinito
potencial; ii/infinito transfinito; iii/infinito absoluto.
-Es muy interesante la noción cantoriana de infinito transfinito, pues está indicando que
el límite de lo finito no es lo absoluto, como suponía Kant en alguna de sus famosas
antinomias de la razón pura. En infinito transfinito es un infinito determinado, es decir,
que se encuentra especificado, pero es incrementable. Y en este infinito transfinito se
distinguen diversos niveles. El nivel más elemental es el de los números naturales
1,2,3...o el de los enteros ...-3,-2,-1,0,1,2,3...: ambos son numerables, es decir, se puede
establecer una correspondencia entre los naturales y los enteros, y esto se puede extender
a los números racionales y los enteros; estos infinitos se dice que tienen la potencia del
numerable. En cambio hay un nivel superior, el de los números reales, que según había
demostrado Dedekind, se pueden poner en correspondencia con el continuo: este grupo
constituía el segundo orden transfinito. Hay que recordar que uno de los problemas que
siempre le preocupó y no fue capaz de resolver es si entre el transfinito primero y el
segundo se podía pensar en otros transfinitos (él postuló que no existía ese grupo
intermedio, y esto se denominó la hipótesis del continuo).
2.3 La teoría de conjuntos de Cantor
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
-Dejando aparte las cuestiones de los apartados anteriores, la aportación más importante
de Cantor fue el intento de fundamentar la matemática mediante métodos
constructivos, esto, no basta afirmar que existen ciertas entidades matemáticas, basadas
en una supuesta evidencia que puede fallar, sino que se busca definir, demostrar o
calcular las entidades matemáticas supuestas a partir de entidades u operaciones más
sencillas.
-Para este método constructivo Cantor desarrolló una noción que revolucionó toda la
matemática: los conjuntos. Dado que ya no se podía considerar como algo evidente el
concepto de número, de figura, de función... recurrió a una noción mucho más simple.
Esta noción no se constituye a base de axiomas presentados de manera hipotética, como
harán después de él ante las dificultades que encontró Cantor, sino mediante un
procedimiento demostrativo, basado sólo en el principio de no contradicción.
-Cantor afirma que todo conjunto está constituido como subconjunto de su conjunto
potencia, es decir, del conjunto de todas las posibles combinaciones del conjunto del que
partimos. Y esto hasta el infinito, tanto hacia arriba como hacia abajo, hasta llegar al
conjunto vacío. Por ejemplo: el conjunto A, que consta de cuatro elementos {a,b,c,d},
puede ser considerado como subconjunto del conjunto potencia de A, designado℘ A,
compuesto de dieciséis elementos. ℘ A estará constituido por todas las combinaciones
posibles de los elementos de A, { }, {a}, {b}, {c}, {d}, {a,b}, {a,c}, {a,d}, {b,c}, {b,d},
{c,d}, {a,b,c}, {a,b,d}, {a,c,d}, {b,c,d}, {a,b,c,d}. La potencia o cardinalidad (el número
cardinal de elementos) de un conjunto potencia de otro conjunto de n elementos es
evidentemente 2n.
2.4 Antinomia en dicha teoría de conjuntos
-El problema que se plantea en el método constructivo de Cantor es que aparece la
antinomia del conjunto universal. Si un conjunto debe ser universal está claro que debe
contener todos los conjuntos, incluyendo él mismo. Sin embargo, conforme a la
definición de Cantor, debería estar contenido en un conjunto de potencia o cardinalidad
superior, luego no puede estar contenido en sí mismo. La colección universal no puede
ser un conjunto, y de esta manera cae el proyecto constructivo de Cantor para
fundamentar la matemática en conjuntos.
-Cantor se dio cuenta bastante pronto de esta antinomia y para justificar el conjunto
universal o la colección universal se le ocurrió la idea de “cerrar” su sistema “por arriba”
mediante la noción de conjunto máximo basado en los números ordinales (relacionados
con contar los elementos de un conjunto según un cierto orden), como límite de una
sucesión de conjuntos transfinitos. Sin embargo el matemático italiano Burali-Forti
(1861-1931) mostró que de nuevo aparecían las antinomias, con lo cual fracasó, en ese
sentido, el proyecto de Cantor.
-Hay que tener presente que Cantor siempre pensó en una cierta colección absoluta en
la cual debían estar definidos de algún modo los elementos que no estaban definidos
actualmente en la serie de transfinitos. Esta fue una de las raíces de sus antinomias,
aunque volveremos con más detalle sobre esto al hablar de la infinitud de Dios.
-En cualquier caso lo más importante para nuestro estudio acerca de las crisis que
afectaron a la ciencia de Newton es que la noción de conjunto no se podía justificar por sí
misma y no quedaba más remedio que recurrir a una axiomatización como la de la
geometría: establecer unos axiomas, que eran hipotéticos, y trabajar con ellos. En el
próximo tema veremos nuevos intentos de fundamentar las matemáticas en la lógica para
mostrar su valor absoluto.
-Por último, y a pesar de la dificultad de todas estas cuestiones, tiene que quedar claro
que la cuestión del infinito es bastante compleja, y sorprende cómo bastantes filósofos de
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
ámbito eclesiástico y teólogos tratan estos temas con bastante ligereza
3. Fracaso del intento de Frege de fundamentar la matemática: La antinomia de Russell
3.1 El proyecto de Frege en lógica y matemática
3.1.1 Contribución de Frege a la lógica formal
-Si se puede hablar de un fundador de la lógica simbólica moderna, este es Frege, cuya
Begriffschrift o Ideografía es una obra sólo comparable a la aportación lógica de
Aristóteles.
-Esta idea se situaba en la tradición de Leibniz de una lengua perfecta, y en el deseo de
crear para la filosofía algo semejante a lo que ya se poseía en matemáticas o física y
química. Los antiguos estoicos también había aportado algo en este sentido.
-Boole había un cierto “álgebra de la lógica” pero apenas había avanzado en este camino.
Con Frege encontramos ya un cálculo deductivo de una manera simbólica, como en la
actualidad. Para esto fue determinante el instrumento de las funciones proposicionales,
esto es, tratar la estructura de una proposición de manera semejante a las funciones
matemáticas.
-No fue una obra muy acogida, pues su formalismo resultaba complejo y no procedía de
una manera lineal, sino en dos dimensiones. De hecho fue sustituido por el simbolismo de
Russell y Peano, pero tuvo un mérito innegable.
-Omitimos, por ser más propias de la lógica sus aportaciones a la filosofía del lenguaje.
3.1.2 Intento de fundamentar la matemática en la lógica
-Las anteriores aportaciones de Frege estaban orientadas a un plan más ambicioso:
fundamentar la matemática mediante la lógica. Para poder realizar esto antes había sido
preciso formalizar la lógica, como hizo desde sus primeras obras.
-Frege estaba convencido de que el intento de Cantor de fundamentar la matemática
mediante los conjuntos estaba destinado al fracaso, porque la misma noción de conjunto y
su carácter constructivo era algo que sólo se podía aplicar en matemáticas. Hacía falta
algo distinto para poder fundamentar las mismas matemáticas.
-La solución que encontró Frege fue la noción lógica de clase. Para definir las clases
define una propiedad universal que caracteriza todas las clases, el llamado axioma de
abstracción generalizada. Este axioma afirma que dada una propiedad y el predicado
que la expresa lingüísticamente, ya está constituida en la existencia la clase de todos los
elementos que tienen tal propiedad y por tanto que satisfacen dicho predicado, es decir, lo
hacen verdadero, constituyendo así el dominio de este predicado. E.c. Definir el
predicado “ser rojo” significa constituir la “clase de todos los objetos rojos” y con ella el
dominio de aplicación, o extensión de dicho predicado, que lo hace verdadero al definirlo
de manera unívoca dentro del lenguaje.
-Frege no desarrolló demasiado la noción de extensión, pues consideraba que era algo
conocido por todos, aunque por este punto le vendrían los problemas. La extensión de un
concepto es la clase de todas las cosas que caen bajo un concepto. Esta noción de
extensión se opone a intensión, que designa su definición o significado.
-Frege consideraba que los números no se dicen de las cosas, sino de los conceptos. E.c.
si decimos que la tierra tiene un satélite natural, o que el sistema solar tiene nueve
planetas, estamos indicando que bajo el concepto: satélite natural de la tierra cae un
objeto, y bajo el concepto planeta caen nueve objetos. Frege parte de la clase de todos los
conceptos (lo cual dará lugar a bastantes problemas) y entiende que el número cardinal de
un concepto P es la clase de todos los conceptos biyectables con Q, es decir, si hay una
relación que relaciona cada objeto que cae bajo P con uno y sólo un objeto de Q. De este
modo divide la clase de los conceptos en clases de equivalencia, a las que llama números
cardinales. Partiendo de esta noción llega a los números naturales: 0 es la clase de los
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
conceptos vacíos, 1 es la clase que corresponde al concepto “igual a cero”, es decir la
clase de los conceptos unitarios. Luego afirma que el hecho de que n es el siguiente de m
quiere decir que hay un concepto P y un objeto a que cae bajo él, tales que n es el número
de P y m es el número del concepto “cae bajo P y es distinto de a”. Esto guarda cierta
semejanza con los axiomas de Peano, a los que nos referimos antes, aunque no
entraremos en más detalles. Lo que sí debe quedar claro es que esta fundamentación de
la noción de número está suponiendo la noción de clase de clases, pues cada concepto
ya es una clase.
-La fundamentación de la noción de número aparece en su Grundlagen der Arithmetik
(1884). En Grundgesetze der Arithmetik desarrolla ya su programa logicista, que había
iniciado en obras anteriores, en las que proponía considerar los conceptos aritméticos
como conceptos lógicos, de manera que calcular se limitara a deducir.

3.2 La antinomia de Russell


3.2.1 Aproximación intuitiva de la antinomia
-Una primera aproximación intuitiva a esta paradoja se puede establecer mediante la
siguiente paradoja popular: «En un pueblo hay un barbero que afeita solamente a los
hombres que no se afeitan ellos mismos. Se pregunta ¿Al barbero quién lo afeita?».
-Si se responde que se afeita él mismo, entonces ya no es válida la primer afirmación,
pues el barbero sólo afeita a aquellos hombres que no se afeitan a sí mismos. Si se
responde que no se afeita él mismo, entonces lo debería afeitar el barbero, es decir, él
mismo. Luego en cualquiera de los casos llegamos a una contradicción.
3.2.2 Clases normales y clases no-normales
-Si profundizamos en la noción lógica de clase se puede distinguir entre dos géneros de
clases lógicas.
-Clases que no son miembros de sí mismas, como la mayoría de las clases lógicas en
cualquier tipo de lenguaje (e.c. la clase de los hombres no es un hombre, porque está
constituida sobre un predicado ser-hombre que no se aplica a sí mismo). Las podemos
considerar clases normales. En estas clases normales está incluídos los objetos
matemáticos, ante todo los números. Recordamos que para Frege cada número natural
0,1,2,3...es la clase de todas las clases que contienen respectivamente ninguno, uno, dos,
tres...elementos.
-Clases que se contienen a sí mismas como elemento, porque está constituidas sobre
predicados que se aplican a sí mismos (e.c. la clases de los polisílabos pertenece a sí
misma, porque “polisílabo” es polisílabo, a diferencia, e.c. de “monosílabo”). Las
denominaremos no-normales.
-Si queremos pensar en clases totales, mientras nos mantengamos en el ámbito de las
clases no normales no surge ningún problema. Se puede hablar de una clase de todas las
clases que se contienen a sí mismas. El problema viene si se piensa en una clase total de
clases normales.
3.2.3 Enunciado de la antinomia
-«Consideremos ahora la clase de todas las clases que no son elementos de sí mismas. Si
esa es un elemento de sí misma, entonces no es un elemento de sí misma» [en cuanto que
sus elementos son las clases que no son elementos de sí mismas]. «Si no lo es, lo es»
[porque toda clase no elemento de sí misma pertenece a la clase de todas las clases que no
son elementos de sí mismas].
-Evidentemente la clase de todos los números llevaba consigo una antinomia semejante a
la de Cantor. Hay que recordar que la cada número es una clase que no se contiene a sí
misma. El proyecto de Frege de fundamentar la aritmética en las clases fracasó de manera
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
análoga a como había fracasado el intento de los conjunto de Cantor. La respuesta de
Frege a Russell es significativa:
«Su descubrimiento de la contradicción me ha causado la mayor sorpresa y diría,
incluso, consternación, porque ha removido la base sobre la que pretendía construir la
aritmética. Ahora ya no comprendo cómo se pueda fundamentar la aritmética de una
manera científica [...] si no nos es permitido [...] pasar de un concepto a su extensión.
¿Puedo hablar, en cualquier caso, de la extensión de un concepto, esto es, puedo en
todo caso hablar de una clase? “Solatium miseris, socios habuisse malorum”. Este
consuelo, si es consuelo, también me ayuda a mí. De hecho, todos los que en sus
demostraciones han hecho uso de extensiones conceptuales, clases, conjuntos, están
en la misma situación que yo. Aquí no es cuestión de mi método de fundamentación
particular, sino de la posibilidad de una fundamentación lógica de la aritmética en
general»
-Frege tuvo la honradez de reconocer esto en el epílogo del segundo volumen de su
Fundamentación de la aritmética, que estaba en pruebas de imprenta cuando le llegó la
carta de Russell. Reconocía que el problema estaba en el hecho de que toda propiedad
define el conjunto de los elementos que la cumplen (su extensión), e indicaba que habría
renunciado a este principio si hubiera sabido cómo y con qué sustituirlo.
3.2.4 Observaciones sobre el carácter de esta antinomia
-Indicábamos más arriba, al hablar del intento logicista de Frege de fundamentar la
aritmética sobre la lógica, esta paradoja no tiene simplemente una consecuencia
matemática, sino que se puede aplicar a la misma lógica.
-Sin embargo hay otra cuestión todavía más profunda: para Frege tanto la lógica como la
matemática tienen que ver con enunciados verdaderos, no sólo coherentes (como sucedía
con la geometría euclídea antes de la formalización de Riemann). El axioma de
abstracción recordado en el apartado 1.2 muestra que la estructura sintáctica de las clases
se basa en el carácter veritativo del enunciado: la clase está constituida por la relación
entre el predicado y el dominio que cumple el predicado, es decir, que lo hace verdadero.
En cambio, la antinomia de Russell se mueve en el plano sintáctico de la relación de
pertenencia a una clase, no entra en el problema de la adecuación/verdad del predicado
respecto a su dominio.
-Todo esto indicaba algo muy importante: había antinomias que no dependían de la
semántica, es decir de los diversos significados o de un lenguaje engañoso: la raíz de
algunas antinomias estaba en la misma sintaxis. Evidentemente ya Aristóteles había
estudiado diversas paradojas, entre ellas la denominada antinomia del mentiroso: «Los
cretenses afirman: “todos los cretenses son mentirosos”» (aparece citada incluso en san
Pablo Ti 1,12), pues al preguntarse si los cretenses afirman algo verdadero o falso
aparecen las antinomias. Esta antinomia está a un nivel semántico, pues nos preguntamos
por la verdad o la falsedad. Ahora bien, la paradoja de Russell indica que existe también
una raíz sintáctica de las antinomias, no basta formalizar el lenguaje para evitar
antinomias. Con esto cae otro de los mitos racionalistas de un lenguaje perfecto y capaz
de explicarse a sí mismo.
-Sobre este último aspecto veremos más adelante, al estudiar los teoremas de Gödel que
el riesgo de contradicción está en el mismo planteamiento de demostración formal, y
en ese sentido es inevitable, a menos que se planteen las cosas de otra manera.
-Volviendo al problema del Frege, este autor tenía razón al pensar que el problema de la
verdad es algo anterior a la cuestión de la coherencia lógica. Su error consistía en que el
problema de la verdad se sitúa antes de la relación por la que un predicado ya constituido
satisface un dominio. La verdad aparece en la constitución misma del dominio - y por
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
tanto de la clase o del conjunto respectivo-. Se sitúa pues cuando se pone en existencia de
manera constructiva la existencia del objeto lógico o matemático en cuestión, sea un
elemento o un conjunto. Sobre esto aclararemos algo más en el apartado tercero de este
tema.
3.2.5 Otros intentos de Frege de fundamentar la matemática
-Frege se dio perfecta cuenta de que la matemática no se podía fundamentar en la lógica y
que todo el problema estaba en el uso de la noción: extensión de un concepto.
-Al fina de su vida pensó que era necesario otro modo de fundamentar la aritmética y
pensó en la geometría.
-Aquí el problema es que Frege no aceptó nunca las geometrías no-euclídeas. Tiene un
texto muy significativo:
«Nadie puede servir a la vez a dos señores. No es posible servir a la vez a la verdad y
a la falsedad. Si la geometría Euclídea es verdadera, entonces la geometría no euclídea
es falsa; y si la geometría no euclídea es verdadera, entonces la geometría euclídea es
falsa. Si por un punto exterior a una recta para siempre una paralela a esa recta y solo
una, entonces para cada recta y para cada punto exterior a ella hay una paralela a ese
punto que pasa por ese punto y cada paralela a esa recta por ese punto coincide con
ella. Quien reconoce la geometría euclídea como verdadera, debe rechazar como falsa
la no euclídea, y quien reconoce la no euclídea como verdadera debe rechazar la
euclídea...Ahora se trata de arrojar a una de ellas, a la geometría euclídea o a la no
euclídea, fuera de la lista de las ciencias y de colocarla como momia junto a la
alquimia y la astrología....¡Dentro o fuera! ¿A cuál hay que arrojar fuera, a la
geometría euclídea o a la no euclídea? Esa es la cuestión»
La respuesta de Frege se puede suponer cuál es: sólo era verdadera la euclídea.
-No tuvo presente el desarrollo de la geometría, que no consideraba ya como verdadera o
falsa una geometría: lo verdadero o falso era el ámbito de aplicación. De hecho sabemos
que en unos ámbitos se emplea una y en otros otra; incluso a principios de siglo XX
Einstein mostró como se podía aplicar al espacio-tiempo una geometría no euclídea.
-En realidad esta seguridad de Frege venía de su formación kantiana. Es muy curioso
que quien rechazó la fundamentación kantiana de la aritmética, basada en el tiempo y la
sucesión, quien rechazó la afirmación kantiana de que Aristóteles había llevado la lógica
a su culminación aceptara la noción kantiana de la geometría. Es más, afirmó que: «Al
llamar sintéticas a priori a las verdades de la geometría Kant ha descubierto su verdadera
esencia». Como ya sabemos todo esto no era cierto y a pesar de las muchas aportaciones
válidas de Frege a la lógica, en esta cuestión fracasó.
3.3. Relevancia metafísica de las antinomias
3.3.1 Dificultad de fundamentar la matemática
-Después de los intentos de Cantor y Frege toda la filosofía de la matemática no ha
dejado de dar vueltas a estos problemas.
-En general, y visto que el método constructivista termina en antinomias, así como las
clases “ingenuas” de Frege, la solución fue el método axiomático, es decir, se garantiza
mediante axiomas la existencia de los denominados “conjuntos demasiado grandes”
(los que equivalen a la colección universal, que tantos problemas dio a Cantor y a Frege)
y desde ahí se procede de manera deductiva.
-Otra alternativa es garantizar mediante axiomas la existencia de los individuos y formar
desde ahí clases y tipos lógicos. En este sentido cultivaron tanto Russell como Ramsey la
teoría de los tipos lógicos: para evitar antinomias es preciso que las proposiciones de un
determinado lenguaje formal estén construidas con predicados que, cuando se refieren a
la totalidad de los elementos, estos elementos deben pertenecer a un tipo lógico inferior.
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
Esto es lo mismo que afirmar que no se pueden admitir colecciones que contengan
elementos que sólo puedan ser definidos como existentes suponiendo la totalidad de la
colección misma, pues se produciría el círculo vicioso. Una totalidad infinita de
elementos sólo se puede definir “desde fuera” de la totalidad misma.
3.3.2 Posible aplicación de la distinción entre ser y esencia para salir de estas
antinomias
-Cabe una reflexión filosófica que afecta tanto a la antinomia de Cantor como a de
Russell, y es qué noción de ser están empleando. En Cantor, el ser de un conjunto se
reduce a la consistencia de la relación de inclusión de un conjunto en su conjunto
potencia; para Frege, la existencia de un objeto x (tanto elemento como clase) se reduce a
la consistencia de la relación de pertenencia de x a una determinada clase y: “x existe”
tiene sentido sólo si se puede demostrar que esa afirmación equivales a “x es y” en el
sentido que x pertenece a la clase y. Este modo de entender el ser es prácticamente el de
Kant, que reducía el ser a la mera función de cópula entre un sujeto y un predicado.
-En las explicaciones de Cantor y Frege el ser es una consecuencia de la noción de
consistencia, relación, etc, cuando en realidad es algo anterior. Esto hace que las
definiciones de clase y de conjunto sean impredicativas: los términos usados para la
definición suponen la definición misma, y esto acaba en una contradicción si, para
justificar la existencia del objeto en cuestión es preciso suponer la existencia de la
colección que lo contiene, la cual, para existir, supone la existencia del mismo objeto.
-Para salir de este problema es necesario separar la fundamentación del ser del individuo
(que es una parte) del ser de la colección a la que pertenece (que es el todo). Ya santo
Tomás advirtió que el todo no puede existir sin la parte, pero en cambio la parte puede
existir sin el todo, aunque entonces ya no como una parte, sino como un individuo (In de
Trin. II,1,3c). Pero para esto la existencia del individuo no se puede reducir a la
pertenencia a una clase, y esto sin renunciar al carácter constructivo de la existencia
individual (sin hacer que la existencia de los individuos se debe a una especie de “acto de
fe” lógica, o a axiomas hipotéticos de existencia. En este sentido, la existencia tiene un
carácter constructivo para santo Tomás, por ejemplo, se explica mediante un conjunto de
causas y la participación del ser según la medida de la esencia, pero este “carácter
constructivo” no se reduce a un mecanismo de pertenencia o de inclusión, como en los
casos de Frege y Cantor. En resumen: existir no es lo mismo que ser algo, aunque un
elemento determine al otro según dos relaciones recíprocas, aunque no simétricas, que
estudiaremos más adelante.
-Se podría decir, aun a fuerza de simplificar, que el planteamiento de Frege y Cantor es
de tipo esencialista, pues reduce el ser del individuo a su esencia, entendida como la
inclusión y/o pertenencia en un conjunto y/o una clase. El planteamiento axiomático peca
de existencialismo, pues garantiza mediante axiomas los “ingredientes fundamentales” de
la teoría mediante un cierto “fideísmo matemático”, y de este modo se independiza la
existencia de la esencia, de manera que el saber científico lógico-matemático se
fragmenta y debilita en una multitud de modelos. Si se suponen como existentes todos los
objetos del universo V (colección universal de todos los elementos de un discurso), los
fundamentales mediante axiomas de existencia, y los construidos mediante la aplicación
de reglas de deducción, el único modo de evitar contradicciones es debilitar el rigor
demostrativo y reducirlo a enunciados puramente genéricos. De este modo el rigor queda
para teorías muy abstractas e inútiles, mientras que los problemas concretos deben ser
resueltos mediante modelos concretos, siempre expuestos a una instrumentalización
ideológica.
-Como se puede comprobar, el abandono de un estudio del ser y de las causas, en favor de
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
una aproximación matemática y geométrica a la realidad, que pretenda ser absoluta, acaba
pagándose en forma de antinomias y contradicciones

4. Fracaso del intento de Hilbert de fundamentar la matemática: Los teoremas de Gödel


4.1 El planteamiento formalista de Hilbert
4.1.1 La gran aportación de Hilbert: Distinción entre análisis lógico y análisis
metalógico
-David Hilbert (1862-1943) fue, sin duda, uno de los mayores matemáticos de la primera
mitad del siglo XX. Además de sus contribuciones a la fundamentación de la lógica
matemática, la geometría y el álgebra, se le debe un formalismo geométrico algebraico
(los llamados espacios de Hilbert) muy útil para la formalización matemática de la
mecánica cuántica. En realidad después de que fallara su intento, denominado por
muchos, formalista, de fundamentar la lógica matemática, debido a los teoremas de
incompletud de Gödel, se dedicó más a esas otras ramas de la matemática.
-Para escapar de las antinomias que se producían en el intento logicista de Frege, Hilbert
propuso separar el problema del análisis formal de un lenguaje de los problemas de
verdad y consistencia de dicho lenguaje. No es que no le importara lo referente a la
verdad y a la consistencia, simplemente quería distinguir entre los procedimientos lógico-
formales de demostración e inferencia (=lógica) de la prueba de su consistencia y verdad
(=metalógica). Si la gran aportación de Frege fue la lógica simbólica o lógica
matemática, como nuevo método lógico-formal, la aportación de Hilbert fue una
distinción metodológica fundamental entre análisis lógico y análisis metalógico de
los lenguajes formales. En realidad esto no era más que retomar, de forma moderna, la
distinción entre logica minor (los procedimientos demostrativos, como la silogística) y la
logica maior (análisis de la consistencia, de la verdad y del significado de las formas
proposicionales y de los procedimientos demostrativos: estudio del concepto, de la
proposición, etc).
-De manera análoga se puede hablar de lenguaje y metalenguaje. Un metalenguaje es un
lenguaje en el cual se habla de otro, que por esta razón se le considera lenguaje objeto.
E.c. puedo escribir en español una gramática inglesa: el español es el metalenguaje y el
inglés el lenguaje objeto. El nombre “lenguaje objeto” viene porque en los lenguajes tiene
como argumentos nombres que se refiere a objetos extralingüísticos, mientras que los
argumentos de un metalenguaje tienen por objeto nombres que se refieren a objetos
lingüísticos, o más exactamente a proposiciones del lenguaje objeto. Para escribir
proposiciones metalingüísticas se deberá hacer un uso adecuado de las comillas, como
veremos a continuación.
-Tomemos como ejemplo una proposición de la geometría euclídea: un ángulo llano es la
suma de dos ángulos rectos.
+La afirmación acerca de la coherencia de este enunciado con los axioma de la
geometría euclídea será un enunciado meta-teórico de tipo sintáctico:
«Un ángulo llano es la suma de dos ángulos rectos» es coherente con los axiomas
de la geometría euclídea.
+La afirmación acerca de la verdad de este enunciado dentro del lenguaje formal de la
geometría euclídea será un enunciado meta-teórico de tipo semántico:
«Un ángulo llano es la suma de dos ángulos rectos» es verdadera en la geometría
euclídea.
Como se puede ver el enunciado puesto entre comillas hace de sujeto a los predicados «es
coherente» y «es verdadero».
-Hilbert sostenía que Frege fracasó, precisamente porque no había distinguido entre
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
lenguaje y metalenguaje. La raíz de dicho fallo es que para Frege, como la lógica se
ocupaba de premisas necesariamente verdaderas, y por lo tanto coherentes entre sí, la
lógica formal no se debía ocupar de la verdad y de la coherencia de dichas proposiciones,
con las consecuencias que ya sabemos, como la antinomia de Russell.
4.1.2 La discusión entre Hilbert y Frege acerca de los sistemas axiomáticos
-Hilbert distinguía tres estados en toda teoría matemática: i/momento inicial ingenuo,
con la formación de los conceptos y su aplicación para solucionar problemas; ii/momento
formal: descubrimiento de los algoritmos para el cálculo simbólico; iii/ momento crítico:
teoremas generales de existencia, probados de manera constructiva. Posteriormente esto
lo planteó como: i/teoría matemática informal intuitiva; ii/formalización de la teoría;
iii/estudio meta-matemático de la consistencia de la formalización del paso anterior. Por
metamatemática entendía el estudio de la verdad y la consistencia lógica de la teoría
matemática en cuestión; es decir, se trataba de aplicar la distinción que señalábamos en
el apartado anterior.
-En una de sus primeras grandes obras: los Fundamentos de la geometría (1898-1899)
trata de demostrar la independencia de la geometría pura respecto a los números,
mostrando que la geometría plana (la de Euclides) puede ser representada como una
estructura algebraica abstracta (una campo conmutativo). De esta manera la geometría
analítica no tiene necesidad de suponer la existencia de números para justificar el uso del
álgebra. En realidad esto era hacer con la geometría Euclídea lo que Riemann había
hecho con las geometrías no-euclídeas.
-Ahora bien, lo que más nos interesa a nosotros respecto a este resultado es que a
Hilbert, para justificar el ente matemático no le interesaba la cuestión del
significado. Se podían dar diversas interpretaciones o modelos del mismo con tal de que
no afectaran a la verdad de las relaciones. Se entiende así que para Hilbert a la hora de
construir los axiomas de un sistema formal, no le importaba la verdad del axioma en sí
mismo, tomado de manera aislada, conforme a una determinada interpretación, sino que
la verdad y la existencia del axioma dependía de su compatibilidad con el resto del
sistema, es decir, que fuese consistente con el resto del sistema.
-Frege mantenía una opinión contraria. Para él, la consistencia de los axiomas de la
geometría euclídea procedía inmediatamente de su verdad. Para Frege, de la verdad
de los axiomas deriva inmediatamente la coherencia de unos con otros, con los teoremas
que se pueden derivar de los mismos y con el conjunto de objetos de su dominio. Como
podemos notar, parte de que la geometría euclídea es la única verdadera y se conoce por
una cierta intuición:
«¿Hay acaso otros modos de probar la consistencia [de un sistema de axiomas] que
mostrar un objeto que posee todas las propiedades [definidas por los axiomas, es
decir, un objeto evidente en el que se verifiquen los axiomas]?»
-Hilbert entendía que esa posición de Frege era la causa de las antinomias. Para Hilbert,
si los axiomas no se contradicen, aunque estén puestos de manera arbitraria, es que
existen y son verdaderos; es decir, no sólo la existencia matemática implica la
consistencia (no hay contradicción), sino también se puede afirmar que si no hay
contradicción, existen.
«Si los axiomas puestos de manera arbitraria no se contradicen uno con otros,
entonces son verdaderos y existen los objetos definidos por medio de ellos. Para mí
este es el criterio de la verdad y de la existencia»
No es difícil que vengan a la mente las afirmaciones de Parménides, para el que, si no se
daba contradicción, se daba la existencia.
4.1.3 La suposición de la completud de los sistemas axiomáticos
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
-Como consecuencia de todo lo anterior Hilbert puede hablar de la completud de los
sistemas axiomáticos.
-Si mediante un sistema de axiomas se define de manera unívoca y completa las
propiedades de los objetos primitivos de pertenecen a un determinado objeto formal (e.c.
puntos, rectas y planos en la geometría euclídea), sería contradictorio pretender añadir
otros elementos a este sistema que no se dedujeran de dichos axiomas, que no se
redujeran a las propiedades definidas por tales axiomas, y mantener al mismo tiempo que
estos nuevos elementos no entraban en contradicción con los axiomas.
-Veamos un ejemplo de la geometría euclídea plana. En dicha geometría yo no puedo
añadir triángulos cuya suma de los ángulos internos sea distinta de 180º. Respecto a este
enunciado la geometría euclídea será completa:
+No sólo si puedo demostrar que la afirmación «triángulo en el que la suma de los
ángulos internos es 180º» es compatible con los axiomas, y por tanto verdadero y
existe el objeto denotado por esa afirmación.
+Sino sobre todo si puedo demostrar que la afirmación «triángulo en el que la suma
de los ángulos internos no es 180º» es incompatible con los axiomas, y por tanto falso,
de manera que en dicha geometría no existe el objeto denotado por esa afirmación.
-Con estas bases Hilbert se ocupó del problema de la consistencia de la geometría
euclídea, y lo hizo ofreciendo un modelo o interpretación de la misma basado en los
números reales.
+En este modelo, todos los axiomas de la geometría plana se convierten en
proposiciones que se refieren a los números reales, esto es, ecuaciones o sistemas de
ecuaciones demostrables de manera algebraica. Con esto no ha demostrado que los
axiomas de la geometría son absolutamente verdaderos, sino relativamente
verdaderos. Supuesto que la teoría de los números reales no es contradictoria, las
proposiciones construidas sobre grupos de números reales y sus relaciones tampoco lo
serán.
+Es importante notar la diferencia con Riemann: Riemann había constituido un
modelo semántico de la geometría no-euclídea, pues había presentado una
geometría en un espacio curvo que se podía visualizar (había unos contenidos, y unos
significados asociados a los objetos de la geometría no-euclídea); Hilbert, en cambio,
construyó un modelo sintáctico de la geometría euclídea en la teoría de los
números reales, pues prescinde de la referencia a los números en cuanto tales, y sólo
afirma la correspondencia entre las estructuras algebraicas de estos números y
las estructuras geométricas.
4.2 El problema de los axiomas de la aritmética
-Durante el segundo Congreso internacional de matemáticos, celebrado en París en el año
1900 Hilbert propuso una serie de problemas a los matemáticos, algunos de los cuales se
han resuelto y otros no. El segundo problema que propuso consistía en estudiar si los
axiomas de la aritmética son compatibles, en el sentido que ahora explicaremos.
-El problema consistía en preguntarse su era posible demostrar de manera meta-
matemática que, partiendo de los axiomas de la aritmética y procediendo de manera
constructiva o algorítmica, a través de un número finito de pasos lógicos de
demostración, se podrían evitar resultados contradictorios. No se trataba, como el estudio
de Hilbert sobre la geometría euclídea, de una demostración relativa, sino que se buscaba
una demostración absoluta, es decir, sin referencia a otra teoría; por supuesto nos
movemos a un nivel sintáctico, no semántico, pues interesan sólo las relaciones, no los
significados.
-Ahora bien, esta demostración absoluta requería un lenguaje que pudiera ser
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
metalenguaje de sí mismo, es decir, que fuera autorreferencial (pues no se podía hacer
referencia a una teoría ulterior).
+En los lenguajes naturales esto es algo muy común, e.c. se puede escribir en español
una gramática de español: el español puede ser metalenguaje de sí mismo, pero las
lenguas naturales no son lenguajes formalizados y rigurosos, sino que tienen muchas
ambigüedades y a veces contradicciones.
+Sin embargo la cuestión era ¿Es posible construir enunciados auto-referenciales
con lenguajes formalizados sin caer en ambigüedades o contradicciones? ¿Cuál es
la teoría matemática que puede hacer de metalenguaje de todas las teorías
matemáticas, incluida ella misma?
+Si esto fuera posible, se podría hablar en las matemáticas de procedimientos
algorítmicos de demostración absolutos de la coherencia o de la verdad. No haría falta
el ambiguo recurso a la evidencia, sino sólo a procedimientos formales finitos
(algorítmicos), perfectamente ciertos para demostrar.
-Para realizar este proyecto lo que se requería era aplicar esa posible demostración
absoluta, mediante el método axiomático y la explicitación de los procedimientos lógicos
a tres de las teorías fundamentales de la matemática moderna: la aritmética, el análisis y
la teoría de conjuntos. Sin embargo, como la definibilidad de cualquier clase de números
está muy relacionada con la clase de los números naturales, el programa de Hilbert se
concentró desde el principio en la posibilidad de demostrar que la aritmética formal
fuera no-contradictoria, y esto, desde dentro de la misma aritmética.
-Como veremos este puesto central de la aritmética fue acentuado por Gödel (y después
por Turing), pues estableció un método de codificación aritmética de cualquier lenguaje
formal. De esta manera se garantizaba que la teoría no se refiriera a una teoría ulterior.
+Este intento de demostrar el carácter no contradictorio de la aritmética partía del
presupuesto de que la aritmética axiomática era completa, de modo análogo a
como había supuesto Hilbert con la geometría (recordamos que sólo había dado una
prueba relativa, no absoluta)
+Más en concreto la cuestión era, si, dado un conjunto de axiomas como los de Peano,
que son la formalización de la aritmética intuitiva, se podrían deducir de ellos, con un
número finito de pasos, de manera unívoca y completa todas las propiedades de los
objetos primitivos de la aritmética, sin dar lugar a proposiciones contradictorias
deducidas de manera coherente de los mismos axiomas.
-Adelantamos ya que los teoremas de Gödel mostraron que no se puede demostrar la
completud (el ser completa) de la aritmética por métodos algorítmicos. Por otra parte no
conviene perder de vista que estas discusiones tuvieron un peso más que notable en los
inicios de la fenomenología. Husserl asistió a una importante conferencia en la sociedad
matemática de Gotinga en 1901, en la que Hilbert expuso su convicción de que la
aritmética era completa, y Husserl pensó en aplicar estas ideas en su intento de
fundamentar de modo trascendental la fenomenología. Veremos algo de esto en las
últimas lecciones sobre la relación mente-cuerpo
4.3 Los teoremas de Gödel
4.3.1 Planteamiento de Gödel
-El propósito de Gödel era demostrar la completud de la aritmética formal, tal como se
expresaba en los axiomas de Peano, recogidos y mejorados en la obra de Whitehead-
Russell Principia Methematica.
-Es interesante leer las palabras del mismo Gödel en el aparece su planteamiento y
adelanta algunos resultados:
«La tendencia de la matemática hacia un rigor siempre mayor ha llevado, como es
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
bien sabido, a la formalización de amplios sectores de la misma, de manera que dentro
de ellos es posible demostrar un teorema usando sólo pocas reglas mecánicas. Los
sistemas formales más amplios y elaborados hasta el momento son los de Principia
Mathematica, y el sistema de axiomas de Zermelo-Fraenkel para la teoría de sistemas
(con los desarrollos sucesivos de J.von Neumann). Estos dos sistemas son hasta tal
punto generales que todos los métodos demostrativos empleados ahora en
matemáticas han sido formalizados en ellos, esto es, reducidos a pocos axiomas y a
algunas reglas de inferencia. Así pues, se podría suponer que estos axiomas y estas
reglas sean suficiente para decidir toda cuestión matemática que se pueda expresar
formalmente en ellos. Se demostrará más adelante que no es así, y que al contrario,
existen en los dos sistemas citados problemas relativamente sencillos, que se refieren
a la teoría de los números naturales que no se pueden decidir basándose en los
axiomas. Esta situación no depende en modo alguno de la naturaleza específica de los
sistemas propuestos, sino que se refiere a una amplia clase de sistemas formales; y
entre estos, en particular, todos los sistemas que se obtienen de los dos indicados
añadiendo un número finito de axiomas, supuesto que tal ampliación no permita
demostrar ninguna proposición falsa del tipo especificado en la nota».
[Nota: Es decir, con mayor precisión, existen proposiciones indecidibles en las cuales,
además de las constantes lógicas (no) (o) (para todo) =(idéntico a), no aparecen otros
conceptos salvo + (suma) y * (producto), ambas referidas a números naturales, y en
las cuales también los citados conceptos están aplicados sólo a los números naturales]
-Como se puede deducir fácilmente el resultado de Gödel fue catastrófico para el
proyecto formalista de Hilbert.
4.3.2 Procedimiento de la demostración
-No pretendemos exponer al detalle el artículo de Gödel de 1931 titulado: “Sobre las
proposiciones formalmente indecidibles de los Principia Mathematica y de sistemas
afines”. Se puede encontrar una exposición simplificada en el libro de Nagel citado en la
bibliografía de este tema.
-Para hacerse una idea de la complejidad, recordamos que para el primer teorema se
analizan 46 proposiciones y cinco teoremas, como algo preliminar, mientras que el
segundo teorema requiere la demostración de cuatro teoremas preparatorios.
a) La numeración de Gödel
-Gödel ideó un sistema para poder expresar de manera unívoca todos los signos
aritméticos ordinarios.
-Se apoyaba en un conjunto de axiomas, de los que se deducen las reglas del cálculo,
aplicando unas reglas de deducción de manera rígida.
-Para aritmetizar el cálculo dispuso que cada símbolo equivalía a un determinado número,
y las fórmulas se expresaban como el producto de las potencias de los primeros números
primos elevados a unos exponentes que eran los números propios de cada símbolo. E.c.
una fórmula sencilla 0=0, el número de Gödel para 0 es el 6, y el número del signo = es el
5, de esta manera la fórmula aritmética: “0=0" tiene el número 26*35*56, que equivale a
243.000.000.
-Ahora bien, también era necesario poder expresar las proposiciones metamatemática
dentro del cálculo, y esto resultaba ya sencillo. Como las proposiciones metamatemáticas
se ocupan de las relaciones entre proposiciones matemáticas, simplemente se podían
expresar como relaciones entre los números que representaban las proposiciones
matemáticas.
-Evidentemente la formalización de Gödel era mucho más compleja, pero lo dicho basta
para hacerse una idea de que había logrado un modo de expresión unívoco y vinculado a
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
la aritmética.
b) Construcción de una fórmula autorreferencial
-Ahora se puede entrar en lo principal de la demostración. Gödel construye una formula,
a la que llamamos G que representa, en la aritmética formalizada, la proposición: “La
fórmula G no es demostrable”.
-Evidentemente una proposición de este tipo no se puede representar directamente con el
formalismo antes descrito, pero en este punto aparece la utilidad de la numeración de
Gödel: si el número que corresponde a la proposición G es g, entonces la proposición que
nos interesa adquiere la forma: “Para todo valor de x la demostración con número de
Gödel x no es una demostración de la fórmula que tiene por número de Gödel g”, o más
sencillamente: “la fórmula que tiene un número asociado g no es demostrable”, todo lo
cual equivale a decir: “no existe ninguna demostración de G”.
c) Aparición de la contradicción
-Para demostrar que la fórmula G es correcta se debe demostrar que no es demostrable.
Para hacer esto Gödel demuestra que, en la hipótesis de que se pueda demostrar G,
también se puede demostrar ¬G (la negación de G, es decir, la proposición: “existe al
menos una demostración de G”). Y también viceversa, si se puede demostrar ¬G,
entonces se puede demostrar también G.
-En conclusión, G es demostrable si y sólo si lo es también ¬G.
-Pero un sistema en el que se puede demostrar una cosa y su contrario es contradictorio,
luego si el sistema no es contradictorio entonces es que ni G ni ¬G son formalmente
derivables de los axiomas de la aritmética. Luego si la aritmética es consiste G es una
fórmula formalmente indecidible.
d) Una fórmula no demostrable, pero verdadera
-Gödel demostró después que aunque G no sea formalmente demostrable, sin embargo es
una fórmula aritmética verdadera.
-Es verdadera en el sentido de que afirma que todo número entero posee una cierta
propiedad aritmética que puede ser exactamente definida y presentada en cualquier
número entero que se examine.
e) Incompletud
-Así pues, puesto que G es al mismo tiempo verdadera y formalmente indecidible, los
axiomas de la aritmética son incompletos: no podemos deducir todas las verdades
aritméticas de los axiomas.
-Además Gödel demostró que la aritmética es esencialmente incompleta: aun cuando se
admitiesen nuevos axiomas, de tal modo que la fórmula verdadera G pudiera ser
formalmente derivada de la nueva serie de axiomas, se podría construir también una
nueva fórmula verdadera, pero formalmente indecidible.
-Gödel también describió cómo se podrían construir una fórmula aritmética A que
represente a la proposición metamatemática: “la aritmética es consistente” y demostró
que la fórmula “A⊃G” (A está incluida en G) es formalmente demostrable. Finalmente
demostró que la fórmula A no es demostrable. De todo esto se deduce que la consistencia
de la Aritmética no puede ser establecida por un argumento que pueda hallarse
representado en el cálculo aritmético formal. Esto corresponde a la segunda parte del
artículo, al llamado segundo teorema, que Gödel desarrolló menos.
4.3.3 Enunciado de los dos teoremas
-Ofrecemos en este apartado una formulación de ambos teoremas de manera intuitiva,
para que sea más fácilmente comprensible
-Primer teorema de incompletud: Todo sistema formal S, suficientemente potente como
para incluir los axiomas de la aritmética formalizada de Peano en la formulación de los
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
Principia, si es consistente, será necesariamente incompleto. Contendrá dentro de él
enunciados verdaderos, pero indecidibles, pues cualquier intento de demostración de los
mismos, dentro de la teoría, conlleva la demostración de su negación.
+Si un sistema formal como el descrito quiere ser completo, deberá ser inconsistente,
porque incluirá dentro de sí teoremas contradictorios.
+Si un sistema como el descrito quiere ser consistente (evitar contradicciones) deberá
ser incompleto, porque deberá renunciar a demostrar todas las fórmulas verdaderas
que se pueden expresar en él.
+Por lo tanto se deberá resignar a contener enunciados indecidibles.
-Segundo teorema de incompletud: En todo sistema formal S, suficientemente potente
como para incluir los axiomas de la aritmética formalizada, la afirmación metalingüística
«S es consistente» es un enunciado indecidible en tal sistema.
+Como se ve, este sistema formal no sólo es incompleto, sino que además no puede
ser autorreferencial (propiedad de un lenguaje de hablar sobre sí mismo), si se quiere
que sea consistente.
+Por lo tanto, un sistema que quiera ser consistente, no sólo deberá ser incompleto,
sino además sintácticamente “abierto”: la prueba de su consistencia deberá ser
exterior necesariamente a dicho lenguaje formalizado.
4.3.4 Recepción del descubrimiento de Gödel
-La reacción ante el artículo de Gödel en el que mostraba estos resultados fue ante todo
de estupor, y no se dieron ni objeciones violentas ni oposición exagerada.
-Hay que tener presente que no resultaba fácil de entender, ni siquiera a grandes lógicos,
pues empleaba un formalismo que se divulgaría mucho después. Carnap y Zermelo (uno
de los principales autores de la teoría de conjuntos) se encontraban, al principio, en este
grupo.
-Después de que pasara un tiempo algunos, como el matemático Finsler sostuvieron que
habían llegado antes a los mismos resultados de Gödel, pero su método de demostración
era menos riguroso, y no habría podido llegar a la solución correcta.
-Cuando Hilbert publicó en el segundo volumen de sus Fundamentos de la Aritmética la
demostración completa del segundo teorema de Gödel prácticamente cesaron las
discusiones. Con todo en el prefacio simplemente admitía que los resultados de Gödel
ponían reparos a su modo de entender el método finitario (demostraciones mediante un
número finito de pasos), y por lo tanto se debería perfeccionar su sistema; en realidad
todo el mundo comprendió (incluido Hilbert) que su proyecto había fracasado de manera
análoga a lo que sucedió a Frege con la antinomia de Russell.
4.4 Otros teoremas de limitación
4.4.1 Teorema de Turing
a) La noción de máquina de Turing
-Los resultados de Gödel parecía limitarse sólo a la aritmética formalizada, y no al resto
de los sistemas formales ni al resto de los objetos lingüísticos que analiza la lógica
formal. Gracias a A.M.Turing (1912-1954), uno de los creadores de la teoría de la
computabilidad, base del desarrollo científico y tecnológico de los actuales ordenadores,
se extendió el resultado de Gödel a todos los sistemas formales y a los métodos
algorítmicos de demostración y/o de cálculo en tales sistemas.
-Esta extensión, verdaderamente esencial, se pudo realizar gracias a la contribución de
otro lógico y matemático de Princeton (1903-1995) al cual se debe el descubrimiento del
llamado l-cálculo. Dicho cálculo se basa en la hipótesis de que todas las funciones
computables del cálculo lógico y/o matemático era computables algorítmicamente
mediante funciones recursivas. En una función recursiva se indican cuáles son los
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
elementos iniciales, luego se introducen unas operaciones de formación de nuevos
miembros que, aplicadas a elementos ya obtenidos, permiten obtener nuevos elementos.
-Integrando las aportaciones de Gödel y las de Church, Turing inventó un esquema
elemental de máquina algorítmica, o más exactamente, una arquitectura abstracta de
cálculo, la llamada máquina de Turing. El nombre nos puede llevar a un equívoco: la
máquina de Turing no es un aparato, como un ordenador, sino una estructura de cálculo,
es decir, algo parecido a un programa para resolver determinadas tareas.
-La estructura de cálculo ideada por Turing podría calcular, con las instrucciones
adecuadas, una función recursiva; de esta manera una máquina de Turing podría simular
también el cálculo realizado por otra máquina de Turing con tal de tener las instrucciones
adecuadas. De esta manera se llega a la idea de una máquina de Turing universal, es
decir, capaz de simular a cualquier otra. Esta es la base del esquema lógico de los
modernos ordenadores multi-programables.
b) El problema de la detención y sus consecuencias
-El mismo Turing advirtió que su máquina de Turing universal no podría afrontar un
problema, que vamos a tratar de explicar de manera intuitiva, tal como lo propone
G.J.Chaitin en el artículo citado en la bibliografía.
-El problema consiste en decidir si una MT (que podemos considerar un programa de
ordenador, para facilitar la comprensión) acabará por hallar la solución deseada a un
problema y se detendrá, o bien entrará en un bucle indefinido, e.c. si se le pide que
busque dos números pares cuya suma sea un número impar, es evidente que no lo
encontrará, ni se detendrá.
-Podríamos pensar en crear un programa cuyo objetivo sea decidir si un programa
cualquiera llegará a detenerse o no; le podemos llamar verificador de detención. A este
programa se le puede suministrar cualquier programa y nos dirá un sí, si el programa
suministrado se detendrá o un no, si el programa suministrado no se va a detener.
Podemos modificar el verificador de detención de manera que cuando se le entregue un
programa que termine, en lugar de responder con un sí, entre en un bucle infinito.
-Ahora bien, ¿Qué sucede si a nuestro verificador de detención modificado se le
suministra una copia de sí mismo para que lo analice? Si el programa analizado
terminara, entonces entraría en un bucle infinito, lo que significa que no termina, luego
tenemos una contradicción. Si el programa no terminase, el verificador de terminación
indicaría que no termina, y no entraría en un bucle infinito, lo que significa que llega a su
término, con lo cual no salimos de la contradicción.
-Lo más interesante es que Turing dedujo un corolario inmediato: si no hay forma de
determinar de antemano mediante cálculos si un programa va a detenerse o no, tampoco
se podrá hacer mediante razonamientos. Ningún sistema axiomático formal nos ayuda a
decidir si un programa acabará por detenerse: se puede crear un programa que se detiene
si y sólo si no se detiene. Esta paradoja es muy similar a la descubierta por Gödel y de
este modo ningún sistema axiomático formal puede ser completo.
-Así pues, en un sistema formal cualquiera - y no sólo en la aritmética- no es posible
decidir todas las consecuencias válidas de un conjunto de axiomas dados, mediante
procedimientos constructivos o algorítmicos.
4.4.2 Teorema de Tarski
-A.Tarski (1902-1983) extendió los teoremas de Gödel, en especial el segundo, al
problema de un análisis formal de la semántica de cualquier sistema formal.
-Demostró que la “verdad” de cualquier sistema formal, esto es, la correspondencia con
los objetos designados por los símbolos del cálculo formal de un lenguaje objeto, sólo
puede ser decidida de manera algorítimica mediante un metalenguaje de orden lógico
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
superior.
-Esto quiere decir que los lenguajes formales no sólo deben ser “sintácticamente
abiertos”, si quieren ser formalmente consistentes, sino también “semánticamente
abiertos” a otros lenguajes formales, y, en última instancia, a otras formas de lenguaje - si
quieren evitar un proceso al infinito de metalenguajes formales de orden lógico superior-
para probar formalmente su verdad.

5. Consecuencias de los fracasos anteriores: la muerte científica del cientificismo


5.1 La muerte científica del cientificismo
-Ya vimos en temas anteriores que desde el siglo XIX se estaba dando una revisión de los
fundamentos tanto de las matemáticas puras como de su aplicación a la física. Así se
había pasado de una sola geometría (apodíctica) a una infinidad de geometrías posibles;
análogamente de una sola mecánica (apodíctica), la de Newton a otras diferentes, como la
cuántica, la relativista. Todas estas nuevas mecánicas era hipotéticas, no apodícticas, y
sustituibles, en principio, por una teoría más adecuada. De hecho se trabaja en la
unificación de las diversas teorías, aunque el resultado, como se deduce de todo este
recorrido, será también perfectible.
-La cuestión que se plantea, y que trataremos de responder en estos tres temas es si este
carácter hipotético e incompleto, parcial y provisional de dichas teorías se debe a una
situación coyuntural de la ciencia, o hay algo más. Como veremos la raíz de todo esto se
encuentra en los llamados teoremas de limitación, que estudiaremos en la próxima
lección.
-Esto no quiere decir que no exista la verdad y la coherencia en el discurso racional
en general, o en el filosófico en particular (contra los que quisieran instrumentalizar
estos teoremas de limitación en sentido nihilista o fideista). Lo que quiere decir es que se
requieren sistemas lógicos abiertos y teorías que no pretendan ser
omnicomprensivas o absolutas; el único absoluto es Dios y es trascendente. La crisis de
los fundamentos lo que muestra en última instancia es que el ideal de la modernidad de
producir un absoluto intramundano (sea cual fuera el nombre que lleve) acaba en la
contradicción. Los conocimiento humanos pueden ser verdaderos, pero siempre limitados
y perfectibles (lo cual no quiere decir que se deba renunciar a las verdades ya
alcanzadas).
-Por otra parte esto no es una doctrina totalmente nueva, pues más bien la investigación
reciente acerca de los fundamentos ha presentado de forma rigurosa y sin ambigüedades
convicciones comunes en la lógica y metafísica clásicas, olvidadas en la modernidad. De
este modo se deben eliminar los excesos de racionalismo, tanto en sus formas filosóficas
-idealismo, naturalismo, historicismo-, o científicas -cientificismo, mecanicismo,
evolucionismo-. A nuestro modo de ver se deben entender en este sentido las siguientes
palabras de la Fides et ratio de Juan Pablo II:
«Se debe considerar, de modo particular, que la verdad es una, aunque sus expresiones
llevan la impronta de la historia, y por lo demás, sean obra de una razón humana
herida y debilitada por el pecado. De esto se sigue que ninguna forma histórica de la
filosofía puede legítimamente pretender abrazar la totalidad de la verdad, ni ser la
explicación plena del ser humano, del mundo, y de la relación del hombre con Dios».
-Con estas premisas plantearemos la cuestión de los teoremas de limitación, pero antes en
esta lección veremos en qué ámbito surgen: gracias a la formalización de las
afirmaciones y demostraciones: de este modo se da un esfuerzo para hacerlas
transparentes, sin esconderlas en el humo de las palabras o de las poesías.
5.2 Consecuencias de los teoremas de limitación
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
5.2.1 Explicación de las antinomias lógicas
-Los teoremas de limitación en general, y especialmente el de Gödel, muestran cuál es la
raíz de las antinomias lógicas, tanto sintácticas como semánticas, desde la famosa
antinomia del mentiroso.
-En realidad todas dependen de la necesidad que tendría un sistema formal, para ser
absolutamente verdadero y coherente, de tener que demostrar, desde dentro, la falsedad
de todas las proposiciones que se puedan construir en su lenguaje lógico capaces de
contradecirlo. La raíz de las antinomias es la necesidad, para todo lenguaje formal, de
tener que demostrar, desde dentro, que son falsas las proposiciones que se oponen a sus
axiomas.
-Ahora bien, como ningún lenguaje formal es tan potente como para excluir desde dentro
todas las proposiciones que pueden contradecirlo, entonces se trata de lenguajes formales
que son frágiles, y expuestos a contradicciones.
-El mito de la certeza absoluta de los procedimiento deductivos ha quedado destruido
para siempre. La desconfianza respecto a los métodos inductivos con relación a los
deductivos, porque los primeros tendrían una certeza limitada, mientras que los
segundos proporcionarían certezas absolutas, ha desaparecido, como uno de tantos
mitos de la historia de la filosofía. Otra cosa es que muchos filósofos (eclesiásticos, y
también teólogos) se hayan enterado.
5.2.2 Aplicaciones a una supuesta teoría unificada en física
-Aunque hablaremos más adelante de la cuestión de una teoría unificada de las leyes
físicas, en especial sobre la constitución del universo, se puede hacer ya algunas
observaciones.
-Según Hawking, en su difundida obra Historia del tiempo, del big-bang a los agujeros
negros, dicha teoría definitiva:
«sería única, de manera que pudiera ser entendida en sus grandes líneas por todos, no
sólo por algunos científicos. Entonces todos, filósofos, científicos y gente común,
podríamos tomar parte en la discusión sobre la cuestión del porqué nosotros y el
universo existimos»
-Sin embargo, como recordó S.Jaki, benedictino, doctor en teología y en física, después
de criticar las afirmaciones de Hawking desde un punto de vista filosófico (contingencia
del universo y realismo cognoscitivo, cerraba la cuestión con un argumento matemático,
inspirado en los teoremas de Gödel:
«Mientras estos teoremas sean válidos - y hasta ahora todo intento de demostrar su
falta de validez ha fallado claramente - las teorías cosmológicas definitivas pueden ser
verdaderas, pero no son verdaderas necesariamente. Una teoría necesariamente
verdadera que no puede contener la prueba de su coherencia sería una contradicción
en los mismos términos. De esto se deriva la principal consecuencia de los teoremas
de Gödel para la cosmología, esto es, la contingencia del cosmos no puede ser negada
[pues Hawking pretendía que la teoría última sería verdadera, y además lo sería de
manera necesaria, hasta el punto de que no habría otras posibles teorías unificadas]»
S.Jaki, Dio e i cosmologi, Roma 1990,108.
5.2.3 Consecuencias ontológicas
-En un cierto sentido las consecuencias ontológicas son una renovación de las disputas
del final de la Edad Media sobre los universales, acerca de si son meras invenciones del
entendimiento o responden a una realidad extramental.
-Ya indicamos que el gran descubrimiento de Platón es que el universal lógico tenía la
propiedad de referirse a él mismo: el “ser rojo del color rojo” es el término referencial
último del predicado “ser rojo”, es la condición con la que se constituye la clase de los
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
objetos rojos. Después de los teoremas de limitación lo que queda claro es que este
referirse a sí mismo no se puede reducir a un procedimiento metalógico de prueba
mediante un algoritmo, es decir, a una repetición mecánica de pasos.
-Quedan sólo dos alternativas:
+O los universales lógicos no existen, y entonces el lenguaje lógico es pura sintaxis,
un conjunto de reglas de uso, que poco tiene que ver con la verdad.
+O si existen, su significado no puede venir de un conjunto de reglas, sino que tienen
que existir por sí mismos.
-En los textos siguientes encontramos la primera opinión defendida por Nagel y la
segunda defendida por Gödel. Tenemos que subrayar que éste último adoptó una solución
de tipo platónico: no se trata simplemente de que los universales existan por si mismos,
sino que además son subsistentes y se pueden alcanzar por una especie de intuición
matemática. No obstante ya vimos en el apartado anterior que el recurso a la intuición
matemática tiene sus problemas.
«En la matemática la realidad se encuentra en las expresiones simbólicas mismas, no
en entidades abstractas que se supone que denotarían las expresiones. El símbolo ∃ [el
cuantificador existencial de la lógica simbólica, el “existe” en la lógica de predicados]
es simplemente una E al revés. Si concluimos que existe una cierta entidad es sólo
porque hemos construido en un cierto sistema formal la prueba de una cierta fórmula
que comienza por ∃, y esto lo hacemos bajo nuestra responsabilidad. La casa del
significado es la sintaxis; la semántica es la casa de la ilusión.
¿Cómo puedo seguir siendo matemático cuando he perdido la fe en la semántica de la
matemática? ¿Por qué debería continuar haciendo matemática si no creo que existan
los números, ni los procesos estocásticos, ni los espacios de Hilbert? Respondo con
otra pregunta: ¿Por qué un compositor debería querer componer música si la música
no es representacional [no representa una realidad]. La matemática es la última de las
artes que se debe convertir en no-representacional. Poco a poco, pues, la matemática
comienza a convertirse en algo no-representacional. Lentamente en los departamentos
de matemáticas, pero rápidamente en los de informática. Los que hacen informática
saben que están inventando, no descubriendo, y elaboran resultados hermosos y
profundos basados en la naturaleza de computaciones factibles. Si nosotros, que nos
encontramos en los departamentos tradicionales no queremos quedarnos en tierra,
debemos subirnos a un caballo formalista sin ninguna duda. Las creencias abstracta
influyen en las acciones concretas. A pesar de la completa falta de justificación, la
perspectiva semántica en matemáticas - el descubrimiento de propiedades de
entidades que existen en un mundo pitagórico - ha servido bastante bien a la
matemática durante un largo periodo. Pero ahora ha llegado el momento de avanzar,
de descartar la perspectiva semántica y de concentrarnos sobre lo real en matemáticas.
Y lo real es la notación, no la denotación imaginada», NELSON, Confesiones de un
matemático apóstata.

«Según esta idea [la que reduce la matemática a pura sintaxis] la metamatemática es
la parte de la matemática dotada de significado, mediante la cual los símbolos
matemáticos, que en sí carecen de significado, adquieren un cierto sucedáneo de
significado, es decir, las reglas de uso. Naturalmente la esencia de este punto de vista
consiste en rechazar cualquier género de objetos abstractos e infinitos, como son, por
ejemplo, los significados inmediato de los símbolos matemáticos [los universales]. En
otras palabras, se reconoce un significado a las proposiciones que hablan de objetos
concretos y finitos, como las combinaciones de símbolos [...] Pero ¿cómo se podría
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
pensar y expresar la metamatemática en los mismos sistemas matemáticos, si se
mantiene que estos últimos consisten en símbolos carentes de significado y que
adquieren un cierto sucedáneo de significado sólo mediante la metamatemática?»
K.GÖDEL, Carta a H.Wang.
«Así, es preciso observar que esta concepción del carácter analítico hace de nuevo
posible que toda proposición matemática deba reducirse a un caso particular de a=a,
lo cual es admisible, con tal que se sepa que, si se efectúa la reducción, esto no se
realiza en virtud de la definición de los términos [que entonces introduciría un proceso
hasta el infinito] sino en virtud de sus significados, los cuales no se pueden expresar
nunca mediante un conjunto de reglas formales» K.GÖDEL.
5.2.4 Consecuencias lógicas
-Sea cual fuere la respuesta que se dé a las cuestiones ontológicas planteadas en el
apartado anterior, la principal consecuencia lógica, tanto para el pensamiento científico
como para el pensamiento filosófico es renunciar a atribuir al pensamiento deductivo
un pretendido carácter absoluto que muchas teorías racionalistas le han otorgado a lo
largo de la historia.
-Esto nos recuerda que los lenguajes formales tienen una consistencia relativa y no
absoluta, de manera que deben ser no sólo sintácticamente abiertos, sino también
semánticamente abiertos a otros lenguajes y formas de lenguaje.
-En cierto modo sucede algo análogo a los sistemas físicos: hemos visto los límites de los
sistemas físicos cerrados, en los cuales estaba dado desde el principio el resultado final
gracias a las condiciones iniciales y a una ley geométrica: notábamos que se podían
aplicar a muy pocos fenómenos reales. Algo semejante sucede con los sistemas formales,
sólo que aquí las limitaciones aparecen más claras, ya que muchos han querido buscar
una ciencia absoluta en estos sistemas
5.3 Los sistemas lógicos abiertos
5.3.1 Noción básica de sistemas lógicos abiertos
-De lo dicho en el apartado anterior se deduce que la característica de los sistemas
abiertos es poder introducir nuevos axiomas a cada paso, pero esto no se puede
realizar de manera arbitraria, como veremos en lecciones sucesivas.
-Los sistemas lógicos, por tanto, no pueden limitarse al método axiomático, sino que
tienen que incluir, como ingrediente fundamental para poder introducir nuevos axiomas,
el llamado método analítico, que fue bastantes desarrollado en la lógica clásica pre-
moderna y cuyos procedimientos de inferencia más característicos eran la inducción,
la abducción, la abstracción y la analogía.
-De esta manera la inferencia lógico-matemática puede ampliar el conocimiento. En el
método axiomático de los sistemas formales demostrar un teorema, o hallar una nueva
forma de demostrar un teorema sólo aumentaba la información desde un punto de vista
subjetivo y psicológico, pues en realidad todo estaba ya dado en los axiomas. Sin
embargo en le caso de los sistemas lógicos abiertos, la inferencia no sirve sólo para
encontrar consecuencias lógicas de los axiomas dados, sino para encontrar la hipótesis
más adecuada para resolver un problema. De esta manera encontrar una nueva
demostración produce nueva información: encontrarla significa encontrar nuevas
hipótesis que no estaban ya contenidas en la demostración, y por tanto establecen nuevas
conexiones entre el problema y el mundo exterior.

-Las características de estos sistemas abiertos, a los que podemos llamar analítico-
deductivos son las siguientes:
+carácter evolutivo: se van ajustando progresivamente
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
+carácter plástico: no se procede por principios fijos, sino que se van hallando poco a
poco
+carácter modular: cada uno de los módulos tiene una misión particular para
solucionar una parte del problema, aunque esta función puede ir cambiando conforme
lo requiera la demostración.
-Ahora bien, lo que es necesario es desarrollar los métodos adecuados para que la
elección de los axiomas nuevos no resulte arbitraria. De hecho muchos, ante la caída de la
certeza absoluta que pretendían hallar en el método axiomático, acaban cayendo en el
pensamiento débil, pero esto no tiene porqué ser así. Se trata simplemente de hallar paso
a paso los axiomas adecuados. El hecho de no poder encontrar una teoría absolutamente
consistente ni omnicomprensiva no quiere decir que no se pueda comprender algo de la
realidad.
5.3.2 Sistemas lógicos abiertos y explicación de los sistemas físicos caóticos
-Si recordamos el tema de los sistemas caóticos en física, podemos notar que se parecen a
lo que hemos dicho acerca de la incompletud de los sistemas formales en lógica.
-Lo propio de los sistemas caóticos es que las condiciones iniciales y una ley geométrico-
matemática no era capaces de decidir unívocamente cuál sería el estado final del sistema.
En los sistemas formales, a causa de su incompletud, se puede estar cierto de la existencia
de un teorema - o de la existencia de un procedimiento de cálculo que desde un conjunto
de premisas A lleva a una conclusión B- pero no se puede demostrar formalmente la
compatibilidad (verdad/falsedad) en sentido formal de A con B.
-En realidad esto no es nada extraño: la ciencia moderna entendía la causalidad en el
sentido de la relación lógica antecedente/consecuente. Como desde los teoremas de Gödel
no se puede pretender que un sistema sea consistente y completo, no se puede pretender
que en las condiciones finales esté unívocamente descrito el estado final.
-Por esto los sistemas abiertos en lógica se asemejan a los sistemas caóticos
estudiados en la teoría de la complejidad, que son capaces de generar información.
Este elemento es análogo a la introducción de nuevos axiomas en los sistemas
abiertos.
5.3.3 Sistemas lógicos abiertos y explicación tomista de la verdad como adaequatio
-Adelantamos ya que la noción tomista de la verdad como «adaequatio intellectus et rei»,
es decir la adecuación del concepto del entendimiento y la cosa real tiene mucho que ver
con estos sistemas abiertos: los conceptos no están dados a priori ni existen en un
universo platónico, ni son una mera invención, sino que se forman al adecuarse a la
realidad, de la cual toman nuevos axiomas. Examinaremos esto más adelante con detalle
al hablar de la inducción y de diversos métodos analíticos.
-Es muy interesante la lectura de un texto del De veritate a.4c y ad 1, en el que se habla
de la limitación del conocimiento humano y de su vinculación a la realidad.

«Veritas proprie invenitur in intellectu autem improprie et secundario, quia non


humano vel divino, sicut sanitas in nisi per respectum ad alteram duarum
animali. In rebus autem aliis invenitur veritatum.
veritas per relationem ad intellectum, sicut
et sanitas dicitur de quibusdam aliis in
quantum sunt effectiva vel conservativa
sanitatis animalis. Veritas ergo intellectus divini est una
Est ergo veritas in intellectu divino quidem tantum, a qua in intellectu humano
primo et proprie; in intellectu vero humano derivantur plures veritates, sicut ab una
proprie quidem sed secundario; in rebus facie hominis resultant plures similitudines
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
in speculo, [...]Veritates autem quae sunt in «La verdad propiamente se encuentra en el
rebus, sunt plures, sicut et rerum entendimiento humano o divino, como la
entitates.» salud se encuentra en el animal. En otras
cosas se encuentra la verdad por relación
«Veritas autem quae dicitur de rebus in al entendimiento, como la salud se dice de
comparatione ad intellectum humanum, est otras cosas en cuanto que causan o
rebus quodammodo accidentalis, quia conservan la salud del animal. Así pues, la
posito quod intellectus humanus non esset verdad está en el entendimiento divino de
nec esse posset, adhuc res in sua essentia una manera primera y propia; en cambio
permaneret. Sed veritas quae de eis dicitur en el entendimiento humano de una
in comparatione ad intellectum divinum manera propia, pero secundaria; en las
eis inseparabiliter communicatur: cum nec cosas está de una manera impropia y
subsistere possint nisi per intellectum secundaria, porque sólo está con relación a
divinum eas in esse producentem. una u otra de las dos verdades
Veritas autem quae est in intellectu anteriormente citadas.
humano vel in ipsis rebus, non comparatur La verdad del entendimiento divino es sólo
ad res sicut mensura extrinseca et una, de la cual se derivan muchas verdades
communis ad mensurata, sed vel sicut al entendimiento humano, como de la cara
mensuratum ad mensuram, ut est de de un hombre se producen muchas
veritate intellectus humani, et sic oportet imágenes en un espejo [...] Las verdades
eam variari secundum varietatem rerum; que están en las cosas son muchas, como
vel sicut mensura intrinseca, sicut est de sus entidades.»
veritate quae est in ipsis rebus: et has
etiam mensuras oportet plurificari «La verdad que se dice acerca de las cosas
secundum pluralitatem mensuratorum, en relación con el entendimiento humano
sicut diversorum corporum sunt diversae en cierto modo es accidental respecto a las
dimensiones.» cosas, porque aunque no hubiera ni
pudiera haber entendimiento humano, las
cosas permanecería en su esencia. En
cambio la verdad que se dice acerca de
ellas respecto al entendimiento divino, se
les comunica de una manera inseparable:
no podrían subsistir si no es por el
entendimiento divino que las produce en el
ser. En cambio, la verdad que está en el
entendimiento humano, o en las mismas
cosas, no se compara a las cosas como una
medida extrínseca y común respecto a lo
medido, sino como lo medido respecto a la
medida, como sucede con la verdad del
entendimiento humano, que es preciso que
varíe conforme varíen las cosas; o como
una medida intrínseca, como sucede con la
verdad que está en las mismas cosas: y es
necesario que estas medidas se
multipliquen según la pluralidad de las
realidades medidas, del mismo modo que
cuerpos diversos tienen diversas
dimensiones [si dos cuerpos tuvieran
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
exactamente las mismas medidas serían el mismo].»
Conclusión del tema 4:
1. La crisis del principio de evidencia: El nacimiento de las geometrías no euclídeas
-La Revolución científica había supuesto que había una única geometría posible, la de
Euclides, y que era evidente. Esto, junto con el carácter apodíctico de las matemáticas, había
llevado a una ciencia apodíctica. El descubrimiento de nuevas geometrías puso en crisis este
principio de evidencia.

2. Fracaso del intento cantoriano de fundamentar la matemática:La teoría de conjuntos de


Cantor
-Por otra parte se trató de buscar una fundamentación de las matemáticas que permitiera
demostrar la solidez del cálculo infinitesimal y de todos los conceptos matemáticos. Cantor
pretendió hacer esto a partir de la noción de conjunto, pues las figuras en geometría no era
más que un conjunto de puntos, y los números, en la aritmética, un conjunto de unidades;
también en el análisis las funciones sería simplemente la relación de conjuntos ordenados.
-Sin embargo en la teoría de Cantor aparecieron antinomias en nociones omnicomprensivas,
como la idea de conjunto universal o conjunto máximo, que resultaban contradictorias, y así
caía toda la teoría.

3. Fracaso del intento de Frege de fundamentar la matemática: La antinomia de Russell


-G.Frege pretendió construir una teoría de los fundamentos de la matemática basada en la
noción lógica de clase, porque pensaba que el proyecto constructivo de los conjunto de
Cantor tenía una aplicación exclusivamente matemática, y hacía falta algo más para
fundamentarlas.
-Sin embargo B.Russel descubrió que la noción de clase total eran antinómica, pues debería
incluir a la clase de todas las clases que no son miembros de sí mismas.
-La gravedad de este descubrimiento consistía en que se trataba de una antinomia lógica, y no
sólo matemática, y además una antinomia de carácter sintáctico, no semántico (pues estaba
basada sobre la noción sintáctica de “pertenencia” y sobre la noción semántica de “verdad”),
como sucedía con otras antinomias conocidas en la historia del pensamiento occidental.
-Con esto caía uno de los motivos fundamentales para renunciar al contenido del pensamiento
metafísico clásico, al ser y a la verdad: el pensar que las antinomias lógicas eran de tipo
semántico.

4. Fracaso del intento de Hilbert de fundamentar la matemática: Los teoremas de Gödel


-Hilbert introdujo de nuevo la distinción entre lenguaje y metalenguaje (que no era tan
distinto de la distinción escolástica entre suppositio formalis y materialis, o entre lógica
minor y logica maior).
-Más en concreto, el programa formalista de Hilbert consistía en encontrar un método para
demostrar de manera absoluta el carácter no-contradictorio de las teorías matemáticas. Debía
ser un método no basado la evidencia (camino impracticable después de las geometrías no
euclídeas), sino en métodos finitarios (algoritmos) de decisión. En otras palabras, el programa
formalista de Hilbert pretendía poder usar la aritmética como metalenguaje de todas las
teorías matemáticas formalizadas, incluida la aritmética misma, de manera que se obtendría
desde dentro de la aritmética formal una demostración de la propia completud.
-Los teoremas de incompletud de Gödel decretaron el final del programa de Hilbert. El
primero de estos teoremas demostró que si se usan métodos finitarios de decisión, entonces,
necesariamente, algunos enunciados aritméticos verdaderos, incluso muy elementales,
resultan indecidibles en la aritmética formalizada de Peano. El segundo demostraba que entre
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
los enunciados indecidibles está el enunciado meta-lingüístico que afirma la consistencia de
la aritmética desde dentro de la aritmética misma.
-Los resultados de Gödel, que afirmaban la incompletud de la aritmética formalizada fueron
extendidos por Church y por Turing a todos los lenguajes formalizados de la ciencia, y por
Tarski al problema del análisis formal, no sólo de la sintaxis, sino también de la semántica de
los sistemas formales, y en particular al problema de la verdad.

5. Consecuencias de los fracasos anteriores: la muerte científica del cientificismo


-La conclusión que se sigue de la búsqueda sobre los fundamentos en el siglo XX es la de la
muerte científica del cientificismo. De hecho el sentido profundo de estos descubrimientos no
niega la existencia de una verdad y la posibilidad de conocerla (parcialmente), sino que
muestra, de una manera rigurosa, la imposibilidad de que un lenguaje formal de tipo
demostrativo, científico o filosófico, pretenda tener la exclusiva sobre la verdad y convertirse
en una ciencia absoluta y no perfectible.
-Por lo tanto los sistemas lógicos y matemáticos deben ser sistemas lógicamente abiertos.
Esto quiere decir que tienen que integrar métodos de invención y descubrimiento (métodos
analíticos), para construir axiomas adecuados a sus objetos, con métodos formales de prueba
(métodos axiomáticos), para construir teorías lógicamente consistentes, aunque sea con una
consistencia relativa.
-En realidad esto supone que cae el mito de una certeza absoluta de las deducciones, y es
preciso recurrir a la inducción, y volver a considerar la verdad no como algo ya dado en un
conjunto de axiomas, sino como un adecuación continua a la realidad exterior al sujeto.
Tema 4: Crisis de la fundamentación matemática y lógica de la ciencia de Newton
Bibliografía:

A.D.ACZEL, Il mistero dell’alef. La ricerca dell’infinito tra matematica e misticismo,


Milano 2002.
G.BASTI-L.PERRONE, Le radici forti del pensiero debole. Dalla metafisica, alla
matematica, al calcolo, Padova 1996,179-224.
G.BASTI, Filosofia della Natura e della Scienza, Roma 2002,68-81;183-197.
F.BERTELÉ, «I teoremi di Gödel», en AA.VV. Scienza, analogia, astrazione. Tommaso
d’Aquino e le scienze della complessità, Padova (Il Poligrafo), 1999,251-265.
C.CELLUCCI, La ragioni della Logica, Roma-Bari 20002, 192-348.
G.J.CHAITIN, «Ordenadores, paradojas y fundamentos de las matemáticas», en
Investigación y ciencia, 322 (VII-2003.), 28-35.
J.W.DAUBEN, «El desarrollo de la teoría de conjuntos cantoriana», en I.GRATTAN-
GUINNESS, Del cálculo a la teoría de conjuntos, 1630-1910, Madrid 1984, 235-283.
W.KNEALE-M.KNEALE, El desarrollo de la lógica, Madrid 1972,633-640.
J.MOSTERÍN, Los Lógicos, Madrid 20002, 25-87; 137-179.
E.NAGEL-J.R.NEWMAN, El teorema de Gödel, Madrid (Tecnos) 19942.
J.M.RIAZA, Ciencia moderna y filosofía, Madrid 1953, 28-61.
DISF: Cantor, Infinito, Russell.

Das könnte Ihnen auch gefallen