el error de kant

41
EL ERROR DE KANT El texto que sigue a continuación es un extracto de la tesis doctoral de Alfonso E. de la Fuente Ruiz (2015), relativo a ciertas cuestiones filosóficas que en ella se tratan, y, en particular, a las que se relacionan con la doctrina kantiana. El objetivo es que cualquier lector, incluso no versado en formalismos rigurosos, pueda extraer algo útil del presente documento, saltando a las porciones de texto, o citas literarias, que más le interesen. Por tanto, querido/a lector/a, si encuentras un escollo tal como una ecuación, o concepto que no entiendas de primeras, omítelo sin miramientos, y continúa leyendo. Te garantizo que, haciéndolo así, obtendrás la ansiada recompensa intelectual. El objeto de la tesis (este documento es solo un extracto) es la exposición de la ciencia algorítmica, en línea con el paradigma expresado por Niklaus Wirth en su vademécum “Algoritmos + Estructuras de Datos = Programas”, 1 y con la Filosofía Neopragmática. 2 =+= The goal of this thesis (this document is just an excerpt) is the dissemination of algorithmic science, in line with the paradigm expressed by Niklaus Wirth in his vade mecum “Algorithms + Data Structures = Programs”, 3 and with Neo-Pragmatist Philosophy. 4 Más detalles en: /Further details at: http://alfonsoycia.blogspot.com.es/2015/11/introduccion-y-conclusiones-de-mi-tesis.html 1 Véase [Wirth, 1975] 2 En la línea expresada, no por metafísicos tales como Immanuel Kant, o por pragmáticos clásicos como Heidegger, sino, antes bien, por la de John Stuart Mill (“Filosofía Continental” Europea). Por tanto, alineada con el positivismo lógico de Rudolf Carnap, Alfred J. Ayer, y el Círculo de Viena [v. Chamorro 2009], y, en cierto sentido moderado, con el pensamiento de Noam Chomsky. También expresa influencia notable de B. Russell, la escuela matemática clásica de Göttingen (esp. Hilbert), y la moderna disciplina de Ingeniería del Conocimiento. 3 V. [Wirth, 1975] 4 In the line expressed, not by metaphysicians such as Immanuel Kant, or by pragmatists like Heidegger, but rather by that of John Stuart Mill (European “Continental Philosophy”). Therefore, aligned with the logical positivism of Rudolf Carnap, Alfred J. Ayer, and the Vienna Circle [v. Chamorro 2009], and, in some moderate sense, with Noam Chomsky’s thought. It also expresses noticeable influence from B. Russell, Göttingen’s classical mathematics school (sp. Hilbert), and the modern discipline of Knowledge Engineering.

Upload: alfonso

Post on 30-Jan-2016

270 views

Category:

Documents


1 download

DESCRIPTION

El texto que sigue a continuación es un extracto de la tesis doctoral de Alfonso E. de la Fuente Ruiz (2015), relativo a ciertas cuestiones filosóficas que en ella se tratan, y, en particular, a las que se relacionan con la doctrina kantiana.

TRANSCRIPT

Page 1: El error de Kant

EL ERROR DE KANT

El texto que sigue a continuación es un extracto de la tesis doctoral de Alfonso E. de la

Fuente Ruiz (2015), relativo a ciertas cuestiones filosóficas que en ella se tratan, y, en

particular, a las que se relacionan con la doctrina kantiana.

El objetivo es que cualquier lector, incluso no versado en formalismos rigurosos, pueda

extraer algo útil del presente documento, saltando a las porciones de texto, o citas literarias,

que más le interesen. Por tanto, querido/a lector/a, si encuentras un escollo tal como una

ecuación, o concepto que no entiendas de primeras, omítelo sin miramientos, y continúa

leyendo. Te garantizo que, haciéndolo así, obtendrás la ansiada recompensa intelectual.

El objeto de la tesis (este documento es solo un extracto) es la exposición de la ciencia

algorítmica, en línea con el paradigma expresado por Niklaus Wirth en su vademécum

“Algoritmos + Estructuras de Datos = Programas”,1 y con la Filosofía Neopragmática.2

=+=

The goal of this thesis (this document is just an excerpt) is the dissemination of algorithmic

science, in line with the paradigm expressed by Niklaus Wirth in his vade mecum

“Algorithms + Data Structures = Programs”,3 and with Neo-Pragmatist Philosophy.4

Más detalles en: /Further details at:

http://alfonsoycia.blogspot.com.es/2015/11/introduccion-y-conclusiones-de-mi-tesis.html

1 Véase [Wirth, 1975] 2 En la línea expresada, no por metafísicos tales como Immanuel Kant, o por pragmáticos clásicos como Heidegger, sino, antes bien, por la de John Stuart Mill (“Filosofía Continental” Europea). Por tanto, alineada con el positivismo lógico de Rudolf Carnap, Alfred J. Ayer, y el Círculo de Viena [v. Chamorro 2009], y, en cierto sentido moderado, con el pensamiento de Noam Chomsky. También expresa influencia notable de B. Russell, la escuela matemática clásica de Göttingen (esp. Hilbert), y la moderna disciplina de Ingeniería del Conocimiento. 3 V. [Wirth, 1975] 4 In the line expressed, not by metaphysicians such as Immanuel Kant, or by pragmatists like Heidegger, but rather by that of John Stuart Mill (European “Continental Philosophy”). Therefore, aligned with the logical positivism of Rudolf Carnap, Alfred J. Ayer, and the Vienna Circle [v. Chamorro 2009], and, in some moderate sense, with Noam Chomsky’s thought. It also expresses noticeable influence from B. Russell, Göttingen’s classical mathematics school (sp. Hilbert), and the modern discipline of Knowledge Engineering.

Page 2: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

1

La búsqueda de la certidumbre

¿Cómo se explica que muchas personas sean incapaces de un trabajo de esta naturaleza, o sea, sean

incapaces de entender las matemáticas? Esto es lo que Poincaré examina, señalando muy claramente

que la verdadera razón radica en el sentido que debe darse a la palabra “entender”:

“Entender la demostración de un teorema, ¿consiste en examinar sucesivamente cada uno de los

silogismos que la componen, asegurándose de que son válidos y conforme a las reglas del juego?... Para

algunos, sí: una vez hecho esto dicen que han entendido la demostración.

Para la mayoría, no. Casi todos son mucho más precisos; no se conforman con saber únicamente que

todos los silogismos de la demostración son correctos, sino que desean saber por qué ellos se engranan

en el orden establecido y no en otro. Mientras estos engranajes les parezcan engendrados por capricho

y no por una inteligencia consciente del fin al que desea llegar, no creen haber entendido la

demostración.

Sin duda ellos mismos no son conscientes de lo que piden y no pueden formular su deseo, pero si no se

les da satisfacción, sienten vagamente que les falta algo”.5

Carl Friedrich Gauss,6 uno de los matemáticos más grandes de todos los tiempos, ya puso de

manifiesto en el siglo XIX7 el papel determinante de la curvatura, al ser el primero en darse

cuenta de que era más conveniente pensar en las superficies como objetos que se pueden

dotar localmente de dos coordenadas, y no como subconjuntos del espacio cuyas

coordenadas verifican una determinada relación o como fronteras de sólidos. Un logro

importante de Gauss fue la demostración de que la curvatura depende de la métrica, y no de

la forma en que la superficie se dobla dentro del espacio tridimensional.8 Los trabajos de

Gauss servirían posteriormente a Riemann para que construyera su geometría diferencial n-

dimensional. ¿Pero qué significa que aparezcan números irracionales en todos estos

diámetros?

En realidad, se simboliza una restricción que aparentemente tiene la physis, es decir, la

sustancia del mundo físico entendida en sentido filosófico. La aparición de un número

irracional al realizar una operación como un doblez, indica que ésta operación nunca podrá

ser ejecutada de modo perfecto en la práctica, sino solamente por medios teóricos.

5 Jacques Hadamard: “Psicología de la invención en el campo matemático” sección VII: “Las diversas clases de inteligencias matemáticas” pp. 175 y ss., ESPASA-CALPE S.A. 6 J. Carl Friedrich Gauss (1777-1855) prodigio en matemáticas, física y astronomía, que lideró la vanguardia en geometría de superficies curvadas y demostró en 1799 el Teorema Fundamental del álgebra (“Toda función polinómica racional entera de grado 𝑛 tiene 𝑛 raíces en ℂ, contando 𝑛 veces cada cero de orden 𝑛”), véanse p.ej: [Baule 1949 pp. 664-666] y antes [Rey Pastor 1924, pp. 14 y ss.]. Gauss fue además maestro de Cantor, tutor de B. Riemann (cuya tesis dirigió), en la universidad de Göttingen, donde desarrolló su carrera. Además construyó el primer telégrafo electromagnético en 1833. Notas biográficas en: [Dunham prolog. Sanz 2006, pp. 199-208] y [Muñoz 2009 pp. 23-27] 7 Véase: “Disquisitiones generales circa superficies curvas” (1828) de C. F. Gauss. 8 Santiago Fdez. Fdez. afirma en [Fdez. 2004, pp. 194-195] lo siguiente sobre Gauss: “Entre sus resultados más importantes figura el famoso Theorema Egregium en el que establece la invariancia del valor de la curvatura de Gauss, así como el Teorema Integral de Gauss-Bonet que relaciona el valor de la curvatura de la superficie con la curvatura geodésica, y que a la postre se ha convertido en el recurso más importante de la teoría global de superficies.” Véase una descripción formal del teorema egregio de Gauss en [Baule 1949 pp. 768-779]

Page 3: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

2

¿No sería posible abandonar totalmente la idea de los números irracionales, y trabajar

solamente con los racionales, puesto que aquéllos parecen ser siempre el resultado de

cálculos, y nunca el de una medición directa?

Rudolf Carnap respondía a esta cuestión, desde su “Fundamentación lógica de la física”

publicada a mediados del s. XX, con su estilo característico, tan didáctico y directo:

“Ciertamente esto es posible, pero sería un cambio revolucionario. Por ejemplo, ya no

podríamos trabajar con ecuaciones diferenciales, pues tales ecuaciones requieren el continuo

de números reales.

Los físicos aún no han encontrado razones suficientemente importantes para introducir

tal cambio. Es cierto que la física cuántica apunta una tendencia a la utilización de

magnitudes discretas. La carga eléctrica, por ejemplo, solo se mide en cantidades que son

múltiplos de una carga eléctrica mínima. Si tomamos esta carga mínima como unidad, todos

los valores de cargas eléctricas son números enteros. La mecánica cuántica aún no se basa

totalmente en magnitudes discretas, pero hay una parte tan grande de ella que es discreta,

que algunos físicos han comenzado a especular acerca de la posibilidad de que todas las

magnitudes físicas, inclusive las de espacio y tiempo, sean discretas. Se trata solamente de

una especulación, aunque sumamente interesante.”

Efectivamente, hoy día las unidades indivisibles de tiempo y distancia (a la distancia de

Planck), se manejan con soltura en el contexto de la física subatómica.9

Ruptura de la regularidad

La imposibilidad práctica de representar números irracionales en registros digitales finitos ha

dado lugar a los Sistemas Computerizados Algebraicos,10 una evolución de las máquinas

algebraicas de Torres Quevedo,11 que permiten soslayar las inexactitudes derivadas del

redondeo, truncamiento y aproximación, mediante el uso de representaciones

informatizadas, puramente algebraicas, en la memoria de un ordenador.

Por pequeña que sea una inexactitud, puede conducir a un error muy grande en los cálculos

al realizar una iteración de aproximaciones, o al realizar futuras operaciones con el dato.

9 “Átomo” etimológicamente significa: “aquello que no se puede dividir”, un concepto heredado del filósofo Demócrito, tras el que se esconden las antinomias kantianas del infinito [Heisenberg 1985 pp. 88-90, 142]. De ahí la imposibilidad de realizar particiones ad infinitum, pues, aunque se haya progresado en la descripción del interior del átomo, seguimos topando con una plétora de partículas fundamentales (electrones, quarks, fotones, bosones,…) que parecen indivisibles a su vez. 10 “Computer Algebra System” o “CAS”. Véase, entre otros: Maple, yaCAS. 11 Leonardo Torres Quevedo (1852-1936) destacado ingeniero, matemático e inventor español conocido por sus diseños de globos aerostáticos dirigibles, transbordadores (como el Spanish Aerocar sito en las cataratas del Niágara, aún en operación), telekinos (primeros sistemas de radiocontrol con teleguiado por ondas herztianas), y autómatas ajedrecistas.

Page 4: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

3

Pueden también conducir a

resultados totalmente

erróneos, difíciles de detectar,

y que es sencillo pasar por

alto.

Estos problemas, derivados de

la arquitectura clásica de los

computadores, son más

frecuentes de lo que pudiera

parecer.

Así p.ej: en la figura contigua,

el cálculo con radicales de la

parte superior arroja una

solución errónea.12

Un ejemplo muy notorio13 de que una creencia no es lo mismo que una demostración, lo

constituyen las integrales de Borwein,14 que ofrecen una sorprendente muestra de ruptura

de la regularidad.

Éste es el caso de la integración de

la función “seno cardinal”

desnormalizada, de la figura

contigua, que corresponde a:

𝑠𝑖𝑛𝑐(𝑥) = sin(𝑥) 𝑥⁄

En la formulación de la página

siguiente15 se observa la integración

sucesiva de ciertos productos de

fracciones impares, generados

regularmente con dicha función.

Como puede apreciarse, la regularidad se desbarata exactamente a partir del término con el

divisor 15, lo cual resulta sorprendente, porque todos los productos anteriores arrojan

exactamente el mismo resultado, esto es: 𝜋 2⁄ (90 grados sexagesimales, o un cuarto de

vuelta en la circunferencia).

12 Corresponde a un resultado erróneo (que debiera ser: 0) obtenido con la calculadora científica de Microsoft Windows. Extraído de la presentación [Roanes Lozano 2009] y de otras notas de las lecciones del mismo profesor, en la Universidad Complutense de Madrid. 13 Otro caso célebre fue el de el error o “bug” FDIV, que incluyeron algunos microprocesadores Intel® Pentium en 1994, y cuyo coste rondó los 500 millones de dólares. 14 Véase [D. Borwein & J. M. Borwein p. 14] http://www.thebigquestions.com/borweinintegrals.pdf y http://gaussianos.com/el-curioso-caso-de-las-integrales-de-borwein/ 15 Las figuras se adaptaron desde: http://mathworld.wolfram.com/SincFunction.html y: http://themathkid.tumblr.com/post/129108152980/borwein-integrals-really-math-really

Page 5: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

4

Algo similar ocurre al tratar de establecer una cota, llamada 𝑆𝑘1 o “número de Skewes”, a la

cantidad de números primos 𝜋(𝑥)menores que la integral logarítmica 𝑙𝑖(𝑥)de un número 𝑥

dado. La mejor estimación actual16 tiene en torno a 300 dígitos, pero es en cualquier caso,

mayor que 1017, un número enorme.

Los sistemas modernos de álgebra computerizada permiten trabajar de un modo

cualitativamente distinto al de los lenguajes de programación usuales, al permitir almacenar

representaciones simbólicas sin necesidad de asignar valores aproximados, permitiendo de

modo muy sencillo el calcular derivadas, integrar o resolver polinomios, entre otras muchas

funciones. Dentro de esta tesis se incorporan también algunos resultados17 obtenidos con

estos sistemas a fin de avanzar en la comprensión de ciertas cuestiones, particularmente en

lo referido a optimización global.

Son resultados matemáticos, como los anteriores, los que cuestionan severamente las

aproximaciones filosófico-matemáticas frecuentistas, que están basadas únicamente en la

experiencia previa, tal como la visión kantiana del mundo. Este asunto se discutirá en la

próxima sección.

16 Véanse: http://mathworld.wolfram.com/SkewesNumber.html y [Platt & Trudgian 2014] 17 Véanse por ejemplo las figuras anteriores de esta misma sección, o de la denominada “Los problemas del espacio curvo”, generados con Maplesoft Maple® v17.

Page 6: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

5

Juicio, razón y probabilidad

Conviene conocer por qué Lobachevski,18 y tantos otros, se opusieron con tanto empeño a la

doctrina kantiana de que el ser humano nace con una serie de conocimientos a priori al

nacer. Es aquí donde entra precisamente la “Crítica a la razón pura” de Kant,19

suministrando (y cuestionando) una herramienta del pensamiento matemático, tal vez la

única, que nos permite pasar de un círculo a su diámetro rectilíneo, de un perímetro a su

diagonal correspondiente, o de un número racional a uno irracional. Y es precisamente

aquélla herramienta teórica, la que nos permite construir la sucesión ilimitada que genera la

inacabable ristra de dígitos de 𝜋, o la de los números primos: el juicio sintético a priori.

Kant entendía por a priori20 el tipo de conocimiento que es independiente de la experiencia,

pero dependiente en un sentido genético o psicológico. Sin experiencia no habría

conocimiento de ningún tipo, pero ciertas clases de conocimiento reciben un apoyo de la

experiencia exterior, que en el conocimiento apriorístico no se da.

Durante mucho tiempo se pensó que todo juicio a priori equivalía a un juicio analítico, y que

todo juicio a posterior equivalía a un juicio sintético. Un juicio analítico no supone nada más

que las relaciones de significación entre los términos, tal como: ”todos los perros son

animales”. Un juicio sintético va más allá de los significados y tiene un contenido fáctico, tal

como: “la Luna orbita en torno a la Tierra”. Para emitir un juicio analítico a priori no es

necesario recurrir a la experiencia. Ni siquiera es necesario que existan perros, sino

solamente “la idea de perro”.

Para aclarar estos conceptos, Kant propone el siguiente ejemplo:

“«La recta es la distancia más corta entre dos puntos»

En este juicio, el predicado no está contenido en la noción del sujeto: en el concepto de línea

recta no entra para nada el concepto de distancia. Es por tanto un juicio sintético, luego no es

analítico. Tampoco es un juicio a posteriori, ya que se refiere a una verdad sin tener que medir

distancias entre dos puntos, sin necesidad de recurrir a ninguna experiencia comprobatoria. Es

estrictamente universal y necesario, carece de posibles excepciones. Es por tanto a priori.”

La cuestión fundamental es: si la línea divisoria entre lo a priori y lo a posteriori coincide con

la línea entre lo analítico y lo sintético. Kant sostenía que no,21 y se refería a los axiomas

euclídeos, diciendo que no era posible imaginar un modo en que no se cumplieran. Esta

18 Nikolai Ivanovich Lobachevski (1792-1856) fue un matemático ruso que ejerció largo tiempo y desde temprana edad como rector de la Universidad de Kazán, donde desarrolló su “geometría imaginaria” o “hiperbólica” como parte de lo que sería la obra de su vida: una “Pangeometría18” que generalizaría la geometría existente. Es célebre su cita: “No hay rama de la matemática, por abstracta que sea, que no pueda aplicarse algún día a los fenómenos del mundo real.” 19 I. Kant (1724-1804): Eminente filósofo religioso, epítome de la Ilustración, que impartió clases de física y matemáticas en la Universidad de Königsberg. Habiéndose propuesto demostrar el carácter científico de estas disciplinas, formuló los juicios sintéticos a priori, de los que razona que son universales y necesarios, pero sin estar contenidos en la experiencia. 20 Carnap dixit. En general, la locución “a priori” se interpreta como “con anterioridad” o “previo”, siendo antónimo de “a posteriori”. Existen otras interpretaciones, en función del empirismo y la analiticidad de un enunciado, como la de [J. Ayer 1984 pp. 20-32 y cap. 4] 21 Puede encontrarse una definición kantiana de los juicios analíticos y de los sintéticos, junto con sus correspondientes enmiendas, en [J. Ayer 1984 pp. 91-93]

Page 7: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

6

visión se convirtió rápidamente en el pensamiento oficial de la civilización occidental,

condicionando, y en cierto modo restringiendo, el desarrollo de la geometría.

En efecto, el filósofo Martin Heidegger también coincidía con la visión de que lo perfecto era

anterior, y precedía a lo imperfecto, pues había indicado en su tratado sobre los principios

elementales de la doctrina kantiana, lo siguiente:

“El modo del movimiento y el lugar del cuerpo se determinan según su naturaleza, Para toda

caracterización y medición de los movimientos, la tierra es el centro. La piedra que cae se mueve hacia

el centro; el fuego que sube se aleja del centro. En ambos casos el movimiento es un movimiento

recto. Pero los astros, todo el cielo, se mueven «περί τò μέσnν» alrededor del centro; su movimiento

es [circular].

El movimiento circular y el movimiento rectilíneo son los movimientos simples; a su vez, de

entre ambos, el movimiento circular es el primordial, es decir, el que tiene el rango más alto, ya que lo

perfecto precede a lo imperfecto. Al movimiento de los cuerpos pertenece su lugar. En el movimiento

circular el cuerpo tiene su lugar en el movimiento mismo. Por eso, este movimiento es el que dura

siempre, el que existe verdaderamente, mientras que en el movimiento rectilíneo el lugar se distancia

de otro lugar solamente en una dirección, de modo que en este segundo lugar el movimiento llega a

su fin. […]

El movimiento más puro, en el sentido del cambio de lugar, es el movimiento circular;

contiene en cierto modo el lugar en él mismo. Un cuerpo que se mueve de tal manera se mueve

perfectamente; esto vale para todos los cuerpos celestes. Frente a ellos el movimiento terrestre es

siempre rectilíneo, o mezclado, o también forzado, es decir, es siempre imperfecto. […]

Hay que buscar la causa del movimiento continuo. Según la concepción derivada de

Aristóteles, la causa, en los movimientos naturales, está en la naturaleza del cuerpo mismo, en su

esencia, es decir, en su ser más propio. A esto corresponde también un principio de la escolástica

posterior: «operari (agere) sequitur ese»: el modo del movimiento (como operatividad) sigue el

modo del ser.”

El juicio sintético a priori en sentido kantiano, se interpreta en cierto modo como una

contradicción de facto, pues la sinteticidad contradice el apriorismo, ya que una síntesis se

obtiene tras un proceso experimental, mientras que esta misma posterioridad queda

contradicha por la necesidad de efectuar el juicio, sin haber concluido un proceso de examen

exhaustivo (caso por caso). Esta imposibilidad radica en la consideración de un conjunto que

genere una sucesión ilimitada de elementos, lo que impide examinar exhaustivamente cada

uno de los elementos generados, y hace imprescindible la realización de un “salto de fe”

desde lo finito hasta lo infinito. De ahí que a Kant y algunos de sus sucesores (como Hegel,

Fichte o Heidegger) se les tachara, no sin razón, por su oscurantismo deliberado.22

22 Especialmente por los positivistas como B. Russell, R. Carnap o A. J. Ayer [cfr. infr.] así como por otros empiristas, el mismo K. Marx, o el neopragmático Habermas [cfr. infr.], que a su vez fue criticado por von Hayek en base a las consecuencias morales (esto es, el dilema de si: “el fin justifica los medios”). Drucker también señala un tanto categóricamente que “toda decisión efectiva es, en todos los casos, un criterio basado en opiniones contrarias, más bien que un consenso sobre hechos” [Drucker 1973 p. 33]. Respecto al oscurantismo matemático, véase también [Pérez Sanz, 2002-2008]. Conviene señalar también que Heidegger (1889-1976) fue también muy criticado por su asociación con el régimen de la Alemania nazi, con lo que una cuestión puramente filosófica se tornó en política, como tan a menudo sucede, pero una política que además condujo a una Guerra Mundial.

Page 8: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

7

Es tal, pues, el salto conceptual que se realiza en ciertas progresiones aritméticas (aditivas) y

geométricas (multiplicativas), tanto sobre las series23 de tipo sumatorio como en

productorios o exponenciatorios, y en general, de cualquier operación aritmética iterable.

Con carácter general, se refiere a las operaciones que puedan definirse como reiteración24

indefinida de una operación determinada (esto es, cuando el intervalo de iteración [𝑎, 𝑏]

contiene infinitos elementos), o que involucran algún tipo de límite.

El concepto de límite,25 que ya se ha adelantado, puede definirse26 como sigue:

“Sea 𝑓(𝑛) cualquier función de 𝑛. Se dice que 𝑓(𝑛) tiende a un límite 𝑎 cuando 𝑛

tiende a infinito si 𝑓(𝑛) es “casi igual” que 𝑎 cuando 𝑛 es grande.”

Se entiende que el valor 𝑎 puede tomar diversos valores impropios como los del infinito

convencional (∞), positivo (+∞) o negativo (-∞), o un valor cualquiera entre los números

reales, o un cociente e incluso otro límite.27 Con mayor precisión, puede definirse así:

“Se dice que la función 𝑓(𝑛) tiende al límite 𝑎, cuando 𝑛 tiende a infinito, si para

todo número real positivo 𝛿, independientemente de lo pequeño que sea,𝑓(𝑛) dista de 𝑎 en

una cantidad menor que 𝛿, para todos los valores de 𝑛 suficientemente grandes.”

Si 𝑓(𝑛) tiende al límite 𝑎 cuando 𝑛 tiende a infinito, se escribe:

lim𝑛→∞

𝑓(𝑛) = 𝑎

Y adicionalmente, sobre la recta de los números reales, se puede especificar que a un

determinado límite se tiende desde algún extremo lateral, habitualmente el derecho ‘+’ o el

izquierdo ‘-‘, a lo que se llama límite lateral:

𝐼𝑧𝑞𝑢𝑖𝑒𝑟𝑑𝑎: lim𝑥→𝑎−

𝑓(𝑥) = 𝑏

𝐷𝑒𝑟𝑒𝑐ℎ𝑎: lim𝑥→𝑎+

𝑓(𝑥) = 𝑏}∀휀 > 0, ∃𝛿 > 0| {

−𝛿 < 𝑥 − 𝑎 < 00 < 𝑥 − 𝑎 < 𝛿

} ⇒ |𝑓(𝑥) − 𝑏| < 휀

En funciones multivariables (y dimensiones superiores) puedan describirse límites

direccionales,28 como el superior, inferior, trasero, delantero, o en general, límites sucesivos

o reiterados, en la dirección de un vector de coordenadas arbitrarias, que sea tangente a

una curva definida en el punto, o siguiendo un camino, formado, p.ej. por una curva,

superficie, o volumen.

23 Véanse los recordatorios sobre series telescópicas, p.ej. en [Brassard & Bratley 1997, pp. 39-44] 24 Esta reiteración en el sentido de Poincaré como “repetición de una acción desde que la misma es posible” también puede interpretarse como un método de extrapolación (o proyección) en sentido Newtoniano, por adición de elementos exteriores a una función, que haya sido dada por puntos aislados (correspondientes a observaciones empíricas). Véase [Baule 1949 pág. 234] 25 Para un estudio en profundidad sobre diversas conceptualizaciones de límite funcional, véase [Blázquez, Gatica y Ortega 2009] 26 De acuerdo con la definición de [Brassard & Bratley 1997, pp. 35-36]. Véase también [Baule 1949 pp. 4 y ss., 112 y ss.] 27 Más detalles en los desarrollos del marqués de L’Hôpital (1661-1731), sobre el análisis de los infinitésimos para el entendimiento de las líneas curvas. Véase p.ej: [Granero 1996 pp. 149-154] 28 Véase [Granero 1996 secc. 9.6]

Page 9: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

8

Fue precisamente Riemann quien, en 1854, precisa el concepto de “integral”, y determina

cuándo las “sumas de Riemann” de una función acotada en un compacto (o conjunto

acotado y cerrado) tienden hacia un límite finito al tender a cero la norma de la partición.

En cierta forma, también se involucra el límite en las sucesivas definiciones de integral del

cálculo diferencial (como la debida a B. Riemann), por cuanto que una derivada implica el

“troceo” de una función en infinitas partes infinitesimalmente pequeñas, o su integración a

fin de reconstruir la deriva funcional.

∑𝑓(�̅�)

𝑖

∏𝑓(�̅�)

𝑖

∫𝑓(�̅�)𝑑𝑥

𝑏

𝑎 }

⇛ lim�̅�→�̅�0

𝑓(�̅�)

Rigurosamente, una integral no es más que el límite de una suma cuyo número de sumandos

aumenta indefinidamente, al tiempo que tiende a cero el valor de cada uno de ellos. De

hecho, las integrales impropias requieren de un paso al límite para su cálculo, al toparse con

una discontinuidad.29

De cierto modo, este salto filosófico a la infinitud, involucra un experimento puramente

estadístico sobre la experiencia humana, en que es del todo relevante el conocimiento del

lugar del que se proviene, a fin de asumir la continuidad del argumento.30 Es por ello que la

validez de un razonamiento sintético a priori tal, queda inevitablemente supeditada al

concepto de confianza estadística, lo que supone una contradicción de los principios

irrenunciables del razonamiento lógico, que trata de demostrar un razonamiento sin dejar

lugar a dudas.

Tampoco la geometría describe las propiedades del espacio físico, tal como postulaba31 Sir

Alfred J. Ayer,32 uno de los seguidores intelectuales de Carnap:

“Podemos sentirnos inclinados a aceptar la hipótesis de Kant, de que el espacio es la forma

de intuición de nuestro sentido exterior, una forma impuesta por nosotros a la substancia de la

sensación, como la única explicación posible de nuestro conocimiento a priori de estas proposiciones

sintéticas. Pero, aunque la concepción de que la geometría pura se interesaba por el espacio físico, era

29 Véase p.ej: [Baule 1949 pp. 140 y ss.] Además, el signo de integración ‘∫’ que procede del de summa (suma) ‘Σ’, fue propuesto por Leibniz en una carta a Henry Oldenburg, secretario de la Royal Society, escrita en 1675: «Será útil –sugería él- escribir ∫ en lugar de omm», símbolo éste último que se usaba entonces para denotar la integración. [Vizmanos y Anzola 1995 pág. 360] 30 Un razonamiento similar fue expresado por [Friedman 1976] respecto a la naturaleza de los estudios en Economía, durante su discurso de aceptación del premio Nobel. 31 V. [J. Ayer 1984 pp. 97-99] 32 Sir Alfred Jules Ayer (1910-1989) filósofo humanista inglés promotor del empirismo lógico (al que distingue del positivismo). Se relacionó con el Círculo de Viena y se opuso frontalmente a Heidegger. Desarrolló un nuevo concepto de agnosticismo y anticipó, en sus investigaciones sobre la consciencia, el Test de Turing [de Frutos 2012 pp. 687-691], para confrontar una inteligencia artificial interpelativa “fuerte” o “general” (‘AGI’: “Artificial General Intelligence”). Sus aportaciones incluyen el principio de verificación empírica, como oposición a metafísica y tautología.

Page 10: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

9

bastante aceptable en el tiempo de Kant, cuando la única geometría conocida era la de Euclides, la

ulterior invención de geometrías no euclidianas ha demostrado que era errónea.

Ahora vemos que los axiomas de una geometría son definiciones solamente, y que los

teoremas de una geometría son, simplemente, las consecuencias lógicas de estas definiciones.33 En sí

misma, una geometría no trata del espacio físico; no puede decirse que, en sí misma, trate «de» nada.

Pero nosotros podemos utilizar una geometría para razonar acerca del espacio físico. Es decir, una vez

que hemos dado a los axiomas una interpretación física, podemos proceder a aplicar los teoremas, a

los objetos que satisfacen los axiomas.

El que una geometría pueda ser aplicada al mundo físico real o no, es una cuestión empírica

que cae fuera del propósito de la geometría misma. Por lo tanto, no tiene sentido preguntar cuáles de

las diversas geometrías conocidas por nosotros son falsas, y cuáles son verdaderas. En la medida en

que estén libres de contradicción, son todas verdaderas. Lo que podemos preguntarnos es cuál de ellas

es más útil, en una ocasión dada, cuál de ellas puede ser aplicada más fácilmente y más

fructuosamente, a una situación empírica real […]”

Se debía el error de Kant, que señalaran algunos matemáticos como Lobachevski, Gauss y

Riemann, a no darse cuenta de que existen dos tipos de geometría esencialmente distintos:

la geometría física y la geometría matemática. El hecho de que pudiera diseñarse una

geometría no euclídea muy exótica, no implicaba que el universo automáticamente fuera a

adoptar semejante geometría. En este sentido, Einstein afirmaba:34

“Los teoremas de las matemáticas carecen de certidumbre en la medida en que se refieren a

la realidad física. Y en la medida en que poseen certeza, no se refieren a la realidad.”

Traducido al lenguaje kantiano, esto significa que, en la medida en que los juicios no son

sintéticos, son apriorísticos, y que en la medida en que son a priori, no son sintéticos.

El enfoque empírico (a posteriori) para seleccionar un método de resolución, consiste en

programar las técnicas competidoras, e ir probándolas en distintos casos registrados de

forma estadística, con ayuda generalmente de un ordenador. Por el contrario, el enfoque

teórico (a priori), que es el consistente en determinar matemáticamente los axiomas y

modelos que más se ajustan al caso experimental, así como la cantidad de recursos

necesarios (tales como tiempo de cálculo y espacio de memoria) para cada uno de los

algoritmos, como función del tamaño 𝑛 de los casos considerados.

Se entiende pues, que las hipótesis científicas son normas que rigen nuestra expectación de la experiencia futura, en base a un cálculo matemático de probabilidades.35 Así entendidos, los sucesos siempre se pueden representar como conjuntos. El importante teorema de Stone asegura la existencia de la representación en términos conjuntistas, cuando afirma:

33 Aquí Fred Ayer cita a Poincaré en [Ciencia e Hipótesis Parte II, cap. III] 34 Conferencia “Geometría y Matemáticas” (Geometrie und Erfahrung, Berlín, 1921). Traducida al inglés e incluida en: “Sidelights on Relativity” (New York, Dutton: 1923). Einstein partía de la hipótesis de que el pensamiento humano es independiente de la experiencia, en línea con el Funcionalismo filosófico [cfr. infr.], lo que contrasta con los avances propiciados por Turing y la teoría de Redes Neuronales. Sobre aplicaciones de las redes neuronales en campos diversos véanse p. ej: [Pacheco et al. – V ASEPUMA], [Man, Tang y Kwong 1999 cap. 7] y [Gurney 2001] 35 [J. Ayer 1984 pp. 118-120]

Page 11: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

10

“Toda álgebra de Boole, y en concreto toda álgebra de sucesos, es isomorfa a un álgebra de conjuntos.”36

El concepto de probabilidad fue formalizado en 1933 por el modelo axiomático de Kolmogorov,37 apoyándose en la idea de considerar un “espacio probabilístico” como un tipo particular de métrica en que el conjunto total tiene una medida igual a la unidad, concretándolo en tres elementos:38

- Un conjunto Ω, conocido como “espacio muestral”, que representa el conjunto de todos los posibles resultados de un experimento aleatorio, llamados “sucesos elementales”

- Una σ-álgebra39 de subconjuntos de Ω, cuyos elementos se denominan “sucesos”, denotada por 𝐴, que generalmente coincide con ℘(Ω), es decir, la clase formada por todos los subconjuntos o “partes”40 del espacio muestral.

- Una aplicación, abreviada como 𝑃 por “probabilidad”, definida sobre las partes 𝐴 del espacio muestral, con valores en el intervalo [0,1], verificando que 𝑃(Ω) = 1

Además, la función de probabilidad es numeralmente aditiva, es decir:

(∀i∀j|i ≠ j) ∧ (∀{𝐴𝑛} ⊂ A|𝐴𝑖⋂𝐴𝑖 = ∅):

P(⋃𝐴𝑛

𝑛=1

) = ∑𝑃(𝐴𝑛)

𝑛=1

O bien, que la probabilidad de toda unión de todos los posibles subconjuntos disjuntos

diferentes, del espacio muestral, corresponde a la suma de las probabilidades de cada uno

de estos subconjuntos. Por ejemplo, al tirar un dado normal de 6 caras, si la probabilidad de

que salga un 1 es de 1/6, y la probabilidad de que salga un 2 es también de 1/6, entonces la

probabilidad de que salga un 1 o un 2, es la suma. Es decir: 1/6 + 1/6 = 2/6 = 1/3.

Estos modelos serían extendidos más tarde por uno de los alumnos de Kolmogorov, Yakov G.

Sinaí, quien recientemente obtuvo el premio Abel por su teoría de billares, la cual sirve para

modelizar el comportamiento de las moléculas de un gas en un espacio cerrado.41

36 En concreto, se demuestra la existencia de un homomorfismo inyectivo, entre el álgebra de sucesos dada, y las partes de la familia de sucesos que se han verificado, lo que define para cada resultado, lo que se llama una “prueba” o verificación de la experiencia. Véase [Renyi 1976] y [cfr. supr: “Boole”] 37 Andrei Nikolayevich Kolmogorov (1903-1987) enseñó matemáticas en la Universidad de Moscú y construyó la axiomática para el cálculo de probabilidades al considerar la relación entre el concepto de frecuencia relativa de un suceso y su probabilidad, cuando el número de pruebas es muy grande. Kolmogorov formuló además las hipótesis en que se basa la teoría de la turbulencia. En 1955 recibió el premio Lenin, máximo galardón que se concedía en la antigua U.R.S.S. 38 Adaptado desde [Sánchez 2010 pp. 146-150] 39 Una σ-álgebra de Borel engendra familias de conjuntos como p.ej. los conjuntos abiertos o cerrados, los intervalos abiertos, semiabiertos y cerrados, o los de tipo (∞, 𝑥], ∀𝑥 ∈ ℝ. 40 Así, p. ej: dado un conjunto 𝐴 = {𝑎, 𝑏, 𝑐}, el conjunto de sus partes (sin repetición de elementos en

función del orden de selección) es: ℘(𝐴) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}. 41 Hipótesis ergódica de Boltzmann, sobre el comportamiento Newtoniano subyacente a la mecánica microscópica de las partículas. Véase referencia en [Szász 2014], y un modelo diseñado para computación paralela sobre GPUs en: [Astorino, Becerra y Quarteroni 2012]

Page 12: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

11

Alfred J. Ayer interpretaba el concepto de probabilidad de modo sutilmente diferente

cuando la aplicaba a una proposición lógica:42

“Al referirnos a la probabilidad de una proposición, no estamos refiriéndonos, como a veces

se supone, a una relación lógica, imposible de analizar, entre aquélla y otras proposiciones. Hablando

en líneas generales, todo lo que expresamos al decir que una observación aumenta la probabilidad de

una proposición es que aumenta nuestra confianza en ella […] Y de un modo semejante, decir de una

observación que disminuye la probabilidad de una proposición, equivale a decir que disminuye nuestro

deseo de incluir la proposición en el sistema de hipótesis aceptadas que nos sirven de guías para el

futuro. […]

Decir que una observación aumenta la probabilidad de una hipótesis, no siempre equivale a

decir que aumenta el grado de confianza con que realmente mantenemos la hipótesis. […] a veces se

comenten errores en cuanto a la probabilidad de una proposición: puede creerse más o menos

probable de lo que realmente es.”43

Como es bien sabido, la inferencia

estadística basada en la probabilidad se

proyecta necesariamente sobre un

intervalo de confianza y sobre su

complementario: el “intervalo de

desconfianza” (asociado a la probabilidad

de error: 𝑃𝜖 sobre un error aleatorio44 𝛼,

cuyas longitudes, aunque infinitesimales,

nunca serán nulas.

La consecuencia es que continuará existiendo un cierto “género de duda45” en todo juicio

sintético a priori, ya que la probabilidad de error nunca será nula a priori sin haber

examinado individual y exhaustivamente todos los elementos del universo de discurso. De

ahí la posibilidad de manipulación interesada de los datos, para arribar a conclusiones

preestablecidas, que sugería Benjamín Disraeli al decir:

42 [J. Ayer 1984 pp. 120-122] 43 Esta última objeción está en la base del teorema NFL [cfr. infr.] 44 Imagen extraída de Wikipedia.org. 45 Identificable con la “duda epistemológica”, sin la cual no existiría la razón cartesiana. De acuerdo con el lingüista y matemático Noam Chomsky, la incertidumbre está dividida en problemas (tentativamente solubles) y misterios (indescifrables). La incertidumbre se puede tratar sistemáticamente con técnicas de lógica borrosa [cfr. infr.], y con las derivadas del teorema de Dempster-Shafer sobre un marco de discernimiento (o conjunto finito de hipótesis mutuamente excluyentes y exhaustivas). La irresolubilidad se trata con respecto a un campo [cfr. infr: “problema de Delfos”]. Por su parte, a la descifrabilidad se le da tratamiento en criptografía. El descubrimiento de los números de Loiuville, ha permitido la demostración de la imposibilidad de resolver varios antiguos problemas de geometría que sólo permiten utilizar regla y compás. El más conocido de ellos es el de la “cuadratura del círculo” o “rectificación de la circunferencia” [v.: “problema de Delfos”], y su irresolubilidad radica (resumidamente) en que π es un número transcendente. Como se sabe, el cardinal de los planos de un poliedro es finito, de donde emerge la relación de este problema con la duplicación del cubo (llamado “problema del oráculo de Delfos”, en griego “Δήλος”) y con la cuadratura del círculo, en [Rey Pastor 1924, pp. 133,138] y [Puig Adam 1958, Tomo II, pp. 285 y ss.]. El problema de Delfos era irresoluble con regla y compás (excluyendo el

tramposo método Neusis) porque la constante délfica (o “pitánea”) √23

no es un número euclídeo, por lo cual se requiere resolver la ecuación cúbica 𝑥3 = 𝑎 ⋅ 𝑏 ⋅ 𝑐.

Page 13: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

12

“There are three kinds of lies: lies, damned lies, and statistics.”46

De hecho, a medida que aumenta la cantidad de elementos de un conjunto de experiencias

personales, la probabilidad de uno cualquiera de ellos, suponiéndolos equiprobables, tiende

a cero. Este razonamiento conduce al concepto de incertidumbre, que se estudiará a

continuación.

Inducción y sinteticidad: la superación de un modelo

De las disquisiciones kantianas sobre los juicios cartesianos, y la consecuente negación del

quinto postulado euclídeo, surgiría una nueva cuestión, tal y como mostraría

impecablemente Kurt Gödel,47 para frustración de Hilbert. Y es que no todos los juicios

sintéticos a priori son correctos, y además no tenemos forma de saber cuáles lo son, y cuáles

no lo son. No hay forma de discernir este punto, ni aún teniendo la certeza de que algunos

juicios sí sean correctos, salvo que sea de forma empírica, por la experiencia. Esto implica

que “pueden darse ejemplos de proposiciones verdaderas por su contenido, pero

indemostrables en el sistema formal de las matemáticas clásicas”, ya que una cosa es la

veracidad, y otra muy distinta la demostrabilidad.48

Gödel aritmetizó las matemáticas, demostrando en 1931 que, si la Teoría de la Aritmética es

consistente, no es posible demostrar su no-contradicción, utilizando el lenguaje de la

Aritmética. Así llegó a formular sus teoremas de incompletitud, que junto con el problema

del continuo cayeron como una bomba en la comunidad filosófico-matemática de la primera

mitad del siglo XX.

Javier Fresán, en su biografía de Gödel, refiere lo siguiente en alusión a este asunto:

“La negación del quinto axioma de los Elementos había hecho posible el desarrollo de las

geometrías no euclídeas. Desde varios siglos antes, el postulado de las paralelas no parecía tan

autoevidente como los demás, pues involucraba regiones infinitamente lejanas del espacio. Muchos

matemáticos trataron de demostrarlo partiendo del resto de axiomas, pero resultó ser independiente

de la geometría absoluta, ya que, extendiendo los cuatro primeros axiomas de Euclides, con la

negación del quinto postulado, se obtenían teorías consistentes –como la geometría riemanniana,

cuyo modelo más sencillo es una esfera, si identificamos los puntos con puntos de sus superficie, y las

rectas con círculos máximos.49 Lobachevski logró demostrar que, si la geometría hiperbólica era

consistente, también lo era la euclídea, y Klein y Beltrami establecieron la implicación en el sentido

46 “Existen tres tipos de mentiras: las mentiras normales, las mentiras podridas, y las estadísticas”. Atribuida por Mark Twain en su autobiografía de 1924. Via [Ratcliffe II 2001 pág. 264 statistics.5] 47 Kurt Gödel, matemático checo nacido en la actual ciudad de Brno en 1906. Véase también la sección “Más allá del infinito”, en este mismo capítulo (de la tesis completa). 48 Nótese que, en inglés, los términos demostrabilidad (“provability”) y probabilidad (“probability”) difieren en tan solo media letra, aunque estos dos conceptos también presentan ciertas diferencias. Según [Oxford Dictionary & Thesaurus], el uso de “to prove” en participio pasado, es bastante infrecuente, salvo en ciertas expresiones como “proven ability” (“habilidad probada”). No obstante, su uso es estándar en Inglés-Americano e Inglés-Escocés. 49 O “geodésicas” (cfr. supr.) Poincaré y una cohorte de topólogos tratarían más tarde el asunto de las geodésicas sobre otras figuras esféricas de distinto género, como el toro, con sorprendentes resultados [cfr. infr: “singularidades”].

Page 14: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

13

contrario: si la geometría euclídea era consistente, también lo era la no euclídea. Así, los nuevos

sistemas axiomáticos eran consistentes, si y sólo si lo era el clásico, y todo dependía de la coherencia

de la teoría de los números reales; se trata, por tanto, de una consistencia relativa (equiconsistencia)

[…]

El segundo teorema de incompletitud, que el propio Gödel consideraba un «corolario

sorprendente» del primer teorema, establece que éstas pruebas absolutas de la consistencia de un

sistema, en ningún caso pueden ser realizadas dentro de la teoría cuya coherencia se pretende

demostrar50. […]

Gödel terminaba su artículo señalando que el segundo teorema de incompletitud: «de ningún

modo contradice la proposición formalista de Hilbert, pues ésta presupone sólo la existencia de una

prueba de consistencia llevada a cabo por medios finitarios, y sería concebible que existiesen

demostraciones finitas, que no pudieran representarse en 𝒫»”.51

Se introdujeron pues en el discurso las clases de problemas polinómicos y problemas

deterministas, que se explican en otro apartado.

El uso de métodos finitos52 excluiría la “inducción completa“ o “principio de recurrencia”,

aquélla que decía que: “si se da para el caso n, y dado n para n+1, entonces es válida para

todos los casos…”,53 puesto que si ésta deja de ser un juicio sintético a priori, se ataca

directamente el concepto de los “conjuntos finitos” (concepto éste desarrollado durante la

primera mitad del siglo XX).

Fue entonces cuando Zermelo54 formuló con Fraenkel su teoría de conjuntos y sistema

axiomático asociado. Este sistema incluye el axioma de elección [cfr. infr.] que afirma que,

dado cualquier conjunto ‘x’ de conjuntos no vacíos, existe una función que asigna, a cada

elemento de ‘x’, uno de sus propios elementos. El teorema de Zermelo establece que existe

una “buena ordenación” para todo conjunto, que es aquélla capaz de definir un primer

elemento y una serie de sucesores hasta que se terminan todos.

50 Véase una definición formal en:[Ivorra 2013 sección 7.2] 51 𝒫 es la clase de algoritmos “eficientes” que se pueden resolver en tiempo de orden polinomial

Ο(𝑝(𝑛)) en función del tamaño ‘n’ de casos del problema. Véase a este respecto la sección

correspondiente, para una breve discusión de la complejidad computacional y el determinismo en este mismo capítulo (de la tesis completa). 52 A menudo “finito” y “finitario” se utilizan indistintamente, aunque si bien el primer término es más sencillo y popular, es preferible el segundo, para evitar las connotaciones de “delgadez” en castellano. Estos métodos pueden en realidad resultar bastante “gruesos”, tal como atestigua el volumen de cualquier manual de cálculo. 53 Más formalmente: Para el objetivo de demostrar la propiedad 𝑝∀𝑛 ∈ ℕ:

𝑆𝑖{𝑝(1) − 𝑐𝑖𝑒𝑟𝑡𝑜} ∧ {[𝑆𝑖𝑝(𝑛 − 1) → 𝑝(𝑛)] − 𝑐𝑖𝑒𝑟𝑡𝑜} → {𝑝(𝑛) − 𝑐𝑖𝑒𝑟𝑡𝑜} donde 𝑝(1) corresponde a la propiedad 𝑝 del primer elemento del subconjunto de ℕ. Además, se conoce como inducción fuerte al siguiente razonamiento:

{𝑝(1) − 𝑐𝑖𝑒𝑟𝑡𝑜} ∧ {𝑝(𝑖) − 𝑐𝑖𝑒𝑟𝑡𝑜𝑝𝑎𝑟𝑎𝑡𝑜𝑑𝑜𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑖𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟𝑎𝑘} → {𝑝(𝑘) − 𝑐𝑖𝑒𝑟𝑡𝑜} Véase un estudio formal del método de inducción, p.ej. en [Ferrando y Gregori 1994 pp. 12-15] 54 Ernst Zermelo (1871-1953). El axioma de elección es contradicho por la paradoja de Banach-Tarski que muestra cómo obtener dos bolas de radio 1 en ℝ3 a partir de una sola. Para una introducción accesible y amena véase p.ej: [di Tada 2006 pp. 153 y ss.], [Bagaria 2012 pp. 369-372] o [Durán 2009 pp. 281-283]

Page 15: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

14

Haciendo uso de la inducción matemática, Peano por su parte formuló el conjunto de los

números enteros no negativos en su obra “Formulario Mathematico” basándose en tres

términos: “cero”, “número” y “sucesor”, con la siguiente formulación:

Cero es un número.

Para todo número 𝑛, su sucesor: 𝜎(𝑛) = 𝑛 + 1, es un número.

No hay número 𝑛 con 𝜎(𝑛) = 0.

Si 𝜎(𝑚) = 𝜎(𝑛), entonces 𝑚 = 𝑛.

Si 𝐴 es un conjunto de números tal que 0 ∈ 𝐴 y además ∀𝑛 ∈ 𝐴: 𝜎(𝑛) ∈ 𝐴, entonces

𝐴 es el conjunto de los números enteros no negativos.

Para Zermelo,55 la sucesión de los números naturales no es más que una sucesión de

conjuntos finitos donde el primero es un conjunto unitario, como es p. ej. el conjunto vacío:

‘∅’. Con lo cual, los primeros números: (0) 1, 2, 3, 4,… se podrían escribir como conjuntos

puros o hereditariamente finitos,56 sobre el conjunto vacío, de la siguiente forma,

{∅}, {∅, {∅}}, {∅, {∅}, {{∅}}, {∅, {∅}}},…

De modo que cada número entero puede definirse como el conjunto de todos los conjuntos

anteriores.57 O de modo alternativo, como:

{∅}, {{∅}}, {{{∅}}} , {{{{∅}}}},…

Lo que sería, en base monaria, equivalente a la base 10 convencional (con diez símbolos, del

‘0’ al ‘9’), o a la base binaria (con solo dos símbolos, ‘0’ y ‘1’), pero empleando un símbolo

solamente, bien sea el uno, o bien el cero:

1,11,111,1111,…

𝑜:

0,00,000,0000,…

Quedaría así introducido el concepto de “longitud de una cadena de entrada”, que se utilizó

posteriormente en las teorías de Alan Turing [cfr. infr.],58 las cuales, a su vez, serían

extendidas gracias al concepto de conjunto difuso [cfr. infr.]

Se entró pues en un bucle, al tenerse que los números naturales se definían por inducción

completa, y la inducción completa se definía como aquélla que daba origen a los números

naturales.

55 Según Javier Fresán, en la biografía ya referida [cfr. supr.] 56 Véase [Ivorra 2013, pág. 218] y también [pp. 341 y ss.] En general, si 𝐸 es un conjunto con 𝑛 elementos, ℘(𝐸) tiene 2𝑛 elementos. Recuérdese que ℘(∅) = {∅} ≠ ∅. Por tanto:

℘(℘(℘(∅))) = ℘({{∅}, ∅}) = {∅, {∅}, {{∅}}, {∅, {∅}}} 57 La teoría informal de conjuntos fue ampliada con la alternativa provista por la teoría de tipos, en respuesta a la paradoja relatada en el año 1902 por Bertrand Russell a Frege, en la que un conjunto (predicado lógico) puede contenerse a sí mismo [véase la sección sobre recurrencia]. Todo ello devino en la teoría canónica actual de conjuntos de Zermelo-Fraenkel (‘ZFC’). 58 Alan Mathison Turing (1912-1954) nacido en Paddington, Londres. Uno de los padres fundadores de la informática moderna. Diseñó la formalización lógica de las máquinas y autómatas que llevan su nombre. Véase una biografía en torno a su obra p.ej. en [de Frutos 2012]

Page 16: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

15

“¿Cómo, si son tautológicas, puede haber en la matemática y en la lógica la

posibilidad de invención y descubrimiento?”

Esto se preguntaba J. Ayer,59 siguiendo el razonamiento de Poincaré.

“Su propia teoría consiste en que el sentido de invención y descubrimiento en

matemática pertenece a ella en virtud de que lo que es verdadero para el número 1, y

verdadero para n+1 cuando es verdadero para n, es un principio sintético a priori. En efecto,

es a priori, pero no es sintético. Es un principio definidor de los números naturales, que sirve

para distinguirlos de números tales como los números cardinales infinitos, a los cuales no

puede aplicarse.60

Además, debemos recordar que pueden hacerse descubrimientos no sólo en la

aritmética, sino también en la geometría y en la lógica formal, en las cuales no se hace uso

alguno de la inducción matemática.”

Tenía que haber algo más para superar este conflicto. En 1936, Gerhard Gentzen (1909-

1945) obtuvo la primera demostración de la consistencia de la aritmética clásica, usando

recursos lógicos de inducción transfinita. A él se debe el símbolo ′∀′ (“para todo” o “para

cada”), que se utiliza como cuantificador universal. Ésta es la demostración que Gödel probó

que no podía realizarse dentro de la Aritmética, por lo que hubo que salir fuera de ella, para

poder mirarla con la necesaria perspectiva.

La consistencia implica que, del conjunto de axiomas en que se sustenta, no se puede

deducir simultáneamente un teorema y su negación. En los teoremas de incompletitud de

Gödel es relativamente sencillo61 observar que se necesita la hipótesis de recursividad [cfr.

infr.]. Así pues, se puede concluir que el conjunto de las afirmaciones verdaderas sobre

números naturales no es recursivo o, dicho de otro modo, que no existe ningún algoritmo

para determinar si una determinada afirmación sobre los números naturales es verdadera o

falsa. Es una cuestión abierta si se puede aceptar éste método de demostración sin

objeciones, y aunque no se ha probado, es posible que, el añadido de nuevos axiomas, obre

el mismo resultado sobre la aritmética transfinita, y que no sea posible probar su

consistencia dentro de sí misma, entrando en uno de esos bucles que hacen progresar a la

ciencia.

Así, existen otros teoremas posteriores que parecen más o menos humorísticos, pero no lo

son tanto, como el “teorema del punto gordo”. Éste dice, simplificadamente, que la cantidad

de líneas paralelas que puedan trazarse sobre un punto exterior a una recta depende de lo

gordo que sea el punto. La significación de este teorema ha dado lugar al concepto de

“dimensiones enrolladas” que se asienta en la base de la teoría de supercuerdas y teoría ‘M’,

con las que se están tratando de extender una serie de concepciones cosmológicas, aunque

no exista todavía sobre aquéllas teorías un consenso científico generalizado.62

59 Véase [J. Ayer 1984 pp. 101-103] 60 Aquí J. Ayer citaba a Bertrand Russell: [“Introduction to Mathematical Philosophy” cap. III, p.27] 61 Considerando las extensiones aritméticas de Peano. Véase [Ivorra 2013 pp. 186 y ss.] La conclusión se conoce como “Teorema de Tarski sobre indefinibilidad de la verdad”. 62 Hay diversas variantes que en general definen sobre el espacio físico unas membranas, o “branas”, con un número elevado de dimensiones (10 u 11), que incluyen las más corrientes de altura, anchura y fondo, más una serie de dimensiones minúsculas “enrolladas”, en las que entran conceptos nomográficos [cfr. supr.] y topológicos, como la teoría supersimétrica de Yang-Mills o las variedades algebraicas continuas de Calabi-Yau (que son variedades simplécticas formalmente definidas sobre

Page 17: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

16

Gödel continuó trabajando sobre posibles extensiones del método finitario en las que

pudiera demostrarse la coherencia de 𝒫. Aseveraciones muy peregrinas se han realizado al

respecto de las conclusiones Gödelianas, pero no parece fuera de lugar que implique la

«dificultad [que no necesariamente imposibilidad] de discernir la locura del genio», tal como

asevera Fresán. 63

En efecto, en el contexto del análisis estadísticos de conglomerados (“cluster analysis”),64

existen técnicas de desarrollo relativamente reciente, en las que la discriminación de

pertenencia de los puntos de una nube de datos, a una u otra clase, se realiza mediante

criterios “democráticos” en que los vecinos de un dato “votan”65 sobre su adherencia a ésta

o aquélla categoría. Puesto que, de la imposibilidad de realizar el paso al límite por

exhaución, se deriva la existencia de un intervalo de desconfianza no nulo, cabe la

posibilidad de que «un habitante de un pueblo de locos sea el único cuerdo». Véase por

ejemplo que bien podría ser que todos los locos sostuvieran, sin demostración alguna, que

dos más dos suman cinco el tercer viernes de cada mes, lo cual evidentemente no haría que

la naturaleza se doblegara ante su dictamen, pues repetir una mentira cien veces (la “ilusión

de cordura”) no la convierte en verdad.66

Esta conclusión constituye uno de los principales problemas del uso de métodos

democráticos (sin menosprecio de todas sus innegables ventajas) en la toma de decisiones

operativas, e inclusive políticas,67 y en los estudios estadísticos de análisis discriminante por

métodos similares. En particular cuando la cantidad de “votantes” es reducida respecto al

tamaño del universo de discurso, se reduce la confianza estadística en los resultados del

modelo. Milton y Rose Friedman68 también plantean sus críticas en este sentido desde una

perspectiva liberal de la Economía, cuando afirman que:69

“Cuanto más pequeña sea la magnitud del Estado y más restringidas sus funciones,

menos probable es que sus actuaciones reflejen los intereses generales y más que reflejen

intereses privados. […Si] los gobernados conocen y pueden controlar a quienes les gobiernan,

el orden del día es suficientemente pequeño, de modo que todo el mundo pueda estar

una métrica de Kähler-Einstein). Véanse p. ej: [S. Hawking 2002] [Toppan 2002], las investigaciones de Vicente Muñoz en el CSIC, y una introducción a membranas vibrantes, basada en EDP, en [Baule 1949 pp. 583-588] 63 Cabe aquí la discusión de hasta qué punto la descripción estadística del concepto de consenso es descriptiva, o si puede llegar a ser prescriptiva. Véase [Berthier sobre Habermas] El modelo de la verdad consensual tiene dos principales inconvenientes: 1) Una sola voz discordante puede bloquear el consensus gentium. 2) Es de difícil comprobación si existe consenso, puesto que la cantidad de voces puede ser muy numerosa, y su recuento, poco práctico. Por ello, es difícil (en sentido 𝒩𝒫) determinar si existe consenso, ya que se desemboca en una nueva determinación de consenso sobre si existe consenso, lo que implica un bucle recursivo [cfr. infr: red de control basada en “flags”] 64 Véase p.ej: [De la Fuente 06/2009] 65 Para un estudio matemático detallado sobre los sistemas de voto, véase [Mora 2010]. Para una introducción a la matemática electoral, véase [Antonio Pérez Sanz, “Más por menos” ep. 10]. 66 “Repetir una mentira hasta convertirla en una verdad” fue una máxima Göebbelsiana, del ministerio de propaganda del III Reich, en la Alemania nazi de mediados del siglo XX. 67 Véase p.ej: [Mateo, Jiménez y Ríos-Insúa 2008] 68 Milton Friedman, adalid del libre mercado, ganó el premio Nobel de Economía en 1976. 69 [Friedman 1980 pp. 407 y ss.]. En [íd. pág. 410] afirmaba: “Lo que se ha venido en llamar una «puerta giratoria» se ha desarrollado entre el Estado y las empresas. […] Prolifera la legislación relativa a los conflictos de intereses, pero como máximo sólo elimina los abusos más evidentes”.

Page 18: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

17

razonablemente bien informado respecto a las cuestiones, tanto grandes como pequeñas. A

medida que el alcance y la función del Estado aumentan, sea debido al hecho de que actúa

sobre un área y una población mayor, o bien porque realiza una variedad más amplia de

funciones, la conexión entre los gobernados y sus dirigentes se atenúa […]

La burocracia necesaria para administrar la actuación del Estado crece y se interpone cada

vez más entre la ciudadanía y los representantes que ésta escoge. Se convierte tanto en un

vehículo en el que los intereses especiales pueden alcanzar sus objetivos como en un

importante interés especial en sí mismo.”70

Este tipo de modelos71 junto con su problemática asociada (como es el caso de la burocracia,

o “gobernar desde el despacho -bureau- , sin contacto con la calle”, lo que implica una

sobrecarga de cómputo social), y sus implicaciones y relaciones con otras áreas de

conocimiento, se comentan brevemente más adelante, en este mismo capítulo.

Carnap decía también, al final de su “Fundamentación lógica de la física”, en cuanto al

problema relacionado, del indeterminismo, presente en la física cuántica:

“Si sabemos exactamente dónde está una partícula, las componentes de su cantidad

de movimiento se hacen brumosas. Y si sabemos exactamente cuál es su cantidad de

movimiento, no podemos ubicar exactamente su posición […]

La teoría cuántica establece un límite insuperable. Por esta razón, creo que se corre

menor riesgo de provocar malentendidos si decimos que la estructura de causalidad –la

estructura de las leyes- de la física moderna, es fundamentalmente diferente de la que

prevaleció desde la época de Newton hasta fines del siglo XIX.

El determinismo en sentido clásico ha sido abandonado.”

Algunos físicos como Planck quedaron espantados por sus descubrimientos experimentales,

en que se revelaba que la emisión y absorción de radiación no es un proceso continuo, sino

que se produce en unidades indivisibles, que darían origen al concepto de los “paquetes de

ondas” o “cuantos”.

Poincaré escribirá en “Ciencia y método” que los cuatro primeros axiomas de la geometría

no bastan para definir completamente la distancia, y que la distancia será a partir de

entonces, por definición, entre todas las magnitudes que satisfacen los demás axiomas,

aquella que es tal que el quinto postulado de Euclides sea verdadero. En sus palabras:

“Los axiomas geométricos no son, pues, ni juicios sintéticos a priori, ni hechos

experimentales.”

Finalmente, afirmó también que el espacio físico real es amorfo, una variedad algebraica

continua,72 que carece de una métrica intrínseca. Por tanto al espacio real se le pueden

70 Y prosigue, más adelante: “Los creadores de la Constitución nos han enseñado un camino mejor por el que avanzar: mediante un acuerdo general. Deberíamos adoptar leyes «autodenegantes» [y derogatorias] que limitaran los objetivos que intentamos conseguir a través de los canales políticos. No tendríamos que considerar cada caso en particular, sino establecer unas normas amplias que delimiten lo que el Estado puede hacer.” [Friedman 1980, pág. 413] 71 Véanse p.ej. una revisión de los métodos de reparto de escaños en [F. R. Fernández 2009. secc. 4]. 72 Una variedad algebraica (“manifold”) es la generalización n-dimensional de los conceptos de curva y superficie. El mismo principio de incertidumbre de Heisenberg se deriva de la interpretación del

Page 19: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

18

aplicar muchas métricas diferentes, lo mismo que ocurrirá con el número de dimensiones

que le atribuya en cada caso.

El gran matemático español Julio Rey Pastor redactó un artículo en clave de divulgación

donde lo expresaba de la siguiente manera:73

“En la geometría proyectiva, la rigidez de los ángulos desaparece, también la

del paralelismo, pero la rigidez de las rectas subsiste todavía. En la topología se suprime

toda rigidez.

Si se nos permite materializar la idea, diremos que el espacio métrico, tanto el

euclídeo como los no-euclídeos, es un espacio indeformable, paralelográmico; el de la

geometría proyectiva es un tejido de rectas entremezcladas; el espacio topológico es un

espacio amorfo, un espacio gelatinoso.”

Rey Pastor fue responsable, en primera persona, de la difusión de la topología en España

durante la primera mitad del siglo XX, en base a su proselitismo del célebre “programa de

Erlangen” (“Vergleichende Betrachtungen über neuere geometrische Forschungen”) que

propuso Félix Klein en 1872 para dar solución a los problemas geométricos de su tiempo.

La utilización posterior durante el s. XX de métodos matemático-lógicos rigurosos

[cfr: ”Rigorismo”] para estudiar los fundamentos de la ciencia matemática, en línea con el

programa de Hilbert,74 devino en el campo conocido como “teoría de la demostración”,

“metalógica”, o “metamatemáticas”, con el que actualmente se tratan problemas de

demostración automatizada de teoremas.75

Lógica multivaluada

Para cerrar este bloque, conviene realizar un apunte para recordar que la lógica bivaluada

no es la única que es posible emplear en la resolución de problemas.

Durante el siglo XX, Reichenbach76 propuso complementar la lógica tradicional bivaluada por

una lógica ternaria con tres posibles valores de verdad: {verdadero, falso, indeterminado},

reemplazando el principio del tercero excluido (por el que todo enunciado es o bien

teorema fundamental de Lie, al considerar la infinitud dimensional de espacios vectoriales. A este respecto véanse los comentarios de las secciones siguientes, sobre álgebras y grupos de Lie. Los grupos de Lie (como el espacio euclídeo ℝ𝑛, el toro que describe el movimiento de un péndulo doble, o una larga serie de matrices reales y complejas) son variedades diferenciables “suaves”, en el sentido de que tienen derivadas de cualquier orden en todos sus puntos. 73 Véase [Español 2013 pág. 342], así como otros de los detallados artículos del mismo autor sobre la figura de Rey Pastor. 74 Véase la nota sobre el “Entscheidungsproblem” en la sección “Inducción y sinteticidad”. 75 Véase la sección de aplicaciones prácticas dedicada a este menester. 76 Hans Reichenbach (1891-1953) filósofo empirista adscrito al positivismo lógico, fundador del “círculo berlinés”. Describió la fundamentación lógica del tiempo y la mecánica cuántica. En 1920 publicó su libro “The Theory of Relativity and A Priori Knowledge” donde criticaba la noción Kantiana de apriorismo.

Page 20: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

19

verdadero o falso, sin ninguna otra alternativa) con el principio del “cuarto excluido”. Ello

implicó introducir nuevas conectivas lógicas y redefinir las clásicas (∧,∨,⇒,¬,…) con tablas

de valores de verdad más complicadas que las binarias, siguiendo los sistemas de leyes de

De Morgan.

Del estudio de la función del continuo [cfr. supr.] y la teoría de conjuntos, se desprendió la

definición de conjuntos cerrados no acotados77 que, en el fondo, trata de la topología de

orden en los ordinales.

Algunos progresos posteriores en el campo de la lógica incluyen las interpretaciones

recursivas de Herbrand78 sobre una base formada por cláusulas, la lógica n-aria o lógica

multivaluada de Łukasiewicz, en que se utilizan funciones lógicas de aridad superior a 2 (e

incluso infinitamente multivaluadas y también lógicas no monótonas), así como uno de sus

derivados: la lógica difusa (también: “lógica borrosa”, “lógica heurística”, o “fuzzy logic” en

inglés).

La formulación en 1953 de la integral de Choquet propulsó el desarrollo de la teoría de la

probabilidad imprecisa, permitiendo calcular la utilidad esperada79 de un suceso incierto.

Esto condujo directamente a la lógica difusa, que utiliza modelos matemáticos para

representar nociones subjetivas, como caliente/tibio/frío, relacionadas entre sí por un

sistema de retroalimentación.

La teoría de la lógica difusa fue formulada en 1965 por el ingeniero y matemático Lofti A.

Zadeh80 junto con Dieter Klaua, aunque Łukasiewicz y Tarski ya la introdujeron en 1920 como

un tipo de lógica infinitaria. Se utiliza en Inteligencia artificial para la resolución de

problemas81 relacionados especialmente con82 sistemas de control de procesos industriales

complejos,83 compresión de datos,84 corrección de errores de transmisión de datos, y

77 Véase [Ivorra 2013, cap. XV] 78 Jacques Herbrand (1908-1931) precoz matemático francés que desarrolló la teoría de la demostración y las funciones generalmente recursivas. Murió en un accidente de alpinismo. 79 Véase una descripción formal sobre la hipótesis de la “utilidad esperada” en [Machina 2008] y las reflexiones friedmanitas de [Milton y Savage 1948] y [Milton y Savage 1952]. Este concepto tan intrínsecamente ligado a las dinámicas evolutivas y a la teoría de juegos se desarrolla en otra sección. 80 Ingeniero electrónico oriundo de Bakú, en Azerbaiyán (1921-) que recibió el premio de Tecnologías de la Información y la Comunicación, de la fundación BBVA: “Fronteras del Conocimiento” 2012. 81 Algunas aplicaciones incluyen a los sistemas expertos, de aire acondicionado, de pilotaje automático de helicópteros teledirigidos por radiocontrol, autoenfoque en cámaras digitales, e incluso frigoríficos o lavadoras. También se ha aplicado con éxito a la minería de datos, p.ej. para la reducción de reglas en tablas de decisión, véase [Adams et al. 2003]. Además, la lógica multivaluada se ha generalizado para los oráculos [Luis M. Pardo 2012 Parte I, secc. 4.4] que hacen uso de la transformada de Fourier cuántica, incluyendo los algoritmos de Grover y Deutsch-Jozsa; véase: [Yale Fan 2007] 82 Véase p. ej: [Lakhmi et al. 1998] para aplicaciones industriales de Sistemas Borrosos, GA y NN. 83 Véase el diseño formal de un controlador basado en lógica difusa y sus aplicaciones a sistemas de bombeo y campos colectores de energía solar (Almería) en [Man, Tang y Kwong 1999 secc. 7.2]. 84 Junto con la transformada de Fourier y la teoría de “ondículas” (“wavelets”) que forma la base del sistema estándar de compresión JPEG. El análisis de Fourier se utiliza para descomponer una señal arbitraria en una serie de componentes periódicas; v. [Almira 2009, pp. 111 y ss.]. Por el contrario, el análisis de ondículas permite descomponer una señal en componentes localizadas en los dominios del tiempo y la frecuencia, por lo que son idóneas cuando la señal no es periódica (como puede ser el caso de una fotografía digital). Véase por ejemplo la obra de Ingrid Daubechies, quien junto a David

Page 21: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

20

sistemas de decisión en general. El primer microprocesador que funcionó con lógica borrosa

fue fabricado en 1985 por AT&T Bell, la principal compañía telefónica de los Estados Unidos

de América.

Asimismo Zadeh definió “conjuntos borrosos” (como p.ej: un grupo social) en que la

pertenencia de un elemento no está del todo clara,85 porque está parcialmente in/definida.

Esto equivale a decir que un conjunto borroso

puede contener elementos de forma

solamente parcial. Esta posibilidad se mide

mediante una función de pertenencia 𝜇(𝑥)

que asigna a cada elemento un valor real

contenido entre 0 (ausencia total) y 1

(pertenencia total).86

Es posible establecer esperanza estadística y medidas entrópicas87 sobre la propagación de

la incertidumbre que se deriva de la pertenencia parcial de los elementos a un conjunto. De

modo análogo se definieron con posterioridad “números difusos” e “intervalos difusos” y se

dio una definición axiomática88 de la credibilidad entendida como una métrica conjuntista.

Los sistemas basados en lógica difusa imitan la forma en que toman decisiones los humanos,

con la ventaja de ser mucho más rápidos, generalmente robustos, y tolerantes a

imprecisiones y ruidos en los datos de entrada. Así, se han diseñado sistemas de inteligencia

artificial basados en agentes89 difusos (“fuzzy agents”),90 en el sentido de que sus reglas y

bases de conocimiento son difusas (definidas en valores borrosos, o con funciones de

pertenencia parcial), así como también su comportamiento es difuso en función de la

evaluación borrosa de sus percepciones, acciones y decisiones.

Entre otras fronteras de la lógica se encuentra en lugar preponderante la “lógica Ω” de

Woodin [cfr. supr.], que vendría a falsar la Hipótesis del Continuo, junto con su ampliación

estructural para englobar a todos los grandes cardinales [cfr. supr.] conocidos hasta la

fecha.91

Mumford recibió el premio “Fronteras del Conocimiento 2012” en Ciencias Básicas, otorgado por la Fundación BBVA. 85 Véase la descripción formal: [Ferrando y Gregori 1994, cap. 8] y el artículo originario: [Zadeh 1965]. 86 Se emplea la letra ‘m’ griega: 𝜇 (‘mu’) para indicar el concepto de pertenencia (“membership”) como función de medida de la eficiencia de un conjunto de operaciones, donde la optimización se realiza sobre polinomios multivaluados (p. ej: en aplicaciones de la integral de Choquet a medidas difusas, sobre grupos coalicionales); véanse [Adams 2007, 2015]. La figura procede de: http://es.mathworks.com/help/fuzzy/foundations-of-fuzzy-logic.html (traducción propia) 87 Como harían, entre otros, Gray, Shannon y Wiener: [cfr. infr: “entropía”], [Munuera y Tena 1997]. 88 Véase p.ej. el trabajo de Buchnan & Shortlife (1975) sobre el diagnóstico de enfermedades infecciosas y su tratamiento. O el intento de conseguir un tratamiento sistemático de la incertidumbre (no ad hoc, como InterLISP-EMYCIN et al) de Dempster & Shafer (1967-1976) sobre un marco de discernimiento dotado de métricas de credibilidad y plausibilidad. 89 Un agente inteligente es un sistema informático capaz de realizar acciones flexibles autónomas para alcanzar una serie de objetivos situados dentro de un entorno. Un agente recibe percepciones del entorno y actúa sobre éste para modificarlo, en un ciclo de realimentación sistémica. 90 Véase p.ej: [Fougères 2012] 91 Más detalles y referencias adicionales en [Bagaria 2012, pp. 386-381] Los conjuntos borrosos (“fuzzy sets”) son un superconjunto de los conjuntos bivaluados clásicos (“crisp sets”)

Page 22: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

21

Investigación Operativa: Medidas discretas y teoría de grafos

Cita de Alfred North Whitehead en su libro “An introduction to Mathematics”.92

Los orígenes de la “Investigación Operativa” (‘IO’, o bien ‘OR’ del inglés “Operations

Research”, u “Operational Research” en británico) como parte de la matemática aplicada93

son muy antiguos,94 ya que todas las sociedades organizadas siempre se han planteado

cuestiones de optimización en el uso de los recursos y la planificación de actividades. No

obstante, el concepto de IO aparece formalmente95 en 1934, en el marco de investigaciones

conjuntas entre militares y científicos civiles, sobre la planificación de operaciones militares

de vuelo, motivados por el almirantazgo británico durante la II Guerra Mundial.

Al considerar ciertas distancias longitudinales sobre modelos que del universo natural se

construyan, se pueden describir una serie de paradojas que obligan a exponer ciertas

disquisiciones. De igual manera, la Teoría de Grafos ha probado sobradamente su utilidad a

la hora de construir y analizar algoritmos programáticos, en especial en cuanto al estudio de

su complejidad.

En una sección anterior, la intuición lógica meditaba sobre la physis preguntándose por la

posibilidad de introducir un “espacio discreto” que operara “a saltos” entre estados

separados, tal como existen saltos entre los números naturales si se niega la existencia

efectiva del continuo, o si simplemente de desprecia, en aras de la simplificación, como si

fuera un efecto estadísticamente inapreciable.

En otra sección (de la tesis completa) también se ha introducido ya brevemente el concepto

de “grafo”, como una estructura con aristas y nodos, que puede presentar bucles. A un grafo

que no permite bucles reflexivos ni aristas múltiples se le denomina “grafo simple”, mientras

que a uno sin esta segunda restricción se le denomina “multigrafo” [cfr. infr.] o

“pseudografo”.

La teoría de grafos utiliza objetos sencillos, como son los vértices y las aristas, y su origen se

sitúa cronológicamente en la solución dada por Leonhard Euler en 1736 al problema de los

puentes de Königsberg (ver figura de la página siguiente).96

92 Véase: [ https://archive.org/details/introductiontoma00whitiala ]. A. N. Whitehead (1861-1947), fue un gran matemático y filósofo inglés, autor, junto con B. Russell, de los “Principia Mathematica” (1910-13), como fundamento riguroso de la lógica axiomática y de sus reglas de inferencia. 93 También: “Ingeniería Matemática” según nomenclatura de la Universidad Complutense de Madrid. 94 Véase un breve resumen introductorio en: http://www.phpsimplex.com/historia.htm y algo más detallado en: [Pacheco, Septiembre de 2015, pp. 13-18]. 95 Según [Salazar 2001, pp. 8-12] 96 Extraída de [Bollée y Aymond, 04/2006, pp. 3-6]. Otras muestras en [De la Fuente 09/2015 - Prezi]

“Civilisation advances by extending the number of

important operations which can be performed

without thinking about them.”

“La Civilización avanza, a medida que se amplía la

cantidad de operaciones importantes que pueden

realizarse sin pensar en ellas.”

Page 23: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

22

Esta ciudad de la antigua Prusia,

llamada hoy día Kaliningrado, y

perteneciente a Rusia,97 es

conocida como la ciudad del

filósofo Immanuel Kant. Su

universidad lideró las matemáticas

durante la segunda mitad del siglo

XIX, junto con la de Göttingen.

Königsberg se situaba a orillas del

río Pregel, abierta al mar Báltico, y

encajonada entre Polonia y

Lituania. Contaba con siete

puentes que unían las dos orillas

con dos islas centrales, una de ellas

llamada Kneiphof, y la otra

correspondiente a la parte

intermedia de la bifurcación del

río.

Allí se planteó el problema de:

“Si sería posible trazar una

ruta que cruzara cada puente una

única vez, regresando al punto de

partida.”

Leonhard Euler, uno de los matemáticos más importantes de todos los tiempos, fue un niño

prodigio procedente de Basilea, en Suiza, que al crecer ensanchó las fronteras del

conocimiento matemático en todos los campos, con su magnífica obra, que fue además

excepcionalmente voluminosa. Solamente las seis docenas de volúmenes de sus Opera

Omnia que se han publicado hasta hoy, ocupan unas 25000 páginas, y cargar con la

colección entera requiere una carretilla.98 Su calidad científica es igualmente excepcional y

buena parte de ella forma parte de los temarios de Matemáticas en instituciones educativas

por todo el mundo.

Pensando que podía tratarse de un problema de la “geometría posicional“ de Leibniz,99

Euler atacó el problema de los puentes, y en 1736 publicó la solución en la Academia de

Ciencias de San Petersburgo. Explicó la imposibilidad de encontrar tal camino, empleando

97 Pasaje extraído y ampliado desde [Muñoz 2009 pp. 18-19] y [Sánchez 2010]. Véase también la conferencia del propio autor en Medialab-Prado [De la Fuente 2009]: Recorrido horizontal por el “estado del arte” de la visualización digital 98 Véase [Dunham 1999 pp. 271-273]. Para una aproximación a la vida y obra de Euler, se recomienda leer la biografía [Dunham 1999] prologado por Antonio Pérez Sanz. También será de interés para cualquier interesado en los orígenes de los temarios matemáticos de Enseñanza Secundaria (K-12). 99 La “geometría posicional” es un antepasado de la topología. Véase a este respecto una introducción breve y accesible a la topología en [Muñoz 2009 pp. 43-48] conteniendo los comentarios de Euler que relacionan el estudio de Leibniz en el s. XVII con su resolución del problema de los puentes de Königsberg. Allí además se indica que fue J. Listing, profesor de Riemann en Göttingen y alumno de Gauss, quien utilizó primero el término “topología” en 1836.

Page 24: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

23

para ello un ingenioso gráfico (véase figura), donde cada nodo correspondía a una masa de

tierra, y cada arista a uno de los puentes de la ciudad.

Como cada puente debía unir dos orillas, desde entonces se conoce a un cierto tipo de

grafos como “grafos eulerianos”, si cada nodo tiene grado par y son conexos. No obstante, el

grafo correspondiente a los puentes de Königsberg no era euleriano, porque había varios

nodos a los que llegaban varios puentes: en concreto, a una de las islas centrales llegaban

tres puentes, y a la otra cinco, mientras que en cada orilla reposaban tres, respectivamente.

Euler concluyó que, si no se podía cruzar por la misma arista más de una vez, mientras que

hubiese un número impar de rutas a elegir, se podría entrar y salir, pero tarde o temprano

se quedaba uno sin puente para regresar. Posteriormente generalizó los resultados

obtenidos, introduciendo el concepto de circuito, y encontrando un enunciado similar para

el caso de que el grafo considerado tuviera un número arbitrario de componentes conexas.

Esta formulación de Euler se convirtió en una prolífica teoría topológica, que ampliaron

otros muchos después como Hamilton [cfr. infr.], De Morgan, Kirchhoff o Cayley, hasta que

Kuratowski caracterizó los grafos planares en 1930, y Denes König publicó el primer libro

sobre teoría de grafos de que se tiene constancia, en 1936. Actualmente se enseña en los

tratados sobre geometría discreta, como los que se utilizan en ingeniería informática y de

telecomunicaciones, por sus interesantes aplicaciones en redes de computadores y

codificación de programas.

Logística y fractalidad

“[Kant] se propone una tarea posible y justificada. Lo que la logística realiza es, por supuesto, cualquier

cosa menos lógica, es decir, una reflexión sobre el λόγος [el enunciado, o “logos”]. La lógica matemática no es ni

siquiera una lógica de la matemática, en el sentido de determinar o poder determinar en general la esencia del

pensamiento matemático y de la verdad matemática. La logística es más bien sólo una matemática aplicada a

proposiciones y formas de proposiciones.”100

Con esta aseveración tan categórica (y un tanto estrecha) calificaba Heidegger a la Logística,

entendida desde el punto de vista filosófico. El término “logística” ya se empleaba en

tiempos de Viète [cfr. supr.], aunque en sus inicios poco o nada tenía que ver con

desplazamientos ni transportes.

100 Cita de Heidegger [cfr. supr.] en “La pregunta por la cosa”

Page 25: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

24

Con todo lo anteriormente descrito, la longitud de la línea curva o recta, sea cual sea,

siempre será constante cuando se defina sobre una geometría “convencional”. Gauss ya

determinó, con su teorema egregio, que la forma de medir determina la distancia en un

espacio,101 en modo parecido a cómo Carnap explicaba la dualidad prevalente en el mundo

de la physis.102 Pero hasta Riemann, las métricas que se utilizaban eran suaves y regulares.

Rey Pastor señaló, en un artículo103 sobre la equivalencia de poliedros [cfr. infr.], que:

“conviene generalizar el concepto de polígono admitiendo como tales los que tienen dos o

más lados consecutivos en línea recta; […] Análogamente, si en las aristas de un poliedro se

intercalan nuevos vértices, resulta otro con el mismo número de caras, pero mayor número

de aristas y de vértices, […] Asimismo se pueden intercalar vértices en las caras, uniéndolas

con vértices de éstas”

Y así ad infinitum en un proceso iterativo.

Años después de los teoremas de Cantor y la revolución einsteiniana, Benôit Mandelbrot

daría a conocer, en su compendio de la “geometría fractal”, la existencia de ciertas curvas104

que variaban su longitud en función de la escala de medida, y que además eran ubicuas en la

naturaleza.

En el famoso artículo “¿Cuánto mide la

costa de Bretaña?”, que refiere Mandelbrot,

el matemático británico Lewis Fry

Richardson consideraba la siguiente

paradoja, en su intento de establecer una

correlación entre la aparición de guerras y la

frontera que separa a varias naciones (con

conclusiones algo simplistas,105 pero

implicaciones de gran transcendencia)106

Ahí se parte del hecho observable de que una costa o frontera (no rectilínea) entre dos

regiones cualesquiera es demasiado irregular para ser medida directamente leyendo en un

catálogo de longitudes de curvas geométricas sencillas.

101 Véase [Baule 1949 pág. 775] 102 Este dualismo ontológico tendría reflejos varias áreas teóricas que se comentan a lo largo del texto, tales como la dualidad onda-corpúsculo, la dualidad en cohomología, o los teoremas de dualidad de Von Neumann para Programación Lineal. Fue tratado también en la teoría de juegos de Nash, y antes por Norbert Wiener, quien, en sus estudios sobre Cibernética, se refería a los sistemas de adversarios duales como “demonios maniqueos”. 103 La reseña proviene de [Español 2913, pág. 356] 104 Anteriormente, fue Gaston M. Julia (1893-1978), matemático franco-argelino quien formuló, junto con Pierre Fatou, la clase de conjuntos fractales que llevan su nombre, generados mediante la iteración de funciones racionales. 105 Richardson (1881-1953) llegó en aquél artículo a la conclusión, posiblemente motivada desde una posición política (al haber vivido las Grandes Guerras del s. XX), de que el número de guerras de un país era proporcional al número de países con que limita. Trabajó en la predicción meteorológica por métodos numéricos y aportó ideas profundas y duraderas sobre la turbulencia. 106 Véase anexo sobre el modelo de carrera armamentística de Richardson, conteniendo un ejemplo que modela mediante Ecuaciones Diferenciales el factor de “miedo mutuo” entre dos naciones oponentes.

Page 26: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

25

La causa es que al observar una bahía o península bajo una escala más detallada, se revela

un proceso subyacente que opera en cascada autosemejante [cfr. infr: “similaridad”], por el

cual se hacen visibles las sub-bahías y sub-penínsulas y así sucesivamente, hasta llegar a

promontorios del tamaño de un grano de arena y más allá incluso sobre su rugoso (y

cambiante) contorno, con lo que estos nuevos accidentes geométricos contribuyen a

modificar la longitud medida.

El conocido “registro de Richardson” puso de manifiesto hace ya mucho tiempo que existían

diferencias notables en las longitudes de las fronteras comunes entre España y Portugal (987

frente a 1214 Km), siendo ésta una de las más rugosas del estudio.107 La diferencia del 20%

en estos datos se puede explicar suponiendo que los escalímetros de medida difieren en un

factor 2, lo que parece verosímil pues, siendo éste un factor cuadrático, se implican escalas

diferentes en proporción 1:100 (102).

El escritor Jorge Luis Borges se refirió a este asunto, desde su prosa matematicista:

“Las invenciones de la filosofía no son menos fantásticas que las del arte: Josiah Royce,108 en

el primer volumen de la obra The World and the Individual (1899), ha formulado la siguiente:

«Imaginemos que una porción del suelo de Inglaterra ha sido nivelada perfectamente y que

en ella traza un cartógrafo un mapa de Inglaterra. La obra es perfecta; no hay detalle del

suelo de Inglaterra, por diminuto que sea, que no esté registrado en el mapa; todo tiene ahí

su correspondencia. Ese mapa, en tal caso, debe contener un mapa del mapa, que debe

contener un mapa del mapa del mapa, y así hasta lo infinito.»

¿Por qué nos inquieta que el mapa esté incluido en el mapa, y las mil y una noches en el libro

de Las mil y una noches? ¿Por qué nos inquieta que Don Quijote sea lector del Quijote, y

Hamlet, espectador de Hamlet? Creo haber dado con la causa: tales inversiones sugieren que

si los caracteres de una ficción pueden ser lectores o espectadores, nosotros, sus lectores o

espectadores, podemos ser ficticios. En 1833, Carlyle observó que la historia universal es un

infinito libro sagrado que todos los hombres escriben y leen y tratan de entender, y en el que

también escriben.”109

El efecto de la geometría fractal sobre los mapas ha sido y será motivo de continuas

disputas históricas por las fronteras de los territorios y ha dado lugar a una fértil teoría

matemática de las fractales que se ha demostrado extremadamente útil en campos tan

diversos como la metalurgia, el arte, los tratamientos de medicina oncológica, o la bolsa de

valores. En efecto, las cotizaciones o precios de títulos en la bolsa de valores presentan

irregularidades similares, a medida que se fracciona la unidad monetaria, lo que ha

impulsado a cotas increíbles el campo financiero del comercio de alta frecuencia (‘HFT’:

“High Frequency Trading”).

107 El propio Richardson, estimó, con una escala menor, una longitud de 1925 kilómetros. 108 (1855-1916) Filósofo de EE.UU. devoto del idealismo objetivo, el cual sugiere, con Platón, Descartes o Kant, que al contrario que el idealismo subjetivo de Leibniz o Hegel, las ideas tienen existencia independiente de la mente del sujeto (quien sólo puede aprenderlas o descubrirlas mediante la experiencia), y que en cierto modo existe un único sujeto perceptor, que forma parte de la propia realidad percibida. 109 “Otras inquisiciones – Magias parciales del Quijote” (Antología ensayística, 1952). Véase también: [“Josiah Royce for the XXIst century – Riddles and resolutions” por Gary L. Cesarz, pp. 63-83]

Page 27: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

26

Decidibilidad, medición y recurrencia

Tal como se expone en otra sección, el teorema de Cantor establece que el cardinal de un

conjunto es estrictamente menor que el del conjunto de sus partes, con lo cual ℵ0 ≠ ℵ1 y

además ℵ0 < ℵ1 no existiendo cardinal alguno entre uno cardinal transfinito y el siguiente.

Así, uno de los grandes descubrimientos de Cantor consistió en probar que el cardinal

transfinito de los números reales excede al de los naturales, es decir, que el cardinal de ℝ es

estrictamente mayor que el de ℕ, es decir, que:

𝐶𝑎𝑟𝑑(ℕ) = ℵ0 < ℵ1 = 𝐶𝑎𝑟𝑑(ℝ)

Esto implica que no existe ninguna potencia intermedia, es decir, que no existe ningún

conjunto con más elementos que el conjunto de los números naturales y menos elementos

que el conjunto de los números reales. De hecho demostró que ni tan siquiera los números

reales contenidos en el intervalo abierto (0,1) pueden ponerse en correspondencia

biunívoca con los números naturales. Dicho en otras palabras, que hay más elementos

(números reales) entre el cero y el uno, que en el conjunto de todos los números naturales.

De ello se sigue, necesariamente, que al menos uno de esos puntos del intervalo,

representado en una base entera arbitraria, tenga que tener infinitas cifras, como es el caso

de ′𝜋′, ′𝑒′𝑜′√2′. Nótese que la afirmación contraria no es cierta, pues existen números con

infinitas cifras que no son irracionales, como es, por ejemplo, el caso de un tercio

representado en base diez: 1 3⁄ = 0.33333⃛

A los trabajos de Gödel le sucedieron los del prematuramente fallecido Alan Turing que, con

sus “máquinas algorítmicas”, y en el palmarés junto a von Neumann y otros genios, daría

origen a la revolución subsiguiente de la ingeniería informática durante la segunda mitad del

s. XX.

El tema de la tesis de Turing era “Hasta qué punto podría ser posible superar las limitaciones

del teorema de incompletitud a base de añadir nuevos axiomas a la aritmética”, pero según

explica Jesús Mosterín: durante el desarrollo de su trabajo, Turing se convence de que:

“No basta con añadir un axioma ad hoc para decidir automáticamente la sentencia

indecidible, porque en el sistema axiomático así ampliado se puede construir otra sentencia

indecidible por el mismo procedimiento”.

Tampoco es suficiente con añadir una cantidad finita de axiomas; en todo caso, habría que

extender el sistema con un número infinito. De nuevo, según palabras de Javier Fresán en la

biografía de Gödel, éste apostillaría:

“La obra de Turing proporciona un análisis del concepto de «procedimiento mecánico»

(«algoritmo», “procedimiento computacional» o «procedimiento combinatorio finito»). Se ha probado

que este concepto es equivalente al de la «máquina de Turing» [cfr. supr.] Puede definirse un sistema

formal, simplemente, como un procedimiento mecánico para producir filas de signos, llamadas

«fórmulas deducibles».”

Los términos “deducible” y “decidible” a menudo se confunden, si bien la deducibilidad

implica un razonamiento que concluya, mientras que, por el contrario, la decidibilidad

implica el ejercicio de una toma de decisiones.

Page 28: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

27

Es claro que una decisión acostumbra a seguir a un razonamiento que la precede, aunque no

todo razonamiento implica una decisión subsiguiente. Las decisiones, en un contexto de

estudio de los grados de libertad del albedrío (o arbitrio), están asociadas al concepto de

ente consciente.110

En lógica, el término decidible implica la existencia de un método efectivo para determinar si

un objeto es miembro de un conjunto según unas fórmulas. Habitualmente se entiende un

sistema lógico como decidible si existe un algoritmo propio, esto es, que siga un número

finito de pasos para decidir la validez de una fórmula. Por tanto, una secuencia de pasos

programáticos que involucre la entrada en un bucle infinito no se considera propiamente un

algoritmo. Si el problema que afronta y completa con éxito un algoritmo (decidible) es la

deducción de cierto postulado lógico, o fórmula, se dice que dicha fórmula es deducible.

Cerca del final de su vida y tras recibir su doctorado honoris causa por la universidad

Rockefeller, Gödel preguntó, en un acto de homenaje a von Neumann, y en clara referencia

a la obra de Turing si “no habría algo de paradójico en la idea de una máquina que conociese

su programa completamente”. Este fue el comienzo de los avances de las técnicas

heurísticas, de y la inteligencia artificial computerizada.

A pesar de que no se sabe demostrar que no haya algoritmos eficientes para los problemas

𝒩𝒫-completos, existen problemas que, siendo intrínsecamente difíciles, se pueden resolver

en teoría. Pero también se puede demostrar que ningún algoritmo puede resolverlos en la

práctica, cuando los casos son de tamaño moderado. Ni siquiera, admitiendo que se

requiera un tiempo comparable a la edad del Universo (estimada en 14.0001000.000 años), y

tantos bits de almacenamiento como partículas elementales hay en el Cosmos [Stockmeyer

& Chandra 1979]. Es lo que se denomina como la “maldición de la dimensionalidad” [cfr.

infr.], que deriva del elevado número combinatorio de posibilidades del espacio de

búsqueda.

Estos problemas son del género decidible al existir un algoritmo que los resuelve, pero su

utilidad en la implementación práctica es evidentemente muy escasa. No obstante, su

estudio ayuda en gran medida a mejorar el conocimiento disponible sobre el resto de

problemas.

También existe, y se ha definido, una clase de problemas que no se pueden resolver

mediante algoritmo alguno, sean cuales fuesen los recursos disponibles,111 denominados

110 Marvin Minsky obtuvo en 2014 el premio “Fronteras del conocimiento” en la categoría de Tecnologías de la Información y las Comunicaciones, por sus estudios sobre la simulación computerizada de la consciencia (entendida como repertorio disponible de información integrada), entre otros muchos galardones anteriores. Su propuesta es el estudio de la emergencia de la consciencia de abajo a arriba, comenzando por tratar de modelar mentes sencillas, como las de los insectos. Véase su ensayo “A society of mind” sobre la visión de que el cerebro humano es una “máquina hecha de carne”. Después de todo, si algún conocimiento a priori kantiano recibe el ser humano, sin duda ha de estar imbricado en las conexiones neuronales y nerviosas, por medio de la herencia genética. Para una serie de referencias sobre el conocimiento artificial y la consciencia, véase también la obra filosófica de Alberto Dou [de Guzmán Ozámiz 2009 pág. 247]. 111 Léase Turing (1936) para una discusión acerca de problemas indecidibles (“Entscheidungsproblem” en alemán), además de Gardner & Bennet (1979) sobre las “apuestas omega” (Ω-bids), o Hopcroft & Ullman (1979), para una introducción a la Teoría de Autómatas y Lenguajes Formales, y también Noam Chomsky sobre este mismo tema, p.ej: en [Kelley cap. 5.5 y ss., 6]

Page 29: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

28

problemas indecidibles, que son aquellos para los que es imposible construir un algoritmo

propio,112 es decir, sin bucles infinitos,113 en que el programa queda atrapado, y del que le

resulta imposible escapar, para dar respuesta a una cuestión binaria (de “sí” o “no”).

Conteniendo a las clases de problemas tanto

decidibles como indecidibles, se encuentra la

superclase de problemas reconocibles

(“recognizable”), que son aquéllos que se

pueden definir formalmente como problemas.

Serían, pues, indecidibles, los que se

encuentran más allá de lo decidible, p.ej. tal vez

aquéllos que enlazan entre sí las constantes

irracionales, a un nivel fundamental.

Plausiblemente, la clase de problemas

irreconocibles se subdivide a su vez en otras

subclases, de modo análogo a la de sus

complementarios, aunque no se ha investigado

mucho en esta área por motivos obvios.

Volviendo a los problemas indecidibles, y sin pretender definirlos ahora estrictamente,114 sí

se presenta el concepto de bucle, que se define formalmente115 como: “cualquier arista o

arco cuyos extremos coinciden en un mismo vértice”

Se apuntan tres variantes, representadas en la imagen contigua sobre los diagramas

llamados “grafos” de los que antes se suministró una definición [cfr. supr.]

Si un nodo retorna a sí mismo sin mediar ningún

otro, se dice que es un bucle reflexivo (“self-

loop”), o monario. Si media un único nodo, se dice

binario, y así sucesivamente hasta el caso n-ario,116

en que pueden mediar, otros nodos intermedios,

que no necesariamente tengan que formar bucles

entre sí. No obstante, por lo general se considera

como bucle propio, solamente el caso reflexivo.

112 Se encuentran algunos ejemplos en el décimo problema de Hilbert, o en “la hormiga de Langton” sobre autómatas celulares [cfr.: “Conway”]. Un problema indecidible sencillo de enunciar es el problema de la mortalidad de matrices 3 ⋅ 3: “Dada una lista finita de 𝑛 ⋅ 𝑛 matrices 𝑀1, 𝑀2…𝑀𝑘 ¿existe algún producto (en cualquier orden, incluyendo repeticiones) 𝑀𝑖1 ⋅ 𝑀𝑖2 …𝑀𝑖𝑙

= 𝟎?”. El caso de

la mortalidad de matrices 1 ⋅ 1 es, obviamente, decidible, y el de matrices 2⋅ 2 aún se desconoce. 113 El bucle infinito más simple de formular, en pseudocódigo de lenguaje de programación ‘C’, sería

quizás: “while(1): fork()”. Este programa se bifurca indefinidamente hasta llenar toda la memoria disponible, momento en que el intérprete de código se cuelga, o bien lanza un aviso de excepción condicional (que se haya situado previamente para prevenir esta eventualidad). 114 La decidibilidad se relaciona, pero no se identifica estrictamente, con la resolubilidad [cfr. supr: “problema de Delfos”], pues un problema decidible puede ser irresoluble sobre un campo algebraico. 115 Véase [Ferrando y Gregori 1994, pág. 185] 116 En el gráfico, realmente participan n-1 nodos, descontando el origen. Alternativamente, suele etiquetarse el primer nodo como “nodo 0”, especialmente al tratar con casos binarios. Véase el concepto de “bucle extraño” introducido por Douglas Hofstadter.

Page 30: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

29

Si todos los nodos fueran reflexivos monarios, entonces la relación de conectividad sería

también reflexiva. Formalmente: dado un conjunto 𝑉 y una relación binaria117 ℛ definida

como la conectividad, entre dos elementos nodales de 𝑉, mediante una arista, se dice que la

relación ℛ es reflexiva si, y solo si, para todo 𝑣 ∈ 𝑉 se verifica que 𝑣ℛ𝑣 (“𝑣 está relacionado

con 𝑣 mediante la relación ℛ”), o bien, que ∀𝑣 ∈ 𝑉: (𝑣, 𝑣) ∈ ℛ. Lógicamente, la relación

binaria ℛ se puede definir también para caminos que involucren una o más aristas, o para

conjuntos de origen – destino, con más de un elemento (subgrafos [cfr. infr.]).

Se da la posibilidad, por tanto, de que un mismo nodo pueda tener más de un bucle, por

medio de dos o más aristas, y análogamente para los casos de orden superior. Además, es

posible establecer ciertas analogías entre los bucles en un grafo, y los bucles en un programa

informático [cfr. supr.], e inclusive para los bucles anidados.

Junto con estos diagramas, se definen: tanto las funciones iterativas que repiten una serie

de pasos un número definido de veces, como las funciones recursivas118 que son parte de su

propio proceso de definición (pues se invocan a sí mismas).119

Un ejemplo arquetípico es el cómputo del factorial de un número natural (𝑛!) Éste puede

implementarse tanto de forma iterativa, como recursiva, llamando a la propia función en

cada ejecución, y pasándole como parámetro 𝑛 − 1 hasta llegar a la unidad, del siguiente

modo:

F:=1; // Variable para almacenar el valor del factorial de ‘n’

For i=n, i-1, i>1 do // Iterar descendentemente sobre ‘i’

{F:=F*i}; // Multiplicar F por el valor de i

En efecto, al terminar el algoritmo, el valor F almacenará el factorial de 𝑛: 𝑛!

Pero este algoritmo iterativo también puede implementarse de modo recursivo de la

siguiente forma:120

Define proc factorial(n):F {

If n>1 then { F := F * factorial(n-1) }

Else { F := 1 }

Return(F)

}

De esta manera, no existe ningún bucle, sino la propia recursión de un procedimiento

funcional que se llama a sí mismo, pasándose como parámetro su propio argumento,

decrementado en una unidad, salvo cuando se haya alcanzado ya la condición de parada.

117 Recuérdese que las relaciones pueden contar con diferentes grados de aridad: ℛ es monaria si solo relaciona un elemento 𝑝∗, es binaria si relaciona dos, y es n-aria si relaciona más de dos:

{𝑥1, … , 𝑥𝑛/ℛ(𝑥1, … , 𝑥𝑛)} 118 Véase [Wirth 1975, cap. 3] y una definición formal del teorema de recursión finita en [Ferrando y Gregori 1994 cap. 5.5] 119 Véase una definición formal en [Ivorra 2013, pp. 128 y ss.] 120 La cláusula “Define” sirve para definir una función, indicando su argumento entre paréntesis, y

su valor de retorno tras los dos puntos. La cláusula “If” implica una comparación condicional, que,

caso de ser verdadera, ejecuta el bloque tras “then”, y caso de ser falsa, ejecuta el bloque tras

“else”. La cláusula “Return” devuelve el valor entre paréntesis como resultado de la función.

Nótese que el valor de n deberá ser siempre un entero positivo, por lo que un programa de aplicación real debería efectuar una comprobación de tipos antes de realizar operaciones, entre otros detalles que se omiten en aras de la sinteticidad.

Page 31: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

30

En cada ejecución, devuelve el producto 𝑛 ∗ (𝑛 − 1)! salvo cuando se alcanza la unidad. Al

terminar el algoritmo, el valor F almacenará el factorial de 𝑛, que es 𝑛!

Turing demostró121 que las funciones recursivas son exactamente las calculables por un

algoritmo, para lo cual definió sus máquinas abstractas, que son básicamente un modelo

teórico de ordenación con infinita memoria disponible.122

De modo análogo, pueden definirse conjuntos recursivos.123 Así, se demuestra que el

conjunto vacío ∅ es un conjunto recursivo, porque su función característica es nula, y

también es recursivo cualquier subconjunto finito de los números naturales ℕ.

Existen diversas maneras de atacar este tipo de problemas, lo que en general requiere la

“poda” de los bucles, su “reducción”124 a iteraciones simples, o bien el establecimiento de

algún género de “ciclo virtuoso” de convergencia estable hacia la solución, junto con una

condición de parada. En concreto, existe una técnica muy potente para resolver, de forma

semiautomática, ciertas clases de recurrencias, denominada la “búsqueda de la ecuación

característica”,125 que se basa en la localización de regularidades [cfr. supr.] y, en ocasiones,

la realización de cambios de variable. La ecuación característica es aquella que anula el

polinomio característico, es decir, el determinante:

|𝑨 − 𝜆𝑰| = |𝑨| + (−1)𝑛−1 (∑ 𝑎𝑖,𝑖𝑛

𝑖=1) 𝜆𝑛−1 + (−1)𝑛𝜆𝑛 = 0

Donde los valores propios son las raíces de la ecuación característica.126

Por su parte, la reducción gaussiana permite modificar un sistema sin alterar el conjunto de

soluciones, mediante operaciones algebraicas sobre matrices, mientras que el teorema de

Hermite facilita los cambios de base.

Entre las estrategias resolutivas de borrado, en lógica formal, para conjuntos con un número

elevado de cláusulas, se cuenta la eliminación de tautologías, subsunciones, literales

unitarios, literales puros y por eliminación por escisión.127 Según el contexto de problema,

121 Prueba conocida como “Tesis de Church-Turing”, véase [Ivorra 2013, cap. V], [Luis M. Pardo 2012 Parte I secc. 2] y un breve resumen en [de Frutos 2012 pág. 681]. E.S. Santos introdujo en 1970 el concepto de máquina difusa de Turing [cfr. infr: “lógica difusa”]. Es una cuestión abierta la extensión a lógica difusa de los teoremas de Gödel y la tesis de Church. Para este fin, se puede requerir la extensión de las nociones de gramática difusa (véase: Wiedermann) 122 Puede encontrarse una definición formal en [Ivorra 2013 sección 5.6] 123 Véase [Ferrando y Gregori 1994, pp. 183-184, 194-195] 124 [cfr. infr: “reductibilidad”]. Véanse también las técnicas de minimización de autómatas finitos. 125Véase el teorema de Cayley-Hamilton, además de: [Brassard & Bratley 1997, pp. 132 y ss.] en base a Knuth (uno de los padres fundadores del análisis algorítmico y la informática teórica moderna) et al., y algún tratado de Álgebra Lineal, p.ej: [Anzola y Caruncho 1982] o alguno de Gilbert Strang (ed. Addison-Wesley). 126 Para más detalles sobre la convergencia de distribuciones y sobre la convergencia en probabilidad, véase [Ríos 1951] 127 P.ej: la eliminación de cuantificadores existenciales puede efectuarse mediante un algoritmo de Skolemización, que traduce una forma normal conjunta prenexa a la forma normal de Skolem. Ésta eliminación es un algoritmo indecidible (recursivamente enumerable, pero no recursivo) en teoría elemental de números; véase [Luis M. Pardo 2012 Parte I, secc. 4.3]. Thoralf Albert Skolem (1887-1963) fue un matemático noruego que presidió la sociedad matemática de su país, y redefinió los axiomas de Zermelo para la teoría de conjuntos. Algunos de sus resultados conducirían a demostrar la completitud de la lógica de primer orden, prueba dada por Gödel en 1930.

Page 32: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

31

otras técnicas128 involucran la perturbación ligera de algunas restricciones, la elección

aleatoria (de modo que la probabilidad de ciclado se anule), o el uso de la regla de Bland que

implica elegir siempre los índices menores entre los candidatos, para evitar la degeneración.

Finalmente, también se han desarrollado métodos para garantizar la convergencia

algorítmica (esto es, que concluya en un número finito de iteraciones), como los basados en

el criterio de Bolzano-Weierstrass129 o en los círculos de Gershgorin. Así como para acelerar

la convergencia, como los basados en el algoritmo épsilon (휀) de Wynn, que a su vez

generaliza en procedimiento ∆2 de Aitken.130

Carnap, a quien ya se citaba con anterioridad, encontraba la siguiente solución de

refinamiento sucesivo, aplicaba a su metáfora del mundo físico para establecer una métrica

recursiva:

“Así, pareciera que hay dos magnitudes, la longitud y la temperatura, cada una de las cuales

depende de la otra en cuanto a su definición. Parece haber un círculo vicioso; pero en realidad no lo

hay.

Una solución es la siguiente. Primero, introducimos el concepto de longitud sin considerar el

factor de corrección para la dilatación térmica. Este concepto no nos permite realizar mediciones de

gran precisión, pero es bastante satisfactorio si ésta no se requiere. Por ejemplo, si se usa una vara de

hierro para la medición, la dilatación térmica es tan pequeña, en condiciones normales, que las

mediciones serán bastante precisas. De este modo, obtenemos un primer concepto L1 de longitud

espacial. Ahora podemos utilizar este concepto para la construcción de un termómetro. Con ayuda de

la vara de hierro, marcamos una escala a lo largo del tubo que contiene el líquido de prueba. Puesto

que podemos construir una escala con bastante precisión, también obtenemos bastante precisión al

medir la temperatura con esta escala. De tal modo, introducimos nuestro primer concepto de

temperatura, T1. Luego podemos utilizar T1 para establecer un concepto refinado de longitud, L2. Lo

hacemos introduciendo T1 en las reglas para definir la longitud. Disponemos ahora del concepto

refinado de longitud L2 (corregido para la dilatación térmica de la vara de hierro), para construir una

escala más precisa destinada a nuestro termómetro. Esto conduce, claro está, a T2 que es un concepto

refinado de la temperatura.

En el caso de la longitud y la temperatura, el procedimiento que acabamos de describir refina

ambos conceptos, hasta el punto en el cual los errores son sumamente pequeños. En otros casos,

puede ser necesario ir y volver varias veces, antes de que los sucesivos refinamientos conduzcan a

mediciones suficientemente precisas para nuestros propósitos. Debe admitirse que nunca llegamos a

un método absolutamente perfecto131 para medir uno u otro concepto. Pero podemos decir que,

cuanto más repetimos este procedimiento –comenzando con dos conceptos toscos y luego refinando

cada uno de ellos con ayuda del otro- tanto más precisas serán nuestras mediciones. Mediante esta

técnica de aproximaciones sucesivas escapamos de lo que parece ser, al principio, un círculo vicioso.”

En cierto sentido matemático, Carnap jugaba aquí con el concepto de sucesión contractiva,

definida como sigue:

128 Véase [Salazar 2001 pp. 148-151] 129 Dada la existencia de al menos un punto de acumulación en todo conjunto infinito y acotado, se deduce que toda sucesión acotada con un único punto de acumulación es convergente. Véase [Granero 1996 secc. 4.2.10] Este criterio se generaliza con el de Cauchy, véase [íd. secc. 6.4] y se complementa con otros como el del cociente de D’Alembert, el proporcional de Raabe, el logarítmico o el integral. Dirichlet y Abel también profundizaron en este asunto [íd. secc. 7.8.2-7.12.2] 130 Más detalles en [Abellanas y Galindo pp. 72 y ss.] 131 Coincide así con Descartes [cfr. infr.]

Page 33: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

32

Una sucesión {𝑎𝑛} es contractiva, con constante de contracción 𝑘 ∈ (0,1) si se verifica que:

|𝑎𝑛−2 − 𝑎𝑛−1| ≤ 𝑘 ⋅ |𝑎𝑛−1 − 𝑎𝑛|

Tras esta elucubración, Carnap afronta a continuación el “problema de la medida”,132

referido a la posibilidad de metrizar o no ciertos espacios, con lo que roza ya terrenos de la

semiótica al afirmar que:

“La especificación de un procedimiento de medición no siempre nos revela todo el significado

de un concepto”.133

Riemann fue más allá, al afirmar que:

“La forma de medir la distancia determina la naturaleza de un espacio”.134

Podría argumentarse que aquí opera el principio antrópico, por cuanto la perspectiva de

todo lo que el ser humano es capaz de percibir, está condicionada por su propia sustancia

perceptiva. Desde el punto de vista de Turing: la mente del ser humano es finita, y nos está

vedado conocer lo que nuestra mente no está capacitada para comprender. Por este motivo,

la mejor alternativa que nos queda es la perpetuación del conocimiento de un ente a otro,

por medio del refinamiento sucesivo de conceptos, su divulgación, y su transferencia a las

generaciones venideras. Eso, suponiendo que exista realmente algún ente exterior a nuestra

propia consciencia,135 tal y como se preguntaba Descartes.

El método de Carnap de medidas sucesivas, presentado anteriormente, omitía la posibilidad

de que, en uno de los pasos de refinamiento, se topara con un principio fundamental que

eliminara la independencia entre un par de “magnitudes conjugadas”, con respecto a las

cuales, fuera imposible, en principio, medir ambas al mismo tiempo con gran precisión. Se

refiere a magnitudes tales como: longitud vs. temperatura, o como cantidad de movimiento

vs. posición [cfr. supr: “Planck”]; o en definitiva, como 𝒫𝑣𝑠.𝒩𝒫.

Esto es lo que Henri Poincaré indica también, cuando, al final de su ensayo sobre “Los

principios de la mecánica”, sugiere la inconveniencia de deducir nuevas leyes

alborotadamente, 136 pues toda ley puede descomponerse en un principio y en otra ley, y así

sucesivamente, lo que no es conveniente en términos de “economía del pensamiento”.137

132 Véase una introducción en perspectiva desde la teoría de conjuntos, en [Bagaria 2012 pág. 372] 133 Esta es una idea también compartida por von Hayek respecto al “valor del dinero” [von Hayek 1985 pp. 69-70] en base a W. S. Jevons en su texto “Money and the mechanism of exchange (1875)” y que se resume en la máxima: «Tan solo un necio confunde valor y precio». 134 Consúltese la definición sobre el “intervalo de Minkowski entre dos hechos definidos”. 135 O bien, como apuntaba Habermas, que el paradigma de la consciencia sea incorrecto si se rechaza la dimensión intersubjetiva, asumiendo como principio la separación ontológica entre un sujeto cognoscente y el objeto cognoscible. Formulando su teoría de la Verdad Consensual Intersubjetiva, Habermas (Premio Príncipe de Asturias de Ciencias Sociales en 2003) pretendía superar el interbloqueo antitético entre el positivismo y el metafisicismo, por el método de la tríada dialéctica. 136 Un principio que comparte Herbert Spencer desde el Reino Unido, en un área de pensamiento bastante diferente. Hayek iba aún un paso más allá, p.ej. en su discusión sobre la Ley de Gresham sobre la calidad competitiva del dinero y las divisas [Von Hayek 1985 pp. 39 y ss.]. Recuérdese además, que Poincaré fue un hombre de Estado, como revela el hecho de que su primo Raymond llegara a Jefe de Gobierno y Presidente de la República Francesa durante la I Guerra Mundial. [Véase también la sección sobre el teorema NFL, y en particular lo referido a la navaja de Occam] 137 Javier de Lorenzo dixit en su semblanza de Poincaré [de Lorenzo 2009 pp: 188-194]

Page 34: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

33

Según él mismo, si todas las leyes se hubieran transformado en principios, dice: “no habría

quedado nada de la ciencia”, pues: “la ciencia es un sistema de relaciones”.138

También Einstein se expresó en esta línea cuando dijo que:

“El gran objetivo de la ciencia [es] cubrir la mayor cantidad de hechos empíricos por

deducción lógica, empleando para ello la menor cantidad posible de hipótesis o axiomas.”139

Hadamard seguirá los trabajos de Poincaré para estudiar el “problema de la dependencia

sensitiva a las condiciones iniciales”,140 que evolucionaría más tarde en lo que hoy se conoce

como la teoría del caos determinista.141

Para el desarrollo fundamental de estas teorías fue necesario definir el concepto de

“invariante integral” en sistemas hamiltonianos, que fue fundamental para que se

demostrara el teorema de recurrencia.

Sir Isaac Newton expresaba el problema de la recurrencia con estas palabras:142

“He aquí un hecho que no he podido demostrar rigurosamente, pero que sin embargo me

parece muy verosímil:

Dadas las ecuaciones […] y una solución particular cualquiera de estas ecuaciones,

siempre se puede encontrar una solución periódica (cuyo periodo puede ser, en verdad, muy

largo), tal que la diferencia entre las dos soluciones sea tan pequeña como se quiera.

Además, lo que hace a esas soluciones tan valiosas es que son, por así decir, la única brecha

por donde podemos intentar penetrar en un lugar reputado hasta aquí como inabordable.”

Así, el teorema de recurrencia demuestra que un sistema dinámico volverá a pasar por un

punto muy próximo a su configuración original; no una, sino una infinidad de veces. Es decir,

que si se cae un huevo al suelo y se rompe, bastará con esperar el tiempo suficiente para

que exactamente el mismo huevo se reconstruya ante un teórico observador eterno.

Este efecto es parecido al que opera en la física einsteiniana sobre un rayo de luz (entendido

como fotón sin masa), que una vez emitido, y si no encuentra obstáculos, volverá al punto

de partida desde la misma dirección pero en sentido opuesto. Tras un tiempo muy largo, se

sobreentiende. Boltzmann, en respuesta a las críticas que formuló Zermelo a sus principios

de la termodinámica, calculó que el periodo temporal necesario para que cosa tal ocurriera

debía ser más largo que la edad del Universo, con lo que daba el problema por zanjado.143

Claro que, de nuevo, el principio de “observador eterno” desmonta el razonamiento, pues al

ser no dinámico, sino estático, y externo al sistema, a fin de poder observar (y recordar lo

observado) se erigiría un objeto inmóvil capaz de confrontar una fuerza irresistible durante

un tiempo indefinido, lo que da al traste con el supuesto de dinamicidad sistémica.

138 “Le valeur de la science” por Henri Poincaré. Flammarion (1948), pp. 266. 139 Atribuida por [Barnett 1948] 140 Véase: [”Poincaré and the three body problem” de Barrow-Green, Am. Math. Soc. (Junio de 1997)] 141 Véase un repaso sobre la emergencia de caos en [Ibáñez, Pumariño y Rodríguez 2009] 142 “Nuevos métodos de la mecánica celeste”, Tomo I, párrafo 36 (1892); de nuevo, en referencia de Javier Fresán. 143 Cfr. supr.: [Stockmeyer & Chandra 1979]

Page 35: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

34

Después de todo, el concepto de “memoria” está indefectiblemente unido al de recurrencia,

como muestra el hecho de que las memorias electrónicas biestables se construyan con

bucles de realimentación sobre circuitos eléctricos. A fin de mantener la corrección de la

información digital que almacenan en su interior, éstos son refrescados periódicamente

mediante un pulso eléctrico disparado por un cierto tipo de reloj, que está programado en

función de los tiempos experimentales de descarga. La descarga que acontece cuando falla

el reloj o la potencia, o por motivos externos que corrompan la información grabada

electromagnéticamente, es pues en cierto modo análoga al “olvido” en términos

epistemológicos. La fractalidad del circuito tiene también mucho que decir respecto a la

medida de estos plazos de descarga, pues al parecer, a mayor fractalidad, mayor recuerdo, y

con más precisión se mantiene éste, lo que está muy relacionado con la autosemejanza

funcional. Más aún, existen sofisticados modelos sobre redes neuronales,144 como la Teoría

de Resonancia Adaptativa (‘ART’)145 que implementa mecanismos online para el “recuerdo

memorístico inteligente”, con capacidad auto-organizativa y sin supervisión.

Al ser online,146 no diferencia entre la etapa de aprendizaje y la de funcionamiento, aunque

es bastante sensible al ruido o distorsión de los datos de entrada, dado el carácter

destructivo de la regla de aprendizaje. El ART se basa en el “Dilema de la estabilidad y

plasticidad del aprendizaje” de S. Grossberg, y en os desarrollos de Carpenter y otros de sus

colaboradores.

Por medio de las “Leyes de los grandes números”147 enunciadas por Jakob Bernouilli y Borel,

se sabe que la precisión que puede alcanzar un experimento cualquiera148 será mayor

cuanto más grande sea el tamaño muestral.149 El límite de realimentación en la cantidad de

datos recogidos, respecto al total del universo estadístico (lo que es análogo al concepto de

“experiencia”), está en la cantidad de particiones del conjunto de las instancias recogidas

(de orden radical) que se pueden realizar, sin distorsionar los resultados. Así, la ley débil de

los grandes números permite acotar el error 휀 en la estimación �̂� de un parámetro 𝑝,

144 Muy escuetamente puede resumirse aquí el campo de la computación neuronal, cuyos modelos inferenciales multiprocesador permitieron unir la IA simbólica (más cercana a la physis) y la conexionista o analítica, en base ésta a diversos tipos de aprendizaje computacional: asociativo (regla de Hebb), competitivo (redes de inhibición lateral), supervisado con retropropagación del gradiente (para minimizar la función del error) y con funciones de refuerzo (cuando no se puede propagar hacia atrás). Los principales modelos de neuronas son los de lógica-secuencial (McCulloch y Pitts, véase [Almira 2009 pp. 243-254]), el perceptrón (Rosenblatt) y las redes ADALINE (“Neurona Lineal Adaptativa” de Widrow), aunque existen muchos otros desarrollos. 145 Véase p.ej: [Gurney 2001 secc. 7.4] en referencia al trabajo de Stephen Grossberg (circa 1987). 146 “On-line” (“en línea”), se entiende como: manteniendo comunicación por línea directa, no diferida. 147 Véase una introducción p.ej. en [Vizmanos y Anzola 1995 pp. 450 y ss.]. Véanse también los teoremas de Tchebychev, Bernouilli, Borel, Levy-Lindeberg y De Moivre (junto con su fórmula para la razón áurea, y el teorema que relaciona las distribuciones binomiales con la normal), por ejemplo en: [Ibarrola, Pardo y Quesada, 1997] 148 Suponiendo la total independencia de las variables, lo que no es en absoluto trivial. Véanse los comentarios posteriores sobre modelos de “cópula estadística” basados en variables aleatorias interdependientes. Puede consultarse un interesante estudio sobre el uso de cópulas para la predicción de la demanda de gas natural, en [Vélez 2007, cap. 7 y ss.] 149 Las LGN son una serie de resultados que establecen condiciones de convergencia de los promedios muestrales de variables aleatorias independientes. Pero el teorema de Bernouilli es un resultado del modelo matemático de la Probabilidad, y por tanto no se puede tomar como justificación de las teorías frecuentistas de la misma.

Page 36: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

35

correspondiente a la media de una variable aleatoria,150 es decir, ubicar la probabilidad

𝑃(|�̂� − 𝑝| > 휀), lo cual tiene interesantes aplicaciones en el estudio de sistemas dinámicos.

Retornando al artículo de Wigner [cfr. supr.] sobre la “Irracional eficacia de las

matemáticas”,151 se encuentra un pasaje que apunta en esta misma dirección:

“El propósito principal de la discusión precedente es señalar que todas las leyes de la

naturaleza son afirmaciones condicionales y que se relacionan tan solo con una parte muy pequeña de

nuestro conocimiento sobre el mundo. [..] Debería mencionarse, en honor a la verdad, que hace unos

treinta años descubrimos que ni siquiera las afirmaciones condicionales pueden ser enteramente

precisas, ya que constituyen leyes de probabilidad que lo único que nos permiten es lanzar apuestas

inteligentes sobre las propiedades futuras del mundo inanimado, basándonos en el conocimiento del

estado actual. No nos permiten realizar aseveraciones categóricas, ni tan siquiera aquéllas que están

condicionadas por el estado actual del mundo.”

Frecuentismo contra bayesianismo

La teoría de la decisión bayesiana152 se ocupa de cómo un decisor debería elegir una acción

concreta entre un conjunto de acciones o estrategias posibles, cuando el resultado de su

elección también depende del estado que alcance el sistema natural. Para trabajar en modo

bayesiano, se ha de asumir que el decisor siempre es capaz de asignar una distribución de

probabilidad a priori al conjunto de estados del sistema natural, que corresponden a las

concrecciones de una variable aleatoria (esto es, la “experiencia pasada” [cfr. supr.],

situándose por tanto en la línea Kantiana, y en oposición al escepticismo de Hume).153

Cuando se incorpora conocimiento adicional a partir de la sustanciación de una variable

aleatoria, se obtiene una distribución de probabilidad rectificada o a posteriori.

Bajo esta interpretación filosófica, es evidente que en muchas ocasiones se dispone de cierta

información que modifica, o puede modificar, las probabilidades que se asignan a los

sucesos. Es muy importante para la aplicación de la teoría bayesiana el tener en cuenta toda

la información disponible a cada momento. Aunque no se haga explícito, la resolución de

cualquier problema debe efectuarse evaluando siempre toda clase de información de que se

disponga, lo más actualizada que sea posible. Conviene aquí recordar algunas definiciones

sobre probabilidad condicionada.

La probabilidad de un suceso condicionado por otro 𝐴 ∈ 𝒜 → [0,1] es la probabilidad de

que ocurra ese suceso, dada la ocurrencia del suceso 𝐴. Por tanto, dado un espacio de

probabilidad (Ω,𝒜, 𝑃) tal que ∀𝐴 ∈ 𝒜: 𝑃(𝐴) > 0, se llama probabilidad condicionada por 𝐴

a la medida de probabilidad, proyectada sobre el intervalo [0,1]:

𝑃(𝐵 𝐴⁄ ) =𝑃(𝐴 ∩ 𝐵)

𝑃(𝐴)

150 Véase la desigualdad de Tchebychev. 151 De nuevo: https://www.dartmouth.edu/~matc/MathDrama/reading/Wigner.html (Traducción propia) 152 Véase un resumen ejemplificado desde la Estadística en [Ya-Lun Chou 1972, cap. 21] 153 Véanse las reflexiones al respecto de Alfred J. Ayer sobre la experiencia, en secciones anteriores.

Page 37: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

36

Además, se dice que dos sucesos 𝐴, 𝐵 ∈ 𝒜 son independientes cuando: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ⋅

𝑃(𝐵), es decir, cuando𝑃(𝐵 𝐴⁄ ) = 𝑃(𝐵).

En base a estos métodos de inferencia se construyen redes de Bayes, que, muy

resumidamente, consisten en grafos causales de sucesos relacionados, mediante

probabilidades condicionadas que se calculan empíricamente con datos históricos.

El Teorema NFL o lex parsimoniae: Occam y el nudo gordiano

“La construcción de la teoría de juegos se sustenta únicamente en dos teoremas: el teorema minimax

de von Neumann de 1928 y el teorema del equilibrio de Nash de 1950. El teorema de Nash puede

entenderse como generalización del de von Neumann, como pensaba Nash, pero también como una

divergencia radical del mismo. El teorema de von Neumann fue la pieza clave de su teoría de los juegos

de oposición pura, los así llamados juegos de suma cero. Pero los juegos bipersonales de suma cero son

prácticamente irrelevantes en el mundo real. Incluso en la guerra existe casi siempre algo que ganar de

la cooperación. Nash introdujo la distinción entre juegos cooperativos y no cooperativos. Los juegos

cooperativos son aquellos en que unos jugadores pactan acuerdos sostenibles con otros. Dicho de otro

modo, se comprometen grupalmente a unas estrategias concretas. Por contra, en un juego no

cooperativo se hace imposible tal compromiso colectivo y no existen acuerdos sostenibles.

Nash, mediante la ampliación teórica de incluir juegos que involucran una mezcla de cooperación y

competición, logró abrir la puerta de las aplicaciones de la teoría de juegos a la economía, la sociología,

y, finalmente, a la biología evolutiva.”

Cita de Sylvia Nasar en su biografía de John Forbes Nash Jr.154

Es una crítica frecuente al campo de la optimización metaheurística, que se aleja del rigor

científico, a medida que se proponen más y más métodos intrincados, basados en metáforas

naturales, y que exhiben una gran cantidad de operadores. Esto redunda en el mencionado

efecto de “reinventar la rueda” [cfr. supr.], por el cual, en ocasiones se proponen como

novedosos ciertos modelos que son equivalentes entre sí, o también casos particulares de

otros modelos pre-existentes.

La conclusión lógica es que se desaconseja la introducción de metaheurísticas novedosas

basadas en metáforas nuevas, que no realicen contribuciones (significativas), por tratarse de

meros cambios en el vocabulario que abundan sobre el conocimiento pre-existente. 155 Esto

no quiere decir que el campo de la metaheurística se encuentre estancado y no avance, pues

154 [Nasar 1998 pp. 117-118]. Traducción propia. 155 Véase: [K. Sörensen 2013, “The metaphore exposed”] que basa su crítica, entre otras cuestiones, en la falta de posicionamiento literario de los nuevos métodos [íd pág. 11], si bien contra esto pueden argüirse los comentarios de [ICSU 2014] sobre el “Open Access” y otros similares contra el pernicioso sistema de “Publish or perish”. De cualquier modo, la legibilidad de muchos de los modelos clásicos precisa de mejoras sustanciales más allá del re-etiquetado de variables, quizá más didácticas: mejoras fundamentadas en las tecnologías de la información y la comunicación que permitan superar el oscurantismo kantiano [cfr. supr.] que arrastran éste y otros campos científicos [Pérez Sanz 2008].

Page 38: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

37

muy al contrario existen numerosas investigaciones de gran calidad, 156 a medida que se

profundiza en los métodos más potentes.

En teoría, ninguna de las metaheurísticas conocidas mejoran por término medio a las demás,

en todos los casos posibles, lo que deja su selección al criterio, más o menos sofisticado de

investigadores y usuarios. Dicha elección se realiza en base a cuestiones tales como las

dinámicas de ejecución de alto nivel, la naturaleza del problema, el pragmatismo,157 o las

características del espacio de búsqueda, que impactan sobre la dificultad del problema.

Desde una perspectiva empírica, sería más interesante identificar los algoritmos que

funcionan mejor, bajo ciertos supuestos, para problemas de diferente tipo.

Sin embargo, no existe por el momento un marco estándar ampliamente aceptado para

comparar y testar varios métodos diferentes. No resulta apropiado utilizar un criterio de

comparación puramente empírico porque incluso la obtención de un resultado numérico

excelente puede ser mejorado o empeorado por la elección de una semilla aleatoria

diferente, un ajuste en los parámetros, o un conjunto de datos específico para ser utilizado

como espacio de búsqueda.

El Teorema NFL (“No Free Lunch in search and optimization”) introducido por Wolpert y

Macready, es un teorema, muy popular en contextos de optimización y búsqueda de

soluciones, cuyo nombre proviene del adagio anglosajón “There Ain't No Such Thing As A

Free Lunch”.158 Éste adagio fue popularizado por el autor de ciencia ficción Robert A.

Heinlein, y también por el economista Milton Friedman, quien lo usó para describir el coste

de oportunidad para una determinada elección, o lucro cesante derivado de no elegir las

alternativas disponibles.159

Resumidamente: implica160 la inexistencia de algoritmo alguno (ni siquiera bayesiano) que

sea mejor a priori que la búsqueda aleatoria,161 es decir, que cualquiera de los demás

algoritmos, si se evalúa en promedio para cualquier tipo162 de conjunto de datos de entrada.

O, más concretamente, que existen problemas teóricos que son irresolubles mediante un

programa (p.ej: del tipo ejecutable sobre Máquinas de Turing [cfr. supr.]) por muy

inteligente o eficiente que sea. Una forma sencilla de comprenderlo es la siguiente:

156 [Sörensen 2013, pág. 4]. Véase un ejemplo de estas investigaciones de excelencia, en el trabajo de Francisco Santos sobre la conjetura de Hirsch [cfr. supr.]. 157 Entendido como asociado a la razón instrumental, como estructura de pensamiento que considera los objetos (matemáticos) como medios para alcanzar un fin determinado, siguiendo la idea de utilidad, tal como se expone en las otras secciones de la tesis completa. 158 Véase [Wolpert & Macready 1997]. Podría traducirse al castellano como teorema del: “nadie regala nada”, “no pedir peras al olmo”, “no hay barra libre”, “no hay café para todos”, o, mejor aún, teorema del: “nadie da duros a cuatro pesetas” (‘NDDA4P’) puesto que es cuantitativo, no binario. 159 Friedman lo utilizó en su libro homónimo de 1975, y en concreto respecto al gasto que hacen los Gobiernos, aparentemente gratuito. El adagio también guarda cierta relación con el de la inexistencia de una “bala de plata” para los problemas endémicos de la ingeniería de software [Brooks 1986]. 160 Véanse: [Braun 17/02/2014] y [cfr. supr. “Trilema de Agripa”]. En realidad son dos teoremas: uno para búsqueda u optimización y otro para aprendizaje automático supervisado (“Supervised Machine Learning”). 161 Véase un estudio en profundidad sobre la búsqueda aleatoria guiada en: [Clerc 2015] 162 En Teoría de la Complejidad [cfr. supr.] se puede demostrar que casi todos los elementos del conjunto de todas las funciones posibles, son aleatorios en el sentido de Kolmogorov, o “algorítmicamente entrópicos”, significando que requieren elevados recursos de cómputo.

Page 39: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

38

Tómese un conjunto ordenado de números naturales consecutivos comenzando en el ‘1’. Es

evidente que la búsqueda secuencial será al menos tan eficiente como cualquier otro

algoritmo, al buscar el número uno, ya que aquélla lo ubicará en la primera evaluación, sin

necesidad de iterar de nuevo.

De ello se deriva que, si al ejemplo anterior se le aplica un conjunto permutado de números

desordenados, lo más probable es que la evaluación de la eficiencia de los algoritmos diverja

en gran medida. La inexistencia de atajos, o “navajas de Occam” [cfr. infr.] complica mucho

(aunque no imposibilita) el poder evaluar la eficiencia de algoritmos diferentes, sobre

conjuntos de datos diferentes. Además casi siempre será posible refinar las heurísticas

concretas para operar de modo más eficiente, p. ej. al definir omisiones a la exploración de

ciertas regiones del espacio de búsqueda, donde sea más improbable localizar una buena

solución.

En contextos heurísticos,163 el teorema NFL generaliza el problema de Hume [cfr. supr.] por

el cual las experiencias pasadas no permiten garantizar el resultado de los experimentos

futuros para todos los casos. Se relaciona por tanto con el segundo teorema de

incompletitud de Gödel [cfr. supr.] por cuanto que las propias matemáticas (o más

generalmente, cualquier dispositivo que simule un sistema físico) son incapaces de

proporcionar garantías absolutas sobre las conclusiones que por ellas se alcanzan.

Ello enlaza con la hipótesis filosófica del determinismo causal, conocida como “demonio de

Laplace”164 (s. XIX), que impone límites al conocimiento de un agente computacional

inteligente, respecto al universo del cual forma parte. Dicha hipótesis laplaciana de

omnisciencia causal, se puede enunciar resumidamente, en sus palabras, como que:

“Podemos considerar que el estado actual del universo sea el efecto de su propio pasado y, a

la vez, causa de su futuro. Un intelecto que conociera, en un instante concreto, todas las

fuerzas que rigen la Naturaleza y todas las posiciones de todos los objetos de los que ésta se

compone, y que además fuera lo suficientemente vasto, como para someter estos datos a un

análisis riguroso, abarcaría, en una sola formula, desde los movimientos de las mayores

esferas del cosmos, hasta los de la partícula indivisible más diminuta. 165 Para tal intelecto

nada sería incierto, y tanto el pasado como el futuro serían a su mente revelados.”

En 2008, el mismo Wolpert utilizó la diagonalización de Cantor166 para refutar en 2008 dicha

hipótesis,167 lo que se relaciona con la h. de parada de Turing, y supone una extensión de los

teoremas de Heisenberg168 y Gödel [cfr. supr.], enunciados durante el s. XX. La prueba

estriba en que:

163 De aprendizaje automático supervisado [cfr. supr.: “redes neuronales” y “ADALINE”]). 164 Enunciada por el celebérrimo Pierre-Simon, marqués de Laplace, hacia 1814, en su ensayo filosófico sobre las Probabilidades. 165 Esta relación entre “lo más grande y lo más pequeño” está presente también en la Cosmología Fractal. En concreto, la Geometría No-Conmutativa, y ciertas aproximaciones simplécticas como la Triangulación Dinámica Causal, ofrecen algunas soluciones útiles para el reto de reconciliar la Relatividad con la Mecánica Cuántica. 166 Véase el comienzo de la sección sobre Aritmética Transfinita, en la tesis completa. 167 Véase una explicación accesible en [Collins 2009] para Scientific American. 168 Cabe aquí la discusión, de Informática Teórica, sobre si una partícula elemental es representable con bits, o bien con pips. Véase https://rjlipton.wordpress.com/2012/02/11/introducing-pip/

Page 40: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

39

Si el “Dios-Demonio” fuera parte del Universo, entonces éste, en cierto modo,

también le podría computar, pero dos agentes computacionales no pueden

predecirse completamente el uno al otro.

Sin embargo, si no fuera parte computable del Universo, para un observador

interno, toda simulación precisa del mismo sería indistinguible del propio Universo,

y por tanto esta simulación quedaría fuera de lo que se entiende por la totalidad del

Universo observable.

Con ello, en ambos supuestos queda invalidada la hipótesis.169 De todo ello se deduce,

simplificadamente, que:170

Para toda simulación de un sistema físico existe al menos una predicción cuya

certidumbre no puede garantizarse completamente.

Para cualquier memoria existe al menos un evento pasado cuya grabación correcta

no puede garantizarse completamente.

Para cualquier aparato de observación, existe al menos una observación cuya

corrección queda en entredicho [cfr. supr.: “Principio de incertidumbre].

Para todo alumno existe al menos un sistema de enseñanza que le hace fracasar.171

Y vicecersa: en todo sistema suficientemente complejo, al menos un alumno fracasa.

Puede explicarse también la inexistencia de atajos, que se deriva del teorema NFL, con la

“lex parsimoniae” o ley de la parsimonia,172 también conocida como el principio de la

“navaja de Occam”. A Guillermo de Occam173 se le atribuye174 la formulación de este

principio, que vendría a cortar de un solo tajo el complicado nudo gordiano de la leyenda

del labrador Gordias de Frigia.175 Éste ató la lanza y el yugo de su carro, como ofrenda al dios

Zeus, con un nudo cuyos cabos se escondían en el interior, de modo tan complicado que

nadie lo podía soltar.

169 En 2014, Josef Rukavicka ofreció un argumento más sencillo, pero controvertido, para falsar la hipótesis del demonio de Laplace. Véase [Lipton 8/8/2014] 170 Véase [D. Wolpert 2006, especialmente pp. 28 y ss.], así como: http://www.no-free-lunch.org/ 171 Véase [Shubhendu Trivedi 2013] 172 Concepto opuesto a la “prisa” entendida como “atolondramiento” o “precipitación”, y que se resume en la elección de la explicación más sencilla, esto es, del camino más corto, o de menor resistencia (la tan peyorativa “ley del mínimo esfuerzo”). [Véanse otras interpretaciones en la sección sobre “Optimización Multiobjetivo” respecto a Holmes, así como la de Poincaré, Spencer y Hayek en la sección sobre “Decidibilidad, medición y recurrencia”, y la de Zipf en la sección sobre “Los problemas del espacio curvo”, de la tesis completa]. 173 William of Ockham (1287-1347), en latín “Gulielmus Occamus”, fue un monje franciscano de Surrey, Inglaterra, dedicado a la teología y a la filosofía escolástica, cuyo trabajo, que apuntaba a la separación de Iglesia y Estado, fue acusado de herejía en la corte papal de Aviñón. En general, abogó por la simplificación, el nominalismo, y la eficiencia en el razonamiento científico. Además realizó importantes contribuciones a la semántica, debatió sobre la unicidad de posición y movimiento (en línea con Heisenberg), anticipó la lógica ternaria o multivaluada, y formuló con palabras lo que desde el s. XIX sería conocido como leyes de De Morgan. Véase [Ockham 1985] 174 Erróneamente, según F. J. Fortuny de la Univ. de Barcelona [“Los sucesivos” – Ed. Orbis 1985]. 175 Más tarde rey fundador de la ciudad de Gordio (“Γόρδιον” actual provincia turca de Ankara. La imagen corresponde al cuadro “Alejandro cortando el nudo gordiano” de Fedele Fishetti (s. XVIII).

Page 41: El error de Kant

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es | http://alfonsoycia.blogspot.com.es/

40

Se cuenta que Alejandro Magno, enfrentado al reto del

nudo, lo cortó de un solo tajo con su espada, lo que se

constituyó en el epítome del paradigma de

“pensamiento lateral” [cfr. supr.], relacionado con la

heurística, y queriendo significar el objetivo de

resolver, “tajantemente” y sin mayores

contemplaciones, un problema especialmente difícil.

Otros filósofos como Sir Isaac Newton o Bertrand Russell también aportarían más adelante

sus particulares reinterpretaciones de la navaja de Occam. No obstante, para aplicaciones

prácticas, los problemas derivados del teorema NFL pueden soslayarse en gran medida,

puesto que de hecho existen algoritmos universales de aprendizaje.

En la práctica, para realizar comparaciones experimentales de métodos meta/heurísticos de

optimización existen una serie de pruebas no paramétricas tales como el test de

Friedman176 y otros.177 Esta reflexión conduce a otras preguntas, tales como si es posible

optimizar el funcionamiento de los propios métodos de optimización, y, de ser así: ¿cómo

hacerlo?

Todo ello se trata en la sección siguiente de la tesis doctoral completa, de la que aquí se han

extraído solamente 40 páginas sobre un total de 650.

Breve bibliografía literaria:178

“La pregunta por la cosa – La doctrina kantiana de los principios transcendentales” por

Martin Heidegger. Colección “Historia del pensamiento” de Ediciones Orbis S.A. (1936 de la

edición original, 1984 de la actual)

“Lenguaje, verdad y lógica” por Alfred J. Ayer. Colección “Historia del pensamiento”,

Ediciones Orbis, S. A. (1985; 1969 de la Editorial Sudamericana, S. A.)

“Fundamentación lógica de la física” por Rudolf Carnap. Colección “Historia del

pensamiento”, Ediciones Orbis, S. A. (1985; 1969 de la Editorial Sudamericana, S. A.)

“La revolución del conocimiento” por Jean-Jacques Servan-Schreiber y Barbara Crecine

(Universidad Carnegie-Mellon y semanario francés L’Express. Plaza y Janés editores, S. A.

(1986, 1987 de la 1ª edición en español)

“Lobachevski: Un espíritu indomable” por Santiago Fernández Fernández, ed. Nivola,

colección “La matemática en sus personajes” nº 17 (2004)

“Gödel: La lógica de los escépticos” por Javier Fresán, ed. Nivola, colección “La matemática

en sus personajes” nº 30 (2007, 2008 de la 2ª ed.)

“Positivismos y antipositivismos – La herencia del siglo XX” por José María Chamorro.

Colección “Estudios y Ensayos”, serie “Filosofía/4”. Edita Univ. La Laguna, 1ª edición (2009)

176 Este test asume las hipótesis de orden total e independencia mutua de los resultados obtenidos sobre las instancias. Véase el resumen de Juan G. Villegas, siguiendo a Conover, en [“Using nonparametric tests to compare the performance of metaheuristics”]: http://or-labsticc.univ-ubs.fr/sites/default/files/Friedman%20test%20-24062011_0.pdf 177 Véase p.ej. el recién publicado: [Clerc 2015]. Más detalles en: http://or-labsticc.univ-ubs.fr/content/using-nonparametric-tests-compare-performance-metaheuristics 178 La bibliografía completa puede encontrarse en la tesis originaria.