cosmología
TRANSCRIPT
Cosmología- Evolución Humana - Mente
(1980 a 1995)
En este capítulo, que cubre de 1980 a 1995 aproximadamente, se hace una síntesis del estado en que se
encuentran tres áreas del conocimiento. La primera: la Teoría Evolucionista del Universo o Teoría del Big
Bang (B.B.), la segunda: la Teoría de la Evolución Humana, la tercera: las diversas teorías que se ocupan de
estudiar la Mente; ya que es a partir de estas fechas en que del campo de la cosmología se divulga, con
fuerza, ideas sobre la interrelación Evolución del Universo - Evolución Biológica-Evolución de la Mente
Humana, en el marco de la Evolución Global. En otras palabras: es a partir de las nuevas visiones
metafísicas provenientes de cosmólogos de vanguardia, que surge la idea que el ser humano no es un simple
espectador de la Naturaleza, sino co-creador de ella. La idea primigenia salta de la física cuántica y se
extrapola al Universo. Verdadera o no, esa afirmación salida de la ciencia muestra -salvadas las distancias y
los métodos- un notable paralelismo con lo que ya intuían desde la antigüedad los humanos que afirmaban lo
mismo.
Cuando se utilizan cifras con gran cantidad de ceros para referirse al Universo, al Sistema Solar, a la
creación de la Tierra, y a la aparición de la vida en el planeta y la evolución humana, suele surgir el
problema de imaginar períodos muy prolongados, de difícil comprensión para la mente. Una ayuda valiosa
es recurrir a la confección de un “Calendario Cósmico” hipotético como el que se presenta, pues permite
visualizar los sucesos desde el B.B. hasta la actualidad.
Se presenta un calendario cósmico tomado de la obra de Carl Sagan: “Los Dragones del Eden”
(modificado), para situar en él los acontecimientos que se detallan luego. Este calendario artificial permite
ubicar de acuerdo con dataciones convencionales muy fácilmente en solo un año y un día, todo el proceso
evolutivo que ha tomado quince mil millones de años. Si se toma el dato que se maneja en el tercer milenio
sería necesario hacer algunas modificaciones a este calendario cósmico.
CALENDARIO COSMICO (ADAPTACION)
Evolución lenta:
• 1 de enero: Hace 15000 millones de años: nace el Universo en el B.B.
• 1 de mayo: Se forma la Vía Láctea
• 10 de setiembre: Hace 4600 millones de años se forman el Sistema Solar y la Tierra
• Fines de setiembre: Surge la “vida” sobre la Tierra para evolucionar y dividirse - según el tipo de
alimentación, su reproducción y su desarrollo - en cinco reinos: Monera; Protista, Hongos, Vegetal, Animal
• 1 de octubre: Se forman las rocas más antiguas conocidas en la Tierra
• 9 de octubre: Surgen bacterias y algas unicelulares, los fósiles más antiguos descubiertos hasta ahora
• 19 de octubre: Las bacterias inician la fotosíntesis
• 12 de noviembre: Se desarrolla la atmósfera de oxígeno en la Tierra
• 24 de noviembre: Aparecen los primeros seres vivos unicelulares con núcleo (Eucariotas)
• Fines de noviembre: Los eucariotas inician la sexualidad.
Último mes del Primer Año: Evolución rápida:
• 1 de diciembre: Hace 1274 millones de años
• 12 de diciembre: Surgen las primeras plantas y animales pluricelulares
• 15 de diciembre: Termina la edad primitiva de la Tierra, comienza la Antigüedad (formación geológica:
Cámbrico)
• 16 de diciembre: La “evolución cámbrica”: los seres pluricelulares se extienden explosivamente
• 17 de diciembre: Animales invertebrados con caparazón
• 20 de diciembre: Evolución de los peces acorazados: primeros animales con columna vertebral
• 21 de diciembre: Primeras plantas terrestres, pequeños anfibios se asoman a tierra firme (Silúrico)
• 23 de diciembre: Surgen los primeros anfibios e insectos (Devónico)
• 24 de diciembre: Bosques de carbón, primeros reptiles (Carbonífero)
• 25 de diciembre: Aparecen los predecesores de los dinosaurios (Pérmico)
• 26 de diciembre: Inicio de la edad media de la Tierra, auge de los dinosaurios (Triásico)
• 27 de diciembre: De los reptiles se desarrollan los primeros mamíferos (Triásico / Jurásico)
• 28 de diciembre: Vuelan las primeras aves (Jurásico)
• 29 de diciembre: Imperio de los dinosaurios: mamíferos a la sombra de los reptiles gigantescos,
espermatofitos
• 30 de diciembre: Inicio del Neozoico: se extinguen los saurios, florecen los mamíferos, primeros primates
(Terciario)
Transición del primero al segundo año: Evolución muy rápida:
• 31 de diciembre: Surgen los monos y simios antropoides, primeros homínidos, glaciaciones, evolución
cultural del hombre (Cuaternario)
• 12:50 (mediodía): Existe el Dryopithecus, el último antepasado común de los antropoides y el hombre
(Hace unos veinte millones de años)
• 15:15 (tarde): En India y África Oriental se desarrolla el Ramaphiteco, probablemente el antepasado más
antiguo de la familia humana (hace unos quince millones de años)
• 21:40 (noche): Vive en África el Australopitheco Afarensis, el más antiguo representante de la familia
humana (hace unos cuatro millones de años)
• 22:30: Viven en África, al mismo tiempo, tres representantes de la familia humana: Australopitheco
Africanus. Australopitheco Robustus y Homo Habilis (hace unos dos millones y medio de años)
• 22:50: Hombres primitivos emplean los primeros utensilios, como proyectiles rodados, cuchillos y
raspadores de piedra (hace unos dos millones de años)
• 22:57: Vive en África, y poco después en Asia, el Homo Erectus, presumiblemente el “primer hombre
auténtico” (hace 1,8 millones de años)
• 23:18: Inicio de la glaciación de Mindel (hace 1 ó 2 millones de años)
• 23:32: Homo Erectus aprende el uso del fuego (hace 500,000 años)
• 23:50: Hombres de la era glacial cazan elefantes en Torralba y Ambrona España (hace 300,000 años)
• 23:56: Aparece el hombre de Neanderthal (hace unos 115,000 años)
• 23:57: Comienza la última glaciación
• 23:00: h.57:54”: Los más antiguos enterramientos rituales conocidos (probable transición de los mitos a
ideas religiosas)
• 23 h.58:40”: Aparece el hombre de Cro - Magnon, biológicamente un hombre moderno (hace 38,000 años)
• 23 h.58:47”: Los primeros inmigrantes en América (hace 34,000 años)
• 23 h.58:50”: Los primeros inmigrantes en Australia (hace 33,000 años)
• 23 h.58:52”: Las primeras pinturas rupestres (32,000 años)
Evolución acelerada ( últimos segundos antes de medianoche):
• 46 seg.: Invención de la aguja, vestidos ajustados al cuerpo, utensilios finos de asta y hueso, tallas de
marfil (hace 22,000 años)
• 29 seg.: Inicio del Mesolítico
• 21 seg.: Primeros animales domésticos (perros), primeras cerámicas (hace 11,000 años)
• 21 seg.: La primera ciudad (Jericó), agricultura en Oriente Medio (hace 10,000 años)
• 14 seg.: Comienza la Edad del Cobre: primer uso de metales para herramientas (6,500 años)
• 11 seg.: Los sumerios inventan la rueda (hace 5,500 años)
• 10 seg.: Primera escritura de ideogramas en Oriente Medio (Sumer); comienza la Edad de Bronce
• 9 seg.: Construcción de las grandes pirámides de Gizeh; Egipto es el primer “Estado” (hace 4,650 años)
• 7 seg.: En Oriente Medio se funde hierro; comienza la Edad del Hierro; aumentan el comercio y las guerras
(hace 3,400 años)
• 6 seg.: Los fenicios desarrollan el alfabeto moderno; fundación de Roma
• 5 seg.: En Atenas viven Pericles, Platón y Aristóteles: Grecia clásica (hacia 400 a J.C.)
• 4 seg.: Nacimiento de Jesucristo, Roma es gran potencia.
• 3 seg.: Caída de Roma, nacimiento de Mahoma
• 2 seg.: Edad Media en Europa, Cruzadas, Imperio Bizantino, florecimiento de la cultura islámica,
invasiones mongolas.
• 1 seg.: Renacimiento en Europa, viajes de descubrimiento a África, América; primer viaje alrededor del
mundo; Copérnico, Kepler, Newton; inicio de los métodos científicos experimentales modernos (1450 a
1700 d.C.)
Primer día del Segundo Año: Aceleración actual que incluye,entre otros aspectos: Rápido auge de ciencia y
técnica, mecanización, planetarización humana, bomba atómica, cohetes, computadoras, explosión
demográfica, aumento de la pobreza, aumento de la corrupción, Inicio de la globalización (¿anticipo de la
planetarización?...) a Usted y sus preocupaciones... Pero, agreguemos una más, la que se refiere al fin del
Universo y examinemos los diversos modelos que se han propuesto.
a) Modelos Cíclicos (Antecedentes Históricos)
A principios de 1990 la “American Astronomical Society establece el capítulo de estudios de
“Arqueoastronomía” para fundamentar científicamente el material que con mucha liberalidad se utiliza por
parte de escritores pseudocientíficos. Nota: Es evidente que el concepto de Universo Cíclico se presenta en
prácticamente todas las cosmogénesis de la antigüedad en todos los continentes y ha llegado por diversos
medios hasta nuestros días.
• Siglo IV A. C.. Primera referencia indirecta. Eudoro de Rodas (filósofo griego) “Si hemos de creer las
enseñanzas de los pitagóricos alguna vez volveré a conversar con ustedes, sosteniendo este mismo palito en
las manos y de la misma manera se repetirá todo”.
• Siglo III a. C. Primera referencia directa. Beroso (filósofo / sacerdote sumerio). “El Universo se destruye
periódicamente y después se vuelve a reconstruir”
• Siglo III a.C. Indra (Dios védico) en el “Brahmavavaista Purana”. Primera referencia religiosa. “Conozco
la terrible desintegración del Universo. He visto como todo se destruía. Siempre una y otra vez al finalizar
cada ciclo. en ese momento cada átomo se desintegra en las partículas primarias del agua de la eternidad; así
igual en otros tiempos....”
• Siglo I a.C. Virgilio (cuentos/poeta romano). “....En esta eterna repetición del todo lo que ha sido alguna
vez, todo cumplirá su círculo de nuevo y de nuevo comenzarán nuevas guerras....”
b) Modelos Cíclicos Científicos Modernos
• 1919, Kürt Godel, (Primera referencia moderna). “Fundamenta matemáticamente la tesis de que, en
determinadas condiciones nuestro Universo retorna a su punto inicial para después repetir el mismo ciclo y
lo culmina, volviendo de nuevo a su estado primitivo”.
• 1921, Albert Einstein. “La ciencia no puede aducir argumentos absolutamente incontrastables en contra de
la idea del retorno eterno.
• 1932, Richard Tolman. Demuestra la imposibilidad de la existencia de un Universo cíclico, cuyos ciclos
sean iguales, dado que por exceso de radiación del proceso de contracción, el reinicio se hace en condiciones
tales que el nuevo ciclo es enteramente diferente al anterior; se expande cada vez a un radio más grande y en
fin los ciclos se van haciendo cada vez más y más grandes (el espacio) y largos (el tiempo).
• 1951, Paul Davies. Replantea que el Universo cíclico es posible y la dificultad señalada por Tolman
(entropía) se soluciona por la aparición de mecanismos diversos: a) “agujeros negros” que disipan la
radiación excesiva predicha por Tolman. b) violación de la segunda ley de la Termodinámica por medio de
la reversión del tiempo.
• 1960, Thomas Gold. Replantea el modelo sobre la base de un retroceso de la flecha del tiempo que afecta
no sólo lo físico, sino lo mental, con lo cual el incómodo efecto del retroceso se anula.
• 1980, Stephen Hawking; 1983, Stephen Hawking/ James Hartle. Admite el modelo cíclico sobre la base
del retroceso de la flecha del tiempo, pero luego al manipular las ecuaciones de la mecánica cuántica, admite
el error de su postura anterior, dado la imposibilidad de obtener la simetría del tiempo en el cambio.
• 1990, Murray Gell - Mann /James Hartle. Postulan de nuevo el concepto de un Universo cíclico para lo
cual se admite la modificación de las reglas de la mecánica cuántica para imponer la simetría del tiempo
como solución.
c) Muerte Termodinámica (1856)
• Hermann Helmholtz. Plantea que a causa de la segunda ley de la termodinámica el Universo marcha hacia
la entropía total y su resultado final es la destrucción de la organización de toda la materia.
• d) Muerte por Catástrofe Periódica (1950)
• Inmanuel Velikosky. En su obra “Mundos en Colisión” vaticina sobre la base de colisiones entre cometas y
planetas, el fin de la Tierra. Aunque en 1974 en un simposio celebrado por la American Association for the
Advancement of Science se demuestran sus errores, pero los siguió pregonando.
• Donald Goldsmith. En su obra “Nemesis ” presenta la teoria de Shiva que señala que una compañera del
Sol aparece periódicamente cerca de la Tierra causando catástrofes.
d) Muerte Térmica Solar (1940)
• Teoría de evolución estelar (Modelo Standard). El sol, por su masa poca significativa sufre una evolución
típica que le llevará dentro de 5000 millones de años a expandirse convirtiéndose en una gigante roja (500
veces su tamaño actual) que englobará el Sistema Solar, con lo que todos los planetas del Sistema Solar
quedarán amasados por el inmenso calor. La vida en la Tierra terminará aún antes de completarse el proceso
por el excesivo aumento de la radiación cuando se inicie la expansión.
e) Muerte Térmica Universal (Por Contracción) (1930-1980)
• Consecuencia de la evolución predicha por la teoría Big Bang (B.B.) (Modelo Standard). Predice que si el
Universo se contrae todo desaparecerá en un proceso que llevará lenta e inexorable hacia el Big Crunch. La
desaparición de todo signo debida será por exceso de radiaciones y además por la altísima temperatura
resultante. La posibilidad de que esto ocurra depende de la densidad crítica del Universo.
f) Muerte Térmica Universal (Por Expansión) (1930 - 1980)
• Consecuencia de la evolución predicha por la teoría B. B. (Modelo Standard). Predice que si el Universo se
continúa expandiendo, todo signo de vida desaparecerá debido a un proceso que llevará lenta e
inexorablemente hacia temperaturas extremadamente bajas. La posibilidad de que esto ocurra depende de la
densidad crítica del Universo.
g) Muerte del Universo Tipo Inflacionista (Modelo Guth) (1980 - 1995)
• Allan Guth. Formula la idea que al producirse la inflación la densidad llega a un nivel crítico en que
pueden darse dos posibilidades: a) por una coincidencia el modelo standard inflacionista predice que si el
período de inflación duró exclusivamente lo necesario para que la densidad esté apenas por debajo o por
encima de la masa crítica, se podrá predecir si el Universo se expandirá o se detendrá para luego contraerse.
b) Si la inflación duró apenas un instante más de lo estrictamente necesario, la expansión es exponencial. En
este caso el período de la expansión se dobla, triplica, cuadriplica y así hasta el infinito. Por lo tanto el ser
humano será incapaz de conocer el destino del Universo.
• h) Muerte Durante la Expansión Infinita (1985 - 1993)
• Stephen Hawking. Predice que en el evento de que el Universo no se contraiga y continúe la expansión
infinita, siempre terminará el Universo porque actúan dos mecanismos en el tiempo inmensamente lejano ya
que: a) Por teoría relativista/cuántica todo terminará en agujeros negros, que luego de inmensos períodos de
tiempo desaparecerán por radiación. b) Por teoría cuántica aún si quedarán partículas sobrevivientes, todas
tienden a desaparecer en el tiempo. c) Al desaparecer toda la materia organizada engullida por los agujeros
negros y al desaparecer estos, a su vez por radiación, así como al desaparecer todas las partículas de
cualquier materia restante, el Universo presentaría, de nuevo, en eones y eones de tiempo un panorama
desolador; tan sólo en la inmensidad de la vastedad despoblada persistirán algunas partículas exóticas (como
se suponía existía antes de T = 0, antes del inicio del B. B.).
i) Muerte del Universo (Si cae en un estado de vacío verdadero) (1980 - 1982)
• Teorías de: Sidney Coleman / Frank De Lucía. Las teorías de la inflación (Guth/Linde/Starorbinski) parten
del principio de que en un lapso instantáneo el Universo al principio del B.B. pasó por el efecto de “túnel”
de un estado de falso vacío (excitado) a uno de vacío verdadero (baja energía). Pero esta teoría es rebatida
por Sidney Coleman y Frank de Lucía, quienes postulan que aún el Universo no ha caído en esta última
etapa, sino que se encuentra suspendido en una etapa intermedia (meta - estable) y señalan que al caer en el
vacío verdadero se producirá una catástrofe cósmica (la formación instantánea de una burbuja con un
crecimiento exponencial altísimo y a la vez el colapso de todo el Universo que queda atrapado).
• Apoyo posterior de: Michael Turner, Frank Wilczeck. El apoyo a esta tesis (Turner /Wilzeck) plantea que
efectivamente la burbuja de vacío verdadero podía iniciarse en cualquier momento y en cualquier parte del
Universo.
• Seguido de advertencia de: Piet Hutt / Martin Nees. La advertencia de Hutt/Ness era acerca de que los
propios físicos podían con su manipulación con los aceleradores de partículas, iniciar el desastre anunciado
por Turner / Wilzeck.
j) Persistencia Eterna del Universo Inflacionista (Modelo Linde) (1980 - 1989)
• 1983, Andrei Linde. El modelo inflacionista postulado por Linde no pasa de un falso vacío verdadero
como señala el modelo de Guth, sino que el proceso es caótico porque la energía se encuentra en diferentes
estados: alta, moderada, baja. Así que el resultado es en realidad un cúmulo de miniUniversos (cada uno en
su propia burbuja). En consecuencia hay miniUniversos que del todo no se inflan, otros lo hacen
medianamente y algunos crecen exponencialmente (como es el caso de nuestro Universo) hasta tamaños
enormes, lo que permite que unas regiones evolucionen de manera uniforme y otras de manera violenta. En
1989 Linde plantea las consecuencias que apareja el modelo . En el escenario del modelo inflacionista la
vida es eterna y para evitar la muerte, la humanidad puede pasar de una burbuja de Universo a otra y así
eternamente, pero la distancia entre una y otra burbuja es espantosamente grande: en uno seguido de varios
millones de años luz. Linde calcula que estamos cerca del borde y si continuamos la expansión nos
acercamos a la más cercana burbuja (Universo), próxima, aunque para pasar al otro lado se requiere - a la
velocidad de la luz - la misma cantidad de años: uno seguido de varios millones de ceros. Dentro de varios
miles de millones de años la fuerza que causó la inflación volverá a actuar nuevamente y el Universo sufrirá
otros B.B. más pequeños creando nuevas concentraciones de materia, y la humanidad pueda pasar de una
galaxia a otra por medio de los agujeros negros (que al abrir su horizonte de los eventos permiten el paso a
altísima velocidad debido al mecanismo de la nueva inflación local que facilitaría este paso).
• En 1994,el planteamiento es criticado por Paul Davies por estas razones: a) El modelo de Linde es un
retorno al modelo estacionario ya desechado en 1965. b) No se explica el B.B. sino que habría una serie de
B.B. en el tiempo infinito. c) Si la existencia es eterna y no hay límites para la humanidad el Universo
terminaría siendo uno altamente tecnologizado. d) Si así es, y el actual Universo no tuvo principio cabe
señalar que el Universo actual no es natural sino uno tecnologizado (puesto que el Universo no cambia, ni
cambiará ni ha cambiado, según el modelo de Linde). e) Este modelo coincide con las últimas versiones del
modelo de Hoyle, quien plantea la existencia de un ser “superinteligente eterno” (teoría Budista). f) Si hay
un ser superinteligente eterno que modela eternamente el Universo, no hay razón para la existencia de la
humanidad en un proyecto que nunca termina (teoría de un Dios Creador). g) Por lo tanto el proyecto debe
cesar y el Universo llegar a su muerte, pues de lo contrario no tiene sentido (teoría del Apocalipsis).
k) Sobrevivencia si el Universo se expande por siempre
• 1970 - 1995, Gerard O’Neill. Plantea la utilización de formación de colonias fuera de la Tierra y luego
fuera del Sistema Solar y así por etapas hasta colonizar otros planetas, lo que permitirá nuevos avances
científico/tecnológicos para garantizar la sobrevivencia ante cualquiera de las posibilidades expuestas.
• 1979, Freeman J. Dickson. Formula la tesis altamente especulativa de crear seres robóticos de auto -
generación, con capacidad autonómica (y de adaptación, así como de regulación de los efectos de la
entropía), de manera que puedan generar pensamiento, independientemente de la destrucción física del
Universo y aseguren la permanencia del pensamiento en éste.
• 1980, Frank Weeler / Kip S. Thorpe. Formula varias ideas especulativas para utilizar máquinas del tiempo
para escapar a los cataclismos cósmicos, utilizando las diferentes singularidades ocasionadas por la
curvatura del espacio - tiempo (agujeros negros / agujeros de gusano).
• 1980, Roger Penrose. Formula la idea de utilizar los agujeros negros para extraer energía que permita la
sobrevivencia.
• 1986, John Barrow / Frank Tippler. Formulan la idea de utilizar bombas nucleares para cambiar las órbitas
de estrellas y galaxias mediante el desvío, por ejemplo, de asteroides que les hagan variar su curso, así la
humanidad puede retardar su desaparición.
l) Sobrevivencia si el Universo se colapsa
• 1986, John Barrow / Frank Tippler. Formulan la tesis, altamente especulativa de que la humanidad puede
generar un “ser autosintiente”, con la inteligencia necesaria para manipular el proceso final que lleva al
colapso (Big Crunch). El mecanismo consiste en impedir que el colapso (por formación de agujeros negros)
sea uniforme y entonces pueda alterar el horizonte de los acontecimientos para evitar el colapso violento.
Por el contrario el super ser, dotado de super cerebro almacena toda la información existente en el Universo
y puede existir eternamente (aunque termine el Universo físico) y recrearse pensando en lo que desee (una
verdadera “orgía” de realidad virtual).
m) Sobrevivencia ante cualesquiera de los escenarios anteriores
• 1981, Grupo de teóricos japoneses. Un grupo de teóricos japoneses demuestran en modelos de
computación que una burbuja de vacío verdadero se infla formando un Universo (Baby Universe) como el
actual conocido y queda conectado al Universo Madre (vacío verdadero) por medio de un cuello (agujero de
gusano) creando su propio e independiente espacio.
• 1982, Alan Guth. Consecuencias: Experimenta la creación de “Baby Universes” en laboratorio, por medio
de concentración de energía para crear un “falso vacío”.
• 1992, Lee Smolin. Consecuencias: Plantea que debe existir una especie de evolución manipulada para
permitir la convergencia de vida consciente en diversos Universos.
Posterior a estos eventuales escenarios todos hipotéticos, pero fundamentados en cálculos en décadas
posteriores se postulan otros , ganando cada vez mas plausibilidad el que pronostica una desaparición por
enfriamiento-congelamiento-cese de toda actividad incluso a nivel de subpartículas , producto de la
expansión acelerada que se observa en el Universo.
EVOLUCION RAPIDA DE LA CIENCIA COSMOLOGÍCA
Por más interesante que sea el sea el mantenerse al día en la investigación cosmológica, la tarea reviste
dificultades serias: por una parte se requiere tener acceso a revistas especializadas de muy alto costo, y por
la otra es preciso dominar la materia, lo que requiere al menos conocimientos básicos en física y
matemáticas. Por tal razón la labor de los propios especialistas como divulgadores, si bien no es bien vista
entre sus propios colegas, cumple una función social de gran importancia.
En la época bajo análisis de entre el cúmulo de artículos de divulgación aparecidos en diversos medios
especializados en esta tarea, hay cuatro que en conjunto sirven para formarse una buena idea del estado de
situación del B.B. para esa época.
Con el objeto de ubicar al lector en una secuencia histórica se han hecho las modificaciones necesarias para
facilitar su comprensión, así como su ubicación en el eje que se desarrolla en esta obra: a) El primer
planteamiento, “ De la Nada al B.B.”, permite conocer las dudas que acompañan la aparición de la nada de
una “partícula virtual”, iniciadora de un proceso de expansión observable y medible en la actualidad: el
Universo; b) El segundo planteamiento, “Agujeros Negros Primordiales en el B.B.”, introduce la idea de
estos “bolsos de materia” en el Universo muy primitivo (Very Early Universe) lo que modifica el
comportamiento del proceso posterior para hacer un Universo más denso, lo que tiene implicaciones en su
futuro desarrollo; c) El tercer planteamiento, “Teoría de la Inflación”, introduce una idea considerada
fundamental para entender el comportamiento de las distintas fuerzas universales que aparecen en los
primeros estadios del desarrollo del B.B.; d) El cuarto planteamiento, “De la Expansión a la Muerte del
Universo” , plantea como se comportará hipotéticamente el Universo futuro si se dan ciertas condiciones
básicas y los posibles escenarios en esas lejanas fechas; e) La síntesis resultante de estos cuatro retratos del
Universo permite tener una idea de las nuevas ideas (y de las dudas que aún subsisten) para formular un
modelo satisfactorio; también introduce en el conocimiento de la propuesta de un Universo inflacionario
como una respuesta teórica ya aceptada corrientemente.
1.-DE LA NADA AL B.B.
La familiaridad que distingue al lenguaje físico de hoy día para referirse a eventos ocurridos en los primeros
instantes del B.B., todavía termina de causar cierta sorpresa, pues algunos cosmologistas suelen aventurarse
en la oscuridad del instante anterior a la gran explosión para aún tratar de expresar su eventual causa, en
donde este B.B. sería uno de los muchos sucesos que tienen lugar en el continuo espacio - tiempo que
habitamos (que se ha denominado “Hiperespacio”) a falta de otro término mejor, aunque siempre éste tiene
el problema de la castidad semántica para expresar lo que se intuye, pues no es fácil de representar, pero en
el que muchos otros Universos pueden probablemente existir, como producto de otros eventos similares al
B.B. que han ocurrido en otras dimensiones aún desconocidas.
Problema de la Creación: La explicación de la teoría del Estado Estacionario cada vez más debilitada por el
descubrimiento de la radiación de 3° K, remanente de la gran explosión detectada significaba - aún al menos
- un escape para los físicos que ahora, sin ese soporte deben explicar como, - violando el principio de la
conservación de la materia - piedra angular de la misma ciencia, el Universo apareció nada menos que de la
nada, lo cual significa ni más ni menos que recurrir a la explicación de causas no naturales, metafísicas si se
(desea, o dicho de otro modo) recurrir a la explicación sobrenatural, aspecto que causa temor a la ciencia.
Incluso la idea de un Universo oscilante con repetidos sucesos de “B.B. - B.B.” en que la fase inicial del
actual conocido sería el recolapso de una etapa anterior, pese a no existir ninguna evidencia a su favor, tenía
también la atracción de que dejaba dentro de los campos de la ciencia una explicación que no estaba fuera de
sus reinos.
Esta propuesta científica quedó sin embargo también sin asidero dado que estos ciclos repetitivos, conllevan
un aumento de la entropía, lo que lógicamente redundaría en una situación en que habiendo más y más
energía llegaría a un punto en que cada una de las fases de extinción daría origen - si este fuera el
mecanismo - a un Universo de más y más duración. Pero si se aceptaba esta idea (sugerida en 1934 por el
astrónomo norteamericano R. Tolman) usando el criterio inverso significaría que yendo hacia atrás, en la
dirección del tiempo, el Universo expandido sería cada vez menor y menor en su duración, hasta llegar a un
punto en el que se requería nuevamente imaginarlo saliendo de la nada, como una repetición de la aporía de
Zenón de Elea pero a gran escala.
Fluctuación Cuántica: En 1973, el físico norteamericano E.P. Tryon, utilizando el Principio de la
Incertidumbre de la mecánica cuántica postulado por R. Heisemberg señala que, el Universo podría ser
lanzado a su existencia de la nada, sí únicamente interviniera la aparición de una “partícula virtual”,
comúnmente conocida en la mecánica cuántica porque en el laboratorio de los físicos aparecen y
desaparecen espontáneamente en el espacio a través del tiempo.
Según Tryon la idea la concibió al pensar las razones por las cuales el total de la energía potencial
gravitacional (una energía en que cada fuerza de masa incide en cada otra fuerza de masa) es cero y no había
razón aparente por la cual ambas cantidades fuesen “exactamente iguales”, podrían anularse una con la otra,
sin necesidad de energía, por lo cual el Universo, como tal, tenía energía neta de cero.
De acuerdo a la mecánica cuántica cualquier sistema con poca energía neta puede salir de la nada, tener vida
por un instante y luego desvanecerse; así por ejemplo, como se conoce en la práctica una “Fluctuación
cuántica” tan pesada como el par electrón - protón tiene una vida de sólo 10-21 segundos y uno con 10-21
veces de energía de exactamente cero, puede aparecer de la nada y existir para siempre.
Por otra parte Tryon dedujo que no hay límite para el tamaño de las fluctuaciones cuánticas, que están
ocurriendo permanentemente en un espacio vacío. Algunas más grandes pueden ser menos frecuentes que
otras menores, por lo que en un espacio de tiempo grande, incluso las más grandes deben aparecer,
inevitablemente a causa del azar, con lo que, dedujo que un sistema realmente grande que aparezca de esta
forma debe ser, necesariamente indistinguible del B.B. siendo indistinguible -conjeturaba- bien el Universo
pues haber salido de la nada.
Estas conjeturas de Tryon no conducían, sin embargo, hacia ninguna parte, puesto que los planteamientos de
la cosmología no dejaban campo para hacer una relación entre la astrofísica y la física de partículas. Pero a
partir de las teorías de Stephen W. Hawking en 1974 la situación comenzó a cambiar poco a poco, pues en
ese año publicó su trabajo que mostraba como un agujero negro podría evaporarse lentamente, debido a la
creación de materia fuera de las fluctuaciones del vacío, cerca de su horizonte de los eventos en un proceso
que drena toda su energía gravitacional. Con este planteamiento Hawking demostraba no sólo que la materia
puede crearse de un proceso de distorsión puntual del espacio-tiempo, sino que -más importante aún- poseía
el instrumental matemático teórico con la cual podían unirse acontecimientos a niveles micro y
acontecimientos a niveles macro.
Teoría Boostrap: En 1978, los físicos cuánticos belgas R. Front, F.E. English y E. Gunzing (y más tarde con
la ayuda de L. Spindel) desarrollan y plantean un modelo de creación del Universo con amplio detalle
matemático, que predice la formación de un “B.B. expontáneo “ como resultado de una “perturbación
puntual” en el vacío y a partir de este “punto de siembra” se inicia un proceso que se pone en camino gracias
al mecanismo de "boostrap", (traducible como levantarse sobre sus propios pies o talones para impulsarse) el
cual produce masa - energía de carga positiva siempre balanceada por la producción desigual de energía
potencial gravitacional de carga negativa, y la alternancia entre la producción de una y otra hace que
aumente la contraria y así sucesivamente.
Luego conforme el Universo se agranda el mecanismo que lo produjo se enlentece primero y se detiene
luego, pero dejando un flujo de materia caliente y en capacidad de expanderse (lo que los físicos han
denominado justamente “B.B.”). Este Universo, según sus teóricos se expande para siempre. Tryon, por lo
contrario al estudiarlo poco tiempo después lo acepta pero refuta la idea de que pueda ser abierto y conjetura
que debe ser cerrado, en virtud de que uno abierto no permite conservar la energía.
Sin embargo, una energía neta cero para el Universo, no es necesaria para iniciar un proceso de “creación
cuántica”, en razón de que la física moderna permite admitir que la energía verdadera total de cualquier
sistema no puede ser justificada necesaria y exclusivamente dentro de los postulados de la Relatividad
General, desde que un objeto puede - en principio - desprender cualquier cantidad de energía, simplemente
colapsándose hasta formar una singularidad en la cual las leyes de la física se “quiebran” al toparse con el
muro de Plank", de manera que es el Universo, como un todo en que requiere la conservación de la energía,
por lo cual puede, perfectamente, ser abierto.
Evento del Túnel Cuántico: Otros investigadores han planteado diversas variaciones sobre el concepto de la
creación cuántica; así, en 1981, D. Atkatz y H. Pagees de la Universidad Rockefeller, concluyen que
cualquier eventual Universo que aparezca espontáneamente como resultado de un evento debido al efecto de
túnel cuántico (“quantum tunneling event”) esto es por el hecho de cruzar una barrera impenetrable, entre el
vacío y la existencia del B.B. debe necesariamente dejarse de lado, en razón de que esperan que el Universo
pueda haberse originado de un espacio vacío plano, una configuración que ciertamente no corresponde a
nada. Pero, como señalan los investigadores esto debe provenir de un espacio cerrado, por lo cual no existe
ya el vacío. Pero al surgir la pregunta entonces..... ¿De dónde vino eso?; es una interrogante que no se puede
contestar.
Preexistencia del MetaUniverso: En 1982, el astrofísico inglés J. Bott, teoriza acerca de la creación que
procede de un Universo abierto, para lo cual recurre a los planteamientos publicados por S.W. Hawking en
1974, así como a ideas planteadas por la teoría del Universo Inflacionario (versión de A. Guth, 1981). Su
teoría ofrece una predicción matemática acerca de las condiciones de un “superespacio” o bien la
“preexistencia de uno mayor o MetaUniverso que existe fuera del Universo que observamos”.
Aquí, las partículas son creadas por el proceso descrito por Hawking, pero no justamente en una esquina del
horizonte de los eventos de un agujero negro como postula el primero; sino en cualquier otro horizonte de
eventos. Por ejemplo, en una superficie en la que no es posible el “cruce de información” y asume la
existencia de un espacio expandible exponencialmente conocido como “espacio de Sitter” lleno de materia
densa y caliente; dado que precisamente el astrónomo holandés de Sitter planteó en su modelo de Universo
estático (1917) un horizonte de los eventos presente en cualquier lugar.
En esta circunstancia las “burbujas del espacio - tiempo ordinario” pueden ocurrir en una matriz grande y en
proceso de expansión y tan pronto surja una, se expanderá a la velocidad de la luz, llenándose con materia
densa creada por el proceso descrito por Hawking. Conforme aumenta la burbuja, la expansión exponencial
crea la vía para la desaceleración y cesa la creación de materia y así mientras la burbuja se expande, la
materia se diluye. ( Un observador dentro de un espacio cerrado verá el B.B. como si fuera “todo” el
Universo ).
Creación Espontánea Inercial: En 1984 R. H. Dicke y P. J. Peebles de la Universidad de Princeton sugieren
que un Universo oscilante no puede ser “indefinidamente viejo”, dado que en cada ciclo que se colapsa
deviene un nuevo B.B.. Así la entropía o desorden aumenta en el Universo debido a la cual cada ciclo
sucesivo debe ser más grande y perdurable en el tiempo por lo que es necesario que se cree más materia en
cada B.B.. Además, a su juicio, el primer ciclo fue el que permitió la creación de unas pocas partículas
elementales que surgieron espontáneamente - simplemente de la nada - “bajo los principios cuánticos
indeterminados”
2.-AGUJEROS NEGROS PRIMORDIALES EN EL B.B.
El reciente pero ya clásico concepto de agujero negro que no deja escapar nada, siquiera la luz, sin embargo
ha sido sacudido por las aseveraciones del físico inglés S.W. Hawking , al señalar en 1981 que éstos no son
totalmente negros, sino que dejan escapar partículas, perdiendo más para finalmente explotar, con lo cual ha
puesto de manifiesto el concepto unitario de la forma de comprender, describir y redescubrir el Universo al
juntar conceptos usualmente separados, entre ellos la gravitación, la teoría de los “cuanta” y la
termodinámica.
Evolución Estelar: Al final de la década de los treinta se conocía que las estrellas que habían agotado su
energía termonuclear entraban en un proceso de colapso gravitacional conforme se enfriaba su centro. Esta
contracción podía darse de distinta forma, así para estrellas de poca masa el resultado era convertirse en
“enanas blancas”, mientras que otras aumentarían su volumen, inflándose hasta prácticamente desaparecer -
como se predice que sucederá a nuestro Sol dentro de cinco mil millones de años. Otras estrellas de mayor
masa seguirán condensándose más y más hasta llegar a convertirse en una estrella que explotaría
(supernova) de previo a pasar a ser estrella neutrónica, según predice la teoría debida a W. Baade y F. Zwick
formulada en 1934.
Teoría original: Para Oppeinheimer y Snyder una estrella muy maciza podrá resistir esta tendencia y seguirá
colapsándose para siempre hasta crear lo que luego se denominará un agujero negro (fenómeno predicho por
Einstein). El punto de “no retorno” según los autores de la teoría seria el “radio de Zcharzschild”, el tamaño
que relaciona el diámetro del agujero negro como proporcional a la masa del objeto en proceso de colapso y
una vez que este radio se logra, ni siquiera la luz escaparía del agujero negro. Así, por ejemplo, para
Zcharzchild el radio para un agujero que se formara de una estrella como el Sol, es de aproximadamente 3
kilómetros; aunque sin embargo las teorías más modernas predicen que el Sol no puede tener este fin de
colapsarse gravitacionalmente, pues para ello su masa debiera ser el doble de la que tiene.
Descripción general: El agujero negro es una masa crítica (inestable) de cualquier tamaño que colapsa sobre
sí misma en el espacio - tiempo que lo circunda y que presenta estos fenómenos: a) su comunicación hacia el
exterior está limitada al horizonte de los eventos o acontecimientos (radio de Scharzschild); b) adentro
permanece imperturbable y solo se produce una lentísima evaporación (radiación de Hawking) que le toma
más tiempo que el probable período de nacimiento y desaparición del Universo; c) una hipotética sonda que
caiga en el agujero lo hará tan lentamente, que caerá eternamente sin llegar nunca al fondo del pozo; d) la
detección de un agujero negro solo es posible por medios indirectos: la perturbación cercana al horizonte de
los eventos, de ondas electromagnéticas de corto alcance (primero ondas de radio visible - rojo al violeta,
luego rayos X), que se producen debido al calentamiento - en varios millones de grados - de átomos de
materia absorbida, pero otro tipo de ondas de más alcance (gamma, por ejemplo) producto de la intensa
vibración de los átomos atrapados, no escapan del horizonte de los eventos. En 1982 se detecta -
indirectamente- el primer agujero negro y más adelante se confirman otras detecciones de agujeros negros
masivos (producto de colapsos de estrellas y cúmulos de estrellas), y de acumulación energética en los
centros galácticos. Pero no se ha detectado ningún agujero negro primordial.
Agujeros Primordiales: La teoría de creación de agujeros negros original ha sido modificada por Hawking
quien propone una forma alternativa, no única para explicar la creación en las primeras etapas de la creación
del Universo dentro de la teoría del “B.B.”, en donde la enorme presión permitió la condensación de
bolsones de materia que formó así los “agujeros negros primordiales”, cuyas masas tendrían, a lo sumo 10-5
gramos y en este diámetro el radio de Zchwardchild sería de solo 10-33 centímetros. Pero resulta que la
teoría de los “cuanta” predice que en una distancia tan pequeña y sujeto a rápidas modificaciones, un agujero
negro de estas dimensiones hubiese sido destruido tan pronto se formara.
Los agujeros negros primordiales se deben haber formado durante el Big Bang siempre y cuando los
cúmulos tuviesen una ecuación de estado suave. Los que hubieran tenido menos de 500 millardos de Kg.
(más o menos el tamaño de una montaña mediana) se deben haber evaporado; los que tuvieran tamaño 2 a 3
veces mayor; todavía se están evaporando y sus horizontes del tamaño del núcleo atómico deben emitir
fotones de alta energía, visible como rayos gamma y por los cálculos efectuados se ha llegado a la
conclusión que actualmente deben haber 300 pequeños (pero fuertemente productores de evaporación)
agujeros negros de esta naturaleza, por cada año cúbico de luz de espacio. De esto se desprende que el Big
Bang no puede haber tenido una ecuación de estado demasiado suave.
En la misma línea del pensamiento de Hawking el astrónomo americano R. Chapline ha estimado que hay
aproximadamente 1023, de tales agujeros negros pequeños en nuestra galaxia, por lo que la “desaparición”
de grandes cantidades de materias primordiales dentro de estos agujeros negros eliminó la posibilidad de que
esta materia participara en los procesos de nucleosíntesis durante los últimos estadios del “B.B.”, lo que
implicaría que el Universo es mucho más denso que lo que suelen decir los cálculos basados en la
abundancia de deuterio interestelar.
Termodinámica: Los planteamientos de Hawking recogen, en mucho, ideas que fueron trabajadas
separadamente por físicos y matemáticos. En 1972 J.D. Bekenstein publicó una idea que relaciona los
agujeros negros con la termodinámica, pero este planteamiento tenía por aquella época el inconveniente de
que si bien en termodinámica la temperatura de un cuerpo es definida por la radiación que emite en
equilibrio con su contorno, se pensaba que un agujero negro no emitía nada.
Singularidades: El matemático Roger Penrose llegó a la conclusión en 1970 que, bajo condiciones especiales
los agujeros negros debían convertirse en “singularidades físicas”, esto es regiones en las que las fuerzas
gravitacionales puede estrujar al máximo la materia colapsada hasta hacerla llegar a densidades infinitas o
quizá hasta una muerte cósmica en la que la “historia” de las partículas abruptamente termina o empieza una
nueva bajo condiciones diferentes. El concepto de Penrose predice que la materia colapsada bien puede
llegar a la singularidad y ser expulsada fuera de lo existente o perderse. Esto es que si el agujero negro está
rotando la materia puede “aparecer” en otros puntos del continuo espacio - tiempo o incluso en “otro
Universo” en el que emergería desde un “agujero blanco”. Esta noción interesa a los físicos como una
posible explicación que permitiría entender lo que son los “quasars”, pero esto obliga a suponer que tales
singularidades se hubiesen formado al principio del Universo, precediendo justamente a los propios agujeros
negros en una extraña sucesión de eventos.
Por otra parte, para otros parece más probable y atractiva la posibilidad de que en vez de esta cadena de
sucesos, simplemente el quasar fuese el resultado de la colisión de materia con “una singularidad”.
Relatividad y Cuántica: En 1974 Hawking inicia un proceso de reflexión que trata de unir la Relatividad
General con la Teoría Cuántica y bajo estas condiciones extremas los agujeros negros pueden aparecer para
crear y emitir partículas elementales como protones, electrones, neutrinos en su espacio térmico, razón por la
cual, asegura, pueden emitir en la proporción esperada para un cuerpo ordinario que presente una
temperatura proporcional a la superficie gravitacional del agujero negro.
Su teoría coincide con lo predicho en 1972 por Beckestein con respecto al planteamiento de la analogía de la
termodinámica, en la que después de cierto tiempo la emisión hace decrecer la masa del agujero negro pero
aumentando más y más la temperatura hasta la explosión del agujero negro, con lo que tal y como había
teorizado Penrose el agujero negro sería como si fuese blanco, o al menos indistinguible uno del otro. Sin
embargo, por otra parte, un “agujero negro primordial” esto es creado en los primeros estadios del Universo,
tendría una temperatura de 1200 millardos de grados y sería un fuerte emisor de rayos gamma. Además sus
cálculos demuestran que sus períodos de vida coinciden con la edad prevista de un Universo nacido del B.B.
Antimateria: Los físicos norteamericanos P.W. Wald y L. Parker han hecho cálculos independientes de los
de Hawking y llegan a las mismas conclusiones, para demostrar que si es posible demostrar que un agujero
negro - lejos de lo que se creía - emite no se sabe sin embargo, cuanto emite - lo que Hawking ha utilizado
para ofrecer, a su vez una explicación de la radiación proveniente de los agujeros negros en términos de
antimateria. En física para cada partícula elemental conocida hay una partícula de antimateria que se le
corresponde con igual masa, de manera que se pueden relacionar para producir pares de otras partículas; así
la materia está compuesta de partículas y la antimateria de antipartículas. Al producirse la colisión de dos
partículas de igual masa y “spin” (rotación), pero de carga diferente, se produce la aniquilación
(¿desaparición?) de ambas pero se emite dos rayos gamma o un neutrino que conservan la masa y el
“momentum”. A su vez la teoría cuántica predice que es posible crear materia obtenida de la presencia de
dos rayos gamma, o de un rayo gamma y otro, y en estos casos, la masa - energía debe ser suplida por el
campo electromagnético (Efectivamente la existencia de antimateria es observable en el laboratorio y en los
rayos cósmicos, según predijo el físico P.A.M. Dirac en 1930 ). Si en teoría y en la práctica esto es así,
teóricamente también es posible pensar en antiátomos, antimoléculas, antiUniverso, pero dado que no ha
sido posible encontrar ninguno de ellos y que en la naturaleza se encuentra materia formada sólo por
materia, esto intriga a los cosmólogos.
Flecha del Tiempo: R. Feynman ha señalado que las antipartículas son simplemente partículas moviéndose
en dirección contraria al avance hacia el futuro, esto es que representa materia que avanza en sentido
contrario hacia el pasado. “La producción pareada” que ocurre en el borde de un pequeño agujero negro
debido a fuerzas gravitacionales permiten la creación de materia obtenida de la energía del campo. Sobre
este tema Hawking hace una explicación interesante pues afirma que si hay una partícula resultante de la
conjugación energética, ésta tiende a caer en el agujero negro, y la antipartícula lo hace en el sentido
contrario, con lo que daría la impresión de que es lanzada por el agujero negro, pues de lo contrario ambas
se aniquilarían al juntarse, y con base en la explicación de Feyman de que las antipartículas reversadas en el
tiempo debido a la “producción pareada” y la aniquilación subsecuente, pueden ser representadas como el
comportamiento de una partícula simple que es lanzada hacia adelante en el eje del tiempo, al momento de
la producción pareada hasta el momento de la aniquilación y luego lanzada hacia atrás en una forma
diferente. Si esa partícula, por ejemplo, cae en un agujero negro puede ser observada como antipartícula
lanzada hacia atrás en el tiempo, con un comportamiento similar al efecto de “túnel”. Este comportamiento
es familiar en la física cuántica y se refiere a la propiedad de una partícula de encontrarse en un lugar
distinto a donde la física predice que debe encontrarse.
Principio de Ignorancia: Hawking admite que estas teorías deben verse con cuidado y no ser tomadas al pie
de la letra, con base en la teoría cuántica que señala que no es posible saber a ciencia cierta, al mismo
tiempo la posición y el momentum de una partícula dada, debido a que precisamente el solo hecho de poder
observar interfiere de plano con la trayectoria de esa determinada partícula, causando cambios no
predecibles en su estado. Hawking con sus demostraciones matemáticas puras demuestra que los agujeros
negros pueden emitir radiaciones y por lo tanto si un agujero negro se ha parado, deja atrás una singularidad,
sencilla, sola, desnuda, justamente lo que los físicos habían venido previendo como una novedad después de
aceptar la teoría del B.B., lo cual crea una línea que enlaza el tiempo.
Incluso un agujero negro no evaporado constituye ya una evidencia de “anarquía cósmica” desde el
momento mismo en que emite radiación como un anuncio de la existencia de la singularidad, de allí que
Hawking ha propuesto una nueva regla en la física, el “Principio de la Ignorancia”, con lo cual al demostrar
que el agujero negro establece una confusión de lo que ya se creía saber, y por ello se ha afirmado,
contestando la frase de Einstein (¡Dios no juega a los dados!) que efectivamente ¡Dios no sólo juega a los
dados, sino que a veces los lanza donde no pueden ser vistos! Como el mismo Hawking advierte aunque ha
concertado tres teorías usualmente difusas, estas no deben utilizarse en términos absolutos para explicar todo
lo que se refiere a la radiación de los agujeros negros, pues pueden ocurrir varias probabilidades de
correlación de factores, lo que sirve de base para su hipótesis del “Principio de la Ignorancia” que establece
que: “todos los datos acerca de una superficie “escondida” compatible con la limitada interacción de parte
del observador son equivalentemente probables de ocurrir”, por lo que el resultado en el caso de un agujero
negro es que ni la velocidad, ni la posición de una partícula pueden ser predecibles.
Agujeros Momentáneos: Hawking ha extrapolado este principio a otros eventos o fenómenos del Universo,
así, por ejemplo las singularidades afectan el espacio - tiempo, creando pequeñas, pero violentas
fluctuaciones en la geometría del espacio a distancias de cerca de 10-33 centímetros, equivalentes en sus
efectos a “agujeros negros momentáneos” de unos 5 gramos, creando horizontes del tiempo por lo que en la
forma en que afecta el horizonte de los eventos, aumenta a su vez el grado de impredecibilidad. Asimismo
ha aplicado este mismo criterio a la singularidad del B.B., una superficie “escondida” pues no se sabe que lo
ha producido y además lo aplica para explicar las observaciones que señalan la isotropía del Universo,
debido a la radiación cósmica de fondo y la aparente prevalencia de materia en vez de antimateria,
justamente porque son producto de una “superficie escondida”.
Conexiones interUniversos: Según Wheeler, en la espuma cuántica, los agujeros negros y los agujeros de
gusano en dimensiones de 10-33 cm se supone que aparecen y desaparecen cada 10-44 segundos; pero su
gran masa (10-5 gramos) les dotaría de una velocidad de escape mayor que la velocidad de la luz
(superluminal) lo que ocasiona grandes distorsiones en la estructura del espacio-tiempo, lo que lleva a la
conclusión de que el inicio del Universo no pudo ser, en consecuencia “suave ni terso”. Este criterio es
objeto de controversias. Por ejemplo en 1990 Sydney Coleman y Stephen Hawking teorizan que es posible
conectar puntos del espacio del Universo conocido (Nuestro Universo) y otros Universos lo que afecta la
constante cosmológica que se utiliza en los cálculos de la edad del Universo y la hace inefectiva. Luego en
1993 Matt Viser teoriza acerca de que los agujeros de gusano lejos de producir distorsiones ayudan a
estabilizar las conexiones interUniversos y en 1994 Kazvo Qhoroku, reafirma esta predicción. Lo asombroso
de estas últimas dos teorizaciones es que los cálculos de Wheeler se refiere a la liberación de energía del
orden de los 10-105 ergios por cm3, energía que es muchísimo mayor que toda la masa de galaxias de
nuestro Universo concentradas en un solo centímetro.
Universo y Vida: Para Hawking la presencia del hombre sólo es posible en un Universo en el que predomina
la materia y no la antimateria y aquí su planteamiento converge con el de otros cosmólogos que señalan que
el rol de observadores es de mayor importancia de lo que usualmente se piensa, pues al igual que lo que
hacen las partículas microscópicas, la presencia humana afecta de alguna manera no predecible las
propiedades del Universo como un todo. Volviendo a Einstein, este afirmó una vez que “Es mejor que Dios
tenga alguna escogencia en la creación del mundo”, y sobre este punto Hawking al referirse a la posibilidad
de un Universo que se crea, expande, se detiene en la expansión, decrece y vuelve a comenzar, sea para ser
igual al actual (como sostienen algunos cosmologistas) o para ser “reprocesado” (como lo afirma la teoría de
Brandon Carter, y Robert Dicke) ha dicho que solo ciertas condiciones iniciales pueden dirigir la evolución
del Universo hacia un estado en que emerja la vida tal y como la conocemos.
3.- TEORÍA DE LA INFLACIÓN
El modelo “standard” del B.B. con el que los cosmologistas han tratado de trabajar el desarrollo y el
perfeccionamiento de las teorías para compararlas con lo observado servía para explicaciones en que no
entraban los nuevos parámetros bajo los cuales se trabaja, derivados del uso de la teoría
denominadas(Teorías de la Gran Unificación) GUT dado que los “monopolos magnéticos” que fueron
postulados teóricamente como producto del B.B. en estas teorías llevan necesariamente a la conclusión que
su masa total debe ser tan grande que la expansión del Universo debería haberse parado y reversado hace
muchos años.
“Domain walls” (barreras cósmicas).- Esto llevaba a plantear, a su vez, la existencia de barreras (“domain
walls”) y de cuerdas cósmicas en el vacío (“vacum strings”) que de existir, serían estructuras muy maleables
y excesivamente enormes generadas en las fluctuaciones cuánticas, cuando el Universo quebró
espontáneamente su simetría. Una típica estructura tipo cuerda tendría un grosor de 1029 metros, una
longitud de 15 millones de galaxias, pero las observaciones, no han podido encontrar estas formaciones;
dejando, por lo tanto, serias dudas acerca de la validez de las teorías que predicen su existencia en grandes
cantidades en el Universo.
Expansión Inicial.- Este problema ha obligado a buscar mejores modelos y para inicios del año 83 los físicos
estaban siendo atraídos por una idea sugerida por Alan Guth, físico norteamericano quien llamó a su teoría
“Universo Inflacionario” que se derivó de haber aislado dos fases diferentes de la teoría clásica del B.B. Una
de ellas consiste en asumir en las primeras etapas del nacimiento un Universo netamente homogéneo y la
otra es partir del supuesto que para explicar el actual Universo observable necesariamente éste debe haber
pasado por un proceso de expansión rápida, a partir del momento 10-55 segundos y por último asumir que
estos dos hechos son consecuencia directa de lo sucedido en la primera fracción del segundo hecho, más que
deberse a condiciones específicas del primero.
Areas No Conectadas ente si.- Debido a la existencia de teorías que describan lo ocurrido antes de un
instante que el sitúa en 10-39 después del B.B., el Universo ya consistía en más de 1080 regiones que no
estaban conectadas entre sí, esto es que no había posibilidades ni tiempo para que la luz u otras
manifestaciones energéticas pudieran desplazarse para “viajar” entre ellas. Y si esto se acepta no hay
razones para pensar que estas posiciones pudieran preverse.
Esta situación de la casualidad de la diferenciación está más claramente evidenciada por la radiación
uniformemente dispersa de 3° Kelvin detectado en el Universo, uniformemente disperso en todas las
direcciones, pero en regiones del espacio en donde se detecta una temperatura mayor no es por el resultado
de la conexión causal con esa relación de fondo, justamente por la falta de conexión entre ellas y su
contorno, por lo que lo producido es una serie de “burbujas de vacío asimétrico” en las regiones donde las
fuerzas no gravitacionales tienen propiedades disímiles, expandiéndose en un “vacío superfrío, en proceso
de inflación o expansión de carácter simétrico en razón de la similitud de propiedades de las fuerzas no
gravitacionales.”
¿Expansion o Contraccion? .-- A la fecha no hay conocimiento acerca de si las condiciones apuntan hacia un
Universo en expansión para siempre o si eventualmente se colapsará, pero todo parece indicar que se está
cerca de la línea divisoria que separa una posibilidad de la otra; en otras palabras todo depende de la
cantidad de materia que permite detener el proceso (si hay suficiente) o si es insuficiente para crear el efecto
de detención de la expansión para iniciar su retroceso. Esta situación se denomina en física el problema de la
“ausencia de planaridad” (flatness), debido a que la curvatura del espacio determina el coeficiente de
expansión.
Fase de Transición.- En la teoría de Guth los problemas que causa la necesidad de ajustarse a los valores de
la constante de Hubble se constriñen al parámetro inicial durante el cual la tasa de expansión se “incrementa
con el tiempo”. Al contrario de la predicción de la teoría standard del B.B. que expresa que desde el primer
instante el coeficiente de expansión ha disminuido continuamente; Guth para obtener una aceleración
establece "una fase de transición en la historia del Universo Muy Temprano" (Very Early Universe). Esta
fase de transición que Guth señala es observable rutinariamente en la Tierra (el agua que se convierte en
vapor de agua; el hielo que se congela) encuentran un equivalente en el paso de un medio de “vacío
simétrico” a uno de “vacío asimétrico” que habría ocurrido cuando la temperatura cayó a menos de 10-28
grados K. Pero este cambio no ocurrió en todos los sitios simultáneamente, sino a ritmo lento, lo que hizo
que en los sitios en que no se manifestó la asimetría del vacío el Universo mantuvo su simetría y al
expanderse se enfrió debajo de su temperatura crítica.
Fue precisamente en esa etapa que la aceleración y la expansión exponencial tuvo lugar, con lo que el
tamaño del Universo es calculado con un valor que oscila entre 1020 hasta 1030 veces más de lo supuesto.
El calor latente de la transformación de una fase a otra, esto es, la diferencia en los niveles energéticos en los
estados al vacío, es suficiente para recalentar al Universo de manera que pasada la fase de transición, a partir
de aquí su evolución sigue los patrones clásicos de un modelo de B.B. standard, con un exceso de materia
sobre la de antimateria.
El problema de la Planaridad.- Con el modelo propuesto la homogeneidad del Universo tiene una
explicación natural, dado que regiones pequeñas, aún muy cercanas una de la otra antes de la transición
fueron expansionadas en su tamaño por la expansión exponencial que no pueden ahora afectar el total del
Universo observable. De la misma manera la teoría resuelve el problema de la ausencia de planaridad, pues
ninguna materia independientemente de su curvatura inicial tiene un valor mucho menor después del
enfriamiento rápido experimentado por la vecindad homogénea, para lo cual Guth propone como ejemplo el
proceso que sufre un globo al inflarse, en que al inicio su radio es pequeño pero su curvatura grande, pero
conforme se infla la curvatura y consecuentemente el radio decrecen, con lo que siguiendo éste símil un
Universo expandiéndose será más y más plano con lo cual no puede recolapsarse.
Pero dado que aparentemente Guth resolvía todos los problemas que plantea el B.B., aún así remozado, lo
cierto es que la observación no muestra un Universo compuesto por objetos aislados, fríos, pequeños pues
como resultado de pasar de la fase de transición hasta su final, las regiones aisladas del vacío asimétrico
existente en el Universo simétrico con crecimiento inflacionario exponencial deben crecer y asociarse, que
es justamente lo observable. A principios de 1982, un grupo de científicos americanos, soviéticos e ingleses
trabajando por separado, comenzaron a buscar un modelo que con base en los planteamientos de Guth
retuvieran las ventajas que son muchas, pero que resolvieran las desventajas, que son pocas.
Otra solución.- La solución obligó a recurrir a la física cuántica y consiste en idear un mecanismo de ruptura
espontáneo de la simetría pero usando la fase de transición de diferente manera, pues la imaginan no en la
preexistente superfina superficie de fondo, sino en un estado de envoltura simétrica que envuelve cada
región en que se rompe la simetría.
Los subsecuentes eventos siguen los planteamientos de Guth, con toda la materia de radiación permanente
presentes siendo diluidas por un factor enorme “huge factor”. En efecto la región del espacio - tiempo que
puede ser observada hoy día con los grandes telescopios tiene un diámetro de justamente un centímetro al
final del período inflacionario y éste, a su vez es parte de una conexión casual del espacio 1020 veces
mayor. Como al principio la principal contribución a la densidad energética es el calor latente de la fase de
cambio (o intermedia) que genera toda la masa energía ahora observable y con un volumen 1060 veces
mayor que el que fuera predicho por el modelo estándar del B.B.
En julio de 1983 un taller de trabajo en el que participaron teóricos físicos y matemáticos, efectuado en la
Universidad de Cambridge, sin embargo y luego de un trabajo independiente - utilizando diferentes técnicas
todos los grupos - llegaron a la conclusión que efectivamente existe un mecanismo para producir
perturbaciones que llevan a una ruptura espontánea de la simetría bajo los mecanismos propuestos por Guth
y las modificaciones posteriores.
Lo curioso del caso es que todos llegaron a la conclusión de que éste llevaría a la constitución de agujeros
negros en vez de galaxias con lo que, apenas con seis meses de nacido el modelo teórico se declaró
“oficialmente fallecido” y de inmediato los científicos se dieron a la tarea de buscar un nuevo modelo de
Universo Inflacionario proceso que prosigue con los trabajos de Guth, por una parte ,luego hay otra
propuesta de Steindard y también otra debida a los cosmólogos soviéticos Linde y Starobinski por aparte..
4.-DE LA EXPANSIÓN A LA MUERTE DEL UNIVERSO
La constante de Hubble, esto es el indicador que mide el proceso de expansión del Universo, deducido por el
de la recesión de las Galaxias, muestra que cada una de ellas, como un todo, están recediendo a una
velocidad directamente proporcional a su separación de la Tierra, no porque la misma sea el centro del
Universo, sino porque es el único lugar de observación que tiene la ciencia. No importa en dónde se
encuentre el sitio de observación, el retrato es el mismo porque el Universo, en términos medios es
isotrópico, esto es cuenta con la misma densidad cualesquiera sea el lugar hacia el cual se observe.
Aunque originalmente no queda claro en los primeros modelos del B.B., se da la idea de una explosión que
lanzó al espacio la materia condensado que luego se expandió y comenzó a llevar un espacio preexistente;
sin embargo en su real acepción el modelo estándar aceptado lo que plantea es un mecanismo de aparición
primero de radiaciones, que se transforman luego en materia, la cual se separa por el estiramiento del
espacio en un largo período. Así, el resultado del Universo observable es la consecuencia del nacimiento en
un punto, debido a una fluctuación cuántica que origina la energía (radiaciones), la materia (su
transformación posterior), pero también origina el espacio y el tiempo, tal y como lo entendemos.
Cálculos.- El deterioro final del Universo dependerá de si la expansión se mantiene o no para siempre y hay
dos formas de determinarlo. Una: mediante el cálculo de la velocidad de la expansión, lo que se hace
mediante la medición del corrimiento al rojo y de las distancias a las que se encuentran formaciones que se
suponen muy antiguas, tales como los quasars. La otra: mediante el cálculo de la densidad de materia
presente en el Universo la cual actuaría como un freno hacia el proceso de expansión de la misma, siempre y
cuando la densidad tenga un valor por encima del “valor crítico”. Por lo contrario, si la fuerza está por
debajo de un valor crítico no puede frenar el proceso de expansión.
La edad del Universo se puede calcular estimando la edad de ciertos elementos radioactivos de estrellas de
los cúmulos globulares y luego se hace con el tiempo que debe haber tomado al Universo llegar a su tamaño
actual en el evento que siempre se haya mantenido el mismo coeficiente de expansión que muestra hoy, lo
cual es una presunción de inicio); quedando a salvo el proceso inicial de inflación propuesto por Guth (y
más tarde modificado por otros).
En consecuencia para este modelo evolucionista, que no es el admitido por los cosmologistas partidarios de
la explicación del Estado Estacionario, esto es, uno que nunca se modifica y por lo tanto crea continuamente
materia para mantener o reemplazar la que escapa más allá de ciertos confines, todo se resuelve si se logra
determinar el valor de cuatro variables:
1) El valor actual de la rata de expansión (Constante de Hubble).
2) Los cambios en el “parámetro de desaceleración” de la ruta de expansión.
3) La densidad actual de la materia.
4) La edad del Universo
Densidad de la Materia.- El valor actual de la densidad de la materia presente en el Universo es fundamental
para determinar si la atracción gravitacional detiene o no el proceso de expansión. Si el proceso de
expansión se detiene y es cierta la teoría del B.B., el destino del Universo es un gran colapso (Big Crunch).
Si el proceso de expansión no se detiene pueden ocurrir a su vez dos posibilidades, que depende del valor de
un artificio matemático que algunos cosmologistas consideran prescindible y otros imprescindible y es la
denominada “constante cosmológica”.
Una posibilidad es: que el Universo se expanda para siempre a una velocidad constante, si el valor de la
constante O). En el caso de que el Universo sufra cosmológica es mayor que cero( un colapso por reversión
de la expansión observada la constante O). cosmológica tendría un valor menor que cero(
Planteadas así la cosas los cosmólogos tienen dos hipótesis para el futuro del Universo, uno se refiere a los
eventuales sucesos del Universo que reverse el actual proceso observado de expansión y otro para aquel en
que el Universos se expande por siempre. En el segundo caso la respuesta debe buscarse en lo que sucede en
las estrellas, pues extrapolando el modelo es posible imaginar lo que puede ocurrir a nivel del macrocosmos.
Pero, como resulta que el comportamiento de las estrellas depende en mucho de su masa, los astrónomos
han tomado la masa del Sol como un patrón de referencia para los cálculos.
Evolución Estelar.- Debido a una serie de fenómenos que dependen del tamaño de la masa de la estrella
pueden seguirse dos posibles líneas de comportamiento bien diferentes, pero ambas originadas por la forma
en que terminan su vida las estrellas. Debido a la gravedad de la materia tiende a colapsarse sobre si misma
buscando el centro de su masa. En una estrella esta fuerza centrípeta se encuentra balanceada por la
radiación calórica externa y por la radiación que emite el centro de la estrella como resultado de su actividad
de combustión que convierte el hidrógeno (materia básica constitutiva de las estrellas), en helio, éste en litio
por varios millones de años, hasta que la estrella agota su combustible nuclear y comienza a contraerse.
a) Si la masa de la estrella es menos de 1.4. la masa solar sufre una serie de cambios que la convierten en
una “enana blanca”, compuesta de un núcleo de hierro y con un intenso campo gravitacional compuesto de
electrones que se mueven libremente y conforme radia la energía remanente pueden enfriarse para crecer
convirtiéndose en una “enana blanca”.
b) Si la masa es mayor de 1.4. se convierte en una “ estrella neutrónica” que es más compacta que el ejemplo
anterior, pues los electrones están tan fuertemente presionados que lanzados al núcleo de la estrella, se
combinan con los protones para formar neutrones, que constituyen la totalidad de la materia de este tipo de
estrellas. Si la masa es de 3 o más masas solares luego de una expansión como supernova, la gravedad es tan
fuerte que el colapso llega a un punto tal que la estrella se convierte en un “agujero negro” y toda la masa y
la energía entran en un vórtice rotacional que “engulle” todo a su alrededor y no deja escapar nada, siquiera
la luz (a juicio de algunos cosmologistas) o tiende a evaporarse según postula Stephen W. Hawking.
Proceso en el Tiempo.- Pueden ocurrir dos escenarios básicos en uno propenderá el calor, si el Universo se
contrae , en otro el frío ,si el Universo se expande, pero en ambos casos el final es la destrucción del
Universo.
Escenario en el caso de que el Universo se expanda:
1.-Se teoriza acerca de que, de acuerdo a la cantidad de energía que las estrellas radian en nuestra galaxia,
por ejemplo, todas las estrellas habrán llegado a su final en cerca de 100 billones de años y la galaxia será -
en ese entonces - como un sistema de agujeros negros y de otros cuerpos fríos - que por ser más pequeños
que la masa del Sol no son afectados por su propia gravedad - balanceando más la compresión a la que lo
someten fuerzas externas. Esta situación de quietud puede darse por miles de millones de años y poco a poco
se irá formando en cada galaxia un compacto núcleo central rodeado de materia menos densa. En unos casos
es posible predecir que algunas estrellas colidan entre si y pueden ser expulsadas de las galaxias, pero tales
colisiones son tan escasas que esta clase de sucesos no pueden pasar sino una vez cada billón de años.
2.- Se calcula que en un billón de billón de billones de años (notación inglesa) , cerca del 99 por ciento de la
estrellas pueden escapar de la galaxia de esta forma. En un cúmulo de galaxias, cada una llegará a ser un
“agujero negro galáctico” con tendencia a congregarse en un núcleo central siguiendo el mecanismo anterior
propio de cada galaxia y muchas galaxias tenderán, también a escapar del cúmulo por colisiones entre
galaxias. Finalmente en cada cúmulo habrá un “agujero negro supergaláctico” de entre 10 a 1000 veces más
masivo que el agujero negro galáctico.
3.- En unos 1027 años el Universo consistirá de agujeros negros galácticos y supergalácticos regulándose
entre sí, circundados de estrellas neutrónicas, estrellas enanas y pequeños agujeros negros. La temperatura
de un agujero negro supergaláctico puede ser de alrededor de apenas 10-18 grados K., y si la temperatura del
espacio intergaláctico fuera mayor el agujero negro absorberá más energía que la que emite (porque según la
teoría de S.W. Hawking) el agujero negro no perdura para siempre y radia energía como si fuera un “cuerpo
negro”, con una temperatura inversamente proporcional a su masa. Pero como el Universo se expande la
radiación de fondo tiende a bajar su temperatura, por lo que para mantener el equilibrio térmico, emitirá
energía y dado que un agujero tiene un período de vida proporcional al cubo de su masa en unos 1090 un
agujero negro galáctico y unos 10100 un agujero negro supergaláctico habrá desaparecido.
4.- Los restantes objetos supervivientes luego de esos 10100 años tendrán una radiación tan baja que todos,
juntos con el espacio de fondo llegarán a la temperatura de cero absoluto. Por efecto de la “mecánica
cuántica” todos los objetos remanentes después de la desaparición de los agujeros negros (excepto las
estrellas neutrónicas), estarán en proceso de fusión nuclear hasta llegar a formar núcleos densos y estables
de hierro en uno 10500 años.
5.- Las estrellas enanas blancas y las neutrónicas ya no por fenómenos de interacción, pero si por fenómenos
de colapso espontáneo, debido al efecto de “túnel cuántico” comenzarán a comprimirse más en unos 101077
años que se llama la “edad de Dyson”, en honor del astrónomo F. J. Dyson quien ha hecho tales cálculos y
se convertirán en agujeros negros que se evaporarán según ha predicho S. W. Hawking. Aunque es difícil
predecir que ocurrirá a pequeños trozos de materia y a las partículas elementales remanentes y es posible
que a la “edad de Dyson” toda la materia se convertirá en una especie de “ vasto mar de radiación”.
6.- El concepto de tiempo requiere de fenómenos para usarlos como parámetros; pero aventurándose en
ellos, se predice que la última manifestación será el decrecimiento de la densidad de la temperatura por su
proximidad al cero absoluto, lo que no significa que cesen los procesos físicos, pues las leyes de la mecánica
cuántica señalan que no existe un concepto real de “vacío”, pues estará lleno de partículas “virtuales” de
toda clase que están constantemente siendo creadas y luego destruidas.
7.- La energía necesaria para la producción de estas partículas está determinada por el “Principio de la
Indeterminación” que establece, entre otros aspectos, que si un sistema existe por un período breve de
tiempo, su energía es necesariamente incierta por una cantidad que depende de la duración de su existencia,
y si esto ocurre así con las partículas virtuales, debido a su corta duración son capaces de obtener la energía
de una fuente que depende a su vez del principio de lo indeterminado. Este fenómeno es conocido
actualmente en la física cuántica como el mecanismo de las “fluctuaciones del vacío” y sus efectos han sido
observados como una ligera fuga en los niveles energéticos del átomo del Hidrógeno, conocido tal efecto
como “Fuga de Hamb”.
8.- Según S. W. Hawking el vacío puede estar lleno de “agujeros negros virtuales” de únicamente 10-33
centímetros de diámetro que engullen partículas como electrones y protones causándoles su desintegración y
la escala de tiempo para ello puede ser muy larga, por lo que no hay razón para pensar que las fluctuaciones
del vacío pueden continuar indefinidamente, por lo que siempre habrá actividad en el Universo, aún solo si
esta es microscópica.
9.- La posibilidad de una reducida civilización para existir luego de los acontecimientos que causan la
desaparición de la energía emitida por las estrellas, requeriría tener la posibilidad, a su vez, de extraer
energía rotacional de un agujero negro que rote por un mecanismo especial que lleva el nombre de
“Teorema de Penrose”.
10.- Civilizaciones obligadas en estos períodos de un Universo en expansión a vivir en tales condiciones, en
el caso de que sobrevivan, pueden teóricamente utilizar energía derivada de los agujeros según predice
Penrose y dado que el radio de estos es corto (un año luz, pese a su tamaño intrínseco) estas civilizaciones
podrían entrar fácilmente en contacto entre sí al suplirse de energía de un mismo agujero negro al menos por
un período de 10100 años; pero dado que la energía requerida para la sobrevivencia es mucha, los agujeros
negros quedarían sin esta energía en unos justamente 10100 años salvo que se logre inventar mecanismos
para guardarla, dado que los derrames de energía en un solo segundo es de proporciones enormes.
Escenario en el caso de que el Universo se contraiga:
En el caso de que, contrario a esa visión de un Universo en expansión si se trata de un Universo cerrado, la
gravedad atraería a las galaxias para juntarlas nuevamente, en un proceso reversible al producido por el
B.B.. En este caso, pero dependiendo en mucho de la densidad de la materia, que es la que puede causar la
detención del proceso de expansión, esto puede ocurrir cuando el Universo tenga un diámetro de 40 a 50
billones (notación inglesa) de años luz, para lo cual se requiere introducir los cálculos al doble de a densidad
actualmente detectada.
1.- Así en unos 50 mil millones de años, excepto si éste fuese mayor que esta cifra arbitraria, el Universo se
presenta prácticamente como ahora. Al comenzar el proceso de contracción, la temperatura debería haber
llegado a tan solo 1.5. grados Kelvin.
2.- Unos 110 mil millones de años, a partir de ahora, el Universo tendrá el tamaño actualmente conocido, un
diámetro cien veces más pequeño que el actual conocido, esto es 20 billones de años luz y su temperatura
habrá subido a 300 grados Kelvin.
3.- Cuarenta millones de años después la temperatura de radiación circundante será igual a la que tiene la
Tierra actualmente y todos los planetas del Sistema Solar serán inhabiables.
4.- Poco a poco el Universo se irá llenando - conforme aumenta la temperatura - de radiaciones que irán del
rojo al amarillo y luego al blanco, las estrellas estallarán y todo quedará reducido a plasma caliente.
5.- Al cambiar las condiciones de la materia, la energía también lo hará y poco a poco la temperatura llegará
a miles, luego millones y después millones de millones de grados.
6.- Primero la materia, luego las moléculas, los átomos y las partículas atómicas después, se irán
desintegrando hasta quedar todo reducido a una "sopa primordial" de partículas exóticas.
Pero esta situación acelerará el colapso: los agujeros negros empezarán a comprimirse; el espacio - tiempo
dominado por la gravedad se colapsará y quedará reducido a dimensiones más y más pequeñas, hasta - por
último - desaparecer en la nada
SÍNTESIS DEL ESTADO DE LOS MODELOS COSMOLÓGICOS
De la información extraída de esos cuatro retratos del Universo afloran un cúmulo de certezas y de dudas
sobre la explicación cosmológica del B.B. que pueden resumirse en estos puntos:
1) Los modelos cosmológicos del B.B., explican adecuadamente las características observadas del Universo,
en particular su expansión, que arrastra en el mismo movimiento a todas las galaxias. No obstante, algunos
problemas siguen sin solución en el marco de estos modelos. En particular, los astrofísicos son incapaces de
comprender cómo se pudieron formar las galaxias. ¿Se trata de pequeños detalles pendientes de solución o
de problemas fundamentales que invalidan toda la cosmología?
2) La introducción de las recientes teorías de la física de partículas aportaba a los modelos cosmológicos
modificaciones originales que permiten resolver los problemas del B.B.: durante una fracción del primer
segundo de su existencia, el Universo pudo haber sufrido una evolución totalmente especial, una “inflación”,
la que explica las “paradojas” del modelo estándar del B.B. y permite comprender mejor la formación de las
galaxias. Desde su introducción, el modelo inicial ha ido modificándose, pero la idea de la inflación
cosmológica se ha convertido en un elemento fundamental en la construcción de las teorías en física de
partículas.
3) Si las distancias entre dos galaxias o entre una galaxia y la nuestra - aumentan indefinidamente, se debe,
por tanto, a que el Universo se dilata. Pero esta dilatación, cuyo origen se remonta a la explosión primordial,
es frenada por la atracción gravitatoria del Universo sobre sí mismo. ¿Es la expansión lo bastante rápida para
vencer para siempre esta atracción que la frena? La única forma de responder a esta pregunta requiere el
conocimiento del contenido del Universo: ¿contiene suficiente masa para que su efecto gravitatorio frene la
expansión?
4) El Universo, actualmente, no es homogéneo: estrellas y planetas están separados por grandes espacios
vacíos y, a mayor escala, las galaxias están también separadas por grandes vacíos. Pero la distribución de los
cúmulos de galaxias parece muy regular en todas las direcciones en que se observe (isotropía) y a todas las
distancias. El Universo aparece por tanto cada vez más uniforme a medida de que se lo considera a una
mayor escala suficientemente amplia. Pero, si actualmente es uniforme, tuvo que haberlo sido mucho más en
el pasado. Si hubiese habido, hace algunos miles de millones de años por ejemplo, fuertes
inhomogeneidades, éstas sólo habrían podido acentuarse por efecto de la gravitación, cosa que excluyen las
observaciones actuales. El Universo de hoy tiene que provenir, por tanto, de una situación anterior todavía
mucho más homogénea que la que vemos actualmente.
5) Esto es corroborado además por el estudio de la radiación de radio de fondo del Universo. Esta radiación,
que detectan ahora los radioastrónomos, fue emitida hace mucho tiempo, tan sólo un millón de años después
del B.B. (mientras que la edad actual del Universo es próxima a los 15.000 millones de años). Se trata pues
de un “fósil”, de un testigo del Universo tal como era entonces: su perfecta isotropía nos confirma que el
Universo era muy homogéneo en aquella época. Resulta entonces natural pensar que esta homogeneidad era
el resultado de la acción anterior de un proceso uniformizador. Pero, cualquiera que sea el proceso
imaginado: de tipo nuclear, (cosmología B.B.), o electromagnético (Cosmología del Plasma), o de cualquier
otro, éste sólo pudo desempeñar un papel local, debido a una simple cuestión de tiempo; ninguna señal, en
efecto puede propagarse más de prisa que la luz; las zonas susceptibles de haber sido homogenizadas
tendrían por tanto, necesariamente, una extensión limitada, mucho más limitada que la parte visible del
Universo.
6) Para fijar las ideas, un millón de años después del B.B. ( en el momento en que emitió la radiación de
radio de fondo del Universo ), estas zonas no podía superar un millón de años luz, mientras que la parte
actualmente visible del Universo (quince mil millones de años luz) ya tenía en aquella época un tamaño de
cien millones de años luz ( la relación es de 1 a 100 ). Cómo explicar entonces que estas zonas tan alejadas,
incapaces de haber sufrido la influencia de un proceso común, sean tan idénticas?, Se pueden considerar tres
posibilidades lógicas: a) Esta uniformidad es una simple causalidad; b) Una ley física aún desconocida
obligada a estas fuentes a comportarse de modo idéntico; c) La reconstrucción de las distancias por el
procedimiento mencionada más arriba es incorrecta y estas fuentes estuvieron efectivamente en contacto en
un pasado lejano, con lo que habría que revisar el modelo de evolución. Esta última solución es la que
sugiere la idea de la inflación porque predice una modificación especial de la dinámica del Universo que
produce el efecto buscado y permite explicar también otros problemas cosmológicos.
7) Si se conociese la densidad actual de Universo, los modelos cosmológicos permitirían conocer su destino:
si el Universo es muy denso, la atracción gravitatoria logrará detener su expansión, que cesará un día y dará
inicio a su contracción, disminuyendo las distancias mutuas de los objetos cada vez más de prisa hasta una
explosión final. Si, por el contrario, el Universo es muy poco denso, su expansión durará eternamente.
Podría suceder que el Universo estuviese exactamente en la frontera entre estas dos posibilidades. Esto no
sólo sería posible si su densidad de masa poseyese un valor concreto (ni demasiado alto no demasiado bajo)
llamado densidad crítica (dc°) que corresponde a una masa de cinco partículas (protones o neutrones) por
metro cúbico. Todavía no sabemos si la densidad media del Universo es superior o inferior a este valor. Esta
se mide, en efecto, contando las galaxias y evaluando sus masas, pero estas medidas son muy delicadas y,
por tanto muy imprecisas.
8) La evaluación de la masa “visible” (por ser luminosa) de las galaxias depara un valor próximo a la décima
parte de dcº. Pero existen muy fuertes razones para pensar que una gran parte ( quizá el 90% al 95%) de la
masas del Universo no es luminosa y resulta pues invisible. Todo lo que se puede decir por el momento es
que ésta está comprendida entre dc/10 y 2dc. El final es por tanto incierto. Sin embargo, todos los modelos
cosmológicos presentan una curiosa característica. Si en un momento dado la densidad del Universo se
aparta de la densidad crítica dc; la distancia relativa ( ddc ) / d sólo puede crecer con el curso del tiempo.
Este detalle de la evolución nos asegura que estas separación (un factor 10 como máximo actualmente) era
mucho más pequeña anteriormente. Un segundo después del B.B., los modelos proveen una diferencia
relativa inferior a 10-33.
9) Si se retrocede todavía más, hasta 10-36 segundos después del B.B., por ejemplo, el intervalo se hace más
pequeño que 10-53. Dicho de otro modo, si en aquella época la densidad hubiera excedido a la densidad
crítica en una fracción tan pequeña como 10-50, el Universo ya se habría contraído hace mucho tiempo. Si la
separación hubiese sido en el otro sentido no se habrían podido formar las galaxias en un Universo lleno de
gas muy diluido. ¿De dónde viene este extraordinario equilibrio entre lleno y vacío?. Se llama esto el
problema de la planaridad (flatness) ya que, cuando la densidad es exactamente igual a la densidad crítica, la
curvatura del espacio es nula, es “plano” y su geometría es euclidiana ( si no se la clasificaría como
riemanniana). Si no hay nada que explique tal coincidencia, sólo queda atribuirla al azar; así que el único
modo de evitarlo - una vez más - proviene de la idea de la inflación.
10) La existencia de las galaxias plantea a los cosmólogos otro problema no resuelto. Se cree, en efecto, que
las galaxias nacieron debido a la presencia de muy pequeñas fluctuaciones de densidad: al atraer las regiones
densas la materia de las regiones menos densas, estas pequeñas fluctuaciones se acentuaron (después de la
recombinación, de modo que esto no contradice la isotropía observada del fondo difuso cosmológico) hasta
la condensación en las galaxias separadas por grandes vacíos.
11) Pero para ello se requieren fluctuaciones de una amplitud muy precisa: demasiado débiles sólo hubiesen
conducido a nubes de gas; demasiado fuertes habrían engendrado objetos mucho más densos, como los
“agujeros negros”. El nivel requerido para estas fluctuaciones corresponde a aumentos locales de densidad
del orden de 1/10000 en valor relativo. Además, Edward R. Harrison, de la Universidad de Massachusetts en
Estados Unidos, y Yakow B. Zel'dovich, del Instituto de Problemas Físicos de Moscú, han llegado
independientemente a la conclusión de que la producción de galaxias requería, muy pronto en la historia del
Universo, la presencia de fluctuaciones de densidad de características especiales: todas las fluctuaciones
locales de densidad tenían que tener la misma amplitud, tanto si se extendían un centímetro, un kilómetro o
un año luz, algo así como si en la superficie del mar la amplitud de la menor ola pudiera igualarse a la de las
más fuertes mareas.
12) Los físicos y los astrofísicos parecen impotentes para encontrar un mecanismo susceptible de generar
tales fluctuaciones y la única solución posible en el estado de nuestros conocimientos: es la inflación. Si el
Universo pasó por una era de inflación, se habrían podido generar las fluctuaciones y además con las
características adecuadas. De allí que se comprenda el interés de los cosmólogos por esta idea.
13) Todo lo que acaba de exponerse se refiere al modelo standard del B.B.. Ahora bien, agregarle a este
modelo las recientes teorías de “la Gran Unificación (GUT)”, añade su ración de dificultades
suplementarias. Estas teorías son sin embargo extraordinariamente atrayentes desde un punto de vista teórico
ya que agrupan tres de las cuatro interacciones fundamentales (electromagnética, nuclear fuerte y nuclear
débil), como tres expansiones de una misma interacción básica que se diferencia en ciertas circunstancias, en
un proceso llamado rotura de simetría.
14) Esta ruptura tuvo que producirse muy pronto en la historia del Universo, cuando su temperatura se
aproximaba a 10-28 grados y su edad era de 10-36 segundos. Pero la teoría prevé entonces la aparición de
partículas muy masivas predichas teóricamente - llamadas monopolos magnéticos - en tal cantidad que
producirían efectos dinámicos opuestos a toda evidencia. Por ejemplo la enorme densidad de masa que
representarían habría detenido hace mucho tiempo la expansión del Universo. Este es un problema más que
encuentra su solución en la teoría de la inflación, que se examina de seguido.
El Mecanismo de Solución es La Teoría De Guth. El modelo standard del B.B. adolece pues de numerosas
insuficiencias. Parece que, al menos para algunas de ellas, la solución puede venir de una modificación de la
teoría de la evolución de las distancias, después del B.B., que es justamente el mecanismo propuesto por
Guth.
Densidad de la Energía: Esta ley de expansión - la variación de las distancias en función del tiempo - es
suave y regular en el modelo estándar : las distancias varían según una ley potencial del tiempo, con un
exponente 2/3 en su fase actual. Esta dependencia particular de la energía contenida actualmente en el
Universo: energía cinética y energía de la radiación pueden siempre asociarse a la presencia de partículas
que se diluyen con la expansión. El resultado es que la energía también se diluye.
En efecto, cuando aumenta un volumen, la energía que contiene no es del todo (o es poco) modificada, de
modo que la densidad de energía(la energía dividida por el volumen) disminuye naturalmente según la
inversa de este volumen. Es un poco distinto si el Universo está lleno de radiación, pero esto no modifica las
conclusiones.
Esta dependencia, llevada a las ecuaciones cosmológicas, conduce a la ley de evolución dinámica del
Universo: las distancias aumentan según una ley potencial del tiempo con exponente 2/3.
Así es como se reconstruye la historia pasada del Universo, y es en este marco en el que se plantean los
problemas enumerados. Sin embargo, si la densidad de energía sólo disminuyese muy lentamente cuando el
volumen aumenta (y no según la inversa del volumen) todo sería muy distinto.
La expansión sería muy rápida, las distancias varían entonces según una ley exponencial del tiempo y no
como una potencia de este último. La relación entre distancia y edad del Universo quedaría por tanto
modificada. La observación crucial del físico Alan Guth ha sido: “que semejante período de expansión
exponencial en los primeros instantes del Universo permitiría resolver todos los problemas citados”. Es a
este período, que puede ser muy breve, al que se llama inflación. ¿Pero cómo se resuelven los problemas que
plantea?.
Homogeneidad: El problema de la homogeneidad encuentra una solución extremadamente sencilla. La
región del Universo que observamos parecía demasiado vasta para que hubiese podido actuar
uniformemente un mismo proceso. Pero si hubo inflación, esta zona sólo es el resultado del hinchamiento
casi instantáneo de una zona al principio minúscula en la que la homogenización pudo producirse sin
ninguna dificultad.
Finalmente, toda la parte actualmente visible del Universo provendría de la “inflación” de una región al
principio minúscula y hecha uniforme por procesos totalmente ordinarios. Si hay inhomogeneidades, éstas
superan la escala del Universo observable y quedan ocultas. Así se explica la isotropía observada de la
radiación de fondo cosmológica.
Planaridad: El mismo efecto aporta una solución al problema de la planaridad: es decir, en efecto, que el
Universo es casi plano, es decir que su radio de curvatura es muy grande (cuanto más grande es el radio de
una esfera menos aparente es su curvatura).
Si hubo inflación, el radio de curvatura sufrió, como las otras magnitudes, un aumento gigantesco en muy
poco tiempo, lo que explica que el Universo sea casi plano. Existe aquí, por lo demás una posibilidad de
“verificar” la hipótesis de la inflación. Esta tuvo que ser tan eficaz que verdaderamente el Universo tiene que
ser extremadamente plano; dicho de otro modo, el cociente d/dc entre su densidad y el valor crítico de la
misma tiene que ser igual a 1. Mediciones futuras de éste cociente (del que actualmente sólo se sabe que está
comprendido entre 1/10 y 2 ) vendrán sin ayuda a confirmar o a refutar esta hipótesis.
Partículas: Otra consecuencia de esta inflación: si en aquella época había ya partículas presentes en el
Universo (por ejemplo, monopolos magnéticos) su número se habría conservado pero dentro de volúmenes
que se han agrandado enormemente; por tanto, ha habido dilución. Por esto sólo subsistirían algunos pocos
monopolos muy diluidos en todo el Universo visible, totalmente incapaces de crear el menor problema ( y
por lo tanto de difícil detección).
Fluctuaciones: En cuanto a los electrones, protones y neutrones, sus abundancias se fijaron después de la
etapa inflacionaria, de modo que el efecto de dilución no les afecta. Finalmente, tal era de inflación
resolvería también el problema del origen de las primeras fluctuaciones (que evolucionarían más tarde en
galaxias). En efecto, la física especial que reinó durante este período hace probable la generación de
fluctuaciones de densidad, exactamente con las características descritas precedentemente (en realidad esto
sólo es cierto en algunas versiones de los modelos de inflación).
Describir el desarrollo de la inflación a grandes rasgos, al menos tal como lo imaginan los cosmólogos para
resolver sus problemas, supone que el Universo se habría llenado, muy pronto después del B.B., de una
energía de un tipo especial insensible a la dilución. Habría empezado entonces un período de muy corta
duración - un ínfima fracción de segundo - pero en la cual longitudes y volúmenes, al aumentar
exponencialmente con el tiempo, habrían podido crecer en un factor gigantesco.
Obstáculo a la Solución De Guth: Está claro que la existencia de un período de inflación en la historia del
Universo suprimiría las principales dificultades que presenta el modelo standard del B.B.. ¿Se produjo
realmente este período? En otras palabras ¿hubo un período de evolución del Universo en el que su densidad
no experimentó un decrecimiento proporcional a la inversa del volumen, sino que permaneció sensiblemente
constante?.
Esto no es posible mientras contenga energía “ordinaria”, es decir energía debida a la masa o a la energía
cinética de las partículas, que se diluyen durante la expansión. Existe, no obstante otra forma de energía -
que no está asociada a ninguna partícula - que no sufre el efecto de la dilución. Tal forma de energía, si está
presente en el Universo, permanece constante en densidad durante la expansión y responde, por tanto, a las
condiciones anteriormente requeridas.
Las Nuevas Soluciones : Teoría de Linde.- Si la teoría original de la inflación de Guth no resuelve el
problema lo hacen otras propuestas, entre ellas la del físico soviético Linde, o las del propio Guth ( nueva
versión ), o bien, las de otros físicos, entre ellos Albretch y Steinhardt.
De este modo puede tomar cuerpo la idea de la inflación, ya que la base física existe: la existencia de una
forma se define por la ausencia de partículas, que no es lo mismo que la “nada”, ni mucho menos.
Campo: Para comprenderlo hay que recurrir a la noción de “campo”, concepto básico en la física de
partículas. Paradójicamente, esta física no razona en términos de partículas sino en términos de campos: el
estado de un sistema se describe no por las partículas que contiene sino por un campo F (X), es decir,
sencillamente, una cantidad matemática F definida en cada punto X del espacio.
Por supuesto es en general posible asociar a una configuración determinada de un campo la presencia de las
correspondientes partículas: al igual que se asocian fotones al campo electromagnético, se asocian partículas
(electrones, protones...) a los campos de materia (electrónico, protónico...). Sin embargo, son estos últimos
(de la misma naturaleza física que el campo electromagnético por lo demás) los que son objeto de la teoría.
En particular, la energía V de un sistema descrito por un campo F(X) es una función V(F) del campo
asociado. Sin embargo, a algunos estados del sistema, no está asociada ninguna partícula.
Estados Vacíos: Para esto estados “vacíos”, el campo toma un valor F constante en el espacio, y la energía
toma el valor V(F) correspondiente que - y éste es el punto esencial - no tiene a priori ninguna razón para ser
nulo. Aparece así esta nueva forma de energía, la energía del “vacío” que no está asociada a ninguna
partícula y cuya densidad no depende del volumen que se considere. Si el estado no es el vacío, sino que
describe un conjunto de partículas, la energía correspondiente es la suma de esta energía del “vacío” y la
energía de las partículas (energía de la masa y energía cinética).
Por tanto, en el Universo pueden existir dos formas de energía con propiedades diferentes. Actualmente
domina la energía “normal”, es decir conforme a una ley potencial del tiempo. Pero, como la energía
controla la expansión, si la energía del vacío fue la dominante en el Universo pasado, tuvo que producirse
entonces una era de inflación, con los efectos beneficiosos que mencionamos.
La idea de la inflación nació cuando Alan Guth, hacia el año 1981, hizo esta observación. En cierto sentido
era fácil ya que las teorías de física de partículas puestas en entredicho eran todavía poco conocidas, todavía
desconocidos, de los parámetros de teoría de modo que todo fuese bien.
Si hubo inflación, ésta tuvo pues que terminar. ¿Cuándo y cómo?. Fue contra esta sencilla pregunta que
chocaron de hechos los primeros modelos propuestos. La existencia de la inflación se basa en la naturaleza -
energía del vacío - del contenido del Universo. Esta energía depende del comportamiento del campo F que
se halla en el estado vacío. Es por tanto la dinámica de este campo F la que determina la existencia y el final
de una era de inflación. Y es, por tanto, la que discrimina los diferentes modelos propuestos.
Transición Brusca vs. Suave: En todos los modelos de inflación, el campo evoluciona desde un valor inicial
F (que asegura la inflación ya que la correspondiente densidad de energía es no nula) hasta otro valor F ( de
densidad de energía nula) en el que termina la inflación.
Este era el caso del planteamiento original de Guth, pero la transición era demasiado brusca, y esto
implicaba profundas perturbaciones de la densidad que anulaban los efectos beneficiosos de la inflación. El
modelo fue abandonado casi tan pronto como fue postulado; pero ya la idea había sido aceptada y ahora hay
otros modelos que garantizan un comportamiento más regular. Tal es el caso del modelo de A. Albrecht y
P.J. Steinhardt, de la Universidad de Pensilvania, en Estados Unidos, así como por A.D. Linde, del Instituto
Lebedev de Moscú, en el que el paso se hace suavemente. También es el caso del modelo de “Inflación
caótica”, debido a A.D. Linde, en el que el campo F evoluciona lentamente hacia su valor final F en el que la
inflación termina suavemente.
En Busca del Campo: Todas las sutilezas de los modelos provienen pues de los detalles de la evolución del
campo F previstos en teoría pero no detectados aún. ¿Cuál es el campo F responsable de la inflación?: el
campo de fotones asociados a electromagnetismo, o a los asociados a las partículas tipo electrón, protón o
dos asociados a sus interacciones...?
Los primeros desarrollos consideraban que F podía ser uno de los campos normalmente presentes en las
teorías de la GUT. Pero, los modelos se revelaron irreconciliables con la realidad y el campo F tiene que
buscarse en otro sitio.
Como ningún campo conocido de la física de partículas resulta adecuado se tiene que suponer que proviene
de una teoría todavía inexistente: por tanto se introduce por las necesidades de la empresa, de una forma
totalmente ad - hoc. De este modo, la cosmología sugiere a los físicos de partículas la existencia de un nuevo
campo que se podría llamar “inflatón”, cuyas características y forma del potencial V (F) asociado -
garantizan un modelo de inflación adecuado.
Está por verse si los físicos de partículas pueden integrar un campo como éste en sus teorías basándose en
teorías ambiciosas que incluyen la gravitación (propuesta de S. W. Hawking), pero la situación no es muy
satisfactoria ya que la parte “arbitraria” sigue siendo muy importante.
IMPLICACIONES COSMOLOGICAS DE LOS MODELOS
En lo que respecta al modelo del B. B. o el Universo B. B. o bien el Universo Inflacionista, dada la
liberalidad con que los cosmólogos bautizan tales modelos, la situación es esta época es la siguiente:
1) El concepto Universo no se refiere al “todo” (hiperespacio) sino a una región autocontenida del espacio
tiempo inmersa en el hiperespacio del cual no se sabe nada pero en el que se presume han ocurrido y ocurren
permanentemente procesos similares sin que su desarrollo necesariamente desemboque en la formación de
Universos como el Universo físico que conocemos. El reciclaje del Universo conocido - cada vez que ocurre
el fenómeno de explosión si es que ocurriese - no sigue una secuencia igual en cada caso porque la entropía
modifica las condiciones para la existencia del Universo. Expresado de otra manera: en cada proceso de ir de
A (explosión) hacia B (contracción), el estado en A y el estado en B son diferentes cada vez que ocurre tal
proceso. (Si es que ocurre así).
2) No se sabe si la “flecha de la información” es una consecuencia o un residuo de la entropía, o si - por lo
contrario - la información existe a pesar de la entropía. En el segundo caso esta situación implicaría -
necesariamente - una “intencionalidad” cuyo origen o causa no se conoce por parte de la ciencia. De existir
esta “intencionalidad” ésta puede asumir dos eventuales formas: una sería al “azar”, otra sería
“programada”. La eventual programación es la causa principal que origina la disputa acerca de si el
Universo total (hiperespacio) y/o el Universo físico conocido obedecen a causas naturales o a causas
extranaturales. En cada proceso de ir de A hacia B, se pueden dar dos eventualidades, una que las leyes
físicas permanecen iguales o dos que las leyes cambian parcial o totalmente (caso más probable).
3) De existir una flecha que marca un proceso que va de lo simple a lo complejo, en cada proceso en que A
va hacia B, el Universo conocido es el resultado de un caos que evoluciona por causa de una eventual
retroalimentación informativa. En caso de que esto sea así, tal “caos” - nuevamente - puede obedecer o bien
a un accidente (azar) que ocurre en cada proceso en que A va hacia B o bien a una “intencionalidad”. Si
existe una “intencionalidad” el Hombre sería o bien una razón “intermedia” o bien una razón “final” de tal
intencionalidad. Si el hombre es la razón final de esta intencionalidad ésta se daría como resultado de la
concatenación precisa de procesos “estrictamente naturales”, que no requieren de un “Creador”, sino
únicamente de un recorrido informativo pautado que va de la simple a lo complejo; pero también el
recorrido informativo con “intencionalidad sobrenatural” (creación debida a Dios).
4) Si se opta por el Principio Antrópico que no requiere de un Creador, o por la creencia de una “Causa
Primaria” (o “Principio Eficiente”; o a un “Eje Cósmico”) se pasa de la explicación científica a la
explicación metafísica. La explicación científica” se fundamenta en una teoría que fue lanzada en los años
20 del siglo actual a raíz de los planteamientos teóricos de Albert Einstein y de la observación telescópica de
Edwin Hubble, que originan varias teorías relativistas evolucionistas. Una de las teorías relativistas
evolucionistas toma la delantera a partir de los planteamientos teóricos de Lemaitre, y los complementos
teóricos de Gamow, que toma el nombre de Teoría del B. B..
5) La Teoría del B. B., luego llamada Modelo B. B. y más tarde Universo B. B. crea una propuesta conocida
como Modelo Standard que parte del supuesto teórico de una explosión en condiciones extremas cuyos
parámetros están dados por la “frontera de Plank” porque implican un quiebre de las leyes clásicas de la
física. El Modelo Standard que implica un inicio caliente y una condensación infinita de la materia, gracias a
la aparición de nuevos conocimientos debidos a la observación telescópica visual primero, a la observación
“radiotelescópica” luego y a la inclusión de fundamentos tomados de la “Física Cuántica”, originan teorías
complementarias conocidas como Universo temprano o inicial (Early Universe) y Universo muy temprano
(Very Early Universe).
6) El “Modelo Standard del B. B.” comienza a tener cambios profundos a raíz de la inclusión de
conocimientos derivados de la Física de Partículas Subatómicas y las modificaciones teóricas llevan también
a modificar los planteamientos de los modelos complementarios del Early Universe y del Very Early
Universe (aunque en la práctica no se conoce oficialmente modelos de este último).
En la actualidad no se teoriza que la explosión ocurrió en un “sólo punto del espacio tiempo”, sino en lo que
era “todo”, porque lo que justamente apareció en tal explosión fue el espacio, el tiempo y la materia
(caracterizada primero por radiaciones), todo condensado en un punto (“singularidad desnuda”), que luego
se habría expandido.
Quienes arguyen que no existen singularidades desnudas dicen que en vez de ésta lo que existió fue que
antes del B. B., bajo su propia gravedad el Universo se contrae y, en algún momento, la gravedad se cambia
a “antigravedad” lo que causa la oscilación que inicia la expansión actual.
Esta hipótesis admite la existencia - desde siempre - del Universo, pero es refutada por otros que señalan que
en el Universo todo es finito y no renovable ya que una posibilidad de esta naturaleza, no es posible por la
segunda ley de la termodinámica (entropía).
7) Las discrepancias teóricas acerca de si la singularidad desnuda existió o no, ocasionan una serie de
modificaciones a la teoría del B. B., dado que la discusión acerca de la singularidad aparte de tener serios
problemas de cálculo matemático conlleva explicaciones de orden metafísico en los que la ciencia es cauta.
Si se hace abstracción de las implicaciones de carácter metafísico y se mantiene la teoría de la existencia de
la singularidad desnuda el uso de ordenadores electrónicos que permiten hacer “simulaciones de modelos”,
arrojan también serias discrepancias sobre las clases de Universos que pueden resultar. Dado que la
aparición del Universo en condiciones caóticas no tiene relación con la uniformidad que se observa en el
Universo Físico, en los últimos años, se postula un proceso que explica la posibilidad - desde un punto de
vista matemático - para pasar del caos a la uniformidad. Este proceso que se conoce como “Período de
Inflación del Universo”, luego toma el nombre de Modelo de la Inflación y más recientemente se le conoce
como Universo Inflacionario (o expansionista) y parte de la hipótesis de la inflación, independientemente de
si el Universo apareció a partir de una singularidad o no.
8) Pese a dudas y discrepancias el Modelo Standard del B. B. ha recibido dos confirmaciones desde su
postulación: la primera la confirmación directa resultado del cálculo de la abundancia relativa de los
elementos químicos; la segunda con el experimento de Penzias y Wilson mientras que las Cosmologías
alternas a la Teoría del B. B. prácticamente carecen de significación por la siguientes razones:
a) La Teoría de la Creación Continua plantea problemas de aparición de materia no a partir de una
singularidad desnuda sino a partir de incontables singularidades de esta naturaleza.
b) La Teoría de la Cosmología del Plasma solamente enfatiza el papel de las “Corrientes de Bikeland“, como
moderadores de macro estructuras, en sustitución del papel de la gravedad, pero no tiene explicaciones para
el inicio del Universo.
c) Otras teorías y modelos que plantean variantes al Modelo Standard del B. B. (por ejemplo las teorías de
Wheeler, Moffatt, Layser, Godel y otras, generalizando - son de origen relativista evolucionista - por lo que
comparten el mismo origen teórico.
d) La Teoría del Estado Estacionario puede sustituir - desde el punto de vista metafísico - a las Cosmologías
B. B., pero desde el punto de vista científico plantea otros problemas que, a estas alturas del camino
recorrido por la ciencia implicaría aceptar - a priori - la infinitud del espacio y la eternidad del tiempo lo que
no es posible plantear desde el punto de vista científico puro
En consecuencia, en lo que toca a la ciencia cosmológica a la mitad de la década de los noventa no hay
concordancia entre las diversas teorías propuestas y si bien el mecanismo de la inflación resuelve unos
problemas, plantea otros.Sera necesario volver sobre el tema en otros capítulos .
II.- EVOLUCIÓN HUMANA
Para muchos de nosotros, quizá hasta la década de los sesenta o setenta, aunque llenos de dudas y temores,
el mundo, el Universo parecía ser entendible y descifrable si nos empeñábamos. Si acaso la tarea era dura
ahí estaban los libros, o el diccionario - o mejor aún - la enciclopedia que desempolvábamos en la biblioteca
pública y entonces, a la par de las explicaciones recobrábamos la seguridad, o los profesores de la escuela o
del colegio terminaban con las dudas que aún subsistían.
Cuando fuimos a la Universidad todo cambió: el mundo seguro firme y unitario, ahora explicado por
especialistas - muchos de ellos atrasados en sus conocimientos o poco más o menos al día - albergaban más
dudas y de pronto la imagen unitaria, cómoda y sencilla del Universo, del país, de los padres, del presente y
del futuro se comenzó a resquebrajar.
Acudir a otras fuentes, leer mucho, discutir más, abrazar modelos y rehacerlos fue - desde entonces - tarea
que desbordaba nuestro entendimiento y solo quedaban para espantar el caos, aferrarse a una, cualesquiera
de tres posibilidades para volver a “armar el rompecabezas”.
a) Hay un Dios creador del Universo, el Planeta Tierra y del Ser Humano.
b) El Universo, la Tierra y el Ser Humano son los resultados del juego ciego e incesante del azar y la
necesidad.
c) En alguna de las dos versiones - o en ambas - cabrá una variante: la vida se originó en el espacio exterior
y llegó a la Tierra de una u otra forma natural (teoría de la “panspermia”) o traída por seres extraterrestres.
En esta sección se trata de exponer una secuencia cronológica actualizada de la eventual aparición y
evolución humanas; pero bajo la advertencia que si es altamente aventurado hoy día tomar partido por una
teoría que explique a cabalidad la aparición del Universo y dentro de ella de nuestra Galaxia y del Sistema
Solar y de la Tierra; tanto lo es en cuanto a explicar lo que concierne a nosotros mismos ,por tres razones
fundamentales:
a) una es que muchos no reconocen , bajo ninguna circunstancia (caso del protestantismo fundamental) que
haya habido ninguna evolución humana y esa materia de fe se enseña en las escuelas y colegios en EUA
,aunque luego esos mismo alumnos vayan a las Universidades a conocer otros senderos distintos.
b) otra es que la Iglesia Católica , a raíz del diferendo con Darwin, si bien no incluye en sus enseñanzas
posiciones tan fundamentalistas, si ha prohibido las ideas de aceptación de evolución planteadas por
Theildhard de Chardin.
c) en definitiva la población en Occidente que se encuentra bajo la enseñanza cristiana (no importa su
denominación) a la vez que sostiene que Dios es el creador del ser humano ( Adán y Eva) no tiene reparo
alguno en aprender y difundir la idea de la evolución humana procedente de la ciencia, aunque no hay
claridad meridiana acerca de si descendemos del mismo tronco que los monos o un mismo tronco, pero de
ramas separadas.
La mejor forma de introducirnos en el tema es seguir la secuencia que se imparte en colegios de enseñanza
media sobre el tema y adaptar textos más especializados para de esa conjunción hacer un cuadro que permita
conocer que es lo que se enseña en la época bajo examen en torno a la Evolución Humana. Como ejemplo
familiar: en mi casa lo que se conoce y discute sobre el tema tiene tres visiones no coincidentes del todo: la
generación que frisa en los 70 años en adelante no desea saber nada de la nueva enseñanza que califica de
atea, la generación de los 40 años, tiene la mente abierta, pero mucha confusión entre lo que ellos
aprendieron y lo que ahora se enseña a sus hijos y la tercera generación de entre 20 años hacia abajo, no
tiene la menor duda de que lo que se les enseña es la verdad científica ,que no concilia con lo que dice la
Biblia que leían más jóvenes.
Época remota: En el nuevo modelo evolutivo ya que no es lineal, como en los planteamientos de Darwin,
sino que parte de saltos evolutivos grandes, por grupos pequeños: especies nuevas surgen “de repente” de
grupos pequeños que, por diversas razones, han quedado apartados del grueso de su especie. En esa
“evolución puntual”, la fuerza impulsora no son las mutaciones casuales, sino las cambiantes condiciones
ambientales, que determina los “esquemas básicos” del plan de montaje genético de un ser vivo. Para ello, la
evolución tiene ante sí una cifra elevadísima de posibilidades evolutivas que se hallan en la masa genética de
todo animal: según la “demanda”: unas muelas blandas se convierten en molares duros, o pies trepadores se
convierten en pies andadores, o crece el cráneo para dejar sitio al cerebro en desarrollo. Estos cambios
repercuten muy rápidamente en los grupos pequeños, porque bajo las duras condiciones de vida solo pueden
sobrevivir y reproducirse los individuos que ya tienen dientes más duros o piernas más resistentes, con lo
que se refuerza la tendencia a una mejor adaptación.”
Las ramificaciones: Estos rápidos cambios de vía evolutiva pueden explicar cómo en la historia de la Tierra
aparecen una y otra vez al parecer “de la nada” especies nuevas, que se extienden muy rápidamente a costa
de otras, y se ramifican pronto en una familia extensa.
Después de este rápido empuje evolutivo, la nueva familia entra en un equilibrio con el ambiente y se
mantiene casi inalterada a lo largo de millones de años, para desaparecer ante el desarrollo “repentino” de
una nueva especie en competencia. Otra explicación puede ser la desaparición repentina de especies enteras
por los cambios generados por choques de asteroide o cometas (tesis catastrófica).
Todo eso conduce a una imagen de la evolución de los hominoides mucho más complicada que la que nos
imaginábamos. Ya no parece una escalera, sino un arbusto”. La nueva imagen del desarrollo de los
antropoides y hombres muestra, en lugar de la escala dirigida atinadamente hacia el gorila o el hombre,
cuatro arbustos:
1°: Hace unos 20 millones de años, los primeros “monos de bosque” consiguieron una ventaja evolutiva
sobre sus competidores y se ampliaron en los millones de años siguientes en la familia de los cryopitecinos,
entre los que también se cuenta el Procónsul.
2°: Unos siete millones de años más tarde, se separa un pequeño grupo de “monos de bosque”, que aprendió
a sobrevivir en la zona limítrofe entre el bosque y la sabana. De aquél surgió la familia de los ramapitecinos.
3°: Cuando el ramapiteco buscaba frutos al pie del Himalaya, algunos grupos de hominoides que habían
permanecido en el bosque se especializaron mucho y originaron las especies de antropoides actuales: gorila,
chimpancé y orangután.
4°: Por la misma época, los miembros de una horda de primates - muy probablemente en la sabana de África
Oriental - se colocaban con cada vez mayor frecuencia sobre las manos traseras cuando buscaban alimentos
o enemigos en terreno abierto. Esos pioneros del terreno descubierto, que caminaban más sobre dos que
sobre cuatro patas, se parecían, según todas las suposiciones, al pequeño ramapiteco. Fundaron una familia
de muchos miembros, una sola de cuyas especies logró sobrevivir: el Homo Sapiens”.
La transición: ¿Dónde y cómo cruzaron los primeros ejemplares del nuevo género Homo la línea de
transición del animal al hombre? Entre finales del Mioceno y principios del plioceno: hace unos ocho
millones y medio de años surgió en África, - y según todos los hallazgos, solo allí - un ser que pertenecía
decididamente a la familia humana (un homínido). Según estas suposiciones, un pequeño grupo de
descendientes del ramapiteco se especializó hace unos seis millones de años en el lugar de unión de África y
Asia: en el triángulo de Afar, una región, hoy tórrida, entre el altiplano etíope y el mar Rojo, el también
llamado “cuerno de África”.
Ramapitecinos: - En 1974, el norteamericano Donald Johanson encontró en esa zona los restos de 16 seres
de diversas edades; una hembra adulta ("Lucy") que, con toda seguridad, andaba erguida, no llegaba a 1,20
m de estatura y padecía de artritis. En proporción a sus piernas, sus brazos eran algo más largos que los de
los hombres actuales, pero no tanto como entre los monos antropoides. La mano, esa herramienta todo - uso
humana, se parecía mucho a la de los hombres modernos; el pulgar incluso se podía oponer al índice, lo que
permitía la “maniobra de precisión”. La dentadura de Lucy, al igual que los otros dientes y mandíbulas
hallados, también tenían ya mucho más parecido con las dentaduras de los hombres actuales que con los
antropoides. Es probable que Lucy y sus contemporáneos comieran carne además de la alimentación vegetal
recolectada, y puede ser que cazaran en grupo y usaran piedras y palos encontrados, sin elaborar, como
herramientas. A juicio de Johanson: esos homínidos vivían ya en grupos familiares de hombres, mujeres e
hijos, lo que se suele considerar una característica típicamente humana.
Lucy entre exmono antropoide y cuasi-ser humano: Respecto de Lucy, aunque no era todavía un ser
humano, menos era un mono antropoide. Los científicos les denominaron Australopithecus afarensis (“mono
meridional de Afar”), a pesar de que habían sobrepasado claramente la demarcación hacia el Homo. Hay una
razón: los restos de seres parecidos, que, eso sí, vivieron cerca de un millón de años más tarde que Lucy,
habían sido encontrados por Raymond Dart en 1924 en una cueva en Botswana y denominados
Australopithecus (“mono meridional”). Y el primer nombre que se da a una especie recién descubierta es de
imposición obligatoria para todos los demás miembros de esa especie que se encuentren más tarde. Así lo
mandan las severas normas de la denominación científica: la taxonomía.
Zinjatropus: Desde los primeros hallazgos de australopitecos por Dart, los investigadores reunieron los
restos fósiles de más de 400 individuos de este más antiguo género de la familia Homo. Dart encontró
cráneos, dientes y otros huesos de “monos meridionales”, con una edad de dos a tres millones de años, en
otros cuatro lugares sudafricanos. Luego Louis y Mary Leakey hallaron en el desfiladero de Olduvai, el
primer cráneo de australopiteco en el año 1959, y lo llamaron Zinjanthropus (“hombre africano oriental”): se
trataba de un macho, con una ancha y ruda cara y dientes enormes que le proporcionaron el mote de
“hombre cascanueces” (con una edad de cerca de dos millones de años). Después Mary Leakey descubrió a
principios de 1978, en Tanzania, las huellas petrificadas, de casi cuatro millones de años de edad, de un ser
de marcha erguida, de aproximadamente 1,20 m de estatura, cuyo pie, bastante ancho, estaba dotado ya de
dedos de aspecto humano. Después de muchas discusiones se ha llegado a convenir en una clasificación,
según la cual hubo tres especies de “monos meridionales”.
a) La especie más antigua, el Austrapithecus afarensis de Lucy, se desarrolló probablemente hace seis
millones de años y ya caminaba muy bien erguida hace cuatro millones de años.
b) Puede ser que los monos meridionales de Afar fueran descendientes de un grupo de ramapitecos todavía
desconocido.
c) De ellos se desarrollaron, según Johanson, otras especies: el ligero Australopithecus robustus, también
llamado Australopithecus boisei (el mono meridional robusto”, al que también se adscribe ahora el
zinyanthropus, el “hombre cascanueces” de Leakey) y el primer representante del género Homo. Las tres
especies de australopitecos tenían cerebros que, con sus 4350 a 5500 centímetros cúbicos de capacidad, no
alcanzaban apenas un tercio del de los hombres modernos. el tipo grácil tenía la mejor relación entre cerebro
y peso corporal. El “mono meridional robusto”, de apenas 1,50 metros de estatura y 50 kg. de peso, era
vegetariano; su esbelto pariente (1,20m, 25 Kg.) comía carne y fruta.
Homo habilis: Los australopitecos, tanto los robustos como los gráciles, parecen haber sido evoluciones
bastante afortunadas del “mono meridional de Afar”: existieron paralelamente durante unos buenos millones
de años, y el tipo más “inteligente”, más ligero, pudo mantenerse durante por lo menos tres millones de
años. En 1980, los Leakey encontraron los restos de un contemporáneo del primitivo “mono meridional
robusto”: un cráneo con una capacidad cerebral estimada de 680 centímetros cúbicos, una mandíbula con
una fila de dientes en la típica forma de U humana y huesos manuales que mostraban que su joven poseedor
podía asir con ella con fuerza, pero también con precisión; junto habían herramientas de piedra bastante
trabajadas, que habrían servido como raspadores y martillos, y pedruscos colocados en círculo para chozas
de ramas. Lo llamaron Homo habilis. En 1982, un nuevo hallazgo dio su apoyo a los defensores del Homo
habilis: Bernard Ngeneo, encontró en la región de Koobi Fora, los fragmentos de un cráneo, con un volumen
increíblemente grande: 800 centímetros cúbicos en una cara pequeña con mandíbula apenas sobresaliente. El
hallazgo se dató en dos millones de años
Migraciones: Algunos expertos trataron de explicar las notables diferencias entre hallazgos de la misma
época con la amplitud de márgenes natural en las varias formas de una especie determinada, sobre todo con
las diferencias entre ejemplares machos y hembras. En la raíz de este arbusto están Lucy y sus parientes del
tipo Australopithecus afarensis. De ellos surgieron, independientemente, las otras dos especies de
australopitecos, más recientes, y el Homo habilis. No puede excluirse, el que un australopiteco u otro haya
emigrado de África a Asia. El género Homo muy probablemente vivió, después de sus comienzos hace unos
cuatro millones de años, dos millones exclusivamente en el continente negro. después comenzó a conquistar
otros hábitat, otros continentes y, finalmente, toda la Tierra. Pero ¿qué fue, y esa es la cuestión clave de los
paleontólogos, lo que permitió que el Homo sobreviviera a sus primos?
Las glaciaciones: La Tierra es un planeta bien atemperado. De vez en cuando, sin embargo, sufre catástrofes
climáticas. Hace 600 millones de años, según lo prueban los rastros de los glaciares en la roca, masas de
hielo cubrían grandes regiones de África, Sudamérica, India y Australia. Hace 250 millones de años, cuando
los reptiles se disponían a conquistar la tierra firme, volvió a hundirse el equilibrio térmico mundial.
Después de 230 millones de años de clima suave, las temperaturas volvieron a descender en todo el mundo.
Hasta hace 18 millones de años, el descenso fue casi imperceptible; pero después, y con movimientos
pendulares cada vez más bruscos, volvieron los tiempos helados (Pleistoceno) para el tercio norte de la
Tierra, caracterizado por grandes oscilaciones de temperatura, en las que épocas templadas sucedían a los
períodos helados. En los trópicos, el tiempo siguió siendo agradablemente cálido incluso durante la época de
mayor extensión de los glaciares. Cuando los investigadores se encontraron, durante el siglo pasado, con las
huellas de cuatro grandes períodos de glaciación en los Alpes, denominaron los cuatro avances, en orden
cronológico y alfabético, por cuatro ríos que fluyen allí: glaciaciones de Günz, Mindel, Riss y Würm.
Catástrofes cósmicas o terrestres: Los científicos mencionan catástrofes cósmicas y terrestres para explicar
el brusco descenso de temperaturas después de 230 millones de años de buen tiempo: nubes de polvo del
espacio, que eclipsan la luz del Sol; planetas que caen en el Sol y debilitan, durante un tiempo, el fuego de
nuestro astro; volcanes que tienden sobre la Tierra un denso velo de cenizas; y después de esa época
mencionan como causas probables catástrofes producidas por cometas y asteroides
Probablemente deba coincidir todo un haz de causas para que los glaciares puedan crecer. Un papel
protagonista le toca a la deriva continental: solo cuando las masas de tierra firme llegan lo suficientemente
cerca de los polos, pueden acumularse sobre ellas los hielos, tal como hoy ocurre en el continente glacial de
la Antártida. Funciona como disparador una mayor irradiación de calor de la Tierra - por ejemplo, por el
aumento de la superficie de tierra firme - o una disminución de la radiación solar.
El que disminuya el calor del Sol puede deberse a procesos en el propio Sol, pero también a irregularidades
en la órbita terrestre, movimientos del eje de rotación de la Tierra o erupciones volcánicas violentas,
actuando juntos o por separado. Una vez se han formado los glaciares, la glaciación se alimenta a sí misma,
porque las relucientes masas de hielo y nieve reflejan al espacio más luz solar, de modo que las temperaturas
siguen descendiendo.
El papel de los mares: A través de un proceso de realimentación no del todo conocido, las corrientes
oceánicas y atmosféricas hacen que, al cabo de un tiempo, las capuchas de hielo ya no reciban suficientes
refuerzos en forma de nieve. (Tiene un papel importante en ese crecimiento y disminución rítmicos la
radiación solar que llega a la Tierra). La edad de las glaciaciones no concluyó con el último retroceso de los
hielos hace unos 10.000 años. Actualmente vivimos en una interglaciación, y su temporada más calurosa ya
ha quedado atrás. Dentro de unos 10.000 años, las masas glaciares podrían estar de nuevo sobre partes
importantes de los diversos continentes.
No obstante, la edad de las glaciaciones produjo una sorprendente variedad de formas vegetales y animales.
Los períodos fríos y calientes, en rápida sucesión, eran un peligro mortal... y una oportunidad para la
evolución: las especies de la era glacial tenían que adaptarse a toda prisa a las nuevas circunstancias
ambientales para sobrevivir.
La adaptación de los seres vivos: Después, los glaciares enterraron los bosques, y en la vanguardia de los
hielos crecía sobre una delgada capa del suelo que se deshelaba en verano, la escasa vegetación de la tundra.
Solo los animales más duros sobrevivieron al hielo, las duras condiciones ambientales fomentaban una
tendencia hacia el gigantismo, cada cambio de clima era el fin de muchas especies. Otras se adaptaron al frío
glacial. Pero entonces comenzó a perseguirlas un enemigo que resultaría más peligroso que los glaciares: el
Hombre.
Homo eructus: Los primeros grupos de Homo erectus que abandonaron los trópicos para marchar hacia el
norte tuvieron que aprender que en las zonas templadas, la oferta de alimentos cambia con las estaciones y la
alimentación vegetal, base de la comida humana primitiva, solo está disponible durante el medio año
veraniego. Por eso fue haciéndose cada vez más importante la caza. Además del cerebro en lento
crecimiento y del aparato masticatorio, en lenta evolución, cambió también el color de la piel de los
primeros europeos y asiáticos; los pigmentos oscuros no dejan pasar, en el norte, los suficientes rayos
ultravioleta para la producción en la piel de la vital vitamina D (y ya no son tan necesarios como protección
ante la mortífera luz solar), de modo que los hombres de piel clara tuvieron mejores oportunidades para la
supervivencia. Y el Homo erectus sobrevivió a pesar del sol de invierno y la glaciación, como lo atestigua,
la fuerte mandíbula humana que en 1907 se encontró en el pueblo de Mauer, cerca de Heidelberg, en
Alemania: el “hombre de Heidelberg” posiblemente de 600 000 años, era uno de aquellos Homo erectus que
durante las interglaciaciones perseguían a través de las frías estepas los enormes rebaños de animales. La
oferta de carne, según muestran los yacimientos prehistóricos, era más importante que las bajas
temperaturas, a las que ya se resistía con pieles y fuego. ¿Por qué cazaba el Homo erectus precisamente el
mayor animal de su época? Probablemente fueran las enormes montañas de carne las que atrajeran a
Torralba y Ambrona en España, cerca de una docena de hordas emparentadas, con unos 500 individuos, para
el gran acontecimiento del año. Cuanto más duraba la glaciación, mejores útiles y métodos de caza
aparecían. Cuando terminó, hace 10.000 años, el hombre había perfeccionado de tal manera su cultura
paleolítica, que ya no tenía que temer las catástrofes climáticas. Al contrario: su afán por la caza colaboró en
la desaparición de varias especies.
Los Neandertales: Durante unos trabajos en el valle del Neander, cerca de Düsseldorf, en Alemania, el
antropólogo alemán Johann Fuhlrott encontró, en 1856, los restos que reconoció ser de un hombre
prehistórico. Por aquel tiempo ardía la discusión acerca de la descendencia del hombre del mundo animal. A
diferencia de los Homo erectus anteriores, los investigadores encontraron gran número de restos de
neandertalienses en diferentes lugares del Viejo Mundo. Pero cientos de miles de huellas, entre ellas los
esqueletos de, por lo menos, cien neandertalienses de ambos sexos y todas las edades, aumentaron la
confusión.
Sobre todo en Europa Occidental, los antropólogos excavaron los restos del neandertaliense “clásico”, fuerte
y chaparro. En el Oriente Medio y África encontraron, sin embargo, restos que han de adscribirse al
neandertaliense, pero que parecían mucho más “modernos” (los científicos les llaman “progresivos”) que
habían vivido, evidentemente, antes que los representantes europeos de frente huidiza, grandes arcos
superciliares y aspecto tosco y primitivo. Para completar la confusión, en Extremo Oriente aparecieron
huesos humanos de antigüedad semejante que volvían a tener un aspecto levemente diferente.
Debido a reconstrucciones anatómicas equivocadas, el Neandertal “clásico” había recibido un aspecto algo
simiesco, inclinado hacia adelante. Trabajos nuevos muestran que ese cazador, por su esqueleto, era
claramente miembro de la especie Homo Sapiens aunque su estructura corporal lo diferenciara en algunos
detalles notables del hombre moderno: su cerebro era, en promedio, algo mayor que el de los hombres de
hoy, pero estaba organizado de otro modo; el cráneo era más plano y, sobre la base de la nariz, limitaban la
ancha cara, dos grandes arcos superciliares; los pómulos no se diferenciaban de los nuestros, pero en cambio
eran mucho mayores los incisivos; la barbilla era huida como la frente (por ello era de grandes dimensiones
la nariz). Pero, sobre todo, esos hombres de 1,50 m de estatura deben de haber sido enormemente fuertes y
resistentes, según lo muestran las fuertes implantaciones musculares en los huesos de hombres y mujeres
achaparrados. Esas características típicas del Neandertal “clásico” se consideran una especial adaptación al
brutal clima glacial: un cuerpo achaparrado pierde menos calor que uno esbelto, una nariz grande calienta
mejor el aire que ha de respirar.
Esas características, fueron mal interpretadas como síntomas de una vida bárbara. Los hombres de
Neandertal fueron, por el contrario, notables pioneros culturales: vivían en cuevas y chozas de pieles y
huesos de mamut, en las que construían un hogar; en lugar de una sola herramienta todo - uso ,del hacha de
mano produjeron toda una gama de útiles especializados que tallaban de piezas de sílex especialmente
seleccionadas. Esa cultura, denominada “musteriense” (por el yacimiento francés de Le Moustier) - que
denomina el llamado “paleolítico medio” - produjo incluso cuatro o cinco “equipos” de herramientas para
tareas diferentes, como cazar, matar, cocinar, preparar las pieles. Los hombres de Neandertal cazaban con
éxito todos los animales glaciales, desde los gigantescos mamuts y rinocerontes lanudos, reses primitivas y
caballos hasta liebres (y muchos de ellos los cazaban en trampas), el gigantesco oso de las cavernas, lo
cazaban por motivos rituales, según indican las tumbas de cráneos de osos, cuidadosamente dispuestas, en
cuevas suizas y austríacas. Los rituales no solo tenían importancia en la caza entre los Neandertal.
Esos seres, de aspecto tan primitivo, fueron los primeros seres vivos en este planeta que desarrollaron algo
así como ideas religiosas: enterraban a sus muertos y les acompañaban dones funerarios. Los hombres de
Neandertal desarrollaron también otras dos características típicas de la cultura humana: cuidaban a sus
parientes cuando estos estaban enfermos y de vez en cuando se lanzaban unos contra otros armados de
cuchillos. Huellas de heridas que se hallaron en los huesos de hombres de Neandertal encontrados en la
cueva de Shanidar (norte del Iraq) llevan indicios tanto de acciones samaritanas como agresivas. Incluso sin
heridas de caza o de lucha, los neandertalienses llevaban una vida dura. Muchos de ellos padecían de artritis
y de inflamaciones de las encías, reúma y raquitismo: consecuencia de las duras condiciones climáticas que
tenían que soportar.
El Cro-Magnon: Los neandertalienses, duros e inteligentes, superaron la edad más fría, cazaron con éxito el
gigantesco mamut y el formidable oso de las cavernas, se mantenían unidos en sus hordas como ningún
grupo de seres vivos antes que ellos. A pesar de ello, desaparecieron sin dejar rastro hace 35000 años en un
tiempo, al parecer, brevísimo. ¿Por qué? Esta es una de las cuestiones polémicas más delicadas entre
antropólogos pero el hecho es simple: el hombre de Neandertal fue desplazado por un ser más inteligente
todavía: el Homo Sapiens Sapiens, el “hombre especialmente sabio”.
Hay cuatro teorías que tratan de explicar su desaparición:
1: Los restos de nuestro más antiguos antepasados directos, llamados, por un yacimiento francés, hombres
de Cro-Magnon, suceden tan rápidamente a los restos de los neandertalianos, que algunos prehistoriadores
supusieron una situación bíblica: como en la metáfora de Caín y Abel, el agresivo Homo Sapiens Sapiens
asesinó a su más pacífico hermano Homo Sapiens neanderthalensis. La teoría del hombre moderno,
afortunado por carente de escrúpulos, resulta plausible. Lo único que ocurre es que no hay ninguna prueba
para ella.
2: Otra hipótesis postula que el hombre de Neandertal, adaptado perfectamente al frío, fue víctima de un
período más cálido durante la glaciación de Würm.
3: Una tercera teoría afirma que los neandertalianos fueron víctimas de un proceso de desplazamiento
económico, porque los nuevos hombres inmigrantes, de cultura más desarrollada, eran mejores cazadores.
4: Algunos investigadores, por fin, creen que los neandertalianos se mezclaron simplemente con los hombre
de Cro-Magnon y se fundieron en este grupo más afortunado. Comparaciones de los hallazgos de utensilios
de piedra de la cultura musteriense a todo lo largo de Europa muestran que, en el sudeste del continente, la
frontera temporal entre el paleolítico medio y el - más desarrollado - paleolítico superior está situada 10.000
años antes que en el norte de España, que es el punto más alejado del portal de entrada de los hombres
modernos por Asia Menor: indicio importante de que, según opina el antropólogo Karl Butzer, “el
desplazamiento de los neandertalienses en Europa no fue, de ningún modo, repentino”.
Lo más probable es, pues, que el hombre de Cro-Magnon no desplazó al de Neandertal, encerrado en el
callejón sin salida mediante la violencia, sino gracias a las muchas pequeñas ventajas para la supervivencia
que procura un cultura superior. Pero ¿de dónde venían los hombres modernos, que hace 35.000 años ya no
se diferenciaban de nosotros? ¿Dónde habían aprendido los hombres de Cro - Magnon, de elevada estatura,
con su cráneo redondo, la frente alta y la barbilla prominente, a trabajar la materia prima piedra más artística
y hábilmente que los artesanos musterienses de los neandertalianos?
Inicio del Homo Sapiens: Los investigadores se ven obligados a llenar una época de casi 100.000 años, a
falta de datos, con fantasía (hasta tanto no se encuentren nuevos restos que arrojen mas información de
complemento). Solo hace 45.000 años vuelve a aparecer el rastro del hombre moderno: en Israel (en dos
cuevas del monte Carmelo), los antropólogos encontraron restos de hombres de Neandertal “progresivos”,
que por aquella época se dedicaban a la caza mayor en las estepas de los alrededores. Al estudiar sus
hallazgos, los investigadores encontraron que los huesos de la cueva de Tabun presentan más rasgos
neandertalianos que los de la cueva de Shkul: los hallazgos de Shkul son unos 10.000 años más modernos y
mucho más parecidos al Homo Sapiens.
De entre las muchas teorías acerca del origen del Homo Sapiens Sapiens cristalizaron dos modelos, y ambos
ven en los restos fósiles de los hombres de Swanscombe y Steinheim (África del Sur) los antepasados de los
hombres “sabios”:
Teoría A: Según la escuela llamada “pre - neandertaliense”, el hombre de Steinheim fue un precursor del
hombre de Neandertal, mientras que el de Swanscombe fundó una estirpe que, a través del hombre de
Fontechevade y de Shkul condujo al hombre de Cro - Magnon, y con ello al Homo Sapiens Sapiens
moderno.
Teoría B: La escuela “pre - Sapiens”, en competencia, parte también de los hallazgos de Swanscombe y
Steinheim. Solo que en esta, la línea evolutiva conduce de modo mucho más directo del hombre de
Steinheim al de Neandertal (que se extingue mediada la glaciación de Würm), mientras que la línea del
Homo Sapiens se separa ya antes de los neandertalianos, desde el hombre de Swanscombe, a través del de
Fontechevade y conduce de modo bastante directo al de Cro - Magnon; según esta teoría, los
neandertalianos más modernos de la cueva de Shkul forman una rama extinta del árbol genealógico que
conduce al Homo Sapiens Sapiens.
Los expertos están de acuerdo en que el paso de los representantes anteriores del Homo Sapiens al hombre
de Cro - Magnon se produjo hace unos 50.000 años en algún lugar de la región del sudeste de África y del
sudoeste de Asia. Desde allí, el Homo Sapiens Sapiens se extendió en relativamente poco tiempo por todo el
mundo habitable: hace 40.000 años los altos conquistadores habían llegado a Indonesia y Borneo, poco más
tarde cazaban junto al cabo de Buena Esperanza sudafricano y hace 35.000 años colonizaron la Europa
glacial.
El Homo Sapiens Sapiens: El hombre de Cro-Magnon no era más fuerte que el de Neandertal, ni tenía un
cerebro mayor. No obstante, después de una evolución muy lenta las culturas anteriores de (millones de
años) este hombre moderno provocó en pocos miles de años un auge técnico - cultural que aceleró el
proceso a una velocidad increíble, en la actualidad, tiende ya la mano hacia la estrellas. Ya había
transcurrido el 99% de la historia conocida de la humanidad cuando surgieron, aparentemente de la nada,
útiles finísimos de piedra, asta y madera, cuando aparecieron objetos “sin utilidad” - es decir, artísticos -
como estatuillas de marfil o pintura rupestres. Todos esos logros culturales permiten concluir que el Homo
Sapiens Sapiens le sacaba al de Neandertal una pequeña pero gran ventaja: el uso del lenguaje para
comunicarse.
Bajo la presión de un medio glacial sin piedad, el cerebro de los neandertalianos había alcanzado un tamaño
enorme. Pero los conocimientos que se habían acumulado en esos órganos pensantes de hasta 1600 cm.
cúbicos se perdían, en su mayor parte, cuando morían sus poseedores. Cerebros mayores eran - y son - casi
imposibles, porque los bebés con unas cabezas tan enormes ya no cabrían por el, ya de por sí estrecho, canal
del parto humano. El hombre de Neandertal “clásico” ya no pudo salir de ese callejón evolutivo, pero en el
hombre de Cro-Magnon, la evolución halló una salida que, una vez más, se basó en la colaboración de
muchos seres individuales: el intercambio de información de cerebro a cerebro mediante la lengua humana.
Este compartir conocimientos resultó tan ventajoso que, en el curso del tiempo, se formó el espacio laringo -
faríngeo moderno a través de una selección biológico - cultural.
Ahora pudo aprovecharse toda la capacidad del cerebro y la habilidad de la mano humana. Más cabezas
podían reunir más conocimientos, de modo que tenían ventaja los grupos mayores (y el mayor cúmulo de
conocimientos permitía también alimentar una población mayor). Los ancianos resultaron ser una ventaja
para los grupos de Cro-Magnon, porque podían transmitir los conocimientos del grupo a la generación
siguiente, así que los cuidaban, con el resultado de que la esperanza de vida media subió a más de 32 años.
La base de este auge cultural estaba en una sólida “economía”. La caza mayor se hizo más segura mediante
nuevas armas como el proyector de lanzas: con esa “prolongación del brazo”, de madera o asta, podía
herirse de muerte un animal incluso a una distancia de 30 metros. La carne de animales grandes como
mamuts, bisontes o renos seguía siendo la base del menú de la era glacial. Pero el Homo Sapiens Sapiens
aprendió pronto a aprovechar otros alimentos: pescados, crustáceos y aves y especies vegetales.
Donde aparecían los hombres de Cro-Magnon, pronto se veía desplazada la cultura musteriense de los
nandertalianos: hace unos 38.000 años empezó el “Paleolítico Superior”. Los hallazgos demuestran que el
Homo Sapiens Sapiens mejoró rápidamente la cultura neandertaliense en Europa, y que además colonizó los
continentes de América y Australia. En la actualidad, los antropólogos consideran el hombre de Cro-
Magnon una primera forma europea del hombre moderno. Las diversas fases de desarrollo de su habilidad
artesana sólo valen, en sentido estricto, para Europa Occidental, aun cuando la evolución cultural de otros
grupos de Homo Sapiens Sapiens en Europa oriental, Oriente Medio y norte de África siguió un curso
sorprendentemente parecido.
El hombre religioso: En los grupos mayores se desarrollaron nuevas formas de convivencia social. Según
todos los indicios, los cazadores de la era glacial veneraban los animales de los que vivían, según muestran
las pinturas rupestres y pequeñas tallas. También sobrevivió el culto de los osos de la época de Neandertal.
Representaba un papel especial el chamán, una mezcla de brujo, hechicero y sacerdote: por lo menos 50
pinturas rupestres representan un “mago” vestido de pieles y adornado de cuernos que, a su debido tiempo -
según ocurre todavía en muchos pueblos - intentaba lograr del destino un trato favorable mediante acciones
místicas. Pero las ideas religiosas del hombre de Cro-Magnon iban más allá de la simple magia para la caza.
Así lo señalan los complicados ritos funerarios, en los que incluso los jóvenes recibían, en la tumba, objetos
de arte bellamente elaborados. Otro indicio son los numerosos objetos artísticos que se ocupan de temas
sexuales. En el simbolismo sexual del arte glacial está la clave para la comprensión de la cultura de Cro -
Magnon. Muchas pintura rupestres y tallas adscritas hasta ahora a la caza podrían ser, en realidad, símbolos
de la “oposición y complementariedad de los valores masculinos y femeninos”, una tesis que se ve apoyada
con el análisis de más de 2000 representaciones paleolíticas de 66 cuevas estudiadas.
No sabemos nada de las costumbres maritales de los hombres de Cro - Magnon. Pero probablemente hubo
durante toda la era glacial una división de trabajo entre el hombre y la mujer: la consecución de carne a
cargo de él, la recolección de alimentos vegetales a cargo de ella. En el norte, condicionada por el clima y
las estaciones, la alimentación pasó a depender más y más de la caza y, por lo tanto, del hombre. Pero
seguramente fueron las mujeres quienes hicieron posible la caza mediante la administración prudente de la
despensa y la confección de prendas de vestir cálidas y bien adaptadas a la piel.
Fueran cuales fuesen las relaciones entre los sexos, fueron motivo de que los artistas Cro - Magnon
realizaron gran número de figurillas simbólicas femeninas, las más conocidas de las cuales son aquellas
opulentas figuras de “Venus”, como la hallada en la austríaca Willendorf. Esas estatuillas de piedra, marfil o
arcilla cocida mezclada con harina de hueso muestran figuras femeninas desnudas con pechos y posaderas
enormes. Siempre carecen de pies, y las piernas terminan en punta, por lo que se supone que las figurillas se
clavaban en el suelo. ¿Eran símbolos de la fertilidad o diosas terrestres? En cualquier caso, las Venus
desaparecen después del paleolítico.
La conquista del planeta: - Las barreras climáticas y geográficas que limitaban el hombre de Neandertal a las
zonas templadas del Viejo Mundo ya no eran insuperables para el Homo Sapiens Sapiens: hacia fines de la
era glacial, el hombre moderno habitaba tanto junto al Océano Ártico Siberiano como en los extremos Sur
de Australia y Sudamérica. Solo las islas del Pacífico, diseminadas por el océano, y el inaccesible continente
helado de la Antártida carecían de habitantes humanos; pero llegaron allí también varios miles de años
después.
Hace por lo menos 25.000 años que los cazadores del mamut recorrían la Siberia Ártica, y poco más tarde -
probablemente a través de zonas de unión terrestres - , estaba habitado Japón. En la persecución de la caza
mayor resistente al frío, algunos grupos llegaron en el extremo nordeste de Asia (el Estrecho de Behring)
pasillo de unión entre Siberia y Alaska (actualmente inundado por el mar). Los expertos todavía discuten
cuándo comenzó la primera conquista de América que pudo haber sido muy tardía, o muy temprana porque
la crónica de las glaciaciones, permite varias posibilidades. Beringia estuvo al descubierto tanto hace unos
200.000 años, durante la glaciación de Riss, como durante las dos fases de la de Würm de hace de 65.000 a
50.000 años y de hace 30.000 a 12.000 años. En el momento de la mayor glaciación, hace unos 20.000 años,
cuando el nivel del mar descendió unos 135 metros, América y Asia estaban unidas por un pasillo libre de
árboles y hielos de más de 1000 Km de anchura.
Por ese puente que se abría y se volvía a cerrar llegaron por oleadas los animales del Viejo Mundo, tanto el
mamut como el bisonte, el alce y el oso. Los hombres atravesaron Beringia con seguridad durante la última
fase, que se inició hace 30.000 años.
Un grupo de solo un millar decazadores pieles rojas, partiendo de Edmonton, al norte de la provincia
canadiense de Alberta, habría podido alcanzar en solo 1000 años la Tierra del Fuego en el extremo sur de
Sudamérica, según calculó el investigador norteamericano Paul Martin. Supone que los primero indios
hallaron fácil presa entre los grandes animales americanos, que no tenían ninguna “experiencia” con
hombres. Eso tuvo como consecuencia un muy rápido crecimiento de la población, y el fin de toda una serie
de especies animales, que no pudieron recuperarse de la caza prehistórica y se extinguieron: los perezosos
gigantes, los camellos americanos, los caballos y los mamuts. Hace 11.000 años, cuando terminó la era
glacial, los hombres habitaban la Tierra del Fuego, y el mar separaba de nuevo Siberia de Alaska. Solo
entonces atravesaron el estrecho de Bering, a bordo de kayac o de témpano de hielo, los antepasados de los
esquimales modernos.
A diferencia de América, donde los investigadores conocen la ruta de los inmigrantes en Australia se sabe
cuándo tuvo lugar la primera colonización, mientras sigue siendo un enigma la vía de penetración. Porque
incluso en el tiempo de la mayor glaciación, una franja de agua de por lo menos 100 kilómetros de anchura
separaba el apartado continente de la isla de Timor, el pilar más adelantado del puente terrestre indonesio.
Por lo menos un grupo de hombres y mujeres de la especie Homo Sapiens Sapiens, recién llegada a
Indonesia, debió de vencer el mar de Timor a bordo de troncos o balsas hace unos 38.000 años. Lo hicieron
a propósito, según suponen los antropólogos, porque la corriente marina dominante, de dirección norte - sur,
no habría permitido una navegación casual hacia el este. Como quiera que fuere, los hombres modernos
estaban asentados hace 32.000 años (cuando en Europa se iniciaban las primeras pinturas rupestres) junto al
lago Mungo, en el sudeste de Australia.
Otra oleada migratoria hace unos 10.000 años llevó a Australia los útiles de piedra modernos y los perros,
Pero entonces, los habitantes del continente austral quedaron separados del resto del mundo hasta hace
apenas 200 años, de modo que conservaron hasta hoy su cultura paleolítica sin agricultura ni ganadería. En
Nueva Guinea, por el contrario, que hacia fines de la era glacial volvió a separarse de Australia, la población
autóctona australiana se mezcló con los inmigrantes del mundo insular del sudeste asiático. En los saltos de
isla en isla, esas gentes aprendieron los secretos de la navegación de altura: hace 2000 años, los navegantes
alcanzaron Samoa; 300 años después habitaban las islas centropacíficas de Hawai y la isla de Pascua ; hace
1000 años, por fin, los isleños de la tribu de los maoríes concluyeron, con el descubrimiento de Nueva
Zelanda, la conquista de la última masa de tierra deshabitada, pero habitable, por parte del Homo Sapiens
Sapiens.
La doma de la Naturaleza: La sabiduría de los cazadores y recolectores consistía, según lo formuló el
antropólogo norteamericano John E. Pfeiffer, “en vivir con la naturaleza”. Era una vida relativamente
cómoda, pero tenía sus límites: la naturaleza no puede sostener a más de diez millones de hombres que viven
como cazadores y recolectores. Hacia fines de la era glacial, el número de hombres había alcanzado de tres a
cinco millones, casi todos los cazaderos asequibles estaban habitados.
Todavía es discutido, sin embargo, dónde los hombres de la edad de piedra sembraron por primera vez
semillas, nueces o vainas por haber descubierto que de ellas crecerían plantas comestibles. Pero es seguro
que hace unos 10.000 años se cultivaba trigo y cebada en el “creciente fértil”, la región que se tiende desde
Palestina, a través de Siria, hasta Mesopotamia y el sur de Persia. Dado que las plantas de cultivo (al igual
que los animales domésticos) se han de seleccionar, en un largo proceso, a partir de especies silvestres, los
inicios del cultivo deben de haberse dado unos milenios antes. El arqueólogo norteamericano Fred Wendorf,
por ejemplo, encontró en el valle del alto Nilo, no lejos de la presa de Assuán, muelas rebajadas y restos de
cebada, cuya edad se fecha en 17.000 años. Más aún: la cebada se diferenciaba ya notablemente de su forma
silvestre, lo que significa que ya había pasado por un proceso de selección.
La transición de la recolección intensiva de determinados productos del campo, sin siembra previa, al
cultivo de plantas seleccionadas - para lo que hay que guardar una parte de la cosecha para la siembra
siguiente - , fue gradual: abarcó cuatro o cinco fases diferentes que, además, transcurrieron en épocas
diferentes en distintas regiones de la Tierra, aunque las raíces de las actividades agrícolas se remontan todas,
en todas las cunas de la diversas civilizaciones del mundo, a la última fase de la era glacial.
Los recolectores sabían exactamente dónde y cuándo podían contar con qué frutos, del mismo modo que los
cazadores avispados tenían un íntimo conocimiento de sus presas. Algunos pueblos cazadores y
recolectores, como algunas tribus aborígenes australianas, que todavía hoy viven en la edad de piedra,
cultivaban incluso plantas importantes, sin ser por ello agricultores: cuidaban de que sus plantas silvestres
recibieran agua suficiente. La auténtica agricultura no comenzó hasta la selección de especies más
productivas, hasta la siembra de semillas conseguidas al efecto: plantas y animales silvestres fueron
domesticadas con tal éxito que algunas plantas o animales domésticos ya no podrían sobrevivir sin el
hombre.
Los animales domésticos y las plantas de cultivo por lo general fueron domesticados en diversos lugares de
la misma región (y a veces en varias regiones a la vez), según lo demuestran los hallazgos arqueológicos y
formas silvestres todavía existentes. Por el contrario, solo son a medias fiables los hallazgos de primeros
cultivos fechables con precisión. Los investigadores también mantienen dudas de si el “creciente fértil” fue
efectivamente la cuna de la agricultura y la ganadería, puesto que otras regiones han sido exploradas
arqueológicamente de modo menos intensivo. Así, excavaciones en Indochina mostraron que hubo allí, hace
ya 15.000 e incluso 20.000 años, huertos con una serie de plantas cultivables - pepinos, guisantes, nueces - y
campos arroceros.
Después de los inicios lentos, dudosos, de la agricultura, los hombres del Paleolítico completaron la tarea:
domesticaron casi todas las plantas y animales de importancia hoy. Las generaciones posteriores de
criadores se limitaron a mejorar los modelos domesticados básicos. Mientras que en los recién nacidos
centros agrícolas - Oriente Medio, sudeste de Asia, Centroamérica, Perú - la población crecía
explosivamente, provocando profundos cambios sociales, los cazadores que recorrían las estribaciones de
los glaciares colaboraban en dar el golpe de gracia a toda una serie de especies animales de la era glacial: en
Norteamérica desaparecieron, entre otros, el mamut y el mastodonte, un camello parecido a la jirafa y un
perezoso del tamaño de un elefante; en el norte de Europa y Asia el mamut y el rinoceronte lanudo.
Una consecuencia de esa ola, parcialmente paralela, de extinciones y domesticaciones, fue que se redujo
drásticamente la variedad de la alimentación humana. Mientras las sociedades de cazadores y recolectores
aprovechaban varios miles de plantas diferentes y unos cientos de especies animales, disminuyó la oferta por
el número comparativamente reducido de especies domesticadas a pocas docenas de especies. (Hoy, las
cuatro plantas cultivadas más importantes, trigo, arroz, maíz y patata, aportan más a la alimentación de la
humanidad que los 26 productos vegetales que les siguen en la estadística alimentaria juntos; entre los
animales económicos, el cerdo y la res aportan más de tres cuartas partes de la carne).
Con su preferencia por unas pocas especies determinadas, el hombre comenzó a dar forma a la vida sobre la
Tierra según sus necesidades. Gracias a la agricultura y la ganadería, unos cinco millones de cazadores y
recolectores se habían convertido en solo 5.000 años en unos treinta millones de campesinos y pastores.
Cinco mil años después, hoy, más de seis mil millones de hombres y se calcula que para el año.
Los cambios acelerados: Durante el paleolítico ya hubo asentamientos aldeanos en lugares especialmente
favorables. Pero la invención de la agricultura hizo posible que se asentara más de una fracción ínfima de la
población mundial. En el Oriente Medio ya vivían en comunidades rurales los campesinos hace unos 9500
años. Las excavaciones arqueológicas en Jericó (Palestina), Çayönü (Turquía) o Ali Kosh (Irán) revelan
detalles sobre el modo de vida de los primeros aldeanos. En Ali Kosh, los colonos se nutrían tanto de plantas
silvestres como de cultivadas: de trigo y cebada, de avena y alfalfa, de lentejas, guisantes, alcaparras y otras
plantas nutritivas. También tenían ovejas entre sus animales domésticos.
Pocos cientos de años más tarde, los agricultores ya construyeron sus primeras casas con cimientos de piedra
y muros de ladrillo. Las primeras poblaciones se componían con frecuencia de agrupaciones de chozas
redondas, muy pequeñas; más tarde los edificios fueron mayores y rectangulares.
Las materias primas para utensilios y otros objetos de uso, si no existían en la región, se cambiaban. El
vidrio volcánico obsidiana, especialmente duro y agudizado, se traficaba a lo largo de cientos de kilómetros.
También eran “bienes de exportación” los conocimientos agrícolas y la vida sedentaria: hubo primeras
aldeas en Grecia hace unos 8000 años, en Egipto hace 6500. Independientemente del Oriente Medio, los
hombres construyeron aldeas campesinas en China (hace 5000 años), en Indochina (6000) y en Centro y
Sudamérica (4000 años)
Todavía se discute si los primeros agricultores vivían mejor que los cazadores y recolectores. Pero una cosa
es cierta: los campesinos se reproducían más rápidamente. Uno de los factores disparadores de la “explosión
demográfica” neolítica puede haber sido la relación entre fertilidad y grasa. El inicio de la pubertad entre las
niñas depende más de su peso que de su edad, y la maduración del óvulo solo tiene lugar si la mujer dispone
de suficientes reservas grasas, condición que posiblemente se cumpliera antes en un modo de vida
sedentario, campesino. en las aldeas nacían más bebés y sobrevivían más de ellos. La abundancia de niños
llevaba consigo más bocas que alimentar, más vecinos, más peleas y más enfermedades contagiosas.
Dos inventos, sobre todos los demás, hicieron del hombre lo que es hoy: el fuego y la agricultura El fuego lo
hizo independiente de su zona climática tropical originaria; la agricultura lo liberó de la limitada oferta
alimentaria de la naturaleza. Pero resulto fundamental la posibilidad de articular son idos cada vez mas
distintivos gracias al lenguaje, que, al facilitar la trasmisión del conocimiento por fin, hizo saltar
parcialmente las cadenas que la memoria limitada imponía al creciente saber de la humanidad.
Hace unos 100.000 años se inició lentamente el cambio físico en la garganta que - lo más tarde hace 4.000
años - dotó al Homo Sapiens Sapiens del aparato fonador moderno. La separación espacial y temporal hizo
que las lenguas existentes se dividieran una y otra vez en lenguas nuevas. Así, la mayor parte de las lenguas
europeas, por ejemplo, pero también el persa y el sánscrito indio, se remontan a un origen común: la lengua
indogermánica, llamada así por sus dos sucesoras más lejanas.
Pero la palabra se la lleva el viento, y los conocimientos almacenados en la memoria se pierden con la
llegada de la muerte; por eso ya el hombre de Cro - Magnon manifestó la necesidad de hacer más duraderos
los pensamientos, según lo muestran las pinturas rupestres y fragmentos de hueso o asta tallados.
El comercio incipiente en el neolítico demandaba sistemas fiables para registrar informaciones. La tarja era
un medio de determinar el deber y el haber en las transacciones. Otro método, que apareció por primera vez
hacia 8.500 a.C., consistía en pequeños discos, bolitas o símbolos de arcilla, que probablemente designaban
determinadas cantidades de mercancía y que con ello son los “albaranes” más antiguos. Los símbolos de
arcilla se difundieron desde el valle del Nilo al del Indo, es decir, toda la región en la que se desarrollaron
las primeras escrituras.
“La escritura es la pintura de la voz”, dijo el filósofo francés Voltaire, y las primera escrituras fueron
efectivamente pinturas: dibujitos que se alineaban. Hace más de 5000 años, los sumerios habían reconocido
la superioridad de tales escrituras mediante dibujos grabados en tabletas de arcilla sobre los símbolos de
arcilla sueltos. En el plazo de pocos siglos desarrollaron de la pura escritura pictográfica un sistema por el
que se podían expresar sílabas sueltas: se había inventado la primera escritura “fonética”, la escritura
cuneiforme sumeria.
La escritura cuneiforme todavía abarcaba la difícilmente digerible cantidad de 2000 símbolos diferentes. A
pesar de ello, era superior a todos los otros sistemas de registro escrito: los escribas sumerios grababan en
tabletas de arcilla húmeda transacciones comerciales e inventarios, compra - ventas de terrenos y listas de
impuestos, cartas de protesta y de amor.
Crecía la demanda de escribas, a raíz de lo cual se fundaron las primeras escuelas de escritura. Ahora se
podían registrar mayor número de cosas cotidianas: se podían anotar las ideas religiosas, igual que los
conocimientos matemáticos, astronómicos o astrológicos. Y con la epopeya de Gilgamesh, que fue grabada
hacia 2000 a.C. por escribas babilonios en escritura cuneiforme, aparece por primera vez un relato escrito
que narra las aventuras de un hombre - Gilgamesh - en busca del secreto de la inmortalidad, en su búsqueda
de la verdad.
La invención de la escritura fue el paso decisivo hacia la civilización. El desarrollo (casi) independiente de
altas culturas junto al Nilo y en Mesopotamia, junto al Indo y al río Amarillo en China muestra que el
tiempo estaba maduro en esos lugares para el desarrollo de escrituras y sistemas estatales que superaran el
marco tradicional de la familia, el clan y la tribu: cuando la riqueza de la cosecha depende del conocimiento
exacto de las oscilaciones estacionales del nivel del río vivificador, cuando los vecinos ya no se conocen,
cuando se comercia a lo largo de cientos de kilómetros, cuando en las metrópolis reina una confusión de
lenguas babilonia, crece la necesidad de información fiable, de un orden fijado por escrito.
El rey babilonio Hammurabi fue el primer soberano que hizo escribir sus leyes poco después del 1.800 a.C.
(en escritura cuneiforme). El arte de la lectura y de la escritura todavía estaba reservado a los escribas. La
invención de la escritura y la construcción de edificios monumentales para los dioses o reyes divinos fueron
más que meras reacciones a problemas cotidianos. Son los signos, visibles aún hoy, de un cambio muy
profundo. Se hundieron los órdenes sociales y religiosos tradicionales. Religiones nuevas como el judaísmo
y el cristianismo ponían un solo dios creador en el lugar de la habitual abundancia de dioses. Y sabios
griegos como Platón y Aristóteles fundaban escuelas de pensamiento basadas en la observación precisa y la
lógica severa en lugar de las interpretaciones míticas.
Parece que los hombres del Mediterráneo Oriental y la Mesopotamia habrían desarrollado desde 1300 a.C.
hasta el inicio de nuestra era, por primera vez, algo así como la “conciencia” en sentido moderno. Allí donde
antes los hombres estaban descritos como sólidamente embutidos en un orden divino, y sin voluntad propias,
aparecen en relatos como la “Odisea” de Homero héroes con rasgos “humanos”, que ya no hacen depender
cualquier afecto, cualquier decisión, de la divinidad del ramo.
La libertad espiritual recién descubierta dio alas al auge de la potencia militar, sin escrúpulos, de Asiria, pero
también al de los pensadores griegos, que comenzó hacia el año 600 a.C. con el concepto del “conocimiento
de sí mismo” de Solón; también con la nueva conciencia surgió la idea del dualismo cuerpo - alma del
hombre, creció algo así como la conciencia del tiempo. El enfrentamiento con el fenómeno del tiempo
produjo las primeras crónicas (y con ello la “invención” de la historia), pero también de mitologías
convincentes sobre la creación, la búsqueda atinada de la humanidad por su lugar en el Universo, por sus
raíces en el tiempo y en el espacio. El proceso de ascenso posterior del ser humano es materia a consultar en
otras obras más adecuadas.
Actualización y discrepancias: Las modificaciones al proceso evolutivo descrito que se anotan a
continuación, proceden de planteamientos que aparecen en los círculos de especialistas y que -por razones
diversas son divulgadas sin que exista necesariamente criterios uniformes respecto a sus aseveraciones. La
revisión que sigue cubre el período de 1992 a 1996. Se advierte-sin embargo-que las modificaciones en el
campo de las teorías de la evolución humana, a partir de 1997 se han vuelto tan aceleradas y constantes, que
solamente los especialistas pueden darle seguimiento . Aquí hemos incluido el tema de la evolución humana
porque es relevante para poder entender la cosmología en un contexto más general y no como simples
teorizaciones y experimentaciones constreñidas a la astrofísica.
• Junio 1992, Litua Yang: El Homo Sapiens no es originario del África, sino de varios sitios del planeta /
Revista Nature, Washington D.C., U.S.A.
• Julio 1995, Ronald Clark; Phillips Tobías: Encontrarlos huesos del pie de un homínido de 3.5 millones de
años en Sterkfontei, África del Sur. Tesis: Es una transición de mono (cuadrúpedo) a hombre (bípedo) y
prueba que todos los antepasados provienen del África / Reuter, Universidad de Johannesburgo, África del
Sur
• Agosto 1995, Owen Lovejoy: La teoría anterior debe ser refutada por "ingenua" / Revista Science,
Washington D.C., USA
• Agosto 1995, Alan Walker: Encontrados restos de nueva especie de homínido "Australopitecos"
Anamensis "bípedo muy temprano que devoraba a los congéneres de "Lucy". Los nuevos datos claves son:
Ardipithecramidus (ramaphithecos), entre monos y hombres = 4.4 millones de años. Lugar de hallazgo:
Etiopía / Revista Nature Washington D.C., U.S.A.
• Julio 1993, Don Tyler: Encontrado cráneo de 11-13 millones de años en Java, Indonesia de un Homus
Erectus / Reuter / Universidad Leiden, Holanda.
• Setiembre 1995, M.E.P.: a) La evolución no es lineal, porque del mismo tiempo, hombres de distinto grado
evolutivo fueron contemporáneos. Ejemplos: a) Pitecantropo en Java; b) Neanderthales en Europa, partes de
Asia y Norte de África, entre 12 a 4 millones de años. b) Los australopitecos se dividen en: a) robustus (3.5
millones de años); b) Africanus (5-6 millones de años). Ambos eran bípedos. c) Homo habilis (primer
hombre dotado de lenguaje primitivo vivió al mismo tiempo que el astrolopitheco) hace 3.0 millones de
años. d) Homo erectus, vivió hace 1.5 millones de años. Descubrió el uso del fuego. e) Homo sapiens
sapiens; se distinguen dos: Cro-Magnon, originario de Oriente y Grimaldi, originario de Oriente Medio,
aparecen en Europa en migraciones sucesivas. / M.E.P., C.R.
• Setiembre, 1995, Phillip, Tobías, José Gibert: El comienzo de la difusión de homínidos desde el África se
produjo hace 2.0 millones de años. Prueba: "El Hombre de Orce" de 1.8 millones de años (bípedo, pero no
erguido aún) encontrado en Orce, León, España. El paso de África a Europa se pudo dar por: a) Uso de
balsas de madera, o b) a pie por la formación de la emergencia de una plataforma terrestre. / EFE, Congreso
Internacional de Paleontología Humana, Granada, España.
• Noviembre 1995, M.E.P.: El Homo Sapiens llega a América al final del Pleistoceno. / M.E.P., C.R.
• Noviembre 1995, Midrel Brunet: Encontrada mandíbula de un australopitheco bípedo, tan antiguo en el
Norte de Chad (Koro-Toro) como los que vivieron en el Valle del Rift. Este hallazgo del espécimen llamado
"Abel" permite hacer estas afirmaciones: 1) Los primeros humanoides no estaban concentrado en el Este de
África, sino desparramados por casi todo el África Negra. 2) Los austrolopithecos del Este africano
progresaron hasta transformares en hombres posesionados por el ambiente. 3) Los del centro y oeste, en un
ambiente selvático, más cómodo, apenas evolucionaron o se quedaron como simios. 4) Su gran
biodiversidad les permitió hace 3.5-3.0 millones de años formar de 1 a 3 especies. / AFP, Universidad de
Poitiers, Francia.
• Febrero 1996, José Gibert: Encontrados restos humanos de homo sapiens sapiens que se remontan a
200.000 años (esto es 110.000 más de la antigüedad que se le atribuía). / EFE, Santiago de Compostela,
España
• Abril 1996, Wang Jihowey: Encontrado hueso de mandíbula del primer antropoide (tamaño pequeño como
un conejo actual), edad: 5 millones de años. el hallazgo confirma que el Eosimio es el fósil de antropoide
(antepasado de los homínidos), más antiguo encontrado hasta la fecha. / Agencia Nueva China, Instituto de
Paleontología de China, Beijing.
• Mayo 1996, Ana Roosevelt: Encontradas puntas de flechas que demuestran que, junto a la tradición
CLOVIS de Norteamérica (11.200 a 10.990 años), que se supone pobló América de Norte a Sur (viniendo de
Europa por el Estrecho de Behering), otra cultura diferente floreció en plena selva amazónica, lo que
favorece la tesis de Paul Rivet (aloctonista)
• Mayo 1996, ND: Australopiteco Anamensis: Primer homínido en vías de erección. 4.1-3.9 millones de
años. Lugar de hallazgo: Kenia. Australopiteco Afarensis. Primer homínido totalmente erecto. 3.9 -3.0
millones de años. Lugares de hallazgo: Etiopía y Tanzania. / Revista Science, Universidad de Illinois,
U.S.A.
• Mayo 1996, Michel Brunet: Se confirman -en principio- los datos aportados en noviembre de 1995, acerca
de la antigüedad de los restos de "Abel" y por lo tanto queda en duda la teoría de un único lugar de
nacimiento y difusión de los homínidos. / Reuter, París
• Octubre 1996, Ian Tattresall, Jefrey Schwartz: La idea de que el Hombre de Neanderthal es una especie
separada (teoría divisionista) y no de la misma especie (teoría de la Linearidad) que el Homo Sapiens, recibe
un fuerte respaldo con los últimos estudios de cráneos de cinco fósiles. / Reuter, Academia Nacional de
Ciencias, Washington DC, U.S.A.
• Octubre 1996, M.E.P.: Hoy día se aceptan dos tesis sobre el poblamiento de América: a) Tesis asiática
(Alex Hrdlicka) que señala que el hombre americano vino de Asia pasando por el Estrecho de Bering; b)
Tesis oceánica (Paul Rivet) que señala que no solo pasaron por el estrecho de Behring, sino también
vinieron desde Oceanía, Australia, Melanesia y Polinesia en oleadas migratorias. / M.E.P., C.R.
• Octubre 1996, M.E.P.: Hay muestras de utensilios y herramientas similares a los encontrados en México,
Argentina y resto de Centroamérica que demuestran la presencia de hombres en Costa Rica desde la última
era glacial (9.000-7.000 años a.C.), en total hace entonces, 11.000-9.000 años de antigüedad / M.E.P., C.R.
Evolución y futuro del Hombre: Para el francés Georges Olivier, profesor de antropología de la Sorbona la
evolución se fundamenta en la comprobación científica de los cambios que se han producido en los seres -
incluido el humano- en el transcurso del tiempo. Los mecanismos de la evolución son:
a) adaptación;
b) variación
c) factor tiempo.
Pero los datos se deben interpretar distinguiéndose con claridad los mecanismos de las teorías interpelativas
En líneas generales interesa señalar que la adaptación es el reajuste del ser al medio ambiente y sobre este
hecho hay fuertes controversias, porque puede ser estricta o relativa y dentro de estos términos darse grados
de variación, algunas debidas al medio ambiente, otras a la herencia: las que a su vez pueden originarse en
combinaciones genéticas, o en mutaciones.
Respecto al factor tiempo revisemos brevemente el pasado, el presente y lo que se avizora para el futuro
próximo:
Pasado :
Interesa para efectos de esta obra ahondar en el factor tiempo, por lo cual son de gran utilidad algunas de las
opiniones de autores europeos citados por Olivier para situar en contexto la evolución .
Teissier: El guerrero galo Vercingetorix (en los albores de la era cristiana) está al nivel del septuagésimo
antepasado de cada uno de los franceses modernos; la prehistoria se inicia con nuestro milésimo antepasado,
en plena glaciación última, nuestro diezmilésimo antepasado es aún un hombre, pero el veinticincomilésimo
es un pitecántropo, eso significa que así, pues, a despecho de la lentitud del crecimiento humano, nuestra
evolución se ha realizado con bastante rapidez, en veinte mil a treinta mil generaciones, calculadas a
intervalos de treinta años por cada siglo.
J. Huxley: En el largo prólogo de la evolución humana, cada cambio importante exigía unos cien mil años;
inmediatamente después del final de la época glacial, una duración del orden de mil años bastaba; durante
gran parte de los tiempos históricos, la unidad de tiempo para un cambio importante era, aproximadamente,
de un siglo, mientras que actualmente esta unidad ha quedado reducida a un decenio, poco más o menos.
Presente:
Meyer: El factor tiempo incide sobre la disociación entre variación anatómica y variación de la conducta en
los seres humanos e infrahumanos. La misma aceleración de la evolución se encuentra también en otros
terrenos muy diversos y que se remontan mucho más en el tiempo: evolución bioquímica, aumento del
número de especies vivientes y crecimiento de la población mundial y del coeficiente de cefalización.
Zeuner: En la evolución, el número de generaciones parece ser menos significativo que el tiempo absoluto"
y no habría ninguna correlación entre la duración de la vida, el número de generaciones y la rapidez de la
evolución.
Florkin: La aceleración de la evolución es un factor temporal en el que intervienen un factor anatómico: el
coeficiente de la cefalización y un factor demográfico: el crecimiento de la población mundial.
Futuro próximo:
Hay tesis no coincidentes una de sustrato biológico, establece la detención de la evolución; otra de sustrato
intelectual la propulsa.
Sustrato Biológico: Debe mencionarse muy especialmente que a propósito de los datos anatómicos y
demográficos se ha previsto la detención de la evolución en un breve lapso, según cuatro, los antropólogos y
paleontólogos así: en el año 2030 para Von Foerster , entre el 2000 y el 2200 para Cailleux y hacia el año
2050 para Meyer.
Se comprende, pues, que haya que plantearse una cuestión previa: si la evolución se acorta no podemos
formular predicciones a largo plazo, ya que el hombre no tiene futuro porque se conjugan:
a) noción de rapidez de evolución que hay que relacionar no con el tiempo cósmico, sino con el biológico.
(La duración del crecimiento de cada generación del ser evolucionado),
b) la rapidez de la evolución es tanto mayor cuanto más evolucionadas son las especies,
c) la del hombre se expresa también por su crecimiento más prolongado.
Sustrato Intelectual: La evolución biológica al conjugarse con el desarrollo de la vida en sociedad y el
progreso en general ha permitido el ascenso de la intelectualidad. La capitalización comunitaria del saber y
la experiencia crea un medio cultural (que Theilhard de Chardin llama Noosfera) y que no es otro que un
estadio más elevado del mundo del espíritu. Este herencia social de la inteligencia es innovadora (por la
potencia de sus efectos futuros), y porque es un factor nuevo de evolución, un factor de otro orden que se
distingue del antiguo factor biológico (por la herencia de lo adquirido) La organización social se opone a la
selección natural por lo que el progreso técnico permitirá intervenir directamente en los procesos evolutivos.
La "Noosfera" va a ser el lugar donde se opere un rebote sinérgico: una rápida evolución psíquica y cultural
sustituirá a la lenta evolución morfológica y la desbordará.
Acerca de este criterio hay dos posiciones:
Posición A:
Hiernaux: Hay una analogía con la emergencia de la vida a partir de la materia y luego del hombre a partir
de las cédulas vivas ordinarias porque el dintel evolutivo será un estado en el que los hombres tendrían las
mismas propiedades humanas triviales de los hombres de hoy en día, pero cuyo conjunto organizado
representaría un salto adelante cualitativo, tan radical como el paso de la materia inerte a la vida y el de la
vida al hombre.Posición
Posicion B:
La sostienen principalmente:
Olivier: El punto de vista de Hiernaux postula que la visión de una suprahumanidad es menos azarosa que la
predicción de un superhombre con un cerebro mayor. En esto tiene razón aunque se trate de dos fenómenos
diferentes: es posible que un buen día sobrevenga un superhombre, pero nosotros no somos lo bastante
inteligentes para concebirlo. La previsión de suprahumanidad es una noción aparentemente más accesible;
en esta noción se sobrentiende que el hombre ya no es un animal como los otros y que su evolución será
particular. No obstante, difícilmente puede imaginarse lo que produciría -según Hiernaux- el acceso a cierto
nivel de organización que desembocase en un estado cualitativamente distinto, dotado en sí de cualidades y
de propiedades nuevas. Debe preguntarse: ¿Qué cualidades? ¿Qué propiedades? Estamos en pleno misterio,
igual que en el caso del cerebro del superhombre. Cuando solo se conoce el agua y el hielo no se puede
concebir el vapor. Por otra parte, hay una buena dosis de idealismo, de voto piadoso, en este concepto de "la
interdependencia cada vez más estrecha de los seres humanos, condición de su evolución, puesto que esta,
de ahora en adelante, se funda en la comunicación del conocimiento". Esta evolución sería, por lo tanto,
esencialmente cultural y no genética.
Bize: "No habrá hombres nuevos" lo que confirma el punto de vista de Olivier.
Leroi-Gourhan: Teme a la idea de convertirnos en una colectividad de hormigas supremamente pensante. A
causa de la sujeción a la técnica, y cree que el hombre corre el peligro de quedar completamente traspuesto
sin que tenga ya relaciones libres con el mundo natural, liberado como quedará de sus instrumentos, de sus
gestos, de la programación de su actos, de su memoria. En realidad, surge aquí un detalle importante: la
próxima acción del hombre sobre el hombre, que hay que apresurarse a prever para intentar frenarla o
controlarla: la ingeniería genética.
A juicio de Olivier grandes progresos se realizarán en el futuro, progresos notables en cuanto no atañerán a
la anatomía del cerebro, sino únicamente al funcionalismo cerebral. Tendremos, ciertamente, un
conocimiento más profundo del mundo exterior y, en consecuencia, una visión diferente del Universo. Pero
los progresos se refieren no solo a la inteligencia pura, (con todo lo que tiene de frío y abstracto) porque el
espíritu humano no es esto solo: afortunadamente comporta otros aspectos, más cálidos y poéticos: la
síntesis de lo racional y de lo afectivo, el juicio, la personalidad, (cualidades que se sitúan en el lóbulo
frontal) y también las incidencias morales, la responsabilidad y el sentido social, lo irracional, lo imaginario,
el sentido del futuro. Por otra parte, el lóbulo frontal puede tener un mejor rendimiento fisiológico, sin
transformación anatómica visible, sin que nosotros tengamos una frente mayor (la frente es específica del
hombre).
¿ Homo spiritualis u Homo Socialis ? .- Finalmente, se ha convenido en reconocer que el estadio supremo
del trabajo cerebral es el poder reflexivo, el cual conduce a las nociones de conciencia moral y de libertad de
juicio. Ahora bien, tanto el desarrollo de las áreas gnósticas (por la educación precoz y por la herencia del
pasado) como la organización de una suprahumanidad entrañan el peligro de transformar el hombre en un
robot creado por él mismo, por ello hay que prever un justo equilibrio entre el condicionamiento necesario y
la libertad del espíritu.
Si la "subida de la conciencia" se parase un día y nuestro coeficiente de cefalización evolucionase
demasiado precozmente según una logística, sería tal vez porque nos habríamos extraviado por no dejar
espacio suficiente para la libre elección individual. Desde los tiempos antiguos hemos estado progresando
más desde el punto de vista intelectual que desde el punto de vista moral.
El materialismo científico, necesario para nuestro trabajo científico y para nuestra evolución biológica, no
debe hacer olvidar que las facultades espirituales son superiores a las facultades estrictamente intelectuales y
que algunos fenómenos, aparentemente irracionales, pueden ser de gran valor (el éxtasis místico es,
probablemente, una de las más hermosas realizaciones de la hominización) y cabe preguntarse: El Homo
futurus, ¿será un Homo spiritualis o simplemente un Homo socialis...?
Para responder es necesario ver que nuestra evolución futura no depende ya únicamente de los mecanismos
biológicos habituales; dos datos se añaden a ello para complicarlo más: el factor social (el nuevo medio
ambiente que se creado el hombre) y la acción del hombre sobre el hombre; de ahora en adelante puede
preverse un proceso de "mutación-selección dirigida", un quebrantamiento de nuestro patrimonio genético
normal por medio de clonaciones. Frente a esto debe preguntarse: ¿Todo el mundo aceptará la eliminación
de los genes nocivos. Esta cuestión se hará espinosa cuando se quieran crear genes nuevos y tipos
superiores...?
Concluye Olivier :
a) La evolución es un hecho que se establece por el pasado y que también puede prolongarse en el futuro, de
allí que: "Aunque nos hallásemos en un "rebote" de la evolución, las leyes de la paleontología deben
permitirnos la construcción de hipótesis sobre el porvenir del hombre.
b) Las bases sobre las que se puede trabajar son muy simples: nuestros antepasados de hace diez mil años
eran físicamente muy parecidos a nosotros, pero los de hace doscientos mil años presentaban diferencias
muy instructivas; en efecto, aparte de toda cuestión sobre descendencia directa, los neandertalenses pueden
considerarse hasta cierto punto como los intermediarios entre los pitecantrópidos y el hombre actual.
c) Esta constatación ha sido el hilo conductor de perspectivas para el futuro: hay una ortogénesis, una fuerza
evolutiva que va a parar al hombre y de la cual postulo que se prolongará más adelante.
Esto no es más que una hipótesis, pero es la única de que se dispone, ya que nadie sabe la orientación que
nos será dada por la nueva evolución, la evolución cultural y psíquica, que el neodarvinismo no había
previsto.
Para prever lo que será el hombre futuro, se han seguido dos reglas:
1.- En primer lugar, limitarse prudentemente en el tiempo a algunas decenas de milenios, por consiguiente, a
unas transformaciones que quedarán dentro del marco del género humano.
2.- En segundo lugar, admitir que no aparecerían más diferencias que las que existen entre el hombre actual
y el hombre de Neandertal, y no solamente más, sino probablemente menos, a condición de que no hayan
divergencias ni ramificaciones, ni gran aceleración tampoco".
Hay un hecho evidente en el proceso de la evolución humana y es la interrelación entre el medio ambiente y
el ser humano. Debido a la proliferación del uso de todo tipo de sustancias nocivas a la salud, todo pareciera
indicar que pueda haber cambios significativos que primero afectan genéticamente ,luego se heredan en el
ADN y por ende provocan cambios. Pero ese tema comienza a estudiarse en el Tercer Milenio.
EVOLUCION DE LA RELIGION CRISTIANA
En un Universo sometido a profundos y acelerados cambios ,de los que nos venimos enterando apenas
entrado el siglo XX ,pues antes de ello- a excepción de algunas personas que lo intuían, no había
conocimiento bien cimentado para afirmarlo y en un Planeta en donde nosotros, los seres humanos que
pensamos el Universo, somos herederos de lo que comenzó como una mera inquietud de nuestros
antepasados primitivos y luego iría tomando forma hasta convertirse en una visión del mundo: las creencias
religiosas.
El texto bíblico para el cristianismo sobre el tema de la Creación, , es el Capítulo 1 del Génesis (obra
literaria y teológica del siglo VI, antes de Cristo, es decir, relativamente reciente en la historia de la literatura
de Israel y de la composición misma de la Biblia) que se produce en un Israel ya evolucionado, marcado por
una historia fundamentalmente dura, difícil, por la destrucción de los reinos y el exilio. En esa época
desarrolla Israel, con base en su tradición ancestral, la teología sacerdotal. que presenta junto a la
cosmogonía (el origen del cosmos) creado por Dios y como culminación de ella , el origen del hombre a
imagen de Dios. Dios hace al hombre a su imagen, según su semejanza, (le hace varón y mujer) y le encarga
la creación.
1) Ese "ser" del hombre como "imagen de Dios" está explícitamente referido en la Biblia, en el texto
sacerdotal, al dominio del mundo, a ser señor del mundo, a ser señor de la creación. Esto sucede entonces,
en tal forma, que el señorío del hombre sobre la creación es la manifestación por el hombre mismo y a través
del hombre, que le permite continuar su señorío de Creador sobre todo lo que Dios ha hecho. El encargo de
Dios al hombre es crecer, multiplicarse, llenar la tierra y someterla. De esa manera, para ese filón de la
teología de Israel, todo lo que el hombre va a ser en el mundo es, entonces, el cumplimiento de la misión que
el Creador le encomendó.
2.- Sin embargo, a pesar de que este es el primer capítulo de la Biblia y que luego sigue otro capítulo que
también cuenta la creación y es tomado de un documento más antiguo, resulta que la Creación no es el
elemento básico de la fe de Israel. Eso lo sabemos perfectamente hoy en teología bíblica. Y eso nos lleva
también a pensar que la creación tampoco es para la fe cristiana, (dado su origen y raigambre en la fe de
Israel) el elemento clave de la fe ni el elemento básico de la teología. Para Israel, Dios fundamentalmente es
el Dios Salvador. Esa es la experiencia fundamental que da origen a la fe de ese pueblo. Y lo mismo pasa
con la fe cristiana: Dios es el Dios Salvador.
3.- Eso no quiere decir que la creación quede marginada, sino que ocupa un lugar determinado en el Plan
divino. La Teología de Israel desde antiguo, logró hacer ese empalme. El empalme de salvación y creación.
Pero el empalme no se hace de la creación a la salvación, sino lo contrario: de la salvación a la creación. Es
decir, la experiencia del Éxodo, de la liberación que Dios concede a su pueblo, de la servidumbre y la
esclavitud de Egipto, y la alianza subsiguiente, se convierte en el momento clave de la lectura de la historia
y también, entonces, en elemento clave de la lectura misma de la creación. Para el Yahvista, cuando escribe
el relato de la creación, la obra del dios que crea es tan solo un preludio de la obra salvífica que dios va a
hacer en favor de su pueblo y a través de su pueblo, de toda la humanidad.
4.- Este es el campo en el que ha salido una discusión grande entre estudiosos protestantes del Antiguo
Testamento: C. Westermannt y G. Von Rad quienes enfatizan en tal forma el elemento salvación como base
con la teología de Israel, que parecen minimizar la Creación. Es muy importante entonces, conocer las
raíces, el origen de la fe de Israel en la religión ancestral de los que fueron los padres de ese Pueblo. Esto es
importante porque allí es donde, a partir de una estructura social y de unos condicionamientos culturales
precisos, se da el campo donde la fe específica de Israel pudo echar raíces y donde se pudo desarrollar,
evidentemente, por la vía providencial de Dios, la futura fe del pueblo de Israel. La investigación
fundamental en este campo la hizo un erudito protestante, el alemán Albrecht Alt, en la obra que marcó un
hito de la comprensión del pueblo de Israel, “El Dios de los Padres”.
5.- Alt trató de buscar el origen de la religión de Israel en sus ancestros. Su investigación se concentró en las
denominaciones de la divinidad, que aparecen en las antiguas tradiciones patriarcales israelitas que se
conservan en la Biblia. El pueblo de Israel en las recopilaciones históricas posteriores conservó tradiciones
que remontan más allá de la constitución propia histórica de Israel, que ocurrió en los siglos XI y XII antes
de Cristo, que es la época de la dominación israelita de la tierra de Cannaán. La Biblia permite, mediante el
esfuerzo crítico avanzar hacia el pasado. Eso es lo que hace el investigador Alt cuando busca la forma de la
religión de los ancestros de Israel.
6.- Las denominaciones divinas en los ancestros de Israel conjuntan el hombre de Dios, en el antiguo hebreo
“El”, con los nombres de los ancestros o de los troncos de las tribus. Por eso se encuentran con mucha
frecuencia combinaciones como esta: el Dios de Abraham, “El Abraham”. Si investigamos lo que quiere
decir “El Dios de Abraham” no debemos entender “Dios” como una denominación genérica, sino como la
divinidad específica “El”. Abraham es el nombre del ancestro de la tribu, o el tronco del clan. Mediante este
tipo de denominaciones se remonta Alt a la forma de la religión de grupos seminómadas, cuya vinculación a
Dios no estaba por tanto marcada por el lugar, por el santuario donde la divinidad era adorada, como en
general en Canaán, sino que la religión estaba ajena a la vida y a las vicisitudes del grupo humano. Es decir,
Dios andaba con ellos, su Dios era el Dios que los acompañaba por la historia, el Dios de las vivencias de
cada día, el Dios que les abría perspectivas de subsistencia en el futuro.
7.- El mismo hecho de la estructura tribal o clánica de los grupos, le da a este tipo de religión una
perspectiva histórica. Una tribu o un clan se define a sí mismo haciendo la lista de los ancestros, es decir,
proyectándose al pasado y abriéndose al futuro. Por tanto, su Dios es el Dios de sus padres, de sus
antepasados, que también marcha con ellos hacia el futuro. Esta característica es esencial no simplemente en
la religión de los ancestros sino también en la posterior fe de Israel. La vinculación de la divinidad con la
tribu y con el clan, es decir, con las personas y con su historia, le da desde los ancestros a la religión de
Israel su característica indeleble, permanente, definitiva. En eso se distingue de la religión de Canaán y
luego de las religiones greco-romanas.
8.- Ciertamente, Israel reconoció a su propio Dios Yahvé en el Dios de sus padres y en el Dios de Canaán.
Por eso cuenta que los Patriarcas adoraban su Dios en los santuarios cananeos. Desde el punto de vista
histórico y aún teológico esta constatación que hacen los modernos, especialmente la investigación del
norteamericano Frank Moore-Cross, que es muy reciente y significativa. Ella puede ayudar a los cristianos
de hoy a hacer el empate total, a saber: nuestro Dios, que es el Padre de Nuestro Señor Jesucristo es Aquel al
cual Israel llamó Yahvé, que lo sacó de la tierra de Egipto, de la casa de la servidumbre. E Israel fue capaz
de empatar su fe en Yahvé con la religión de los padres que adoran a “El” dicho en otra forma nuestro Dios
es el Dios de la religión, el dios de los pueblos: Dios es uno solo.
9.- Ahora bien, la divinidad cananea “El” es conocida por muchos textos no israelíes, sobre todo los de
Ugarit. “El” en la antigua religión de Canaán es el Dios principal del panteón y el Dios creador. Por eso la
idea de creación es un principio teológico mucho más antiguo que la fe de Israel. Israel no inventó la idea de
creación; además no fue su gesta religiosa fundamental. La idea de creación, de un Dios creador está en la
religión cananea; fe en alguna forma vivida por la religión pre-israelita ancestral y pasó luego a la fe de
Israel. La gran gesta de Israel fue haber logrado echar hacia atrás, o trazar retrospectivamente la línea de la
historia desde la constitución del pueblo, por la liberación de Egipto y por la alianza, hacia la creación
misma. Y hacer que la creación misma fuera el primer acto de la historia salvífica. Por eso, si tenemos en
cuenta este punto así como para Israel, es imposible hablar simplemente del Dios creador, prescindiendo del
Dios salvador, tampoco a nosotros los cristianos nos es dable tratar el tema de la creación separado del tema
de la soteriología.
10.- El cristianismo primitivo heredó la fe de Israel. Hay un texto que cita San Pablo en el capítulo octavo de
la Primera Carta a los Corintios, donde presenta una confesión de fe elaborada, seguramente usada por
circuitos de la iglesia naciente. En ella aparecen los dos primeros artículos del credo: el primero se refiere a
Dios Padre, el Creador y el segundo al Señor Jesucristo. El Credo posterior introduce el tercer artículo
referido al Espíritu Santo. El problema que está tratando el Apóstol en el mencionado capítulo es el de las
carnes sacrificadas a los ídolos, si era lícito comer esas carnes o no. Era, por tanto, un problema real en las
comunidades cristianas que vivían en el mundo pagano, donde sacaban al mercado las carnes que quedaban
de los sacrificios idolátricos. Pablo intenta solucionar el problema citando el antiguo credo cristiano. Aunque
para los paganos haya “muchos dioses y muchos señores”, para nosotros los cristianos no hay, sino “un solo
Dios, el Padre del que todo procede y a quien nosotros estamos destinados” (1 Cor.8, 6b). En el primer
artículo está la confesión de la fe judía: dios es el creador, el principio de todo y el fin de todo.
11.- Así entonces en este primitivismo credo cristiano tomado del judaísmo, cuando se habla de Dios se
enfatiza fundamentalmente la obra creativa y la obra de salvación, señalada como la finalidad de la acción
divina sin nosotros. En un texto muy importante, el capítulo 17 de los Hechos de los Apóstoles, el autor
pone en boca de Pablo el célebre discurso ante los atenienses. El Apóstol aparece desarrollando en forma
muy amplia el primer artículo del credo, donde se enfatiza el hecho de la creación. Este énfasis de la
predicación misional cristiana entre los paganos proviene de la praxis misionera del judaísmo helenista, que
busca prosélitos y simpatizantes entre los paganos. Queda claro que la idea de la creación y del único Dios
creador proporcionó al judaísmo helenista y después al cristianismo, un punto de acceso a la mentalidad
religiosa del paganismo greco-romano. Así entonces, aunque la predicación de la obra salvadora de Dios en
la historia no era relegada ni por el judaísmo helenista ni por el cristianismo naciente, la obra creadora de
Dios parecía ofrecer a los misioneros un punto de arranque, ante el cual los paganos pudieran mostrarse muy
receptivos.
12.- En todo caso debe quedar bien claro que, tanto para la fe de Israel, como para la fe cristiana, es
imprescindible establecer una vinculación entre la obra salvadora de Dios que libera a su pueblo de la
esclavitud de la opresión y la obra creadora. O dicho de otra forma: para Israel y para los cristianos el Dios
Salvador es el Dios Creador y ambas obras están entrañablemente conexas. Cuando Jesús empieza su
empeño de evangelización, tiene en su mente este mismo principio. El programa de la predicación y de la
praxis del reinado de Dios en la actividad de Jesús dice de inmediato a este principio fundamental de la fe.
El Dios del Reino es finalmente el Creador que vuelve por los fueros de su obra. Es decir, en alguna forma,
la creación ha sido perjudicada, está interrogada, en ella Dios no se manifiesta como debería manifestarse,
Rey y Señor. Por eso cuando llega el momento de plenitud de la historia, entonces Dios resuelve hacerse
Rey. Es lo que predica Jesús. El hecho de que Dios venga a hacerse Rey significa que en alguna forma la
creación está oscurecida.
13.- Este punto también es importante para la reflexión teológica sobre el tema de la cultura: la creación está
oscurecida. En la creación reina el mal, el dolor, la injusticia, el pecado, la muerte. Dios viene a hacerse Rey,
predica Jesús. Ese es su evangelio, como lo llama el evangelista Marcos al comienzo de su obra: esa es la
Buena Noticia que Él anuncia. Y lo característico de Jesús no es que anuncie que Dios venga a reinar. El
tema del reinado de Dios era un tema común en los Profetas, en los Salmos, y luego adquiere una cierta
perspectiva sumamente penetrante, escatológica, en la apocalíptica del judaísmo. Lo característico de Jesús
no es, pues, que hable de ese tema, sino que afirme que el momento de irrupción del reinado de Dios
coincide con su persona, con su palabra en el sentido de que Dios viene a reinar, lo hace significativo
obrando. Para Jesús sus obras: curación de enfermos, acercamiento de marginados, consuelo de afligidos,
perdón de pecadores -podríamos seguir enumerando diferentes tópicos del evangelio- era la manifestación
en signo del reinado de Dios que ya ocurría en el presente y que hacía seguro el futuro. El Reino de Dios
anunciado como futuro inminente se realiza en alguna forma en signo en el presente a través y por medio del
obrar de Jesús. De esa manera el futuro y el presente se intercompenetran. La novedad escatológica en
alguna forma toma ya posesión del tiempo y de la historia. Lo nuevo que Dios va a hacer como nueva
creación, la toca y la transforma. El Dios que viene a reinar comienza a reinar ya y elementos de su reinado
aparecen significados en el obrar de Jesús.
14.- Para el tratamiento teológico del tema de la creación y de la cultura es imposible prescindir del tema de
la soteriología y también, cristianamente hablando, de la escatología. Las consideraciones hechas hasta
ahora demuestran eso. Pero detrás de estas consideraciones está también un punto que es trascendentalmente
importante para la elaboración de este tema. Es el tema del pecado humano. Eso lo trata el pueblo de Israel
fundamentalmente en la historia del Yhavista, pero en alguna forma influye en todas las consideraciones
bíblicas. El hombre ha sido pecador y de esa manera, su misión en el mundo, el objetivo para el cual Dios lo
creó queda perjudicado e interrogado por su falla frente a Dios, lo cual redunda en su falla frente a los demás
y frente al mundo.
15.- Para la Biblia eso es claro; es evidente, sobre todo en el relato yahvista de la creación. Según éste, Adán
es el hombre que no tuvo ojos para ver a Dios. Ese fue su pecado. El no tuvo agradecimiento en su corazón y
ante el Dios creador respondió con corazón ingrato. Interpretó mal la relación de Dios para con él y así se
manifestó pecador. Caín es el hijo de Adán, Caín, entonces, no tuvo ojos para ver a su hermano. Esta es la
lógica inexorable: Adán no tuvo ojos para ver a Dios, Caín no tiene ojos para ver a los demás. Eso significa
que el pecado fundamental es la ingratitud para con Dios, e inmediatamente redunda de allí la injusticia para
con los semejantes.
16.- Cuando la relación de Dios se ve oscurecida, la relación del hombre frente al hombre se ve oscurecida y
también la relación del hombre frente al mundo mismo. El que mejor trata el tema de la relación del hombre
frente al mundo, a raíz del pecado, es ciertamente San Pablo. Hay dos textos fundamentales sobre el punto:
el texto de primera Corintios 1,21 y el texto de Romanos 1,18. Pablo se basa en el Capítulo XIII del libro de
la Sabiduría que habla del conocimiento de Dios a partir de las cosas creadas. En Romanos 1,18 el Apóstol
caracteriza el momento actual de la predicación cristiana como la Apocalipsis de la justicia de Dios. En el
Evangelio Dios manifiesta su justicia, es decir su bondad salvadora, la amnistía total que ofrece al hombre
pecador. Como contraposición a esa Apocalipsis nueva de la justicia de Dios, el Apóstol habla de la
apocalipsis de su ira, que se ha revelado a través de la historia.
16.- En qué consiste la apocalipsis de la ira de Dios? Dios ha revelado su ira en la historia. Y la ha revelado -
dice el Apóstol- contra la impiedad y la injusticia de los hombres. Los hombres han sido impíos. Su relación
con Dios es equivocada. Los hombres han sido injustos. Su relación entre sí es equivocada también. Esta
impiedad e injusticia de los hombres se funda “en que los hombres mantienen cautiva la verdad
injustamente”. La historia humana como historia paradójica del desconocimiento de Dios en el conocimiento
de Dios implica, entonces, un injusto cautiverio de la verdad. La verdad del mundo, la verdad del hombre
mismo, la verdad de la relación del hombre para con sus semejantes, está determinada por la impiedad del
hombre que no fue capaz de relacionarse con Dios. Para Pablo ese punto es fundamental; la idolatría, es
decir, la divinación o la apoteosis del cosmos en el mundo pagano en que él vivía, tiene como consecuencia
una interpretación equivocada no sólo sobre Dios sino sobre sí mismo y sobre el mundo. todo queda
entonces ofuscado y entenebrecido. La historia queda marcada por el pecado humano.
17.- En Primera Corintios hace algo semejante. Allí llama a la creación “la sabiduría de Dios”, en cuanto
que Dios al crear manifiesta su sabiduría y deja las huellas de su sabiduría en lo creado. Pues bien, hablando
de la creación en esos términos, dice el Apóstol que “puesto que el mundo en la sabiduría de Dios no
conoció a Dios por la sabiduría, quiso Dios salvar a los creyentes por la locura de la predicación”. Esta
expresión significa que la sabiduría del hombre, su capacidad de entender y de entenderse no estuvo a la
altura de la sabiduría que Dios manifestó creando. El mundo entero es una expresión del Dios sabio. El
hombre presuntamente no fue capaz de valorar la huella del Dios sabio y chocó contra Él. Por eso, entonces,
Dios se desencantó de su sabiduría y escogió el camino de la necedad y de la locura. Ya no se va a
manifestar como el Dios sabio de la creación, sino como el Dios loco de la cruz de su Hijo.
18.- Pero que hay algo más en el fondo. El Apóstol dice que el hombre es inexcusable porque pudiendo
conocer a Dios y conociéndolo de hecho, como dice en Romanos, no fue capaz de reconocerlo como Dios y
darle gracias. Sin embargo, la envergadura del mal va más allá; afecta misteriosamente la creación misma.
No solamente los ojos del hombre están ofuscados, sino que en la creación también hay una cierta
ofuscación. No es ya del todo clara, no es del todo diciente, no es del todo significativa. El Capítulo 8 de la
Carta a los Romanos dice que la creación gime con dolores de parto esperando la manifestación de los hijos
de Dios. Por eso, este punto es un elemento clave para iluminar en alguna forma el eterno problema de la
teodicea: El mal del mundo para el hombre siempre ha sido el gran interrogante que redunda para muchos en
ateísmo. ¿Cómo afirmar la existencia de un Creador bueno si hay tanto sufrimiento, tanto mal? Si uno
profundiza más, puede darse cuenta de que el mal sufre el mundo no es solamente el que el hombre causa o
el que el hombre padece, sino que hay como una estructura de dolor que afecta toda la creación.
19.- En el libro de Isaías se nota que el autor sagrado siente también una cierta congoja al mirar la creación
presente, no solamente la creación humana, sino toda la creación presente, cuando en su perspectiva
escatológica el profeta ve al cabrito pastando con el león y al niño hurgando la caverna del áspid. La
creación será algo distinto. Esto significa que la comprensión teológica profunda de la creación solamente la
da el futuro. Es decir, la nueva creación de Dios. Si esto es así, entonces nosotros tal vez podemos iluminar
de un pincelazo el problema eterno de la teodicea, es decir, el escándalo del hombre frente a una creación de
Dios que no se asevera lo suficientemente buena, a pesar de que el Creador así la hizo. Para nosotros el Dios
del principio es el Dios del final. El Dios de la creación es el Dios de la nueva creación. El proyecto creador
de Dios no lo podemos medir por lo que constatamos en esta creación sino por lo que esperamos del futuro.
20.- Para la fe cristiana en su origen, en sus albores iniciales, en su primera expresión entusiasmada, no fue
la Encarnación lo determinante sino la Resurrección. La Encarnación fue una profundización en el misterio
de Jesús a partir de las instituciones de la vida de Él y de las consecuencias que la Resurrección implicaba.
Pero para el origen mismo de la fe en los momentos iniciales de nuestra confesión lo determinante fue el
hecho de que Dios sacó de la muerte a su Hijo, que Dios lo resucitó. Jesús en su anuncio y en su praxis,
llegó a ser la víctima de toda injusticia y de todo el mal de este mundo, Dios lo reivindicó y le hizo justicia
resucitándolo. Dios acreditó la verdad del mensaje y de la praxis de Jesús en su obra de Resurrección. Dios
la hizo cierta. Dios dijo que eso era obra suya, que en eso estaba Él mismo comprometido.
21.- La Resurrección de Jesús en la fe cristiana naciente hay que mirarla en el contexto interno de la vida de
Jesús, es decir, en su predicación y praxis del Reino. En la predicación y la praxis del Reinado de Dios
observamos una profunda incidencia terrena de la salvación. El anuncio del Reino y la praxis del Reino en
Jesús tienen que ver con este mundo, tocan este mundo. Por eso el oprimido queda liberado, el que está
sometido al yugo de lo demoníaco, o de la enfermedad, o del dolor, o de la angustia, o de la muerte, o de la
miseria, ese es tocado en su ser y reivindicado. La salvación que Jesús anuncia con el mensaje del Reino y
que Jesús realiza en signo con sus obras, revelan la incidencia terrena de la salvación. Pues bien, en la
Resurrección del Crucificado ocurre exactamente lo mismo.
Conclusión de esta síntesis: La Resurrección es la afirmación definitiva de Dios en su Hijo, de la nueva
realidad de la creación. Dios la toma para sí y la acepta y le da dimensión definitiva y escatológica. Las
expresiones de la fe cristiana primitiva en este campo llegan hasta el paroxismo en el recuento de la tumba
vacía. Por qué, cuando las mujeres van al sepulcro del Crucificado no hallan el cadáver de Jesús? Porque
finalmente no sólo el Resucitado es el mismo que murió en la Cruz, sino sobre todo, porque Dios Salvador
es el Dios creador y en la Resurrección como obra fundamental y definitiva de salvación, el Creador sale por
los fueros originales de su obra, afirma lo suyo, Dios toma lo suyo. En la Resurrección de Jesús el Dios
Creador es afirmado como Salvador , y finalmente, la nueva creación irrumpe en la antigua. Dios realmente
hace su obra definitiva y aquí nace una interrelación Religión-Cultura.
Teniendo en cuenta esta serie de premisas de corte teológico, entonces, ante la cuestión de la cultura y la
creación, qué podríamos decir? Cuando el creyente en Jesucristo afronta las realidades del mundo, las tiene
que mirar desde la perspectiva del Reinado de Dios. El Reinado de Dios significa la reivindicación que Dios
hace sobre su creación, precisamente en bien del hombre mismo. El cristianismo primitivo captó desde el
comienzo esto. Ante el mundo helenista, con una cultura nueva, con nuevas valoraciones de las cosas, el
cristianismo fue muy receptivo, sumamente abierto. Eso nos lo demuestra hasta la saciedad la investigación
bíblica moderna. Por ejemplo, en las Cartas de la Cautividad Deuteropaulinas, se utilizan los elencos de
virtudes familiares del mundo histórico de la época. El cristianismo naciente acepta las virtudes y
estigmatiza los vicios como se hacía en el ambiente de la cultura popular estoica de la época. Y no
solamente en ese campo el cristianismo fue abierto; en muchos otros campos también la apertura del
cristianismo ante el mundo helenista fue tan grande que aún tuvo incidencia en las expresiones mismas de la
cristología.
Pablo resume todo esto en una frase muy incisiva de su primera carta a los Tesalonicenses. Él le habla a una
comunidad mezclada de judíos y paganos y les dice: “examinad todas las cosas pero quedaos con lo bueno”
(I,Tes.5,21). Los cristianos están llamados a retener los valores de la cultura helenista de la época. Algo
semejante hace el Apóstol al comienzo de su paréntesis en la Carta a los Romanos, Capítulo 12, cuando les
dice a los hebreos cómo debe actuar un cristiano. El cristiano debe ofrecerse a Dios como un sacrificio puro,
como una víctima santa y esto se hace en dos niveles. En primer lugar, dejándose llevar por la realidad de
Jesucristo. Esto le permite al creyente conocer cuál es la voluntad de Dios, lo bueno, lo agradable, lo
perfecto. Es decir, cuando uno no se amolda al mal de este mundo y se deja determinar por aquello que
Jesucristo implica para la vida, tiene juicio de discernimiento en el mundo. Uno sabe, entonces, discernir,
juzgar y actuar.
Actualmente hay una coyuntura cultural importante para el cristianismo, porque Estamos el mundo cambia a
pasos agigantados y cada vez con mas aceleración. . La Iglesia no ha tenido capacidad de acercarse
adecuadamente a la nueva imagen del mundo que proveen las ciencias.
Según un inventario de las creencias hoy en día publicado en 1990 ,muestra estas cifras ( en millones de
personas) dato que que no reflejan esencialmente la calidad de la membrecía a ninguna de las creencias
religiosas mencionadas:
a) cristianismo católico (944)
b) cristianismo no católico (889)
c) islamismo (954),
d) hinduismo (749)
e) confusionismo (351)
f) budismo (341)
g) hebreos (20)
h) sikh (17)
i) animistas (816)
j) ateos, agnósticos,indiferentes ( 270)
Múltiples factores, entre ellos: progreso científico tecnológico, auge y caída de sistemas e ideologías,
modernidad y crisis tanto de esta como de la así llamada postmodernidad, frustraciones y pérdida de sentido,
aturdimiento ante el salto informático, autosuficiencia consumística, han conducido a un movimiento
contradictorio: de una parte, alejamiento de Dios y de la otra, nostalgia de lo divino o de lo religioso en
general. Rechazos hasta la persecución, acompañados o seguidos de inclinaciones y manifestaciones
religiosas, unas claras y auténticas, otras oscuras, menos genuinas hasta aberrantes. Porque al lado de lo que
pudiera denominarse una verdadera “religatio” (reconocimiento del Dios personal, de la perspectiva ética y
de un horizonte supra o transtemporal), se dan también la acomodación pragmática sincrética, el “self
service” religioso estilo “new age”, hasta la multiforme brujería.
EL PROBLEMA DE LA MENTE
Durante casi tres milenios en que hay registros históricos para conocer lo que se ha pensado sobre el
problema de la mente, sobresalen varios autores cuyas ideas dan forma al debate moderno que hoy ocupa a
filósofos, psicólogos, lingüistas, neurofisiólogos y neuroanatomistas. Para facilitar el acceso a las principales
ideas en torno al problema, esta sección se ha organizado en siete categorías, y - a la vez- en cada una de
ellas, se mencionan los aportes teóricos más significativos que enriquecen el debate. Se prescinde (salvo si
son muy relevantes) de las ideas externadas antes de 1980, para ofrecer una visión más actualizada. Debe
advertirse que el estudio de la Mente (para algunos basta estudiar el Cerebro) recién se inicia.
MONISMO O DUALISMO .- El debate sobre el monismo o el dualismo en el campo de la relación
cuerpo/mente, se puede dividir en cinco grandes problemas:
1) Problema de la sustancia (o Problema Cuerpo/Mente)
Desde la antigüedad el debate es si hay una sola sustancia de la cuál están conformadas las cosas (entre ellas
nosotros), o si hay más que una. Al respecto hay cuatro escuelas que aún hoy subsisten:
1) Materialismo: Hay una sola sustancia: la física y los estados mentales son apenas diferentes formas del
estado físico.
2) Idealismo: Hay una sola sustancia: la mental y lo que calificamos de materia son apenas impresiones
captadas por nuestros sentidos.
3) Dualismo: En el ser humano coexisten dos tipos de sustancia: la física y la mental, sirviendo la segunda
para elaborar y organizar el pensamiento acerca de la primera.
4) Funcionalismo: Es una posición intermedia entre el materialismo y el dualismo. De frente al primero
afirma que se deben homologar los estados físicos de la materia con los estados mentales y de cara al
dualismo señala que la mente no existe independientemente del cuerpo.
Criterios Representativos:
• Block: Cualquier definición funcional de los estados de la mente (dolor, angustia, felicidad, por ejemplo)
no debe asociarse con extrema liberalidad a criaturas (naturales o artificiales) que en realidad no lo tienen; ni
tampoco de forma chauvinista señalando que no las poseen más que las criaturas superiores. Para evitar tal
confusión debe trabajarse en una clasificación de tipos de funcionalismo y optar por el empirismo
psicológico (se requiere mas trabajo experimental) para lograr una salida al problema.
• Chomsky: El problema reside en que la ciencia no ha definido aún la esencia del cuerpo con claridad; y si
es necesario hacer una elección entre el conocimiento de los estados mentales y el conocimiento del cuerpo
físico, se requiere acomodarse al segundo, porque - en última instancia- el conocimiento final del cuerpo
está directamente relacionado por las teorías de como opera la mente.
• Churchland: El argumento de la “instanciación múltiple” no debe ser restrictivo sino poder aplicarse, por
ejemplo, a la teoría de la termodinámica (que en la practica ha sido reducida a un comportamiento mecánico
de las moléculas predicho por la estadística). Así, el calor observado puede reducirse a otro estado : energía
cinética y esta a su vez a otro estado. Es decir, se debe llegar a conocer cada vez con más precisión cual es la
menor “reacción” posible de identificar en los niveles más básicos de la materia.
• Kripke: La ciencia es la que descubre la esencia verdadera de las cosas; así al descubrir que la luminosidad
es el resultado de una descarga eléctrica se sabe que su esencia es la misma. Alternativamente si su esencia
fuese diferente ambas serían cosas distintas. Respecto a la esencia de la mente esta puede ser distinta a la del
cuerpo y mientras no se descubra que no es así, el dualismo es correcto como enfoque.
• Place: Dos cosas pueden ser idénticas entre si, aunque sus definiciones no lo sean. Ejemplo: la luminosidad
de un bombillo es diferente a la descarga eléctrica, pero en el fondo son idénticas. Respecto al pensamiento
“cuerpo” y al pensamiento “mente” hay definiciones diferentes; pero, sin embargo es posible afirmar que
ambos (cuerpo y mente) son idénticos.
• Putnan: La naturaleza de los estados mentales es compatible con el funcionamiento de una “máquina de
Turing” (una computadora abstracta), que puede ser “inicializada” (o “instanciada”) en diferentes tipos de
“hardware” (chips de silicón, o cuerpo humano). Por lo tanto (entre otras consecuencias) el dolor no es algo
que pueda asociarse al concepto de “dolor psicológico humano”, sino ser “instanciado” y experimentado por
diversas criaturas naturales o artificiales. De lo que se desprende que no hay que reducir el estado
psicológico del dolor, a un único tipo de estado neuropsicológico, propio del ser humano o de los seres
vivos.
• Ryle: El dualismo introduce un error categorial; por ejemplo, es posible hablar de los estados mentales
(dolor, tristeza, etc.) y de los comportamientos humanos al respecto, pero es erróneo creer que estos existan
separados como tales.
Discusión: Con independencia de cuál escuela lleve la razón, el problema de la dualidad se complica cuando
el concepto de materia cambia. En la física clásica la materia se entiende organizada en niveles y por más
pequeña que sea la masa, en todos los casos la materia en cuantificable, porque se presenta en “unidades
discretas”. La física cuántica, sin embargo, introduce el concepto de la discontinuidad, por lo que la materia
se reduce a fluctuaciones estadísticas solo predecibles por la matemática, que - para la mayoría - es un
lenguaje y no una entidad física; y que para dar cuenta del mundo se asume como una “continuidad
matemática”. Por otra parte queda el problema adicional del cerebro (en el que supuestamente se llevan a
cabo los procesos mentales) porque no se conoce cual sea el nivel más básico de sus estructuras neuronales,
pero hay que asumir -a priori- que funciona de la manera como lo hace, porque se corresponde con la
esencia de lo que capta y analiza para pasar luego a hacer inferencias lógicas.
2) Problema de la Causación Mental:
En el primer problema Aristóteles fue el creador del funcionalismo y destacaron los filósofos Hume, Mills y
Descartes en una aproximación dualista con matices variables. En este segundo problema, que trata de como
se producen los poderes causales de los estados mentales (independientemente de su naturaleza), cabe
mencionar a Platón, Descartes, Malebranche, Leibntz, Kant y Husley, quienes sostienen - mutatis mutandis -
una posición dualista:
• Descartes: La mente y el cuerpo interactúan de manera casual y este efecto se lleva a cabo en la “glándula
pineal”.
• Haxley: Los estados mentales no tienen poderes de causación, no obstante que existan y la conciencia es
un epifenómeno de los estados del cerebro.
• Kant: El espacio y el tiempo no son objetos en si, sino condiciones subjetivas de nuestra intuición sensible
por medio de nuestra percepción. Por lo tanto solo podemos conocer la apariencia de las cosas por medio de
la impresión que nos causan (ipifenómenos); de manera que las cosas en si (“noumenon”) están escondidas
para nosotros. Ahora bien para el conocimiento de lo aparente, los epifenómenos pueden parecernos como
causados por estados cerebrales o por situaciones diversas, para el caso lo mismo. Y en lo que toca a nuestra
reacción o comportamiento respecto a esos epifenómenos también pueden ser interpretados como causados
por la libre voluntad de las cosas.
• Leibntz: Dios estableció una armonía en el que cada objeto reacciona con otro en la forma apropiada en el
momento apropiado, por lo que el diseño de la mano por ejemplo, está dado por esas reglas preestablecidas,
de manera que al alzar la mano espontáneamente puede dar la impresión (ilusión) de que es un acto causado
por un deseo específico de la mente.
• Fodor: Hay dos formas para describir los eventos mentales, pero para ser causalmente eficaz un evento
debe estar situado dentro de las leyes de la causalidad. Pero esas leyes no pertenecen al ámbito de la física, y
mas bien difieren de ella, porque las leyes de la física no requieren de condiciones básicas en lo niveles más
bajos; mientras que estas otras si lo necesitan y son - ciertamente - genuinas leyes causales y sus conexiones
pueden ser apropiadamente descritas en lenguaje mental.
• Davidson: Hay dos maneras de describir los actos mentales: en lenguaje físico o en lenguaje mental. En el
primero la descripción física permite la aplicación de las leyes de la causalidad; no ocurre así con el lenguaje
mental, pues aquí la descripción está condicionada por el lenguaje físico, lo que lleva a otra situación
epifenomenológica (o monología de lo causal).
•
Discusión: Los últimos dos autores contemporáneos nos introducen al tema de los lenguajes de la mente y a
los de las leyes de la mente - ambos muy interrelacionados - porque de aquí se asume que el mundo es
conocido como lo es en razón de la estructura cerebral, el lenguaje cerebral y los lenguajes de la mente así
como por las imágenes del mundo que procesa.
3) Problema de las Imágenes Mentales:
Si bien en los dos problemas anteriores hay diversos puntos de vista, en este tercer problema se puede
señalar que en la antigüedad - y casi hasta nuestros días - había consenso acerca de lo que son las imágenes
mentales con las que el ser humano “aprehende” en su mente, el mundo que le rodea.
• Tomás de Aquino, Hobbes y Descartes: solo las criaturas con cuerpo pueden tener imágenes mentales
(Hobbes y Hume estiman además que las imágenes son igual que sensaciones sensitivas pero degradadas),
James: Las imágenes tienen una base fisiológica y los procesos que las sostienen son idénticos a los que
gobiernan la percepción. Külpe: no todos los actos mentales son factibles de ser reducidos a máquinas (los
casos de espera o deseo, por ejemplo).
• Dennett: Se apoya en algunas de las ideas señaladas y especifica que no hay nada como “retratos de cosas”
en el cerebro; ya que por una parte las imágenes guardan relación con algunas de las propiedades físicas de
los objetos que representan y, porque las imágenes son incompletas. Aboga, entonces, por la necesidad de
introducir más trabajo experimental para resolver el problema. Por ejemplo: Aunque un tigre real tiene un
número determinado de rayas en su piel, imaginado (con los ojos cerrados) el tigre resultante es una figura
vaga con pocas o ninguna raya. A partir de las ideas de Dennett se inicia un fuerte trabajo en psicología
cognitiva para tratar de establecer si existen o no las imágenes mentales visuales. Por ejemplo, hay dos
experimentos clásicos:
• Roger Shejard y Jacqueline Mitzler: Reportan un experimento en el que se suministra a los sujetos dibujos
de varias figuras geométricas idénticas, pero con diferentes ángulos de rotación. Hallazgo: A mayor
rotación, más dificultad de identificación de la figura original. Explicación: Los seres humanos forman
imágenes mentales de esas figuras y pueden rotar la imagen mental pero solo hasta cierto grado.
• Kozilyn: Reporta los resultados obtenidos al someter a sujetos a “escanear” mentalmente un mapa y
localizar un punto determinado (un lago) y luego a señalar en la imagen mental la localización de otro lago.
Hallazgo: A mayor distancia entre los dos lagos, mayor el tiempo requerido para la respuesta. Explicación:
Hay limitaciones espaciales en la dimensión de los objetos que pueden ser imaginados.
Discusión: Las críticas externadas por el psicólogo Phylyzhyn a ambos experimentos sirven para poner de
relieve dos puntos: a) Que los períodos reportados no corresponden en realidad con el proceso de
imaginación dada la interferencia (no medible) del inconsciente; b) El tipo de instrucciones dadas a los
sujetos hace dudar de los hallazgos; c) No es posible separar el tiempo verdadero empleado por los sujetos
para dar sus respuestas y las características (medidas en tiempo) que gobiernan los actos de imaginar ya que
se supone son intrínsecas a la organización de esta facultad mental.-
4) Problema del ¿Asociacionismo o Coneccionismo?
Asociacionismo (Antecedentes): Primero Hobbes y luego mas sistemáticamente Locke desarrollaron la
doctrina del Asociacionismo, que tiene que ver con la cadena de pensamientos, o los pensamientos en
cadena .
• Locke: Algunas ideas son asociadas a otras ideas porque hay una conexión natural entre ellas; mientras
otras ideas llegan a ser asociadas por los gustos, la educación, las preferencias, la cultura, incluso algunas
otras ideas se asocian entre si por razones de patología (miedo, temores).
• Hume: Desarrolla más el concepto y llega a clasificar las conexiones por razones de: recuerdos,
contigüedad, causas y efectos.
• James: Detrás de cada cadena de relaciones hay un principio ordenador de éstas y la cadena tiene una base
fisiológica (neural).
• Coneccionismo (antecedentes): Es una rama reciente que agrupa investigadores en ciencias de la
computación, psicólogos y neurólogos. Si bien para algunos es una rama desligada de las teorías
asociacionistas, para otros no es más que un asociacionismo armado de “tecnología de punta”. En sus
escritos - sin embargo - hay razones para pensar que a veces se acercan y en otros se distancian.
• Debate: En la actualidad el debate se da entre los seguidores de una versión especial del coneccionismo,
mas conocida como P.D.P., que corresponde a Paralell Distributing Process (o proceso de distribución
paralela) que hace semejar el cerebro a una computadora que trabaja según este principio ordenador básico.
Sus máximos representantes son: Mac Clelland, Rumelhart y Hinton. En el polo opuesto se encuentran
Fodor y Pylyzhym y en una posición intermedia Smolensky.
• Grupo P.D.P.: Propugnan un modelo de memoria en el que las propiedades se asocian con unidades
neurales que se excitan mutuamente como procesadores y es gobernada por un algoritmo general. Las
unidades se tratan como entidades autónomas (atómicas), no interrelacionadas previamente, distribuidas en
el tejido neural y con conexiones aleatorias. El acento está puesto en el “hardware”.
• Fodor y Pylyshyn: Defienden el concepto que el cerebro funciona como una computadora clásica, esto es
una serie de operaciones formales sobre un complejo de objetos sintácticos, que obedecen a un lenguaje
estructurado. Este modelo permite, según sus defensores mantener el concepto de “productividad
lingüística” (la habilidad para crear y entender procesos y fases secuenciales) de “sistematicidad alternativa”
(para hacer inferencias de A respecto a B y viceversa): de “composicionalidad” (el significado de una fase
como resultado de la combinación de cada una de sus partes) y de “coherencia inferencial” (por ejemplo P &
Q de P). El acento está puesto en el “software”.
• Smolensky: En el debate entre los dos primeros modelos señala que el problema no reside en dar
importancia al “hardware”, o al “software”, sino en postular que la dureza de las operaciones mentales
(hardware), está condicionada por la suavidad de estas (software). Postula además que la mente es una
máquina estadística sensible que opera sobre una estructura numérico-sensitiva a base de sensaciones.
• Minsky y Papert: A juicio de ambos las propiedades matemáticas del modelo PDP no han sido totalmente
exploradas y aún para el modelo de red paralelo más sencillo, hay grandes dificultades para entenderlo; pero
ello no es razón para abandonar la búsqueda.
Discusión: A principios de la década de los setenta se inicia el nacimiento de una nueva ciencia, o “para
algunos” de una nueva forma de dar cuenta de los problemas de la forma de adquirir y procesar el
conocimiento: la Ciencia Cognitiva (o Cognoscitiva) en la cual el debate incluye a representantes de varias
disciplinas y se ha fundamentado en la discusión sobre la arquitectura de la computadora biológica (cerebro
+ mente). Así para los asociacionistas las relaciones son causales y para los conectivistas son programadas y
además con base en un “lenguaje del pensamiento” (que sería una combinación sintáctico - semántica).
Para un modelo el conocimiento está gobernado por el “hardware”: reglas de la lógica, reglas del lenguaje;
para el otro domina el “software”: basta un formalismo (tipo inteligencia artificial que gobierna a los robots)
para adquirir conocimiento.
Visto con neutralidad se trata de un dilema siempre presente en el conocimiento de la mente, desde que se
conoce la división de funciones asignadas al hemisferio izquierdo (dominado por relaciones lógicas) y el
derecho (dominado por relaciones afectivas).
A criterio de Smolensky, cuando se analiza la “Máquina Cognitiva” a un nivel bajo refleja su dureza; cuando
lo hace a un nivel muy alto, refleja su suavidad (Software). Pero ambas están interrelacionadas y
determinadas no como en las computadoras elementales: el (“hardware” condiciona el “software” que
corre), sino al contrario.
5) Problema de las Ideas Innatas:
El problema de las ideas innatas es uno de los más conocidos en la historia del debate sobre la pregunta:
¿Cómo se adquiere el conocimiento?
Criterios Representativos:
• Platón: En un pasaje de los “Diálogos”, Sócrates demuestra a su alumno Meno que aun un joven sin
educación tiene un conocimiento innato sobre geometría y que la experiencia es la oportunidad para obtener
el conocimiento acerca de geometría y sobre todas las cosas de la naturaleza.
• Descartes: Las ideas no se encuentran alrededor del ser humano en espera de ser aprendidas; pero si existe
una capacidad innata para generar ideas. Así no nacemos con conocimientos de geometría, pero si con la
habilidad del raciocinio innato (el poder de pensar) que es el que permite el conocimiento de la geometría y
de todas las cosas.
• Locke: Si nuestras ideas son generadas por el uso de la razón (Descartes) y si por la razón se entiende
razonamiento deductivo, entonces el conocimiento vendrá de la experiencia, ya que los mecanismos de
deducción pura no permiten inferir ideas de la nada.
• Piaget: Parte de una posición intermedia entre Descartes y Locke; rechaza que las ideas son innatas y que
estas sean el punto de percepción solo. Postula que nuestras mentes tienen estructuras cognitivas (o
cognoscitivas) que organizan la experiencia; pero rechaza que estas estructuras sean el resultado de una
capacidad biológica innata; sino que el conocimiento es posible gracias a un proceso de desarrollo
escalonado que se “catapulta” a si mismo por medio de la educación programada.
• Chomsky: Postula la existencia de un lenguaje universal que tiene su asiento en un hipotético órgano
generador de unas reglas gramaticales universales sintáctico-semánticas que estructuran el pensamiento. Así
la educación no hace sino “recordar” lo que subyace en el inconsciente.
• Fodor: Se opone a la teoría del conocimiento que se catapulta a si mismo (llamada teoría “bootstrap”,
traducida en física cuántica como "pararse sobre los talones para autocatapultarse") de Piaget, porque para
aprender un conocimiento es necesario tener - de previo- un lenguaje de la mente - que es tan rico, como el
lenguaje natural y se corresponde con este.
Discusión: La disputa clásica entre Piaget y Chomsky (finales) de los 70 sobre este tema, hoy día subsiste,
pero además hay otros criterios de tipo complementario que han aflorado para traer nuevas luces sobre la
materia. Al viejo debate reseñado en la parte anterior, se une hoy un nuevo debate:
Por ejemplo la obra de Flanagan: “The Science of the Mind”, rescata nuevas ideas sobre la emergencia de la
conciencia; Searle, en “The Rediscovery of the Mind”, trata de volver a la polémica sobre la mente a cauces
más naturales, acusando a mucho investigador de prestarse a generar “basura”. Por su parte Jackendoff
amplia el concepto de “lenguaje de la mente” (en singular como propuso Fodor) a un concepto más plural en
su obra “Languages of the Mind” y llama la atención acerca de la necesidad de no confundir las tesis
filosóficas y las tesis psicológicas sobre la mente, porque ambas aproximaciones son - de por si -
excluyentes y postula en consecuencia una nueva propuesta: la psicología constructivista. Lo importante es
que de los debates y pese a las confusiones pasajeras, como en toda disciplina humana, va emergiendo una
idea nueva: El Universo es como es, porque nuestra mente lo percibe así y está adaptada para recibirlo así.
Al tratar los problemas de la percepción surge una interrogante: ¿esta percepción es obra del “hardware”, o
del “software”?, si se adopta la tesis materialista, o de la conciencia, si se adopta la tesis naturalista.
Para contestar la pregunta es necesario profundizar más en las teorías y en su origen histórico, que
determinan, - con fuerza - sus planteamientos distintivos y que para simplificar dividiremos en dos: a) Los
modelos materialistas y b) las refutaciones naturalistas.
A) Los Modelos Materialistas:
De acuerdo con estos modelos que no aceptan de ninguna manera la existencia de la “conciencia” la
capacidad mental no está determinada por el tamaño del cerebro (que comprendería no solo la masa
encefálica, sino todos los demás elementos interconectados), sino por los “programas” y por los “lenguajes”.
En su acepción original (debida al cibernético Norman Wiener en 1954) es la información (cuyo
comportamiento es estadístico) lo que interesa conocer. Posteriormente los estudios buscan descifrar de que
manera funcionan los procesos de memoria (corta y larga). Actualmente el interés se centra en las formas en
que la información es procesada, almacenada y entrelazada por el cerebro.
El cerebro tiene la capacidad de captar el espacio - tiempo - estados de la materia, bajo una organización
propia, inherente; pero con diferentes grados de independencia para cada uno de los rangos de posibilidades.
Estos rangos de posibilidades pueden ser discretos (binarios o de “n” posibilidades); o bien continuos
(analógicos y estadísticos). En esencia este espacio puede ser imaginado como un espacio de hipótesis de los
diferentes estados (o entornos) del mundo. Así, cuando se recibe un estimulo (visual, auditivo, calórico,
presión, etc.) éste viene cargado de información para que el mecanismo responda con otra impresión
almacenada, que sirve para que se forme una representación mental del estímulo. Esta representación mental
permite codificar el entorno.
La impresión mental sería, entonces una combinación organizada de espacios de distinciones para uso del
cerebro. Sobre este aspecto particular hay varias desviaciones del modelo: Algunos creen que hay una
“intencionalidad” de fondo detrás de estos procesos (John Searle); o “mecanismos trascendentes” (Jerry
Fodor), o un “lenguaje universal subyacente” (Noam Chomsky).
Un esquema muy representativo de la escuela de psicología materialista (llamada también fisicalista) debido
al investigador Ray Jackendoff de la Universidad Brandeis, plantea que los límites físicos dentro de los
cuales funciona la mente puede representarse con este modelo:
Modelo de Jackendoff: La información llega a la mente en formas diferentes:
a) Arreglos espaciales luminosos captados por los receptores retinianos; arreglos temporales de frecuencias
de sonidos captados por los mecanismos auditivos; arreglos espaciales de contorno físico provistos por los
sensores de la piel y otras combinaciones.
b) La información que sale de la mente afecta primariamente los músculos, dado que es por medio del
nacimiento (incluido el tracto vocal en el caso del lenguaje), o bien de la segregación hormonal (en el caso
de las glándulas), que el ser humano reacciona respecto del contorno.
c) Ni la información que llega ni la que sale explican el mundo en términos de objetos y sus movimiento o
de nuestras relaciones y acciones respecto de estos, sino que esta modalidad de percepción que desemboca
en nuestro conocimiento y formulación de ideas están codificados en un “formato central”, que no es único
sino subdividido a su vez.
d) Todas las diferentes clases y formas de información interactúan mediante mecanismos mentales que
sirven para trasladar o para transformar información desde fuera hacia el “formato central”, de modo que sea
posible percibir y entender el contorno ya decodificado. De la misma manera el “formato central” permite
trasladar al exterior la información procesada para ser utilizada de acuerdo con nuestro conocimiento del
entorno.
Asociacionista Vs. Modelos Conexionistas:
El tipo de conexiones que se dan en las estructuras cerebrales ha originado dos clases de explicaciones
materialistas. Para algunos psicólogos fisicalistas el modelo es de tipo conectivista; es decir hay sustratos
“discretos” especialmente diseñados a niveles neuronales (John MacClelland); para otros el modelo es de
tipo asociativo (Patricia Churchland); es decir el sustrato está o bien condicionado por el azar, o bien tiene
un condicionamiento de carácter analógico-estadístico.
En todas las variantes de estos modelos, sin embargo, se toma como regla que donde quiera que exista una
constancia psicológica, debe haber una representación mental que la codifica. Así, por ejemplo en el caso
del lenguaje una “p”, no importa donde esté escrita, o donde se la escuche, o donde se sitúe en una frase,
siempre es percibida como “p”. Esto sucede así porque se supone hay una fonología segmentada que
encadena, sonidos, sílabas, palabras. En el caso del lenguaje existen además otras modalidades de
representación mental, cada una con sus características. Estas categorías son, por ejemplo: la entonación, la
estructura sintáctica, las características del “fraseo”; y además el “significado”, con el cuál se corresponden
categorías de “conceptos”.
Lo que se ha señalado para el caso del lenguaje se repite - dentro de otros parámetros - para la captación y
procesamiento de imágenes, sonidos, presiones y sensaciones táctiles, olores, etc. Y además todo ello tiene
niveles de coordinación e interacción, que Jerry Fodor denomina “modularidad mental” y Noam Chomsky
“divisiones en órganos mentales”, pero, en ambos casos en un esquema de representación tridimensional.
En consecuencia para estos modelos la investigación debe centrarse en estos aspectos:
1) Cómo coexisten diferentes formas de información;
2) Cómo podemos diferenciarlas;
3) Cuáles son sus características básicas distintivas;
4) Porqué usamos unas sí y otras no;
5) Cómo se llevan a cabo los traslados de información en términos de espacio y de tiempo;
6) Cuáles son los principios de combinación que coexisten en la mente para permitir la interacción de los
diversos lenguajes;
7) En el caso del lenguaje, cómo se hace el paso entre al estímulo y los diferentes niveles de estructuras
conceptuales, sintácticas, semánticas, y fonológicas.
Modelos Matemáticos: ¿Un lenguaje secundario? :
Otra vertiente de las explicaciones del funcionamiento de la mente también materialista o fisicalista, se
origina en las explicaciones respecto a la sede en la que se localiza la inteligencia. Así John Van Neumann
había predicho (1958) que las matemáticas son un lenguaje secundario, montado sobre el lenguaje biológico
primario neuronal utilizado por el sistema nervioso central.
Esta idea encuentra asidero en los modelos recientes que efectivamente señalan que la mente tiene varios
lenguajes, pero ninguno es intrínsecamente matemático; en consecuencia se ha planteado (Jackendoff) que
los lenguajes matemáticos son desprendimientos lógicos de diversos ajustes del funcionamiento de la mente,
por ejemplo:
1) La aritmética es una idealización de la lógica para tratar montos, cantidades, unidades;
2) La geometría es una idealización de la lógica de la representación tridimensional, que codifica mente
concepción del espacio;
3) La lógica misma que se aplica a los lenguajes matemáticos, se asienta en la intuición que se refiere a los
principios de inferencia (Mac Namara) y estos principios, (de carácter computacional), permiten deducir
nuevos conceptos estructurales de viejos conceptos.
Modelos Constructivistas: ¿La solución? :
En los últimos años se ha ido abriendo paso las explicaciones de tipo “constructivista”. Esta explicación deja
por fuera la idea clásica de que el cerebro funciona con base en esquemas matemáticos y mas bien ha
originado muchas explicaciones que sitúan la inteligencia en la capacidad de interpretación del
conocimiento espacio - temporal (Gruber, Lakoff), o bien que las nociones lógicas son abstracciones de la
conceptualización de las fuerzas dinámicas interactuando espacialmente (Piaget).
En el caso del comportamiento social se ha postulado (Seyfert) que en el transfondo de la inteligencia
humana se encuentra la capacidad de interrelacionar los aspectos sociales trascendiendo los aspectos físicos,
y por lo tanto originado en el proceso evolutivo ascendente, órganos mentales adaptados para diversas
necesidades (Gould). Al punto que (Gardner) plantea que hay varios tipos de inteligencia y no una sola
como se creía; y por la otra parte, la inteligencia evolucionando sería la causa del progreso en función de
mas y mas capacidad para procesar ideas cada vez mas abstractas e idealizadas (Jackendoff); así como
adaptándose para apreciar un entorno que tenga sentido lógico.
La Esencia de las Cosas o de la Realidad del Universo:
Para los materialistas en este punto sobre la experiencia humana acerca de la realidad es importante tomar en
consideración la propuesta que formula Jackendoff, pues se relaciona directamente con el problema acerca
de: ¿cuál es la realidad del Universo?, y del problema: ¿por qué el Universo lo apreciamos como lo
apreciamos? Dice Jackendoff: la solución por la vía filosófica es engañosa porque postula que el ser humano
no puede conocer la esencia de las cosas, dado que nuestro marco de referencia es limitado Y da tres
ejemplos que aclaran su propuesta:
Caso 1: Un ser humano no puede percibir el mundo tal como es (representación inadecuada o
minusvalorada). Explicación: no percibimos la luz ultravioleta o la luz infrarroja, pero la razón es una
selectividad física previa que impide tal percepción.
Caso 2: Un ser humano externo a un fenómeno que ocurre a una persona observa aspectos que la segunda no
percibe. Explicación: se trata de ilusiones debidas a la utilización de técnicas conputacionales inconscientes
que permiten arribar a conclusiones que no son necesariamente reales.
Caso 3: Una persona tiene estímulos que producen una representación que - en nada - se relaciona con el
carácter real de lo experimentado. Explicación: se trata de construcciones mentales. En todos los casos la
mente se “adapta” al entorno mediante un proceso de complemento (de tipo “amodal”). Por ejemplo el
lenguaje es una construcción de esta naturaleza “amodal” e igualmente sucede con nuestra representación
del mundo tal y como lo percibimos.
Comentario: De lo anterior se deduce que la realidad es simplemente una construcción mental
(constructivismo psicológico) originada por la forma en que percibimos - construimos - y reaccionamos ante
el entorno; que nos permite a los seres humanos adaptarnos al entorno para tener viabilidad ecológica. De
estas ideas fisicalistas han nacido los modelos que semejan el cerebro-mente (o más propiamente el cerebro,
sin tomar en consideración el segundo concepto) a una computadora.
El Cerebro: ¿Una computadora? :
La respuesta a esta pregunta se ha intentado abordarla desde cuatro perspectivas distintas de modelos.
a) Modelos Computacionales:
Los diversos modelos computacionales imaginados para explicar el funcionamiento del cerebro se pueden
clasificar a su vez en 4 tipos, a saber:
1.-Modelos Clásicos: Dentro de esta característica se encuentran cinco explicaciones:
a) Computación tipo Türing (Wiener, 1925; Von Newman, 1945);
b) Regla de la Formulación Explícita (Winston, 1935);
c) A.C.T. (Anderson, 1938);
d) Gramático - Universal (asentado en el órgano del lenguaje) (Chamsky, 1968);
e) Metalenguaje Sintáctico - Semántico (Fodor, 1985)
Características: Para estos modelos el conocimiento y el aprendizaje se efectúa mediante la formulación de
reglas explícitas (proporciones, producciones) presentes en generalizaciones de tipo innato o primitivo, que
sirven para hacer comparaciones de cosas particulares, que sirven luego para formular reglas generales
hipotéticas.
2.-Modelos de Distribución Paralela:
Dentro de esta propuesta se encuentran cuatro modelos:
a) Regla de Hebb (Hebb, 1949), que luego se modifica por varios autores para originar las reglas tipo “delta”
y la regla del “aprendizaje completitivo” y desemboca en un modelo “paralelo estocástico” (Boltzman,
1940; Ballard, 1986);
b) Tipo asociativo (C. Hinton / Anderson, 1981);
c) Patrón asociativo de Memoria Paralela Distributiva o P.D.P. (Mac Clelland / Rumelhart / Hinton, 1986)
d) Lenguajes Múltiples (Jackendoff, 1991), colocado en la línea “constructivista” de Piaget.
Características: Para estos modelos no hay reglas explícitas, sólo una red de fuertes conexiones de unidades
sencillas que se activa en los procesos de pensar, por lo que genera la impresión de que "hay reglas"; pero lo
que si hay son fuertes mecanismos de modulación que ajustan los rangos de las conexiones, que actúan
como unidades separadas y se asocian mediante “atracción espacio-temporal”. Estos modelos se
fundamentan en las concepciones físicas cuánticas y por eso a cada nivel físico (quark, partículas
subatómicas, atómicas, molecular y objetos de tamaño discreto variable - desde una piedra hasta galaxias,
etc. - corresponde un “formalismo descriptivo propio” que hace al mundo inteligible.
Discusión: Las bases para estos dos tipos de modelo proceden de trabajos de investigación previos, tales
como:
a) Teoría de redes de los estados energéticos y armónicos (Achley Hinton, Sejnoski, 1985; Cohen
Grossberg, 1983; Gerran, 1984; Smolensky, 1983; Hopfuld, 1982);
b) Teoría de las representaciones internas (Rosemberg, 1987);
c) Teoría de las estructuras complejas (Fodor Phylyshyn, 1986);
d) Teoría de la percepción del tiempo (Sutton, 1986);
e) Teoría de los “perceptrones” (Minsky Paper, 1969; Hebbian, 1986).
Los dos tipos de modelos anteriores pertenecen a la línea de investigación denominada
“representacionalista”, que postula que en el cerebro hay “estados de la mente” que codifican “estados del
mundo”. La diferencia principal consiste en que la teoría clásica parte del principio que hay “relaciones
estructurales en la arquitectura del modelo” y las teorías tipo P.D.P. parten del principio que hay solamente
conexiones causales; además ambos tipos de arquitectura implican diferencias respecto a la naturaleza de las
representaciones mentales y los procesos mentales.
3.- Modelos Estructural- Estadísticos:
Intenta sintetizar los dos anteriores, cuya base es: la mente es un ingenio sensitivo que combina lo
estadístico (“software”) y lo estructural (“hardware”). Si se analiza desde la óptica del “hardware” opera
como el primer modelo (clásico), si se analiza desde la óptica del “software” opera como el segundo modelo
(P.D.P.). Esta explicación que configura un modelo se debe a Smolensky (1988).
Características: Las confusiones y polémicas entre los defensores de los dos modelos son el resultado de la
utilización de modelos basados en la computación “discreta”, simbólica (tipo clásico), versus la
computación basada en un tratamiento matemático aplicable a un sistema dinámico continuo, basado en un
punto de ...?
4.- Modelos Asociacionistas - Eliminativistas
Este modelo plantea por una parte que por reducción es posible descomponer todo a sus expresiones más
elementales y por otra parte que la mente no existe (sólo el cerebro que procesa aleatoriamente) por
asociaciones causales, atomísticas y por lo tanto al azar (estocástico). Lo postula P. Churchland (1981). El
modelo está en la línea de las llamadas teorías computacionales “Type-type” y “Token-token” tomadas de la
neuropsicología.
Discusión: Metodológicamente en los modelos materialistas no hay una clara distinción entre los aspectos
ontológicos ¿el qué de las cosas?; con los epistemológicos ¿cómo uso el qué de las cosas? y la causación
¿qué es lo que causa las cosas? Además hay excesiva liberalidad al tratar con conceptos sin definirlos
previamente, tales como: computadora, inteligencia artificial, procesamiento de información, simbología,
sintaxis.
Desde que entró en descrédito el dualismo cartesiano - en este caso referido a las sustancias mente y cuerpo,
se adopta una tesis que cobija a todas las escuelas que huyendo de “lo mental - subjetivo” encajona de
previo a los científicos en posiciones irreductibles: modernismo vs. dualismo; materialismo vs. mentalismo;
“filosofistas vs. psicologistas”; pero aún se mantiene anclada en la concepción de la física pre-cuántica, por
una parte, y por la otra homologa al ser humano con una máquina (“sistema”) cuyo comportamiento solo es
medible y entendible por otro “sistema” (un ser humano, un homúnculo, un robot, una computadora).
El materialismo se asienta, - entonces - en el estudio de la mente como si fuese un fenómeno neutro e
independiente de la conciencia y la subjetividad. Antes de Freud que postuló la existencia de la
subconsciencia y la inconsciencia se aceptaba la existencia de la conciencia; que hoy el materialismo la
niega por completo.
Refutaciones Naturalistas:
De frente a todos los modelos anteriores de origen fisicalista - materialista, en realidad no hay “modelos
naturalistas”, como en el caso anterior, aunque si hay posiciones naturalistas que coinciden en asignarle un
papel primordial a la conciencia. Por ejemplo John Searle plantea ocho tesis materialistas y procede a
refutarlas así:
1) Tesis: “Toda realidad es objetiva”. Refutación: los estados mentales tienen un fundamento objetivo
irreductible.
2) Tesis: Los principios que dominan el sistema solo son accesibles por la observación de su
comportamiento. Refutación: No, solo por la consciencia de su existencia.
3) Tesis: La consciencia no existe. Refutación: Solo por la consciencia es factible accesar y reflexionar sobre
los actos inconscientes, sin tener que recurrir a sistemas externos.
4) Tesis: Los deseos, los sentimientos, los estados emocionales, solo pueden ser captados en cualesquiera de
estas modalidades (según cada “escuela”): a) respuestas del comportamiento (conductismo); b) relaciones
causales (funcionalismo); c) construcciones debidas a una cierta manera de hablar o de ver
(constructivismo); o bien d) del todo no existen tales estados (eliminativismo). Refutación a todas esas
posiciones: Estos errores nacen de la confusión entre ontología, epistemología y causalidad.
5) Tesis: La tradición asume que el estudio de la mente lleva al científico a escoger únicamente entre
introspección o conductismo. Refutación: Esta es una posición falsa, dado que es erróneo: a) desde el punto
de vista metafísico suponer que hay entidas privadas con subjetividad irreductible; y b) desde el punto de
vista epistemológico asumir una simetría entre la forma de conocimiento del “yo”, por parte de uno mismo,
y por parte de un tercero, que juzga no la interioridad del “yo”, sino el comportamiento del yo.
6) Tesis: Los seres humanos, los animales, los robots, los homúnculos, las computadoras piensan igual y su
pensamiento solo es medible por su comportamiento. Refutación: No es cierto que a igual comportamiento
corresponda el mismo nivel de pensamiento, toda vez que este comportamiento, aunque fuese idéntico, se
fundamenta en realidades mentales de distinta naturaleza. El error es epistemológico: se parte de una
pregunta falsa: ¿cuál es la existencia del fenómeno a ser comprobado?, y no de la pregunta correcta: ¿cuál es
la naturaleza del fenómeno, cuya existencia se ha comprobado?
7) Tesis: La realidad del mundo es física. Refutación: Es un error ontológico que se destruye con la
existencia de otros tipos de realidad no física, por ejemplo: a) la habilidad para jugar ajedrez; b) el marcador
de un partido de fútbol; c) la audición de una pieza musical; d) el gobierno de la República; e) Los quarks de
la teoría cuántica; f) La deformación del espacio - tiempo en la teoría einsteniana. En consecuencia, la
pregunta debe no ser: ¿Qué clase de cosas existen en el Universo?; sino plantearse antes: ¿Cuáles son las
cosas en el Universo, que permiten que nuestros planteamientos empíricos puedan dar fe exacta de su
existencia?
8) La omnisciencia es posible por medio del ominiconocimiento, porque lo físico es conocible. Refutación:
Si bien, por razones heurísticas el planteo es aceptable, no se puede hacer tal afirmación porque no es un
hecho comprobable. En la práctica otros seres (animales, por ejemplo), experimentan su relación con el
Universo de una manera que los seres humanos no podemos accesar directamente, sino tan solo apreciar su
comportamiento.
Conclusión: Las tesis materialistas se han originado en errores históricos y para refutarlas se requiere
conocer la cronología de la aparición de postulados que se van acumulando y reforzando uno sobre el otro.
¿Pero cómo se generó el problema?
En una apretada revisión, esta es la trayectoria seguida por la ciencia en un afán de conocimiento no
dualista, pero al parecer erróneo desde el principio, que ha llevado a la confrontación entre materialistas y
naturalistas:
1) Watson 1925: plantea la relación entre entradas o estímulos con respecto a salidas o conducta (nace el
conductismo metodológico).
2) Hempel, Ryle 1949: Todo lo mental se reduce a conducta resultado de estímulos (nace el conductismo
lógico).
3) Place, Smart 1965: Los estados mentales son el resultado de estados contingentes, sintéticos, empíricos y
por ello son idénticos con los estados del cerebro (nace la teoría de la identidad).
4) Mac Ginn, Davidson 1977: Los estados mentales son idénticos a los eventos neuropsicológicos (nacen
teorías del “type-type” y del “token-token”).
5) Lewis, Grace 1978: Los estados mentales son el resultado del funcionamiento de un sistema lógico de
relaciones causales (nace el funcionalismo).
6) Johnson, Laird 1980: La mente (“software”) se reduce a las funciones que lleva a cabo el cerebro
(“hardware”) (nace la teoría de la Inteligencia Artificial, o Funcionalismo Computacional).
7) Churchland, Stich 1983: Los estados mentales no existen del todo, son tan solo el resultado de la
psicología folklórica (nace el materialismo eliminativo).
8) Chomsky 1980: Los significados se encuentran en el cerebro en la forma de un lenguaje universal
primitivo, de manera que la educación lo que hace es permitir “recordar” lo preexistente (nace la teoría de la
gramática generativa como “lenguaje” del cerebro).
9) Jackendoff 1980: En el cerebro no hay ninguna intencionalidad oculta, tan solo procesadores de diferentes
lenguajes que interrelacionan estructuras conceptuales con imágenes mentales en dominios específicos, que
gobiernan las reacciones que producen los estímulos procesados en un modelo tridimensional (nace la teoría
de los lenguajes mentales).
10) Marr 1982: Las neuronas sensoras actúan como transductores en los niveles periféricos y éstas modulan
representaciones periféricas que luego estimulan la construcción de representaciones centrales en un formato
tridimensional .
11) Millikan, Fodor (1987): Los contenidos mentales pueden ser individualizados por funciones biológicas
intencionales (teleológicas), porque los significados no están todos en el cerebro, sino que requieren todos
de un contendor mayor (nace la teoría de la naturalización de los contenidos mentales).
En 1992 Searle plantea un ejemplo hipotético que pretende demoler, de frente, todas las propuestas
materialistas anteriores que niegan - de plano - la consciencia. Veamos:
Una persona sana inicia un proceso de deterioro de su vista por un tumor cerebral y se le colocan “chips” de
silicón en la corteza visual y recupera parcialmente la vista; pero el tumor sigue invadiendo el cerebro, por
lo que conforme progresa la enfermedad se aumenta la cantidad de chips que reemplazan el cerebro
deteriorado. Posibilidades: a) La persona se recupera y sigue teniendo una vida mental plena, incluyendo sus
afectos y sentimientos; b) Se recupera la vista, pero conforme aumenta el implante artificial, su conciencia
se va deteriorando hasta desaparecer; c) La persona - interiormente - no experimenta ningún cambio
observable externamente, pero pierde sus capacidades, se paraliza y no puede comunicarse al punto que se
declara que tiene muerte cerebral.
Comentarios: Hay una relación causal entre procesos cerebrales y procesos mentales pero la conducta
observable por un tercero, no coincide con la experiencia de la primera persona. Ontológicamente la
conducta, los roles funcionales y las relaciones causales son irrelevantes por la existencia de los fenómenos
mentales conscientes; pero epistemológicamente aprendemos de los estados mentales de otras personas solo
en parte por su conducta, por lo que las experiencias entre la primera y tercera personas no solo no son
coincidentes, sino también irrelevantes. Por su parte la conciencia sirve para moldear las relaciones causales
entre el estímulo (“input”) y la conducta “output”, pero en si la conciencia no es medible per-se; de lo que se
sigue que aunque se conoce la conducta, esta no es idéntica al pensamiento.
La tesis de Searle que defiende la existencia de la consciencia (aspecto negado por el materialismo), con
variantes; es sostenida por Fodor, Putnan, Kriplke, Lycan, Shur, Benett, Druyfus, Flanagan, entre otros. La
secuencia de exposición nos lleva ahora a tratar de plantear en qué consiste la consciencia. Se advierte que al
igual que no hay modelos naturalistas, tampoco lo han para el concepto "conciencia"
¿Qué es la conciencia?
Prescindiremos de versiones antiguas sobre la consciencia por su romanticismo, o - porque siendo anteriores
- a los descubrimientos modernos - pueden inducir a confusiones. Modernamente Armstrong y Changeaux
(1988) y cada uno por aparte plantean respecto a la conciencia que es “...un sistema regulatorio global que
interrelaciona las imágenes mentales y la modalidad que las establece (que puede ser de tipo
“computacional” o no) y permite hacer discriminaciones entre tales imágenes”. En 1992 Searle señala que
sus características pueden ser comprendidas en varias categorías, a saber:
1) Modalidades Finitas: La conciencia se presenta por medio de: a) Los cinco sentidos; b) El “sexto
sentido”; c) El sentido del balance o la simetría; d) Las sensaciones “propioceptivas” (o sensaciones
corporales diversas; e) La sensación de ser una “corriente de pensamiento que fluye”. Y a su vez todas estas
formas presentan diversos grados de intencionalidad.
2) Intencionalidad: La intencionalidad es de “carácter aspectual”, esto es la intencionalidad se apoya en una
perspectiva (o punto de vista) que baña a los objetos (no solo se ve un objeto, sino que este se “ve como...”).
3) Subjetividad: Todas las experiencias son bañadas por la subjetividad que califica los diversos aspectos de
la experiencia.
4) Unidad: Todas las sensaciones se experimentan en dos ejes: a) Horizontal: una frase, un deseo, un
pensamiento es experimentado en un eje dinámico, que parece fluir en un sentido y aunque no se termine el
recorrido, puede recuperarse después; b) Vertical: Varias sensaciones - pese a su eje horizontal - pueden ser
experimentadas en sincronía, pero si bien aparecen juntas, no son revueltas.
5) Estructuración: Las percepciones son siempre organizadas con respecto a un fondo; pero este fondo tiene
a su vez otro y así sucesivamente hasta un límite que no es posible traspasar, aunque se esfuerce la
imaginación.
6) Familiaridad: Las experiencias tienen a la primera persona como referencia y aunque sean desconocidas y
en distintos escenarios, la presencia del “yo” les da un tono de familiaridad gradual que produce
satisfacciones categorizadas.
7) Desborde: el contenido es siempre desbordado por una sensación que envuelve el objeto de la
experiencia. Esto es: un árbol no es solo tal, sino que hay "algo" más que éste.
8) Centro - Periferia: La experiencia de varias sensaciones, o deseos o pensamientos no impide que uno de
ellos sea central, mientras que otros son periféricos a éste, tanto en niveles de distancia, tiempo o de
relación.
9) Contexto: Siempre hay coordinación de contextos que dotan a la experiencia de equilibrio en coordenadas
diversas: el "yo", espacial, temporal, biológica, social, universales y su interrelación puede causar placer o
molestias en diversos grados.
10) Modo: Las características del estado de ánimo no siempre son intencionales y estas pueden reforzar o
debilitar una experiencia que altera el estado de ánimo presente. Aunque tales estados no siempre son
perceptibles, un cambio brusco o dramático puede ponerlo de manifiesto.
11) Introyección: La conciencia puede ser introspeccionada como un acto consciente, o bien pasar
desapercibida, o ser sentida como si no fuese una persona diferente de quien la experimenta.
12) Alteración: La conciencia puede aumentarse, disminuirse o modificarse por estados patológicos, o por
drogas, o por inducciones eléctricas, o bien la persona puede hacer una manifestación falsa sobre una
experiencia por errores de apreciación.
Una vez planteadas las doce categorías Searle plantea que la conciencia “es una manifestación irreductible
de la realidad física”, con lo cual rechaza el dualismo y se asienta en el monismo. Esta posición
reduccionista obliga a ubicar los cuatro tipos de reduccionismo que conoce la ciencia:
1) Ontológico: Un objeto dado no es más que una manifestación de sus moléculas (u otros elementos
menores). Así la materia es una colección de partículas elementales organizadas de diferente manera.
2) Propiedad analógica: Se refiere al comportamiento de un objeto dado. Que puede ser reducido a alguna de
sus propiedades. Así: el calor procedente de un gas no es mas que la energía cinética del movimiento de sus
moléculas.
3) Teórico: se refiere a la relación entre teorías y las leyes que resultan de ellas. Así: el comportamiento de
un gas es lo mismo que la ley de la estadística termodinámica.
4) Causal: Se refiere a la relación entre dos cosas interrelacionadas entre sí por un poder de causalidad, de
donde resulta que la entidad puede ser explicada por sus manifestaciones fenomenológicas. Así: un objeto
sólido es impenetrable porque tal particularidad es el resultado de los poderes de los movimientos
vibratorios moleculares en diversos niveles espaciales; o bien: el color rojo es el resultado de la vibración
fotónica a una velocidad de 600 nanómetros por segundo.
Este último tipo de reduccionismo - causalista - monista es el seguido por Searle cuando afirma que hay
fenómenos que son “emergentes”. Así: la consciencia es la emergencia causada por el comportamiento
neuronal; pero la consciencia - en sí- no es reductible nada más que a sí misma. A su vez advierte que es un
error hacer un reduccionismo sobre la base del dualismo, lo que plantea ipso-facto la “intratabilidad” del
problema mente/cuerpo; así como surge el error de confundir groseramente el comportamiento con la
consciencia, o de tratar de eliminarla por completo.
Algunos intentos anteriores de seguir este camino son los siguientes:
• N. Magel, 1974; Kripke, 1971; Jackson, 1982: demuestran la irreductibilidad de la consciencia desde el
punto de vista epistemológico.
• Kim, 1972; Hangenland, 1982: Sobre trabajos previos de Moore (1922) y Hare (1952), plantean que las
bases éticas del comportamiento son propiedades intrínsecas que sobresalen o traspasan (atravesándola y
superándola) las propiedades de la naturaleza.
• Searle, 1990: La materia organizada causa la existencia de un complejo neuronal, este complejo neuronal
causa el fenómeno mental. Desde Kant se plantea que hay una clara asimetría entre la experiencia de la
consciencia en lo que respecta al espacio y al tiempo, ya que la referencia es siempre al tiempo y no al
espacio; lo que coincide con el hallazgo del neurofisiólogo colombiano Rodolfo Llinas (1995) que expresa
que las conexiones neurales solo pueden ser explicadas en el eje del tiempo y no en el del espacio.
Por su parte el concepto de “emergencia” que maneja Searle, había sido claramente instuido por Theilhard
de Chardin en su fenomenología de la evolución humana en su propuesta del Alfa al Omega, la que -según
Searle- recibe el apoyo de los experimentos que realizan los neurofisiólogos Stein y Meredith (1993). El
problema de la conciencia también puede verse desde la arista del demorfismo cerebral.
Consecuencias del Dimorfismo Cerebral
En el campo de la neuroanatomía se ha determinado que existe una diferencia biológica (dimorfismo) entre
el cerebro de la mujer y del hombre que, por supuesto, no hay que entenderla en términos de superioridad /
inferioridad, sino de simple diferencia. Llos aspectos más relevantes según el físico cuántico Máximo Santi,
son las siguientes:
- Esta diferencia se manifiesta especialmente a nivel del cuerpo calloso; es decir, de la estructura que une los
dos hemisferios cerebrales. La mujer tiene un cuerpo calloso con el 15% más de fibras de interconexión que
el hombre. Consecuencia: la Mujer tiene una mayor capacidad de síntesis.
- El cerebro de la mujer es cíclico y el del hombre es tónico por efecto de los diferentes mecanismos
hormonales. Consecuencia: la Mujer está más disponible al cambio, mientras el Hombre es más
conservador.
- Las neuronas del hombre tienen ramificadores más articuladas y un número mayor de sinapsis (puntos de
contactos entre las neuronas) que las neuronas de la mujer. Consecuencia: el cerebro del Hombre consume
más energía; pero las diferencias ligadas al sexo, no producen diferencias entre Hombre y Mujer a nivel de
inteligencia.
- La influencia de las hormonas sexuales en la fase del desarrollo del cerebro, determina las diferencias en
las actitudes cognitivas entre hombres y mujeres. En la primera etapa del desarrollo embrional todos los
cerebros son femeninos y sólo en la última fase se manifiesta la diferenciación masculina.
- El cerebro del Hombre tiene una mayor habilidad espacial. El cerebro de la Mujer identifica más
rápidamente las particularidades, las semejanzas (tiene mayor "velocidad perceptiva").
- El cerebro masculino es más asimétrico que el cerebro femenino; (está más lateralizado a nivel del
hemisferio izquierdo). El cerebro femenino utiliza los dos hemisferios cerebrales en una forma más
equilibrada.
Con base en el dimorfismo cerebral, las repuestas del hombre y de la mujer frente al mismo problema, son
diferentes:
1. El hombre responde principalmente con el hemisferio izquierdo - empleando la lógica, la racionalidad - y
con un alto consumo de energía, su tendencia es “agresiva”. Busca su afirmación por medio de la
confrontación y competencia. Tiene una visión determinística, racionalista y lógico-productiva, que le lleva
al desarrollo de la concepción de dominador, colonizador, con imposición de sus propias ideas con la fuerza,
es más conservador.
2. La mujer es capaz de hacer una síntesis más rápida, utilizando la creatividad y fantasía del hemisferio
derecho. Su respuesta es más global e integral, con un menor consumo de energía. Su tendencia es
“creativa”. La mujer tiende a una comunicación armónica a través del proceso de identificación. Tiene
mayor conciencia de su cuerpo, con una percepción más profunda de los problemas y la utilización de la
persuasión para afirmar sus propias ideas. Es más dispuesta al cambio.
A juicio de Santi: "En la alborada del Siglo XXI es urgente sustituir la cultura de la dominación, opresión y
violencia entre los sexos, por una cultura de la integración Mujer / Hombre en el respeto de las diferencias
biológicas y cerebrales para construir un ser humano planetario donde la conciencia sea el único parámetro,
el único verdadero valor que nos caracteriza. De esta manera se puede dar comienzo al Alba del
comportamiento humano en armonía con nuestra naturaleza."
Hacia el Futuro.- No hay la menor duda que si bien es cierto -coincidiendo con Searle- toda la psicología
materialista se encuentra enmarañada en la confusión entre ontología, epistemología y causación, también es
cierto que es la que más puede aportar luces en un campo específico, que no agota el problema de la mente,
pero puede dar mucha luz para su solución y es la pregunta: ¿Qué es la inteligencia?
La neuropsicología debe buscar solución porque indiferentemente de las conclusiones fáciles que surgen
respecto a las investigaciones neuropsicológicas, es en ese campo tan reducido, y a la vez tan amplio
(¿infinito?), que el ser humano puede acercarse al desciframiento de la mente. Ahora bien, los estudios
actuales y de futuro en este campo se encuentran encerrados en estas seis series de interrogantes aún no
despejadas, pero cuya sola mención permite intuir hacia dónde se dirige la investigación actual:
1) ¿Qué es la inteligencia?, ¿Qué tipo de información procesa el cerebro?; ¿Cómo se procesa la
información?, ¿Cómo se dan las conexiones neurales, en espacio y/o tiempo?; ¿Dónde se encuentra
almacenada la información: en sitios específicos o en diversas áreas especializadas?; ¿Cómo se procesa la
información: en serie o en paralelo?; ¿Puede aplicarse al funcionamiento del cerebro sano las
investigaciones de anomalías naturales o artificiales, o no?; ¿Son los modelos neurocomputacionales de
animales inferiores asimilables a modelos de animales superiores?
2) ¿Cómo se codifica y descodifica la información? ¿Existen espacios reservados para el manejo, por
separado, de conceptos relacionados con el cómo y el por qué de las cosas?; ¿Hay una memoria de tipo corto
y otra de tipo largo (en el tiempo) y cómo se relacionan?; ¿Cómo se interrelacionan los sensores externos en
el nivel central para responder a los estímulos: mecánicamente o mediante una previa representación
mental?
3) ¿Son estas representaciones mentales estructuraciones previas sobre la base de lenguajes icónicos?; ¿Qué
tipos de lenguajes y cómo se construyen?; ¿Están las construcciones de la realidad limitadas por parámetros
para la visión, sonido, lenguaje y otros niveles de relación corporal prefijados?; ¿Cuáles y qué funciones
tienen estos parámetros?
4) ¿Cuál es la relación entre las pruebas que obtenemos de la vida diaria, la experiencia que alimentan y la
obtención de conocimiento sobre esa base?; ¿Pueden los modelos etológicos (comportamiento de otros
animales) servir de base para entender el comportamiento humano más complejo o es poco seria esa
aproximación para dilucidar las interrogantes?
5) ¿Son las construcciones algorítmicas artificiales comparables en todo, o sólo parcialmente, a las redes
neuronales humanas?, o ¿Pueden homologarse lícitamente las estrategias de aprendizaje de ingenios con
inteligencia artificial a la adaptación ecológica de los cerebros - mentes humanas?; ¿Es la arquitectura del
cerebro fija o cambiante para la diversidad de procesos que llevará a cabo?
6) Y también la neurofisiología debe abocarse a contestar la pregunta crucial: ¿Hay, en verdad, una realidad
ahí fuera, independientemente de nuestra percepción? Para la vida ordinaria la respuesta es sí, por supuesto.
Para la ciencia solo cabe la duda y, a partir de ella encontrar la mejor forma para despejar la incógnita. Pero
aquí surge un nuevo problema: ¿Cómo con aliar la verdad de lo físico con mi concepto del mundo? Esto es,
si en efecto la realidad es como afirman los físicos cuánticos, utilizando un metalenguaje que es casi
imposible seguir; y de frente a ello: ¿Cómo compaginamos esa verdad con lo que me dice mi rutina de todos
los días?
Al menos la última pregunta tiene una respuesta - siempre elusiva - de parte del físico atomista Hugh
Pendleton: “Es sencillo: Por mucho tiempo continuará la discusión informal - no comunicada en las revistas
y libros especializados - acerca de cómo y de que manera establecer un límite para pasar del dominio de lo
que es la realidad cuántica del Universo a la explicación racionalmente comprensible; de allí que la salida
sea seguir describiéndolo en términos de las imágenes que construyen nuestra percepción diaria.”
Y esa es una tesis realista que devuelve al ser humano común cierta tranquilidad telúrica y trascendente,
aunque, a juicio del filósofo de la mente Grim: “La lógica que guía muestro conocimiento, que nos impele a
tener una noción coherente y total del Universo se debe enfrentar a una realidad: estamos condenados a vivir
en un mundo esencialmente abierto e incompleto y por tanto misterioso..”
LA MENTE ANALIZADA POR UN COSMOLOGO
Roger Penrose ,inglés que ha estado laborando ,en ocasiones solo y en otras en la compañía de Sthepen
Hawking en los temas de los agujeros negros y la gravedad cuántica ,no coincidiendo siempre con las teorías
del segundo, publica en 1994 , un libro denominado :” La Nueva Mente del Emperador” que es una valiosa
incursión en el tema que este capitulo ha tratado de presentar . Penrose- al igual que todos los físicos, insiste
desde hace mucho tiempo que esa disciplina, que se explicita en sus planteos con las formulaciones
matemáticas, es la indicada para darnos a entender el Universo, y como el Universo se comprende con la
mente humana, es preciso entender de previo cómo funciona la mente para descifrar el universo.
Penrose desestima dos ideas: una que la mente humana funciona como una computadora y otra que la física
quántica es una teoría acabada pues la vislumbra más bien como un conjunto de ideas en proceso de
convertirse en una teoría acabada , por lo que aplicar los conocimientos quánticos actuales para señalar que
la mente funciona como una computadora y que ello es posible explicarlo por medio de la física quántica ,es
realmente una falta de comprensión de ambas cosas .De igual manera deja entrever la posibilidad de que
mas bien sea la mente un formato que procesa información, todo esto independientemente de que el cuerpo
humano ,la mente misma, reemplacen permanentemente las células que nos constituyen, pues aun así
persiste la información guardada.
Penrose propone que el proceso de almacenamiento e intercambio informacional se producen en unas
estructuras proteinicas neuronales microscópicas llamadas microtubulos . Y en cuanto a la conciencia sus
tesis no aceptan que pueda ser reducida a procesos químicos o físicos ,sino que van más allá, pues aún no
comprendemos que sea ni como opere. De plano rechaza las tesis materialistas, así como su conjunción con
la investigación y muchos de sus nortes, pues la tecnología termina siendo mercantilizada ,
desaprovechándose la posibilidad de su uso con fines mas altruistas.
Según este autor, el cerebro en el interior de nuestras cabezas posee una estructura que controla nuestras
acciones y de algún modo genera una conciencia del mundo que nos rodea. El cerebro tiene una estructura
mucho más intrincada de lo que suponemos y una compleja organización y su fruto : la actividad mental, da
a su vez paso –de alguna manera- a la conciencia humana que tan solo ha sido abordada desde el plano de la
metafísica ,pero actualmente hay una enorme necesidad de convertirla en tema de investigación científica.
De la misma manera es preciso adentrarse en el estudio y significación del mundo de las matemáticas, que
es el lenguaje de la ciencia, pues curiosamente siendo simbólico ,abstracto, debe dar cuenta de la realidad (
que es solo aparente) , como si se tratara de revivir el concepto de las ideas en la cueva de Platón.
Y para ponernos a pensar deja planteadas estas propuestas: ¿Es la matemática una invención humana o un
descubrimiento de la mente humana ? . Cuando los matemáticos obtienen sus resultados ¿están produciendo
solamente elaboradas construcciones mentales que no tienen auténtica realidad, pero cuyo poder y elegancia
basta simplemente para engañar incluso a sus inventores haciéndoles creer que estas construcciones
mentales son "reales"? ¿O están descubriendo realmente verdades que estaban ya "ahí", verdades cuya
existencia es independiente de las actividades de los matemáticos?.
Por otra parte nos coloca de frente con una interesante interrogación: "¿Cómo deciden los matemáticos
cuáles enunciados matemáticos son verdaderos y cuáles falsos? ¿Siguen algún algoritmo o tienen otra ruta
hacia la verdad por medio de una "intuición" misteriosa que no puede ser tratada algorítmicamente?".
Penrose mismo se contesta afirmando que los procesos que ocurren en el cerebro humano no son
algorítmicos, sino totalmente intuitivos, y es a través de estos por los cuales los matemáticos llegan a
formular sus hipótesis. Y agrega que el misterio se va a develar cuando la física este unificada, ya que hoy
día hay quienes acuden a explicaciones quánticas que no tienen aun sostén por sí mismas.
En cuanto a la formulación de planteamientos matemáticos nos deja como tarea aprender a discernir cuando
un matemático se está acercando a una verdad fundamental, absoluta, cuasi-divina y cuando tan solo roza un
aspecto menor de la misma. En un primer caso se trataría de un “descubrimiento”,en el segundo de una
“invención ”. En ambos-sin embargo-utilizando el lenguaje de la ciencia, la matemática pareciera ser, a la
vez el lenguaje superior, el lenguaje de Dios, aspecto que los científicos materialistas rechazan por
completo.
Penrose se adhiere a la tesis de Searle de que aunque poseamos un sistema complejo de algoritmos haciendo
funcionar una computadora, no existe forma alguna de representar una mente humana a través de una
máquina, sino tan sólo a través de los mismos procesos intencionales del cerebro. Pone en duda, por tanto, la
tesis de Turing retomada por Church para redondearla, sobre las máquinas pensantes, tesis que no puede ser
comprobada formalmente, que es aceptada por los matemáticos debido a su eficacia y que en las futuras
décadas es posible que sea dilucida.
Independiente de que un físico, con fuerte formación en matemáticas se ocupe del tema de la mente y el
cerebro es francamente estimulante y retador, porque como cosmólogo Penrose sabe muy bien cuáles son las
dudas y vacilaciones teóricas y ahora intenta explicar cómo sus teorizaciones son influidas por la forma en
que funciona el aparato cognoscitivo humano, sin recurrir a tesis religiosas-porque no lo es en el sentido
convencional- pero tampoco se le puede catalogar dentro de los científicos materialistas.
Todo el tema del cerebro, la mente, la conciencia que antes eran dejadas de lado por los físicos y los
matemáticos van a permear fuertemente la cosmología como lo veremos en los capítulos que siguen porque
las formulaciones de teorías sobre el nacimiento, la existencia y el futuro del Universo, cada día más ,van a
depender de simulaciones computacionales y no de la elucubración de mentes solitarias armadas de papel y
lápiz .Y la formulación matemática deberá luego ser corroborada en campo mediante las nuevas
aplicaciones tecnológicas a los telescopios , a los radiotelescopios y a las observaciones con plataformas
artificiales fuera de la Tierra.