Download - Investigación y ciencia 380 - Mayo 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 1/99
Edición española de
9 7 7 0 2 10 1 3 6 0 0 4
0 0 3 8 0
COMPUTACIONOrdenadores cuánticos¿Una falsa revolución?
GEOLOGIARotura de lasplacas tectónicas
MEDIO AMBIENTE¿Salvaremosal atún rojo?
NEUROLOGIAFunción de lasustancia blanca
COSMOLOGIACuando el universo
borre las huellas
de su propio origen
ñola de
El fin de la
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 2/99
La colisión de las placas tectónicas produce tensiones y calor que resultan en la deformaciónde los continentes.
SUMAR IO
Mayo de 2008/ Número 380
Se corre el r iesgo de una carrera de armamentos espacial . El monol ito funerario que abriga los restos morta les de Janaab’ Pakalse descubrió en el Templo de las Inscripciones de Palenque.
ART ICULOS
COSMOLOGIA
14 ¿El fin de la cosmología?Lawrence M. Krauss y Robert J. Scherrer
Un universo en aceleración borra las huellas de su propio origen.
ARMAMENTO
22 Guerra espacialTheresa Hitchens
Un reciente cambio en la estrategia militar de EE.UU.y determinadas actuaciones chinas amenazan con iniciaruna nueva carrera de armamentos espacial. Pero,¿beneficiaría a algún país instalar armas en el espacio?
GEOLOGIA
31 Rotura de las placas tectónicas J. B. Murphy, G. Gutiérrez Alonso, R. D. Nance, J. Fernández Suárez, J. D. Keppie, C. Quesada, R. A. Strachan y J. Dostal
Las cicatrices de antiguas colisiones marcan el caminopor donde los continentes vuelven a romperse.
ARQUEOLOGIA
47 Cultos funerarios mayasVera Tiesler
Los mayas actuales conservan ritos funerarios de una culturamilenaria basada en la continuidad cíclica entre la viday la muerte, la creación y la destrucción.
NEUROLOGIA
54 ¿Qué función cumple la sustancia blanca?R. Douglas Fields
La investigación reciente demuestra que la sustancia blanca delcerebro interviene en el aprendizaje y en la enfermedad mental.
CIENCIA DE LA COMPUTACION
62 Los límites de la computación cuántica Scott Aaronson
Las computadoras cuánticas podrían ser velocísimas
en tareas muy concretas. En la mayoría de los problemasapenas descollarían sobre los ordenadores de hoy.
31
4722
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 3/99
La mielina envuelve un axón como si se tratara de una cinta aislante,con 150 capas concéntricas entre nódulos.
Los astrónomos del futuro no encontrarán pruebas de la naturaleza real del universo.
14
SALUD PUBLICA
70 Dificultadesde la epidemiología laboralCarole Bass
El mayor estudio sanitario jamás realizadoen plantas industriales aplica técnicas punteraspara investigar un aparente conglomeradode casos de cáncer.
SEGURIDAD
78 El atún rojo en peligroRichard Ellis
¿Habrá que domesticar la especie para salvaral atún rojo, uno de los peces más maravillososy amenazados del océano?
3 CARTAS AL DIRECTOR
4 HACE...
50, 100 y 150 años.
5 PUESTA AL DIA
La ecuación que Hoyle omitió...
Prepararse para la gripe...
Cultivo de vasos sanguíneos.
6 APUNTES
Energía... Conducta... Enfermedades
infecciosas... Geometría... Nanotecnia.
8 CIENCIA Y SOCIEDAD
¿Amantes o rivales?...
Autosincronización...
Anemia de Fanconi.
42 DE CERCA
Electrolitos ultrafinos,
por Gemma Garcia Alonso
44 PERFILES
Michael Wigler: un díscolo frente a los
mendelianos, por Nikhi Swaminathan
46 DESARROLLO SOSTENIBLE
El cambio climático después de Bali,
por Jeffrey D. Sachs
88 CURIOSIDADES
DE LA FISICA
Antiparalelogramos, ruedas y émbolos,
por Norbert Treitz
90 JUEGOS MATEMATICOS
Encuestas electorales,
por Juan M.R. Parrondo
92 IDEAS APLICADAS
Lámparas, por Mark Fischetti
94 LIBROS
Cáncer. Epidemiología
78
SECC IONES
El atún rojo alcanza velocidades de 80 kilómetros por horay migra a través de océanos.
54
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 4/99
DIRECTOR GENERAL José M.a Valderas GallardoDIRECTORA FINANCIERA Pilar Bronchal GarfellaEDICIONES Juan Pedro Campos Gómez Laia Torres CasasPRODUCCIÓN
M.a
Cruz Iglesias Capón Albert Marín GarauSECRETARÍA Purificación Mayoral MartínezADMINISTRACIÓN Victoria Andrés LaiglesiaSUSCRIPCIONES Concepción Orenes Delgado Olga Blanco RomeroEDITA Prensa Científica, S.A. Muntaner, 339 pral. 1.a
08021 Barcelona (España)Teléfono 934 143 344 Fax 934 145 413www.investigacionyciencia.es
SCIENTIFIC AMERICAN
EDITOR IN CHIEF John RennieEXECUTIVE EDITOR Mariette DiChristinaMANAGING EDITOR Ricki L. Rusting
CHIEF NEWS EDITOR Philip M. YamSENIOR WRITER Gary StixEDITORS Mark Alpert, Steven Ashley, Peter Brown, Graham P. Collins, Mark Fischetti, Steve Mirsky, George Musser y Christine SoaresCONTRIBUTING EDITORS W. Wayt Gibbs, Marguerite Holloway, Michelle Press, Michael Shermer, Sarah SimpsonART DIRECTOR Edward BellPRODUCTION EDITOR Richard Hunt
CHAIRMAN Brian NapackPRESIDENT Steven YeeVICE PRESIDENT AND MANAGING DIRECTOR, INTERNATIONAL
Dean SandersonVICE PRESIDENT Frances NewburgVICE PRESIDENT, FINANCE, AND GENERAL MANAGER Michael Florek
COLABORADORES DE ESTE NUMERO
Asesoramiento y traducción:
M.ª Rosa Zapatero Osorio: ¿El fin de la cosmología?; J. Vilardell:Guerra espacial, Hace... e Ideas aplicadas; Gabriel Gutiérrez Alonso: Rotura de las placas tectónicas; Anna Ferran: ¿Qué función cumple
lasustancia blanca?; Luis Bou: Los límites de la computación cuántica,Puesta al día y Apuntes; Joandomènec Ros: El atún rojo en peligro;Bruno Moreno: Cartas al director ; Marián Beltrán: Ciencia y sociedad
y Desarrollo sostenible; Angel Garcimartín: Perfiles; Jürgen Goicoechea:Curiosidades de la física
Portada: Phil Saunders, Space Channel Ltd.
SUSCRIPCIONES
Prensa Científica S. A.Muntaner, 339 pral. 1.a
08021 Barcelona (España)Teléfono 934 143 344
Fax 934 145 413
Precios de suscripción:
Un año Dos años
España 65,00 euro 120,00 euro
Resto del mundo 100,00 euro 190,00 euro
Ejemplares sueltos:
El precio de los ejemplares atrasadoses el mismo que el de los actuales.
Difusión
controlada
Copyright © 2008 Scientific American Inc., 415 Madison Av., New York N. Y. 10017.
Copyright © 2008 Prensa Científica S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España)
Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico,así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorizaciónescrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente,
son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí.
ISSN 0210136X Dep. legal: B. 38.999 – 76
Imprime Rotocayfo-Quebecor, S.A. Ctra. de Caldes, km 3 - 08130 Santa Perpètua de Mogoda (Barcelona)
Printed in Spain - Impreso en España
DISTRIBUCION
para España:
LOGISTA, S. A.
Pol. Ind. Pinares LlanosElectricistas, 328670 Villaviciosa de Odón(Madrid)Teléfono 916 657 158
para los restantes países:
Prensa Científica, S. A.
Muntaner, 339 pral. 1.a
08021 Barcelona
PUBLICIDAD
Madrid:MMCATALAN PUBLICIDADM. Mercedes Catalán RojasRecoletos, 11 3.º D28001 MadridTel. y fax 915 759 278Móvil 649 933 834
Cataluña:QUERALTO COMUNICACIONJulián QueraltóSant Antoni M.a Claret, 281 4.o 3.a
08041 BarcelonaTel. y fax 933 524 532Móvil 629 555 703
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 5/99INVESTIGACION Y CIENCIA, mayo, 2008 3
C A R TA S A L D I R E C T O R
Una cuestión semánticaEn el artículo “La red semántica en ac-ción”, del pasado febrero, Lee Feigen-baum, Ivan Herman, Tonya Hongser-meier, Eric Neumann y Susie Stephensdescriben el desarrollo de la Red Semán-tica, una serie de formatos y lenguajespara encontrar y analizar informaciónfácilmente en Internet. El problema con este sistema es que resulta difícilponerse de acuerdo en cómo definirexactamente todos los conceptos. Cual-quier aplicación informática que inten-
te normalizar su ontología distorsionaránecesariamente lo que algunos quieranexpresar.También me preocupa que, según la ló-gica formal tradicional, si existe una solacontradicción, es posible sacar todas lasconclusiones posibles y también susopuestos.
Robert W. Jones
Universidad estatal de Emporia, Kansas
FEIGENBAUM Y HERMAN CON-TESTAN: Es cierto que existen discrepan-
cias entre las distintas ontologías, pero laRed Semántica no se basa en una únicaontología de alcance general. Se construyea partir de pequeñas comunidades de in-dividuos con una mentalidad parecida que
pueden ponerse de acuerdo acerca de lostérminos que usen. Por lo tanto, las apli-caciones pueden interactuar sin necesidadde que se intente llegar a un consenso glo-bal: un sistema que presenta los productosde un establecimiento a los clientes recibeinformación de las bases de datos de los
proveedores (que, probablemente, utiliza-
rán formatos heterogéneos) y antes de mos-
trarla a los clientes la traduce a la onto-logía elegida por el establecimiento. Los
programas automáticos para cumplimen-tar las declaraciones de impuestos tomanlos datos bancarios, conformados según lasontologías de cada banco, y los traduce ala ontología del formulario de la declara-
ción de impuestos. No es necesario dispo-ner de ontologías globales; una aplicaciónsólo necesita traducir los términos relevan-tes para una transacción en particular aun vocabulario común. Por supuesto, aun-que el acuerdo sólo tiene que ser local, laadopción de un vocabulario existente faci-lita el uso compartido y la integración dela información.En cuanto a los peligros de utilizar la ló-
gica tradicional, en la Red Semántica “in- ferencia” puede definirse como el descubri-miento de nuevas relaciones. Sin embargo,
las inferencias dentro de esta red se llevana cabo dentro de un subconjunto restrin-
gido, “protegido”, de la lógica de primerorden. El razonamiento ontológico en laRed Semántica no utiliza toda la fuerzade la lógica de primer orden (o de órdenessuperiores) y, por lo tanto, evita algunasde las peligrosas conclusiones que puede
provocar una contradicción inferida.
¿180 grados de equivocación?En su perfil de Hugh Everett y su in-
terpretación de la mecánica cuántica ba-sada en una pluralidad de mundos, “Losmuchos mundos de Hugh Everett” (fe-brero), Peter Byrne afirma que Bryce S.DeWitt dio un giro de 180 grados [conrespecto a la teoría de Everett] y se con-virtió en su más firme defensor, sugi-riendo así que anteriormente DeWitt te-nía una opinión negativa de la teoría.De hecho, DeWitt defendió el trabajode Everett desde el principio. DeWittfue el responsable de facto de una sec-ción publicada en el número de julio de
1957 de Reviews of Modern Physics quecontenía las actas de un congreso de fí-sica que él y yo habíamos organizadoen enero de aquel año (él no era el di-rector habitual de la revista). DeWittdecidió incluir la tesis de Everett en lasactas, aunque Everett no había asistidoal congreso. DeWitt había leído la tesisa petición de John Archibald Wheeler,pero Wheeler tenía dudas sobre un tra-bajo que cuestionaba la manera en queNiels Bohr entendía la mecánica cuán-tica. DeWitt, en cambio, lo consideró
“nuevo y estimulante”.
Algunos años después, DeWitt descubrióque el artículo de Everett había “caídoen el olvido inmediatamente” y decidióiniciar una campaña de publicidad. Estacampaña no fue un giro de 180 gradosen su postura, sino la continuación delinterés que mostró en 1957 por el tra-
bajo de Everett.No escribo esto como la viuda de Bry-ce, sino como colega de Bryce S. DeWitt,una colega que sabía estar en desacuerdocon él cuando era necesario. Deseo corre-gir una exposición equivocada de un he-cho histórico.
Cecile DeWitt-Morette
Catedrática emérita Jane and Roland
Blumberg Centennial
Universidad de Texas en Austin
BYRNE CONTESTA: Los datos históri-
cos muestran que, inicialmente, a DeWittno le convencía la teoría de Everett. “Sim-
plemente, yo no me bifurco”, escribió enmayo de 1957. Abandonó esa objecióncuando Everett indicó que la Tierra se mue-ve aunque no nos demos cuenta de ello.
Hugh Everett propuso la existencia
de innumerables universos, engendrados
en cada medición.
Erratum corrige
En la revista de abril 2008, núm. 379,
en el artículo “Microquimerismo”,
en los recuadros “¿Dónde se alojan
las células?” y “Preguntas habituales
sobre el microquimerismo”, donde
dice “médula espinal” léase “médula
ósea”.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 6/99
HACE . . .
Recopilación de Daniel C. Schlenoff
...cincuenta añosEl yo. «La mayoría de nosotros vivimos tras un
muro o pantalla de humo que en cierta medi-da oculta nuestros auténticos pensamientos, sen-timientos, creencias, deseos, gustos y repulsio-nes. Pero la autorrevelación es algo que rebasanuestras meras posibilidades de mostrarnos conbuena o mala disposición a ella. A menudo, laspersonas no pueden revelarse a sí mismas, niaunque quieran, pues desconocen su yo autén-tico: lo que realmente desean, sienten o creen. A ese fenómeno del extrañamiento de uno mis-mo Karen Horney lo ha denominado ‘autoalie-nación’; ha descubierto que es característico delos neuróticos. Puede que sea representativo
de la sociedad moderna que tanta gente recu-rra al diván del psicoanalista para conocerse así mismo.»
Dinamo terrestre. «La mayor dificultad con que han to-pado los intentos de explicar el campo magnético terrestre hasido la introducción de la fuerza motriz que produce la sime-tría general del campo global. Hemos de admitir que el cam-po está generado por corrientes eléctricas circulares que secierran sobre sí mismas. Con una configuración así no hay ala vista lugar alguno donde insertar una fuerza motriz, seauna batería u otra cosa. Pero la teoría de la dinamo explicala fuerza motriz como consecuencia de la rotación del plane-
ta. La rotación es responsable de que los bucles cerrados delas corrientes parásitas tengan el mismo sentido.
—Walter M. Elsasser»
...cien añosRevista para invidentes. «La planta de impresión másblanca del mundo es sin duda aquella donde se edita la re-vista Ziegler para invidentes. Es obvio que así sea. No se em-plean tipos de imprenta y nadie encontrará allí tintas de nin-guna clase, salvo, claro está, en la sala de redacción. Lapublicación semanal se distribuye de forma gratuita entre las
personas de EE.UU. y Canadá capaces de leer el alfabeto depuntos. En la sala de composición hay dos máquinas: unaconfecciona las planchas para la edición en el código de pun-tos de Nueva York; la otra se emplea para la edición en el sis-tema Braille americano. Desgraciadamente, ambos sistemastáctiles están muy generalizados en el país.»
[NOTA: El “New York Point” es el código de puntos para lectores
invidentes que desarrolló a mediados del siglo XIX William Bell Wait;
competía con el sistema Braille americano.]
Tractor “oruga”. «Durante los meses pasados las autorida-des militares británicas han estado experimentando con un
nuevo tipo de tractor para transportar vehículos pesados so-
bre terrenos escabrosos e inestables. En suma, su fin es arras-trarse por el suelo valiéndose de una serie de zapatas dispues-tas a lo largo de la periferia de dos pesadas cadenas lateralesque pasan sobre las ruedas de proa y popa. Por lo peculiar desu movimiento, los soldados del centro militar de Aldershot,donde presta servicio, lo bautizaron de inmediato como “laoruga”. El ingenio es invención de Mr. David Roberts.»
[NOTA: Las patentes de este invento se vendieron a Benjamín Holt,
cofundador de Caterpillar Tractor Co.]
Vuelos furtivos. «Poco después de recibirse los primerosinformes acerca de los vuelos que realizaban los hermanos Wright para probar su aeroplano, un gran número de corres-ponsales de periódicos visitaron el escenario de las pruebasentre las elevadas y puntiagudas dunas de arena de la costade Carolina del Norte, al sur de Norfolk (Virginia). Sin em-bargo, los hermanos se negaban a efectuar vuelo alguno cuan-do los reporteros se acercaban, por lo cual los periodistas sevieron obligados a permanecer escondidos a una milla de dis-tancia de los acontecimientos y limitarse a observar la máqui-na, cuando ésta volaba, desde lejos a través de un catalejo.»
...ciento cincuenta añosSu majestad el algodón. «Justo antes de la última crisismonetaria, el algodón había alcanzado un precio tan elevado,que los fabricantes británicos de telas e hilos se vieron obliga-dos a reducir la producción y, como consecuencia, fuertemen-te incitados a idear otra forma de asegurarse un abastecimien-to abundante a precios inferiores. Al depender de EE.UU. paralas cuatro quintas partes del consumo, el algodón americanose consideraba el rey, por lo que buscaron ayuda en otras re-giones. La última expedición, organizada bajo el mando delfamoso doctor Livingstone, tiene como uno de sus principa-
les objetivos fomentar el cultivo del algodón en Africa.»
Tractor de oruga para transportar cargas en terrenos difíciles, 1908
4 INVESTIGACION Y CIENCIA, mayo, 2008
S C
I E N T I F I C A M E R I C A N ,
V O L .
X C V I I I , N . º
2 0 ,
1 6 D E M A Y O D E 1 9 0 8
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 7/99INVESTIGACION Y CIENCIA, mayo, 2008 5
P U E S TA A L D I A
¿Qué ha sido de ...?
Recopilación de Philip Yam
Prepararse para la gripeLo más probable es que la próxi-
ma pandemia de gripe se pro-
duzca cuando una mutación deun virus de gripe aviaria o por-
cina lo capacite para infectar
células humanas. En el número
de enero de Nature Biotechno-
logy , se informa que la mutación
crítica consistirá en que el virus
desarrolle la facultad de anclar-
se sobre una variedad especial
de unos receptores de las células
pulmonares, los alfa-2-6-glica-
nos. Esos receptores son de dos
tipos: en forma de sombrilla y
cónicos. En los humanos, la ver-sión en sombrilla (la más abun-
dante) abre las puertas a enfer-
medades graves. Ese descubri-
miento explica que algunas
cepas de gripe se adosen a las
células pero apenas infecten a
los humanos (los virus se anclan
a receptores cónicos); asimismo,
podría utilizarse para rastrear
adaptaciones a la gripe y abre
vías para el desarrollo de nuevos
tratamientos.
Cultivo de vasossanguíneosCon el objetivo de cultivar órga-
nos de repuesto, se han utilizado
“andamiajes” que incitan a las
células a organizarse de deter-
minadas formas. Pero es necesa-
rio refinar los materiales de an-
damiaje y su disposición geomé-
trica, entre otros factores [véase
“Ingeniería de tejidos: urdimbres
poliméricas”, por Robert Langer
y Joseph P. Vacanti; INVESTIGACIÓN Y CIENCIA, junio de 1999]. En
el número de 1 de enero de
2008 de Advanced Mate-
rials , expertos del Instituto
de Tecnología de Massa-
chusetts exponen el
modo en que una
serie de surcos y
resaltes de 600
nanómetros
trazados sobre un sustrato de
silicona proporcionó sendas don-de crecieron células progenito-
ras endoteliales. Esas células,
cultivadas en tres dimensiones,
formaron tubos que podrían
operar a modo de capilares. El
problema consiste ahora en in-
troducir tales constructos en
nuestro organismo.
Disparidad pertinazUn estudio efectuado a lo largo
de más de siete años sobre una
población de unos 2000 niñosviene a respaldar la influencia del
entorno en el cociente intelectual
(CI). Se realizó un seguimiento
de los residentes (afroamericanos,
en su mayoría) de seis barriadas
deprimidas de Chicago. Se des-
cubrieron notables y pertinaces
descensos en su destreza verbal,
en comparación con sus homó-
logos de barrios más favoreci-
dos. Los niños que abandonaron
esas áreas deprimidas seguían
presentando, años después, des-censos de cuatro puntos en
su CI, equivalentes a un año
de escolarización. Esos ha-
llazgos se dieron a conocer
por Internet en Procee-
dings of the Natio-
nal Academy of
Sciences USA, el
19 de diciembre
de 2007.
La ecuación que Hoyle omitióLa omisión de una ecuación esencial ha podido negarle a sir
Fred Hoyle todo el reconocimiento que merecía por un artículosobre la formación de elementos químicos en las estrellas.
Hoyle, fallecido en 2001 a los 86 años, fue un personaje cien-
tífico con ribetes trágicos. Jamás aceptó la teoría de la gran
explosión (“Big Bang”); prefirió la idea de un cosmos estacio-
nario. Posteriormente abrazaría la hipótesis de que la vida
terrícola tuvo origen extraplanetario. Es probable que esas
actitudes le costaran un premio Nobel.
Pero antes de verse desdeñado, Hoyle, en un trabajo de
1954 publicado en Astrophysical Journal , efectuó lo que hu-
biera sido una aportación científica imperecedera. Exponía allí
un proceso por el cual, en las estrellas de masa 10 veces la
de nuestro Sol, el hidrógeno y el helio del núcleo se irían
convirtiendo en elementos más pesados a través de una seriede reacciones de fusión nuclear a temperaturas progresiva-
mente superiores. Por fin, cuando la estrella explosionara,
formando una supernova, esos elementos serían proyectados
al espacio y, dispersos, servirían de gérmenes para sistemas
estelares todavía en gestación. Antes del trabajo de Hoyle,
numerosos expertos creían que esos elementos debían haber
nacido durante la gran explosión.
Según Donald Clayton, de la Universidad de Clemson y
colaborador de Hoyle, los expertos, para explicar la nucleosín-
tesis, en lugar de citar dicho estudio solían referirse a otro
artículo de 1957, con Hoyle de coautor, que se centraba en
otros aspectos del problema. Clayton observó que en 30 de
los más importantes artículos sobre nucleogénesis publicadosentre 1960 y 1973, eran 18 los que citaban el trabajo de 1957,
y sólo uno se refería al artículo de Hoyle de 1954.
En Science de 21 de diciembre de 2007, Clayton atribuye
la cita indebida a la omisión de una ecuación de fácil deduc-
ción, implícita en el estudio de 1954. “La ecuación de Hoyle”,
como Clayton la llama, relaciona la masa de los elementos
pesados eyectados por las estrellas moribundas con la rapidez
de su deceso y con el cambio de concentración de los diversos
isótopos producidos durante sucesivas reacciones nucleares.
“Hoyle era un excelente matemático”, señala Clayton. “Es una
lástima que optase por no escribir la ecuación.”
—J. R. Minkel
H U
L T O N - D E U T S C H C
O L L E C T I O N C
o r b i s ( H o y l e ) ; K A R L G R U P E
G e t t y I m a g e s ( e s t u
d i a n t e ) ;
C H
R I S T O P H E R
B E T T I N G E R
I n s t i t u t o d e T e c n o l o g í a d e M a s s a c h u s e t t s ( c é l u l a s )
Sir Fred Hoyle
Las células crecen según el
patrón grabado en el substrato.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 8/996 INVESTIGACION Y CIENCIA, mayo, 2008
APUNTES
ENERGIA
Mejor etanol con hierbas
Para producir etanol, una gramínea perenne, Pa-
nicum virgatum o pasto varilla, conocida en Nor-
teamérica por switchgrass , parece constituir una op-
ción factible, y preferible al maíz. Los campesinos,en colaboración con el departamento de agricultura
de Estados Unidos, han cultivado y supervisado esta
planta perenne de Norteamérica, que a menudo crece
silvestre en las lindes de los campos. Concretamente,
para estabilizar la planta, se rastrearon las semillas,
los abonos utilizados para reforzar su crecimiento, el
combustible consumido para cosecharla y la pluvio-
metría de las áreas estudiadas. El estudio, de cinco
años de duración, ha demostrado que esa gramínea
cultivada en parcelas de 3 a 9 hectáreas
produciría entre 5,2 y 11,1 toneladas de
pacas de hierba por hectárea, dependiendo
de la lluvia caída. Procesados en biorrefineríasadecuadas (que ya están en construcción)
estos cultivos habrían generado un 540
por ciento más de energía de la utilizada
para cultivarlas, en comparación con tan
sólo un 25 por ciento más de retorno energético
en el caso del etanol obtenido del grano.
— David Biel lo
CONDUCTA
Cooperación quisquillosa
Con el fin de explica por qué surge y persiste en las pobla-
ciones la cooperación de individuos que no guardan paren-
tesco entre sí, unos investigadores británicos han desarrollado
un modelo computacional en el que los jugadores cuentan con
diversos grados de cooperatividad (disposición a permitir que
los socios aumenten beneficios a cuenta del jugador) y quis-
quillosidad (la disposición a abandonar a los socios según el
trabajo en equipo que éstos realicen). Tras cada ronda del jue-
go, un individuo recibe un pago que refleja el esfuerzo que los
dos compañeros que forman un equipo ejercen. Sin embargo,
los individuos salen mejor librados cuando consiguen que sean
sus compañeros quienes hagan el trabajo. Después del pago,
los jugadores pueden continuar juntos hasta la próxima ronda
u optar por divorciarse del otro, en cuyo caso se les asociará
al azar con otro jugador. Dado que los jugadores que se divor-
cian repetidamente han de pechar con costos más elevados que
quienes siguen juntos, la cooperación y la quisquillosidad cre-
cen al alimón cuando se juegan muchas rondas (que equivalen
a largas vidas).
—Philip Yam
Infección de frambesia, la bacteria Treponema
pertenue, emparentada con la espiroqueta de la sífilis.
Nuevas pruebas genéticas respaldan la opinión de que fue Colón quien introdujo la sí-
filis en Europa. La primera epidemia de sífilis registrada aconteció en 1495, dato que
durante siglos ha alimentado el debate sobre si la espiroqueta llegó de las Américas o si
existía previamente en el Viejo Continente, pero sin que se la distinguiese hasta 1500 de
otras enfermedades de la piel. Con el fin de averiguar los orígenes de la sífilis, científicos
de la Universidad Emory y sus colaboradores han comparado genéticamente cepas de espi-roqueta procedentes de todo el mundo con bacterias emparentadas, y han observado que
los parientes más cercanos eran variantes sudamericanas de la frambesia, una enfermedad
que se contagia por contacto epidérmico y geográficamente limitada a zonas húmedas y
cálidas. Una teoría sugiere que la sífilis solamente empezó a transmitirse por vía sexual tras
su llegada a Europa, donde el clima, más frío, y el uso de ropas limitaban sus otras posibles
formas de difusión. Los investigadores conjeturan que, en última instancia, los ancestros
de la sífilis pueden ser tan antiguos como la humanidad. Habrían dado el salto a América
debido a migraciones milenios antes de la llegada de Colón.
—Charles Q. Choi
ENFERMEDADES INFECCIOSAS
Nuevo Mundo, enfermedad nueva
Los hierbajos superan al maíz
para la producción eficiente de etanol.
C H
A R L I E N E I B E R G A L L A P P h o t o ( h i e r b a j o s ) ; C D C / D R .
P E T E R P E R I N E ( P H I L # 3 8 4 2
) , 1 9 7 9 ( i n f e c c i ó n d e f r a m b e s i a )
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 9/99INVESTIGACION Y CIENCIA, mayo, 2008 7
H I S A S H I N A I T O ( c r i s t a l ) ; M A T T C O L L I N S ( d i b u j o )
Pista libre
El año pasado, la NASA dejó de publicar
datos útiles de su estudio sobre seguri-
dad del transporte aéreo, pues la agencia
consideró que mermarían la confianza
del público. Pero otro estudio hace ver
que los siniestros resultantes de errores
del piloto en los transportes aéreos esta-
dounidenses descendió entre 1983 y 2002.
El análisis, debido a Susan P. Baker y sus
colaboradores de la Universidad Johns
Hopkins atribuye las mejoras a la superior
formación de las tripulaciones y a los
avances técnicos, que proporcionan datos
más exactos y fiables sobre la posición de
la aeronave o el mal tiempo. Sin embargo,
la tasa general de siniestros permanece
sensiblemente constante, debido, tal vez,
al mayor número de errores del personal
de tierra y de los controladores aéreos,
obligados a gestionar muchos más vuelos
que en el pasado.
TOTAL DE SINIESTROS ANALIZADOSEN EL ESTUDIO: 558
SINIESTROS PROVOCADOS
POR ERRORES DE PILOTAJE: 180
SINIESTROS DEBIDOS A OTRAS
CAUSAS: 378
SINIESTROS POR ERROR DE PILOTA-
JE POR 10 MILLONES DE VUELOS EN:
1983-1987: 14,2
1998-2002: 8,5
DESCENSO EN SINIESTROSPOR ERROR DE PILOTAJE POR CADA
10 MILLONES DE VUELOS:
POR DECISIONES INCORRECTAS:
DE 6,2 A 1,8
POR INTERACCION DEFICIENTE DE
LA TRIPULACION: DE 2,8 A 0,9
POR HABER AFRONTADO MAL CON-
DICIONES DE VIENTO O DE LA PISTA
DEFICIENTES: DE 2,5 A 0,54
FUENTE : Aviation, Space and Environmental
Medicine, enero de 2008
Los diamantes son rarezas no sólo entre
los minerales, sino también en las mate-
máticas. La estructura cristalina del diaman-
te posee dos notas distintivas esenciales: susimetría es máxima, es decir, no es posible
reordenar sus componentes y lograr que la
estructura resulte más simétrica de lo que
ya es, y por otra parte cuenta con un poten-
te tipo de isotropía, pues ofrece el mismo
aspecto al ser examinado desde la dirección
de cualquier arista. En el número de febrero
de Notices of the American Mathematical
Society , Toshikazu Sunada, de la Universi-
dad nipona de Meiji, señala que de entre
un universo, en teoría infinito, de cristales
que matemáticamente podrían existir, sólo
hay otro que comparta estas propiedadescon el diamante. Mientras que el diamante
constituye una malla de anillos hexagona-
les, su pariente está formado por anillos de
10 lados.
Sunada estaba en la creencia de que nadie
había descrito con anterioridad este objeto
(al que él bautizó K4). Pero tras haber publi-
cado su trabajo, químicos y cristalógrafos le
informaron que hacía mucho que tenían no-
ticia del cristal, llamado (10,3)-a
por A. F. Wells en 1977. El gemelo
matemático del diamante existe,
en una variante ligeramente dis-torsionada, como una estructura
de átomos de silicio en siliciuro
de estroncio.
—Charles Q. Choi
GEOMETRIA
Matemática cristalina
Dos entre una infinidad: sólo
el cristal de diamante y el
cristal K4 —también llamado
(10,3)-a—, aquí representado
cuentan con simetría máxima y
ofrecen el mismo aspecto al ser
vistos desde cualquier arista.
DATOS
Para detectar lo que las rodea, las células utilizan las proteínas receptoras que
tachonan su superficie. Estos receptores se ligan a moléculas específicas y
desencadenan así una cascada de acontecimientos bioquímicos, que desembocan
en conductas celulares, como la secreción de hormonas o la destrucción de pató-
genos. Pero antes de que los receptores puedan activarse, a menudo tienen que juntarse unos con otros. Donald Ingber, de la facultad de medicina de Harvard, y
sus colaboradores han demostrado que pueden controlar esta activación mediante
partículas de óxido férrico unidas a moléculas de dinitrofenil (DNP), que se ligan
a los receptores de los mastocitos, productores de histamina. Estas perlitas de
30 nanómetros de diámetro se atraen entre sí cuando se las magnetiza y fuerzan a
los receptores a apiñarse y activarse. Los investigadores detectaron un pico en las
concentraciones de calcio del interior de las células, el primer paso en la secreción
de histamina. Esta técnica podría permitir biosensores más livianos y de menor
consumo energético para la detección de patógenos o nuevas formas de suminis-
trar fármacos al organismo.
— J. R. Minkel
NANOTECNIA
Control magnético de células
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 10/998 INVESTIGACION Y CIENCIA, mayo, 2008
¿Amantes o rivales?Nuevas investigaciones genéticas indican que los humanos modernos se cruzaron con el Homo erectus
C I E N C I A Y S O C I E D A D
La cuestión de si los humanos mo- dernos se cruzaron o guerrearon
con sus congéneres de otras especies hasido tema de debate, a menudo enco-nado, durante décadas. Murray Cox, dela Universidad de Arizona, ha descubier-to los indicios más claros hasta ahora deque los humanos modernos se cruzaroncon Homo erectus , una especie surgidahace alrededor de dos millones de añosy de la que muchos creen que se en-cuentra en la línea evolutiva que llega
hasta nosotros.La tesis de una propagación “a partir
de Africa” se basa fundamentalmente enestudios del cromosoma Y sumados a losde las mitocondrias, estructuras genera-doras de energía en la célula que tienensu propio pequeño genoma y se trans-miten por línea femenina. Toda la mo-derna variación de estas secuencias seremonta a Africa y muestra antepasadoscomunes hasta cierto punto recientes.(La ausencia de fósiles que sean híbri-dos también apoya esta idea.)
Según Cox, existen, sin embargo,muchos otros lugares donde pueden es-tar escondidos los genes de nuestrosparientes. Estudiando las característicasgenéticas de las poblaciones humanasmodernas, su equipo ha hallado una re-gión del cromosoma X, la RRM2P4,que muestra grandes diferencias entrepersonas de distintos lugares, se-ñal de una antigua separacióngenética. Para precisar los orí-genes de ese gen, los investiga-dores secuenciaron 250 indivi-
duos, la mitad procedente de Africa y, el resto de China, AsiaCentral, País Vasco e islas delPacífico.
Tras delimitar la fecha de su separa-ción según las diferencias entre las se-cuencias genéticas, los investigadoresconcluyeron que la última vez que lasdistintas formas de RRM2P4 compartie-ron un antepasado común fue hace al-rededor de dos millones de años, más omenos cuando Homo erectus emigró des-de Africa hasta Asia. Y la variante más
antigua parece haberse originado en Asia,
el único lugar, casi, donde se encuentraen la actualidad.
Cox cree que la combinación entregran antigüedad y orígenes asiáticos esconvincente. Los fósiles sugieren que elH. erectus podría haber sobrevivido en
Asia hasta hace aproximadamente 30.000años, solapándose con los humanos mo-dernos durante alrededor de 15.000 años.La variante del gen es más común pre-cisamente donde se encuentran fósilesdel H. erectus , dice Cox, que expone su
descubrimiento en el número de enerode Genetics . El equipo también utilizó
nuevas técnicas estadísticas para demos-trar que es considerablemente más pro-bable que el gen surgiera en Asia y noen Africa. La posibilidad de que hubie-ra cruzamiento entre el H. erectus y loshumanos modernos es lo más sorpren-dente, añade, porque la mayoría de losinvestigadores cree que no hay indiciosde que hayamos intercambiado nuestros
genes con los de los neandertales, que
tienen un parentesco más cercano connosotros.
Otros observan que hay muchos fac-tores que pueden crear divisiones gené-ticas profundas entre los grupos huma-nos. Nadie discute que la mayor partede nuestro genoma tiene un origen afri-cano reciente. Pero esa preponderanciahace difícil determinar qué aspectos po-drían ser el legado de un cruzamientode menor intensidad con otras líneasevolutivas y cuáles deberse al puro azar.
A lo largo de todo el genoma, algunosgrupos mostrarían grandes diferenciasaunque hubieran salido todos de Africaal mismo tiempo, explica Peter Under-hill, de la Universidad de Stanford.“Cuando uno ve estos resultados, ¿sonrealmente representativos de que algo
singular ocurrió, o son sólo extremosde las distribuciones normales? Paramí, es una cuestión que sigue abier-ta”, afirma.
Otra posibilidad es que la formaasiática de RRM2P4 hubiese estado
presente en un grupo que salió de Africa y más tarde se extinguió en
Asia. O simplemente, que no se hu-biera examinado al suficiente númerode africanos como para encontrarlo; de
hecho, la secuencia de ADN queCox y sus colaboradores piensanque vino del H. erectus se halló enun africano. Peter Forster, de laUniversidad Anglia Ruskin deCambridge, que se dedica a la pa-leogenética, sostiene que este des-cubrimiento da a entender que el
RRM2P4 asiático probablementesí se originó en Africa. Encon-trar ese gen en un africano arrui-na la idea de un antiguo cruce.
Cox lo rebate diciendo que la secuen-cia RRM2P4 de este africano es idénti-ca a la del grupo asiático y sugiere queesta persona probablemente descendióde inmigrantes asiáticos recientes. Elequipo también tiene datos preliminaresde una segunda región de ADN quemuestra una separación igualmente an-tigua; un grupo parece ser exclusivamen-
te asiático. R E
G I S B O S S U S
y g m a / C o r b i s
Según un nuevo estudio genético, los humanos modernos
pudieran haberse cruzado con Homo erectus.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 11/99INVESTIGACION Y CIENCIA, mayo, 2008 9
El gen de una sola persona no puedezanjar la cuestión, según Rosalind Har-ding, de la Universidad de Oxford. Aunasí, varios estudios sugieren que el geno-ma humano registra sorprendentes y pro-fundas separaciones entre poblaciones.Su grupo, por ejemplo, ha descubierto
que parte del gen de la hemoglobina pa-rece muy antiguo. Si continúan descu-briéndose antiguas secuencias, con eltiempo los paleogenéticos podrían con-vencerse de que todos llevamos un pe-queño erectus en la sangre.
John Whitfield
Autosincronización de autómatas celularesPara sincronizar un autómata celular con otro o consigo mismo, basta igualar entre sí
una fracción de sus casillas mayor que un valor crítico
Los sistemas extensos presentan pa- trones que, una vez adquiridos,
pueden ser estáticos en el tiempo. Engeneral, se trata de patrones inestables:ante cualquier pequeña perturbación, elsistema que los exhibe evoluciona haciauna dinámica espaciotemporalmente com-
pleja, según una denominación habitual.Significa que no hay una estructura re-petida, ni en el espacio ni el tiempo, a
lo largo de la evolución del sistema.La evolución de los valores de la bol-
sa puede servirnos de ejemplo del tipode sistemas al que nos referimos. Cual-quier periodicidad en su estructura val-dría de herramienta de predicción y anu-laría su carácter aleatorio, impredictible.Como ejemplo contrapuesto sirva el des-
pliegue de la información del ADN deun ser vivo en sus primeras fases. Si nohay errores de decodificación, acaba ge-nerando la forma característica de un in-dividuo típico de la especie correspon-diente. Sería el patrón fijo hacia el queevoluciona ese sistema extenso.
Se han desarrollado, en los últimosaños, diferentes técnicas de sincroniza-ción que, en principio, valdrían para dis-
cernir cuáles son los patrones fijos de unsistema extenso. Expliquemos primerode forma sencilla en qué consiste el fe-nómeno de la sincronización. De dos omás sistemas que tienen un comporta-miento similar en el tiempo, aunque seacon un cierto desfase, decimos que es-tán sincronizados. A no ser que los sis-
temas sean idénticos y las condicionesiniciales hayan sido las mismas, esta con-sonancia dinámica requiere un intercam-bio de información entre ambos siste-mas.
En condiciones normales, el intercam-bio de información se realiza de una for-ma continua en el tiempo y exige la vi-sibilidad total o parcial entre ambossistemas. Esta estrategia se ha aplicado
en multitud de situaciones, sobre todoentre osciladores caóticos, bajo muy di-ferentes técnicas. Cuando se unen mu-chas de estas unidades, se recurre a laintroducción en la dinámica individualde cada unidad de un campo medio,bien sea aditivo, bien sea multiplicativo,para provocar la sincronía de todo el
DESCUBRIR ANTEPASADOS EN NUESTROS GENES
Los investigadores llevan tiempo debatiendo acerca de dos teorías generales sobre el
origen de los humanos modernos; si nuestros antepasados salieron de Africa en una
sola oleada hace menos de 100.000 años o si somos el resultado de varias oleadas
que salieron de Africa y se cruzaron. Hay algo en lo que todos están de acuerdo y es
que leer nuestra historia en los genes está plagado de dificultades. Cada vez resultamás fácil recopilar cantidades de información, pero determinar qué secuencias utilizar,
a quiénes tomar la muestra y cómo identificar los legados genéticos de la selección
natural, la migración y los cuellos de botella de la población, es dificilísimo. Incluso
análisis relativamente sencillos implican suposiciones y conjeturas elaboradas y pue-
den suponer un trabajo de miles de horas delante del ordenador.
AUTOMATA 1
INFORMACION
σ(t +1) = (Γ p • Φ)[σ(t )]
t 1 σ1
Φ
Γ p
Φ
σ2
t 2
AUTOMATA 2 AUTOMATA 1
INFORMACION
t
t +1
σ1
σ2 σ1
Φ
Γ p
AUTOMATA 2
σ(t +1) = Γ p [(σ1(t ), σ2(t ))] = Γ
p [(σ(t ), Φ[σ(t )])]
1. Técnica de sincronización estocástica de dos autómatas celulares
(AC), σ1 yσ2, que evolucionan bajo la reglaΦ ( izquierda). El operador
estocástico Γ p, comandado por el parámetro p, con 0 < p < 1, se en-
carga de elegir aleatoriamente en cada iteración una proporción p
de entre todos los sitios de ambos AC y de hacerlos iguales. Técnica
de autosincronización estocástica (derecha). En este caso, el papel
de uno de los AC lo desempeña la “iteración presente”, σ1 = σ(t ),
y el otro AC es la “iteración anterior”,σ2 = σ(t – 1).
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 12/9910 INVESTIGACION Y CIENCIA, mayo, 2008
conjunto. En este caso, cada uno de loselementos no tiene conocimiento exac-to de la dinámica ni de una ni de variasde las unidades de ese conjunto; sólo po-seerá información del comportamientomedio del sistema global.
Cuando los sistemas son extensos, la
visibilidad completa se hace también in-viable en la práctica por el gran flujo deinformación que habría que habilitar en-tre ambos sistemas. De nuevo, es másrealista suponer que los sistemas no re-sultan completamente visibles entre ellosy que, por tanto, sólo pueden intercam-biar información parcial de su actual es-tado dinámico, entre partes fijas de di-chos sistemas o entre partes seleccionadasal azar (sincronización estocástica ). La li-mitación en el traspaso de informaciónhace prever la existencia de una cantidad
mínima de la misma cuya superación lle-va a los sistemas a sincronizarse.
Pero pensemos ahora que, en vez decontar con dos sistemas extensos distin-tos, tenemos uno solo, tomado en dostiempos distintos. Si de alguna manerase aplica la estrategia anterior entre lasestructuras que presenta el sistema enesos dos tiempos diferentes, podría ge-nerarse, en principio, una sincronizaciónde estructuras actuales con estructurasde su pasado. El sistema sufriría el fenó-meno que hemos denominado autosin-
cronización. Quiere decir que el sistemaquedaría congelado en una estructura fijaen el tiempo. Podría pensarse entoncesen emplear este método para encontrarsus estructuras fijas.
Del mismo modo, si en vez de tomardos configuraciones a dos tiempos dis-tintos, se toma una sola de ellas, porejemplo la estructura actual del sistema,y ésta se divide a cada tiempo en dospartes a las que se aplica el método desincronización, la evolución del sistemapuede derivar en una estructura final si-
métrica respecto a la frontera que sepa-ra las dos partes espaciales en que se di-vidió. Es lo que hemos dado en llamarautosincronización por simetría .
Hemos ensayado todas estas técnicassobre los sistemas dinámicos extensosmás sencillos que podemos encontrar:los autómatas celulares . Un autómata ce-lular (AC) es un sistema extenso discre-to en el espacio y en el tiempo. La ver-sión unidimensional de un AC estáformada por una ristra de N sitios o cé-lulas, numerados por el índice i = 1,...,
N , donde la variable local σi puede to-
mar un valor binario, o bien 0 o bien1. El valor de cada uno de los sitios enel tiempo t representa una configuracióndel sistema. La nueva configuración atiempo t + 1 viene determinada por laregla Φ de evolución del sistema.
En condiciones normales se trabajacon un acoplamiento a primeros veci-nos, es decir, el valor σi (t + 1) es fun-ción de los valores que el sistema tomaen el propio sitio σi (t ) y de los dos ve-cinos más próximos, esto es, σi– 1(t ) y
Regla 150
0 = blanco1 = negro
p = 0,9
2. Evolución de un AC bajo
la regla 150 y la técnica
de autosincronización
estocástica. La ristra
espacial de sitios es el eje
horizontal y la evolución
temporal es el eje verti-
cal, de arriba hacia abajo.El sistema no se congela
en ningún patrón estable,
sino que se establece una
competición entre los pa-
trones estacionarios de la
regla 150: los elementos
11, 01 y 00.
3. Evolución espaciotemporal de las reglas 18 y 150 bajo la técnica de autosincronización
estocástica por simetría. Obsérvese que las dos mitades en las que se parte el sistema
se autosincronizan después de una fase transitoria, hecho que puede observarse por la
simetría especular que presentan los patrones. Se ofrece, además, una tabla que muestra el
parámetro crítico pc para las diferentes reglas cuando evolucionan bajo ese tipo de autosin-
cronización.
Regla 18
p > pc
Regla 150
Regla 18
0,25
22
0,27
30
1,00
54
0,20
60
1,00
90
0,25
105
0,37
110
1,00
122
0,27
126
0,30
146
0,25
150
0,37
182
0,25pc
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 13/99INVESTIGACION Y CIENCIA, mayo, 2008 11
σi+1(t ). Así, podemos escribir la evolu-ción dinámica del AC de la forma: σ(t + 1) = Φ[σ(t )], que localmente se expre-sa σi (t + 1) = ϕ[σi -1(t), σi (t ), σi +1(t )],siendo ϕ la particularización local de laregla Φ.
Hay que observar que, para cada cé-
lula, hay 23
posibles entornos distintosy cada uno de ellos puede tomar unode los valores binarios, con lo cual elnúmero de reglas distintas posibles esde 28. La forma de aplicar una de esasreglas es pasar a binario el número de-cimal que representa la regla correspon-diente y asignar, por orden correlati-vo, cada uno de los 8 bits de esarepresentación a cada uno de los 8 po-sibles entornos. Así, por ejemplo, la reglaΦ = 18 en binario es 00010010, con locual su particularización es como sigue:
ϕ(0,0,0) = 0, ϕ(0,0,1) = 1, ϕ(0,1,0) =0, ϕ(0,1,1) = 0, ϕ(1,0,0) = 1, ϕ(1,0,1)= 0, ϕ(1,1,0) = 0 y ϕ(1,1,1) = 0.
Cada una de estas reglas produce unaevolución dinámica distinta. Stephen
Wolfram clasificó en los años ochentalas diferentes estructuras que generan las256 reglas en cuatro grandes grupos concomportamientos distintos. Uno de es-tos grupos corresponde a las reglas queproducen un comportamiento espacio-temporal complejo; es el caso de las re-glas 18, 22, 90 y 150.
Nos hemos centrado en ensayar lastécnicas de autosincronización antes ex-plicadas sobre este tipo particular deautómatas. La técnica de sincroniza-ción estocástica de dos AC se resumeen el esquema de la figura 1 a la iz-quierda . El operador estocástico Γ p, co-mandado por el parámetro p, con 0 <
p < 1, se encarga de elegir aleatoria-mente en cada iteración una propor-
ción p de entre todos los sitios de am-bos AC y de hacerlos iguales. Todas lasreglas presentan una transición a la sin-cronización para un p crítico ( pc ) quevale alrededor de 0,25. La aplicaciónde esta metodología a un solo AC, laautosincronización, se presenta en la
figura 1 a la derecha .En general, esta técnica no llega a
congelar al autómata en una estructura,
tal como se muestra en la figura 2 parala regla 150, donde se establece unacompetición entre los diferentes patro-nes estacionarios del sistema. Este com-portamiento encuentra una excepciónnotable en la regla 18, que sí llega acongelarse en su estructura estable, quees el patrón nulo.
En el caso de la autosincronizaciónpor simetría, cuyo esquema se muestra
en la figura 4 , el sistema se autosincro-niza para todas las reglas que presentanuna simetría derecha-izquierda, ϕ[σi -1(t),σi (t ), σi +1(t )] = ϕ[σi +1(t), σi (t ), σi-1(t )],tal como las reglas 18 y 150 que se mues-tran en la figura 3. En la tabla inferiorde la ilustración se dan también los va-lores críticos pc para los que se consiguela autosincronización por simetría en lasdiferentes reglas.
Ricardo López Ruiz
Dpto. de Informática,
Facultad de Ciencias y BIFI,
Universidad de Zaragoza
Juan Roberto Sánchez
Dpto. de Física, Facultad de Ingeniería,
Universidad Nacional de Mar del Plata,
Mar del Plata, Argentina
El ADN de las células se halla expues- to a la agresión por parte de agen-
tes físicos y químicos del medio. Cual-quier daño en el ADN reviste un peligroespecial, ya que puede ocasionar la muer-te de la célula o la transformación deésta en cancerígena. Las células cuentan
con un repertorio de mecanismos de
protección y reparación del ADN quegarantizan su supervivencia. La disfun-ción de esos mecanismos constituye lacausa de numerosas enfermedades, leta-les algunas.
En contraposición, esos mismos me-canismos de reparación son la causa de
la escasa eficacia de tratamientos de qui-
mioterapia en algunos tumores. Los agen-tes quimioterapéuticos (el cis -platino, porejemplo) suelen lesionar el ADN, dañoque impide la correcta duplicación del
ADN y determina, en última instancia,la muerte celular. El tumor acaba elimi-nándose porque las células tumorales se
dividen a una velocidad desmesurada y,
AUTOMATA
INFORMACION
σ(t +1) = Γ [Φ(σ(t ))] = Γ [Φ(σ1(t ), σ2(t ))]
t σ(t )
σ(t +1)t +1
σ1 σ2
Φ
Γ
σ1 σ2
4. Técnica de autosincronización estocástica por simetría. En este caso el papel de uno de
los autómatas celulares lo desempeña una mitad de la iteración presente, σ1 = [σ i (t ), i = 1,..., N/2], y el otro autómata celular es la parte restante, σ2 = [σ i (t ), i = N/2+1,..., N].
Anemia de FanconiLa comprensión de los fallos moleculares que subyacen bajo este trastorno genético nos permitirá
conocer mejor los mecanismos de reparación del ADN y promover una quimioterapia más eficaz
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 14/99
por tanto, son más sensibles a la quimio-terapia. No obstante, las demás célulasdel organismo también sufren el ataquedel agente quimioterapéutico, sobre todolas que se dividen continuamente, comolas progenitoras del cabello o las precur-soras de las células sanguíneas. De esa
acción generalizada de la quimioterapiase derivan la caída del cabello y otrosefectos secundarios indeseados.
Los mecanismos naturales de repara-ción del daño celular hacen, pues, que,en muchos casos, deba administrarse unadosis de quimioterapia muy alta. En efec-to, para eliminar las células tumorales,el fármaco debe doblegar los mecanis-mos de protección. Se ha visto tambiénque algunos tumores de ovario que sue-len tratarse con cis -platino, acaban de-sarrollando resistencia a este compuesto;
la terapia pierde entonces toda eficacia.
Parte de la investigación en quimio-terapia se centra en los mecanismos dereparación del daño génico. Si se logra-ra provocar en la célula tumoral la dis-función de esos mecanismos de protec-ción, se rebajaría la dosis necesaria dequimioterapia y, por tanto, se recorta-
rían los efectos secundarios. Además, seevitaría el desarrollo de tumores resisten-tes al tratamiento. La investigación so-bre la base molecular de enfermedadescausadas por la disfunción del sistemade reparación y protección génica haarrojado luz sobre los mecanismos celu-lares de resistencia contra agentes anti-tumorales.
La anemia de Fanconiy la ruta FA/BRCAUna de esas enfermedades es la anemia
de Fanconi. Este trastorno genético hu-
mano se caracteriza por presentar unfallo medular progresivo, que suele con-llevar trombopenia (descenso del re-cuento de plaquetas) o pancitopenia(descenso del recuento total de célulassanguíneas). La acompañan otros tras-tornos hematológicos (síndrome mielo-
displásico o leucemia mieloide aguda),así como una cohorte de anomalíascongénitas, endocrinopatías y tumoressólidos.
Las células de los pacientes con ane-mia de Fanconi se muestran muy sen-sibles ante determinados agentes citoes-táticos, como la mitomicina C, el die-poxibutano y el cis -platino, que inducenun tipo particular de daño en el ADN:los enlaces cruzados. Los enlaces cruza-dos impiden el avance de la horquillade replicación y generan roturas en la
cadena de ADN. De ahí que tales pa-
La célula cuenta con meca-
nismos que reparan las
horquillas de replicación blo-
queadas. El cis-platino (agen-te quimioterapéutico) genera
entre las dos cadenas de ADN
enlaces cruzados (1) que impi-
den el avance de la horquilla
de replicación ( 2). Por ello, se
producen roturas en el ADN.
La ruta FA/BRCA se encarga
de reparar la rotura; si falla
esa vía, la célula, incapaz de
dividirse, muere ( 3).
Para reparar la rotura, se
fosforila la histona H2AX,
al propio tiempo que se
monoubiquitina la proteína
FANCD2 mediante el complejo
FA ( 4). Una vez activada,
FANCD2 se dirige al sitio del
daño, atraída por la H2AX
fosforilada ( 5). FANCD2
permite la carga de proteínas
de reparación por recombina-
ción homóloga, como BRCA2
y RAD51 (6). La rotura se
repara (7 ). La maquinaria de
replicación se coloca otra vez
sobre la cadena de ADN y
prosigue la replicación (8).
1 2 3
4
567
8
Cis-platino
La célula continúasu procesode división
La célulamuere
Maquinariareplicación La ruta FA/BRCA
es funcional
Complejo FA
Ub
Ub
D2
D2
RAD51
BRCA2
D2
D2
P-H2AX
La ruta FA/BRCAno es funcional
y el daño no puedeser reparado
RUTA FA/BRCA
12 INVESTIGACION Y CIENCIA, mayo, 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 15/99INVESTIGACION Y CIENCIA, mayo, 2008 13
cientes presenten mayor número de ro-turas cromosómicas que una personasana.
Bajo la anemia de Fanconi subyaceun fallo en la ruta FA/BRCA, la vía mo-lecular encargada de la reparación delas horquillas de replicación bloqueadas.
Se conocen hasta 13 genes responsablesde la enfermedad: FANCA, FANCB,FANCC, FANCD1/BRCA2, FANCD2,FANCE, FANCF, FANCG, FANCI, FAN-CJ/BRIP1, FANCL, FANCM y FANCN/ PALB2 . Tres (FANCD1, FANCJ yFANCN ) son también genes de suscep-tibilidad al cáncer de mama.
La mayoría de los productos de esosgenes se unen para formar el comple-
jo proteico FA, cuya función estr iba enactivar la proteína central de la ruta:FANCD2. Una vez activada mediante
monoubiquitinización, FANCD2 se di-rige al sitio dañado; allí se colocalizacon otras proteínas, como FANCD1/BRCA2, que llevan a cabo la repara-ción del daño por recombinación ho-móloga.
En el sistema de regulación de la rutaFA/BRCA participan numerosas molécu-las: quinasas (ATR), proteínas de señali-zación del daño (H2AX) y otras (USP1,BRCA1, NBS1 o BLM); las tres últimasproteínas intervienen a su vez en otrasvías de reparación del daño celular: su
defecto causa otras enfermedades rarascon predisposición al cáncer, como lossíndromes de Bloom o de Nijmegen.
Las personas que sufren anemia deFanconi corren un riesgo muy alto decáncer. Desarrollan leucemias o tumoressólidos, sobre todo en cabeza y cuello, aedades tempranas. El tratamiento delcáncer en esos pacientes entraña una grancomplejidad, pues la hipersensibilidad desus células ante los agentes quimiotera-péuticos hace que el tratamiento elimi-ne todas las células de su organismo, y
no sólo las tumorales. Si lográramos blo-quear la ruta FA/BRCA en las célulastumorales de una persona con un tumorincipiente, se volverían hipersensibles ala quimioterapia, de forma que la elimi-nación del tumor requeriría una dosismenor.
Inhibición de la ruta FA/BRCACon ese objetivo, se ha realizado un ex-perimento in vitro con células tumora-les, basado en la inhibición de la pro-teína FANCD2 y el posterior estudio
de la sensibilidad a agentes inductores
de enlaces cruzados. Por gen diana seeligió a FANCD2 para la inhibición,pues desarrolla la función principal enla ruta FA/BRCA. La investigación so-bre portadores de versiones mutadas deese gen ha demostrado que todos los pa-cientes cuentan con un pequeño por-
centaje de proteína funcional; de lo quecabe inferir que la ausencia total de estaproteína resulta letal. Además, ese genconstituye uno de los pocos genes Fan-coni que se han conservado en el cursode la evolución.
Para inhibir la síntesis de la proteí-na FANCD2 se ha aplicado la técnicade interferencia por ARN. Se liberanpequeñas moléculas de ARN en el me-dio celular, que obstruyen la expresióndel ARN mensajero que codifica parael gen FANCD2 . Con ello se impide
la síntesis de la proteína correspon-diente.
A través de ese método se ha conse-guido que las células tumorales tripli-quen su sensibilidad ante la quimiote-rapia, tras reducir en un 50 por cientola cantidad total de proteína FANCD2.La técnica de interferencia por ARN seha aplicado en diversos ensayos de tra-tamiento del cáncer y otros trastornos,sobre todo enfermedades de origen ví-rico. Algunas de esas aplicaciones se en-cuentran ya en fase de ensayo clínico.
Aunque se trata de una técnica nove-dosa, la interferencia por ARN ofreceun notable potencial terapéutico y ver-satilidad.
Se han propuesto estrategias alterna-tivas para bloquear la ruta FA/BRCA.Una de ellas, el uso de inhibidores deFANCD2. Para determinar la actividadde esos inhibidores, se ensayaron milesde sustancias; cuatro de ellas lograronintensificar la sensibilidad de las célu-las al cis -platino, lo que las convertíaen potenciales fármacos complementa-
rios en el tratamiento quimioterapéuti-co. Aunque se halla todavía en los al-bores de su desarrollo, esa nuevaestrategia terapéutica ha cosechado re-sultados alentadores.
Maria Castellà y Jordi Surrallés
Unidad de Genética,
Dpto. Genética y Microbiología,
Universidad Autónoma de Barcelona
y Centro de Investigación Biomédica en Red
de Enfermedades Raras (CIBERER),
Instituto de Salud Carlos III,
Bellaterra, Barcelona
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 16/9914 INVESTIGACION Y CIENCIA, mayo, 2008
¿El fin de la
cosmología?
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 17/99INVESTIGACION Y CIENCIA, mayo, 2008 15
Un artículo de I C- que hubiese tratado hace cien años sobre la historia y la estructura a gran
escala del universo apenas si habría dicho algoque fuese cierto. En 1908 se creía que nuestragalaxia era todo el universo. La llamaban “eluniverso isla”, como si fuera un cúmulo aisladode estrellas en medio de un vacío infinito.Hoy sabemos que nuestra galaxia es sólo unaentre las más de 400.000 millones de galaxiasobservables. En 1908, el consenso científico
admitía que el universo era estático y eterno.No se sospechaba ni remotamente que hubiesenacido de una “gran explosión”. Se ignorabaque los elementos ligeros se sintetizaron enlos primeros instantes de esa gran explosióny luego en el interior de los núcleos de lasestrellas. Nunca se pensó en la expansión delespacio y en que la materia lo curvase. Elconocimiento de que el espacio está bañadoen radiación, imagen fantasmagórica del fríorescoldo de la creación, tuvo que esperar aldesarrollo de técnicas modernas concebidas nopara explorar la eternidad, sino para llamar
por teléfono a casa.Es difícil pensar en un área del saber que
haya cambiado más en los últimos cien añosque la cosmología. Pero, ¿debe la ciencia delfuturo reflejar siempre más conocimiento em-pírico que el que existía en el pasado? Nuestrotrabajo reciente sugiere que, a escalas cósmicas,la respuesta es no. Podríamos estar viviendo enla única época de la historia del universo en laque resulta posible adquirir un conocimientopreciso de su verdadera naturaleza.
Un descubrimiento impresionante de hacecasi diez años motivó nuestra reflexión. Dos
equipos de astrónomos reconstruyeron la ex-
CONCEPTOS BASICOS
Hace diez años, se produjo
un descubrimiento revo-
lucionario: la expansión
del universo se está ace-
lerando. Todavía hoy se
investiga para determinar
las consecuencias. La acelerada expansión
llegará a hacer que todas
las galaxias, salvo las
pocas ligadas gravitato-
riamente a la nuestra, se
nos pierdan de vista para
siempre. Quedarán así
eliminados los puntos
que sirven de referencia
para medir la expansión
y se diluirán los productos
más distintivos de la gran
explosión hasta resul-tar imperceptibles. En
resumen, se borrará toda
prueba de que un día hubo
una gran explosión.
A nuestros descendientes
más lejanos, el universo
les parecerá una laguna
de estrellas sumergidas
en un vacío infinito y sin
cambios.
¿Cuánta sabiduría ha
borrado ya el universo?
S L I M F
I L M S
Un universo en aceleraciónborra las huellas de su propio origen
Lawrence M. Krauss y Robert J. Scherrer
1. PLANETA SOLITARIO. A medida que el espaciose vacíe debido a la aceleración de la expansióncósmica, la galaxia donde se encuentra la Tierrase irá rodeando de una total oscuridad.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 18/9916 INVESTIGACION Y CIENCIA, mayo, 2008
pansión del universo a lo largo de los últi-mos cinco mil millones de años. Vieron queparece acelerarse. Se cree que la fuente de talantigravedad cósmica es una nueva forma de“energía oscura”, asociada al espacio vacío. Algunos teóricos, entre ellos uno de nosotros(Krauss), habíamos anticipado este nuevo re-
sultado a partir de unas mediciones indirectas,pero son las observaciones directas las quecuentan en física.
La aceleración del universo implica que elespacio vacío contiene tres veces más energíaque todas las estructuras cósmicas que obser-vamos hoy día: las galaxias, los cúmulos y lossupercúmulos de galaxias. Paradójicamente, Albert Einstein fue el primero en plantearla existencia de esta forma de energía, perocon el fin de mantener un universo estáti-co. La llamó constante cosmológica [véase “Antigravedad cosmológica”, por Lawrence
M. Krauss; I C, marzode 1999].
La energía oscura tendrá un impacto enor-me en el futuro del universo. Junto con elcosmólogo Glenn Starkman, de la Universidadde la Reserva Case del Oeste, Krauss explorólas consecuencias que esa energía comportaráen el destino de la vida. El pronóstico noes bueno. Un universo con una constante
cosmológica se convertirá en un lugar muypoco hospitalario. La constante cosmológicaproduce un “horizonte de sucesos” fijo, unasuperficie imaginaria, más allá de la cual ni lamateria ni la radiación nos pueden alcanzar.El universo se parecerá a un agujero negrovuelto de dentro hacia fuera, donde la ma-
teria y la radiación permanecerán atrapadasallende el horizonte, no aquende. Significaque el universo observable contiene sólo unacantidad finita de información; el procesadode la misma (y la vida) no podrán durar parasiempre [véase “El sino de la vida en el uni-verso”, por Lawrence M. Krauss y Glenn D.Starkman; I C, febrerode 2000].
Mucho antes de que esta limitación de lainformación se convierta en un problema, lamateria en expansión del universo habrá sidoconducida fuera del horizonte de sucesos. Es-
tudiaron el proceso Abraham Loeb y KentaroNagamine, por entonces en la Universidad deHarvard. Dedujeron que el Grupo Local deGalaxias (la Vía Láctea, Andrómeda y unahueste de galaxias enanas que giran alrededorde ambas) se derrumbará sobre sí mismo paraformar un supercúmulo de estrellas solitario eimponente. Las demás galaxias se perderán másallá del horizonte de sucesos. Ocurrirá dentro
EL UNIVERSO CRECE, LAS VISTAS MENGUAN
3 Las galaxias lejanas (las que no están ligadas
a nosotros por gravedad) se van más allá de
nuestro rango de visión. Mientras tanto, la
gravedad atrae a las galaxias cercanas.
Galaxia
Región observable
Regióndel espacio
NOTA: Puesto que el espacio se
expande de manera uniforme,
cualquier alienígena vería el mismo
efecto en otras galaxias.
Lawrence M. Krauss y RobertJ. Scherrer comenzaron a
trabajar juntos hace dos años,
mientras Krauss pasaba un año
sabático en la Universidad Van-
derbilt, de Nashville. Krauss, de la
Universidad de la Reserva Case
del Oeste, dirige el Centro para
la Educación e Investigación en
Cosmología y Astrofísica. Scherrer
es cosmólogo, director del depar-
tamento de física y astronomía de
Vanderbilt, y autor de relatos de
ciencia-ficción.
Los autores
S L I M F
I L M S
1 En el comienzo de la
aceleración observamos el
mayor número de galaxias
que jamás podremos ver.
2 La región visible crece, pero el
universo en su conjunto crece aún
más deprisa, por lo que apreciamos
una fracción menor del espacio que
hay fuera.
El universo podría ser infinito. Pero consideremos lo que le ocurre al espacio de nuestro alrededor ( esfera decolor púrpura), del que sólo podemos ver parte (esfera interior amarilla). Con la expansión del espacio, las
galaxias ( puntos naranjas) se esparcen. Como a la luz le lleva tiempo propagarse, los observadores terrestres
(o nuestros predecesores o descendientes) contemplan un volumen del espacio en continuo crecimiento; las ga-
laxias más distantes acaban alejándose de nosotros a una velocidad que impide
que la luz que emitan a part ir de ese momento nos llegue jamás. Hace seis
mil millones de años, la expansión comenzó a acelerarse.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 19/99INVESTIGACION Y CIENCIA, mayo, 2008 17
de unos 100.000 millones de años. Aunqueparezca mucho tiempo, no es nada comparadocon el desierto de la eternidad.
Pilares que ceden¿Qué podrían llegar a saber de la historia deluniverso los astrónomos de un mañana leja-
no, habitantes en un aislado supercúmulo deestrellas? Para abordar la cuestión, recordemoslos pilares sobre los que descansa nuestro co-nocimiento de la gran explosión.
El primero es la teoría de la relatividadgeneral de Einstein. Durante casi 300 años, lateoría de Newton de la gravitación universalsirvió de cimiento para la astronomía. La teoríade Newton predice muy bien los movimientosde los objetos a escalas terrestres y galácticas,pero es incapaz de lidiar con cantidades infi-nitas de materia. La relatividad general triunfasobre esta limitación. Poco después de que
Einstein publicara la teoría en 1916, Willemde Sitter resolvió las ecuaciones de la relati-vidad general para un universo simplificadoque incorporaba la constante cosmológica deEinstein. El trabajo de De Sitter parecía re-producir la percepción del universo que setenía entonces: una “isla” galáctica sumergidaen un gigantesco vacío estático.
Los cosmólogos se percataron enseguidade que la estática era una mala interpreta-ción. El universo de De Sitter estaba en eter-na expansión. Tal y como Georges Lemaîtreaclaró más tarde, las ecuaciones de Einsteinpredicen que un universo estático, infinito yhomogéneo es imposible. El universo se ha
de expandir o contraer. De ese enfoque nacióla que más tarde se denominaría teoría de lagran explosión.
El pilar siguiente se colocó en los añosveinte del siglo pasado, al descubrirse la ex-pansión del universo. El primero en obtenerdatos relativos a la expansión fue Vesto Slipher,quien se valió de los espectros de las estrellaspara medir las velocidades de las galaxias cer-canas. Las ondas de la luz procedentes de unaestrella que se acerca a la Tierra se comprimen,acortando la longitud de onda y haciendo quela luz sea más azul. Las ondas de la luz de
un objeto que se aleja de nosotros se estiran,con lo que la longitud de onda es mayor y laluz más roja. Slipher determinó si las estre-llas se mueven hacia nosotros o se alejan y aqué velocidad midiendo el alargamiento o lacompresión de la luz procedente de galaxiasdistantes. (En aquel momento, los astrónomostodavía no estaban seguros de que las manchasluminosas que hoy llamamos “galaxias” fuerancuerpos independientes de estrellas, y no me-ras nubes de gas situadas dentro de nuestrapropia galaxia.) Slipher halló que casi todaslas galaxias se alejaban de nosotros. Parecía
que estábamos sentados en el centro de unadescontrolada expansión.
No obstante, el crédito por haber descubier-to la expansión del universo no se le concedea Slipher, sino a Edwin Hubble, quien no sólomidió la velocidad de las galaxias cercanas, sinotambién las distancias a que se encontraban.Sus mediciones condujeron a dos conclusio-nes que justifican su fama. Primero, Hubblecomprobó que las galaxias se hallan tan lejos,que forman en verdad conjuntos autónomos deestrellas, igual que nuestra propia galaxia.
Segundo, descubrió una sencilla relación
entre la distancia de las galaxias y sus velocida-des. La velocidad es directamente proporcionala la distancia: una galaxia dos veces más lejanaque otra se mueve dos veces más deprisa. Estarelación entre la distancia y la velocidad esprecisamente la que corresponde a un universoque se expande. Las mediciones de Hubble sehan refinado desde entonces; últimamente, pormedio de la observación de supernovas lejanas.El resultado ha sido el descubrimiento de laenergía oscura.
El tercer pilar es la débil radiación del fondode microondas, descubierta accidentalmente
en 1965 por dos físicos de los laboratorios
4 Con el tiempo, no veremos
más que una supergalaxia
y un vacío insalvable.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 20/9918 INVESTIGACION Y CIENCIA, mayo, 2008
Bell, Arno Penzias y Robert Wilson, mientrasrastreaban fuentes de interferencias de radio.Pronto se estableció que esa radiación cons-tituía una reliquia de las primeras fases de laexpansión del universo. La radiación de fondomanifiesta que el universo comenzó siendo ca-liente y denso, para ir enfriándose y diluyendodesde entonces.
El último pilar observacional de la granexplosión es la idoneidad de un universo pri-mitivo caliente y denso para la fusión nuclear.Cuando el universo alcanzó una temperaturade entre mil millones y diez mil millones de
kelvin, los núcleos más ligeros se fundieronen núcleos más pesados: la nucleosíntesis de lagran explosión. Tal proceso sólo puede ocurrirdurante unos pocos minutos mientras el uni-verso se expande y se enfría; la fusión, por ello,no pasó de los elementos más ligeros. La mayorparte del helio del universo se produjo en esosminutos, así como del deuterio o hidrógenopesado. Las cantidades relativas de helio ydeuterio coinciden con las predicciones de lanucleosíntesis de la gran explosión, un sólidorespaldo para la teoría, al tiempo que propor-ciona una estimación precisa de la cantidad de
protones y neutrones en el universo.
Cielos oscuros¿Qué verán los científicos cuando miren alcielo dentro de 100.000 millones de años? Sintelescopios, percibirán lo mismo que hoy: lasestrellas de nuestra galaxia. Las estrellas másbrillantes y de mayor masa habrán consumi-do todo su combustible nuclear, pero aúnbrillarán en la noche muchas estrellas máspequeñas. Habrá una verdadera diferenciacuando construyan telescopios que puedanobservar otras galaxias. ¡No verán ninguna!Las galaxias próximas se habrán fundido conla Vía Láctea; entre todas integrarán una ga-
laxia solitaria y enorme. Las demás habrándesaparecido hace tiempo allende el horizontede sucesos.
La desaparición de las galaxias no seráinmediata, sino gradual. Su corrimiento alrojo se irá haciendo infinitamente mayor amedida que se aproximen al horizonte. Kraussy Starkman calcularon que superará el valorde 5000 en todas las galaxias dentro de cienmil millones de años y llegará a 1053 a los10 billones de años; para entonces, los ra-yos cósmicos de muy alta energía tendránun corrimiento al rojo tan elevado, que su
longitud de onda superará el tamaño del hori- D O
N D I X O N
HOY, los tres pilares son muy perceptibles. Ob-servamos que las galaxias distantes se alejan denosotros (flechas rojas), mientras que las cercanasse reagrupan ( azul ); la radiación de fondo bañatodo el espacio; y el gas cósmico aún conserva lamezcla química producida al principio de la granexplosión.
DENTRO DE MILES DE MILLONES DE AÑOS, lasgalaxias cercanas se habrán fusionado y las máslejanas habrán escapado a nuestra vista. Laradiación de fondo se habrá diluido hasta nivelesindetectables. Las múltiples generaciones deestrellas habrán contaminado la mezcla químicaoriginal.
AMNESIA COSMICALa actual aceleración de la expan-sión cósmica no es la única mane-ra en la que el universo destruyela información sobre su pasado.
INFLACION COSMICAEs posible que la expansión
también se acelerara muy pronto
en la historia cósmica. Habría
borrado casi todos los restos de
un universo anterior, incluyendo
lo que sucediese en la propia
gran explosión.
AGUJEROS NEGROSEstos sumideros cósmicos no sólo
se tragan los objetos, sino la
información que guardan, que se
pierde para siempre.
MEDICIONES CUANTICASCuando se mide un sistema
cuántico, adquiere un estado
determinado y se borran las
muchas combinaciones posibles
que ese sistema podría haber
tenido.
La aceleración de la expansión cósmica del universo ha empezado ya a minar los tres pilares observacionales
de la teoría de la gran explosión: el alejamiento mutuo de las galaxias, la radiación del fondo cósmico de
microondas y las cantidades relativas de elementos químicos ligeros, como el hidrógeno y el helio.
EL APOCALIPSIS DE CONOCIMIENTO
Supergalaxia
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 21/99INVESTIGACION Y CIENCIA, mayo, 2008 19
zonte. Estos objetos serán, sin duda, invisiblespara el hombre.
Como resultado, el descubrimiento crucialde Hubble de la expansión del universo seráirreproducible. La materia en expansión habrádesaparecido detrás del horizonte y lo quequede pertenecerá a un cúmulo de estrellas
ligado por gravedad. Para los astrónomos delfuturo, el universo observable se asemejará bas-tante al “universo isla” de 1908: un conjuntode estrellas, único, enorme, estático y eterno,rodeado por un espacio vacío.
La experiencia nos dice que a pesar dedisponer de datos, el modelo cosmológicocorrecto no siempre resulta obvio. Recuérde-se que algunos astrofísicos recuperaron entre1940 y 1960 la idea de un universo eterno.El edificio de la cosmología observacionalse apoyaba por entonces sólo en el descu-brimiento de Hubble de la expansión del
universo. El universo se encontraba, decían,en un estado de continuo equilibrio. Se crea-ba materia mientras proseguía la expansión;por lo tanto, el universo, como un todo, nocambiaba con el tiempo. Esta idea, que acabóen un callejón sin salida intelectual, pone demanifiesto la clase de nociones equivocadasque pueden surgir cuando no hay datos ob-servacionales adecuados.
¿Dónde más podrían buscar los astrónomosdel futuro pruebas de la gran explosión? ¿Lespermitiría la radiación del fondo de microon-das examinar la dinámica del universo? No.
Con la expansión del universo las longitudesde onda de la radiación de fondo se estirantambién y la radiación se vuelve más difusa. A la edad de cien mil millones de años, laslongitudes de onda más intensas del fondo ten-drán una escala de un metro, correspondientea las radioondas y no a las microondas. Laintensidad de la radiación habrá caído a unabillonésima parte; podría dejar de observarsepara siempre.
Más lejos en el tiempo, el fondo cósmicollegará a ser completamente indetectable. Elespacio entre las estrellas de nuestra galaxia
se halla ocupado por un gas ionizado de elec-trones. Las radioondas de baja frecuencia nopueden penetrar en este gas; son absorbidaso reflejadas. Un efecto parecido constituye larazón de que se sintonicen de noche frecuen-cias de radio de AM lejos de las ciudades deorigen: las radioondas se reflejan en la ionos-fera y son devueltas a la superficie. El mediointerestelar viene a ser una gran ionosfera queimpregna la galaxia. Una radioonda de menosde un kilohertz de frecuencia (una longitudde onda superior a los 300 kilómetros) nopuede entrar en nuestra galaxia. No cabe en
la Vía Láctea una radioastronomía por debajo
del kilohertz. Cuando el universo alcance unaedad 25 veces superior a la actual, el fondo demicroondas se habrá dilatado por encima deesta longitud de onda y será indetectable paralos residentes de la galaxia. Antes incluso, lasdébiles estructuras de esta radiación de fondo,que tanta información han proporcionado a los
cosmólogos del presente, se habrán silenciadopara los investigadores.
Ardiendo¿Permitiría la medición de las cantidadesrelativas (“abundancias”) de los elementosquímicos conocer la gran explosión a loscosmólogos del futuro? Una vez más, la res-puesta es negativa. Podemos analizar la nu-cleosíntesis de la gran explosión porque lasconcentraciones de deuterio y helio no hanevolucionado mucho desde que se crearonsus núcleos, hace catorce mil millones de
años. Aunque el helio se fabrica en las es-trellas en el curso de las reacciones de fusiónnuclear, su concentración ha aumentado sóloen un porcentaje pequeño. Según los astró-nomos Fred Adams y Gregory Laughlin, dela Universidad de Michigan en Ann Arbor,esa fracción podría crecer hasta un 60 porciento tras muchas generaciones de estrellas.Un observador de un futuro distante encon-traría que el helio producido por generacionessucesivas de estrellas abundaría mucho másque el helio primordial.
Hoy día, la prueba más limpia de la nu-
cleosíntesis de la gran explosión la proporcionala cantidad relativa de deuterio. Nuestras mejo-res mediciones de la concentración de deuterioprimordial proceden de las observaciones de lasnubes de hidrógeno iluminadas, desde atrás,por cuásares, faros muy lejanos y brillantes po-siblemente encendidos por los agujeros negros.En el futuro lejano, lo mismo las nubes de gasque los cuásares habrán atravesado el horizontede sucesos y se habrán perdido de vista parasiempre. Sólo se observará el deuterio de lagalaxia. Pero las estrellas destruyen el deuterio;apenas sobrevive una pequeña cantidad. Aun
cuando los astrónomos del futuro observarandeuterio, no lo relacionarían con la gran ex-plosión. Las reacciones nucleares en las queintervienen rayos cósmicos de alta energía,estudiadas hoy como posible fuente de partedel deuterio observado, les parecerán un origenmás verosímil.
Aunque las cantidades relativas de los ele-mentos ligeros no proporcionarán una pruebadirecta de una gran explosión caliente, sí ha-rán que la cosmología del futuro difiera de lacosmología ilusoria de un siglo. Astrónomos yfísicos que sepan de física nuclear deducirán
que las estrellas consumen material nuclear. L I S A A P F E L B A C H E R
60%20% 20%
PERDIDA DE LOS
INDICIOS QUIMICOS
El universo contiene sobre todohidrógeno y helio producidos enlos tres primeros minutos de lagran explosión. Las estrellas hanconvertido parte del hidrógenoen helio, si bien en un porcentajepequeño. Las cantidades relativasde estos elementos representanuna prueba observacional crucialpara la teoría de la gran explo-sión. En el futuro, con la continuaproducción estelar de nuevomaterial, no será así.
76%
2%
24%
Gran explosión (+ unos minutos)
Día de hoy
1 billón de años
Hidrógeno
Helio Elementos más pesados que el helio
28%70%
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 22/9920 INVESTIGACION Y CIENCIA, mayo, 2008
Si supusiesen además, incorrectamente, que
todo el helio observado fue producido porgeneraciones anteriores de estrellas, podríanponer un límite superior a la edad del uni-verso. Llegarían a la conclusión de que suuniverso galáctico no es eterno, que su edades finita. Sin embargo, el origen de la ma-teria que estarían viendo seguiría siéndolesdesconocido.
¿Y la idea con la que empezaba este ar-tículo, que la teoría de la relatividad de Eins-tein predice un universo en expansión y, portanto, una gran explosión? Los habitantesdel universo en un futuro lejano deberían
hallarse capacitados para descubrir la teoría dela relatividad general a partir de medicionesprecisas de la gravedad de su propio sistemasolar. El uso de esta teoría para inferir la granexplosión, no obstante, descansa en las obser-vaciones de la macroestructura del universo.La teoría de Einstein predice un universoen expansión sólo si el universo es homogé-neo. El universo que nuestros descendientesexplorarán será de todo menos homogéneo.Consistirá en una isla de estrellas sumergidaen una vasta oscuridad. Se parecerá al univer-so isla de De Sitter. El futuro último que le
aguarda al universo observable es derrumbarse
sobre sí mismo hasta convertirse en un agujero
negro. Lo que le sucederá a nuestra galaxiaen un futuro lejano.
Solos en la nada¿No habrá forma de que nuestros descendien-tes perciban la expansión del universo? Másacá del horizonte de sucesos, un fenómenoseguirá delatando la aceleración, al menossegún entendemos ahora la relatividad gene-ral. Al igual que el horizonte de sucesos deun agujero negro, el horizonte cosmológicode sucesos también emite radiación. Pero latemperatura asociada a esta radiación es in-
mensurablemente pequeña, unos 10–30 kelvin. Aunque los astrónomos lograran detectarla,la atribuirían, quizás, a cualquier otra fuentemayor de ruido.
Los futuros observadores, si fuesen ambicio-sos, lanzarían sondas para que escaparan de lasupergalaxia y sirvieran de puntos de referenciade la expansión cósmica. Que se les ocurriesehacer tal cosa parece improbable. Ahora bien,incluso en el caso de que lo hiciesen, se ne-cesitarían miles de millones de años, por lomenos, para que una sonda alcanzara un puntodonde la expansión perturbase su velocidad
notablemente: además, la sonda debería tener D O
N D I X O N
FUNDIDO EN NEGRO
HITOS COSMICOS
10–30 segundosLa inflación cósmica
100 segundosSe crean el deuterio y el helio
400.000 añosSe libera la radiación de microondas
Ocho mil millones de añosLa expansión comienza a acelerarse
13.700.000.000 añosHoy día
Veinte mil millones de añosLa Vía Láctea y Andrómeda
colisionarán
100.000 millones de añosLas demás galaxias se harán
invisibles
1 billón de añosLos isótopos primordiales se habrán
perdido o se diluirán
100 billones de añosLa última estrella se agota
LA BANDA DIFUSA que cruza el cielo es el disco de la Vía Láctea. Unaspocas galaxias cercanas, como Andrómeda y las Nubes de Magallanes,son perceptibles a simple vista. Los telescopios revelan la existencia demiles de millones de galaxias más.
ANDROMEDA se ha ido moviendo hacia nosotros y ahorallena el cielo. El Sol ha evolucionado hacia la fase de giganteroja para después agotarse y dejar a la Tierra sumida en unaexistencia desolada.
AHORA TRANSCURRIDOS 5000 MILLONES DE AÑOS
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 23/99INVESTIGACION Y CIENCIA, mayo, 2008 21
una energía equiparable a la de una estrella
para comunicarse con sus creadores desde unadistancia tan inmensa.
Por tanto, los observadores del futuro quizápredigan que el universo acabará con una grancontracción local; ignorarán la expansión eter-na que se deriva de la constante cosmológica.Su universo no se iría extinguiendo; terminaríaen una catástrofe.
Todo esto nos conduce inexorablemente auna conclusión muy peculiar. El intervalo enel que unos observadores inteligentes puedendeducir la verdadera naturaleza del universoen expansión tal vez sea muy corto. Algunas
civilizaciones podrían basarse en archivos his-tóricos antiguos; este mismo artículo podríaformar parte de ese archivo, si es que sobre-vive a miles de millones de años de guerras,supernovas, agujeros negros y otros incon-tables peligros. Que les resulten creíbles esotra cuestión. Las civilizaciones que carezcande ese tipo de archivos estarán condenadasa permanecer por siempre ignorantes de lagran explosión.
¿Por qué es el universo tan especial enel presente? Muchos opinan que la exis-tencia de la vida proporciona un efecto de
selección que explicaría las coincidencias
asociadas con el momento actual [véase “El
principio antrópico”, por George Gale; I- C, febrero de 1982].Nuestra reflexión nos conduce a una ense-ñanza diferente.
Primero, cabe que ésta no sea la prime-ra vez que la información del universo sepierde a causa de la expansión acelerada. Si,muy al principio, el universo pasó por unperíodo de inflación, la rápida expansión deaquella era borró del universo hoy observa-ble casi todos los detalles de la materia y laenergía preexistentes. Sin duda, una de lasmotivaciones iniciales de los modelos infla-
cionarios era liberar el universo de objetoscosmológicos problemáticos, por ejemplo losmonopolos magnéticos, que quizás abundaronen el pasado.
Y una lección más importante. Si bien so-mos afortunados por vivir en un momento enel que ha sido posible dar con los pilares dela gran explosión, cabe imaginar que otros as-pectos fundamentales del universo han dejadode poder observarse. ¿Qué nos hemos perdido?Más que sentirnos orgullosos, deberíamos serhumildes. Quizás algún día descubramos quees mucho lo que ignoramos del universo ac-
tual, que tan bien creemos conocer.
LA SUCESORA de la Vía Láctea es una supergalaxiaen forma de bola. La Tierra podría flotar, abandonada,por sus aledaños. Las demás galaxias no están al alcancede la vista.
LAS LUCES SE APAGAN. Las últimas estrellas se agotan. Aparte de algu-nos agujeros negros, que brillarán débilmente, y de las luces artificialesque alguna civilización encendiese, el universo queda a oscuras. La ga-laxia se derrumbará sobre sí misma y se convertirá en un agujero negro.
TRANSCURRIDOS CIEN MIL MILLONES DE AÑOS TRANSCURRIDOS 100 BILLONES DE AÑOS
LIFE, THE UNIVERSE AND NOTH-
ING: LIFE AND DEATH IN AN EVER-
EXPANDING UNIVERSE. LawrenceKrauss y Glenn Starkman en
Astrophysical Journal , vol. 531,n.o 22, págs 22-30; marzo 2000.
THE FIVE AGES OF THE UNIVERSE:
INSIDE THE PHYSICS OF ETERNITY.
Fred C. Adams y Greg Laughlin.Free Press, 2000.
ATOM: A SINGLE OXYGEN ATOM’S
JOURNEY FROM THE BIG BANG TO
LIFE ON EARTH ... AND BEYOND.Lawrence M. Krauss. Back BayBooks, 2002.
THE RETURN OF A STATIC UNI-
VERSE AND THE END OF COSMOL-
OGY. Lawrence M. Krauss yRobert J. Scherrer en Journal ofGeneral Relativity and Gravita-tion, vol. 39, n.o 10, págs.1545-1550; octubre 2007.
Bibliografíacomplementaria
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 24/9922 INVESTIGACION Y CIENCIA, mayo, 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 25/99INVESTIGACION Y CIENCIA, mayo, 2008 23
I L U S T R A C I O N E S D E K E N N B R O W N
En la guerra, no hay que atacar en con-trapendiente a un enemigo que ocupe lasalturas. No hay que trabar combate cuandocargue partiendo de las alturas. Atráigaseleal combate en terreno llano.
—Sunzi, estratega militar chino Arte de la guerra , circa 500 a.C.
Desde la Antigüedad, adueñarse de las alturas y conservarlas forma parte de las doctrinas militares clásicas. No
nos extrañe, pues, que, ahora que los seres
humanos y sus máquinas han irrumpido enel espacio ultraterrestre, los jefes militaresconsideren las órbitas terrestres cruciales parala actividad guerrera. Pero hasta hace pocose había mantenido como norma no armarel espacio, pese a que no hubiera tratadosni leyes internacionales que explícitamenteprohibieran poner en órbita sistemas o armasno nucleares antisatélite. Los países en su ma-yoría rechazaban tales armas, por el temor ala posibilidad de desestabilizar el equilibrioglobal de poderes con una costosa carrera dearmamentos espaciales.
Ese consenso corre ahora peligro de desha-cerse. En octubre de 2006, la administraciónBush adoptó una nueva Política Nacional parael Espacio, formulada un tanto vagamente, quereivindica para EE.UU. el derecho a ejercerel “control del espacio” y rechaza “los nuevosregímenes legales u otras restricciones que pre-tendan prohibir o limitar el acceso o el uso delespacio por parte de Estados Unidos”.
Tres meses después, la República PopularChina conmocionó al mundo abatiendo unode sus propios satélites meteorológicos Fen-gyun, que van estando ya caducos, acto que
dio por resultado una granizada de peligrosa
basura espacial y un diluvio de protestas in-ternacionales, por no hablar de los chorrosde tinta vertidos en los círculos políticos ymilitares estadounidenses. El lanzamiento fuela primera prueba en más de dos decenios deun arma específicamente antisatélite. Chinaes el tercer país que exhibe un arma de esetipo, tras EE.UU. y la Federación Rusa. Sepreguntaron muchos observadores si la pruebano sería el primer paso de una era de guerraespacial en ciernes.
Sostienen los críticos que no está claroen absoluto que desarrollando los medios
para una guerra espacial se refuerce la se-guridad de un país. Después de todo, lossatélites e incluso las armas orbitales son,por su propia naturaleza, fáciles de locali-zar y rastrear, y es probable que persistanvulnerables a un ataque, cualesquiera quesean las defensas que se monten para pro-tegerlos. Además, desarrollar unos sistemasantisatélite desembocaría a buen seguro enuna carrera de armamentos, enormementecara y potencialmente desbocada, conformeotros países concluyeran que ellos, también,debían entrar en liza.
Los propios ensayos de los medios necesa-rios para librar batallas en el espacio —por nodecir nada de una verdadera batalla— gene-rarían unas enormes cantidades de restos queseguirían orbitando alrededor de la Tierra.Los impactos de esa basura espacial contrasatélites y vehículos espaciales tripulados aunas velocidades de varios kilómetros porsegundo amenazarían las telecomunicacionespor satélite, las predicciones meteorológicas, lanavegación de precisión, e incluso el mandoy control militar. Podrían devolver la econo-mía mundial al decenio de los cincuenta del
siglo pasado.
CONCEPTOS BASICOS
Aunque las “alturas” del
espacio parecen ofrecer
unas claras ventajas
militares, los gobiernos
se han venido resistiendo
a instalar armas en órbita
terrestre. Esa estrategia
prudente podría estar
cambiando.
La Política Nacional para
el Espacio adoptada por
EE.UU. en 2006 parecíaabrir el camino a una
ulterior militarización del
espacio. Poco después,
China ensayaba un misil
antisatélite lanzado desde
tierra.
Pero el armamento espa-
cial podría desencadenar
una costosa carrera arma-
mentística internacional.
Los satélites y las armas
espaciales seguirán siendo
vulnerables, cualesquieraque sean las defensas que
se provean.
Y la actividad bélica en
el espacio, o incluso las
pruebas “en vivo” de las
armas, podrían originar
tal cantidad de basura
espacial, que las órbitas
terrestres se volverían
intransitables para los
satélites civiles y las naves
espaciales tripuladas.
Un reciente cambio en la estrategia militar de EE.UU.y determinadas actuaciones chinas amenazan con iniciaruna nueva carrera de armamentos espacial. Pero, ¿beneficiaríaa algún país instalar armas en el espacio?
Theresa Hitchens
1. EL CONCEPTO DE ARMA ESPACIAL comprende toda una variedad de destructores
de satélites —proyectiles, armas de láser y de microondas—, así como armas lanza-
das desde el espacio contra objetivos en tierra, tales como los revienta-búnkeres de
tungsteno apodados “barras de Dios”.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 26/9924 INVESTIGACION Y CIENCIA, mayo, 2008
La vuelta de “La guerrade las galaxias”Desde el alba de la era espacial, los planifi-cadores de defensa vienen dándole vueltas alas armas antisatélite y a las emplazadas en elespacio, con miras a aprovechar las ventajasmilitares de la cota alta por antonomasia. Aca-
so el esfuerzo más destacado fuera la Iniciativade Defensa Estratégica, IDE, del presidenteReagan, burlonamente llamada “Guerra delas Galaxias” por sus críticos. La estrategiamilitar estadounidense no ha adoptado hastaahora armas de ese tipo.
Suele definirse a las armas espaciales comosistemas destructivos que operan en el espa-cio ultraterrestre estacionadas en órbita o trashaber sido lanzadas directamente desde tierra.La categoría incluye las armas antisatélite; lossistemas de láser en los que se combinan lá-seres basados en tierra con espejos instalados
en dirigibles o en satélites para reflejar unhaz láser más allá del horizonte terrestre; y lasplataformas orbitales que dispararían proyec-tiles o haces energéticos desde el espacio. (Esimportante señalar que todos los países evi-tarían, sin duda, el empleo de un cuarto tipo
de arma antisatélite, las explosiones nuclearesa gran altitud. El impulso electromagnéticoy la nube de partículas fuertemente cargadasprocedentes de una detonación de esa natu-raleza inutilizaría o destruiría casi todos lossatélites y vehículos espaciales tripulados enórbita [véase “Explosiones nucleares en órbi-
ta”, por Daniel G. Dupont; I C, agosto 2004].)Pero cualquier cosa que se diga sobre armas
espaciales tropezará con una réplica política.No hace mucho, algunos de sus partidariostrataron de ampliar la lista que acabo deexponer para incluir dos técnicas ya exis-tentes, que implican atravesar el espacio: losmisiles balísticos intercontinentales (ICBM)y los sistemas de guerra electrónica basadosen tierra. Su existencia, así se aduce, quitasentido a toda consideración sobre si debenconstruirse o no sistemas de armas espacia-
les. Según la definición revisada, ya existen“armas espaciales”. Pero, cualquiera que seael significado exacto de la expresión “armasespaciales”, las cuestiones que éstas suscitantienen poco de nuevo para los grupos deexpertos y los círculos de Washington liga-dos a la planificación militar. ¿Es deseable,es siquiera viable, incorporar a la estrategiamilitar de Estados Unidos armas antisatélitey armas disparadas en órbita?
La nueva Política Nacional para el Espacio,combinada con el ensayo chino, apremia eldebate entre bastidores. Numerosos jefes mi-
litares norteamericanos expresaron su alarmatras el ensayo de los chinos. Les preocupabaque China, en un conflicto por Taiwán, pu-diera amenazar a los satélites estadounidensesen órbita terrestre baja. En abril de 2007,Michael Moseley, jefe del estado mayor de laFuerza Aérea de EE.UU., comparó la prue-ba antisatélite china con el lanzamiento delSputnik soviético en 1957, que intensificósingularmente la carrera de armas durantela guerra fría. Moseley reveló también queel Pentágono había empezado a revisar lasdefensas de los satélites del país; el espacio
ultraterrestre es ahora, afirmó, un “terrenoen disputa”.
En el Congreso, las reacciones fueron laspredecibles. Los “halcones de China”, conser-vadores como el senador por Arizona Jon Kyl,reclamaron enseguida el desarrollo de armasantisatélite e interceptores estacionados en elespacio para contrarrestar la capacidad china.Mientras tanto, políticos más moderados, en-tre ellos el miembro por Massachusetts de laCámara de Representantes Edward Markey,instaron a la administración Bush a iniciarnegociaciones al objeto de prohibir todas las
armas espaciales.
INTERCEPTORES CINETICOS
VIABILIDAD: Alta
PRESUPUESTOS ESTIMADOS (dólares)*:
Interceptor cinético con base en tierra (adaptación del programa existente de defensa contra misiles balísticos): 0-3000 millones Interceptor cinético lanzado desde el aire: 3000 millones
Aparte de perturbar las radiocomunicaciones o atacar las estaciones de control
en tierra, posiblemente el modo más simple de inutilizar un satélite sea lanzar una
carga útil a bordo de un misil para que colisione con el blanco orbital. Los misiles de
alcance medio con que cuentan una docena
de países pueden alcanzar las órbitas
terrestres bajas (de 100 a 2000 kilómetros).
Los satélites que se hallen en esas órbitas
pueden ser atacados por pequeños vehícu-
los destructores lanzados desde el a ire. El
asalto a un objetivo en las más altas órbitas
geoestacionarias (unos 36.000 kilómetros)
requiere un motor de lanzamiento muchomás potente, que hoy sólo poseen ocho paí-
ses y consorcios espaciales. Pero la autén-
tica dificultad técnica consiste en guiar y
maniobrar, con la precisión necesaria, el
vehículo destructor hacia su blanco.
*Las estimaciones suelen incluir el desarrollo y los gastos de adquisición asociados a la construcción del sis-tema y a su mantenimiento en servicio durante 20 años.
FUENTE: Aiming the Heavens: A preliminary Assess-ment of the Potential Cost and Cost-Effectiveness ofSpace-Based Weapons , por Steven Kosiak. Centro deEstimaciones Estratégicas y Presupuestarias.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 27/99INVESTIGACION Y CIENCIA, mayo, 2008 25
El juego de las potenciasQuizá sea aún más inquietante que otros paí-ses, incluido el rival regional de China, la In-dia, pudieran sentirse impulsados a conseguiren el espacio capacidades no sólo defensivas,sino también ofensivas. A este respecto, elsemanario estadounidense Defense News ci-
taba la declaración de responsables indios dedefensa, que mantenían oculta su identidad:su país había empezado ya a desarrollar suspropias armas antisatélite de energía cinética(no explosivas, sino de destrucción por im-pacto) y laséricas.
Si la India emprende ese camino, su archie-nemigo Pakistán seguirá el ejemplo. Como laIndia, Pakistán dispone de un programa demisiles balísticos avanzado, que incluye misilesbalísticos de alcance medio capaces de lanzarun sistema antisatélite. El propio Japón, latercera potencia asiática, podría unirse a tal
carrera espacial. En junio de 2007 la Dietanipona empezó a considerar un programa res-paldado por el gobierno de Fukuda que per-mitiría el desarrollo de satélites para propósitos“militares y de seguridad nacional”.
En cuanto a Rusia, tras la prueba de loschinos reiteró su postura contra la armamen-tización del espacio. Pero, a la vez, no quisocriticar los actos de Pekín y en cambio culpóa EE.UU. Los esfuerzos norteamericanos paraconstruir un sistema defensivo con misiles,acusó Putin, y los cada vez más agresivos planesde Estados Unidos de instalarse militarmente
en el espacio estaban provocando las reaccio-nes de China. Sin embargo, Rusia misma,como gran potencia presente en el espacioque ha incorporado satélites a su estructurade defensa nacional, se vería en apuros paraeludir su entrada en una carrera de armas enel espacio.
Dada la proliferación de agencias espaciales,los partidarios de una estrategia decidida deguerra espacial opinan que resulta inevitable lapresencia de armas en el firmamento y que lomejor para EE.UU. es llegar allí los primeros ybien armados. Las armas antisatélite y las esta-
cionadas en el espacio, aducen, serán necesariasno sólo para defender los satélites comercialesy militares estadounidenses, sino también paranegar a cualquier adversario el uso del espaciocon el fin de mejorar la operatividad de susfuerzas en el campo de batalla.
Ahora bien, toda carrera armamentísticaen el espacio desestabilizaría casi con todaseguridad el equilibrio de las potencias, mul-tiplicando así los riesgos de conflicto global.En una competición tan apresurada —en elespacio o donde sea—, a duras penas podríamantenerse el equilibrio. Y aunque las primeras
potencias lograsen una situación de estabilidad, E S
A
LOS ACTORES
Desde los inicios de la era
espacial, ha incrementado
la lista de países, entidades
multinacionales y consorcios
privados que se han mostrado
capaces de poner satélites en
órbita y, por tanto, en poten-
cia, de derribar uno de ellos.
La principal preocupación
entre los observadores es que
todo esfuerzo de EE.UU. por
desarrollar armas orbitales
impulsaría a la República
Popular China, la Federación
Rusa y otros a sumarse a una
costosa carrera de armas en
el espacio.
CON ARMAS ANTISATELI-TE BASADAS EN TIERRADEMOSTRADASChina, Rusia, EE.UU.
CON CAPACIDAD PARALLEGAR A ORBITASGEOESTACIONARIAS
(36.000 km de altitud)Agencia Espacial Europea
(Alemania, Austria, Bélgica,
Dinamarca, España, Finlan-
dia, Francia, Grecia, Irlanda,
Italia, Luxemburgo, Noruega,
Países Bajos, Portugal, Reino
Unido, Suecia, Suiza), Francia,
International Launch Services
—Servicios Internacionales
de Lanzamientos— (Rusia,
EE.UU.), Japón, Sea Lunch
—Lanzamientos desde el
Mar— (Noruega, Rusia,
EE.UU., Ucrania)
CON CAPACIDAD PARALLEGAR SOLO A ORBITASTERRESTRES BAJAS (entre100 y 2000 km de altitud)India, Israel, Pakistán,
Ucrania
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 28/9926 INVESTIGACION Y CIENCIA, mayo, 2008
no estaría garantizado que ambos bandos lopercibieran de ese modo. En cuanto uno deellos creyera que perdía posiciones respectoal otro, se sentiría tentado a lanzar un ataquepreventivo, antes de que empeorasen las cosastodavía más. Irónicamente, lo mismo valdríapara el bando que creyera haber logrado una
ventaja. En este caso, experimentaría una fuer-te tentación de atacar primero, antes de quese recuperase el adversario. Por último, unacarrera de armamentos espacial incrementa-ría el riesgo de que un mero error técnicodesatara las hostilidades. En el vacío lejanocostaría mucho distinguir con nitidez un actointencionado de otro accidental.
Interceptores de impacto directoSegún estimaciones de responsables de las fuer-zas armadas y de la inteligencia de EE.UU., ytambién de expertos independientes, los chinos
debieron de destruir su satélite meteorológicocon un vehículo de energía cinética propulsadopor un misil balístico de dos etapas de alcancemedio. En principio, tales armas antisatélite deascenso directo constituyen el procedimientomás sencillo para eliminar satélites. Unos docepaíses y consorcios pueden llegar a las órbitasterrestres bajas (entre 100 y 2000 kilómetrosde altura, más o menos) con misiles de alcancemedio; ocho de esos países pueden alcanzarlas órbitas geoestacionarias (a unos 36.000kilómetros de la Tierra).
Pero la auténtica dificultad técnica de los ve-
hículos destructores por impacto no está en lacapacidad de lanzamiento, sino en las técnicasde maniobra y guiado de precisión necesariaspara dirigir el vehículo hasta el blanco. Hastaqué punto domina China esas técnicas no estámuy claro. Dado que el satélite meteorológicoseguía en servicio cuando fue destruido, losoperadores chinos debían de conocer su po-sición exacta en cada instante.
Láseres con base en tierraEl ensayo del ingenio antisatélite chino deascensión directa siguió casi inmediatamente a
unas noticias de septiembre de 2006, según lascuales los chinos habrían conseguido “pintar”—iluminar— los satélites espía norteamerica-nos con un láser de base en tierra. ¿Tratabarealmente Pekín de “cegar” los satélites o da-ñarlos de alguna otra manera? No se sabe.En Washington no parece que haya consensoacerca de las intenciones chinas. Quizá Chinasimplemente estaba probando qué tal iban susestaciones de seguimiento por láser de bajapotencia con las plataformas norteamericanasde observación orbital.
Aun así, la prueba constituyó una pro-
vocación. No siempre hay que “freír” elec-
trónicamente un satélite para dejarlo fuerade servicio. La prueba del sistema MIRACL(“MidInfraRed Advanced Chemical Laser”,láser químico avanzado del infrarrojo medio)que el ejército de Estados Unidos efectuóen 1997 mostró que los satélites diseñadospara recoger imágenes ópticas pueden quedar
temporalmente inutilizados —saturados— porhaces de baja potencia. Los espías orbitalesse cuentan entre los satélites vulnerables aesos ataques.
En los años setenta, EE.UU. y la ex UniónSoviética iniciaron la experimentación con ar-mas láser antisatélite. Los expertos de ambospaíses se centraron en los numerosos proble-mas implicados en la construcción de unossistemas de láser de alta potencia que tuvieranuna capacidad fiable de destruir, desde tierra,satélites de baja altitud. Esos sistemas seríanguiados mediante “óptica adaptativa”: espe-
jos deformables y preparados para compensarcontinuamente las distorsiones atmosféricas.Pero los láseres de alta potencia consumiríancantidades ingentes de energía, y aun así elalcance y la efectividad de los haces se veríangravemente limitados por la dispersión, por laatenuación al atravesar humos y nubes, y porla dificultad de mantener el haz sobre el blancoel tiempo suficiente para causar daños.
Durante el desarrollo de la IDE, EE.UU.llevó a cabo varios experimentos con láserdesde Hawai. En un ensayo se hacía que unhaz rebotase en un espejo montado en un sa-
télite. Siguen realizándose experimentos conláseres en el Polígono Optico Starfire, de labase Kirtland de la Fuerza Aérea, en NuevoMéxico. La documentación presupuestaria delPentágono de los años fiscales 2004 a 2007incluía, entre los objetivos de las investigacio-nes del Starfire, las operaciones antisatélite,lo que quedó suprimido en los documentospresupuestarios del año fiscal 2008 despuésde que el Congreso hiciera averiguaciones.El sistema de Starfire incorpora una ópticaadaptativa que estrecha el haz láser emitido yaumenta así la concentración de energía. Esta
característica no es necesaria para la forma-ción de imágenes, ni para el seguimiento detrayectorias, un indicio más de que el Starfirepodría emplearse como arma.
Pese a decenios de trabajos, las versionesaptas para el combate de armas de energíadirigida parecen lejanas, de momento. Ciertodocumento de planificación de la fuerza aéreapredecía en 2003 que un arma con base entierra capaz de “lanzar rayos láser a la atmósferapara [aturdir o aniquilar] satélites [de órbitabaja]” podría estar disponible entre 2015 y2030. Dado el estado actual de las investiga-
ciones, esas fechas parecen optimistas.
EL ALEGATO
EN CONTRA
1 Es muy probable que
todos los satélites y las
armas basadas en el espacio
sigan siendo muy vulnerables
a los ataques.
2 El desarrollo de armas
antisatélite avanzadas
desencadenará probable-
mente una nueva carrera de
armamentos internacional.
3 El costo de las armas
espaciales es enorme.
4 Las pruebas y la utiliza-
ción de las armas espa-
ciales podría dejar ingentes
cantidades de desechos en
órbita, una auténtica amena-
za contra los satélites y naves
espaciales tripuladas.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 29/99INVESTIGACION Y CIENCIA, mayo, 2008 27
Satélites co-orbitales Adelantos recientes en sensores miniaturi-zados, ordenadores embarcados de gran po-tencia y motores cohete de alto rendimientohan hecho cada vez más viable una terceratécnica antisatélite: el microsatélite ofensivo(véase el recuadro “Satélites co-orbitales”).
Un ejemplo de la potencialidad de éste noslo ofrece el proyecto Serie de Satélites Ex-perimentales (XSS) de la Fuerza Aérea, queestá desarrollando microsatélites que ejecu-ten “operaciones autónomas de proximidad”en derredor de satélites de mayor tamaño.Los primeros microsatélites del programa,los XSS-10 y XSS-11, fueron lanzados en2003 y 2005. Aparentemente destinados ainspeccionar satélites mayores, esos micro-satélites podrían también tomar como blancode una embestida a otros satélites o transpor-tar explosivos o equipos de energía dirigida,
tales como sistemas de radiointerferencia oemisores de microondas de gran potencia.Los documentos presupuestarios de la fuerzaaérea muestran que la XSS está vinculada aun programa, denominado Técnicas de Armas
Avanzadas, dedicado a la investigación sobresistemas militares de láser y microondas.
Durante la guerra fría, la Unión Soviéticadesarrolló, ensayó e incluso declaró operativoun sistema co-orbital antisatélite, un intercep-tor maniobrable con una carga útil explosivaque se lanzaba desde un misil para colocarloen una órbita cercana a un satélite blanco en
órbita terrestre baja. El ingenio venía a seruna “mina espacial” inteligente. Se probó en1987 por última vez y probablemente ya noesté operativo. Hoy un interceptor de ese tiposería posiblemente un microsatélite que se esta-cionaría en una órbita que se cruzaría con lasórbitas de varios de sus objetivos potenciales.Podría entonces activarse a voluntad duranteuna aproximación.
En 2005 la fuerza aérea expuso un progra-ma que proporcionaría “conciencia situacionallocalizada” en el espacio y “caracterización deanomalías” para satélites anfitriones amisto-
sos en órbita geoestacionaria. El programa seconoce como ANGELS (autonomous nanosate-llite guardian for evaluating local space , guar-dián autónomo nanosatélite para evaluaciónespacial local), y el renglón presupuestarioque, según se cree, se refiere a él se centra enla consecución de “capacidades de evaluaciónespacial de alto valor para la defensa”, inclui-do un “sensor de alerta para detección devehículos de ascensión directa o co-orbitales”.Es evidente que tales nanosatélites guardia-nes podrían servir, adecuadamente manejadosen las cercanías de satélites enemigos, como
armas ofensivas.
SISTEMAS DE ENERGIA DIRIGIDA
VIABILIDAD: Media
PRESUPUESTOS ESTIMADOS (dólares): Láser emplazado en tierra
4000-6000 millones
Láser emplazado en el espacio:
(de potencia baja a alta):
3000-60.000 millones
Emisor de microondas
emplazado en el espacio:
200-5000 millones
Haces de láser procedentes de tierra guia-
dos con precisión hacia el blanco mediante
óptica adaptativa (espejos deformables
que compensan la perturbación atmosfé-
rica) podrían saturar, inutilizar o destruirsatélites de órbita terrestre baja . Los láseres
de potencia media podrían “deslumbrar” a
los satélites de toma de imágenes ópticas o
dañar sus detectores sensibles. Los láseres de
alta potencia “freirían” los satélites dañando
su electrónica e incluso perforando su fusela-
je. Como en cualquier momento los blancos or-
bitales rápidos se hallan en su mayoría sobre
el horizonte terrestre, las bases de tierra
podrían también dirigir haces de láser
hacia espejos de transferencia, monta-
dos en dirigibles o en satélites, que
redirigirían los haces hacia los
blancos.
SATELITES
CO-ORBITALES
VIABILIDAD: Media-Alta
PRESUPUESTOS ESTIMADOS (dólares):
Interceptor emplazado en el espacio (cinético o de otro tipo): 5000-19.000 millones
Perturbador de radiofrecuencias emplazado
en el espacio: no disponible
Mina espacial: 100-2000 millones
Las armas antisatélite de pequeño ta-
maño, o microsatélites, serían transpor-
tadas hasta las mismas órbitas que sus
objetivos, donde los seguirían muy de
cerca o se adherirían a ellos. Ya situadas,
esas “minas espaciales” podrían realizar
el ataque, al recibir la orden, con explo-
sivos, pequeños proyectiles, sistemasperturbadores de radiofrecuencia o emi-
sores de microondas de gran potencia, o
simplemente colisionando con el blanco.
En uno de los primeros diseños, la basura
espacial resultante se recogía en el llama-
do matamoscas, o gran red (derecha).
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 30/9928 INVESTIGACION Y CIENCIA, mayo, 2008
La lista sigue. Un “satélite parásito” se pe-
garía a los talones e incluso se adheriría a unobjetivo en órbita geoestacionaria. El Farsat,mencionado en un apéndice al informe de2001 de la Comisión [Donald] Rumsfeldpara el Espacio, “se estacionaría en una ór-bita ‘almacén’ (quizá con muchos microsaté-lites en su interior), relativamente lejos de suobjetivo, aunque listo para una maniobra deimpacto”.
Por último, hace algún tiempo la fuerzaaérea propuso un sistema de armas de ra-diofrecuencia emplazado en el espacio, “unaconstelación de satélites dotados de trans-
misores de radiofrecuencia de gran potenciacon la capacidad de desorganizar, destruir oinutilizar una amplia variedad de equiposelectrónicos y sistemas de mando y controlde nivel nacional”.
Los documentos de planificación de la fuer-za aérea posteriores a 2002 preveían que tales
técnicas surgirían después de 2015. Pero ex-pertos externos creen que las armas orbi-
tales de radiofrecuencia y microondasya son hoy técnicamente viables ypodrían desplegarse en un futuro
próximo.
Bombarderos espaciales Aunque no se le define como arma espa-cial, el Vehículo Aéreo Común o Vehículo deTécnica Hipersónica (CAV), del Pentágono,entra en esta exposición porque, lo mismo
que un ICBM, atravesaría el espacioy golpearía objetivos terrestres. Se
trata de un vehículo hipersónicoplaneador, no propulsado pero muy
maniobrable, que se desplegaría desde unavión espacial hipersónico, se zambulliría enla atmósfera y dejaría caer bombas convencio-nales sobre blancos terrestres. Recientemente,
el Congreso empezó a dotar de fondos alproyecto; mas, para no atizar una potencialcarrera de armamentos en el espacio, ha pro-hibido todo trabajo encaminado a instalararmas en el CAV. Aunque los técnicos estánavanzando sin pausa en las técnicas básicasde este programa, tanto el vehículo como suavión espacial nodriza se hallan a deceniosvista, se supone.
Parte de la sensibilidad del Congreso anteel diseño del CAV puede deberse a otra ideade arma espacial mucho más controvertida, sibien con propósito parejo: los haces de barras
hiperveloces que se lanzarían sobre la Tierradesde plataformas espaciales. Hace deceniosque los ingenieros de la Fuerza Aérea piensanen cómo situar en órbita unas armas que pu-dieran atacar blancos terrestres, en particularbúnkeres enterrados “reforzados” y escondri-
jos de armas de destrucción masiva. Común-
OTROS SISTEMAS ANTISATELITE
Posiblemente, la mayoría de las principales potencias militares ha experimentado con siste-
mas de radiofrecuencia basados en tierra capaces de inutilizar los sistemas de comunicaciones
de los satélites. Además, todos los países poseedores de misiles balísticos con ojiva nuclearpodrían detonar un arma atómica en órbita, lo que causaría estragos entre la mayoría de los
satélites y vehículos espaciales.
PRESUPUESTOS ESTIMADOS:
Perturbador de radiofrecuencias basado en tierra: decenas de millones de dólares Arma nuclear (para países ya poseedores de misiles con ojivas nucleares): mínimo
VIABILIDAD: Baja
PRESUPUESTO ESTIMADO (dólares):
Bombardero espacial: 4000 millones
BOMBARDEROS ESPACIALES
El Vehículo Aéreo Común o Vehículode Técnica Hipersónica, del Pentá-
gono, no es por definición un arma
espacial, pero para atacar un blanco en
tierra a la hora o dos de su despliegue
atravesaría el espacio ultraterrestre.
Podría ser situado en órbita desde un
avión espacial hipersónico. A continua-
ción planearía sin propulsión a través de
la atmósfera hasta lanzar su munición
convencional sobre objetivos en tierra.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 31/99INVESTIGACION Y CIENCIA, mayo, 2008 29
mente conocidos como “barras de Dios”, loshaces estarían formados por largas barras detungsteno, de hasta seis metros de longitudy 30 centímetros de anchura. Cada una se-ría arrojada a gran velocidad desde una naveespacial en orbita y guiada hacia su blanco auna velocidad impresionante.
Pero los costes y las leyes de la física obs-
taculizan su viabilidad. Asegurar que la fric-ción de reentrada no vaporice ni deforme losproyectiles a la vez que éstos mantienen unatrayectoria de vuelo precisa y casi vertical,sería dificilísimo. Indican los cálculos que laeficacia de las barras no explosivas resultaríasimilar a las municiones corrientes. Además,resultarían exorbitantes los gastos de subirhasta alturas orbitales unos proyectiles de talpeso. Por tanto, pese al incesante interés quedespiertan, las barras de Dios parecen seguiren el ámbito de la ciencia ficción.
Obstáculos de las armas espacialesEntonces, ¿qué impide a EE.UU. (y a otrospaíses) perseguir decididamente la construc-ción de armas espaciales? La presión en contraes triple: oposición política, dificultades téc-nicas y costos elevados.
La ciudadanía norteamericana está profun-damente dividida sobre el acierto o no deincorporar la guerra espacial a la estrategianacional militar. Los riesgos son múltiples. Yahe comentado antes las inestabilidades propiasde una carrera armamentística, pero cuandose trata de potencias nucleares hay una cues-
tión adicional, relativa a la estabilidad. Desde
siempre, los satélites espía y de alerta precozdesempeñaron un papel crucial en rebajar eltemor a un ataque nuclear por sorpresa. Pero silas armas antisatélite los inutilizasen, la incer-tidumbre y desconfianza consiguientes podríandesembocar en una catástrofe.
Uno de los retos técnicos más graves queplantean las armas espaciales es la prolifera-
ción de basura espacial, a la que aludí antes.Según investigadores de la fuerza aérea, dela NASA y de Celestrak (un sitio indepen-diente en la Red, con información sobre lossatélites en órbita), la prueba de los chinosdejó como restos una nube de más de 2000trozos del tamaño de pelotas de béisbol omayores, que giraban en órbita alrededordel planeta a una altitud variable, entre 200y 4000 kilómetros. Quizá quedaran sueltosotros 150.000 objetos de un centímetro omás de sección. Las altas velocidades orbi-tales hacen que incluso los más minúsculos
desechos espaciales resulten peligrosos paralas naves espaciales de todo tipo.
Las estaciones terrestres no pueden contro-lar ni rastrear fiablemente objetos en órbitaterrestre baja de tamaño inferior a unos cincocentímetros (del orden de un metro en órbitageoestacionaria) para posibilitar las maniobraselusivas de los satélites. De hecho, para noser dañados por la basura espacial china, dossatélites estadounidenses tuvieron que alterarel rumbo. Los disparos de una guerra en elespacio convertiría éste en un entorno con-taminado, no apto para la navegación de los
satélites de órbita terrestre. O F
I C I N A D E L P R O G R A M A D E R E S I D U O S O R B I T A L E S D E L A N A S A
CUANDO EL POLVO
NO SE DESPEJA
Un conflicto militar en el espacio podría
liberar una nube de desechos capaz de dañar
o destruir los satélites y las naves espacialestripuladas que circunvuelan la Tierra. A velo-
cidades orbitales, incluso los más minúsculos
objetos podrían penetrar a fondo en un
vehículo y destrozar equipos vitales (derecha).
Los resultados de una detonación nuclear en
el espacio podrían ser aún peores: el impulso
electromagnético y la descarga de partículas
cargadas degradarían casi por completo inclu-
so los sistemas electrónicos mejor apantalla-
dos que hubiera en órbita. Una guerra en el
espacio podría devolver la economía mundial
a los años cincuenta del siglo pasado, pues las
comunicaciones, la navegación, la meteoro-
logía y otros servicios avanzados vía satéliteresultarían impracticables durante años.
2. PERFORACION en el
satélite Solar Maximum
Mission tras una colisión con
basura espacial minúscula.
Theresa Hitchens dirige el Cen-
tro de Información de Defensa en
Washington, D.C., y es responsa-ble de su Proyecto de Seguridad
en el Espacio, en cooperación
con la Fundación Secure World.
Es autora de Future Security in
Space: Charting a Cooperati ve
Course (2004) y fue directora de
Defense News entre 1998 y 2000.
Se ha especializado en las fuerzas
armadas, la industria de defensa
y asuntos de la OTAN. En fechas
más recientes, Hitchens prestó
sus servicios como directora de
investigación del Consejo Anglo-
Americano de Información sobre
Seguridad, un comité de expertos.
La autora
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 32/9930 INVESTIGACION Y CIENCIA, mayo, 2008
Emplazar las armas en órbitas presentatambién unos difíciles obstáculos técnicos.Resultarían tan vulnerables como los satélitesa toda clase de agentes externos: basura es-pacial, proyectiles, señales electromagnéticas,incluso micrometeoritos naturales. Protegerlas armas espaciales de esas amenazas sería
además impracticable, sobre todo porque serequerirían unas protecciones voluminosas,que supondrían una masa adicional, con lamultiplicación consiguiente de los costos delanzamiento. Las armas orbitales serían esen-cialmente mecanismos autónomos, que co-meterían errores operativos y probablementesufrirían averías. Puesto que no resulta de-masiado difícil predecir las trayectorias de losobjetos en órbita, no podrían disimularse talesarmas voluminosas. Y como los satélites enórbita terrestre baja se sitúan en la vertical sólounos pocos minutos cada vez, mantener uno
de ellos constantemente al alcance requeriríaun gran número de armas.
Por último, está el alto precio de llegar alespacio y operar allí; se cifra entre 4000 y20.000 dólares por kilogramo para alcanzarlas órbitas terrestres bajas y entre 30.000 y40.000 dólares por kilogramo para las órbitasgeoestacionarias. Cada arma instalada en elespacio requeriría su sustitución en períodos deentre siete y 15 años; tampoco serían barataslas reparaciones en órbita.
Alternativas a la guerra en el espacio
Dados los riesgos de la guerra espacial para laseguridad nacional e internacional, así comolos obstáculos técnicos y financieros a superar,resultaría como mínimo prudente que los paí-ses presentes en el espacio hallaran un modode prevenir una carrera armamentística en él.EE.UU. se ha orientado a la reducción dela vulnerabilidad de su flota de satélites y aexaminar opciones alternativas que lo liberende la dependencia de los servicios vía satélite.En cambio, la mayoría de los demás paísescon capacidad espacial están a la busca demedidas multilaterales diplomáticas y legales.
Las opciones abarcan desde tratados que pro-hibirían las armas antisatélite y las emplazadasen el espacio hasta medidas voluntarias quecontribuirían a consolidar la transparencia yla confianza mutua.
La administración Bush se ha opuestofirmemente a cualquier clase de negociaciónsobre armas espaciales. Los contrarios a losacuerdos multilaterales sobre la cuestión sos-tienen que las otras partes (particularmenteChina) se sumarán, aunque seguirán abas-teciendo sus arsenales secretos, pues esasviolaciones del tratado no pueden detectar-
se. Alegan, además, que EE.UU. no puede
permanecer inactivo mientras sus adversariospotenciales se hacen con unos recursos es-paciales que podrían reforzar su capacidadofensiva en tierra.
Los partidarios de los tratados interna-cionales replican que, si no se negocian esosacuerdos, se perderán muchas posibilidades.
Una carrera de armamentos en el espacio po-dría acabar comprometiendo la seguridad detodos los países, incluida la de EE.UU., a lavez que tensaría las capacidades económicasde los competidores hasta el punto de rup-tura. Y mientras muchos defensores de unaprohibición de armas espaciales admiten queserá difícil elaborar un tratado totalmenteverificable —puesto que la técnica espacialpuede emplearse para fines tanto civiles comomilitares—, ya existen tratados en vigor queno requieren una verificación estricta. Un buenejemplo de ello es la Convención sobre Armas
Biológicas.Ciertamente, una prohibición de pruebas
y empleo (no del despliegue) de la clase dearmas espaciales más peligrosas a corto pla-zo —los sistemas antisatélite destructivos (envez de los perturbadores)— sería fácilmenteverificable, porque los observadores en tierrapueden detectar la basura orbital. Además,todo signatario de un tratado sabría que todossus lanzamientos serían rastreados desde tierray que todo objeto sospechoso en órbita seríaetiquetado como tal de inmediato. El clamorinternacional que resultaría de unas violaciones
tan patentes del tratado podría disuadir a losvioladores en ciernes.
Pero desde mediados de los noventa no seprogresa para establecer un nuevo régimenespacial multilateral. EE.UU. ha bloqueado enla Conferencia de las Naciones Unidas sobreDesarme, en Ginebra, los esfuerzos para iniciarnegociaciones sobre un tratado de prohibiciónde armas espaciales. China, mientras, ha rehu-sado aceptar nada que sea menos que eso. Portanto, siguen estancadas medidas intermedias,tales como la construcción voluntaria de unmarco de confianza, el control del tráfico es-
pacial o un código de conducta responsablepara los países presentes en el espacio.
La guerra en el espacio no es inevitable.Pero el reciente cambio en la política deEE.UU. y los actos provocativos de Chinahan puesto de relieve que el mundo se acercaa una encrucijada. Los países deben hacercuestión de interés propio la prevención delas pruebas y el empleo de armas orbitales.Los gobiernos deben decidir sin tardanza sies posible mantener una exploración del es-pacio pacífica que ya ha durado medio siglo.Cualquier opción alternativa sería inacepta-
ble para todos.
REPORT OF THE COMMISSION TO
ASSESS UNITED STATES NATIONAL
SECURITY SPACE MANAGEMENT
AND ORGANIZATION. Informede la Comisión Rumsfeld parael Espacio, 2001. Disponibleen www.fas.org/spp/military/commission/report.htm
THE U.S. AIR FORCE TRANSFOR-
MATION FLIGHT PLAN. FutureConcepts and TranformationDivision, noviembre 2003. Dis-ponible en www.af.mil/library/posture/AF_TRANS_FLIGHT_PLAN-2003.pdf
THE PHYSICS OF SPACE SECURITY:
A REFERENCE MANUAL. DavidWright, Laura Grego y LisbethGronlund. American Academyof Arts and Sciences, 2005.
CHINA’S ASAT TEST: MOTIVATIONS
AND IMPLICATIONS. PhilipC. Saunders y Charles D. Lutes.Informe especial del INSS,Institute for National StrategicStudies. National DefenseUniversity, 2007.
Centro de Información deDefensa del Instituto Mundialde seguridad: www.cdi.org
Bibliografíacomplementaria
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 33/99INVESTIGACION Y CIENCIA, mayo, 2008 31
Cuando las aves evolucionaron a partir delos reptiles, hace entre 100 y 200 millo-nes de años, nacía el océano Atlántico.
Su formación señalaba la destrucción de unsupercontinente, Pangea, en el que todos loscontinentes de la Tierra se habían reunido paraformar una isla gigante rodeada por un océanoglobal. Pangea no es el único supercontinentede la historia de la Tierra, pero sí el más recien-
te. Las masas continentales actuales han deri-vado alrededor del globo terráqueo chocandounas con otras y separándose posteriormentevarias veces durante los últimos 3000 millonesde años. Esos ciclos de confrontación y dis-persión continental han afectado a la cortezaterrestre, el manto subyacente, la atmósfera,el clima y la vida en el planeta.
De la misma forma que las colisiones con-tinentales originan cadenas montañosas, las ro-turas generan profundos valles intracontinen-tales (rifts , como el Gran Valle del Rift en eleste del continente africano) o, si la separación
va a más, cuencas oceánicas. Pero no todos losocéanos se crean por la rotura y separaciónde grandes bloques continentales. Algunos seforman cuando pequeños y estrechos “micro-continentes” (del tamaño y forma de NuevaZelanda o Japón) se desgajan del margen deun bloque continental y se alejan, creando trassu paso una nueva cuenca oceánica. Stephen
Johnston, de la Universidad de Victoria, llamaa esos esbeltos titanes “continentes acintados”(“ribbon continents”); junto con las cuencasoceánicas asociadas a su origen, desempeñanuna función fundamental en la dinámica de
la corteza terrestre.
Nuestro grupo ha investigado la formaciónde un cuerpo oceánico extinto: el océano Rei-co, que nació hace unos 500 millones de años.Debe su nombre a Rea, esposa de Cronos ymadre de Zeus en la mitología griega. Eseocéano se creó cuando dos continentes acin-tados, Avalonia y Carolina, se desprendierondel margen septentrional de Gondwana (unantiguo continente de enorme extensión que
incluía las actuales Africa, Sudamérica, India, Australia y Antártida). La colisión continentalque selló el cierre del océano Reico, hace entreunos 350 y 300 millones de años, constitu-yó uno de los episodios fundamentales de laformación de Pangea.
Aunque se conocen las masas continen-tales que rodeaban el océano Reico y loshitos temporales que marcan su nacimientoy muerte, hasta fecha reciente no se habíanidentificado sus márgenes; tampoco las causas,los mecanismos y el momento del inicio de suapertura; ni la razón por la cual las tensiones
que determinaron su apertura se invirtierontras unos centenares de millones de años ylo cerraron de nuevo. Cuestiones todas ellasfundamentales para la geología.
Nuestras investigaciones muestran queel desgajamiento de Avalonia y Carolina deGondwana ocurrió a lo largo de una “cica-triz” de la corteza, una línea cuya estructurase hallaba debilitada tras haber sufrido, haceunos 650 millones de años, un episodio previode orogénesis. El hallazgo reviste suma im-portancia: sugiere que las zonas de debilidadpreexistentes, próximas a los bordes continen-
tales, controlan la creación y el movimiento de
CONCEPTOS BASICOS
Las masas continentales
actuales han derivadoalrededor del globo
terráqueo chocando unas
con otras y separándose
luego varias veces durante
los últimos 3000 millones
de años.
El océano Reico, ahora ex-
tinto, nació hace unos 500
millones de años. Estudios
geoquímicos y paleomag-
néticos indican que se
creó por el desgajamiento
de Avalonia y Carolina,dos continentes acintados
del margen septentrional
del supercontinente Gond-
wana.
La tracción de una placa
en subducción causó la
reapertura de una antigua
sutura, una zona de de-
bilidad cortical generada
por un episodio previo de
orogénesis ocurrido 150
millones de años antes.
Las cicatrices de antiguas colisiones marcan el camino
por donde los continentes vuelven a romperse
J. Brendan Murphy, Gabriel Gutiérrez Alonso, R. Damian Nance,
Javier Fernández Suárez, J. Duncan Keppie, Cecilio Quesada,
Rob A. Strachan y Jaroslav Dostal
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 34/9932 INVESTIGACION Y CIENCIA, mayo, 2008
F O
T O G R A F I A D E L O S A U T O R E S / A m e r i c a n S c i e n t i s t
los continentes acintados. Y determinan, portanto, los lugares donde se generarán nuevosocéanos. Si estamos en lo cierto, es probableque la geografía moderna refleje una red decicatrices de la corteza, formadas durante su-cesivas fases previas de actividad tectónica.
Geología del océano ReicoLa colisión entre masas continentales que cerróel océano Reico corresponde a la culminaciónde un largo período orogénico en el margenseptentrional de Gondwana. Las tensiones im-plicadas crearon la cadena de los Apalaches en
Norteamérica oriental, las montañas Variscasen Europa (cuyos fragmentos se encuentranrepartidos desde la Península Ibérica y GranBretaña hasta Turquía), las montañas del Anti-
Atlas en el noroeste de Africa (Marruecos) y losancestrales Andes septentrionales (Venezuelay Colombia). Al par que esas montañas ibanemergiendo, cifraban la información que nospermite conocer hoy la evolución del océanoReico.
Sin embargo, la rotura y desmembramientode Pangea dispersó esos terrenos , o porcionesde corteza continental, en un área extensa. Se
ha destruido la mayoría de las pruebas de la
existencia del océano Reico. Casi todas las rocasque formaron parte del fondo desaparecieronpor subducción (se deslizaron por debajo dealguna de las placas vecinas, donde en ocasionesse fundieron con el manto viscoso del interiorde la Tierra). Reconstruir la geología del océa-no Reico viene a ser, pues, como resolver un“sudoku” con demasiados cuadros en blanco.Con todo, merced al trabajo de los geólogosdurante los últimos 40 años, se ha identificadouna serie de yacimientos clave que arrojan luzsobre la historia de ese océano extinto.
Las zonas de debilidad cortical que determi-
naron el origen del océano Reico se generarondurante eventos tectónicos acaecidos con mu-cha anterioridad. Para entender las tensionesque influyeron en la formación del océano Rei-co debemos retrotraernos hasta hace entre 650y 500 millones de años, cuando los márgenesamazónicos y africanos de Gondwana (su lí-mite septentrional en las coordenadas actuales)sufrieron cambios de gran complejidad.
La mayoría de los geólogos piensan que,al tiempo que se constituía Gondwana, haceentre 600 y 550 millones de años, una impo-nente masa continental se separó del este de
Gondwana, donde se encontraba Amazonia
1. LA COLISION DE LAS PLACASTECTONICAS produce tensio-
nes y calor que resultan en la
deformación de los continentes.
Este afloramiento en la costa
de Cornualles, en el sudeste del
Reino Unido, muestra un plega-
miento causado por el calor y la
presión asociados a la colisión
de las placas.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 35/99INVESTIGACION Y CIENCIA, mayo, 2008 33
(la parte norte de Sudamérica), creandolos continentes de Laurencia (el germende Norteamérica) y Báltica (la actual Es-candinavia y parte de Rusia). La derivade esos continentes, que se alejaban deGondwana, dio lugar al océano Jápeto(en la mitología griega, hermano de Rea
y padre de Atlas, quien dio nombre alocéano Atlántico).La evolución del margen septentrio-
nal de Gondwana guarda semejanza conla que experimentan hoy las MontañasRocosas de Norteamérica y los Andesde Sudamérica. La geología de esos tresenclaves (dos modernos y otro ancestral)entraña la subducción de corteza oceá-nica y la separación de bloques conti-nentales (como Baja California), con laconsiguiente generación de grandes can-tidades de magma (rocas fundidas). La
composición química de las rocas ígneas(rocas resultantes del enfriamiento y soli-dificación del magma) que se generaronen el margen de Gondwana es semejantea la composición de las rocas ígneas delos Andes; ambas son características delmagma creado por encima de una zonade subducción.
Ese margen aflora hoy, en forma deterrenos, en cinturones orogénicos (cadenasde montañas o los restos de las mismasuna vez erosionadas) más jóvenes; sinembargo, la asociación anterior de estos
terrenos con el margen de Gondwanase basa en las semejanzas halladas en lalitología y en el registro fósil. Tambiénlos estudios paleomagnéticos, que exa-minan la orientación de los mineralesmagnéticos en las rocas, indican queesos terrenos se formaron a la mismalatitud que el margen septentrional deGondwana. Los restos de esos antiguosvolcanes y cámaras magmáticas, ahora vi-sibles merced al levantamiento y erosiónde la corteza, muestran que la actividadmagmática terminó hace entre 600 y 540
millones de años, probablemente debidoal desarrollo de un sistema de fallas aso-ciado a la colisión de una dorsal oceánicacontra la zona de subducción.
Esa situación guarda semejanza conla colisión que se produjo, hace unos30 millones de años, entre la dorsal delocéano Pacífico Oriental y una zona desubducción en el oeste de Norteamérica:originó la falla de San Andrés y provocóla desaparición del magmatismo relacio-nado con la subducción en el sudoestede los EE.UU. y el noroeste de México.
Durante ese intervalo temporal, a lo largo
del margen septentrional de Gondwana,algunos terrenos fueron transportados agrandes distancias (hasta miles de kiló-metros) en paralelo al mismo, de maneraparecida a lo que ocurre hoy en la costaoccidental de Norteamérica, a lo largo dela falla de San Andrés.
Hace entre 540 y 500 millones deaños, la dinámica de las placas tectó-nicas en el norte de Gondwana estuvodominada por fallas del tipo de la de San
Andrés. Cesó la subducción; la región seconvirtió en una plataforma continentalestable en la que se depositaban rocassedimentarias. Ese intervalo coincidecon la aparición, a escala mundial, defósiles con concha; en los sedimentoscorrespondientes a esas edades abundanrestos de tales organismos.
En cada terreno, el registro rocoso
de entre 650 y 500 millones de años deedad demuestra que estuvieron abiertosa un océano durante todo ese interva-lo, aunque cambiaran las condicionestectónicas. Hace unos 500 millones deaños, se acabó la semejanza geológicaentre terrenos, anuncio del desarrollo delocéano Reico. Algunos de los terrenosdel margen de Gondwana, como losque constituyen la Península Ibérica yOaxaca (sur de México), muestran quelos sedimentos se depositaron en aguascada vez más profundas, hace entre 500 y
440 millones de años. En otros terrenos,como Carolina y Avalonia (hoy en los
Apalaches), los sedimentos de ese pe-ríodo son mucho más finos, lo que debeinterpretarse como una mayor distanciade una fuente de abundantes sedimentos(Gondwana). Un cambio que indica laapertura del océano Reico. Asimismo,los fósiles de esa época procedentes deCarolina y Avalonia difieren cada vez másde los fósiles de Gondwana.
Las propiedades magnéticas de las ro-cas de hace unos 460 millones de años
muestran que Avalonia se encontrabaentre 1700 y 2000 kilómetros al nortedel margen de Gondwana. De lo que seinfiere que el océano Reico se abría a unavelocidad de entre 7 y 8 centímetros poraño. Avalonia y Carolina eran entoncesdos continentes acintados, similares aNueva Zelanda, que separaban el océano
Jápeto, al norte, del Reico, al sur (de lamisma manera que Nueva Zelanda se-para el océano Pacífico, al este, del marde Tasmania, al oeste). Sin embargo,mientras Avalonia y Carolina derivaban
hacia el norte, el margen septentrional de
Gondwana permanecía fijo a una latituden torno a 60o sur y el margen sur deLaurencia a unos 10o sur. Por tanto, laapertura del océano Reico al sur de esosterrenos se veía compensada por el cierredel Jápeto al norte de los mismos.
De los datos paleomagnéticos se des-prende que, hace unos 440 millones deaños, Avalonia se hallaba muy cerca deBáltica (Europa occidental) y de Lau-
rencia oriental. Durante los siguientes B A
R B A R A A U L I C I N O / A m e r i c a n S c i e n t i s t
Mar de Tethys
Hoy
Hace 225 millones de años
Hace 65 millones de años
PANGEA
P a n t h
a l
a s s a
2. LA ROTURA Y DESMEMBRAMIENTO
DE PANGEA, que comenzó hace unos 200
millones de años, creó el océano Atlántico
entre América y las actuales Europa y Africa.
Al propio tiempo, el océano Tethys, que se
extendió entre la India y Asia, y entre Africa
y Europa, se cerró conforme esos dos pares
de continentes colisionaban. Durante ese
período, el océano que ocupaba casi todo el
planeta, Panthalassa, se fue reduciendo al
actual océano Pacífico, que sigue menguan-
do a medida que es subducido en casi todo
su perímetro.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 36/99
B A
R B A R A A U L I C I N O / A m e r i c a n S c i e n t i s t
De acuerdo con la teoría de la tec tónica de placas, la Tierra consta de
una capa externa rígida, la litosfera, de entre 100 y 150 kilómetros
de espesor; debajo hallamos la astenosfera, una capa más caliente (a másde 1100 oC), plástica (deformable), que forma parte del manto. A la ma-
nera de una cáscara de huevo resquebrajada, la litosfera se halla dividida
en unos 20 fragmentos, o placas, que se desplazan alrededor del globo a
velocidades inferiores a 10 centímetros al año. Según se van moviendo,
interactúan unas con otras: colisionan, se separan y se deslizan. A corto
plazo, esas interacciones generan tensiones que se liberan en forma de
terremotos. En el transcurso de millones de años, se levantan cordilleras
donde las placas colisionan y se forman océanos donde éstas divergen
y se separan.
Los continentes se hallan incrustados en esas placas; se desplazan de
modo pasivo y solidario con ellas. A lo largo de millones de años, los movi-
mientos tectónicos han abierto y cerrado cuencas oceánicas enteras. Como
botón de muestra, el alejamiento de América respecto de Europa y Africa
durante los últimos 180 millones de años ha abierto el océano Atlántico,
que continúa creciendo. El mapa del mundo que conocemos ahora corres-
ponde, pues, a un fotograma de una película continua.
La fuerza que mueve esos continentes proviene de una cordillera
submarina que discurre a lo largo de todo el Atlántico y que pertenece a un
sistema global de cordilleras, o dorsales, mesooceánicas. En esas dorsales,
el magma caliente que surge del manto subyacente crea litosfera. A la
par que se crea nueva litosfera, se van separando cada vez más las placas
adyacentes a la dorsal oceánica.
Dado que la superficie del planeta es constante, la creación de litosfera
debe compensarse con la destrucción de litosfera antigua, en algún otro
lugar, mediante subducción. Conforme el océano Atlántico se ha ido
abriendo, el movimiento de América hacia el oeste ha provocado que el
fondo del océano Pacífico se haya subducido bajo ésta.Cuando las placas convergen, la más densa es empujada por debajo de
la más ligera y entra en el manto, donde se consume. La corteza oceánica,
por lo común más densa que la corteza continental, suele subducir por
debajo de placas continentales. Donde convergen dos placas oceánicas, se
subduce la más antigua (y, por tanto, más densa). Por esa razón, la edad
del fondo oceánico no alcanza los 180 millones de años, mientras que los
continentes llegan hasta los 4000 millones de años de edad.
La subducción es responsable, directa o indirectamente, de la orogenia.
Conforme las placas oceánicas, frías y densas, descienden hacia el interior
de la Tierra, se van calentando y fundiendo. El magma que se produce,
menos denso, asciende hacia la superficie: alimenta volcanes y calienta la
corteza continental adyacente para erigir montañas.
La colisión de un continente con continentes acintados o islas oceánicas
(denominados en conjunto terrenos) corresponde a otra forma de oroge-
nia. Todos los océanos modernos contienen islas (Nueva Zelanda y las islas
Filipinas, por ejemplo), que se agregarán, por acreción, a un continente si
el fondo oceánico entre esas dos masas emergidas se consume por subduc-
ción. La colisión resultante produce actividad magmática y deformación
de las rocas, lo que resulta en la generación de nuevas montañas. Así ha
sucedido en el oeste de Norteamérica, donde las colisiones de numerosos
terrenos durante los últimos 200 millones de años han ido añadiendo más
de 500 kilómetros de continente al borde occidental de la placa Norteame-
ricana.
Si la placa que subduce contiene corteza continental, la colisión entre
continentes produce montañas imponentes: éste es el caso del Himalaya,
creado tras la colisión entre la India y el sudeste de Asia, y de los Alpes,
nacidos del choque entre Africa del nor te y Europa meridional.
PRINCIPIOS BASICOSDE LA TECTONICA DE PLACAS
Sutura
Cuenca
Falla inversao cabalgamiento
Falla inversao cabalgamiento
Cu
Litosfera
LA SUBDUCCION DE LITOSFERA en la astenosfera calienta el manto
y la corteza suprayacente; ello produce magma que puede acabar
en la superficie en forma de volcanes. Los Andes ofrecen un ejemplo
moderno de ese proceso ( a). La subducción acerca islas volcáni-
cas, que colisionan con el continente ( b), dando lugar a montañas
formadas por acreción (c). Las cordilleras del oeste de Norteamérica
derivan de varios episodios de acreción ocurridos durante los últi-
mos 200 millones de años. La subducción atrae continentes enteros
uno contra otro: se cierran así cuencas oceánicas (d ) y se producen
colisiones continentales (e), que generan cadenas montañosas,
como se observa en los Alpes y el Himalaya.
Océano estrechándose
Cortezacontinental
Litosfera
Astenosfera
Prisma
de acreciónFosa
Arcomagmático
Océano
Litosfera oceánica
Astenosfera
2 1
Océano
Litosferaoceánica
Astenosfera
Magma
Arco de islas Arco de islas12
Océano
Corteza oceánica
Manto litosférico
Astenosfera
Cortezacontinenta
Manto litosfé
Placa sudamericana
VolcánandinoPrisma
de acreciónFosa
Placade Nazca
Magma
Interiorcontinen
a
b
c
d
e
34 INVESTIGACION Y CIENCIA, mayo, 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 37/99INVESTIGACION Y CIENCIA, mayo, 2008 35
30 millones de años, los tres continentescitados convergieron hasta colisionar paracrear un continente mayor: Laurusia. Laamalgamación de continentes cerró elocéano Jápeto, generando en su lugarla cordillera Caledoniana. A partir deese momento y a medida que el océa-
no Reico era subducido bajo Laurusia,el supercontinente se movía atraído oarrastrado hacia el sur, donde se hallabaGondwana. Los dos continentes com-pletaron así el cierre del océano Reicopara integrar Pangea, hace entre 340 y290 millones de años, dando lugar a laformación de la cordillera Varisca.
Queda una cuestión pendiente: ¿porqué se formó el océano Reico en el lugaren que éste se inició? Para dilucidarla,nos centraremos en los mecanismos encuya virtud Avalonia y Carolina se se-
pararon de Gondwana hace unos 485millones de años.
Zonas de debilidad corticalLos terrenos, al chocar contra los már-genes continentales, desempeñan unafunción básica en el desarrollo de las
cordilleras. El margen occidental de Nor-teamérica ofrece un buen ejemplo. Allí,las sucesivas colisiones de terrenos hanprovocado pulsos de actividad orogénicaque han resultado en la formación de lasMontañas Rocosas.
De acuerdo con nuestra investiga-ción, el lugar donde se constituyó elocéano Reico vino determinado porepisodios geológicos ocurridos 150 mi-llones de años antes, que generaron alo largo del margen septentrional deGondwana zonas de debilidad cortical.
¿De qué modo se formaron esas cica-trices geológicas?
A tenor de la información recabada,las rocas ígneas que se formaron en elmargen septentrional de Gondwana hace
entre 630 y 570 millones de años puedenclasificarse en dos grupos, en función dela edad y la composición del material apartir del cual se originaron. Un grupocorresponde a magmas que provienende la fusión de un “basamento” (rocassobre las que se depositaron las rocas se-
dimentarias) continental y más antiguo.El otro grupo incluye magmas derivadosde un basamento más joven (de unos1000 millones de años).
La edad del basamento que se fundiópara dar lugar al magma que originólas rocas ígneas se deduce a partir de lacomposición isotópica de las mismas, enconcreto, de la relación entre isótoposde samario (Sm) y de neodimio (Nd).La relación isotópica del neodimio, εNd,indica el momento en que una roca seformó a partir del manto terrestre. Aun-
que la roca se vuelva a fundir, mantienesu relación isotópica hasta que se rein-corpora al manto.
El grupo de rocas ígneas de Gond- wana de procedencia más antigua se F
O T O G R A F I A D E L O S A U T O R E S
3. PLEGAMIENTO SINCLINAL en el valle del
río Narcea, Asturias. Las rocas se formaron
durante la apertura del océano Reico y se
deformaron cuando éste se cerró.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 38/9936 INVESTIGACION Y CIENCIA, mayo, 2008
hallan hoy en el noroeste de Francia, elsur de la Península Ibérica y en algunoslugares de Alemania. Esas rocas suelenpresentar valores de εNd negativos (entre+1,6 y –9,9). El guarismo significa que,aunque formadas las rocas a partir de unmagma que se solidificó hace unos 600millones de años, el magma en cuestiónprovenía de los restos fundidos de uncontinente creado hace entre 1000 y2000 millones de años.
Rocas de ese continente afloran hoy en
el noroeste de Francia. Scott Sampson,de la Universidad de Syracuse, y RichardD’Lemos, de la Universidad de OxfordBrookes, han determinado la edad delbasamento: unos 2100 millones de años.La composición isotópica de Sm y Ndindicaría, por tanto, que durante la for-mación de las rocas se habría producidola fusión del basamento de 2100 millo-nes de años con magmas más jóvenes, o
juveniles, provenientes del manto. Loscálculos de Sampson y D’Lemos guardanuna estrecha semejanza con los que se
obtienen para un extenso afloramiento
de basamento situado en Africa occi-dental. Casi todas las reconstruccionesde la geografía de nuestro planeta en eseperíodo (hace entre 600 y 550 millonesde años) sitúan el basamento de Africaoccidental en el margen septentrionalde Gondwana. Apoyados en tales datos,suponemos que el grupo de rocas ígneasde procedencia más antigua se origina-ron en la fusión del basamento de Africaoccidental.
El segundo grupo de rocas ígneas del
margen septentrional de Gondwana sehalla en el este de Norteamérica, el surde Gran Bretaña, el centro y el norte dela Península Ibérica, y algunas regionesdel este de Alemania, República Che-ca y Polonia. Esas rocas ígneas suelenpresentar valores de εNd positivos (entre+5,0 y –1,0), que se corresponden conedades de entre 750 y 1100 millones deaños. El mínimo solapamiento con losvalores obtenidos para el primer grupode rocas da a entender que, pese al pare-cido externo, las rocas ígneas de edades
comprendidas entre 630 y 570 millones
de años derivaron de basamentos dis-tintos. Las del primer grupo surgieronde magmas procedentes de rocas másantiguas, de unos 2100 millones deaños de antigüedad; las del segundogrupo, de magmas que emergieron mástarde, hace entre 1100 y 750 millones
de años.Otros hallazgos respaldan nuestra hi-pótesis. En las rocas sedimentarias quese intercalan con las rocas ígneas, descu-brimos fragmentos de rocas erosionadasque se acumularon en antiguas cuencasde drenaje. A partir de la desintegra-ción de isótopos radiactivos de uranio,argón y potasio, se ha determinado laedad de algunos minerales de las rocaserosionadas; en particular, circón y micablanca. En el primer grupo de rocas íg-neas, las edades estimadas se agrupan en
los intervalos siguientes: 600-650 mi-llones de años, 2000-2200 millones deaños y 2400-2600 millones de años. Enel segundo grupo las edades son otras:1000-1200 millones de años, alrededorde 1500 millones de años y 1800-2000millones de años. Confirman tales datosque los dos grupos de rocas sedimenta-rias se hallaban unidas a dos sistemas dedrenaje continental cuando se formaron;resultan de la erosión de rocas creadas enperiodos distintos. Es más, las edades delos circones del primer grupo de rocas
ígneas coinciden con las de la potencialárea fuente, el basamento de Africa oc-cidental, lo que ratifica su conexión conel oeste africano.
En cuanto a la fuente del segundogrupo de rocas ígneas, hallamos una pis-ta en la edad de las rocas fuente: entre1100 y 750 millones de años, según lasrelaciones isotópicas de Sm y Nd. Enesa época tuvo lugar un episodio cru-cial para la geografía de nuestro planeta.Hace entre 1000 y 1100 millones deaños, la colisión de múltiples fragmentos
continentales provocó el levantamien-to de grandes cadenas montañosas y laformación del supercontinente Rodinia(de “patria” en ruso). Más tarde, haceunos 750 millones de años, se produjoun desarrollo generalizado de platafor-mas continentales y magmas derivadosdel manto, fenómeno que remite a laposible rotura y desmembramiento delsupercontinente.
La edad del magma a partir del cual seformó el segundo grupo de rocas ígneascoincide, pues, con la extensión temporal
de la existencia de Rodinia. Sin embargo, B A
R B A R A A U L I C I N O / A m e r i c a n S c i e n t i s t
Roturao desmembramiento
Supercontinente
+
+
+
Basamento juvenil
Basamento antiguo
Terrenos acrecidos:Zona de subducción
Margen pasivo
Orogenia de colisión
Introversión
Extraversión
a
b
d
c
Litosferaantigua
Litosferamoderna
–
4. LOS SUPERCONTINENTES están bañados por un océano “exterior”, rodeados sus
márgenes por zonas de subducción y regiones volcánicas ( a). La rotura y dispersión de un
supercontinente crea nuevos océanos “interiores” entre los continentes que se dispersan
( b). El registro geológico indica que los océanos exteriores (c) e interiores (d ) se cierran para
generar un supercontinente ulterior. Los triángulos indican los terrenos que se han formado
a partir de basamento juvenil ( rojo) o antiguo ( morado).
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 39/99INVESTIGACION Y CIENCIA, mayo, 2008 37
el basamento progenitor no pudo habersido el propio continente de Rodinia,ya que su corteza continental era másantigua; debió proceder directamente delmanto situado por debajo de Mirovoi(“mundo” en ruso), el océano que ro-deaba a Rodinia. El segundo grupo de
terrenos se originó en mar abierto, no enel continente. Además, debieron colisio-nar y amalgamarse al margen norte deGondwana antes del inicio del procesode subducción mencionado (que tuvolugar entre hace 635 y 570 millones deaños), pues durante esa época aparece enlas nuevas rocas ígneas la “firma” juvenildel segundo tipo de basamento.
La colisión de terrenos con un mar-gen continental se denomina acreción.Constituye uno de los mecanismos deformación de cordilleras que contienen
rocas deformadas y recristalizadas, estoes, metamórficas . En cuanto al segundogrupo de terrenos, la presencia de rocasmetamórficas en el sur de Gran Bretañay en algunos sectores de Norteaméri-ca oriental (sur de Terranova, Maine yCarolina) demuestra la acreción de losterrenos con Gondwana, hace entre 680y 650 millones de años. El primer grupode terrenos, en cambio, no muestranindicio alguno de acreción. Lo mismoque antes, semejante observación su-giere que esos terrenos se situaban a lo
largo del margen de Gondwana, dondese hallaba el cratón de Africa occidental;reflejan, por tanto, el reciclado in situ de la corteza.
El contraste entre los terrenos quese hallaban a lo largo del margen deGondwana y los que fueron agregados,por acreción, a dicho margen reclamala existencia de una gran separación,o sutura, entre ellos. El occidente deNorteamérica ofrece otro ejemplo de esetipo de suturas. Desde hace 150 millo-nes de años, varios terrenos del océano
Pacífico han sido arrastrados y agre-gados, por acreción, a Norteamérica,produciendo varios pulsos orogénicos.Resultado de tal proceso, se produjouna importante sutura entre los terrenosacrecidos y la corteza más antigua deNorteamérica y, en nuestro estudio, deGondwana.
Origen del océano ReicoEl océano Reico se formó, pues, por larotura y separación de Avalonia y Caroli-na, los mismos terrenos que habían sido
agregados al margen de Gondwana 160 R E
C O N S T R U C C I O N B A S A D A E N D A T O S D E S E R G E I P I S A R E V S K Y , U N I V E R S I D A D D E E D I M B U R G O , G R A N B R E T A Ñ A / S T E P H A N I E F R E E S E / A m e r i c a n
S c i e n t i s t
Orógenos antiguos(1,5-1,0 Ga)
Corteza juvenil(1,0 - 0,8 Ga)
ESCUDODE ARABIA
AVALONIA
LAURENCIA
BALTICA
AFRICAOCCIDENTAL AMAZONIA
INDIA
CHINAMERIDIONAL
KALAHARI
AUSTRALIA
SIBERIA
PoloSur
+
GONDWANA
Tierras bajas Orógeno interior Orógeno periférico Mar somero Océano profundo
LAURENCIA
SIBERIA
BALTICA
GONDWANA
5. EL SUPERCONTINENTE DE RODINIA comenzó a disgregarse hace unos 800 millones de
años. Se muestran los restos de las antiguas cordilleras (verde) y los lugares donde se
supone que hubo corteza juvenil ( rojo), parte de la cual formó posteriormente Avalonia y
Carolina. Si bien se desconoce la posición exacta de la corteza en cuestión, la hemos situado
—para facilitar la ilustración de los procesos que se describen— alejada de los grandes
cratones (masas continentales estables), a los que se habían agregado, por acreción, hace
unos 550 millones de años. (Ga equivale a mil millones de años.)
6. EL OCEANO JAPETO comenzó a formarse entre Gondwana y Laurencia hace entre 650 y
550 millones de años. Los orógenos interiores corresponden a las cordilleras formadas por
la colisión de grandes placas tectónicas. Los orógenos periféricos se generan por subduc-
ción y acreción de terrenos en los bordes de los continentes o de los supercontinentes. En
negro se marcan las zonas de subducción en los márgenes de Gondwana.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 40/99
S T
E P H A N I E F R E E S E / A m e r i c a n S c i e n t i s t
El estudio del pasado geológico de un terreno
equivale al estudio genealógico de una per-
sona. Durante siglos, ciertos rasgos propios de
nuestros antepasados se han perdido (el acento
local, por ejemplo), pero otros se han manteni-
do al transmitirse de generación en generación
(apellidos, canciones y bailes tradicionales). Deigual modo, el paso del tiempo ha borrado en
las rocas innumerables vínculos con el pasado.
Con todo, algunos persisten: entre ellos, la
composición isotópica. La relación de isóto-
pos de los elementos del grupo de las tier ras
raras samario (Sm) y neodimio (Nd) refleja el
momento en que los componentes de las rocas
cristalizaron a partir del manto terrestre.
Los isótopos corresponden a átomos de un
mismo elemento que difieren ligeramente en la
masa. Numerosos elementos presentan varios
isótopos, algunos de los cuales son inestables,
radiactivos. Esos isótopos se convierten de
forma espontánea, mediante un proceso que
desprende energía, en otros isótopos más esta-
bles. El tiempo que tarda la mitad del “elemento
progenitor” (inestable) en convertirse en el
“elemento hijo” (más estable) se denomina vida
media; es una constante característica de cada
elemento. La vida media y la relación entre los
isótopos “padre” e “hijo” se usan para calcular
el tiempo transcurrido desde que comenzó
la desintegración. Para rocas volcánicas, ese
tiempo corresponde a la edad de cristalización,
el tiempo que ha transcurrido desde que cristali-
zaron los minerales que los integran, es decir, la
edad de la roca.Don DePaolo, de la Universidad de California
en Berkeley, y otros pioneros de la geología
isotópica han demostrado que la transforma-
ción isotópica de Sm en Nd constituye uno de
los mejores trazadores de los procesos ígneos
y tectónicos. Esos dos elementos presentan
propiedades químicas semejantes. Sin embar-
go, en los lugares donde el manto comienza
a fundirse, el Nd (el más ligero de los dos) se
concentra en el magma líquido que es extraído
del manto y el Sm (más pesado) se concentra
en el manto que no se ha fundido, o manto
empobrecido.
El valor medio para la relación de Sm/Nd en
toda la Tierra es de 0,32. Sin embargo, dada la
tendencia del Nd a concentrarse en los magmas
que escapan desde el manto hacia la corteza
y del Sm para concentrarse en el manto empo-
brecido, la relación isotópica es menor en las
rocas de la corteza (en torno a 0,2) y mayor en el
manto empobrecido (alrededor de 0,5).
El samario-147 (147Sm) es un isótopo radiac-
tivo que se desintegra en el isótopo estable
neodimio-143 (143Nd). Conforme disminuye la
cantidad de 147Sm, aumenta la de 143Nd. La vida
media para esa transformación es de 106.000
millones de años.
El neodimio-144 también es estable, pero
no se genera a partir de la transformación
radioactiva, por lo que su proporción en una
roca no cambia con el tiempo. Dado que el 143Nd
aumenta con el tiempo y el 144Nd se mantiene,
la relación entre ambos (143Nd/144Nd) se ha
elevado en las rocas de la corteza, del manto ydel total de la Tierra. Pero dado que la relación
Sm/Nd es mayor en el manto empobrecido que
en el total de la Tierra, mayor a su vez que en
la corteza, la transformación de 147Sm en 143Nd
determina que la relación 143Nd/144Nd aumente
con mayor prontitud en el manto empobre-
cido que en el total de la Tierra, y con mayor
celeridad todavía en el total de la Tierra que
en la corteza. En consecuencia, la composición
isotópica Sm-Nd de los magmas generados en
el manto empobrecido difiere de los generados
en la corteza.
Los magmas mantienen la relación143Nd/144Nd de la fuente que los originó. Los
magmas formados por manto fundido presenta-
rán, pues, una relación 143Nd/144Nd mayor que
los magmas derivados de fundidos corticales.
Cuando se conoce el momento en que cristali-
zaron esos fundidos, se aplica una corrección
para las transformaciones radiactivas y se dedu-
ce la relación 143Nd/144Nd en el magma inicial.
La relación inicial (143Nd/144Nd)0 constituye la
huella dactilar que registra el origen de esos
magmas. Así, las rocas volcánicas que han de-
rivado recientemente del manto difieren de las
que proceden del reciclado de antiguas cortezas
continentales, o de las que corresponden a unamezcla de ambas.
En términos absolutos, las diferencias entre
la relación 143Nd/144Nd de las rocas mantélicas
y corticales son reducidas. Para trabajar con
mayor comodidad, se define un parámetro, εNd,
que refleja la diferencia entre la relación inicial143Nd/144Nd en la roca estudiada y la que tendría
el total de la Tierra cuando cristalizó la roca.
Según ese criterio, εNd para el total de la Tierra
calculado para cualquier edad tomaría un valor
igual a cero. Dado que la relación 143Nd/144Nd
aumenta con mayor celeridad en el manto
empobrecido y más lentamente en la corteza
que en el total de la Tierra, los valores de εNd se
hacen, andando el tiempo, más positivos para
el manto empobrecido y más negativos para la
corteza. Esa evolución temporal corresponde a
la “línea de crecimiento”.
En la práctica, los geólogos usan esos
principios a la inversa. Para las rocas derivadas
de la corteza se calcula una línea de creci-
miento (la variación de εNd con el tiempo); se
interpola luego hacia atrás, hasta que corta la
línea de crecimiento del manto empobrecido.
La intersección de las dos líneas de crecimiento
corresponde al momento en que la roca tendría
la misma composición isotópica que su origen
en el manto empobrecido, es decir, el momento
en que los componentes de esa roca fueron ex-
traídos del manto. Los cálculos deben aplicarse
con precaución, pues a medida que los magmas
ascienden hacia la superficie se mezclan con
otros fundidos de origen distinto; las mues-
tras procedentes de magmas mezclados dan
resultados poco fiables. Afortunadamente, los
geólogos detectan, mediante otros indicadores
geoquímicos, si ha habido mezcla, de modo que
las rocas de origen incierto se excluyen de los
cálculos.
MARCADORES ISOTOPICOS
ε N
d
R o c a s c o r t i c a l e s c o n t i n e n t a l e s
T o d a l a T i e r r a
M a n t o e m
p o b r e c i d o
Hoy
1 4 3 N d / 1 4 4 N d
TiempoEntonces
HoyTiempo
Entonces
mezcla
mezcla
M a n t o e m p o b r e c i d o
Toda la Tierra
Edad modelo
TDM
T3 T2 T1
0
C o r t e z
a a n t i g
u a
+
–
EL MANTO EMPOBRECIDO retiene mayor pro-
porción de samario (Sm) respecto de neodimio
(Nd) que el magma líquido que constituirá la
corteza continental. Así, el manto empobreci-
do presenta una relación Sm/Nd (~0,5) mayor
que la del total de la Tierra (~0,32) o la de la
corteza continental (~0,2). Esas relaciones,
junto con la constante desintegración de 147Sm
en 143Nd, explican que la relación 143Nd/144Nd
aumente con mayor celeridad en el manto
empobrecido que en el total de la Tierra o enla corteza continental ( arriba). La diferencia
en las relaciones iniciales entre el manto
empobrecido y la corteza o el total de la Tierra
(que se considera 0) se expresan en forma
de εNd. A partir de la relación Sm/Nd y el valor
del εNd de una muestra de roca (calculado para
su edad de cristalización), se determina la línea
de crecimiento ( abajo, línea azul ) que, una vez
proyectada, cruza la línea correspondiente al
manto empobrecido. Esa intersección indica la
edad “modelo” del manto empobrecido (T DM),
la edad a la que la corteza derivó del manto
(T 2). La mezcla de magma juvenil con corteza
antigua (T 1) arroja resultados falsos (T 3).
38 INVESTIGACION Y CIENCIA, mayo, 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 41/99INVESTIGACION Y CIENCIA, mayo, 2008 39
S T
E P H A N I E F R E E S E / A m e r i c a n S c i e n t i s t
OcéanoReico
Laurencia
Terrenosde Avalonia
Gondwana Terrenos cratónicosPolo Sur
Polo Sur
Ecuador Ecuador
Hace 540 Ma Hace 500 Ma
Hace 480 Ma ca. 470 Ma
Hace 450 Ma Hace 430 Ma
Océanos Jápeto y Reico
Cratones
Basamento de Avalonia
Basamento cadomiense
Núcleo y manto(excepto manto litosférico)Manto litosférico
Corteza oceánica Arco volcánico tacónico
A
BB
A
7. RECONSTRUCCIONES GLOBALES Y SECCIONES GEOLOGICAS. Esta
serie muestra las fuerzas que generaron el océano Reico y deter-
minaron su evolución hace entre 540 y 430 millones de años (Ma).
Hace 540 millones de años, el océano Jápeto se extendía desde Lau-
rencia a Gondwana; contaba con una dorsal mesooceánica ( blanco).
Los terrenos más juveniles, Avalonia y equivalentes (verde claro),
se movieron hacia el norte, deslizándose al lado de los que tenían
un basamento más antiguo (verde), a lo largo de todo el margen de
Gondwana. Hace 500 millones de años, la subducción hacia el sur
que se originó al norte del océano Jápeto comenzó a cerrarlo, crean-
do un arco volcánico ( rojo). Tal y como describe Cees van Staal, del
Servicio Geológico del Canadá, hace 480 millones de años Laurencia
colisionó con esos arcos volcánicos; ello provocó la inversión de la
dirección de subducción, con la subducción consiguiente de la dor-
sal mesooceánica de Jápeto. Desde ese momento, la corteza oceáni-
ca por debajo de Laurencia y en el margen de Gondwana pertenece
a extremos distintos de la misma placa litosférica. La tracción de la
placa causada por la subducción de Laurencia pudo haber provo-
cado la reapertura de la sutura entre Gondwana y Avalonia; ello
habría generado el océano Reico conforme Avalonia derivaba hacia
el norte, alejándose de Gondwana. Hace entre 470 y 450 millones de
años, la subducción bajo el margen septentrional de Avalonia pro-
dujo un nuevo conjunto de arcos volcánicos. Hace 430 millones de
años, Avalonia se había agregado, por acreción, a Báltica y luego a
Laurencia, lo que supuso el cierre del océano Jápeto. (Las secciones
no se han dibujado a escala.)
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 42/9940 INVESTIGACION Y CIENCIA, mayo, 2008
millones de años antes. Ambos continen-tes acintados se situaban entre el océanoy la sutura con la masa continental prin-
cipal. Según los datos paleontológicos ymagnéticos, la mayoría de los terrenossituados entre la sutura y el continentepermanecieron unidos a Gondwana.
El primer episodio relacionado con lafractura que dio lugar al nacimiento delocéano Reico sucedió hace entre 540 y
490 millones de años, una vez cesó la actividad magmática relacionada conla subducción bajo el margen septen-trional de Gondwana. A esa rotura lesiguió una importantísima acumulaciónde sedimentos provenientes del margencontinental, acompañada de actividadvolcánica local. Es posible que Avaloniay Carolina se separasen del margen nortede Gondwana moviéndose en paraleloal mismo, a lo largo de la sutura (elactual golfo de California se ha abier-to de manera similar, lo que está cau-
sando el movimiento de la penínsulade Baja California por la Falla de San
Andrés). Los datos paleontológicos ypaleomagnéticos sugieren que, duranteese período, las vías marinas en el nortede Gondwana eran, como el golfo deCalifornia, estrechas.
Un segundo episodio relacionado conla apertura del océano Reico comen-zó hace unos 490 millones de años,cuando Avalonia y Carolina empeza-ron a derivar hacia el norte a través delocéano Jápeto. El aumento progresivo
de la separación respecto de Gondwana
queda reflejado en los conjuntos fósilesde esta época.
Hace unos 460 millones de años, Ava-lonia ya se hallaba a unos 40o latitud sur,o, lo que es lo mismo, entre 1700 y 2000kilómetros al sur de Laurencia; el margende Gondwana permanecía a unos 60o
latitud sur. Ello indica que Avalonia sedesplazaba hacia el norte a una velocidadde 6 a 8 centímetros anuales. Parece queCarolina se hallaba más al norte todavíay desconectada de Avalonia. La situaciónde ambos terrenos, separados de Gond-
wana y Laurencia, sugiere que eran islassimilares a Nueva Zelanda, cuya derivahacia el norte fue cerrando de modoprogresivo el océano Jápeto, al tiempoque el océano Reico se abría por detrásde ellas.
En conjunto, los datos muestran que
los lugares donde se produjo la roturaque ocasionó la apertura del océano Reicose corresponden con la reactivación delas zonas de sutura generadas, hace unos650 millones de años, por la acreción enel margen de Gondwana de terrenos for-mados por corteza juvenil. Se desarrolla-rían esfuerzos tensionales que reactivaronesa antigua herida y separaron los terrenospor el costado que daba al océano.
El mecanismo que produjo la roturay posterior deriva del terreno (“rift-to-drift”) no se conoce con precisión. Pero
se han propuesto varios modelos. Duran-te episodios de subducción, los terrenosse separan del margen continental al queestaban unidos si la placa que subduceretrocede y se enrolla (“roll back”) a me-dida que desciende hacia el manto. Esetipo de subducciones se han detectadoen la actualidad en el Pacífico occidental.Sin embargo, los terrenos que se separanasí, suelen permanecer unidos al margencontinental del que se han desprendido;muchos de ellos vuelven a agregarse almismo. En el caso de Avalonia y Caroli-
na, no hay pruebas claras de que sufrieranun proceso de ese tipo.
Otro modelo —más probable— paraexplicar la apertura del océano Reicose deduce a partir de la cronología dela principal fase de rotura, que empezóhace unos 490 millones de años. Enaquel momento, en el norte del océano
Jápeto se estaba produciendo la acre-ción de terrenos oceánicos y la colisióncon la dorsal centrooceánica, lo quecausó deformaciones en las rocas delmargen meridional de Laurencia. Se
inició a continuación una nueva etapa S T
E P H A N I E F R E E S E / A m e r i c a n S c i e n t i s t
+10
+6
+2
-2
0
-6
-10
-14
0 0,4 0,8 1,2 1,6 2 2,4 0 0,4 0,8 1,2 1,6 2 2,4
+10
+6
+2
-2
0
-6
-10
-14
Tiempo (Ga) Tiempo (Ga)
Tipo avalónico Tipo cratónico
Cadomia
Gneises de Icart
Saxo-Thuringia
Oaxaqia
M a n t o e m p o b r e c i d o M a n t o e m p o b r e c i d o
Toda la Tierra
AmalgamaciónRotura Rodinia
Carolina
Avalonia
ε N d
( R e l a c i ó n
i s o t ó p i c a )
Toda la Tierra
8. LA RELACION ISOTOPICA DEL NEODIMIO (εNd) indica en qué momento una roca emergió
del manto terrestre. Esa “firma” isotópica se mantiene constante hasta que la roca se vuel-
ve a incorporar al manto (no se altera aunque la roca se funda y recicle). Las rocas ígneas del
margen septentrional de Gondwana se agrupan en dos conjuntos de edades. Los terrenos
acrecidos (más jóvenes, a la izquierda) se formaron a partir de fragmentos fundidos de
corteza juvenil, creada a partir del manto empobrecido de hace entre 750 y 1100 millones
de años. Los terrenos cratónicos (más antiguos, a la derecha) constaban de restos fundidosde corteza continental más antigua, extraída del manto hace entre 1500 y 2100 millones de
años. Los terrenos acrecidos que se muestran incluyen Avalonia (que en la actualidad ocupa
parte de Norteamérica y el sur de Gran Bretaña) y Carolina (parte del este de los EE.UU.).
Los terrenos cratónicos incluyen Cadomia y los gneises de Icart (noroeste de Francia), el
terreno de Sajonia-Turingia (Alemania) y Oaxaquia (México). El área de los terrenos acreci-
dos coincide con el tiempo de existencia del supercontinente Rodinia; las flechas indican la
formación y el inicio de la dispersión. El área para los terrenos cratónicos es más antigua y
también más amplia. (Ga equivale a mil millones de años.)
J. Brendan Murphy es profesor de geología
estructural, tectónica y petrología en la Univer-
sidad de San Francisco Javier, en Nueva Escocia.
Gabriel Gutiérrez Alonso imparte clases de
geología estructural y dinámica global en la
Universidad de Salamanca. R. Damian Nance
profesa en la Universidad de Ohio en Athens. Ja-vier Fernández Suárez enseña geoquímica en
la Universidad Complutense de Madrid. Duncan
Keppie es profesor de la Universidad Nacional
Autónoma de México; trabaja desde hace
más de 40 años en universidades y servicios
geológicos de EE.UU., Zambia, Canadá y México.
Cecilio Quesada es investigador en el Instituto
Geológico y Minero de España; se dedica al
estudio de la evolución tectónica de la Península
Ibérica. Rob A. Strachan desarrolla su labor
investigadora en la Universidad de Portsmouth.
Jaroslav Dostal es profesor emérito de petro-
logía y geoquímica en la Universidad de Saint
Mary en Nueva Escocia.
© American Scientist Magazine.
Los autores
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 43/99INVESTIGACION Y CIENCIA, mayo, 2008 41
de subducción bajo el margen de Laurencia.Después de la colisión de la dorsal, la nuevazona de subducción quedaría conectada conel margen septentrional de Avalonia y Ca-rolina. A medida que una placa subducentesufre cambios mineralógicos que aumentansu densidad, ejerce una fuerza de tracción
(“slab-pull”) sobre la parte de la placa alejadade la zona de subducción (lo mismo ocurrecuando el extremo de un mantel sobresale enexceso por el borde de la mesa y arrastra elresto del mantel, incluidas las migas que hayaencima). Quizás Avalonia y Carolina fuerondesgajadas de Gondwana por la tracción queejerció su propia placa al ser subducida bajoel margen de Laurencia.
Formación de PangeaLa aglomeración de continentes que destruyóel océano Reico culminó con la colisión de
Gondwana con Laurusia, un episodio cru-cial para la formación de Pangea. El estudiodel origen y la evolución de esa extinta masade agua resulta, por tanto, fundamental paracomprender las fuerzas que crearon Pangea.El océano Reico se abrió con la partida deuno o dos continentes estrechos del margenseptentrional de Gondwana (Carolina y Ava-lonia). Mediante técnicas de caracterizacióny trazado isotópico, se demuestra que esosterrenos se formaron en el océano Mirovoi,hace entre 750 y 1100 millones de años, yque se agregaron a Gondwana hace unos 650
millones de años. Una zona de debilidad, osutura, debió separar del antiguo margen deGondwana esos terrenos recién acrecidos. Lasubsiguiente subducción bajo ese margen,que comenzó hace 635 millones de años yen algunos lugares llegó a durar más de 90millones de años, generó una poderosa activi-dad magmática en los terrenos acrecidos y enla corteza más antigua de Gondwana (Africaoccidental).
Hace entre 540 y 500 millones de años, elcese de la subducción instó el establecimientode un entorno de plataforma continental en
dicho margen de Gondwana. Hace unos 490millones de años, los terrenos que se habíanido agregando, por acreción, al margen deGondwana (Avalonia y Carolina) comenzarona separarse de ese margen; hace unos 460 mi-llones de años, ya habían migrado unos 2000kilómetros hacia el norte. Creemos que esosterrenos fueron desgajados de Gondwana por-que la tracción de la placa que subducía bajo elmargen de Laurencia causó la reapertura de laantigua sutura. La ubicación del océano Reicohabría venido determinada por la existencia deuna zona de debilidad cortical, generada en
colisiones anteriores.
USE AND ABUSE OF CRUSTFORMATION AGES. N. T. Arndt yS. L. Goldsteinen en Geology ,vol. 15, págs. 893-895; 1987.
MODELS OF RODINIA ASSEMBLY
AND FRAGMENTATION. S. A.Pisarevsky, M. T. D. Wingate,C. M. Powell, S. Johnson yD. A. D. Evans en ProterozoicEast Gondwana: Supercontinent
Assembly and Breakup, dirigidopor M. Yoshida, B. Windley yS. Dasgupta, págs. 35-55. TheGeological Society, Special Pu-blication 206; Londres, 2003.
HOW DO SUPERCONTINENTS
FORM? J. B. Murphy y R. D.Nance en American Scient ist ,vol. 92, págs. 324-333; 2004.
ORIGIN OF THE RHEIC OCEAN:
RIFTING ALONG A NEOPROTE-
ROZOIC SUTURE? J. B. Mur-phy, G. Gutiérrez Alonso,R. D. Nance, J. FernándezSuárez, J. D. Keppie, C. Quesa-da, R. A. Strachan y J. Dostalen Geology , vol. 34, págs.325-328; 2006.
Bibliografíacomplementaria
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 44/99
Electrolitos ultrafinosGemma Garcia Alonso
D E C E R C A
Entre los dispositivos que ofrecen una nueva vía, más limpia y eficiente, para la explotación de la energía
eléctrica destacan las pilas de combustible de óxido sólido.Uno de los electrolitos más utilizados en esas pilas es la cir-cona estabilizada con itrio (YSZ, de sus siglas en inglés).Corresponde a un óxido de zirconio en el que una parte delzirconio se sustituye por itrio con el fin de generar vacantesaniónicas. Sus propiedades le confieren un gran potencialtécnico: elevada estabilidad química y mecánica, y conduc-tividad iónica pura en un amplio rango de temperaturas ypresiones parciales de oxígeno.
Para mejorar las prestaciones de las pilas de combusti-
ble a temperaturas inferiores es necesario reducir el espe-sor de los electrolitos. En el último decenio, han empeza-do a desarrollarse técnicas de deposición que permitenobtener electrolitos densos con espesores inferiores a10 micrometros. Suelen depositarse sobre uno de loselectrodos que hace de soporte mecánico, generalmenteel ánodo.
Los cermets (materiales compuestos cerámico-metal) deNi-YSZ son los mas utilizados en la construcción delánodo (en ocasiones se usa calcio en vez de itrio). Engeneral, se obtienen mezclando óxido de níquel y el propiomaterial de electrolito (YSZ). Al someterlos a una atmósfe-ra reductora (como es el caso en las condiciones de trabajode las pilas de combustible de óxido sólido en el ánodo), elóxido de níquel se reduce formando partículas de níquelconductor eléctrico y los poros necesarios para la difusióndel oxígeno.
Una técnica novedosa, la deposición química en fasevapor mediante inyección pulsada de la solución obtenida a
partir de precursores organometálicos, facilita la obtenciónde capas densas de gran calidad cristalina con alta velocidadde crecimiento sobre superficies densas o porosas. Ofreceuna vía prometedora para la obtención de electrolitossólidos de YSZ sobre sustratos porosos de tipo cermet. Lasimágenes muestran algunos ejemplos de esos electrolitosultrafinos.
G E
M M A G A R C I A ; F O T C I E N C I A 0 3 / I C M A B - C S I C ( m u e s t r a d e f e c t u o s a )
1. Microscopía electrónica de barrido de una capa
de YSZ depositada sobre un sustrato cerámico de alúmina
con gradiente de porosidad.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 45/99INVESTIGACION Y CIENCIA, mes, año 43
2. Microscopía electrónica de transmisión de una capa de YSZ crecida sobre
un sustrato monocristalino de alúmina. Se observan distintos regímenes
de crecimiento (primero epitaxial y luego columnar).
3. Microscopía electrónica de barrido de una capade YSZ depositada sobre un sustrato de NiO-CaSZ
fundido mediante láser. A la izquierda, se obser-
van las lamelas (paralelas al plano de la imagen)
de CaSZ y de níquel, y los poros formados tras la
reducción. Abajo, una muestra defectuosa: la fusión
por láser ha producido burbujas, en cuyas paredes
se distinguen las láminas de CaSZ intercaladas por
poros y partículas de níquel.
CRECIMIENTOCOLUMNAR
CRECIMIENTOEPITAXIAL
SUSTRATO
100 nm
3800 nm
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 46/9944 INVESTIGACION Y CIENCIA, mayo, 2008
Michael Wigler:Un díscolo frente a los mendelianosValiéndose de la teoría clásica sobre la herencia, los expertos han buscado sin éxito los genes
responsables del autismo. Michael Wigler cree que ha descubierto el mecanismo en virtud del
cual el trastorno persiste generación tras generación
Nikhil Swaminathan
PERF ILES
Si se le pregunta a Michael Wigler acer- ca de la base genética del autismo,
responde que no sirven los métodos clási-cos de la genética para detectar mutacio-nes causantes de un trastorno en familias
con varios miembros afectados. Aunquela mayoría de los expertos admite que elentorno influye en la aparición de la en-fermedad, el autismo posee un fuertecomponente genético: si de dos gemelosidénticos uno es autista, el otro tiene un70 por ciento de probabilidades de pade-cer el trastorno, un factor de riesgo casi10 veces mayor que el observado en ge-melos no idénticos o en hermanos. Masnada se ha conseguido tras largos añose ingentes sumas de dinero que se hanempleado en la búsqueda de genes liga-
dos al trastorno.Según Wigler, del Laboratorio de Cold
Spring Harbor en Long Island, la clavepara identificar la base genética del autis-mo se halla en las mutaciones espontá-neas, las alteraciones en la línea parentalque se manifiestan como novedad en ladescendencia. En 2006, demostró queciertos fenómenos espontáneos interve-nían en algunos casos de autismo. For-muló luego una controvertida teoría so-bre la genética del trastorno. Sugiere quelas mujeres, que padecen el autismo con
una tasa cuatro veces menor que los varo-nes, pueden ser portadoras del perfil ge-nético de la enfermedad y transmitirloluego a sus hijos.
Wigler sostiene que los estudios gené-ticos clásicos han fallado porque se hanescogido familias con más de un hijoautista para buscar diferencias en unabase en todo el código genético. Esas di-ferencias, que afectarían a la conectividadneural, corresponden a la adición, la de-leción o la sustitución de una base; sedenominan polimorfismos de un solo
nucleótido (SNP, de las siglas en inglés).
Descubrir SNP compartidos por personasautistas permitiría detectar individuoscon un riesgo elevado de heredar la alte-ración o de transmitirla.
El problema es que casi nunca se han
examinado los mismos lugares de los mis-mos genes: se han imputado loci en 20 delos 23 pares de cromosomas del genoma.En la opinión de Portia Iversen, madre deun chico autista de 15 años y fundadorade la asociación Curemos el Autismo Ya,la pista de los SNP ha llegado a un calle-
jón sin salida.Los que trabajan con SNP trataron de
esquivar las críticas alegando que el autis-mo es un trastorno de gran complejidad,determinado por una suerte de “conjun-ción planetaria”, es decir, que contribu-
yen cuatro o cinco loci y, si se da la confi-guración errónea de alelos en esos cuatroo cinco loci, se padecerá la alteración.
A Wigler, que durante tres decenios hacosechado importantes éxitos en genética,no le basta esa justificación. En 1981, ais-ló la superfamilia de genes RAS , el primergrupo de oncogenes en ser identificado.En los años noventa desarrolló un méto-do para muestrear segmentos del genoma,que facilitaba y abarataba la comparacióndel ADN. Empleó luego esa técnica debiochips, el análisis representacional de mi-
cromatrices de oligonucleótidos, para es-crutar el ADN en busca de alteracionesque pudieran causar cáncer.
En su primera toma de contacto conel autismo, Wigler, en estrecha colabora-ción con Jonathan Sebat, también delCold Spring Harbor, se propuso determi-nar la influencia de las variaciones en elnúmero de copias, un tipo de mutaciónespontánea, en este trastorno. Esas muta-ciones afectan al número de copias de ungen que posee una persona. Antes de quese secuenciara el genoma humano, los ex-
pertos creían que cada individuo poseía B R
I A N M A R A N A N P I N E D A
MICHAEL WIGLER
PENSAMIENTOS ESPORADICOS: Propone
que las mutaciones espontáneas, además de
las mutaciones que siguen los patrones clá-
sicos de la herencia mendeliana, explican el
desconcertante comportamiento hereditariodel autismo.
TRASTORNO MISTERIOSO: Los síntomas
del autismo van desde deficiencias cogniti-
vas hasta un comportamiento asocial y
obsesivo. En EE.UU., afecta a uno de cada
150 niños.
TEJER UNA RED TUPIDA: Cree que su teo-
ría unificada del autismo puede ayudar tam-
bién a explicar la esquizofrenia, la depre-
sión, la obesidad mórbida, la diabetes y
otros trastornos genéticos complejos.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 47/99INVESTIGACION Y CIENCIA, mayo, 2008 45
dos alelos, o copias, de un gen:uno heredado del padre y otrode la madre.
En 2004, el grupo de ColdSpring Harbor halló que, in-cluso en individuos sanos,podía ocurrir que una copia
de un gen faltara (o se aña-diera) en el genoma, debido areorganizaciones a gran escaladel material genético. (Talesreorganizaciones se conocíandesde hacía años; se les atri-buían manifestaciones particu-lares de numerosos trastor-nos, entre ellos la enfermedadde Huntington.) Centrándo-se en familias con un solomiembro autista, demostra-ron en marzo de 2007 que
hasta un 10 por ciento de loscasos de autismo no heredadopodrían deberse a variacionesespontáneas en el número decopias. Wigler y Sebat encon-traron que las alteraciones es-tructurales correspondían so-bre todo a deleciones, quedejaban al individuo con unacopia de un gen particular yprovocaban, en algunos casos,la disfunción de ese gen (ha-ploinsuficiencia).
En julio de 2007, Wiglerpublicó un artículo que pre-sentaba una teoría unificada sobre el au-tismo. Examinó los datos de familias convarios miembros autistas; consideró facto-res hereditarios y espontáneos. Se centróen las familias cuyos dos hijos mayores es-taban afectados. Halló que el tercer hijovarón tenía un 50 por ciento de posibili-dades de sufrir el trastorno; en el caso deuna niña, el riesgo se reduce al 20 porciento.
A partir de esos datos, Wigler de-
sarrolló una hipótesis de dos niveles. Lagran mayoría de las familias caen en lacategoría de bajo riesgo, en la cual loshijos afectados poseen una mutación es-pontánea, ya sea una variación en el nú-mero de copias o una mutación puntual.En las familias de alto riesgo (que pue-den llegar a albergar el 25 por ciento detodos los casos de autismo) el trastornose manifiesta cuando un individuo noafectado, normalmente una mujer, esportador de una mutación esporádica yla trasmite en forma de alelo dominante.
Si la descendencia es masculina, la pro-
babilidad de desarrollar autismo ronda el50 por ciento.
En la opinión de Deborah Levy, direc-tora del laboratorio de investigación psi-cológica del Hospital McLean de la facul-tad de medicina de Harvard, la teoría de
Wigler ofrece un nuevo marco para el es-tudio del trastorno. En vez de un grannúmero de genes con escasos efectos, setiene un solo gen responsable; aunqueson muchos los genes (hasta 100, según
Wigler) que pueden desempañar esa fun-ción.
Wigler explica que algunos genes alte-rados o suprimidos de forma esporádicamuestran una elevada penetrancia (pro-porción de individuos portadores de ungenotipo que muestran el fenotipo espe-rado); ello conlleva un alto riesgo, sobretodo para los varones. Esas mutacionesinsidiosas suelen desaparecer al cabo dedos o tres generaciones, pero el autismoprobablemente persiste como fenotipoporque los portadores, en su mayoría mu-
jeres, poseen genes modificadores que los
protegen. No parece, sin em-bargo, probable que tales genesdefiendan a la descendenciamasculina. Según Wigler, lastasas de autismo son demasia-do elevadas para atribuir la ma-yoría de los casos a mutaciones
espontáneas. No podemos ol-vidar que convivimos con laevolución.
Si unos expertos consideranque el modelo de mutacionesespontáneas de Wigler ofreceuna manera más simple deabordar la genética de la enfer-medad, otros lo encuentran in-completo. Aducen éstos que lateoría no da cuenta de los ca-sos de familias con un niñoautista en las cuales los parien-
tes de segundo o tercer gradotambién se ven afectados, o enlas cuales los parientes de pri-mer grado muestran síntomasleves del trastorno. El modelotampoco explica por qué lasniñas no desarrollan el autismocon la misma frecuencia quelos niños.
Wigler cree que una estadís-tica más completa ayudaría ademostrar su teoría. Así, la dis-crepancia entre niños y niñas
quedaría explicada si los modi-ficadores genéticos fueran es-
pecíficos del sexo, un efecto que se mani-festaría en madres normales que tuvieranuna niña autista. Wigler admite que no esla clase de teoría con la que uno se quedatranquilo porque resuelve el misterio,sino de las que te despiertan por la nochepara que sigas trabajando.
Wigler recuerda una película que lecausó un gran impacto: Alejandro Magno,la historia del conquistador macedoniorodada por Robert Rossen en 1956, a la
que su abuelo le llevó a ver cuando conta-ba nueve años. En ella, Alejandro se en-frenta al nudo gordiano, una cuerda conuna lazada mítica sobre la que pesaba elaugurio de que quien la desatara conquis-taría Asia. En vez de tratar de desenredarla maraña, Alejandro desenfunda su espa-da y corta la cuerda.
Wigler aprendió de esa historia que aveces no vemos la solución a un proble-ma porque no lo miramos directamente.Pero sólo con más datos se verá si susideas sobre el autismo van derechas a la
cuestión. M I C H A E L M A C O R S a n F r a n c i s c o C h r o n i c l e / C o r b i s
ROMPECABEZAS GENERACIONAL: algunas personas sanas podrían
ser portadoras de genes del autismo, lo que permitiría explicar el
patrón hereditario de este trastorno.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 48/9946 INVESTIGACION Y CIENCIA, mayo, 2008
El cambio climático después de BaliCon técnicas de coste asequible se puede prevenir el calentamiento global fomentando,
al mismo tiempo, el crecimiento económico
Jeffrey D. Sachs
D E S A R R O L L O S O S T E N I B L E
El acuerdo, al que se llegó en Bali elpasado diciembre, de iniciar dos
años de negociaciones sobre el cambioclimático fue una buena noticia, unejemplo raro de cooperación internacio-nal en un mundo que parece sumido enuna espiral de conflictos. Los más cínicospodrían señalar que el único avance fuellegar al acuerdo de seguir hablando. Su
cinismo todavía podría confirmarse. Contodo, se ha avanzado en el entendimientode que tomar medidas serias para contro-lar el clima es factible a un coste modes-to. Una convergencia digna de reseñar.
Las cuentas son cada vez más claras. Silos ingresos de las naciones ricas siguenaumentando y las naciones pobres conti-núan desarrollándose, acortándose las di-ferencias entre unas y otras, para 2050 laeconomía global podría haberse multipli-cado por seis y el consumo de energía,aproximadamente por cuatro. Actual-
mente, las emisiones de dióxido de carbo-no (CO2) generadas por el hombre sonde alrededor de 36.000 millones de tone-ladas anuales, de las cuales 29.000 millo-nes se deben a la quema de combustiblesfósiles y a los procesos industriales, y entorno a otros siete mil millones resul-tan de la deforestación tropical.
En términos generales, el incre-mento del nivel de CO2 por cada30.000 millones de toneladas emitidases de alrededor de dos partes por millón(ppm). La concentración actual de CO2
en la atmósfera se cifra en torno a 380ppm, cuando a comienzos de la era in-dustrial, hacia 1800, era de 280 ppm. Así,para llegar a las 440 ppm hacia mediadosde siglo —un nivel perfectamente alcan-zable y todavía “saludable” en términosde sus probables consecuencias para elcambio climático, pero 60 ppm superioral actual— la acumulación de emisionesen la atmósfera debería mantenerse alre-dedor de los 900.000 millones de tonela-das, o en torno a los 21.000 millones detoneladas al año de promedio hasta 2050.
Este objetivo podría alcanzarse poniendo
fin a la deforestación y reduciendo un ter-cio nuestras emisiones actuales produci-das por los combustibles fósiles.
¿Puede la economía mundial consumircuatro veces más energía primaria redu-ciendo al mismo tiempo una tercera partede las emisiones?
Parece que existe una estrategia básicaprometedora: producir una electricidad
prácticamente libre de emisiones a travésde la movilización masiva de energía solary nuclear y la captación y almacenamien-to de dióxido de carbono en centrales decombustión de carbón. Con una red eléc-trica general limpia, la mayor parte de lasemisiones restantes puede también con-trolarse. En menos de un decenio, losautomóviles híbridos recargables en la red
eléctrica consu-mirán probable-mente menos de2,5 litros cada
100 km. Laelectricidad limpia
podría producir hidró-
geno para vehículos impulsados por pilasde combustible y reemplazar las calderasdomésticas. A los mayores emisores in-dustriales se les podría instar (o incitarpor medio de impuestos y permisos nego-ciables) a que capturen cierta cantidad desus emisiones de CO2 o reconviertan par-te de sus procesos para seguir funcionan-do con pilas eléctricas y electricidad pri-maria limpia.
La captación y almacenamiento decarbono en centrales eléctricas de com-bustión de carbón sólo incrementaría el
coste de la electricidad tres céntimos de
dólar por kilowatt-hora, según un infor-me especial del Panel Intergubernamentalsobre Cambio Climático. La conversióntotal de EE.UU. a energía solar puedeimplicar un incremento del coste de alre-dedor de cuatro céntimos por kilowatt-hora, y la electricidad tendría un coste to-tal del orden de ocho a nueve céntimosde dólar por kilowatt-hora. Con este in-
cremento, que supone mucho menos deluno por ciento de los ingresos anualesmundiales, se produciría la conversión auna red eléctrica limpia. En el resto de lossectores el coste será igualmente bajo.Con el ahorro de combustible que supon-drán los coches de bajas emisiones se po-dría fácilmente sufragar las baterías o pi-las de combustible. Calentar los edificiosde viviendas con electricidad (o un siste-ma mixto) en vez de calderas proporcio-nará en general un ahorro neto, especial-mente si se combina con la mejora del
aislamiento.Las negociaciones de Bali tendrán éxi-
to si el mundo se preocupa también deapoyar la pronta adopción de técnicasde bajas emisiones. Ni las cuestiones deculpabilidad, ni el reparto de los costes,
ni la elección de los mecanismos de con-trol son tan importantes como el rápidodesarrollo técnico y su despliegue, respal-dados por un mecanismo de control ele-gido por cada país.
Si las técnicas menos contaminantesresultan de bajo coste, como parece vero-
símil, los países ricos podrán permitirselimpiar sus propios sistemas de energía y,a la vez, cargar con parte de los costes delos países pobres para que puedan realizarlas conversiones necesarias. El control cli-mático no es un juego moral. Es princi-palmente un reto técnico práctico y via-ble que, de llevarse a cabo correctamente,se puede conjugar con las necesidades yaspiraciones de una economía global encrecimiento.
Jeffrey D. Sachs es director del Instituto de la
Tierra de la Universidad de Columbia.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 49/99INVESTIGACION Y CIENCIA, mayo, 2008 47
E
l año 1492 marca el primer contacto entre la Europa renacentista y el Nue-
vo Mundo. Pero hasta el inicio del si-glo los exploradores españoles no llegarona conocer las altas culturas que ocupaban elsur de México y Centroamérica. Cuando en1517 Francisco Hernández de Córdoba pusoel pie en Yucatán, quedó maravillado. Descu-brió la civilización maya, distinta de todas lasconocidas por los europeos.
El origen de los mayas se remonta al se-gundo milenio antes de Cristo. Compartennumerosos elementos culturales con el restode Mesoamérica: creencias escatológicas, cul-to funerario, escritura, calendario, sistema de
cómputo vigesimal, construcciones de basa-mentos piramidales, juegos de pelota y unaagricultura intensiva centrada en el maíz, frijol,calabaza y chile.
El territorio maya corresponde a la mayorárea cultural de la Mesoamérica prehispánica.Cubre el sudeste del territorio mexicano ac-tual, toda Guatemala, Belice, Honduras y ElSalvador; comunica con el océano Pacífico, elgolfo de México y el Caribe.
CosmologíaEn comparación con las mitologías clásicas
europeas, sabemos muy poco de la antigua
cosmovisión de los mayas. Sabido es que, conla conquista, se produjo una fatal destrucción
del legado escrito. Apenas se conservan librosprehispánicos sobre la visión que del cosmostenía este pueblo milenario. Los investigadoresrecurren a otras fuentes: las crónicas de Indias,obras de arte e inscripciones prehispánicas ytradiciones orales modernas, reminiscencias delas ideas y las creencias de la antigüedad.
A diferencia de la cultura occidental, basadaen el concepto de un “destino final”, los ma-yas admitían un curso del universo y cuantocontenía. Pensaban que la vida y la muerte,la creación y la destrucción, coexistían y secomplementaban en una necesaria oposición
dinámica. Ese eterno devenir se desarrollabaen un espacio cósmico estratificado, mantenidopor las ramas, el tronco y las raíces de unaceiba gigantesca, árbol sagrado consideradoaxis mundi (eje del mundo). En esa estructura,las capas celestes yacían sobre la superficieterrestre y ésta se asentaba sobre las esferasdel inframundo.
En esa cosmología, también el centro de laTierra, o xibalba , ocupaba un lugar definido:un sitio obscuro donde gobernaban los señoresde la noche. Ahí residía el dios esqueletizado,o señor de la muerte, Yum Cimih. Daban ac-
ceso al inframundo ríos, ojos de agua, cenotes,
CONCEPTOS BASICOS
Los antiguos mayas con-
cebían el mundo como uncosmos estratificado. En
el centro yacía el xibalba
(inframundo), un obscuro
lugar subterráneo al que
se accedía a través de ríos,
cuevas y cenotes.
Los muertos habitaban
en el xibalba y ejercían su
poder sobre los vivos. Por
ello se conmemoraban
y veneraban mediante
ceremonias, ofrendas y
sacrificios.
La bioarqueología y la
arqueología funeraria
estudian los ritos funera-
rios mayas prehispánicos
a partir de sus vestigios
materiales. Ambas han
arrojado datos novedosos
sobre la vida y la muerte
de jefes mayas, como
lo demuestra el estudio
del mausoleo de Janaab´
Pakal en Palenque.
Los mayas actuales conservan ritos funerarios de una cultura milenariabasada en la continuidad
cíclica entre la vida y la muerte, la creación y la destrucción
Vera Tiesler
Cultos funerarios
mayas
C A
L C A D E L A P A R T E C E N T R A L Y D E R E C H A D E L V A S O P O L I C R O M O K E R R
1 3 7 7 ; R E D I B U J A D O P O R V E R A T I E S L E R
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 50/9948 INVESTIGACION Y CIENCIA, mayo, 2008
cuevas rocosas y las cavernas de las cadenasmontañosas detrás del horizonte.
Muerte, luto y conmemoraciónLos mayas creían en la vida después de la muer-
te, como parte fundamental de un continuo
cambio perenne de generación, destrucción yrenovación. Según el mito quiché del PopolVuh, la cabeza del difunto gemelo Hunahpú setransformó en un jícaro; en esa forma fecundóa una joven y de ese modo resucitó. En otraocasión, los huesos molidos de Hunahpú y
Xbalanqué “germinaron” en el fondo de un
río, de donde renacieron los dos.Los mayas quichés actuales de Chichicaste-nango creen que el alma del muerto se reúnecon los ancestros; se asegura así la renovaciónde la vida. Bajo esa creencia subyace la ideaquiché de la continuidad cíclica de la vida,contenida en el término Jaloj-K’exoj . Esa expre-sión constituye la parte central de numerosasoraciones tradicionales. Expresa dos tipos decambio: el primer término, Jal , designa lastransformaciones que se experimentan a lolargo de la vida (nacimiento, crecimiento yvejez); el segundo, K’ex , se refiere al cambio
generacional, a la renovación cíclica de la vida.Para la vida individual, ese cambio implica lasustitución, la muerte y la conversión en ances-tro. En conjunto, los dos cambios renuevan yperpetúan la vida y, con ello, la sociedad.
Con el concepto de Jaloj-K’exoj guarda tam-bién relación la creencia de que la vida nacede la muerte. Los quiché lo expresan meta-fóricamente cuando comparan el desarrollode la vida humana con el crecimiento de lasplantas: las semillas de maíz corresponden a los“enterrados” o “pequeños cráneos”, los vástagosde una planta son “caras” que han salido y el
niño recién nacido “retoña” o “regresa”.La continuidad simbólica entre la vida y
la muerte se manifiesta en el devenir indi-vidual después del fallecimiento. Los mayasactuales de Yucatán siguen considerando lamuerte como el paso a otro estado. Duranteesa transición, y también después, permanecenlos lazos directos entre los familiares y el difun-to, al que se apoya en su trayecto al xibalbá .Durante el tránsito, la forma de existenciadel finado se altera sólo al desintegrarse ensus componentes vitales: el espíritu inmortal(teyolía o chu’lel ) y el cuerpo carnal ( puczikal ),
que se desvanece y muere al igual que el nagual o alter ego animal del desvanecido.
Las tradiciones funerarias del norte de Cam-peche recogen las antiguas creencias de con-tinuidad entre vida y muerte, entre vivos ymuertos. Se reflejan en la forma de comuni-cación con los muertos, en el tratamiento quereciben al ser enterrados y en las exhumacionesque se realizan, dos o tres años después, paralimpiar sus osamentas y colocarlas en osariosabiertos. Para los campechanos, los osariosson como casitas: “...Allá se meten los huesos.Depende de uno si se le pone puertita, ya sea
de vidrio o de madera; pero cuando le vaya a
1. LA EXUBERANTE
COSMOLOGIA MAYA aparece
labrada en la lápida mortuoria
que cubría el sarcófago del
gobernante Janaab’ Pakal
(centro). M E R L E G R E E N E ,
R E D I B U J A D O P O R M I R N A S A N C H E Z
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 51/99
rezar se abre para que le dé el aire. Las casitasson para toda la familia; también se puedenponer amigos”.
Los cuidados en honor a los muertos se
reinician cada noviembre, mes de conviviocon los familiares que da comienzo con el Díade los Fieles Difuntos y termina treinta díasdespués con una fiesta de despedida. Duranteese tiempo, se mandan y reciben mensajes delos muertos que están de visita. Los familiaresse preparan para la ocasión: limpian y “visten”las osamentas; reparan y pintan las tumbas. Laarquitectura de las criptas individuales y colec-tivas guarda semejanza con las fachadas de lascasas, lo que confiere a los cementerios localesun aire de pequeñas ciudades mortuorias.
Prácticas funerariasSegún las antiguas creencias, el finado, ahoraen su estado incorpóreo, retenía ciertos po-
deres. Su cuerpo se consideraba una reliquia,ya que constituía el punto de enlace entresu nuevo lugar de permanencia y la tierra;se hallaba entre los vivos y los muertos. Fray
Diego de Landa afirmaba, en referencia a losmayas yucatecos del siglo , que los vivosproporcionaban maíz, bebida y moneda a susdifuntos con la finalidad de que no les faltasenada en la otra vida. El lugar del enterra-miento solía ser la misma residencia, antescompartida y ahora ocupada por los familiaressupervivientes.
El luto y la conmemoración de los ante-pasados hacen patente la importancia que surecuerdo tenía para la vida cotidiana, sobretodo en una sociedad regida por la estruc-tura familiar y los lazos de parentesco. La
memoria colectiva otorgaba una identidad acada descendiente y una identificación conel grupo.
I N
V E S T I G A C I O N Y C I E N C I A ( m a p a ) ; V E R A T I E S L E R ( a b a j o )
Tula
Teotihuacán
TenochtitlánPalenque
Chichén Itzá
Oxkutzcab
UaxactúnTical
Ucanal
Machaquila
Seibal
Xkipché
Yucatán
MEXICO
BELICE
HONDURAS
EL SALVADOR
GUATEMALA
2. EL TERRITORIO MAYA cubre el
sudeste del territorio mexicano
actual, toda Guatemala, Belice,
Honduras y El Salvador.
3. TRONCO ESPINOSO DE UNA
CEIBA, árbol considerado el ejedel mundo ( axis mundi ) en la
mitología maya.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 52/9950 INVESTIGACION Y CIENCIA, mayo, 2008
Los vestigios materiales que se han halladoen los yacimientos mayas prehispánicos ponende manifiesto la riqueza de los ritos mortuo-rios. Subrayan, además, la importancia que elculto a los muertos revestía para los mayas.Diversas en número y calidad, las ofrendas delinterior de las sepulturas constan de objetos
de atuendo y de uso cotidiano. Los espaciosmortuorios (desde los pozos sencillos excavadosen la tierra, hasta las criptas y las cámaras fu-nerarias ricamente ataviadas del primer mileniodespués de Cristo) se distribuyen sobre tododebajo de las áreas residenciales. También lascuevas, los ojos de agua, los cenotes y otrascavidades naturales servían como receptáculosde cuerpos y osamentas.
El culto a los antepasados no se extendíade forma simétrica a todos los difuntos, sinoque privilegiaba a los miembros regentes, comochamanes y gobernantes. Esos jerarcas se con-
sideraban dotados de poderes especiales, puesfungían como intermediarios entre sus descen-dientes y los dioses, para, incluso después de sudeceso, asegurar el bienestar y la continuidaddel grupo. Las pompas fúnebres celebradasen ocasión de la muerte de un jefe local y sumismo lecho mortuorio en los aposentos delpoder de los centros urbanos no respondensólo a una motivación religiosa, sino tambiéna una estrategia para la legitimación de lasupremacía política y la reafirmación de lascondiciones sociales del grupo al frente dela sociedad.
Las edificaciones funerarias mayas más ela-boradas datan del primer milenio después deCristo, época de auge social y político queterminó con el colapso de las estructuras depoder y el ulterior abandono de zonas ex-tensas de la Tierras Bajas Centrales. De esetiempo se conocen un gran número de estelasconmemorativas y cámaras funerarias; algunascontienen féretros monolíticos. Los jefes solíansepultarse amortajados y cubrirse con pigmen-to rojo antes de enterrarlos en la tumba. Ahíse les agregaba una abundante cantidad deobjetos suntuarios y, con frecuencia, el cuerpo
de acompañantes sacrificiales.
Sacrificios humanos A la muerte natural le seguían el luto y laconmemoración de familiares y deudos. Lamuerte ritual y los tratamientos postsacrifi-ciales, en cambio, tenían otra connotación.El difunto cobraba vida al fungir como in-termediario con lo sagrado. Las prácticassacrificiales mayas anteceden en más de unmilenio a las toltecas y aztecas. Al igual quepara los grupos del Altiplano Central mexi-cano, el sacrificio humano era para los mayas
la máxima expresión religiosa, el mejor medio P A
T R I C I A T A M E S ( f o t o g r a f í a )
EL MAUSOLEODEL REY PAKAL
E
n los años cincuenta del siglo pasado, el equipo de arqueólo-
gos liderado por Alberto Ruz Lhuillier descubrió en Palenque el
monolito funerario que abriga los restos mortales del monarca K’inich
Janaab’ Pakal . La minuciosa excavación del núcleo del Templo de las
Inscripciones condujo al que se considera uno de los grandes hallazgos
arqueológicos mundiales. Las investigaciones epigráficas indican que
Pakal nació en 603 y fue entronizado a los doce años. Tras dominar la
escena política durante más de medio siglo, falleció a los ochenta años
para unirse con sus ancestros en un altar en la casa de las nueve figuras,
que adecuó su hijo y sucesor al trono Chan Balam.
Los preparativos para el funeral del rey comenzaron años antes de su
muerte. El mismo Pakal supervisó la construcción del mausoleo en sus
primeras fases. Su hijo encargaría después la decoración de las paredes
y el monumental sarcófago. El cuerpo del rey se bañó de forma alternada
con cinabrio rojo y materiales orgánicos de tono negruzco. Portaba
consigo su rico atuendo personal, confeccionado en jadeíta y concha:
un pectoral, aretes esgrafiados, pulseras y anillos; le cubría la cara una
máscara de teselas del mismo material. Abundantes utensilios y objetos
suntuarios le acompañaron en su última morada. Una vez cerrada la
cavidad, el acceso monolítico se selló con una ofrenda de víctimas
sacrificiales. Frente a la entrada de la cámara funeraria se halló un arca
que contenía los restos articulados de, por lo menos, cinco personas.Los
estudios bioarqueológicos de la osamenta de Pakal no hallaron vestigios
de enfermedades carenciales. El joven aspirante al t rono creció, pues,
sin privaciones y en unas condiciones de vida favorables. Gozaba de una
buena alimentación y llevaba una vida sedentaria. Sin embargo, se le de-
tectó osteoporosis degenerativa crónica, asociada a un proceso ar trítico
de la espina dorsal, que le habría causado dolor de espalda durante los
últimos años de vida.
RESTOS MORTALES de K’inich Janaab’
Pakal , gobernante de Palenque.
Una capa de cinabrio les confiere
esta intensa coloración rojiza.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 53/99INVESTIGACION Y CIENCIA, mayo, 2008 51
para obtener el beneplácito y la intervenciónde los dioses, y garantizar así el bienestar dela comunidad. El sacrificio consistía en ladestrucción de la vida misma, la donaciónde las esencias vitales y la invocación de losagrado.
Según los cronistas, las víctimas solían seresclavos, prisioneros de guerra, huérfanos ohijos de los propios miembros de la comu-nidad, que eran entregados para el sacrificio.La preparación de la ceremonia culminantepodía durar varios meses. La ejecución se rea-
lizaba por extracción del corazón, estando la
víctima en posición supina, o decapitación.Otras formas de matar, menos documentadas,correspondían a la lapidación, el ahogamien-to y la muerte a saetazos. Tras la ejecución,el cuerpo de la víctima —ahora parte de losagrado— podía seguir siendo objeto de ritospóstumos.
Sabemos por la iconografía y las marcasantropogénicas halladas en restos humanos,que los mayas desollaban, descarnaban ydesmembraban a algunas víctimas. Según
De Landa y Sánchez de Aguilar, los frag-mentos de los cuerpos se distribuían entrelos sacerdotes; luego se enterraban frente alos templos y adoratorios, se abandonabanen el monte o se arrojaban en pozos secos,cenotes y cuevas.
Arqueología mortuoria¿Cómo investigar los ritos funerarios mayasprehispánicos? ¿De qué nos valemos para reco-nocer la muerte ritual en sus múltiples facetasy expresiones, tangibles e intangibles? En laarqueología funeraria mayista, interdisciplina-
ria, confluyen la arqueología, la antropologíafísica, la historia del arte y la epigrafía (estudiode inscripciones y glifos).
En el área maya, la investigación de losritos funerarios prehispánicos se enfrenta aun estado de conservación de los restos hu-manos muy precario. De ahí el interés de losestudios tafonómicos, que evalúan los fac-tores extrínsecos e intrínsecos que influyenen la descomposición de los cuerpos. Se haincrementado, además, la investigación de loscomplejos funerarios desde el enfoque nove-doso de la “bioarqueología”, que estudia los
restos humanos en su contexto, y desde una
4. VERTEBRAS CERVICALES
HUMANAS halladas en
los aposentos reales de la
metrópolis clásica de Calakmul,
en Campeche. A la izquierda,
tercera vértebra cervical con
corte horizontal que indica
una posible decapitación.
La vértebra de la derecha
presenta otro tipo de marcas
antropogénicas: cortes por
deslizamiento sucesivo que
evidencian un desprendimiento
póstumo de partes blandas.
V E
R A T I E S L E R ; P R O Y E C T O A R Q U E O L O G I C O C A L A K M U L ( I N A H )
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 54/9952 INVESTIGACION Y CIENCIA, mayo, 2008
óptica biocultural. El marco teórico de esadisciplina requiere la estrecha colaboraciónde especialistas y el aprovechamiento de losdatos extraídos de los trabajos histológicos ymoleculares. El desarrollo de la bioarqueologíaestá cosechando resultados e interpretacionescada vez más atractivos. La reciente recreaciónde los linajes dinásticos se ha basado en laepigrafía.
Añádase que el estudio forense ha permi-tido perfilar la biografía de los soberanos de
Calakmul, Copán y Tikal. Arrojan luz no sólosobre aspectos específicos de su vida (lugar
de nacimiento, residencia, enfermedades yaspecto físico), sino también sobre las pom-pas fúnebres que se celebraron en su honor yconmemoración.
El mausoleo del rey PakalEl estudio del mausoleo de Janaab’ Pakal dePalenque marca el ritmo de los avances ennuestro conocimiento de la vida y la muerteen la sociedad maya. El descubrimiento, en losaños cincuenta del siglo pasado, del monolito
funerario que abriga los restos mortales dePakal se considera uno de los grandes hallazgos
© i S
t o c k p h o t o ( a r r i b a ) / V E R A T I E S L E R ( a b a j o )
6. LAS OSAMENTAS de una mujer y un hombre comparten el espacio de un osario en Pomuch,
Campeche. Sus familiares las han “vestido” con una tela bordada con coloridos motivos florales que
lleva el nombre de la difunta.
Vera Tiesler obtuvo el doctorado
en antropología por la Universi-
dad Nacional Autónoma de Méxi-
co. Complementó su formación
con estudios de historia, medicina
y antropología física. Desde 2000
es profesora investigadora en la
facultad de ciencias antropológi-
cas de la Universidad Autónoma
de Yucatán en Mérida. Centra su
trabajo en la paleodemografía,
histología y patología, prácticas
bioculturales, tafonomía y ritos
funerarios mayas.
La autora
5. LOS TRES TEMPLOS DE
PALENQUE fueron empleados
por la elite como lugares de
culto y sepultura. Al frente, el
templo de las Inscripciones.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 55/99INVESTIGACION Y CIENCIA, mayo, 2008 53
arqueológicos mundiales. La minuciosa excava-ción del núcleo del Templo de las Inscripcionesde Palenque condujo al equipo de arqueólogosliderado por Alberto Ruz Lhuillier hasta lamonumental cámara funeraria.
Unos veinte años después de ese descubri-miento, la epigrafía descifraba las inscripcionesque asignaban nombre y cronología vital aldignatario. Según éstas, K’inich Janaab’ Pakal nació en 603 y fue entronizado a los doceaños. Tras dominar la escena política durantemás de medio siglo, falleció a los ochentaaños.
Los preparativos para el funeral de Pakalcomenzaron años antes de su muerte. El mis-mo supervisó la construcción del mausoleoen sus primeras fases. Después, su hijo ysucesor al trono, Chan Balam, encargaría ladecoración de las paredes y del monumentalsarcófago que hoy se reconoce por su ele-gante ejecución y simbología. En su últimamorada en la cámara de las nueve figuras,acompañaron a Pakal abundantes utensiliosy objetos suntuarios.
Una vez cerrada la cavidad, el acceso mo-nolítico se selló con una ofrenda de víctimas
sacrificiales, que habrían de acompañar al se-
midivino ancestro Janaab’ Pakal. Frente a laentrada de la cámara funeraria en el Templode las Inscripciones se halló una enigmáticaarca de piedra sellada. La excavación abrió elcontenido de la misma: los restos articuladosde por lo menos cinco personas, adultos ymenores de edad, acomodados apretadamen-te en su interior para acompañar al difuntoPakal.
Los estudios bioarqueológicos de la osa-menta confirmaron la avanzada edad de Pakal,asentada en las inscripciones. No se hallaronvestigios de enfermedades carenciales. El joven
aspirante al trono creció, pues, sin privacionesy en unas condiciones de vida favorables. Go-zaba de una alimentación equilibrada y llevabauna vida sedentaria. Sin embargo, se le detectóosteoporosis degenerativa crónica, asociada aun proceso artrítico de la espina dorsal que lehabría causado dolor de espalda durante losúltimos años de vida.
Este breve recorrido por la muerte, el lutoy la conmemoración entre los mayas nos hapermitido vislumbrar la riqueza y creatividadde sus ritos funerarios, al tiempo que muestrala integración de los mismos en los códigos
sociales e ideologías. V E
R A T I E S L E R
COSTUMBRES FUNERARIAS DE
LOS ANTIGUOS MAYAS. AlbertoRuz Lhuillier. Universidad Na-cional Autónoma de México;México, D.F., 1991.
LIVING WITH THE ANCESTORS.
KINSHIP AND KINGSHIP IN AN-
CIENT MAYA SOCIETY. PatriciaA. McAnany. University ofTexas; Austin, 1995.
ANTROPOLOGIA DE LA
ETERNIDAD: LA MUERTE EN LA
CULTURA MAYA. Dirigido porAndrés Ciudad Ruiz, Mario
Humberto Ruz Sosa y MaríaJosefa Iglesias Ponce deLeón. Sociedad Española deEstudios Mayas/UniversidadNacional Autónoma de Méxi-co, Madrid, 2003.
K’INICH JANAAB’ PAKAL DE
PALENQUE. VIDA Y MUERTE
DE UN GOBERNANTE MAYA .Vera Tiesler y Andrea Cucina.Universidad Nacional Autóno-ma de México/UniversidadAutónoma de Yucatán; Méxi-co, D.F., 2005.
Bibliografíacomplementaria
7. LOS CEMENTERIOS CAMPECHANOS que se encuentran a lo largo del Camino Real entre Campeche y
Mérida constituyen un verdadero hogar para los difuntos y un lugar de convivio con los familiares. Las
criptas y las fachadas de los osarios les confieren el aspecto de ciudades en miniatura. En la fotografía, el
cementerio de la pequeña comunidad de Poc-Boc.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 56/9954 INVESTIGACION Y CIENCIA, mayo, 2008
CONCEPTOS BASICOS
La sustancia blanca,
que se consideraba un
tejido pasivo, participa de
manera activa en el apren-
dizaje y las disfunciones
cerebrales.
La sustancia gris (neuro-
nas) es responsable del
razonamiento y el cálculo
mental. La sustancia
blanca (axones recubier-
tos de mielina) controla
las señales compartidas
por las neuronas; coordina
el trabajo en equipo de las
regiones del cerebro.
Una nueva técnica de
resonancia magnética, la
tractografía por tensor de
difusión, muestra la sus-
tancia blanca en acción.
Pone de relieve la función
de la misma, subestimada
hasta ahora.
Cuando nacemos, la mieli-
na está sólo parcialmente
formada; se desarrolla
luego de modo gradual
hasta la mitad de la
segunda década de vida.
El ritmo y la comple-
ción de la mielinización
influyen en el aprendizaje,
el autocontrol y ciertas
enfermedades mentales
como la esquizofrenia, el
autismo y la mitomanía.
¿Qué función cumpleQué función cumple
la sustanciala sustancia
¿Qué función cumple
la sustancia
Imagínese la posibilidad de observar a travésdel cráneo para averiguar qué es lo quehace que un cerebro sea más inteligente
que otro. O descubrir si ciertos rasgos ocul-tos podrían favorecer la esquizofrenia o ladislexia. Una nueva técnica de formación deimágenes está arrojando luz sobre la fisiologíacerebral. Los resultados revelan un fenómenosorprendente: la inteligencia y varios trastor-nos mentales podrían depender de conexio-nes cerebrales constituidas exclusivamente desustancia blanca.
La sustancia gris corresponde al lugar
donde se elaboran los cálculos mentales y sealmacenan los recuerdos. Constituye la capasuperficial del cerebro; consta de somas neu-ronales densamente agrupados (la parte concapacidad de decisión de las neuronas). Debajode la misma se encuentra la sustancia blanca,que ocupa casi la mitad del cerebro humano,una proporción menor en otros animales. Lasustancia blanca está formada por millones devías de comunicación, cada una compuestapor un cable largo e independiente, el axón,cubierto por una sustancia blanca y grasa: lamielina. A la manera de las líneas principales
de una red telefónica nacional, esos cablesblancos comunican las neuronas de una regióndel cerebro con las de otras regiones.
Durante decenios, los neurocientíficos hanmostrado escaso interés por la sustancia blanca.Consideraban que la mielina era una simplevaina aislante y los cables que ceñían, merasvías pasivas. Las teorías sobre el aprendizaje, lamemoria y los trastornos mentales se centrabanen los fenómenos moleculares que ocurrían enel interior de las neuronas y en las sinapsis, losdiminutos puntos de contacto entre éstas.
Los expertos se están percatando ahora de
que han subestimado la función de la sustan-
cia blanca en la transmisión de informaciónentre regiones cerebrales. Nuevos estudiosrevelan que la extensión de la sustancia blancavaría de un sujeto a otro en razón de susexperiencias mentales o a causa de ciertasdisfunciones. También experimenta cambiosconforme el individuo aprende o practicauna destreza; por ejemplo, tocar el piano.Las neuronas de la sustancia gris ejecutanlas actividades mentales y físicas; la sustan-cia blanca participaría en la adquisición dehabilidades mentales y sociales, y explicaríala dificultad que presentan los perros viejos
en aprender nuevos trucos.
Estimulación de la mielinizaciónLa mielina, que confiere a la sustancia blancasu color, ha constituido una fuente de miste-rios. Durante más de un siglo, los científicoshan venido examinando las neuronas a travésdel microscopio: observaban unas fibras largas,los axones, que se extendían desde un somaneuronal hasta otro vecino, de forma parecidaa un dedo alargado y estirado. Cada axón es-taba cubierto por un gel cristalino grueso. Losanatomistas supusieron que la capa grasa debía
aislar los axones, igual que el revestimiento degoma de un cable de cobre. No obstante, ungran número de axones, sobre todo los máspequeños, carecían de cubierta. Asimismo, a lolargo de las fibras aisladas, aproximadamentea cada milímetro, aparecían interrupciones dela vaina aislante. Esas porciones desnudas sedenominaron nódulos de Ranvier, en honor deLouis-Antoine Ranvier, que los descubrió.
Se sabe que los impulsos nerviosos recorrenlos axones cien veces más deprisa cuando sehallan cubiertos de mielina y que la mielinaenvuelve un axón como si se tratara de una
cinta aislante, con hasta 150 capas concén-
R. Douglas Fields
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 57/99INVESTIGACION Y CIENCIA, mayo, 2008 55
E S
C U L T U R A D E M A R G I E M C D O N A L D ,
F O T O G R A F I A D A P O R F R A N K R O S S
blanca?blanca?
tricas entre nódulos. La sustancia se fabricaen láminas. De ello se encargan dos tipos decélulas gliales.
La neuroglía corresponde a un conjunto decélulas que, si bien no son neuronas, abun-dan en el cerebro y el sistema nervioso [véase “Células de la glía”, por R. Douglas Fields;
I C, junio de 2004].
Los oligodendrocitos, unas células gliales conforma de pulpo, construyen la envoltura.
Las señales eléctricas, que no pueden esca-parse a través de la vaina de mielina, circulanvelozmente por el axón de un nódulo a otro.En los nervios fuera del cerebro y de la mé-dula espinal, unas células gliales alargadas, las
células de Schwann, sintetizan la mielina.
1. LA ESCULTURA corresponde a
una vista superior de la cabeza:
se muestran la corteza cerebral
(cobre) y la sustancia blanca
(centro).
La sustancia blanca del cerebrose consideraba soporte pasivo
de la actividad neuronal.La investigación reciente
demuestra que intervieneen el aprendizaje
y en la enfermedadmental
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 58/9956 INVESTIGACION Y CIENCIA, mayo, 2008
J E N C H R I S T I A N S E N ( i l u s t r a c i ó n ) ; D E R E K J O N E S U n i v e r s i d a d d e C a r d i f f ( t r a
c t o g r a f í a d e l c í n g u l o )
¿QUE ES LA SUSTANCIA BLANCA?
56
¿QUE ES LA SUSTANCIA BLANCA
Cíngulo
Cuerpo calloso
Corteza
Cuerpo calloso
Sustancia blanca
Sustancia gris
Cíngulo
Neurona
Mielina
Axón
La sustancia blanca ocupa casi la mitad del cerebro. Consta de millones de
cables ( blanco) que conectan neuronas ( sustancia gris) de distintas regio-
nes del cerebro; el entramado guarda semejanza con las líneas principales
de la red telefónica nacional.
El cuerpo calloso,una masa de cables desustancia blanca, poneen comunicación a los hemisferiosizquierdo y derecho. En cada lado, loscables se extienden hacia arriba y haciafuera en dirección a la corteza, creando elcíngulo. Una nueva técnica de formación deimágenes cerebrales, la tractografía portensor de difusión, representa el trazado delcableado.
Cada cable conecta una neurona de unaregión con otra neurona de otro lugar. Un cablecorresponde a un axón aislado con mielina decolor blanco lechoso.
Sin la mielina, la señal se escapa y se disipa.Para conseguir una velocidad de conducciónmáxima, el grosor del aislante debe guardaruna proporción determinada con el diámetrode la fibra que envuelve. La relación óptimaentre el diámetro del axón desnudo y el diá-metro total de la fibra (incluida la mielina) es
de 0,6. Se desconoce el modo en que “saben”los dendrocitos el número de capas de aislantenecesarias para crear el grosor apropiado enaxones de diferente diámetro. Pero en fechareciente, Klaus-Armin Nave, del Instituto MaxPlanck de Medicina Experimental en Gotinga,descubrió que las células de Schwann detectanuna proteína que reviste los axones: la neurre-gulina. Si se aumenta o inhibe la cantidad deesa proteína, la célula de Schwann producemayor o menor número de capas de mielinaalrededor del axón. Curiosamente, muchaspersonas que sufren trastorno bipolar o es-
quizofrenia poseen un defecto en el gen queregula la síntesis de esa proteína.
La mielinización se produce a edades distin-tas. En el recién nacido, la mielina predominasólo en unas pocas regiones cerebrales; aumenta
luego a un ritmo irregular. En ciertos lugaresla deposición del aislante no termina hasta los25 o 30 años. Cuando el individuo alcanza laedad adulta, la mielinización progresa comouna onda, desde la parte posterior de la cortezacerebral (nuca) hasta la parte frontal (frente).Termina en los lóbulos frontales, las regiones
responsables de la planificación, el juicio y elrazonamiento de nivel superior, capacidadesque se adquieren sólo con la experiencia. Seha conjeturado que la escasez de mielina enel prosencéfalo explica que los adolescentesno posean la capacidad de los adultos paratomar decisiones. Ante tales observaciones, sepresume la importancia crítica de la mielinapara la inteligencia.
Se admite también que el proceso de re-vestimiento de los axones no termina hastael principio de la edad adulta, pues en eseperíodo inicial los axones continúan crecien-
do, se ramifican y orientan en función de laexperiencia del individuo. Una vez los axonesse hallan mielinizados, los cambios que expe-rimentan son más limitados. Durante años,persistió el debate en torno a determinadas
R. Douglas Fields dirige la
sección de desarrollo y plastici-
dad del sistema nervioso en el
estadounidense Instituto Nacional
de Salud Infantil y Desarrollo
Humano. Ha escrito varios artícu-
los para Mente y cerebro y paraInvestigación y Ciencia.
El autor
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 59/99INVESTIGACION Y CIENCIA, mayo, 2008 57
cuestiones abiertas: ¿está programada la mie-linización o son nuestras experiencias vitaleslas que determinan el número de capas y, enconsecuencia, influyen en nuestro aprendizaje?¿Aumenta con la mielina nuestra capacidadcognitiva? ¿Se encuentra acaso restringida lacognición en las regiones donde la mielina no
se ha acumulado todavía?Fredrick Ullén, pianista virtuoso y profesoren el Instituto del Cerebro de Estocolmo, seempeñó en despejar los interrogantes. En elaño 2005, con sus colaboradores aplicó unanueva técnica de formación de imágenes cere-brales, la tractografía por tensor de difusión,para examinar el encéfalo de pianistas profe-sionales. Esa técnica utiliza el mismo aparatode resonancia magnética nuclear que operaen los hospitales, pero se basa en la aplica-ción de distintos algoritmos y tipo de campomagnético.
Se crean imágenes de múltiples seccionesdel cerebro que, en conjunto, generan unaimagen tridimensional. Las secciones repre-sentan los vectores que definen el movimientodel agua en el tejido; los vectores se definenmatemáticamente en forma de tensores (ma-trices 3 × 3 de vectores). En la sustancia grislas señales del tensor de difusión son débilesporque el agua se orienta de forma simétrica.Pero a lo largo de los cordones de axonesel agua se orienta de forma asimétrica; estepatrón irregular ilumina la sustancia blancay expone las vías principales de transferencia
de información entre las regiones cerebrales.Cuanto mayor sea la cobertura de mielina yla unión entre fibras, mayor será la intensidadde la señal del tensor de difusión.
Ullén descubrió que, en los pianistas pro-fesionales, ciertas regiones de sustancia blancase hallaban más desarrolladas que en las per-sonas legas. Las regiones implicadas poníanen conexión partes de la corteza cerebral fun-damentales para la digitación con zonas quedirigen otros procesos cognitivos que operancuando se interpreta música.
También halló que cuantas más horas al
día había ensayado un músico a lo largo deltiempo, más intensas eran las señales del tensorde difusión en esos cordones de materia blan-ca; asimismo, los axones presentaban mayornúmero de capas de mielina o una unión másestrecha. Quizá los axones sencillamente se ha-bían extendido, con lo que habrían requeridomayor cobertura de mielina para mantener elcociente óptimo de 0,6. Mientras no se realiceuna autopsia, la pregunta permanecerá abierta.Con todo, el descubrimiento reviste importan-cia, pues demuestra que el aprendizaje de unahabilidad compleja produce cambios notables
en la sustancia blanca, una estructura cerebral
que no contiene somas neuronales ni sinapsis,sólo axones y neuroglía.
La investigación sobre animales, cuyo ce-rebro sí se examina físicamente, revela que lacobertura mielínica cambia en función dela experiencia mental y el entorno del animaldurante el crecimiento. En 2005, William T.Greenough, de la Universidad de Illinois enUrbana-Champaign, demostró que las ratasque crecían en un entorno de estimulación(con acceso a múltiples juguetes e interacciónsocial) presentaban fibras más mielinizadas enel cuerpo calloso, un haz apretado de axones
que pone en conexión los dos hemisferioscerebrales.
Los resultados parecen concordar con los es-tudios que ha llevado a cabo Vincent J. Schmi-thorst, del Hospital Infantil de Cincinnati,mediante la técnica del tensor de difusión. Secomparó la sustancia blanca de niños de edadescomprendidas entre 5 y 18 años. Se halló unacorrelación directa entre el desarrollo de laestructura de la sustancia blanca y el cocienteintelectual. Otras investigaciones ponen demanifiesto que los niños desatendidos poseenhasta un 17 por ciento menos de sustancia
blanca en el cuerpo calloso. P H
I L I P S H E A L T H C A R E ( a p a r a t o ) ; Z E P H Y R / P H O T O R E S E A R C H E R S ,
I N C .
( i m
a g e n e n c o l o r ) ; J O E G A L L I V A N U l s t e r M e d i c a l a n d S u r g i c a l S p e c i a l i s t s (
i m a g e n e n b l a n c o y n e g r o )
Frente
Parte posterior
2. LA RESONANCIA MAGNETI-CA al uso ( arriba) ofrece una
representación aproximada de
la sustancia blanca ( zonas gris
oscuro, abajo a la izquierda).
Una nueva técnica de resonan-
cia magnética, la tractografía
por tensor de difusión, pone de
relieve la estructura con mayor
detalle ( abajo, derecha): el
color rojo y el amarillo indican
una mayor organización de la
sustancia blanca.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 60/9958 INVESTIGACION Y CIENCIA, mayo, 2008
Función cerebralEsos hallazgos indican que la experiencia influyeen la mielinización y que la mielina acumuladarefuerza el aprendizaje y mejora las destrezas.
Admitido eso, hemos de dar con una explicaciónverosímil sobre el modo en que la abundanciade mielina estimula las funciones intelectuales,
así como una prueba directa de que su defectoaltera las capacidades mentales.En nuestro laboratorio hemos descrito varios
mecanismos mediante los cuales la experienciainfluye en la mielinización. En el cerebro, lasneuronas descargan impulsos a lo largo de losaxones. Si se hacen crecer neuronas de feto deratón en placas de cultivo provistas de electro-dos de platino, se pueden imponer patrones deimpulsos en las mismas. Mediante ese método,descubrimos que los impulsos provocados re-gulaban genes específicos en las neuronas. Unode ellos correspondía a L1-CAM, una proteína
“pegajosa” que resulta esencial para adherirla primera capa que ciñe al axón cuando lamielina empieza a acumularse.
Observamos también que la neuroglía “acu-sa” los impulsos descargados a lo largo delos axones y que el tráfico detectado altera elgrado de mielinización; un tipo de célula glial,el astrocito, libera un factor químico cuando
nota un mayor flujo de impulsos. Ese códigoquímico estimula en los oligodendrocitos lasíntesis de mielina. Los niños que contraenla enfermedad de Alexander, un trastorno letalque provoca retraso mental y alteración de lamielina, poseen una mutación en un gen delastrocito.
Para mejor expresar la relación de la sustan-cia blanca con la capacidad cognitiva podemosvalernos de una analogía. A la manera de In-ternet, diríase que la información del cerebrodebería transmitirse lo más rápido posible. Paraello, todos los axones tendrían que hallarsemielinizados por igual. Ahora bien, en neu-rología, más veloz no significa necesariamentemejor. La información debe recorrer distanciasenormes entre los centros cerebrales. Cadacentro desempeña una función determinada yenvía sus datos a otra región para que realicela etapa siguiente del análisis.
En el aprendizaje de una actividad compleja(tocar el piano, por ejemplo), los mensajesvan y vienen entre numerosas regiones; unainformación que fluye a través de distintasdistancias ha de llegar de forma simultáneaa un lugar y en un instante precisos. Paraconseguir tal coordinación son necesarios losretrasos. Si todos los axones transmitieran in-
FORMACION DE LA MIELINA
ENFERMEDADES
CONOCIDAS
Se sabe que la deficiencia o
ausencia de mielina en el sistema
nervioso central causa diversas
enfermedades degenerativas,
entre ellas:
ESCLEROSIS MULTIPLE
(degeneración del sistemanervioso central)
PARALISIS CEREBRAL
(disfunción grave del controlmuscular)
ENFERMEDAD DE ALEXANDER
(destrucción del sistemanervioso central)
Los axones largos aislados conmielina transportan señales entre
neuronas a mayor velocidad que los
axones sin mielinizar. Los oligo-
dendrocitos fabrican la membrana
grasa y envuelven el axón con capas
concéntr icas, de 10 a 150. Varios
factores estimulan la mielinización.
Los astrocitos “acusan” las señales
que circulan por los axones y trans-
miten los mensajes químicos a los
oligodendrocitos. Abajo, una imagen
de microscopio electrónico muestra la
mielinización de un axón ( rojo).
OligodendrocitoAstrocito
Vaina de mielina
Axón
Nódulode Ranvier
Neurona
Oligodendrocito
Axón
V A R I S H A S H U K L A ( m i c r o g r a f í a ) ; A L A N H O O F R I N G N I H M e d i c a l A r t s ( i l u s t r a c i ó n )
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 61/99
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 62/9960 INVESTIGACION Y CIENCIA, mayo, 2008
ciales de mielinización tiene consecuencias depor vida.
Existen numerosas pruebas de que la es-quizofrenia corresponde a un trastorno deldesarrollo relacionado con una conectividaddeficiente. Los médicos siempre se han pre-guntado por qué esa enfermedad aparece tí-
picamente durante la adolescencia. Aconteceque, en ese período, alcanza su máximo lamielinización del prosencéfalo. Aquí las neu-ronas se han establecido hace tiempo, perola mielina cambia, lo que despierta sospechassobre su influencia.
Además, alrededor de una veintena de estu-dios realizados en los últimos años concluyenque la sustancia blanca se halla alterada (poseemenos oligodendrocitos de lo normal) en variasregiones del cerebro esquizofrénico. Y cuandoempezaron a aplicarse los microchips de ADN(técnica diagnóstica basada en el análisis simul-
táneo de miles de genes), los investigadores sesorprendieron al descubrir que un gran númerode los genes mutados y ligados a la esquizofre-nia participaban en la mielinización.
Se han detectado también anomalías en lasustancia blanca de las personas afectadas porel trastorno de déficit de atención con hiperac-tividad, trastorno bipolar, trastornos del len-guaje, deterioro cognitivo asociado a la edad,enfermedad de Alzheimer y mitomanía.
Por supuesto, el desarrollo insuficiente o de-bilitamiento de la mielina podría ser resultadode la señalización deficiente entre neuronas, no
su causa. Después de todo, la función cognitivadepende de la comunicación neuronal a travésde las sinapsis en la sustancia gris de la corteza,donde operan la mayoría de las sustancias psi-coactivas. Pero la comunicación óptima entrelas regiones cerebrales, esencial para un buenfuncionamiento intelectual, se asienta sobrela sustancia blanca que las conecta. En 2007,Gabriel Corfas, del Hospital Infantil de Bos-
ton, demostró que la destrucción de los genesde los oligodendrocitos (no de las neuronas) deratones acarreaba alteraciones notables en la
conducta, semejantes a la esquizofrenia. Y losefectos en el comportamiento guardan relacióncon uno de los mismos genes, el de la neurre-gulina, que aparece alterado en la biopsia decerebros esquizofrénicos.
La pregunta del huevo o la gallina sobre silos cambios mielínicos alteran las neuronas osi son los cambios en la estructura neuronal losque alteran la mielina se resolverá de la formaacostumbrada en ese tipo de dilemas: medianteel reconocimiento de que existe una estrechainterdependencia entre ambos fenómenos. Lamielinización de las células gliales responde a
modificaciones en el diámetro del axón, pero laspropias células regulan también dicho diámetroy determinan si un axón sobrevivirá o no. Porbotón de muestra, en la esclerosis múltiple, losaxones y las neuronas mueren tras la desmieli-nización desencadenada por la enfermedad.
Reestructuración en edad avanzada A medida que va madurando nuestro cerebro,de la infancia a la edad adulta, mejora la pre-cisión de las conexiones entre las regiones. Lacalidad de las conexiones podría determinar lacalidad del aprendizaje de ciertas habilidades
a determinad edad.Los estudios de Ullén sobre pianistas ex-
pertos revelaron que la sustancia blanca estabamás desarrollada en el cerebro de los individuosque habían empezado a tocar el instrumento auna edad más temprana. En las personas queaprendieron después de la adolescencia, la for-mación de sustancia blanca había aumentadosólo en el prosencéfalo, la región que todavíaexperimentaba mielinización.
De ese fenómeno cabe inferir que el ais-lamiento de las fibras nerviosas determina,en cierta medida, “ventanas” de edad para el
aprendizaje de nuevas destrezas: intervalos de I N
T I S T .
C L A I R G e t t y I m a g e s
DESARROLLO DEL CEREBRO
3. LOS PIANISTAS PROFESIO-
NALES presentan en ciertas
regiones mayor mieliniza-
ción que las personas legas,
lo que da pie a suponer la
influencia de esa vaina en
el aprendizaje. Además,
la sustancia blanca es más
extensa en los pianistas que
empiezan a practicar antes
de los once años que en los
que inician su formación du-
rante la adolescencia o más
tarde. Cabe, pues, conjeturar
que existen períodos críticos
para la adquisición de des-
trezas superiores.
Cuando nacemos, el número deaxones recubiertos de mielina esbajo. En su mayoría, la adquieren conel tiempo, desde la parte posteriorde la corteza cerebral hacia la partedelantera. En la secuencia que aquí
se muestra, realizada por PaulThompson, de la Universidad deCalifornia en Los Angeles, se ilustrala reducción de las neuronas y elaumento de la mielina. Las áreas de-dicadas a funciones básicas, como lavisión ( parte poster ior), se completanantes de los cuatro años de edad; lesiguen las áreas del lenguaje y, porfin, del autocontrol (frente). 4 años
Frente
Parteposterior
M a y o r p r o p o r c i ó n
d e s u s t a n c i a b l a n c a
M a y o r p r o p o r c i ó n
d e s u s t a n c i a g r i s
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 63/99INVESTIGACION Y CIENCIA, mayo, 2008 61
oportunidad o períodos críticos durante loscuales se adquieren, o se aprenden con mayorfacilidad, ciertas habilidades. Si estudiamos un
idioma después de la pubertad, tenderemosa hablarlo con el acento de nuestra lenguamaterna; si lo aprendemos durante la infancia,lo hablaremos como un nativo. Se debe esadisparidad a los circuitos cerebrales que de-tectan el habla, que se reestructuran según lossonidos que escuchamos sólo de niños.
Con el tiempo, perdemos las conexiones quenos permitirían distinguir los sonidos peculiaresde un idioma extranjero. En términos evoluti-vos, después de los primeros años de vida, elcerebro carece de motivos para mantener lasconexiones que sirven para detectar sonidos que
nunca ha oído. Esos períodos críticos explicantambién que los niños se recuperen mejor quelos adultos de una lesión cerebral.
En la mielina se han identificado proteínasespecíficas que evitan que los axones se ramifi-quen y establezcan nuevas conexiones. MartinE. Schwab, de la Universidad de Zúrich, des-cribió la primera entre las diversas proteínas demielina que provocan que las nuevas ramifica-ciones de los axones se atrofien de forma instan-tánea con el contacto. Se trataba de la proteínaNogo (hoy, Nogo-A). Si se la neutraliza, losanimales con una lesión en la médula espinal
reparan las conexiones dañadas y recuperan lasensibilidad y el movimiento. En fecha recien-te, Stephen M. Strittmatter, de la Universidadde Yale, descubrió que el período crítico paraestablecer, vía experiencia, conexiones cerebralesse reiniciaba con la inhibición de las señales deNogo. En ratones viejos, la destrucción de laproteína provocaba la reestructuración de lasconexiones para la visión.
Si el proceso de mielinización puede darsepor concluido a los 20 años de edad de lapersona, ¿mantiene el cerebro su plasticidad alo largo de la edad mediana y avanzada? Los
estudios demuestran que el ejercicio mental en
una persona de 60, 70 y 80 años retrasa la apa-rición de la enfermedad de Alzheimer. Y ¿cómoaumenta la sabiduría de una persona a lo largo
de su vida? Son preguntas sin respuesta todavía.Nadie ha abordado las modificaciones de lamielina en animales viejos. Otros experimentosindican que la mielinización continúa hasta los50 años, pero a un ritmo más lento.
Sin duda, la sustancia blanca desempeña unafunción fundamental en los tipos de apren-dizaje que exigen un ejercicio prolongado yrepetición, así como la integración generalizadaentre regiones distantes de la corteza cerebral.
A los niños cuyo cerebro todavía se halla en fasede mielinización les resulta más fácil adquirirnuevas habilidades que a sus abuelos. Para di-
versas capacidades intelectuales y atléticas, si unindividuo desea alcanzar un nivel elevado debeempezar a ejercitarlas a una edad temprana. Elcerebro que poseemos hoy lo construimos alinteraccionar con el entorno cuando estábamoscreciendo y nuestras conexiones neuronalesestaban todavía mielinizándose. Por muchoque cultivemos una destreza, nunca podremosconvertirnos en un pianista, jugador de ajedrezo tenista de fama internacional, a menos quehayamos empezado de niños.
Las personas mayores pueden seguir apren-diendo. Por supuesto. Pero a través de un tipo
distinto de aprendizaje, basado en la interven-ción directa de las sinapsis. Dado que el en-trenamiento intensivo favorece la excitación delas neuronas, existe la posibilidad de que estadescarga neuronal estimule la mielinización.
Quizás algún día, cuando sepamos cuándoy por qué se forma la sustancia blanca, sedesarrollarán tratamientos para modificarla,incluso cuando envejece. Para ello, necesitamosidentificar la señal que ordena a un oligoden-drocito la mielinización de un axón y no deotro vecino. Esa información clave, oculta enlas profundidades de la sustancia gris, espera
salir a la luz con las futuras investigaciones. P A
U L T H O M P S O N U . C . L .
A .
( i m á g e n e s d e l a s u s t a n c i a g r i s )
8 años 12 años 16 años 20 años
MYELINATION: AN OVERLOOKED
MECHANISM OF SYNAPTIC
PLASTICITY? R. Douglas Fieldsen Neuroscientist , vol. 11, n.o 5,págs. 528-531; 2005.
EXTENSIVE PIANO PRACTIC-
ING HAS REGIONALLY SPECIFIC
EFFECTS ON WHITE MATTER DE-VELOPMENT. Sara L. Bengtssonet al. en Nature Neuroscience,vol. 8, n.o 9, págs. 1148-1150;septiembre 2005.
ASTROCYTES PROMOTE MYELINA-
TION IN RESPONSE TO ELECTRICAL
IMPULSES. T. Ishibashi et al. enNeuron, vol. 49, págs. 823-832;2006.
HOW TO GROW A SUPER ATHLETE.D. Coyle en Play Magazine (New York Times Sports), 4 demarzo, 2007.
Bibliografíacomplementaria
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 64/99
Scott Aaronson
Las computadoras cuánticas podrían ser velocísimasen tareas muy concretas. En la mayoría de los problemas
apenas descollarían sobre los ordenadores de hoy
LOS
LIMITES DE LA
omputacComputac
62 INVESTIGACION Y CIENCIA, mayo, 2008
I L U
S T R A C I O N E S D E D U Š A N P
E T R I C ˇ I C ´
Un error frecuente —recuérdese, por ejemplo, Te Economist de 15 de febrero de 2007— consiste en afirmar que, en teoría, las computadoras cuánticas podrían resolver rápidamente una colección de problemas
de singular dificultad, los llamados problemas NP-completos, algo que hastael momento no se puede hacer ni aun con los ordenadores más potentes. Sepresumía que las computadoras cuánticas podrían lograr tal hazaña porquepermitirían el procesamiento simultáneo de todas las posibles soluciones.
Si en verdad fuese posible construir semejante computadora mágica, capazde resolver un problema NP-completo en un abrir y cerrar de ojos, el mundo
se convertiría en un lugar muy diferente. Podríamos, por ejemplo, ordenarlea nuestra mágica computadora que buscase posibles regularidades en las fluc-tuaciones de los mercados de valores, en las series de datos meteorológicos oen la actividad cerebral. A diferencia de los ordenadores actuales, cuya pro-gramación exige una perfecta comprensión de los problemas, la elucidaciónde tales regularidades sería enteramente rutinaria; no exigiría un conocimientodetallado de la sustancia del problema.
La computadora mágica podría, asimismo, automatizar la creatividad ma-temática. Podríamos pedirle a nuestra computadora que examinase todas lasposibles demostraciones o refutaciones de un problema sin resolver que con-tuvieran hasta, sea por caso, mil millones de símbolos. (Si una demostraciónse extendiese más, ¿quién iba a leerla?)
Si las computadoras cuánticas prometieran estas fuerzas matemáticas cuasi-
divinas, su aparición sería, a buen seguro, coetánea de los viajes por el hipe-respacio y los escudos antigravitatorios. Pero si bien es cierto que no debemosaceptar las habituales hipérboles, a mi entender no es menos erróneo desdeñarla computación cuántica como pura ciencia ficción. Lo que se ha de hacer esaveriguar dónde se encuentran sus límites.
En los 26 años que han transcurrido desde que Richard Feynman propu-so la idea de computación cuántica, las ciencias del cómputo han realizadoenormes progresos en la averiguación de los tipos de problemas donde lacomputación cuántica sería eficaz. De acuerdo con nuestros conocimientosactuales, sí proporcionarían aceleraciones impresionantes en unos cuantosproblemas concretos: por ejemplo, para descifrar los códigos criptográficoshoy ampliamente utilizados en las transacciones monetarias por Internet. Enel caso de otros problemas, sin embargo, como los de jugar al ajedrez, las
reservas de plaza en las líneas aéreas o la demostración automática de teore-
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 65/99
ón cuánticaión cuántica
INVESTIGACION Y CIENCIA, mayo, 2008 63
mas, las computadoras cuánticas sufrirían demuchas de las limitaciones algorítmicas quehoy padecen los ordenadores clásicos.
Estas limitaciones son completamenteindependientes de las dificultades prácticas
que entraña la construcción de computadorascuánticas, como la decoherencia (interacciónindeseada entre la computadora cuántica y suentorno, que introduce errores). En particular,las limitaciones matemáticas de lo programa-ble en un ordenador persistirían aunque sepudiera construir una computadora cuánticaque no sufriese en absoluto los efectos de ladecoherencia.
Difícil, más difícil todavía, dificilísimo¿Cómo es posible que una hipotética compu-tadora cuántica pueda proporcionar grandes
aceleraciones en determinados problemas, asíel descifrado de códigos, y no pueda hacerlo,en cambio, en otros? ¿Acaso un ordenadorrápido no es siempre rápido? Pues no, y laexplicación nos lleva directamente al meollointelectual de la ciencia de la computación. Enesta ciencia, lo más importante de un proble-ma es la rapidez con que aumenta el tiemporequerido para resolverlo conforme crece sutamaño. El tiempo se mide por el númerode pasos elementales necesarios para que elalgoritmo llegue a una solución.
Si efectuamos una multiplicación por el mé-
todo que aprendimos en la escuela elemental,el cálculo del producto de dos números de n cifras requiere una cantidad de tiempo quecrece con n2, el cuadrado del número de dígitos(el tiempo empleado es un “polinomio en n).Pero la descomposición de un número en susfactores primos, utilizando incluso los métodosmás avanzados conocidos, exige un tiempo queaumenta en función exponencial del númerode dígitos (más en concreto, como 2 elevadoa la raíz cúbica del número n). La descom-posición en factores constituye un problemaintrínsecamente más difícil que la multiplica-
ción, y cuando se llega a millares de dígitos,
tal diferencia adquiere una importancia muchomayor que la diferencia entre un Commodore64 y un superordenador.
El tipo de problemas que los ordenadorespueden resolver en tiempos de duración ra-
zonable, incluso para valores grandes de n,son aquellos para los que existe un algoritmoque requiere un número de pasos que crececomo una potencia de n con exponente fijo,como n, o n2 o n2,5. De tales algoritmos sedice que son “eficientes”. Los problemas reso-lubles mediante algoritmos eficientes se diceque pertenecen a la clase de complejidad P,abreviatura de “tiempo polinómico”.
He aquí un ejemplo sencillo de problemade clase P: Dado un mapa de carreteras, ¿esalcanzable cada ciudad desde otra ciudad cual-quiera? P contiene asimismo problemas cuyas
soluciones eficientes no son tan obvias. Seapor caso: Dado un número entero, ¿es primo(como el 13) o es compuesto (como el 12)?Dada una lista de hombres y mujeres quedesean casarse unos con otros, ¿será posibleasociar a cada persona con una que quierecasarse con ella?
Supongamos, en cambio, que se nos pro-porcionan las dimensiones de una serie decajas y que deseamos encajarlas en el maleterodel coche. O que se nos entrega un mapa ydeseamos colorear cada región de rojo, de azulo de verde, de modo que no haya dos regiones
fronterizas del mismo color. O que se disponede una lista de islas conectadas por puentesy deseamos un recorrido de ida y vuelta quevisite cada isla exactamente una vez. Aunque seconocen para estos problemas algoritmos queson algo mejores que el puro tanteo de todaslas posibles soluciones, no se conoce ningunoque sea fundamentalmente mejor. Todos losalgoritmos conocidos necesitarán de tiemposde ejecución que crecerán exponencialmentecon el tamaño del problema.
Resulta que los tres problemas que acabode mencionar comparten una propiedad muy
interesante: en el fondo, todos son “el mismo
CONCEPTOS BASICOS
Las computadoras
cuánticas se valdrían de
las extrañas reglas de la
mecánica cuántica para
procesar información de
maneras que resultarían
imposibles en un ordena-
dor común.
Podrían resolver ciertos
problemas, como la
factorización de númerosenteros, a velocidades
vertiginosas en compa-
ración con lo que puede
hacerse, en el mejor de los
casos, con ordenadores
clásicos. Pero los análisis
llevan a pensar que en la
mayoría de los proble-
mas las computadoras
cuánticas sólo superarían
ligeramente a las máqui-
nas ordinarias.
Raras alteraciones delas leyes físicas podrían
consentir la construc-
ción de computadoras
que resolviesen amplias
categorías de problemas
difíciles. Pero alteraciones
así no parecen verosími-
les. La imposibilidad de
resolver estos problemas
en el mundo real tal vez
debería ser considerada
un principio fundamental
de la física.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 66/9964 INVESTIGACION Y CIENCIA, mayo, 2008
problema”, en el sentido de que, de existirun algoritmo eficiente para uno cualquierade ellos, se dispondría de algoritmos eficien-tes para los demás. Stephen A. Cook, de laUniversidad de Toronto, Richard Karp, dela Universidad de California en Berkeley, yLeonid Levin, ahora en la de Boston, llegarona esta notable conclusión hace más de 30 años,fechas en las que desarrollaron la teoría deNP-completitud.
NP es abreviatura de “tiempo polinómi-
co no determinista”. No se preocupe por elsignificado de esa expresión. En esencia, elconjunto NP está constituido por la clase deproblemas para los cuales, una vez halladauna solución, se puede verificar en tiempopolinómico (algo así como n2 o similar) quetal solución es correcta, a pesar incluso deque tal solución resulte difícil de hallar. Si senos da un mapa que contiene miles de islasy puentes, es posible que se necesiten añospara hallar un circuito que visite cada islauna sola vez; ahora bien, si nos es presentadoun circuito concreto, no es difícil saber si ese
circuito constituye una solución. Cuando un
problema goza de esta propiedad, se dice quepertenece a NP. La clase NP abarca un enor-me número de problemas de interés práctico.Cabe señalar que todos los problemas P sonasimismo problemas NP; expresado de otromodo, la clase P está contenida en la claseNP. Pues si es posible resolver un problema
rápidamente, la solución obtenida tambiénpodrá verificarse con presteza.Los problemas NP-comple-
tos son, en esencia, los pro-blemas de máxima dificultad
de la clase NP. Constituyenlos problemas que poseen la
propiedad enunciada por Cook,Karp y Levin: de hallarse un algo-
ritmo eficiente para uno cualquierade ellos, podría ser adaptado para
resolver los demás problemas NP.El hallazgo de un algoritmo eficiente
para un problema NP-completo entra-ñaría que la idea que en este momentotienen los científicos de la computación de
las clases P, NP y NP-completa es totalmen-te errónea, pues tal hallazgo supondría quetodos los problemas NP (incluidos los NP-completos) son en realidad problemas de claseP. Dicho con otras palabras, la clase P sería lamisma que la clase NP, P = NP.
¿Existe realmente tal algoritmo? ¿Es P igual aNP? Tal es, literalmente, la pregunta del millónde dólares: el Instituto Clay de Matemáticas, enCambridge, Massachusetts, ofrece un premio
de un millón de dólares por su elucidación.En el medio siglo transcurrido desde quese formuló el problema, no se ha descubier-to un algoritmo eficiente para un problema NP-completo. En consecuencia, los expertosen computación de hoy están de acuerdo enque P no es igual que NP, P ≠ NP, aunquetodavía nuestro saber no alcance para com-prender por qué es así, o para demostrarloy dar a esa aserción carácter de teorema.
Lo que la computación cuánticapuede hacer
Si se concede que P ≠ NP, queda tan sólo unaesperanza para resolver problemas NP-comple-tos en tiempo polinómico, a saber, generalizarlo que entendemos por “computadora”. Pare-ce, a primera vista, que la mecánica cuánticapodría suministrarnos precisamente el tipo derecursos necesarios. La mecánica cuántica haceposible el almacenamiento y manipulaciónde una vasta cantidad de información en losestados de un número no muy grande de par-tículas. Para comprender cómo se puede logrartal cosa, imagine que tenemos 1000 partículasy que cada partícula, al ser medida, se nos
presenta con espín hacia arriba o hacia abajo.
Computación cuántica:Los físicos están persiguiendo con tenacidad la construcción de computadoras cuánticas,
que sacarían provecho de la mecánica cuántica y sus peculiaridades para lograr una
eficiencia mayor que la conseguida por los ordenadores en uso.
1 La característica fundamental de una computadora cuántica es que no utiliza bits,
sino qubits. Un qubit puede quedar plasmado en una par tícula,un electrón por ejemplo, con “espín hacia arriba” (en azul ) que
representa un 1 o “espín hacia abajo” (en rojo) que representa
un 0, y estados cuánticos —“superposiciones”— que com-
portan simultáneamente un espín arriba y un espín abajo
(en amarillo).
2 Un pequeño número de partículas en estados de
superposición puede incluir una cantidad de informa-
ción enorme: un mero conjunto de 1000 partículas
puede encontrarse en una superposición que re-
presente todos los números desde 1 hasta 21000
(aproximadamente, 10300). Una computadora
cuántica podría manejar en paralelo todos
esos números, haciendo incidir impulsos deláser sobre las partículas.
3 Sin embargo, una vez concluido
el cómputo, al medir los estados de
las partículas, todas las versiones
de los 10300 estados paralelos
desaparecen, excepto una, que
resulta seleccionada al azar.
No obstante, una manipu-
lación inteligente de las
partículas permitiría
resolver muy rápidamen-
te la descomposición factorial de
números grandes y problemas similares.
do
proKarp
ritmode ellos
reso verEl halla
para un prñaría que latienen los cien
las clases P, NPte errónea, puesto os os pro ecompletos) son eP. Dicho con otrmisma que la cla
¿Existe realmenNP? Tal es, literalde dólares: el InstiCambridge, Mass
de un millón de
acia abajo” (en rojo que representa
“superposiciones”— que com-
n espín arri a y un espín a ajo
e partículas en estados de
ir una cantidad de informa-
junto de 1000 partículas
superposición que re-
s desde 1 hasta 21000
. Una computadora
n para e o to os
cidir impulsos de
stados de
rsiones
los
, que
r.
-
rial de
mas simi ares.
1
2
3
R E S U L T A D O :
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 67/99
Para nuestros propósitos, es irrelevante lo quesignifique que el espín de la partícula apunteen uno u otro sentido; lo único que importaes que la partícula posee una propiedad que,al ser medida, ofrece uno de dos valores.
Si hemos de describir el estado cuántico deesta colección de partículas, deberemos espe-
cificar un número para cada posible resulta-do de su medición. Tales números reciben elnombre de “amplitudes de probabilidad” delos resultados posibles y guardan una relacióndeterminada con la probabilidad de cada uno.Mas, a diferencia de las probabilidades, lasamplitudes cuánticas pueden tomar valorespositivos o negativos (más aún, sus valores sonnúmeros complejos). Por ejemplo, es necesariauna amplitud para describir la posibilidad deque el espín de todo el millar de partículas estéorientado hacia arriba, otra amplitud para laposibilidad de que el espín de las 500 primeras
partículas apunte hacia arriba, y el de las otras500, hacia abajo, y así sucesivamente. Existe untotal de 21000 posibles resultados, o sea, unos10300 distintos valores; por eso, su expresiónrequiere números tan grandes: ¡mayores queel número de partículas del universo visible!La terminología técnica para esta situación esque las 1000 partículas se encuentran en unasuperposición de esos 10300 estados.
En otras palabras: podríamos almacenarsimultáneamente 10300 números en nuestrocolectivo de 1000 partículas. Seguidamen-te, efectuando ciertas operaciones sobre esas
partículas y sobre otras auxiliares —mediantesecuencias de impulsos de láser o de ondas deradio— podríamos ejecutar un algoritmo quetransformase al mismo tiempo la totalidadde los 10300 números (cada uno de los cualesrepresenta una posible solución). Si una vezefectuada esta operación nos fuera posible ob-servar con precisión cada uno de los estadoscuánticos finales de las partículas, tendríamosuna genuina computadora mágica: se habríancomprobado 10300 posibles soluciones paraun problema; y al final, podríamos discernirrápidamente cuál es la correcta.
Pero existe una dificultad. Según dictanlas reglas de la mecánica cuántica, en la me-dición de las partículas (operación necesariapara observar su estado final) se seleccionaráal azar una de las 10300 posibilidades, e inme-diatamente todas las demás desaparecerán. Elresultado no sería mejor que si utilizásemosun ordenador clásico y ensayásemos una hipo-tética solución elegida al azar: en uno y otrocaso, nuestra información se reduciría a esahipotética solución.
Por fortuna, quedan todavía teclas que to-car para extraer alguna ventaja de nuestras
partículas cuánticas. Las amplitudes pueden
cancelarse mutuamente cuando las que sonpositivas se combinan con las negativas, fenó-meno conocido como interferencia destructiva. Así pues, un buen algoritmo cuántico asegu-raría que las sendas computacionales condu-centes a respuestas erróneas se cancelasen deese modo. Debería también garantizar que las
conducentes a soluciones correctas tuvierantodas ellas amplitudes del mismo signo, lo queresultaría en una interferencia constructiva yreforzaría, en consecuencia, la probabilidad deencontrarlas cuando se midiesen las partículasal final del proceso.
¿Para qué clase de problemas computacio-nales podemos organizar esta clase de interfe-rencia, utilizando un menor número de pasosque los necesarios para resolver el problemapor medios clásicos?
El primer ejemplo de algoritmo cuánticocapaz de acelerar de forma impresionante la so-
La buena noticiaSi una computadora cuántica ideal y de gran tamaño sufriese las mismas limitaciones
que afectan a los ordenadores clásicos, ¿deberían los físicos que tratan de construir
computadoras cuánticas —labor de dificultad extraordinaria, incluso para las más ru-
dimentarias— recoger sus trastos e irse a casa? Estoy convencido de que no, por cuatro
razones.
Si las computadoras cuánticas llegan a ser realidad algún día, su aplicación básica no
consistirá en descifrar códigos, sino en algo, que de puro evidente, apenas se men-
ciona: la simulación de fenómenos cuánticos. Se trata de un problema fundamental
en química, en nanotecnia y en otros campos; tan importante, que se han concedido
premios Nobel incluso por progresos parciales.
Conforme los transistores de los microchips se aproximan a dimensiones atómicas, es
probable que las ideas procedentes de la computación cuántica adquieran relevancia
para la computación clásica.
Los experimentos de computación cuántica concentran la atención sobre las más
desconcertantes peculiaridades de la mecánica cuántica. Abrigo la esperanza de
que cuantos menos de estos enigmas
tengamos que ocultar bajo la alfombra,
más habrán de ser quienes se vean
obligados a comprenderlos.
Se puede considerar que la
computación cuántica sería la
verificación más estricta a la que
nunca haya sido sometida la
propia mecánica cuántica. A mi
modo de ver, el más apasionante
de los posibles resultados de la
investigación en computación
cuántica consistiría en descubrir una
razón fundamental por la que las
computadoras cuánticas no fueran
posibles. Un fracaso de tal magnitud
volvería del revés la imagen que nos
hemos formado del mundo físico. En
cambio, el éxito en construirlas se
limitaría meramente a confirmarla.
tación cuántica concentran la atención sobre las más
es e a mecánica cuántica. A rigo a esperanza e
enigmas
a alfombra,
e vean
la
que
mi
ante
la
n
rir una
e las
fueran
agnitud
ue n s
ísico. En
rlas se
rmarla.
INVESTIGACION Y CIENCIA, mayo, 2008 65
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 68/9966 INVESTIGACION Y CIENCIA, mayo, 2008
lución de un problema práctico fue descubiertopor Peter Shor en 1994. Shor demostró queuna computadora cuántica podría factorizar unnúmero de n dígitos en una secuencia de pasoscuya longitud creciese solamente como n2, esdecir, en tiempo polinómico. Según hemosmencionado, en el mejor de los algoritmos
conocidos para computadoras clásicas el nú-mero de pasos crece exponencialmente.
Cajas negras Así pues, al menos para la descomposiciónen factores, aplicando métodos cuánticos sepuede lograr una aceleración exponencial sobrelos algoritmos clásicos conocidos. Pero ni estádemostrado, ni parece que el problema de ladescomposición en factores sea NP-completo,pese a que muchos crean que lo es. Shor,para construir su algoritmo, se valió de cier-tas propiedades matemáticas de los números
compuestos y de sus divisores; resultaban par-ticularmente idóneas para producir el tipode interferencia constructiva o destructivadel que puede sacar partido un ordenadorcuántico. Los problemas NP-completos noparecen compartir estas propiedades especia-les. Hasta la fecha, sólo se han hallado unospocos algoritmos cuánticos que, al parecer,podrían permitir aceleraciones que rebajasenen ciertos problemas los tiempos, llevándolosde exponenciales a potenciales.
La cuestión, pues, sigue abierta. ¿Existe unalgoritmo cuántico eficiente, capaz de resolver
problemas NP-completos? Aunque se ha pues-to en ello gran empeño, no se ha descubiertoningún algoritmo de ese tipo, si bien —nopuede sorprender— tampoco se ha demostradoque no exista. Después de todo, ni siquierapodemos demostrar que no existe un algoritmoclásico de tiempo polinómico capaz de resolverproblemas NP-completos.
Lo que sí podemos afirmar es que un al-goritmo cuántico capaz de resolver eficiente-mente problemas NP-completos tendría quesacar partido, como el algoritmo de Shor,de la estructura del problema, pero debería
hacerlo por métodos que caerían mucho másallá de las técnicas disponibles. No es posiblelograr una aceleración exponencial tratandolos problemas como si fuesen “cajas negras”que careciesen de estructura, consistentes enun número exponencial de soluciones quehabría que verificar en paralelo. Sí se podríaconseguir, no obstante, una cierta aceleracióncon este enfoque de caja negra; los expertosen computación han determinado exactamen-te cuánta y cuáles son sus limitaciones. Elalgoritmo que produce la aceleración es elsegundo en importancia de los principales
algoritmos cuánticos.
Capacidades y limitacionesde los ordenadores clásicos
En las ciencias de cómputo, los problemas se categorizan de acuerdo con el número de
pasos computacionales que exigiría la resolución de un ejemplo grande del
problema utilizando el mejor algoritmo conocido. Los problemas se agrupan, según su
dificultad, en amplias clases, no mutuamente excluyentes. Adjuntamos tres de las prin-cipales. Contrariamente a lo que se proclama sin fundamento, no
está demostrado que las computadoras cuánticas puedan
resolver la clase de problemas muy difíciles a los que se
clasifica como NP-completos.
PROBLEMAS P: Problemas que los ordenado-
res pueden resolver en tiempo polinómico
Ejemplo: Dado un mapa en el que figuran n
ciudades, ¿se podrá ir desde una ciudad hasta
cualquier otra? En el caso de un valor grande
de n, el número de pasos que necesita el ordenador
para resolver el problema aumenta en proporción a n2, un
polinomio. Dado que los polinomios crecen a velocidad rela-
tivamente lenta cuando n aumenta, los ordenadores pueden resolver
problemas muy grandes de tipo P en unos tiempos razonables.
PROBLEMAS NP: Problemas cuya
solución es fácil de comprobar
Ejemplo: Se sabe que un cierto número de n dígitos es el pro-
ducto de dos números primos grandes, y deseamos hallar esos
dos factores primos. Si se nos proporcionan los factores,
podemos comprobar —multiplicándolos— que son la
solución. El tiempo consumido en la comprobación es
polinómico.
Todo problema P es también un problema NP, por
lo que la clase NP integra en sí a la clase P. Se conje-
tura que el problema de la factorización queda fuerade la clase P, porque no se conoce
ningún algoritmo mediante el cual
un ordenador común pueda resol-
verlo en un número polinómico de
pasos. Antes bien, el número de
pasos aumenta exponencialmen-
te al aumentar n.
PROBLEMAS NP-COMPLETOS: Una solución eficiente
para uno de ellos proporcionaría una solución eficiente
para todos los problemas NP
Ejemplo: Dado un mapa, ¿será posible colorearlo con sólo tres
tintas, sin que haya territorios contiguos del mismo color? Si
se dispusiera de un algoritmo que resolviera eficientementeeste problema, podría adaptarse el algoritmo de marras para
resolver cualquier otro problema NP (como el problema de
descomposición factorial, recién mencionado, o la averigua-
ción de si se pueden encajar n cajas de diversos tamaños
en un cajón de dimensiones
conocidas). En este sentido,
los problemas NP-completos
constituyen los problemas
NP de máxima dificultad. No
se conoce ningún algoritmo
capaz de resolver eficiente-
mente un problema NP.
, ,ipales. Contrariamen
está demost
resolver la
clasifica
PR
re
E
de n, el
par resolver
polino io. Dado
tivamente lenta cuando n
pro emas muy gran es e
PROBL roblemas cuya
comprobar
mero de dígitos es el pro-
ndes, y de eamos hallar esos
porcionan os actores,
ándolos— que son la
la comprobación es
n pro ema NP, por
l clase P. Se conje-
i ación que a uera
al
l-
-
EMAS NP:
66
para odos los problemas
Ejemp o: Da o un mapa, ¿ser
tintas, sin que haya territorios c
se dispusiera de un lgoritmo queste pro ema, podr a adaptars
resolv r cualquier tro proble
desc mposición actorial, reci
ci e si se pu en encajar
¡Vaya, es correcto!
L o s f a c t o r e s p r i m o s d e 7 .2 7 9 .6 9 0 .8 6 9 .6 3 1
s o n . . . . . . . . . . . . . . . .2 .4 7 2 .5 1 7 y 2 .9 4 4 .2 4 3
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 69/99INVESTIGACION Y CIENCIA, mayo, 2008 67
Como ilustración de la metodología de“cajas negras” supongamos que se busca lasolución de un problema difícil y que la únicaoperación que se sabe realizar consiste en irprobando presuntas soluciones y ver si fun-cionan. Supongamos que existan S posiblessoluciones y que el número S crece exponen-
cialmente al aumentar el tamaño n del pro-blema. No es imposible que se tenga suerte yse atine con la solución a la primera, pero enel caso más desfavorable habría que efectuarS ensayos. Por término medio, el número detanteos necesarios sería de S /2.
Supongamos ahora que fuese posible pre-guntar por todas las posibles soluciones quese hallan en superposición cuántica. En 1996,Lov Grover, de los Laboratorios Bell, desarrollóun algoritmo para hallar la solución correctaen un tal supuesto con sólo unos √
–
S pasos.Una aceleración que rebaja desde S /2 hasta
√–
S constituye un avance de interés en ciertosproblemas, pues si hay un millón de posiblessoluciones, el número de pasos necesarios ron-daría en torno a 1000, en lugar de 500.000.Pero la raíz cuadrada no transforma el tiempoexponencial en tiempo polinómico: produce,sencillamente, una exponencial más pequeña. Y el algoritmo de Grover es lo más que sepuede lograr con este tipo de búsqueda decaja negra: en 1994 se había demostrado yaque cualquier algoritmo de caja negra necesitacuando menos √
–
S pasos.
A lo largo de los últimos diez años, se havenido demostrando que aceleraciones de simi-lar modestia señalan los límites para muchosotros problemas, amén de la búsqueda de unalista: el recuento de votos en unas elecciones, ladeterminación de la ruta más corta en un mapao los juegos de estrategia, como el ajedrez o
el Go. Un problema que planteaba especialdificultad era el llamado problema de la co-lisión, que consiste en hallar dos elementosidénticos —que “colisionan”— en una listaextensa. De existir un algoritmo rápido pararesolver este problema, muchos de los bloquesconstructivos básicos del comercio electrónicoperderían su utilidad en un mundo provistode computadoras cuánticas.
El examen de una lista en busca de unelemento determinado viene a ser como darcon una aguja en un pajar, mientras que labúsqueda de una colisión es como buscar dos
pajitas que sean idénticas, problema con untipo de estructura del que una computadoracuántica podría sacar partido. Sin embargo,ya demostré en 2002 que, con el modelo decajas negras, cualquier algoritmo cuántico re-quiere un tiempo exponencial para resolver elproblema de la colisión.
Hay que reconocer que estas limitaciones delas cajas negras no descartan que haya aún pordescubrir algoritmos cuánticos eficientes paraproblemas NP-completos, si no más arduos.Mas, si tales algoritmos existiesen, tendrían
El mapa de la derecha representa de qué forma se relacionaría la clase de problemas
que los ordenadores cuánticos podrían resolver (BQP) con otras cla-
ses de problemas computacionales. (El contorno irregular expresa que la
clase BQP no parece encajar pulcramente con las otras clases.)
La clase BQP (la sigla denota bounded-error, quantum, polynomial
time, es decir, error acotado, cuántico, tiempo polinómico) contiene a
todos los problemas de tipo P y también a unos cuantos problemas NP,
como el de la factorización o el llamado problema del logaritmo discreto.
Se cree que la mayoría de los demás problemas NP y NP-completos caen
fuera de la clase BQP, lo que significa que incluso un ordenador cuántico
necesitaría más que un número polinómico de pasos para resolverlos.
Por otra parte, los problemas BQP podrían desbordar la clase NP: lascomputadoras cuánticas podrían resolver ciertos problemas
en menos tiempo incluso del que invertiría un ordenador
común en comprobar la solución. (Recordemos que un
ordenador común puede comprobar eficientemente la so-
lución de un problema NP, pero sólo puede resolver eficien-
temente los problemas P.) Hasta la fecha, sin embargo, no se
conocen ejemplos convincentes de problemas de este tipo.
Los expertos en computación sí saben que la clase BQP
no puede extenderse más allá de la clase conocida como
P-ESPACIO, que también contiene todos los problemas NP. Los
problemas P-ESPACIO son los que un ordenador común puede
resolver con una cantidad polinómica de memoria, aunque tal vez
exijan un número exponencial de pasos.
P-ESPACIO
NP-completos
NP
BQP
Problema de empaquetadoColoreado de mapasProblema del viajanteSudoku n × n
Ajedrez n × n Go n × n
Isomorfismo de grafos
Conectividad de grafos
Comprobación de queun número es primo
Emparejamiento
Factorización
en primosLogaritmo discreto
EJEMPLOS DE PROBLEMA
dor
n
a so-
ficien-
o, no se
tipo.
BQP
mo
s NP. Los
ún puede
nque a ve
D i fi c u l t a d c r e c i e n t e
Resueltoseficientemente porcomputadora
cuántica
Resueltos eficientementepor ordenador clásico
P
Scott Aaronson es profesor de
ingeniería eléctrica y ciencia de
la computación en el Instituto
de Tecnología de Massachusetts.
En su momento abandonó los
estudios de bachillerato; sin em-
bargo, acabó licenciándose en laUniversidad Cornell y doctorándo-
se en ciencia de la computación
por la Universidad de California
en Berkeley, bajo la dirección de
Umesh Vazirani.
El autor
Las computadoras cuánticas encuentran su lugar
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 70/9968 INVESTIGACION Y CIENCIA, mayo, 2008
que aprovechar la estructura del problema deformas muy dispares de todo cuanto hayamosvisto, de igual modo que deberían hacerlo losalgoritmos eficientes de corte clásico. La magiacuántica, por sí sola, no bastaría. Partiendo deesta idea, son muchos ahora los científicos dela computación que conjeturan no sólo que
P ≠ NP, sino también que las computadorascuánticas no podrían resolver problemasNP-completos en tiempo polinómico.
Teorías mágicasPor lo que sabemos, los ordenadores cuánticosconstituirían la estación término de la computa-ción, la categoría más general de computadorascompatibles con las leyes de la física. Pero nohay todavía una teoría definitiva de la física,por lo que no se puede descartar que algún díauna teoría futura descubra un procedimientofísico que resuelva eficientemente problemas
NP-completos. Como cabe esperar, no faltanquienes hacen cábalas acerca de clases de com-putadoras todavía más potentes, algunas de lascuales harían que los ordenadores cuánticospareciesen tan vulgares como una máquina ex-pendedora. Sin embargo, habrían de basarse enhipotéticos cambios de las leyes de la física.
Una de las características fundamentales dela mecánica cuántica es la linealidad, una pro-piedad matemática. Daniel S. Abrams y SethLloyd demostraron en 1998, mientras estabanen el Instituto de Tecnología de Massachusetts,que si las ecuaciones de la mecánica cuántica
contasen con un pequeño término no lineal,
los ordenadores cuánticos podrían resolver efi-cientemente problemas NP-completos. Antesde que empecemos a soñar, debe entenderseque, de existir semejante término no lineal,podría infringirse también el principio de inde-terminación de Heisenberg y resultaría posibleenviar señales a mayor velocidad que la de la
luz. Como señalaban los propios Abrams yLloyd, la mejor interpretación de estos resulta-dos quizá sea decir que contribuyen a explicarpor qué la mecánica cuántica es lineal.
Otro tipo de máquina conjetural que lo-graría una capacidad computacional fabulosasería la que condensase un número infinito depasos en un tiempo finito. Por desgracia, eltiempo, al menos según enseña la física actual,degenera en un mar de fluctuaciones cuánticas(en una espuma, en vez de extenderse por unalínea lisa, continua y uniforme) a la escala de10–43 segundos (el “tiempo de Planck”), lo que
tornaría imposible ese tipo de máquina. Aunque no resulte posible subdividir el tiem-po tanto cuanto se quiera, tal vez otra vía pararesolver eficientemente los problemas NP-com-pletos consista en viajar por el tiempo. Quienesestudian el problema no hablan de máquinas deltiempo, sino de curvas de tipo tiempo cerradas(CTC). En esencia, una CTC consiste en unaruta a través del espacio y el tiempo a lo largode la cual podría viajar materia o energía parareunirse consigo misma en el pasado, generan-do un bucle cerrado. La teoría física actual noes concluyente sobre la posibilidad de las CTC,
pero eso no debería impedir que nos pregun-tásemos cuáles serían —de existir— sus conse-cuencias para las ciencias del cómputo.
Parece evidente de qué forma se podríautilizar una CTC para acelerar un cálculo:prográmese nuestro ordenador para que dedi-que todo el tiempo que haga falta a resolver elproblema y seguidamente envíese la solución devuelta hasta un instante anterior al arranque delordenador. Es una pena que tan sencilla idea nofuncione. Olvida la famosa paradoja del abuelo:remontarse en el tiempo para matar al propioabuelo (así que no naceríamos, con lo que no
podríamos retroceder en el tiempo; nuestroabuelo, al fin y al cabo, vivió y tuvo hijos, ydespués nacimos nosotros, pero entonces...).En nuestro supuesto: ¿qué ocurriría si apagá-semos la computadora en cuanto recibiéramossu respuesta remitida desde el futuro?
En 1991, el físico David Deutsch, de laUniversidad de Oxford, definió un modelode computación con curvas de tipo tiempocerradas que elude esta dificultad. En el mo-delo de Deutsch, la naturaleza garantizaría queconforme se desarrollasen los acontecimientosa lo largo de la línea del tiempo que compone
la CTC no llegaran nunca a aparecer parado-
¿Ultracomputadoras llegadasde una física exótica?Parece inverosímil que las computadoras cuánticas puedan resolver rápidamente proble-
mas NP-completos. Pero otros procesos físicos, extraordinarios, muy hipotéticos, po-
drían consentir la construcción de máquinas computadoras dotadas
de semejante capacidad, y de mucho más. Los viajes por
el tiempo permitirían resolver cualquier problema del
P-ESPACIO, sin olvidar los que son más difíc iles que los
NP-completos, como, por ejemplo, jugar la partida de
ajedrez perfecta en tableros de cualquier tamaño, y nosólo en los normales de 8 × 8. Aunque el recurso a viajes
por el tiempo para resolver problemas no consistiría en un
mero lograr que un ordenador completase un
largo cómputo en el futuro lejano y se enviase
luego la solución a sí mismo en el presente,
podría sacarse partido de esa clase de bucle en
espacio-tiempo. Un inconveniente: tales procesos
desafían las leyes conocidas de la física.
mas NP-completos. Pero otros procesos físicos, extraordinarios, muy hipotéticos, po-
rían consentir la construcción de máquinas computadoras dotadas
de semejante capacidad, y de mucho más. Los viajes por
l tiempo permitirían resolver cualquier problema del
P-ESPACIO, sin olvidar los que son más difíc iles que los
NP-comp etos, como, por ejemp o, jugar a parti a e
ajedrez perfecta en tableros de cualquier tamaño, y nosólo en los normales de 8 × 8. Aunque el recurso a viajes
por el tiempo para resolver problemas no consistiría en un
largo cómputo en el futuro lejano y se enviase
uego la solución a sí mismo en el presente,
podría sacarse partido de esa clase de bucle en
espacio-tiempo. Un inconveniente: tales procesos
desafían las leyes conocidas de la física.
ZONAS
DE PENSAMIENTO
A diferencia del mundo real, en el
cual creemos que los límites com-
putacionales son los mismos don-
dequiera que se mire, la galaxia
de A Fire Upon the Deep (“Un fue-
go sobre el abismo”), novela deciencia ficción de Vernor Vinge
publicada en 1992, está dividida
en tres “zonas de pensamiento”
concéntricas que poseen límites
computacionales y técnicos inhe-
rentemente distintos.
En las Profundidades sin pensamiento,
las más cercanas al núcleo galáctico,
fallan hasta los automatismos
sencillos. Los cocientes de
inteligencia son ínfimos.
La Zona lenta contiene a la Tierra y
tiene las limitaciones que sabemos.
En el Allende, factorías nanotécnicas
cuasisentientes construyen maravillas
tales como tejidos antigravitatorios y
la hipercomputación permite viajar
más velozmente que la luz.
La Trascendencia está poblada por
peligrosos seres ultrainteligentes y
divinales, que poseen técnicas y
procesos de pensamiento insondables
para los seres de menor rango.
A L F I L A R E I N A 2 3
M A Q U I N A D E L T I E M P O
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 71/99INVESTIGACION Y CIENCIA, mayo, 2008 69
jas. Esta circunstancia podría utilizarse paraprogramar un ordenador que trazase un bucletemporal por una CTC con el fin de resolverproblemas difíciles.
Con una CTC podríamos resolver eficien-
temente no sólo problemas NP, sino inclu-so problemas pertenecientes a una clase másamplia, la clase P-ESPACIO. El P-ESPACIOestá constituido por la clase de problemas quepodrían resolverse en un ordenador corrienteutilizando una cantidad de memoria con creci-miento polinómico, aunque exigieran un tiem-po de ejecución con crecimiento exponencial.En efecto, una CTC haría que el tiempo y elespacio fuesen intercambiables en cuanto recur-sos computacionales. (No hubo necesidad demencionar hasta ahora la limitación polinómicade la memoria porque para los problemas P y
NP no tiene importancia si el ordenador dis-pone de más memoria que la polinómica.)Recientemente, John Watrous, de la Uni-
versidad de Waterloo en Ontario, y yo he-mos demostrado que aunque en una CTCse emplease un ordenador cuántico, por unoclásico, tampoco se podría computar eficien-temente ningún problema situado extramurosdel P-ESPACIO. Con otras palabras: aunqueexistieran las curvas de tipo tiempo cerradas,las computadoras cuánticas no se mostraríanmás potentes que las clásicas.
Criptonita computacionalSe ignora si futuras teorías llegarán a consentiralguna de estas máquinas tan extraordinarias.Pero, sin negar nuestra ignorancia, podemosver esta ignorancia desde una perspectiva dife-rente. En lugar de partir de teorías físicas parapreguntarnos cuáles serían sus consecuenciaspara la computación, podríamos empezar su-poniendo que los problemas NP-completos sonintrínsecamente difíciles y estudiar después lasconsecuencias que tal hipótesis tendría para lafísica. Por ejemplo, si las CTC permitiesen laresolución eficiente de problemas NP-completos
y parejamente se admitiera que los problemas
NP-completos son intratables, la consecuenciasería que las CTC no pueden existir.
Habrá quienes consideren que tal meto-dología es superlativamente dogmática. Enmi sentir, no difiere de aceptar la validez del
segundo principio de la termodinámica o laimposibilidad de la comunicación a velocidadmayor que la de la luz, dos limitaciones queinicialmente tuvieron carácter técnico y queadquirieron con el tiempo el rango de prin-cipios físicos. Cierto: cabe la posibilidad deque la segunda ley sea falsada experimental-mente en el futuro. Pero mientras no ocurra,resulta inmensamente más útil suponer quees correcta y aplicar esa hipótesis al estudiode toda clase de cuestiones, desde los motoreshasta los agujeros negros. Yo pronostico quela dificultad de los problemas NP-completos
recibirá algún día igual consideración: la deun principio fundamental que describe unaparte esencial de la naturaleza. No hay formade saber qué luz teorética arrojará en el futurola aplicación de un principio fundamental deesta clase, ni las consecuencias prácticas quepodría comportar.
En el ínterin, sabemos que no se han deesperar resultados mágicos de las computadorascuánticas. Habrá quien se sienta decepciona-do ante sus aparentes limitaciones. Podemos,sin embargo, darles a estas limitaciones ungiro más optimista. Si bien ciertos sistemas
criptográficos podrán ser descerrojados en unmundo dotado de computadoras cuánticas, esprobable que otros códigos siguiesen siendoseguros. Aumenta así nuestra confianza en quela computación cuántica será posible, puescuanto más fantástica nos parezca una técnica,mayor deberá ser nuestro escepticismo.
Por último, tales limitaciones aseguran quelos científicos de la computación seguirán te-niendo tela cortada con la que confeccionarnuevos algoritmos cuánticos. Lo mismo que Aquiles sin su talón o que Supermán sin lacriptonita, una computadora carente de limita-
ciones no tardaría en resultar muy aburrida.
¿Un nuevo principio físico?
Dado que para construir una computadora capaz de resolver problemas NP-completos parece
necesario apelar a propiedades físicas inverosímiles (como los viajes por el tiempo), yo pronostico
que los científicos adoptarán algún día un nuevo principio: “Los problemas NP-completos son intrínseca-
mente difíciles”. Es decir, la resolución eficiente de estos problemas es imposible en cualquier dispositivo
que pueda construirse en el mundo real, cualesquiera resulten ser finalmente las leyes de la física. Tal princi-
pio entraña la imposibilidad de los viajes por el tiempo, pues tales viajes permitirían la creación de ultracompu-
tadoras capaces de resolver eficientemente problemas NP-completos. Más todavía, si se demostrase que
una teoría propuesta permitiría la construcción de tales computadoras, dicha teoría podría ser descar-
tada a priori . La aplicación del principio sería similar a recurrir a los principios termodinámicos para
concluir que las máquinas de movimiento perpetuo son imposibles (están prohibidas por las leyes
de la termodinámica) y para deducir características hasta entonces desconocidas de procesos físicos.
ce
ronostico
intrínseca-
ispositivo
ica. Tal princi-
n de ultracompu-
strase que
-
para
físicos.
QUANTUM COMPUTATION AND
QUANTUM INFORMATION.Michael A. Nielsen e Isaac L.Chuang. Cambridge UniversityPress, 2000.
NP-COMPLETE PROBLEMS AND
PHYSICAL REALITY. ScottAaronson en ACM SIGACTNews, Sección de Teoría deComplejidad, vol. 36. n.o 1.págs. 30-52; marzo de 2005.
QUANTUM COMPUTER SCIENCE:
AN INTRODUCTION. N. David
Mermin. Cambridge UniversityPress, 2007.
SHOR, I’LL DO IT. (Una expli-cación del algoritmo de Shorpara el no especialista). ScottAaronson. Disponible enwww.scottaaronson.com/blog/?p=208
QUANTUM COMPUTING SINCE
DEMOCRITUS . Notas para elcurso PHYS771, Universityof Waterloo, Otoño de 2006.Disponible en www.scottaaron-son.com/democritus/
Bibliografíacomplementaria
INA DEL TIEMPO
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 72/9970 INVESTIGACION Y CIENCIA, mayo, 2008
En los tiempos de John Shea y John Greco, la cavernosa fábrica de Pratt & Whitney Aircraft se llenaba de una niebla grasien-
ta que rezumaba de las fresadoras y empapabatechos y paredes. Y a los propios operarios,que volvían a casa impregnados de acre aceiteindustrial. Las piezas de los motores se desen-grasaban en el suelo de la planta, en fosos lle-nos de disolvente; con aspersores de disolventese limpiaban los obreros las manos y la ropa.Durante 34 años, Shea estuvo fresando álabesde motores en aquella factoría de cien milmetros cuadrados de North Haven, Connecti-
cut. En 1999, a los 56 años, se le diagnosticóun cáncer en el cerebro. Seis meses después,Greco, su amigo y compañero de trabajo,supo que padecía la misma enfermedad: unglioblastoma multiforme, el más agresivo delos tumores cerebrales. Al cabo de un año delprimer diagnóstico, ambos trabajadores habíanmuerto: sus viudas empezaban ya a preguntarpor qué se producía un número tan alto deese cáncer maligno en una de las principalesfabricas de motores a reacción del mundo.
En 2001 empezó una investigación acercade un conglomerado de cánceres cerebrales
aparecido en North Haven; sólo en la décadaanterior se habían dado 13 casos de tumorescerebrales primarios malignos entre los traba-
jadores, 11 de ellos glioblastomas. Se ha con-vertido en el más completo estudio de saluden el trabajo jamás emprendido. El equipodirigido por Gary Marsh, de la Universidadde Pittsburgh, y Nurtan Esmen, de la Univer-sidad de Illinois en Chicago, ha acometido untrabajo penoso y policíaco: primero, rastrearun número todavía desconocido de casos decáncer cerebral a lo largo de 50 años entre loscasi 250.000 empleados de las ocho factorías de
Pratt & Whitney; determinar después, siempre
que sea posible, cuál podría haber sido la causade esos tumores. Para ello se ha de reconstruir laexposición de los trabajadores a un montón deagentes potencialmente tóxicos. El grupo esperapublicar sus primeros hallazgos en este mismoaño y, en 2009, los resultados finales.
La impresionante labor logística de Marsh yEsmen ilustra la dificultad de efectuar estudiosepidemiológicos en lugares de trabajo expuestosa multitud de sustancias posiblemente dañinas.La localización de las causas de las pasadas des-gracias en Pratt & Whitney estará también limi-tada por la falta de conocimientos, tanto sobre la
génesis de los tumores cerebrales como sobrela toxicidad de muchos compuestos químicosutilizados en la industria. El estudio, realizadocon las técnicas más avanzadas, podría arrojarmás luz en uno y otro aspecto. Pone, además,de relieve que determinar cuál es el grado deexposición seguro a ambientes tóxicos siguesiendo en gran medida un problema actual.
El Instituto Nacional para la Seguridady Salud Ocupacional de Estados Unidos es-tima que en esa nación fallecen cada año,prematuramente, cerca de 49.000 personaspor enfermedades laborales, ocho veces más
que por accidentes de trabajo. Sin embargo,la mayoría de los límites de exposición seguraimplantados federalmente se basan en el bagajecientífico de los años sesenta. De ahí que lasnuevas directrices de la Agencia de Protección
Ambiental (EPA) de EE.UU. rebajen hasta en45.000 veces el nivel admisible de un produc-to químico en el aire exterior de una fábricacon respecto a los niveles seguros que para elaire interior ha regulado la Administración deSeguridad y Salud Ocupacional (OSHA).
Quizá los mayores obstáculos para actua-lizar la protección sanitaria en el trabajo no
provengan de limitaciones científicas, sino de
CONCEPTOS BASICOS
Durante siete años se
han investigado casos
de cáncer cerebral entre
los trabajadores de Pratt
& Whitney Aircraft en
Connecticut. Es el estudio
más extenso jamás em-prendido sobre la salud en
centros de trabajo: cerca
de un cuarto de millón de
empleados a lo largo de
50 años.
La recogida de datos
ha sido laboriosa por la
extensión del estudio,
pero la magnitud de la po-
blación analizada ha dado
medios para detectar
perfiles menos claros que
pudieran sugerir un origentumoral, incluidos los
factores cancerígenos no
reconocidos previamente.
Más estudios de epide-
miología industrial de este
tipo podrían mejorar la
protección sanitaria de los
trabajadores, anticuada
en muchos casos. Pero
falta la financiación y el
respaldo político para
tales investigaciones.
DE LA EPIDE
DIFICULTADES
El mayor estudio sanitario jamás realizado en plantasindustriales aplica técnicas punteras para investigar unaparente conglomerado de casos de cáncer • Carole Bass
J A
M E S P O R T O ( c u b o d e R u b i k ) ; J E N C H R I S T I A N S E N ( c o m p o s i c i ó n ) ; B E T T M
A N N / C O R B I S ( a m a r i l l o ) ; J A M E S P O R T O ( a z u l ) ;
U N
I V E R S I D A D D E P I T T S B U R G H ( r o j o y n a r a n j a ) ; D E P A R T A M E N T O D E P R O
T E C C I O N A M B I E N T A L D E C O N N E C T I C U T ( v e r d e )
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 73/99
MIOLOGIA LABORAL
INVESTIGACION Y CIENCIA, mayo, 2008 71
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 74/9972 INVESTIGACION Y CIENCIA, mayo, 2008
la política y la economía. La investigación dePratt & Whitney revela asimismo cuánto po-dría mejorarse la epidemiología ocupacional siexistiera voluntad política de aplicar la cienciamás actual a la tarea de asegurar la salubridadde los lugares de trabajo.
Acopio de pruebasCuando conocieron el diagnóstico comúnde sus maridos, Carol Shea y Kate Greco nosabían nada de cánceres cerebrales, ni de epi-
demiología. Pero les parecía una extraña coin-cidencia el que ambos sufrieran un mismo tipo—no frecuente— de tumor maligno. Empeza-ron a preguntar a la compañía cuántos otrostrabajadores padecían cáncer en el cerebro ycuál podría haber sido la causa. Por agostode 2001, una investigación del Departamento
de Salud Pública de Connecticut encontróque la incidencia de glioblastoma entre lostrabajadores de la planta de North Haven enlos 10 años anteriores había sido entre 2,8 y
FORMACION DE LAS BASES DE DATOSRECONSTRUCCION DE EXPOSICIONESEPIDEMIOLOGIA Y BIOESTADISTICA
ESTUDIO ANIDADO DE CONTROLES Y CASOS,Y ANALISIS GENETICO
Contrastar los casos con trabajadores semejantes que no hayansufrido cáncer (controles)
Contactar con los controles y los casos aparecidos en susfamilias a fin de entrevistarlos y obtener consentimiento pararevisar sus historias clínicas y recoger y analizar muestras
ANALISIS DE MORTALIDAD
Identificar todos los miembros fallecidos de la cohortey las causas de su muerte
Identificar todos los trabajadores vivos y fallecidosdiagnosticados con cáncer cerebral entre 1976 y 2001
Comparar la incidencia de cáncer cerebral y las tasas demortalidad en la cohorte con la población general.
IDENTIFICACION DE LA COHORTE
Todos los trabajadores empleados entre 1952 y 2001 en las 8 plantasde Connecticut, un total aproximado de 224.000 individuos.
FUENTES DE DATOS
500.000 páginas de archivos de personal, afiliaciones desindicatos, índices de mortalidad nacionales y de la SeguridadSocial, registros de cánceres nacional y del estado, y más de 3millones de historias laborales.
FUENTES DE DATOS
Manuales de operaciones, listas de compras,estudios de rendimiento del tiempo, registrosde muestreos del aire, examen de 320.000 puestos
de trabajo y entrevistas con empleados
POR AGENTE
Radiación ionizante(níquel toriado,tungsteno toriado opartículas radiactivas)
Fluidos de metalistería Cromo hexavalente Campos
electromagnéticos Disolventes
POR PROCESO
Trituración, fresado,desengrase, etc.
POR PIEZA
Engranajes,álabes, ejes, etc.
ANALISISCONSOLIDADO
DICCIONARIO DE PUESTOS DE TRABAJO CON PERFILESDE EXPOSICION ESPECIFICOS DEL EMPLEADO
Este medio millón de hojas representalas páginas guardadas en los archivosdel personal que han explorado los
investigadores de la Universidad dePittsburgh para compilar listas einformaciones sobre trabajadores.
DETERMINACION DE EXPOSICIONES
Para determinar si ha habido
un número excesivo de casos
de cáncer de cerebro entre
los trabajadores de Pratt &
Whitney Aircraft, y si así fue,
por qué causas, se han com-
pilado durante más de cinco
años enormes cantidades de
información sobre todos los
trabajadores y procesos de
fabricación de la compañía en
Connecticut a lo largo de un
período de 50 años. Uno de
los dos equipos de investiga-
ción se dispuso a identificar la
población en estudio —la co-
horte— y determinar cuántos
de ellos desarrollaron cáncer
cerebral: para ello clasificaron
y agruparon más de un cuartode millón de nombres de
empleados. Mientras tanto,
el otro equipo seleccionaba
una gran variedad de posi-
bles causas para reconstruir
a qué sustancias se habían
expuesto los trabajadores
entre los años 1952 y 2001 en
el transcurso de su trabajo.
FUSION DE BLOQUES DEDATOS PARA OBTENERRESULTADOS FINALES
J A M E S
P O R T O
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 75/99INVESTIGACION Y CIENCIA, mayo, 2008 73
7 veces mayor que la esperada, dependiendode las hipótesis de partida.
En aquel momento, el departamento desalud del estado exigió a Pratt & Whitney,que ha declinado comentar este punto, la con-tratación de un epidemiólogo independientepara proseguir la investigación. La compañía
recurrió entonces a Marsh, bioestadístico dela Escuela de Posgrado de Salud Pública dePittsburgh. Su especialidad son las investi-gaciones sobre la salud laboral que él llama“intrincadas y laboriosas”, en las que hay quetener en cuenta a miles de empleados ubicadosen múltiples sitios. Marsh contactó inmediata-mente con Esmen, frecuente colaborador suyoy experto en la evaluación y reconstrucción deriesgos en ambientes de trabajo.
Ambos comenzaron a investigar la factoríade North Haven, que se cerró en 2002. Perocuando se enteraron de que la firma realizaba
en su fábrica principal de East Harford ope-raciones de fresadura similares a las de NorthHaven y trabajos de diferentes tipos en otrasinstalaciones de Connecticut, decidieron estu-diar a la vez las ocho plantas del estado, lasabiertas y las clausuradas. Así pues, un estudioen principio concebido para unos 100.000 em-pleados se amplió hasta los cerca de 250.000que habían trabajado allí entre 1952 y 2001.Suponía un monto total de 12 millones dedólares a lo largo de siete años.
Según Marsh, el mayor alcance del proyectoaportaba dos ventajas científicas. Primero, un
valor estadístico superior, que reduce el riesgode falsos resultados negativos y eleva la pro-babilidad de detectar perfiles menos acusados;segundo, unas mejores comparaciones internasde métodos de trabajo, exposición a riesgos yrepercusiones en la salud. La epidemiologíaocupacional a menudo padece el efecto del“trabajador sano”: una comparación engañosaentre las tasas de morbilidad detectadas en ungrupo de trabajadores y las de la poblacióngeneral (que comprende personas demasiadoenfermas para trabajar). Para obtener una ima-gen más exacta deberían compararse entre sí
diferentes subgrupos de Pratt & Whittney.
La enorme dimensión del estudio representatambién uno de los mayores desafíos. Dirigidospor Jeanine Buchanich, los empleados y con-tratados de Pitt pasaron un año en las instala-ciones de Pratt & Whitney explorando mediomillón de páginas de historiales del personal yresumiéndolas en una base de datos que reúne
los datos sobre la salud de los trabajadores.Seguidamente, Buchanich comenzó a rastrearlos nombres de unas 266.000 personas —la“cohorte”— en las bases de datos nacionalespara saber los empleados que habían muertoy por qué causas. Un programador escribióun protocolo para muestrear nombres de laslistas de afiliación a sindicatos, que luego Bu-chanich cotejó con la cohorte para ver si sehabía omitido a alguien. También tuvo querectificar entradas en la base de datos cuan-do las fechas eran incongruentes, del tipo unempleado contratado antes de su nacimiento
o después de su defunción. “El archivo de lacohorte ha quedado muy depurado”, dice Bu-chanich —al 99,9 por ciento de veracidad—,“pero todavía hay unos doscientos errores queexaminar y resolver”. Tras su eliminación yel posterior refinamiento de la base de datos,la cohorte comprende ahora unos 224.000trabajadores.
Mientras tanto, Zb Bornemann, ha venidopersiguiendo casos de cáncer cerebral. Cotejóla cohorte entera con el Indice de MortalidadNacional y el Indice de Mortalidad de la Se-guridad Social. Y prosigue la búsqueda en
registros de cánceres en estados de todo el país,averiguando si algún nombre de la cohortecoincide con el de una persona registrada comoenferma de tumor cerebral. Cuando apareceuna coincidencia, Bornemann intenta localizara los parientes más próximos por medio debases de datos interactivas. Algunos registrosson un callejón sin salida. En el estado de
Washington, Bornemann presentó seis tandas
DEFINICION DE UN
CONGLOMERADO
DE CANCERES
Puede ser casual que durante cier-
to período de tiempo se produzca
un número inusitado de cánceres
entre personas que viven o traba-
jan juntas. Pero este aparente
conglomerado podría también
deberse a un origen común de
tales dolencias. La parte del análi-
sis de Pratt & Whittney que anali-
za la mortalidad utilizará técnicas
estadísticas “para determinar si el
número total de tumores cerebra-
les malignos, benignos o ambos,
observados es mayor que el valor
esperado tomando como base las
comparaciones normalizadas con
la población general de EE.UU., la
del estado de Connecticut y la de
los condados de procedencia de
los trabajadores, así como para
determinar si cualquier exceso
registrado pudiera deberse sólo a
factores casuales.”
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 76/9974 INVESTIGACION Y CIENCIA, mayo, 2008
de solicitudes de información sobre pacien-tes de cáncer, pero incluían un documentorechazado porque iba dirigido al registro decánceres del estado y no al departamento desanidad, que alberga dicho registro. Una vezlocalizado un pariente muy próximo de undeterminado caso, incluso una persona vivaafectada de cáncer en el cerebro, Bornemannle escribe solicitando su participación en elestudio: una entrevista telefónica, la entrega desu historial clínico y el permiso para analizar
tejidos de ese tumor cerebral.El hallazgo de casos clínicos compone la
primera parte del estudio —el análisis de mor-talidad—, que determinará si la proporciónde cánceres cerebrales u otras patologías entrelos trabajadores de Pratt & Whitney, en sutotalidad y en diversos subgrupos, fue mayorde la esperada. La segunda parte es un estudio“anidado” de controles y casos, en el que secompara cada caso de cáncer cerebral con otroempleado de Pratt & Whitney, de la mismaedad, sexo y antigüedad en la compañía, queno haya desarrollado tumor cerebral alguno. Al
comparar sus historias clínicas y de actividad
laboral, incluida la evaluación de riesgos quelleva a cabo Esmen en la Universidad de Chi-cago, se espera encontrar perfiles que puedanexplicar por qué a unas personas se les forma-ron tumores en el cerebro y a otras no.
En la tercera parte del estudio, Frank Lie-berman analiza las mutaciones génicas en los
tejidos tumorales de los trabajadores afectados.El hallazgo de un perfil distintivo podría su-gerir que los tumores aparecidos en Pratt &
Whitney no fueron fruto del azar, sino dealguna causa común.
Ahí se recurre a técnicas científicas nuevas.El trabajo de Lieberman se centra en los tejidostumorales conservados en parafina duranteaños en los hospitales donde fueron operadoslos pacientes de cáncer de Pratt & Whitney.Hasta hace muy poco, sólo podían aplicarsemétodos que no permiten examinar más de15 o 20 genes por muestra para detectar mu-
taciones asociadas al crecimiento de tumores.Hoy día, merced a una técnica más avanzada,se hacen análisis en micromatrices, antes sóloposibles sobre tejidos en fresco. Se pueden asíexaminar miles de genes a la vez, en busca demutaciones pequeñas, así como de duplica-ciones o supresiones de genes enteros; ahoracabe buscar “alteraciones en los perfiles deactividad génica, ya no en genes específicos”,como dice Lieberman.
Este neuro-oncólogo compara los perfilesencontrados con una base de datos del InstitutoNacional del Cáncer y con muestras de tumo-
res cerebrales obtenidas de los pacientes de suclínica de Pittsburgh, a modo de control. “Latécnica es de suma eficacia”, asegura, en parteporque “no se necesita una hipótesis inicialsobre cuáles son los genes importantes”.
Una colega suya de Pittsburgh, EmanuelaTaioli, aplica técnicas moleculares semejantespara identificar el daño que infligen al ADNcarcinógenos bien conocidos. Ambos gruposcolaboran en un proyecto piloto, consistente enrecoger tejidos normales de los trabajadores dePratt & Whitney afectados de cáncer cerebral.Su propósito es detectar posibles cambios mo-
leculares en esos tejidos y correlacionarlos conlos carcinógenos a cuya acción se exponen losempleados de la empresa, según el equipo deEsmen. En principio, estos vestigios de la ex-posición a sustancias tóxicas podrían denunciarel desarrollo precoz de un cáncer. Lieberman,sin embargo, advierte de que tales métodos seasientan en cimientos científicos todavía recien-tes: “Se intenta aprovechar la enorme dimensióny el refinamiento que ofrece la epidemiologíapara conseguir la máxima información sobrelos agentes capaces de desencadenar un cáncercerebral. Las propias técnicas aplicadas son, en
el más hondo sentido, experimentales”. B E
T T M A N N / C O R B I S
TRABAJADORES de la factoría de Pratt & Whitney Aircraft en East Harford preparan
un motor a reacción para el Boeing 727 que iba a probarse en julio de 1961. Esta es
una de las ocho fábricas de Connecticut investigadas por casos de cáncer cerebral
entre los empleados de la compañía.
Carole Bass es periodista espe-
cializada en investigaciones sobre
salud pública, temas legales y
medio ambiente.
La autora
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 77/99INVESTIGACION Y CIENCIA, mayo, 2008 75
Arqueología industrialEl trabajo del grupo de Esmen en Chicago,aunque menos experimental, es igualmenteinmenso. Durante cinco años han escudriñadolas operaciones de Pratt & Whitney desarro-lladas entre las décadas de los cincuenta y losnoventa, intentando imaginar a qué agentes
estuvieron expuestos los trabajadores y en quéniveles. “Si no se encuentran datos, habrá quereconstruirlos”, señala Esmen, profesor deciencias de la salud ocupacional y ambientalen la Universidad de Illinois en Chicago. “Escasi arqueología industrial.”
La indagación habría sido más fácil si elequipo hubiese sabido qué estaba buscando.Hace mucho tiempo que se sospecha que al-gunos cánceres del cerebro tienen un origen
laboral. Pero la única causa comprobada es laradiación ionizante que generan algunas ope-raciones de Pratt & Whitney. Por lo demás,anteriores estudios habían señalado elevadosíndices de cáncer cerebral entre quienes traba-
jaban con ciertos metales, aceites industriales ydisolventes, pero no se ha podido reproducir
fehacientemente estos resultados.Para investigar en los archivos de Pratt & Whitney, el equipo de Esmen está concentran-do 320.000 puestos de trabajo en un númeromanejable de categorías laborales. En cadacategoría se cuantifica la exposición de lostrabajadores a los agentes sospechosos durantediversos períodos de tiempo.
Con todo, los números tienen sólo un va-lor relativo. Lo que realmente importa son
Roger Hancock, miembro del equipo del estudio de Pratt & Whitney, explica
que los actuales estándares de OSHA se basan en datos toxicológicos de
1968. OSHA inició su actividad en 1971 con un mandato legal: “Crear en la me-
dida posible condiciones de trabajo seguras y saludables para todo hombre y
mujer de la nación”. De un golpe adoptó unos límites de exposición permisible
para unos 400 agentes químicos tomados directamente de las normas elabo-
radas en 1968 por la Conferencia Americana de Higienistas Industriales Guber-
namentales, organización sin ánimo de lucro. Durante el resto de la década de
1970, OSHA estableció límites de exposición para otras nueve sustancias.
Pero en el decenio siguiente el tren de los límites de exposición permi-
sibles descarriló. En 1980 el Tribunal Supremo de EE.UU. acabó con una
norma de OSHA que reducía en un orden de magnitud el nivel admisible
de benceno propuesta por OSHA, alegando así que este organismo teníaque demostrar que sus reglas evitaban “un riesgo apreciable de daño”.
Sin definir “riesgo apreciable”, el tribunal sugería que una muerte más por
cada 1000 trabajadores expuestos probablemente sería apreciable, pero
dejaba de serlo una en mil millones. Desde entonces, OSHA ha considerado
que 1 por 1000 constituye el estándar más riguroso posible. Ciertos límites
permisibles de exposición toleran riesgos mucho peores; por ejemplo, el
decretado en 2006 para el cromo hexavalente corresponde a un riesgo de
35 a 45 por 1000, según las estimaciones de OSHA.
En 1987 OSHA emprendió una radical actualización de sus límites para
contaminantes del aire. En menos de dos años publicó los correspondien-
tes a 376 sustancias químicas. Más de la mitad no eran sino versiones más
rigurosas de los aplicados a las sustancias de la lista original de 1971; el
resto se refería a sustancias de nueva regulación. Pero tanto la industria
como los sindicatos se opusieron a la ley; en 1992 un tribunal federal de
apelaciones la anuló: OSHA debería realizar procesos de estandarización
para cada sustancia por separado, cosa que nunca llegó a hacer.
Pese a las dificultades científicas, la Conferencia de Higienistas Indus-
triales continúa publicando cada año de 20 a 40 límites de exposición
voluntarios, denominados valores límite de umbral. De ese modo suman
ya más de 700 sustancias, comparados con las algo más de 400 que regula
OSHA. “Esto no acaba nunca, porque siempre recibimos nueva infor-
mación”, dice Terry Gordon, que dirige la tarea de los valores límites de
umbral. “Somos unos voluntarios que hacemos lo que podemos. Si OSHA
tomara la iniciativa, sería un día memorable.”
En respuestas a nuestra revista, OSHA pone de relieve que “no es nada
sencillo actualizar límites de exposición”. Satisfacer las exigencias impues-
tas por el Congreso y los tribunales requiere “intensas investigaciones” y
“notables recursos para determinar de modo adecuado cómo afectan los
límites de exposición permisibles revisados a la salud de los trabajadores,
y evaluar si de verdad se necesitan nuevos estándares que protejan eficaz-
mente a los empleados en su lugar de trabajo y que los patronos puedan
cumplir”. En cuanto al cromo hexavalente, OSHA declara que ha adoptado
“el nivel mínimo que era factible”, tomando como base “la totalidad de las
pruebas halladas en los registros de elaboración de normas”.
Pero algunos de los que trabajaban en OSHA creen que esta agencia
podría hacer las cosas mucho mejor. Por ejemplo, Harry Ettinger, higienista
industrial que en la época de Reagan dirigió la revisión de los límites de
los contaminantes en la atmósfera. “Es vergonzoso”, exclama, “que la
mayoría de los límites de exposición permisible todavía daten de 1968”.Considera que lo perfecto es enemigo de lo bueno. “Intenté convencer a
los sindicalistas de que era una locura querellarse contra nosotros. Querían
la perfección, pero la perfección no existe”.
Para Adam Finkel, que fue director de los estándares de salud de OSHA
entre 1995 y 2000, el problema son las prioridades. “La mayoría de quienes
saben de lo que hablan coincidirían en que del 80 al 90 por ciento de las
muertes relacionadas con el trabajo se deben a problemas de salud ocupacio-
nal”, afirma. Sin embargo, “siempre ha primado la seguridad sobre la salud”.
El mismo tuvo que dejar su puesto tras haber llamado la atención sobre los
riesgos de salud laboral que acechaban a los propios inspectores de OSHA;
finalmente recibió una sustanciosa indemnización de la Agencia. Lejos de
domeñar la vena perfeccionista, Finkel cree que la Agencia tiene que ponerse
a tono con la ciencia de nuestro tiempo. “Sabemos que los trabajadores se
exponen a un sinnúmero de agentes cuyos niveles son mil veces superiores a
los recomendables. Con tanta fruta madura que recoger, la primera prioridad
de OSHA debería ser la higiene industrial a la antigua usanza”.
Sea como fuere, de alguna parte tienen que venir la “intensa investi-
gación” y los “notables recursos” que OSHA señala como necesarios para
actualizar la protección sanitaria de los trabajadores. En la mayoría de
los casos, las industrias que estarían sujetas a las normas serían quienes
pagarían los estudios. En el frente de la salud laboral, el presupuesto para
investigación del Instituto Nacional para la Seguridad y Salud Ocupacio-
nal no ha aumentado, más bien ha disminuido. Y los fabricantes no sólo
han combatido la regulación gubernamental, sino que, además, se han
querellado contra la independiente Conferencia con la intención de que no
publique sus límites voluntarios de exposición.
OSHA SE HA QUEDADO ATRAS
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 78/9976 INVESTIGACION Y CIENCIA, mayo, 2008
los órdenes de magnitud. Una exposición de-terminada se puede estimar en 10 unidades;podría ser de 6 o de 12, pero no de 100.
Al no existir mediciones, los investigadoresextrapolan a partir de entrevistas con traba-
jadores e ingenieros de la fábrica. Asimismo,manejan montañas de datos facilitados por la
compañía, tales como los registros de compras(para deducir las cantidades de material utiliza-das), estudios de rendimiento laboral (tiempoinvertido en cualquier tarea determinada) enlos años setenta, publicaciones internas contítulos tan peculiares como Capacidad ver-sátil de ingeniería y fabricación, y resultadosde muestreos del aire realizados por Pratt &
Whitney a lo largo de los años.La última fuente de información podría con-
siderarse terreno abonado para la reconstrucciónde las exposiciones a riesgos. Pero como señalaEsmen, es más difícil de lo que parece. Un epi-
demiólogo que intentara evaluar las exposicionesde toda la plantilla laboral tendría que tomarmuestras aleatorias de cada grupo de trabajo yreseñar los cambios de uno a otro turno o de undía a otro día. Un higienista industrial a quiense le pidiera resolver un problema —quejas detipo respiratorio, por ejemplo— sólo tomaríamuestras de la zona “problemática” y se ceñiríaa considerar los niveles más altos registrados deuna sustancia sospechosa.
Los textos de higiene industrial recomien-dan a los futuros profesionales que tomen unagama de muestras completa, afirma Steve La-
cey, que enseña estas técnicas a los estudiantesde doctorado de la Universidad de Chicago.En la realidad no se hace así. Roger Han-cock, otro miembro del equipo que duranteun cuarto de siglo practicó higiene industrialen el sector privado, conoce la verdad: “Llegasa una fábrica con tu carro lleno de equipos de
prueba, y tienes una semana disponible. Quizátal proceso se hace sólo una vez esa semana, demanera que no hay más que una oportunidadde tomar las muestras correspondientes. Si lamuestra de nivel superior no alcanza el umbralde preocupación toxicológica, dejas de tomarnuevas muestras”.
Para la mayoría de las empresas, “no al-canzar el umbral de preocupación” equivaleal cumplimiento legal. Basta con que unainstalación fabril satisfaga los estándares dela OSHA. Pero las autoridades en la materiay los libros de texto médicos reconocen que lo
que es bueno para la OSHA no siempre bastapara proteger la salud de los trabajadores.
No resulta fácil determinar límites para unaexposición segura, reconoce Terry Gordon,presidente de la comisión de la Conferencia
Americana de Higienistas Industriales Gu-bernamentales que fija límites voluntarios deexposición a sustancias químicas. Al igual queOSHA, este grupo de unos 20 voluntarios noconduce investigación original, sino que seapoya en estudios publicados. Las investiga-ciones de toxicología animal, controladas enlaboratorios, son más ordenadas que la confusa J A
M E S P O R T O ( f o t o g r a f í a d e l m o n i t o r ) ; J E N C H R I S T I A N S E N ( c o m p o
s i c i ó n ) ; U N I V E R S I D A D D E P I T T S B U R G H ( m u e s t r a s t u m o r a l e s )
REALIDADES
BREVES
En EE.UU. cada día mueren una
media de unos 16 trabajadores por
lesiones en el trabajo y 134 por
dolencias relacionadas con la
ocupación.
Se estima que cada día hay 11.500
trabajadores del sector privado que
padecen una enfermedad o lesión no
fatal de origen laboral.
9000 trabajadores son atendidos
todos los días en salas de emergencia
a causa de lesiones ocupacionales.
FUENTE: Instituto Nacional para la
Seg uri dad y Sal ud Ocup aciona l
Con el consentimiento de los trabajadores afectados o de sus familias, los investigadores
obtuvieron muestras de tumores y, en ciertos casos, de tejidos normales, para buscar señales
de posibles daños causados por los carcinógenos en el ADN ( izquierda). Esperan averiguar,
cuando combinen estos resultados con informaciones sobre las sustancias a que estuvieron
expuestos los empleados y el momento en que lo estuvieron (derecha), si las exposiciones
durante el trabajo han contribuido al desarrollo de cánceres.
INTERPRETACION DE LOS DATOS
PISTAS GENETICAS
Los cambios, o mutaciones, en el ADN extraído de tejidos tumorales como los que presenta la
pantalla del ordenador pueden sugerir posibles causas del tumor.
Un perfil distintivo de las mutaciones en tumores de diferentes trabajadores podría sugerir, por
ejemplo, una causa común.
Estos análisis pueden también determinar la duración de los cambios acumulativos e incluso el orden en
que los cambios se produjeron; así podría conocerse el momento inicial del desarrollo del cáncer.
Ciertos carcinógenos conocidos deterioran el ADN de manera específica, dejando una huella de
la exposición en las células tumorales e incluso en los tejidos normales.
Las mutaciones de genes de las enzimas que metabolizan carcinógenos constituyen otra cate-
goría de cambios promotores de cáncer que cabe detectar en tejidos no cancerosos; podrían
servir para explicar cómo se inició un tumor.
VISUALIZACION DE LAS EXPOSICIONES
Para manejar el enorme volumen de datos recopilados acerca de las operaciones fabriles entre 1952
y 2001, se creó un “sistema de información geográfica”. La base de datos permite ext raer y conectar
datos relativos a la localización de empleados, piezas y procesos —y a partir de ahí, las exposiciones
de los trabajadores a posibles agentes tóxicos— en diferentes momentos del período en estudio.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 79/99INVESTIGACION Y CIENCIA, mayo, 2008 77
epidemiología de personas reales expuestas asustancias diversas en cantidades y combina-ciones desconocidas, tanto dentro como fueradel trabajo.
Pero los transparentes ensayos sobre anima-les adolecen también de un fallo: sólo miden elefecto de un agente químico cada vez, mientras
que los entornos fabriles suelen contener múl-tiples tóxicos. “Los datos humanos siempre sonpreferibles a la toxicología”, afirma Gordon,profesor e investigador de medicina ambientalen la Universidad de Nueva York. “Sin em-bargo, a menudo no aportan datos suficientessobre las exposiciones, y esa información carecede relación con la salud”.
Los investigadores de Pratt & Whitney seesfuerzan por no caer en tales trampas, aunquereconocen algunos de los factores que, segúnMash, “enmarañan” el estudio. Por ser incom-pleta la información de Bornemann sobre re-
gistros de cánceres en el estado, probablementehabrá casos de cáncer cerebral que le paseninadvertidos. De los que ha localizado, sóloun 41 por ciento se ha prestado a participar;con miras a la validez científica, Marsh deseaque haya al menos un 60 por ciento. Señala,además, que la recopilación de datos relativosa la historia clínica y género de vida de losparticipantes es razonablemente buena en unplano general, pero se descompone en cuan-to se entra en detalles. La reconstrucción deexposiciones efectuada por el grupo de Chica-go, pese a ser exhaustiva, no deja de ser una
estimación de algo que sucedió hace deceniosen plantas de taller que desde entonces se hancerrado o sufrido una radical limpieza.
Inicio del buen caminoTranscurridos siete años y gastados 12 millonesde dólares, es bastante probable que el estudio
de Pratt & Whitney, como tantas otras investi-gaciones sobre la salud en centros de trabajo, nollegue a conclusiones. Para explicarlo, se aducenlas dificultades de la epidemiología. En todoslos estudios de esta rama, lo más que puedehacerse es demostrar que entre las exposicionesy los efectos en la salud existe una relación,no una causalidad estricta. Es especialmentedifícil detectar las causas de patologías como elcáncer, que suele manifestarse decenios despuésde sufrir una exposición perjudicial. Y quizásea imposible encontrar un nivel de exposicióna carcinógenos definitivamente seguro.
Numerosos científicos celebrarían disponerde 12 millones de dólares para estudios capacesde dar resultados más claros en tiempos másbreves, pero si no, probablemente, los millonesde Pratt & Whitney no se habrían invertido eninvestigar sobre la salud en lugares de trabajo.
Aun cuando el estudio nunca proporcionerespuestas concluyentes a todas las cuestionesplanteadas, no cabe considerarlo un derrochede tiempo o de dinero.
Quienes ahora se unen al proyecto esperanpoder dar algún tipo de respuestas a las fa-milias de Pratt & Whitney. “He trabajado en
esto desde el primer día”, dice Buchanich. “Porfin podremos decir algo a estos trabajadores,después de tanto tiempo”.
Sean cuales fueren sus resultados concretos,el proyecto también podría decirnos algo a losdemás. Las montañas de datos nuevos genera-dos ayudarán a desentrañar las complejidadesde la exposición a múltiples agentes tóxicos y aentender mejor, según Liebermann, la biologíabásica de la génesis de los tumores cerebrales. Yno sólo eso: el inaudito alcance del estudio es-timula nuevas técnicas para manejar la enormecantidad de información. El grupo de Chicago,
por ejemplo, está creando una base de datosde información geográfica que permitirá a susmiembros cartografiar las operaciones fabrilesen el tiempo y el espacio. Según Esmen, esatécnica podría aplicarse en cualquier estudiodonde importen las relaciones espaciales, comola arqueología o la ingeniería industrial.
Esta incursión arqueológica en el pasadoindustrial de Connecticut quizá nos aporteinstrumentos e información que en el futurosirvan de ayuda a los trabajadores y a los pa-cientes de cáncer cerebral. Reducir las barrerasque no sean científicas exigirá un diferente
arsenal de instrumentos.
D E P A R T A M E N T O D E P R O T E C C I O N M E D I O A M B I E N T A L D E C O N N E C
T I C U T ( c a p a i n f e r i o r ) ; U N I V E R S I D A D D E I L L I N O I S E N C H I C A G O ( c a p a s i n t e r m e d i a s )
Disposicióndel depar-tamentoen 1993
Factoríade EastHarford
Plano deplanta
Composición
WORKERS AT RISK: THE FAILED
PROMISE OF THE OCCUPATIONAL
SAFETY AND HEALTH ADMINIS-
TRATION. Thomas O. McGarity
y Sidney A. Shapiro. PraegerPublishers, 1993.
OCCUPATIONAL AND ENVIRON-
MENTAL HEALTH: RECOGNIZING
AND PREVENTING WORK-REATED
DISEASE AND INJURY. Preparadopor Barry S. Levy, David H.Wegman, Sherry L. Baron yRosemary K. Sokas. Quintaedición. Lippincott Willliams &Wilkins, 2005.
DOUBT IS THEIR PRODUCT: HOW
INDUSTRY’S ASSAULT ON SCIENCE
THREATENS YOUR HEALTH. DavidMichaels. Oxford UniversityPress, 2008.
GETTING HOME SAFE AND SOUND:
OSHA AT 38. Michael Silversteinen American Journal of PublicHealth (en prensa).
CANCER CLUSTER FACT SHEET (Lista de conglomerados decáncer) del Instituto Nacionaldel Cáncer: www.cancer.gov/cancertopics/factsheet/Risk/clusters
Bibliografíacomplementaria
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 80/9978 INVESTIGACION Y CIENCIA, mayo, 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 81/99INVESTIGACION Y CIENCIA, mayo, 2008 79
¿Habrá que domesticar la especie
para salvar al atún rojo,uno de los peces más maravillososy amenazados del océano?
Richard Ellis
C H
R I S P A R K A P P h o t o
N
o todos los atunes que consumimos pertenecen a la misma especie. El atún
enlatado que comemos en bocadillos yensaladas procede del listado o bonito listado(Katsuwonus pelamis ), de un metro de longitudy que se captura en cantidades desmesuradasen todo el mundo, o del atún blanco, bonitodel norte o albacora (Tunnus alalunga ), otropez de tamaño reducido que se comercializacon la denominación de “atún claro”. El atúnde aleta amarilla (Tunnus albacares ) y el pa-tudo o atún de ojo grande (Tunnus obesus )son especies de mayor tamaño que tambiénsufren sobrepesca; dado que ninguna de ellasproduce un sushi de gran calidad, suelen ser-
virse asadas.
El atún rojo, en cambio, un gigante entrelos peces, es el pescado de elección para la
elaboración de sushi y sashimi (platos de pesca-do crudo). Se ha convertido en el pescado deconsumo más deseable del mundo. En cuantotal, ocupa el primer lugar de otra lista másinsidiosa: es probablemente la más amenazadade todas las especies de peces de gran tamaño.La sobrepesca ciega está empujando al atúnrojo hacia la extinción; podría desaparecer enbreve de no mediar una forma de criarlo encautividad.
El peso máximo del atún rojo ronda lostres cuartos de tonelada. Con sus cuatro me-tros de longitud, parece una masa de músculo
supercalentado que hiende el agua al mover
CONCEPTOS BASICOS
La popularidad creciente
del sushi y el sashimi
ha devastado el atún
rojo. La sobrepesca ha
diezmado las poblaciones
de los océanos Atlántico,
Pacífico e Indico, empu-
jando a la especie hacia
la extinción. Los entes
reguladores han estableci-do cuotas de captura poco
estrictas; la pesca ilegal
va en aumento.
La cría en cautividad del
atún rojo salvaría a la
especie, pero la empresa
plantea todo un desafío.
En Japón y Europa han
conseguido criar el atún
en el laboratorio; una
compañía australiana lo
intenta a escala comercial.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 82/99
presto su cola encimitarra. Mientras que
la mayoría de las 20.000 especies de pecesson de sangre fría (su temperatura corporales la misma que la del agua del entorno), elatún rojo es uno de los pocos peces de sangrecaliente. Sumergido a un kilómetro de pro-fundidad, donde la temperatura del agua esde cinco grados Celsius, el atún rojo mantieneuna temperatura corporal de 27 grados C,cercana a la de un mamífero.
El atún rojo, uno de los peces más céleres,alcanza velocidades de hasta 80 kilómetros porhora y migra a través de océanos enteros. Estan buen nadador, que cuando en el decenio
de 1990 los científicos se propusieron construirun pez mecánico, lo tomaron por modelo.
Y así crearon un robot con un cuerpo ahusa-do, en forma de proyectil, y una aleta caudalrígida en luna menguante [véase “Robots denatación autónoma”, de Michael S. riantafy-llou y George S. riantafyllou; I
, mayo de 1995]. Descubrieron quela eficacia de la cola residía en la interacciónde los vórtices creados por su rápida flexión,pero la hidrodinámica de sus modelos electró-nicos no se acercó siquiera a la de un atúnrojo real.
Lo mismo que los lobos, los atunes rojossuelen cazar en manadas; forman una pará-bola que nada a gran velocidad y concentralas presas, lo que facilita el abatimiento delos cazadores sobre ellas. Los atunes poseenun metabolismo adaptado a las persecucionesveloces; al alimentarse de manera oportunis-ta —y, por necesidad, compulsiva—, comencuanto se les pone al alcance, ya se trate deuna caballa fugaz, una platija del fondo marinoo una esponja sedentaria. Un estudio del con-tenido estomacal de los atunes rojos de NuevaInglaterra, realizado por Bradford Chase, de
la División de Pesquerías Marinas de Massa-chusetts, reveló que el alimento dominante(en peso) era el arenque atlántico; le seguíanel aguacioso, el tímalo y varios calamares.(Otras presas incluían pampanitos, merluzasamericanas, rombos americanos, platijas deinvierno, menhadens, caballitos de mar, baca-laos, sollas, eglefinos, peces lima, mediopicos,charrascos, mielgas, rayas, pulpos, camarones,langostas, cangrejos, salpas y esponjas.) Losatunes comen todo lo que capturan y captu-ran casi todo lo que nada, flota, se arrastra osimplemente se halla sobre el fondo. Cazan,
de manera general, mediante la visión.
De bonito a sushi
El atún rojo no siempre se ha tenido por unaexquisitez. En los primeros años del siglo ,su carne roja y de sabor fuerte se considerabaen muchas partes del mundo comida aptasólo para perros y gatos. Con todo, en Nueva
Jersey y Nueva Escocia la pesca deportiva veía
en ese pez poderoso un contrincante digno.Zane Grey, el popular autor de Los jinetesde la pradera roja y otras novelas del Oeste,invirtió muchos de sus nada baladíes dere-chos de autor (vendió más de 13 millones deejemplares de sus libros) en aparejos de pesca,barcos y viajes a localidades exóticas en buscade atunes, peces espada y marlines. Aunqueel pez espada sí se consideraba comestible, sepensaba en atunes y marlines estrictamentecomo objetivos de la caza.
El atún rojo se apreciaba en ciertas loca-lidades y regiones (por ejemplo, en el Medi-
terráneo), pero no se consumió y valoró deforma generalizada hasta la segunda mitad delsiglo , cuando empezó a internacionalizarseel sushi .
Alguien podría pensar que el sushi y el sa-shimi han constituido elementos principales dela dieta japonesa durante siglos. No hubo tal.El consumo generalizado de pescado crudo esun fenómeno reciente. Dependientes del marpara obtener la mayor parte de su proteína,los japoneses no podían almacenar el pescadodurante mucho tiempo sin que se estropeara;por ese motivo lo conservaban ahumado o en
adobo. Cuando se introdujeron en el Japónde la posguerra los frigoríficos, el pescado queantes se ahumaba o se encurtía pasó a conser-varse de forma casi indefinida. Al tiempo quela industria pesquera adoptaba nuevas técni-cas, como el palangre (sedales extremadamentelargos con numerosos anzuelos cebados), lasredes de cerco (grandes redes que encierrantodo un cardumen) y los barcos frigoríficos, lascircunstancias favorecieron una modificaciónsin precedentes de los hábitos alimentarios delos japoneses.
El atún rojo pasó de ser un pescado re-
chazado por los samuráis, que lo tenían porimpuro, a considerarse maguro, una exqui-sitez tan cara como las trufas o el caviar. Eltoro, el maguro de mejor calidad, procede dela carne ventral grasa del atún rojo adulto.Las trufas o el caviar son escasos —de ahísu elevado precio—, pero el atún rojo, hastaentonces rechazado, se encontraba en ingentescardúmenes en alta mar; pronto se convirtióen un manjar exaltado a escala internacional.En 2001, un ejemplar de atún rojo se vendióen la lonja de pescado de sukiji, en okio,por 113.000 euros (en yenes). En los EE.UU.
—donde 40 años atrás el mero hecho de pen- L U
C Y R E A D I N G - I K K A N D A
DATOSDEL ATUN ROJO
El atún rojo es un devorador
insaciable. Está magníficamente
adaptado para cazar en las frías
aguas de los océanos templados.
Tamaño: El mayor atún rojo
conocido se capturó en aguas de
Nueva Escocia en 1979; pesaba
679 kilogramos. Un adulto suele
pesar la mitad y mide dos metros
de longitud.
Velocidad: Un atún rojo nadaa una velocidad de hasta 80 kiló-
metros por hora en cortos
arrebatos; atraviesa el océano
Atlántico en menos de 60 días.
Reproducción: Las hembras
producen hasta 10 millones de
huevos por año. Los peces que
salen del huevo (larvas) tienen tres
milímetros de longitud y crecen un
milímetro cada día.
Duración de la vida: Las larvas
de atún tienen sólo una probabilidadentre 40 millones de alcanzar la edad
adulta; el adulto vive hasta 30 años.
Precio: En 2001, un atún rojo de
200 kilogramos se compró en un
mercado japonés por 113.000 euros
(unos 565 euros el kilogramo).
80 INVESTIGACION Y CIENCIA, mayo, 2008
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 83/99INVESTIGACION Y CIENCIA, mayo, 2008 81
sar en comer pescado crudo era anatema—, elsushi y el sashimi constituyen hoy un productocomún; se hallan en supermercados, tiendas dealimentos selectos y en la carta de numerososrestaurantes.
Un pez que se vende por cientos de eurosla rodaja despierta el interés de las flotas pes-queras. La carrera tumultuosa para propor-cionar atún a los mercados japoneses de sushi
y sashimi ha intensificado la pesca del atúnen todo el mundo. Los japoneses intentaronllenar sus despensas (y frigoríficos y lonjas depescado) con los atunes que pescaban frentea sus costas (atún rojo del Pacífico, Tunnusorientalis ), pero pronto se percataron de queen el Atlántico Norte los atunes rojos eran demayor tamaño y abundaban más. Los compra-dores para importadores japoneses de pescadose convirtieron en una presencia habitual enlos muelles de puertos norteamericanos comoGloucester y Barnstable, en Massachusetts;comprobaban el contenido graso de los atunes
y, si éste era aceptable, compraban allí mismoel pescado y lo enviaban al Japón.
Antaño se creía que había dos poblacionesseparadas de atún rojo del Atlántico Norte(Tunnus thynnus ): una que se reproducía en elgolfo de México y permanecía en el Atlánticooccidental, y otra que frezaba en el Medi-terráneo y se alimentaba en la parte orientaldel océano. La Comisión Internacional parala Conservación de los Atunes del Atlántico(ICCA), un ente regulador establecido en1969, basaba sus cuotas de captura para el atúnrojo en esa hipótesis. Establecía, pues, límites
estrictos en el Atlántico occidental (donde el
atún rojo escaseaba ya en el decenio de 1970)y permitía capturas mayores en el Atlánticooriental. Sin embargo, experimentos de mar-caje y recaptura (que en los años cincuenta ysesenta iniciaron Frank J. Mather y FrancisG. Carey, de la Institución Oceanográfica de
Woods Hole, y que en fechas recientes harefinado Barbara A. Block, de la Estación Ma-rina Hopkins de la Universidad de Stanford)
han demostrado que el atún rojo no siguetal división. Los atunes rojos del AtlánticoNorte se reproducen en el golfo de Méxicoy el Mediterráneo, para migrar luego a travésdel océano, y así las áreas de alimentación delas dos poblaciones se superponen. Dado quela ICCA no ha logrado detener la sobrepescaen el Atlántico oriental, las poblaciones deatún rojo se han desplomado.
La situación es más alarmante todavía enel Mediterráneo. Mediante la aplicación detécnicas desarrolladas en Australia del Sur (conel atún rojo austral, Tunnus maccoyii ), los
pescadores acorralan cardúmenes de atunes jóvenes y los arrastran en corrales flotanteshasta ranchos marinos, donde se alimentan yceban hasta que pueden sacrificarse y enviarseal Japón. Existen normativas que prohíben lapesca en el Mediterráneo de atunes de tamañoinferior al establecido, pero no hay ningunaque impida capturar atunes inmaduros y en-gordarlos en piscifactorías. odos los países delMediterráneo, excepto Israel, se aprovechan deello y mantienen “ranchos” de atunes en aguasde la plataforma continental. En España, Fran-cia, Italia, Grecia, urquía, Chipre, Croacia,
Egipto, Libia, únez, Argelia, Marruecos y N E
I L L U C A S N a t u r e P i c t u r e L i b r a r y
1. LA SOBREPESCA del atún rojo es particularmente intensa en el
Mediterráneo. En el sur de España, un grupo de pescadores de atún cobra
una almadraba llena de atunes rojos ( arriba) y llevan las pilas de pecesgigantes hacia la costa (derecha).
Richard Ellis es uno de los
principales conservacionistas ma-
rinos de EE.UU. y un reconocido
ilustrador de temas de historia
natural marina. Sus pinturas
de cetáceos han aparecido en
Audubon, National Wildlife, Aus-
tralian Geographic, Encyclopedia
Britannica y otras publicaciones.
Ellis es investigador asociado del
Museo Americano de Historia
Natural de Nueva York y comi-
sario adjunto de la exposición
“Animales míticos”.
El autor
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 84/9982 INVESTIGACION Y CIENCIA, mayo, 2008
Malta se capturan cientos de miles de atunesinmaduros.
Si nos propusiéramos aniquilar una po-blación reproductora, bastaría con capturar alos peces antes de que llegaran a la edad dereproducción y mantenerlos en rediles hastaque fueran sacrificados. Por tanto, los ranchosde atunes, que en un determinado momentose propusieron como una solución al problemade la extinción, no hacen más que agravarlo.En 2006, el Fondo Mundial para la Natura-leza realizó un llamamiento para acabar con
la pesca de atunes en el Mediterráneo; sinembargo, dada la enorme rentabilidad del ne-gocio, el lector puede imaginar el eco escasode esa petición.
En su reunión de noviembre de 2007, laICCA ignoró los argumentos de los conserva-cionistas y estableció para el 2008 unas cuotasque apenas variaban respecto de las fijadas en elaño anterior. La organización adoptó un planpara reducir en un 20 por ciento la pesca deatún en el Mediterráneo para el año 2010; elplan incluía también recortes ulteriores. Peroel presidente de la delegación de los EE.UU.
censuró esa medida parcial, aduciendo que laICCA no había cumplido con la misión parala que se fundó.
Sin embargo, aunque se rebajaran las cuo-tas, el atún rojo seguiría estando en peligro.La pesquería atunera se halla repleta de flotasilegales, que hacen caso omiso de cuotas, res-tricciones, fronteras y cualesquiera otras nor-mas y regulaciones que puedan amenazar sus
capturas. Además, el mercado japonés (quedevora unas 60.000 toneladas anuales deatún rojo, más de las tres cuartas partesde la captura global) está dispuesto a
comprar atunes, sin mirar dónde y cómo
se hayan pescado. La flota pesquera nipona selas ha ingeniado para saltarse las restriccionesde su propio país; cada año le llegan miles detoneladas de atunes ilegales de las que falsificalos registros.
Sería bueno para la especie y, en últimotérmino, para los consumidores, que la pescade túnidos no se practicara de una forma tanimplacable. Habría, empero, que modificarde raíz la naturaleza humana. Mientras laspoblaciones de atunes continúan reduciéndose,crece la demanda japonesa de toro. Un númeromenor de atunes comportará una subida deprecios, precios más altos producirán una in-tensificación de la pesca y la intensificación dela pesca supondrá, por supuesto, el desplomede la ya diezmada población de atunes. (Lasituación mejoraría si los japoneses relajaran
su demanda de maguro, algo poco probable.)Parece que la única esperanza para el atún rojoreside en la cría en cautividad.
Ganado marinoEn el artículo “When will we tame the oceans?”(¿Cuándo domesticaremos los océanos?), pu-blicado en Nature en 2005, John Marra, delObservatorio errestre Lamont-Doherty dela Universidad de Columbia, anunciaba que lapesca en el mar ya no es sostenible. En suopinión, hemos fracasado en la gestión delas pesquerías oceánicas, que podrían agotarse
en pocos decenios. ¿Su recomendación? Una C O
R T E S I A D E R I C H A R D E L L I S ( l o n j a d e p e s c a d o ) ; D E X I M A G E / C O R B I S ( s a s h i m i )
2. COMPRADORES DE PESCADO inspec-
cionan los cadáveres de atún rojo en la lonja
de Tsukiji, en Tokio. En este mercado de
pescado se registró una compra récord: en
2001 se vendió un ejemplar de atún rojo por
20,2 millones de yenes, unos 113.000 euros.
HISTORIA DEL SUSHI
La acuciante demanda de sashimi
(lonchas de pescado crudo) y sushi
(arroz rematado o enrollado con
pescado o verduras) constituye la
principal amenaza para el atún
rojo.
Siglo IV a. de C. El sushi se originó
en el sudeste asiático como un
método de conservación del pescado.
La fermentación del arroz impide que
el pescado se pudra. El plato llega a
Japón en el siglo VIII d.C.
Siglo XIX. El sushi nigiri (con
pescado crudo y no conservado) es
popular en los puestos del mercado
de Edo, hoy Tokio. El pescado crudo
no se convierte en un ingrediente
común hasta la adopción
generalizada del frigorífico, después
de la segunda guerra mundial.
De los años setenta hasta hoy.El consumo de sushi se dispara en los
EE.UU., pero el atún rojo se sirve sólo
en restaurantes de categoría. Lamayor parte del sushi que se
consume en los EE.UU. procede de
otras especies (atún de aleta amarilla
y patudo) que también se hallan
amenazadas. La inmensa
mayoría del atún rojo
se sigue consumiendo
en Japón.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 85/99INVESTIGACION Y CIENCIA, mayo, 2008 83
El atún rojo (Thunnus thynnus) se ha captu-
rado durante milenios en las cercanías
del estrecho de Gibraltar y toda la cuenca me-
diterránea. La ciudad de Baelo Claudia, cuyas
ruinas se encuentran en la provincia de Cádiz,
revela la importancia que tuvo esa especie enel mundo latino. La pesca, la industria de la
salazón y del garum (salsa de sabor intenso
hecha con restos de atún rojo y otros peces
macerados al sol en salmuera) constituían las
principales fuentes de riqueza de esa ciudad.
El 18 de febrero de 1757, el padre benedicti-
no Fray Martín de Sarmiento le comunicaba al
Duque de Medina Sidonia, entonces propieta-
rio de las almadrabas del sur de España: “Esta
dicha observación de que he sido testigo,
excitó la curiosidad del Excelentísimo Señor
Duque, al compararla con la escasez de los
Atunes que hoy concurren a sus Almadrabas; siendo constante que en los siglos pasados,
eran casi infi nitos los Atunes que en las Alma-
drabas se cogían”. Estudios recientes, basados
en las capturas de las almadrabas desde el
siglo XVI hasta el presente, han demostrado
que la población de esa especie presenta
ciclos de máximos y mínimos con intervalos de
entre 100 y 120 años. Ello indica que la pesca
del atún sufría fluctuaciones notables, con
épocas de gran escasez.
Teniendo en cuenta que el atún rojo es
una especie migratoria y que existe una fuerte
interacción entre las pesquerías a uno y otro
lado del océano Atlántico, cabe recordar unacontecimiento que vino a modificar el estado
general de este recurso: el gran desarrollo de
las pesquerías que tuvo lugar en el Atlántico
después de la segunda guerra mundial. A
finales de los años cuarenta del siglo pasado,
se construyeron flotillas de cerqueros en el
norte de Europa; se dedicaban a la pesca de
especies pelágicas (arenque y caballa), pero
durante el verano cambiaban sus redes para
la captura del atún rojo. Ello coincidió con el
inicio de la pesca japonesa con palangre en
todo el océano, el desarrollo de la pesca del
atún con cebo vivo en el golfo de Vizcaya ycon red de cerco en el Atlántico occidental
(Massachusetts).
Tras un inicio espectacular, el esplendor
de las pesquerías del norte de Europa duró
apenas doce años. Desde 1963, las capturas
se desplomaron y ya no se han recuperado. Lo
mismo ocurrió con las almadrabas del estrecho
de Gibraltar y poco después con las pesquerías
de grandes ejemplares del golfo de Vizcaya y
todas las del Atlántico occidental.
Al propio tiempo, durante el decenio de los
setenta, se desarrollaba en el Mediterráneo
la pesca con red de cerco. La evolución de ese
sistema de pesca ha sido constante desde
entonces. A partir de 1996 —año en que se
alcanzaron cifras récord de captura—, la
Comisión Internacional para la Conservación
del Atún Atlántico (ICCAT) asignó a los países
pesqueros un sistema de cuotas. Según lascifras oficiales, desde ese año se ha producido
un descenso de las capturas en el Atlántico
oriental y Mediterráneo. Pero la realidad es
otra. El gran desarrollo de la pesca actual, diri-
gida a la captura en el Mediterráneo de peces
reproductores, cuyo destino son las granjas de
engorde para abastecer los mercados asiáticos
de consumo en crudo (Japón, sobre todo), ha
provocado un incremento de la pesca ilegal.
En la actualidad, la pesca del atún rojo supera
con creces los niveles que recomienda la
ICCAT para garantizar la sostenibilidad del
recurso.La sobreexplotación de las pesquerías at-
lánticas ha conducido al colapso de algunas de
ellas. ¿Seguirán las pesquerías mediterráneas
el mismo camino? Todo parece indicar que
la cuenta atrás ya ha comenzado. El proceso
empieza con un incremento del esfuerzo de
pesca en las áreas de gran productividad; ello
ha ocurrido en el mar de Baleares, mar Tirreno,
golfo de Sidra y mar de Levante. Le sigue una
fase de descenso de los rendimientos pesque-
ros; un síntoma detectado ya en algunas de
esas áreas. Por fin, sobreviene el colapso de
las pesquerías.
La situación actual del atún rojo hamovilizado la opinión pública y la comuni-
dad científica internacional; exigen que se
empleen todos los medios para proteger a tan
amenazado recurso natural. A finales de los
años noventa, diez instituciones científicas
europeas iniciaron una colaboración que se
propone culminar con el mayor reto de la acui-cultura marina: la domesticación del atún rojo.
El grupo se denomina DOTT (“Domestication
of Thunnus thynnus”). En una investigación
llevada a cabo entre 2003 y 2006 (proyecto
REPRODOTT), se logró la puesta en cautividad
del atún rojo del océano Atlántico. El grupo
afronta ahora un gran proyecto de tres años
de duración (2008-2010), con un presu-
puesto de cuatro millones de euros y bajo la
coordinación de Fernando de la Gándara, del
Instituto Español de Oceanografía de Murcia.
Se proponen reafirmar el conocimiento actual
sobre la reproducción en cautividad de estaespecie, establecer los conocimientos básicos
necesarios para la obtención de puestas y el
control del desarrollo larvario, y constituir
las bases para el desarrollo de alimentos que
respeten el medio.
El reto es enorme. Pero, si se supera, tendrá
efectos muy positivos en la conservación de
la especie. Los científicos japoneses lo inten-
taron con el atún rojo del océano Pacífico; lo
lograron en 2004, después de treinta y dos
años de investigación.
José L. Cort
Centro Oceanográfi co de Santander Instituto Español de Oceanografía
PASADO Y PRESENTE DEL ATUN ROJO
Pesca del atún rojo en la ciudad de Baelo Claudia, en el estrecho de Gibraltar, 200 a.C. © I
E O
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 86/9984 INVESTIGACION Y CIENCIA, mayo, 2008
domesticación a gran escala del océano, congranjas de peces que críen, engorden y reco-lecten especies de interés comercial. Marrareconocía que las piscifactorías actuales hancausado daños ambientales: han contaminadolos ecosistemas costeros y han añadido presióna las poblaciones de peces silvestres, al propa-
gar enfermedades y productos tóxicos. La so-lución que propone se basa en el traslado maradentro de esas operaciones de maricultura,que se llevarían a las aguas de las plataformascontinentales externas; se instalarían corralespara peces de mayor tamaño, unas estructuras
cerradas mediante redes que abarcarían hasta100.000 metros cúbicos de agua, flotarían bajola superficie y se remolcarían de una localidada otra. Se dispersarían así los contaminantesgenerados por la piscicultura, lo que mitigaríael daño ambiental.
Marra sugería una estrategia adicional: sacar
partido de la tendencia que muestran ciertasespecies de atún para agregarse bajo un objetodistinto de su entorno. Esa idea ya se ha aplica-do en el diseño de dispositivos de pesca basadosen la agregación de peces, que se remolcan conbarcas para atraer a los cardúmenes de atunes.No se capturarían de golpe todos los peces, sinoque se llevaría a cabo una gestión sosteniblemediante la alimentación, el mantenimientoy la recolección periódica de algunos de losatunes del cardumen, una gestión semejantea la de los rebaños de ganado.
A menos que se críen los atunes como si
de animales domésticos se tratara, su poblaciónmundial continuará desplomándose. Pero lacría de atunes en cautividad supone un granreto. Clean Seas Aquaculture Growout, unaempresa del Grupo Stehr, en Port Lincoln,
Australia del Sur, se ha propuesto superarlo.El gobierno australiano ha concedido a CleanSeas una subvención de 4,1 millones de dólaresaustralianos (2,3 millones de euros) para pro-mover la comercialización de la cría del atúnrojo austral. La compañía ha criado en cautivi-dad peces de limón listados (Seriola lalandi ) ycorvinas del sur ( Argyrosomus hololepidotus ). Ya
se producen a escala comercial. En octubre de2006, Clean Seas transfirió atunes rojos en edadreproductora (machos y hembras sexualmentemaduros) de sus corrales a un tanque de tresmillones de litros que remedaba las condicionesóptimas para la freza. Un ordenador centralmodifica la iluminación del tanque, simula lasalida del sol, la puesta, etcétera. Se trata de unsistema novedoso y único en el mundo.
Durante mi visita a Port Lincoln en febrerode 2007, Rob Staunton, el gerente de la granjapara el Grupo Stehr, me llevó hasta Arno Bay,a 120 kilómetros al norte de Port Lincoln,
en la costa occidental del golfo de Spencer.Me permitieron la entrada (reservada) en elsantuario del negocio del atún, el gigantescotanque cerrado de atunes del vivero de ArnoBay. Digo “reservada” porque mi visita, autori-zada personalmente por el mismo Hagen Stehr,fundador de la compañía, estuvo condicionadapor notables restricciones, comprensibles. Nose permite tomar fotografías en las instalacio-nes, porque las técnicas, el procesamiento delagua, el control del clima y todos y cada unode los demás elementos del diseño de este pro-yecto han de salvaguardarse cuidadosamente
para evitar el espionaje industrial.
Las flotas pesqueras de todo el mundo han extraído miles de toneladas de atún rojo de
los océanos y ahora la especie se ve abocada a la extinción. Parece que la situación es
peor en el Atlántico Occidental. A pesar de que la Comisión Internacional para la Conser-
vación de los Atunes del Atlántico (ICCAT) ha impuesto, desde 1981, cuotas de captura
estrictas en el Atlántico Occidental, se estima que la cantidad de peces sexualmentemaduros en esa región (medida a partir de su masa total) es inferior al 20 por ciento de
la que era a mediados de los años setenta. Parte del problema estriba en que los atunes
rojos del Atlántico Occidental migran a la región oriental de dicho océano, donde las
cuotas de captura son unas 10 veces mayores. Más aún, las cifras de las capturas de que
se informa ( abajo) no incluyen la pesca ilegal; se cree que la captura real de atún rojo en
el Atlántico Oriental y el mar Mediterráneo dobla las cifras oficiales. Tendencias similares
están reduciendo las poblaciones de atún rojo del Pacífico y de los atunes rojos australes,
que frezan en el océano Indico.
DISTRIBUCION GEOGRAFICA DEL ATUN ROJO
Austral
Pacífico Pacífico
AtlánticoOccidental Oriental
ATLANTICO ORIENTAL (y Mediterráneo)
20
40
60
0
Captura de atún rojo (miles de toneladas)
1950 1970 1990 2010
PACIFICO
20
40
Captura de atún rojo (miles de toneladas)
Captura de atún rojo (miles de toneladas)ATLANTICO OCCIDENTAL
20
Año Año
1950 1970 1990 2010Año
1970
AUSTRAL
20
40
60
80Captura de atún rojo (miles de toneladas)
0
0
1950 1990 2010
Año19701950 1990 2010
DEPREDACION A ESCALA MUNDIAL
L U
C Y R E A D I N G - I K K A N D A ; F U E N T E : D P T O . A C U I C U L T U R A Y P E S C A , F A O
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 87/99
Además de la subvención del gobierno aus-traliano, el Grupo Stehr ha invertido millonesen el diseño innovador de esas instalaciones;sería desastroso que alguien se apropiara desus diseños o los modificara y con ello lesganara la partida. Resulta difícil imaginar quealguien pudiera copiar esa operación gigantesca
sin que nadie en Australia se enterara; perohay empresarios de otros países (Japón, porejemplo) muy interesados en el negocio de lacría en cautividad del atún rojo. Un grupo deinvestigadores de la Universidad de Kinki yaha hecho eclosionar atunes rojos a partir dehuevos y los ha criado en el laboratorio hastala edad reproductora.
Para empezar nuestro recorrido, Stauntony yo tuvimos que calzarnos unas botas decaucho blanco especiales, esterilizadas paraimpedir la introducción de microorganismosextraños en los tanques de alimentación de
los atunes. Guiados por Tomas Marguritte,cambiamos nuestras botas blancas por otrasazules cuando entramos en la estancia centraldel vivero de Arno Bay: el tanque de cría deatunes rojos. En una sala cavernosa iluminadapor una batería de luces fluorescentes, con elsordo zumbido del aire acondicionado comoúnico ruido de fondo (la temperatura en elexterior era de unos 38 grados C), subimosal borde de hormigón del tanque imponentey miramos hacia abajo.
El tanque tenía unos 25 metros de diámetroy seis metros de profundidad. La iluminación
era tenue; apenas veíamos nada que resaltase.Marguritte lanzó entonces al agua un par depeces de tamaño reducido y, de repente, unrelámpago azul ultramar y cromo rompió lasuperficie: uno de los atunes arremetió contrala carnada. El tanque bullía de espuma, atrave-sada por las aletas dorsales y caudales falcifor-mes de los atunes, que anticipaban una comida(aunque habían sido alimentados hacía sólouna hora). Mientras nadaban agitadamenteen círculos bajo nosotros, descubrimos que setrataba de ejemplares adultos. Especímenes de300 kilogramos: una suerte de torpedo delgado
y bruñido, ahusado en ambos extremos, conuna línea de trazos de pínnulas o falsas aletasamarillas situadas inmediatamente antes de lacola, y los sorprendentes paréntesis que marcanlas quillas horizontales de estas especies, amari-llos cromo en el atún rojo austral y negros enlas variedades septentrionales. Nadie es capazde distinguir un macho de una hembra (vivos),excepto otro atún.
Inclinados sobre el borde del tanque, con-versamos acerca del programa de reproducción.Marguritte afirma que podían remedar las con-diciones exactas de las aguas de Indonesia,
donde frezan en condiciones naturales. Si por G A
V I N N E W M A N A F P / G e t t y I m a g e s ( a r r i b a ) ; C H R I S P A R K A P P h o t o ( c e n t r o ) ; A F P / G E T T Y I M A G E S ( a b a j o )
3. JAULAS DE PECES, que aceleran la desaparición del atún rojo, se remolcan
a través del Mediterráneo a ranchos marinos cerca de Sicilia ( arriba). Cada jaula
contiene unos 250 atunes rojos. Frente a la costa de Ensenada, en México, los
criadores de atunes alimentan a cardúmenes de atunes rojos del Pacífico hasta
que han adquirido el peso necesario para su venta (centro). Las rodajas de atún
fresco se envían al aeropuerto internacional de Los Angeles, donde se embarcan
en vuelos sin escala hacia Japón. En el interior de una jaula de atunes en el mar
Adriático, en aguas croatas, un buceador nada entre los peces condenados antes
de que, también ellos, sean enviados a Japón ( abajo).
INVESTIGACION Y CIENCIA, mayo, 2008 85
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 88/9986 INVESTIGACION Y CIENCIA, mayo, 2008
lo general frezan durante el verano del hemis-ferio austral, cuando los días son más largos yla temperatura del agua más elevada, puedenhacer que el tanque se ajuste a las condicionesde una fecha concreta (el 20 de noviembre,
por ejemplo): establecen entonces la duraciónde las horas de luz de día, la temperatura delaire, la del agua e incluso las corrientes. Logranasí reproducir dicho momento en el océanoIndico, al sur del archipiélago Indonesio. Laúnica variable que no pueden remedar es laprofundidad del agua, y cruzan los dedos paraque no constituya un factor crítico en la re-producción del atún rojo austral.
Inmediatamente al sur del arco de islasde Indonesia (Java, Bali, Flores, Sumba,Komodo, imor) se halla la fosa de Java,que desciende hasta uno de los puntos más
profundos del océano Indico, una caída decasi ocho kilómetros de profundidad. Si laprofundidad constituye un factor clave, elproyecto de Clean Seas está sentenciado. Lapoblación reproductora de Clean Seas noprodujo descendencia en 2007; este año lointentarán de nuevo.
Domesticar el atún rojoEn la sala de conferencias de Clean Seas, enel centro de operaciones de Port Lincoln, co-nocí a Marcus Stehr, consejero delegado dela compañía. El día anterior, Marcus había
estado a bordo de uno de los buques atuneros
cerqueros en la Gran Ensenada Australiana (laenorme bahía abierta de la costa austral delcontinente), mientras una jaula de red quecontenía unas 100 toneladas de atún empezabasu viaje hasta los corrales en aguas de PortLincoln. Como todos los que guardan algunarelación con esta empresa, Marcus se muestra
entusiasmado y optimista acerca del éxito delproyecto, que cree inminente. Está convencidode que su hazaña cambiará por completo lapercepción del atún rojo en Australia.
Aunque los australianos parecen ir en cabe-za, queda por ver si serán ellos, los japoneseso los europeos los que ganen la carrera para lacría en cautividad del atún rojo. En 2005, ungrupo del Instituto Español de Oceanografíaque trabaja en el puerto de Mazarrón extrajoóvulos y espermatozoides de una poblaciónreproductora cautiva de atún rojo del Atlánti-co; mediante fecundación in vitro obtuvieron
larvas. (Los animales que salen del huevo enlos peces óseos se denominan larvas porquesu aspecto es muy distinto de su morfologíaadulta.) Debe conseguirse. La supervivenciade la especie —y de la industria atunera—dependen de ello.
Para el pescador deportivo, el atún rojoes una presa poderosa y atractiva. Para elarponero, una sombra iridiscente que agitabajo la superficie su cola falciforme y burlasu alcance. El pescador de cerco ve un remo-lino turbulento de cuerpos plateados y azulesque hay que izar a bordo. El palangrero, un
pescado que se amontona en cubierta juntoa muchos otros animales marinos brillantes.Para el criador de atunes, el atún rojo es unanimal anónimo al que hay que cebar hastaque llegue el momento de hundir un estileteen su cerebro. El subastador de la lonja depescado de sukiji ve un sinfín de hileras debloques helados con forma de atún y sin cola.Para los consumidores japoneses es un toro,una tajada de carne deliciosa que se come conwasabi y salsa de soja.
Para el biólogo, el atún rojo constituye unamaravilla de la ingeniería hidrodinámica, con
un cuerpo repleto de modificaciones que ha-cen que coma más, crezca más, nade más, sesumerja más y migre más que cualquier otropez marino. Y para los que desean rescatar aTunnus thynnus del olvido biológico, debe servisto como un animal doméstico, lo mismoque una oveja o una vaca.
Para algunos, se trata de un cambio impo-sible. El atún rojo, merodeador por excelenciade los océanos, el pez más salvaje y más po-deroso del mar, no puede —y probablementeno debería — domesticarse. Pero si permanecesalvaje, se le avecina un futuro sombrío... el
mismo que a la industria del maguro.
GIANT BLUEFIN. DouglasWhynott. North Point Press,1995.
SONG FOR THE BLUE OCEAN. CarlSafina. Henry Holt, 1997.
RAPID WORLDWIDE DEPLETION OF
PREDATORY FISH COMMUNITIES.Ransom A. Myers y Boris Wormen Nature, vol. 423, págs.
280-283; 15 de mayo, 2003.
DOLLARS WITHOUT SENSE: THE
BAIT FOR BIG-MONEY TUNA RAN-
CHING AROUND THE WORLD. JohnP. Volpe en BioScience, vol. 55,nº 4, págs. 301-302; abril 2005.
ELECTRONIC TAGGING AND POPU-
LATION STRUCTURE OF ATLANTIC
BLUEFIN TUNA. Barbara A. Blocket al . en Nature, vol. 434, págs.1121-1127; 28 de abril, 2005.
THE SUSHI ECONOMY. Sasha Is-senberg. Gotham, 2007.
Bibliografíacomplementaria
4. GREENPEACE organizó una protesta en una playa del sur de Turquía el
noviembre de 2007, coincidiendo con la conferencia anual de la Comisión Inter-
nacional para la Conservación de los Atunes del Atlántico, que se celebraba en
aquel país. El ente regulador ignoró las peticiones de un cese inmediato de la
pesca del atún rojo en el Mediterráneo. Adoptó un plan que prevé reducciones
modestas de las cuotas de captura en el transcurso de los próximos años.
G R
E E N P E A C E / H O A P P h o t o
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 89/99
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 90/9988 INVESTIGACION Y CIENCIA, mayo, 2008
M P
P ́
a
d d
b b
1
2
Antiparalelogramos, ruedas y émbolosEl cuadrilátero cuyos lados se cruzan hace rodar dos elipses, una sobre la otra,
y transforma el movimiento rectilíneo del vaivén de un émbolo en el circular de una rueda
Norbert Treitz
C U R I O S I D A D E S D E L A F I S I C A
Un cuadrilátero plano, en el que los pares de lados opuestos son igua-
les, no es necesariamente un paralelo-gramo. Puede ser un antiparalelogramo.En un artículo anterior (I
C, Curiosidades de la física, fe-brero 2008) vimos que un paralelogra-mo dos de cuyos lados se cruzan, unantiparalelogramo, hace rodar dos elip-
ses una sobre la otra y que, con un pocode esfuerzo mental, permite también ex-plicar la propagación del sonido en unasala elíptica.
Abordamos ahora otra propiedad delantiparalelogramo, muy peculiar: la deconvertir un movimiento circular en unorectilíneo y viceversa. Es el viejo sueñode los constructores de las máquinas devapor. Su inventor James Watt estaba or-gulloso de haber encontrado una solu-ción aproximada. Pafnuti Tschebyschow(1821-1894), al que los matemáticos sue-
len llamar Tschebyschew, teórico de losnúmeros y de la probabilidad, calculómuy buenas aproximaciones.
Que es posible convertir de maneraexacta un movimiento circular en unorectilíneo por medio de un varillajelo descubrió en 1874 Harry Hart(1848-1920), de cuya vida apenas si se
puede encontrar alguna información pu-blicada. Los puntos medios de cada unode los cuatro lados del antiparalelogra-mo están siempre en una misma recta.
A lo largo de ésta, se cumple una rela-ción geométrica: el producto de la lon-gitud de dos segmentos sobre una rectaque comparten un mismo extremo esconstante bajo una operación de “inver-
sión respecto a un círculo”. La inversiónrespecto del círculo transforma rectas encircunferencias, y al revés. El generalfrancés Charles-Nicolas Peaucellier(1832-1913) encontró un inversor exac-to, que funcionaba con una combina-ción de un trapezoide simétrico y unrombo (véase la figura 1).
La ventaja técnica de una conversiónexacta en movimiento rectilíneo resultade todas maneras limitada. Claro estáque para que el émbolo del cilindro nose tuerza no hay que tener que recurrir
a medidas especiales. Las diversas arti-culaciones giratorias deberán conservarsu movilidad gracias a la lubricación, loque no tiene por qué suponer menostrabajo.
Supongamos ahora que se fija unode los lados del cuadrilátero deforma-ble. Lo denominaremos puntal; a los
que cuelgan de él, brazos, y biela al ladoopuesto al puntal. Si ningún lado esmás largo que los otros tres juntos, setiene un cuadrilátero. Si debe permane-cer en un plano, tendrá un grado de li-bertad, un ángulo que puede ir toman-do cualquier valor. Según una regla deFranz Grashof (1826-1893), los ángu-los en los extremos del lado más corto
pueden girar del todo si los lados máscorto y más largo juntos no son máslargos que los otros dos. Dependiendode si el lado más corto es el puntal, elbrazo o la biela, habrá diferentes tipos demanivelas y cuadriláteros deformables.
Cuadriláteros deformables
En nuestro antiparalelogramo elijamospor puntal uno de los lados más largos.Entonces, los dos más cortos serán losbrazos y el otro más largo la biela. Aho-ra la condición de Grashof se cumple de
maneras diversas, sobre todo con el casolímite de que haya igualdad entre los dospares de lados. Significa que el cuadrilá-tero deformable puede ir cambiando en-tre paralelogramo y antiparalelogramo.
Los puntos de los brazos trazan arcosde circunferencia. El movimiento de lospuntos de la biela no tiene por qué ser
El inversor de Peaucellier: con el teorema
de Pitágoras se deduce que el producto
MP · MP ’ sólo depende de la longitud de las
varillas a y b; es igual a a2 – b2. A la izquierda
una posible realización. S I G A N I M / S p e k t r u m d e r W i s s e n s c h a f t ( t o d a s l a s i l u s t r a c i o n e s )
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 91/99INVESTIGACION Y CIENCIA, mayo, 2008 89
tan trivial. Si el cuadrilátero se muevecomo un paralelogramo, entonces cadapunto de la biela se desplazará sobre uncírculo cuyo radio será la longitud de losbrazos. En cambio, en el movimientocomo antiparalelogramo los puntos dela biela se desplazarán sobre curvas en
forma de ocho; su punto medio lo harásobre un ocho con dos ejes de simetría.En el caso en que el puntal y la bielasean más largos que los brazos en un fac-tor √2 (para una caja de construccionesmetálicas, 7/5 es una aproximación ra-cional aceptable de √2), la curva que
describe el punto medio de la biela esuna lemniscata de Bernoulli.
Esta curva resulta de invertir una hi-pérbola rectangular respecto al círculocuyo diámetro es el eje mayor de la hi-pérbola. Se trata de una curva de Cassi-ni especial; esto es, un conjunto de pun-
tos para los que el producto de lasdistancias a dos puntos dados es unaconstante. No se ha de confundir con lalemniscata de Gerono, que es una cur-va de Lissajous.
En la cercanía del centro, la lemnisca-ta de Bernoulli se aproxima a una línea
recta. Esta porción de la curva la utilizó James Watt de guía del émbolo en la má-quina de vapor, si bien con una curvamás esbelta y de brazos más pequeños.
Tales mecanismos ingeniosos no seencuentran en las máquinas de vapormodernas, ni tampoco en los motores
de combustión interna. Se ha compro-bado que es más acertado forzar el mo-vimiento rectilíneo del pistón con otrosmedios y emplear mecanismos tan ba-nales como bielas y crucetas para la trans-formación del movimiento rectilíneo enuno circular.
LA CONVERSION RECTILINEA EXACTA
La inversión respecto al círculo se
denomina también “reflexión en el
círculo”, aunque una circunferencia re-
flectante daría una imagen muy diferen-
te. Una inversión reproduce el interior
de un círculo en el exterior y viceversa;
la circunferencia se reproduce sobre sí
misma. El punto imagen P ’ de un punto
P tras la inversión está, desde el punto
de vista del centro M del círculo, en la
misma dirección que P y de tal manera
que el producto de las distancias de
ambos puntos a M es igual al cuadrado
del radio: MP · MP’ = R2. En el plano
de los números complejos, la imagen
tras una inversión respecto del círculo
particular de centro 0 y radio 1 resulta
ser el conjugado del inverso.
En tres dimensiones la inversión se
puede extender de manera similar a la
esfera.
Una circunferencia que pase por el
centro M del círculo de inversión se
convierte, tras la inversión con respecto
a ésta, en una recta: si P se desplaza
sobre la circunferencia que pasa por M,
su imagen inversa P ’ se desplazará sobre
una recta perpendicular a la recta que
pasa por los dos centros de los círculos
(triángulos semejantes en la figura a).
Esta situación se vuelve a dar en
el antiparalelogramo ABCD (véase b):
trazamos la mediana del trapecio ABCD
correspondiente (cualquier otra paralela
sería igual de útil). M, P y P ’ son los
puntos medios de AB, DA y BC . Demos-
traremos que, para cualquier posición
del antiparalelogramo, P y P’ son la ima-
gen uno del otro tras una inversión con
respecto a una circunferencia centrada
en M.
Sean BQ la perpendicular a MP desde
B, y sea QR de la misma longitud que
MQ. Entonces los dos triángulos colorea-
dos APM y BRP ’ son congruentes entre
sí y MP = RP ’, esto es, MR = PP ’. Nos
interesamos por MP · MP ’ = RP ’ · MP ’ =
= RP ’ · (RP ’ + 2 · QR) = (RP ’ + QR)2 – QR2 =
= QP ’2 – MQ2. Aplicando el teorema de
Pitágoras a los triángulos QRB y QP’B
vemos que el producto da MP · MP ’ =
= P’B2 – MB2. Es decir: sólo depende de
las longitudes de los lados del antipara-
lelogramo y no de los ángulos.
Como mecanismo articulado, sería
realizable como en c. Los puntos M y S
están fijados a la tabla, y P a un punto
del perímetro de la rueda. Cuando P gira
sobre una circunferencia alrededor de S,
P ’ se desplaza por una recta perpendicu-
lar a MS: la rueda acciona el émbolo
o viceversa.
M
P
P´
B D
C A
M Q R P P´
A
M S
M
B
A
P
D
C
P ́
a b
c
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 92/9990 INVESTIGACION Y CIENCIA, mayo, 2008
Encuestas electoralesEntre lo que declaran los ciudadanos en las encuestas electorales y la estimación de voto que
hacen las empresas demoscópicas hay grandes diferencias. ¿Cómo se obtiene la estimación del
voto a partir de las respuestas obtenidas en las encuestas? Juan M. R. Parrondo
J U E G O S M AT E M AT I C O S
Un par de semanas antes de las últi- mas elecciones generales del 9 de
marzo, casi todos los periódicos publi-caron en primera página los resultadosdel sondeo preelectoral realizado por elCentro de Investigaciones Sociológicas(CIS) que auguraba un “empate técni-
co” entre los dos grandes partidos polí-ticos, PSOE y PP, asignando al primeroun 40,2 % de los votos válidos y al se-gundo un 38,7 %. Sin embargo, al leerel estudio con más detalle, se podía ob-servar que a la pregunta “¿si las eleccio-nes fueran mañana, a qué partido vota-ría usted?” un 31,0 % de los encuesta-dos respondía PSOE, mientras que un21,1 % se decantaba por el PP. Añadien-do a estos datos las simpatías mostra-das por los aún indecisos, el PSOE al-canzaba un 37,1 % y el PP un 24,5 %.
¿Cómo es posible que una diferencia decasi 10 puntos en la intención de voto,o de más de 12 puntos en la intenciónde voto más la simpatía, se tradujeranfinalmente en una de 1,3, es decir, enun “empate técnico” (bastante cercano alos resultados finales)?
En el mismo estudio del CIS, antes dedar paso al anexo que contiene la estima-ción de voto, se advierte: “Dado que losdatos de los indicadores ‘intención de voto’e ‘intención de voto + simpatía’ son datosdirectos de opinión y no suponen ni propor-
cionan por sí mismos ninguna proyecciónde hipotéticos resultados electorales, en esteanexo se recogen los resultados de aplicar unmodelo de estimación a los datos directos deopinión proporcionados por la encuesta.Obviamente, la aplicación a los mismosdatos de otros modelos podría dar lugar aestimaciones diferentes .”
¿Por qué la intención de voto no esuna buena estimación del voto que seproducirá en las elecciones? ¿Y cuál elmodelo utilizado por el CIS para esti-mar el voto a partir de los datos de la
encuesta? Aunque dicho modelo no se
publica en la página web del CIS, el di-rector de su departamento de investiga-ción sí ha respondido amablemente amis consultas y me ha proporcionadoinformación acerca del procedimientode estimación.
El problema principal con el que se
enfrentan los técnicos del CIS es la gran,y constante, discrepancia entre el recuer-do de voto en las pasadas elecciones de2004 y el voto real que se produjo enaquellos comicios. En la Tabla I se pue-den ver las respuestas a la pregunta “¿a quién votó en las últimas eleccionesgenerales (2004)?” junto con los porcen-tajes de voto que realmente tuvieron lu-gar. Es difícil explicar estas discrepancias,que además se producen en multitud deencuestas, no sólo en las de intenciónde voto. ¿Se deben a una elección in-
correcta de la muestra o a que algunos en-cuestados no dicen la verdad?
Aunque es poco probable que sea así,lo más sencillo desde un punto de vistateórico es suponer que la discrepancia sedebe a un error muestral. Esta suposiciónpermite corregir los datos de cualquierpregunta realizada en la encuesta. Paraello hace falta cruzar las respuestas de to-das las preguntas con el recuerdo de voto,tablas que están disponibles en la páginaweb del CIS. Si p j es el porcentaje de in-dividuos que recuerdan haber votado a j y
c ij es, de entre estos últimos, el porcentajede individuos que se decantan por unaopción i en una pregunta, el porcentajetotal de sujetos que se decantan por i enla encuesta será:
Sin embargo, si el porcentaje real devotos en 2004 por el partido j fue p~ j , en-tonces, una buena estimación del porcen-taje real de individuos que se decantan
por la opción i en la pregunta será:
en lugar de c i . Esta corrección equivalea reajustar la muestra para que reflejecorrectamente el recuerdo de voto. Paraaplicar la fórmula anterior a los datos de
la encuesta electoral, hay que tener encuenta que ciertas opciones en la pregun-ta de recuerdo de voto no tienen reflejoen el voto real en 2004 y, al revés, no sepregunta si el voto del encuestado fuenulo. Por tanto, los porcentajes p~ j no sonexactamente los porcentajes de voto de2004, sino que hay que incluir aquellosencuestados que no tenían edad para vo-tar, no recuerdan el voto o no contestan ala pregunta del recuerdo de voto en 2004y hay que eliminar los votos nulos de losporcentajes de voto real. La siguiente
fórmula refleja estas modificaciones:
en donde P denota los porcentajes devoto nulo real en 2004 (v.n.), no teníaedad para votar (n.e.), no recuerda (n.r.),no contesta a la pregunta del recuerdo devoto (n.c.), y P j (v.r.) es el porcentaje devotos que consiguió el partido j en 2004.En la tercera columna de la Tabla I semuestran los porcentajes p~ j calculados con
la fórmula anterior.Vayamos ahora a las preguntas de la
encuesta que se refieren a la intención devoto. Por razones de espacio, limitaré todoel análisis a los tres partidos más votados(en 2004 y 2008): PSOE, PP e IU, perolos lectores pueden completar el mismoestudio con el resto de los partidos utili-zando los datos cruzados que están a sudisposición en la página web del CIS.
En la Tabla II se puede ver lo que sedenomina intención de voto más simpa-tía por un partido. Al encuestado se le
pregunta en primer lugar “si las eleccio-
...100100
2
2
1
1 ++=
pc
pc c i i i
.).(.).(100
.).(.).(.).(100r v P
nv P
c nP r nP e nP p̃ j j
−
−−−=
...100100
2
2
1
1 ++=
p̃ c
p̃ c c ˜ i i i
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 93/99INVESTIGACION Y CIENCIA, mayo, 2008 91
nes fueran mañana, ¿a qué partido vota-ría?”. El resultado se denomina intenciónde voto. A los que a esta pregunta respon-den que votarían en blanco, no votarían ono saben o no contestan, se les preguntade nuevo “¿por cuál de los siguientes par-tidos o coaliciones siente usted más sim-
patía o cuál considera más cercano a suspropias ideas?”. La intención más simpa-tía por un determinado partido se deter-mina sumando las respuestas a favor dedicho partido en las dos preguntas. Losresultados se pueden ver en la Tabla II,cruzados con el recuerdo de voto. Losporcentajes están siempre calculados so-bre el total de respuestas de recuerdo devoto por una determinada opción. Poreso las columnas no suman cien. Las filassí deberían sumar 100, si incluyéramos
todos los partidos sobre los que se pre-gunta. La columna “abstención” incluyeaquellos que, en las dos preguntas, no sehan decantado por ningún partido, es de-cir, los que en la segunda han insistido enque no tienen preferencia por ninguno ohan vuelto a marcar la casilla “no sabe” o
“no contesta”.Disponemos ahora de todos los datos
necesarios para estimar el voto en laselecciones. Para calcular el voto a IU, porejemplo, tomamos cada entrada de latercera columna de la Tabla II y la multi-plicamos por el correspondiente porcen-taje corregido de la Tabla I. Sumamos to-dos estos productos y obtenemos elporcentaje de voto final. Lo que hacemosasí es aplicar la segunda fórmula de esteartículo. Si se procede de esta forma conlos tres principales partidos y con la abs-
tención, se obtienen los siguientes resul-tados: PSOE 30,39 %, PP 27,98 %, IU4,60 %, abstención 27,62 %. Finalmen-te, si queremos dar las estimaciones enporcentajes sobre voto válido, tendremosque eliminar la abstención, es decir, mul-tiplicar los valores anteriores por 100/(100 – 27,62). Con ello se obtienen lossiguientes resultados: PSOE 41,99 %,PP 38,66%, IU 6,35 %.
El algoritmo completo que utiliza elCIS tiene algunas correcciones adiciona-les que utilizan otros cruces y que aquí no
hemos incluido. Por eso la estimación fi-
nal del CIS (PSOE: 40,2 %, PP: 38,7 %,IU: 5,8 %) difiere ligeramente de la cal-culada aquí. Sin embargo, como puedencomprobar, la corrección por recuerdo devoto es la más importante de todas lasque realiza el modelo del CIS.
Sigue siendo un misterio la discrepan-
cia entre el recuerdo de voto declarado yel voto real en 2004. Probablemente sedeba a la suma de varios factores: algunosdesajustes en la elección de la muestra osesgos en la disponibilidad de las personasa contestar, respuestas no sinceras, o res-puestas sinceras pero equivocadas. Estasúltimas no deberían en realidad corregir-se, puesto que el encuestado puede sersincero en su respuesta sobre intención devoto, aunque sea algo olvidadizo. Las dosprimeras razones de discrepancia sí secorrigen adecuadamente con el método
que utiliza el CIS, puesto que si un indi-viduo miente acerca de lo que votó en2004, lo más probable es que también lohaga sobre su intención de voto. En cual-quier caso, la corrección realizada resultapertinente, como lo demuestran los resul-tados de las elecciones de este año (PSOE:43,64 %, PP: 40,11 %, IU: 3,8 %). Lasdiscrepancias entre la estimación y el re-sultado final pueden deberse perfecta-mente, además de a errores estadísticos, aldesarrollo de la campaña electoral, ya quela encuesta se realizó entre el 21 de enero
y el 4 de febrero de 2008.
Recuerdo devoto 2004
Voto real2004
Porcentajescorregidos
PSOE 37,7 32,22 26,69
PP 20,0 28,53 23,63
IU/ICV 3,2 3,75 3,11
CiU 1,8 2,44 2,02
ERC 0,9 1,91 1,58
PNV 0,8 1,23 1,02
BNG 0,4 0,61 0,51
CC 0,3 0,69 0,57
EA 0,1 0,23 0,19
CHA 0,1 0,27 0,23
Na-Bai 0,1 0,18 0,15
Otro partido 1,0 1,74 1,44
En blanco 2,3 1,18 0,98
No votó 13,6 24,34 20,16
No tenía edad 4,8 4,8
No recuerda 4,9 4,9
N.C. 8,1 8,1
Votos nulos 0,76
Intención + simpatía
Recuerdo
PSOE PP IU Abstención
PSOE 76,5 6,2 2,9 11,2
PP 3,7 84,1 0,3 9,8
IU 13,4 1,4 74,1 7,5
CiU 6,1 3,4 1,6 11,7
ERC 7,3 0 5,8 7,5
PNV 3,4 0 0,4 9,5
BNG 15,9 0,9 2,3 13,0
CC 6,8 15,6 4,4 18,7
EA 0 1,9 0 19,4
CHA 32,5 5,6 0 37,1
Na-Bai 3,7 0 0 18,5
Otro partido 6,1 7,8 5,4 17,0
No tenía edad 35 24,9 5,7 27,6
En blanco 13,2 10,3 1,8 65,9
No votó 22,7 17,1 3,4 50,5
No recuerda 20,2 16 2,2 53,4
N.C. 9,2 7,3 1,5 77,7
© i S
t o c k p h o t o
Tabla I Tabla II
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 94/9992 INVESTIGACION Y CIENCIA, mayo, 2008
I D E A S A P L I C A D A SI D E A S A P L I C A D A S
La luz que vieneMark Fischetti
Lámparas
Puede que la bombilla de incandescen-cia ya sea historia. Las lámparas fluo-rescentes compactas (CFL), que ofrecenmayor eficiencia energética, han logradosólo modestos avances a causa de su pre-cio elevado. Pero en diciembre de 2007,el congreso estadounidense aprobó unproyecto de ley sobre energía que modi-ficaba la normativa sobre iluminación.Para 2012, todo fabricante que pongaen el mercado lámparas de 100 watt (W)deberá aumentar el rendimiento de éstasen un 30 por ciento respecto al de las
bombillas de incandescencia actuales. Análogo requisito entrará en vigor deforma progresiva en 2013 para las lám-paras de 75 W; en 2014, para las de60 W y 40 W. Europa ha aprobado, asi-
mismo, sus propios reglamentos. LasCFL cumplen ya las especificaciones;aunque los fabricantes se propongan me-
jorar los modelos viejos, las nuevas lám-paras gozan de una clara ventaja, que se-guirá en aumento.
La técnica que encierra una bombillaes muy refinada. El filamento de tungs-teno se pone incandescente a más de2000 grados Celsius; su grosor debe serperfectamente uniforme (cualquier mi-núscula imperfección haría que se fun-diera). Pero sólo alrededor del 10 por
ciento de la energía que llega a la bom-billa se emite en forma de luz visible;un 90 por ciento se irradia en forma decalor. El rendimiento de una CFL cua-druplica el de una lámpara de incandes-
cencia. Por consiguiente, una CFL de26 W ilumina tanto como una incan-descente de 100 W, y consume sólo uncuarto de la energía. Los tubos fluores-centes que suelen emplearse para la ilu-minación cenital ofrecen una eficiencialigeramente superior, pero no se adap-tan a los portalámparas estándares, comoes el caso de las lámparas CFL.
Las CFL presentan todavía ciertos in-convenientes. Algunas personas encuen-tran su luz demasiado hiriente. Al ojohumano le agrada ver todas las longitu-
des de onda; pero el revestimiento lumi-niscente interno del tubo no emite de-terminadas longitudes de onda. Se estánmejorando los luminóforos para subsa-nar esa limitación.
Los tubos primitivos tardaban algu-nos minutos en emitir todo su flujo lu-minoso; además, zumbaban o parpadea-ban. Pero las reactancias electrónicas quehan sustituido a las antiguas reactanciasmagnéticas han dado fin a tales incon-venientes y han facilitado la reduccióndel tamaño de los tubos. Los fabrican-
tes se han esforzado para desarrollar lám-paras CFL más versátiles. Para rebajarlos costos deberán acrecentar los volú-menes de producción.
También los diodos emisores de luz(LED) entrarían en liza en los años ve-nideros. Las luces de estado sólido ofre-cen casi la misma eficiencia y duran tresveces más que las CFL. Pero las versio-nes de rosca apenas llegan a iluminarcomo una bombilla incandescente de25 W y son más caras. Por ahora, laslámparas fluorescentes compactas tienen
un futuro brillante.
D A
N I E L A N A O M I M O L N A R
ECONOMIZADOR
Lámpara de incandescencia
Fluorescente compacto
7500
875
DURACION (HORAS)POTENCIA (WATT)
15
60
865
900
FLUJO LUMINOSO (LUMEN)
Para una misma luminosidad,los fluorescentes compactosgastan menos y duran más(pero son más caros).
¿SABIA USTED QUE...?
CA/CC: A diferencia de la mayoría de los aparatos domésticos, la bombilla de incandescencia
común que se emplea en los portalámparas estándares de corriente alterna funcionaría también
en un portalámparas de corriente continua. (Si es que alguien, alguna vez, se encuentra con uno.)
FRIGORIFICOS FRESCOS: Las últimas mejoras en los diodos emisores de luz (LED) han impulsa-
do a la cadena de grandes almacenes Wal-Mart a sustituir las calientes bombillas de incandes-cencia del interior de los embalajes de alimentos y congeladores en todas sus tiendas. Los LED
desprenden menos calor, lo que reduce la carga de refrigeración, y gastan menos electricidad.
MERCURIO: Tal como se advierte en el envoltorio, los tubos CFL normales contienen peque-
ñas cantidades de mercurio. Las lámparas fundidas deben desecharse en puntos de recogida
especiales. Los fabricantes están tratando de reducir el mercurio necesario. Para defenderse
de las críticas, señalan que la electricidad adicional necesaria para alimentar una lámpara de
incandescencia equivalente emite mercurio, y otros contaminantes, a la atmósfera, si la energía
se produce mediante la quema de carbón.
MANCHA MARRON: Dentro de la ampolla, los átomos de tungsteno que se evaporan de forma
gradual se acumulan en una zona, donde crean una mancha marrón. Si la ampolla está mal se-
llada y se infiltra aire a su interior, el tungsteno puede reaccionar con el aire formando depósitos
marrones, morados o amarillos de óxido o trióxido.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 95/99
TUBOS FLUORESCENTESCOMPACTOS
Funcionan como los otros fluo-
rescentes, salvo que el tubo está
arrollado. Ambos extremos se
hallan unidos a un mismo chasis
adaptado a los portalámparas
tradicionales de incandescencia.
TUBOS FLUORESCENTES
Una reactancia (extremo derecho) produce una alta tensión que crea un arco entre los electrodos de
tungsteno. El arco excita los átomos del vapor de mercurio, que liberan fotones ultravioletas. Esos in-
ciden en el revestimiento de fósforo del vid rio, que a su vez emite luz visible (fluoresce). La reactancia
ajusta luego el voltaje y la potencia a un nivel inferior para sostener el arco. El argón ( no se muestra)
contenido en el tubo estimula el cebado y aumenta la luminosidad.
LAMPARASDE INCANDESCENCIA
Por los hilos de contacto
fluye la corriente eléctrica
que atraviesa un filamento
resistivo, en general de
tungsteno, al que calienta
y pone incandescente. En
el interior de la ampolla
rarificada, llega un momento
en que del filamento se han
desprendido tantos átomos
por evaporación, que en al-gún punto el adelgazamiento
hace que se rompa. En las
lámparas de más de 25 watt,
los fabricantes rellenan la
ampolla con un gas inerte
(argón o xenón) para lentifi-
car la evaporación.
DIODO emite luz cuando chocan
agujeros y electrones.
DIODOS EMISORES DE LUZ
La corriente que atraviesa un diodo semicon-
ductor provoca el movimiento de agujeros y
electrones; cuando ambos chocan emiten un
fotón de cierto color. Distintos semiconduc-
tores emiten diferentes colores. La apariencia
de luz blanca se crea mediante la combinación
de diodos rojos, azules y verdes dentro de una
misma cápsula, o la cobertura con un luminó-
foro amarillento de un diodo azul.
Luminóforo(fósforo) Vapor de mercurio ReactanciaElectrodo
Argón
Contacto eléctrico
Hilo de contacto
Filamento
Electrodo
Electrones Agujeros
Lente
Hilo deconexión
AnodoCátodo
Electrodo Fotón
Vapor de mercurio
G E
O R G E R E T S E C K
INVESTIGACION Y CIENCIA, mayo, 2008 93
Fotón
Reactancia
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 96/9994 INVESTIGACION Y CIENCIA, mayo, 2008
Cáncer La identificación del ADN de los telómeros supuso un cambiode rumbo en la investigación básica
L IBROS
Los animales pluricelulares aparecieronhace unos 600 millones de años.
Desde entonces se ha convivido con elcáncer. En cada tanda de desarrollo y di-visión de la célula acecha el riesgo decáncer. Así, la incidencia de tumores cre-cerá de forma progresiva con el tamaño yla esperanza de vida del organismo. A lolargo de su vida, el hombre experimenta
hasta 1016 mitosis, el proceso en virtuddel cual una célula duplica su ADN y sedivide para formar dos células hijas idén-ticas. Cada mitosis constituye una invita-ción a un desastre genético, sea por du-plicación incorrecta del ADN, roturainadvertida de los cromosomas o erroresen su segregación. El cáncer es el puntofinal fenotípico de alteraciones genómi-cas y epigenómicas que se han acumula-do en el interior de la célula, así como delas interacciones entre tales células daña-das y la estroma. Ante semejante abanico
de posibles ocasiones para acumular mu-taciones, resulta sorprendente que no ge-neremos múltiples clones celulares cance-rosos (Te Biology of Cancer ).
El decenio de los setenta culminó latendencia panvírica de la biología delcáncer. Detrás de cada tumor había unvirus, se admitía. Pero el descubrimientode los oncogenes y de los genes supre-sores de tumores removió los cimientos.El cáncer pasó del dominio de la micro-biología al de la biología celular. Uno delos promotores de esa reorientación de la
investigación fue Robert A. Weinberg.
Su hallazgo fundamental de la primeramutación oncogénica (ras ) en un tumorhumano puso fin a la noción de que losoncogenes se activaban sólo por virus. Sutrabajo sobre cooperatividad entre dife-rentes oncogenes constituyó otra piedramiliar. En el libro de reseña no privilegia,empero, su extensa y decisiva aportaciónal campo, sino que con una generosidad
laudable ha confeccionado una exhaustivaobra canónica, sin parangón. Magistral ydidáctica, teje la investigación básica conla clínica, la epidemiología y la evoluciónhistórica. Por buscarle algún punto débilse le ha criticado la menguada atenciónque concede a la epigenética del cáncer,limitada en su caso a la metilación.
erminado el proyecto Genoma Hu-mano, importa ahora acotar el extensoabanico de genes implicados en la tumo-rigénesis. Se cuentan por cientos los ge-nes y las proteínas implicadas en los 110
tipos de cáncer. ¿Cuántos genes encon-tramos mutados en un tumor humano?Podemos ya contestar en lo concernienteal cáncer de mama y colorrectal: hay unas80 mutaciones que alteran aminoácidosen un tumor típico.
La razón de una vida larga y en generalexenta de cánceres reside en los meca-nismos de defensa anticancerosos quehan coevolucionado con nuestra crecientecomplejidad. La mayoría de esas defensas,armadas en diversas etapas, se expresan através de circuitos de señalización intra-
celulares, la organización de nuestros te-
jidos y el sistema inmunitario. Al menoscinco o seis de esos mecanismos debendoblegarse antes de que se implante eltumor. Se conocen ya los pormenoresbioquímicos de algunas etapas; así, la ac-tivación del oncogén ras o la inactivacióndel gen supresor de tumores p53.
La investigación avanza, por supuesto.En el campo de la epidemiología, porejemplo, se sugería que los individuoscon síndrome de Down (que portan trescopias del cromosoma 21) registrabanuna incidencia mínima de tumores sóli-dos. La hipótesis acaba de recibir corro-boración experimental en un ratón trans-génico con el equivalente de la triso-mía inducida. Asimismo, los modelosanimales habituales sobre cáncer operanmediante la transferencia de un oncogéna un embrión. Los ratones desarrollan
el cáncer, pero no manifiestan la ines-tabilidad genómica característica de loshumanos. En junio de 2007 se anuncióla creación de un nuevo modelo múridoque remeda los niveles de inestabilidadgenómica propios de los cánceres de-sarrollados en humanos. Y comienza aprestarse atención al proceso tumoral delas células madre.
La adquisición por las células humanasde rasgos neoplásicos manifiestos suelerequerir varios decenios. Durante esalarga preparación insidiosa, las células
recorren una larga sucesión de ciclos decrecimiento y división. Y terminan porromper con la propiedad fundamental delas células normales, a saber, su capaci-dad para replicarse un número limitadode veces antes de entrar en apoptosis.Las células cancerosas necesitan tornar-se inmortales para formar tumores. Ynecesitan, por ende, de unos telómerosfuncionales, regiones terminales de loscromosomas que, a modo de escudo, evi-tan la fusión de las moléculas del ADNcromosómico. Durante la replicación ce-
lular las enzimas que replican el ADN semuestran incapaces de copiar la cadenade ADN en su trayecto final, lo que su-pone el acortamiento creciente en cadareproducción celular. Ya en 1941 BarbaraMcClinctock, al describir los cromosomasdel maíz, anotaba que éstos poseían unasestructuras especializadas en sus extremosque, si se perdían, instaban la fusión yla generación de megacromosomas condos o más centrómeros.
El componente en ADN de cada teló-mero consta de la secuencia hexanucleo-
tídica 5- AGGG-3, que se repite en
THE BIOLOGY OF CANCER,
por Robert A. Weinberg.
Garland Science;
Nueva York, 2007.
ELIZABETH BLACKBURN
AND THE STORY OF TELOMERES.
DECIPHERING THE ENDS OF DNA,
por Catherine Brady. MIT Press;
Cambridge, MA., 2007.
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 97/99INVESTIGACION Y CIENCIA, mayo, 2008 95
tándem miles de veces; estas secuenciasrepetidas, junto con las proteínas aso-ciadas, forman el telómero funcional. El
ADN telomérico (y por ende los telóme-ros) de las células normales se van acor-tando progresivamente en cada ciclo decrecimiento y división, hasta que dejan
de poder proteger los extremos de loscromosomas. En ese momento aparecela crisis, los cromosomas se fusionan yse precipita la apoptosis. Las células can-cerosas incipientes salvan ese escollo me-diante la expresión de la telomerasa, queelonga y regenera el ADN telomérico. Laactividad de la telomerasa se advierte enentre un 85 y un 90 por ciento de lostumores humanos, en cambio se expresaa muy bajo nivel en células humanasnormales. La telomerasa desempeña asíun papel clave en la proliferación de las
células cancerosas, en su inmortalidad.Ese dominio de la investigación se fue
configurando merced al trabajo tenaz deElizabeth Helen Blackburn, nacida enHobart (asmania) en 1948 (ElizabethBlackburn and the Story of elomeres.Deciphering the Ends of DNA). Dotadade una notable sensibilidad para las ar-tes, leyó en su adolescencia la biografíade Marie Curie escrita por su hija EveCurie, que marcó su rumbo a seguir. Ala hora de escoger carrera, optó por labioquímica.
Durante sus años de formación, la ex-ploración de las vías metabólicas cons-tituía un apartado nuclear, aunque lapropia secuenciación génica comenzabaa despertar interés. Había que ir anotan-do paso a paso los datos analíticos recogi-dos. El bioquímico atendía sobre todo alas proteínas. Blackburn acometió, comoproyecto de fin de carrera, bajo la super-visión de Teo Dopheide y Bartie David-son, la caracterización y purificación deuna enzima bacteriana que intervenía enla biosíntesis del aminoácido fenilalanina.
Mientras preparaba ese trabajo, que seríapublicado, el Nobel Fred Sanger acertó apasar por su centro. La invitó a graduarseen el Laboratorio de Biología Molecularde Cambridge, que dirigía. Aquí trató aSydney Brenner, James Watson y FrancisCrick, dominó la secuenciación del ADNy conoció a su futuro marido John Sedat.
A comienzos de los años setenta, los bió-logos moleculares estaban completandoel cuadro sobre la replicación enzimáticadel ADN.
Dispuesta a incorporarse en el laborato-
rio de Sanger en octubre de 1971, Black-
burn leyó en el viaje desde Australia,realizado en barco, los artículos de San-ger. Blackburn tenía algún entrenamien-to en el metabolismo, en las reaccionesenzimáticas, pero no en el ADN ni enel ARN. Su trabajo bioquímico distabamucho del trabajo en biología molecular
que comenzaba a implantarse. “La cul-tura del bioquímico difería de la culturadel biólogo molecular, quien prestabamayor valor a una solución elegante y auna deducción inteligente que al correo-so análisis cuantitativo de las proteínasy las mediciones de las velocidades dereacción catalizada por enzimas.
Sanger le asignó la aplicación de losmétodos de secuenciación de proteínas,que él había desarrollado, a pequeñossegmentos de ARN, obtenidos por copiade fragmentos de ADN de un bacteriófa-
go (f X174). Mediante la copia de ADNen ARN y posterior determinación delas secuencias de ARN, Blackburn car-tografiaría la secuencia de ADN. Paso apaso, la reconstrucción de tales fragmen-tos permitiría determinar la secuenciacompleta del ADN. Sanger impartía unenfoque pragmático a la investigación:había que identificar la secuencia, sinprejuzgar nada. Resultado de sus trabajosen Cambridge, Blackburn publicó dos ar-tículos, uno sola y otro en colaboración,de inmediato aceptados en el Journal of
Molecular Biology .Realizó la investigación posdoctoral en
la Universidad de Yale, en el laborato-rio de Joe Gall, quien se había centradotiempo atrás en los cromosomas gigantesde los ovocitos de los anfibios y había es-tudiado los genes de ADN codificadoresdel ARN ribosómico de anfibios, insectosy protozoos. Con Mary-Lou Pardue, ha-bía desarrollado la técnica de hibridaciónin situ, cuyo empleo se difundió paralocalizar secuencias de ADN y de ARNen los cromosomas. Estaba por entonces
investigando secuencias muy repetidasde ADN en el centrómero, estructuraen cuya virtud un cromosoma se alineaa lo largo del huso mitótico, asegurandoque, una vez que se divide la célula, cadacélula hija recibirá una copia de cadacromosoma. Gall venía esforzándose porensamblar la secuencia del centrómero,aplicando una variante del método deSanger de secuenciación del ARN.
Blackburn se sentía atraída por el ADNde las regiones terminales del cromosoma.Gall acababa de descubrir cómo purifi-
car los minicromosomas lineales de e-
trahymena , un protozoo unicelular; habíatambién determinado que el ADN quecifra el ARN ribosómico se alojaba enesos minicromosomas. Blackburn empezóa trabajar con etrahymena thermophila .Observó que las regiones terminales va-riaban de una molécula a otra. Identificó,
mediados los setenta, el motivo CCC-CAA, denotado (CCCCAA)n, donden designaba el número de repeticiones.Las tandas C4 se iteraban unas cincuentaveces por región terminal. ¿Qué mecanis-mos biológicos explicaban esos fenóme-nos? Firmado por Gall y ella, enviaron unartículo donde se exponían sus resultadosal Journal of Molecular Biology , revistaprestigiosa, la única en publicar entonceslos contados resultados de secuenciacióndel ADN que se producían. Ese fue elprimer artículo de Blackburn sobre la
estructura molecular de las regiones ter-minales de los cromosomas.
De Yale pasó a Berkeley, al laboratoriode Herb Boyer. Blackburn siguió traba-
jando sobre el complejo de proteínas queasociaba con los telómeros de etrahyme-na. Pero con las técnicas de entonces nopodía purificar el ADN en cuantía sufi-ciente para permitirle aislar e identificarlas proteínas en cuestión, que, infirió, noeran histonas. No tardó en abrir otra líneade investigación más fructífera; para de-mostrar que las secuencias repetitivas de
los telómeros pudieran ser una estructuraconservadora general, no un fenómenopeculiar de etrahymena , buscó pruebasde ADN telomérico en otros organismos.
Y comprobó que las estructuras termi-nales de los telómeros del cromosomamacronuclear de Glaucoma eran como losde etrahymena , demostrando lo que ellavenía sospechando desde hacía tiempo:no constituían ninguna excepción.
En la conferencia Gordon de 1980presentó un resumen de su investigaciónsobre la estructura del ADN telomérico.
Entre los asistentes estaba Jack Szostak,genético molecular de levaduras. Szostakse preguntó si los telómeros aislados ypurificados de etrahymena podrían fun-cionar como telómeros en las células delevadura y aportar, por ende, un mediopara aislar ADN telomérico de levadura.Blackburn y él se pusieron manos a laobra. Acometerían el experimento en dosfases: en la primera intentarían crear unminicromosoma lineal; si lo lograban,pasarían a un segundo estadio donde ma-nipularían el minicromosoma para que
cosechara telómeros de levadura. Con
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 98/9996 INVESTIGACION Y CIENCIA, mayo, 2008
una ligasa obtuvieron un minicromosomalineal, que introdujeron en células dela levadura Saccharomyces cerevisiae . Elexperimento funcionó. Los terminalesde etrahymena se comportaban comotelómeros en la levadura, estabilizandoel minicromosoma. En un salto espec-
tacular a partir de las pruebas obtenidas,Blackburn avanzó la hipótesis de que losnuevos telómeros no se copiaban de un
ADN preexistente, sino que se origina-ban ex novo durante la división celular.
En la Navidad de 1984 Carol W.Greider y Blackburn obtuvieron el auto-radiograma que aportaba una pruebaincontrovertible de la vinculación de latelomerasa con el telómero. Descubrieronque mientras un fragmento teloméricode etrahymena terminaba en cuatro G,el fragmento telomérico de la levadura
terminaba en tres G. Cuando se añadíala enzima a los fragmentos de etrahy-mena , agregaba repeticiones GGGG,pero cuando la enzima se incorporaba alterminal de levadura, añadía una G antesde producir los subsecuentes GGGG.Con otras palabras, la enzima reconocíala “deficiencia” en el sustrato de levadu-ra. En 1985 enviaron un manuscrito aCell , sobre el papel desempeñado por laenzima en la aportación de repeticionesteloméricas. Blackburn y Greidel habíandenominado en un comienzo telómero-
terminal transferasa a su enzima porquepodía añadir ADN; pero la nueva enzima
añadía una secuencia específica (GGGG-) al ADN telomérico, lo que sugeríaque pertenecía a una entidad inédita.El término telomerasa fue acuñado en1986 por Claire Wyman, una graduan-da del laboratorio de Blackburn. En1987 Blackburn y Greider publicaron
su segundo artículo en Cell , en dondedemostraban que la telomerasa conteníaun componente de ARN, cuya secuenciase apresuraron a identificar.
En 1990 Blackburn fue contratada porla Universidad de California en San Fran-cisco. A mediados de ese decenio, Greidery Cech se propusieron aislar el compo-nente proteico de la telomerasa. En 1996,Lundbald colaboró con Joachim Linger yCech para identificar la secuencia del gencodificador del componente proteico enla levadura y en Euplotes ediculatus . Una
vez publicados los resultados en marzode 1997 era cuestión de meses la secuen-ciación del gen humano del componen-te proteico de la telomerasa. La carrerapor clonar ese gen se disputó entre ellaboratorio de Cech en la Universidadde Colorado en Boulder y el de Robert
Weinberg en el Instituto Whitehead. Elequipo de Cech fue el primero en pu-blicar los resultados (una semana antesque el otro), pero los derechos de la pa-tente pertenecían a Geron, en tanto que
Weinberg puso a disposición de todos sus
propios resultados.—Luis Alonso
medidas de prevención, sino la situacióngeográfica de cada nación, su lugar en latrayectoria epidemiológica del contagio,
junto con el resto de factores apuntados. A través de múltiples ejemplos reivin-
dica la poca consistencia de un dualismoestricto en cuanto al origen de la enfer-
medad infecciosa (anticontagio frente acontagio) o su prevención (cuarentenaso reformas), al ser los tres pilares básicosde la teoría epidemiológica —los factoreslocales, la predisposición individual y elcontagio— mutuamente permeables. Sedesmarca así de la conocida hipótesisde Ackerknecht, para quien el régimenpolítico de un país determina su plan-teamiento defensivo ante una enferme-dad infecciosa, de tal manera que unaestructura gubernativa autoritaria seríapartidaria del establecimiento de cuaren-
tenas, mientras que un régimen liberalabogaría por medidas de saneamientoambiental.
La obra se divide en seis extensos ca-pítulos: Variaciones en la profilaxis; Laaparición del cólera; La mayoría de edaddel cólera; Viruela contra lanceta; La sífi-lis entre la prostitución y la promiscuidady Las políticas de prevención.
En el primer capítulo, el autor estableceel punto de partida: durante el siglo las naciones europeas, que compartían enlas primeras décadas del mismo estrategias
profilácticas frente a la infección, las cua-rentenas, acabaron adoptando medidasdivergentes. En los siguientes capítulosanaliza cómo, con el cólera, Gran Bretañaadoptó un sanitarismo radical frente alas cuarentenas prusianas; de qué manerala vacunación antivariólica aumentó en
Alemania y fue abandonada en Suecia yGran Bretaña y la forma en que el con-tinente regulaba la prostitución mientrasera abolida en los países nórdicos y alotro lado del Canal.
Baldwin maneja en esta obra una am-
plísima variedad de fuentes, desde artí-culos a informes técnicos y memoriasacadémicas, así como una exhaustiva bi-bliografía secundaria, todo lo cual quedareflejado en unas dos mil notas a pie depágina. Si algo cabe reprocharle a estaedición es la falta de una bibliografíapor orden alfabético, que facilitaría laconsulta de las muchas referencias uti-lizadas, así como un índice de materiasseparado del onomástico y un sumarioque incluyera las subdivisiones realizadasen cada capítulo.
— María José Báguena Cervellera
CONTAGION AND THE STATE IN EUROPE, 1830-1930,
por Peter Baldwin.
Cambridge University Press; Cambridge, 2005.
Peter Baldwin, catedrático de historiade la Universidad de California en
Los Angeles, aborda en este libro las me-didas de salud pública adoptadas por losgobiernos de Gran Bretaña, Francia, Ale-mania y Suecia entre 1830 y 1930 frenteal cólera, la viruela y la sífilis. Se analizaespecialmente la relación entre los dife-
rentes regímenes políticos y las estrategias
defensivas llevadas a cabo frente a las en-fermedades infecciosas. Para Baldwin, lasmedidas profilácticas fueron impulsadaspor una constelación de factores geográfi-cos, económicos, administrativos y políti-cos, lo que condujo a estrategias naciona-les diferentes ante la enfermedad. Ni elliberalismo británico ni el intervencionis-
mo alemán determinaron por sí solos las
Epidemiología ¿Determina el régimen político
de un país su planteamiento defensivoante una enfermedad infecciosa?
7/18/2019 Investigación y ciencia 380 - Mayo 2008
http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 99/99
E N E L P R O X I M O N U M E R O D E J U N I O 2 0 0 8
El color de las plantasextraterrestres,
por Nancy Y. KiangEn otros mundos, los vegetales podríanser rojos, azules o negros.
Regeneraciónde las extremidades, por Ken Muneoka, Manjong Han y David M. Gardiner
Las salamandras muestran unaasombrosa capacidad para regenerarmiembros amputados. El estudio de
ese anfibio abre nuevas vías para lareconstrucción de miembros y tejidosdel cuerpo humano.
Recuperación del mar de Aral, por Philip Micklin y Nikolay V. Aladin
Vaciar de manera imprudente el cuarto mayor lago del mundopara regar campos de labor lo convirtió en un desierto secoy tóxico. Se está recuperando ahora su parte septentrional.
ónmidades,
a, Manjong Han iner
s muestran unaacidad para regenerarutados. El estudio de
e nuevas vías para lade miembros y tejidosano.