revista fundación ramón areces. número 1: enero 2010

67

Upload: fundacion-ramon-areces

Post on 29-Jun-2015

269 views

Category:

Education


0 download

DESCRIPTION

En este número Federico Mayor Zaragoza y Luis Ángel Rojo conversan sobre Ciencia, Educación e Investigación Científica. Fernando Iwasaki escribe sobre independencia literaria y la literatura de la independencia. Jeffrey Gale Williamson habla del futuro de la desigualdad desde una perspectiva histórica. Juan Antonio Rubio explica el Proyecto del Gran Colisionador de Hadrones (LHC). Douglas Massey ofrece visiones alternativas de la integración regional en Norteamérica y Europa y Valentín Fuster nos explica la enfermedad cardiovascular.

TRANSCRIPT

Page 1: Revista Fundación Ramón Areces. Número 1: Enero 2010
Page 2: Revista Fundación Ramón Areces. Número 1: Enero 2010

5CARTA DE PRESENTACIÓN

por Raimundo Pérez-Hernández y Torra

6DIÁLOGOSFederico Mayor Zaragoza y Luis ÁngelRojo conversan sobre Ciencia,Educación e Investigación científicapor Manuel Azcona

16CONFERENCIASEntre la independencia literaria y la literatura de la independenciapor Fernando Iwasaki

El futuro de la desigualdad: una perspectiva históricapor Jeffrey Gale Williamson

El CERN: el Proyecto del Gran Colisionador de Hadrones (LHC)por Juan Antonio Rubio

¿Muros o puentes?: visiones alternativas de la integración regional en Norteamérica y Europapor Douglas Massey

Conociendo mejor la enfermedad cardiovascularpor Valentín Fuster Carulla

99FRAGMENTOSLa transición demográfica

Causas económicas del envejecimiento de la población

Pruebas Genéticas: la era de los Genomas Personales

114TRIBUNASRecuerdos de un “becario Ramón Areces”por José García Montalvo

El valor y la importanciadel Románicopor José María Pérez, “Peridis”

Especialización formativa en la Distribución Comercialpor Eduardo Estrada

121VITRUVIO 5Noticias institucionales

Í N D I C E / Número 1

Edita: Fundación Ramón Areces / Director: Raimundo Pérez-Hernández y Torra / Consejo Asesor: Federico Mayor Zaragoza, Luis

Ángel Rojo Duque, Julio R. Villanueva, Juan Velarde Fuertes, Jaime Terceiro Lomba, Avelino Corma Canós, Juan González-Palomino

Jiménez, Alfonso Novales Cinca / Director: Manuel Azcona de Arriba / Servicio de publicaciones: Consuelo Moreno Hervás /

Diseño y Maquetación: Omnívoros Marketing y Comunicación / Administración y Redacción: Calle Vitruvio 5. 28006 MADRID.

Teléfono: 91- 515 89 80. Fax: 91 563 64 51 / Web: http://www.fundacionareces.es / Ilustración de portada: Roberto Díez Rodrigo

/ Retratos: Salomé Villarroya Méndez / Imagen LHC: Cedida por el CERN / Queda prohibida la reproducción total o parcial de las

informaciones de esta publicación, cualquiera que sea el medio de reproducción a utilizar, sin autorización previa o expresa de

Fundación Ramón Areces. La revista no se hace, necesariamente, responsable de las opiniones de sus colaboradores.

Depósito Legal: M-51664-2009

© 2009 Fundación Ramón Areces

Page 3: Revista Fundación Ramón Areces. Número 1: Enero 2010

4 FRA 5

CARTA DE PRESENTACIóN

EL NÚMERO 1Por Raimundo Pérez-Hernández y Torra

La presentación del nú-mero uno de la Revista de la Fundación Ramón Areces, publicación semestral que hoy inicia su andadura, constituye un motivo de especial alegría para nuestra institución. Va a representar un instrumen-to relevante en el cumplimien-to de uno de los objetivos esen-ciales de la Fundación, cual es la transmisión del saber y del conocimiento, tanto en el ám-bito de las Ciencias de la Vida y de la Materia, como en el de las Ciencias Sociales. De esta for-ma quedará reflejado en la letra impresa el amplísimo caudal de información y pensamiento que de forma constante se ge-nera en la Fundación. La Fundación pretende, en el marco de la mejora y amplia-ción de su visibilidad y de su proyección a la sociedad, com-pletar esta línea con la actuali-zación y profundización de los contenidos de su página web. Aspiramos a facilitar la infor-mación sobre todas las activi-dades de la Fundación, abrir

la Revista a los colaboradores pasados, presentes y futuros. La difusión de las conferencias y ciclos, se realizará median-te la inclusión en los núme-ros ordinarios de la Revista de dos textos sobre Ciencias de la Vida y la Materia, dos sobre Ciencias Sociales, uno sobre Humanidades, y resúmenes de los principales simposios que tengan lugar en la Fundación. Prevemos la posibilidad de pu-blicar números extraordinarios monográficos sobre materias de carácter específico.Haremos un esfuerzo especial en la selección de contenidos, ya que a la tradicional calidad de los actos que se celebran, hay que añadir el hecho del signifi-cativo aumento en la cantidad de actividades realizadas por la

Fundación. Sirva de ejemplo el dato de que en el año 2008 se celebraron 32 conferencias y reuniones científicas, y en el año 2009 se han celebrado 64. La Revista, en última instancia, aspira a ser una herramienta más en el cumplimiento del fin esencial fundacional, como es el de servicio a la sociedad a través del fomento de la investigación científica y la formación de ca-pital humano, y el apoyo a la difusión de la Ciencia y de las Humanidades. Creemos firmemente que no puede dejarse de recoger y transmitir el conjunto de re-flexiones y deliberaciones de alto nivel científico, que se ge-neran en la Fundación.Creemos que es nuestra obliga-ción que el máximo número de personas puedan beneficiarse de esta riqueza científica y cul-tural.Comenzamos pues, nuestra singladura con ilusión y espe-ranza, esa esperanza que, como decía Bernanos, “es un riesgo que hay que correr”.

Page 4: Revista Fundación Ramón Areces. Número 1: Enero 2010

7

DIÁLOGOS

LAS CIENCIAS SOCIALESY LAS EXPERIMENTALES

SE ESTRECHAN LA MANO

Federico Mayor Zaragoza (Barcelona, 1934) y Luis Ángel Rojo (Madrid 1934) son, respectivamente, presidente del Consejo Científico y del Consejo de Ciencias Sociales de la Fundación Ramón Areces, que enmarcan su actividad en todos los ámbitos de actuación de la institución, es decir, la investigación y divulgación científicas, la formación de capital humano y el apoyo a la educación y la cultura. Sobre estos temas hablan en esta entrevista en la que expresan sus opiniones, sus coincidencias y sus discrepancias. Ambos destacan que las Ciencias Sociales y las Ciencias Experimentales

deberían contribuir juntas, y no por separado, al progreso de la sociedad española.

P- En el año 1976 nace la Fundación Ra-món Areces. En aquel entonces, ¿Espa-ña era científicamente tan pobre como se ha dicho siempre?

FMZ- No. No estaba tan mal. En aquel en-tonces ya había campos en los que – gracias al esfuerzo personal- tanto en España como

en el extranjero, habían ido surgiendo grupos de altísima calidad. Asimismo se había ini-ciado una profunda reestructuración, sobre todo en el ámbito universitario y en el Con-sejo Superior de Investigaciones Científicas, que permitió llevar a efecto lo que después han sido quizás los ejes por los que ha dis-currido la investigación científica española.

Federico Mayor Zaragoza y Luis Ángel Rojo, presidentes, respectivamente, del Consejo

Científico y del Consejo de Ciencias Sociales de

la Fundación Ramón Areces

Por Manuel Azcona

Page 5: Revista Fundación Ramón Areces. Número 1: Enero 2010

8 FRA 9

Todo el desarrollo ulterior de la investigación científica que ha tenido lugar en el periodo democrático y, sobre todo en los últimos años, se debe a que había ya una serie de semillas que estaban germinando. En el ex-tranjero trabajaban grandes científicos como Severo Ochoa, Juan Oró, Santiago Grisolía o Alberto Sols. El ministro Villar Palasí fue un gran impulsor de la investigación científica. En aquella época se crearon las Universida-des Autónomas de Barcelona, el País Vasco y Madrid, se procuró el retorno de grandes in-vestigadores en el extranjero y se nombraron catedráticos sin oposición en reconocimiento a sus valores acreditados, como el caso de Ni-colás Cabrera y Alberto Sols.

LAR- En el área de las Ciencias Sociales no ocurre lo mismo. Estaban bastante más atrasadas. Los mejores científicos estaban en Estados Unidos y no han empezado a volver hasta hace relativamente pocos años. En el caso de las Ciencias Sociales la mejora ha sido mucho más lenta.

P- En estos 33 años, ¿se puede conside-rar que la Ciencia española ha alcanza-do su madurez?

FMZ- La Ciencia es un esfuerzo permanente de descubrimiento, por lo que nunca se puede hablar de madurez. Se han hecho grandes descubrimientos, pero lo más importante es la creación y el desarrollo de una serie de redes, a las que se han ido incorporando las Comunidades Autónomas como Andalucía o Cataluña, que cuentan con centros de investigación y laboratorios de primer orden.

ello, no dejamos de publicar, lo que unido a la falta de conexión con las empresas genera un déficit de aplicación del conocimiento. Pero las fundaciones –al menos algunas fundaciones, como la Fundación Ramón Areces- han dado importantes fondos para la investigación, y, además, en unas condiciones excelentes porque, como en el caso de la Fundación Ramón Areces, no se condicionan las partidas presupuestarias si no que se da libertad al investigador principal para que utilice los fondos como estime más apropiado. Por tanto, creo que debería existir una mayor implicación de las fundaciones empresariales para que faciliten las aplicaciones del conocimiento.

LAR- Prácticamente estoy de acuerdo en todo lo que dice el profesor Mayor Zaragoza. Creo que de las fundaciones cabría esperar, ciertamente, más.

FMZ- Perdón que interrumpa. Hace ya muchos años dije que una Fundación es un fondo adscrito a un fin. De éstas, en España, no llegan al 2%. El resto son fines en busca de fondos. Es decir, la mayor parte de las fundaciones no dan dinero, sino que buscan aportaciones para desarrollar sus fines.

LAR- Es verdad, las que aportan fondos son las menos.

Por tanto, no me atrevería a decir que hemos alcanzado la madurez, pero no cabe duda de que se ha dado un paso gigantesco, sobre todo, porque se ha procurado, a través de esas redes, favorecer a grupos de investigación que necesitaban un impulso adicional para poder tener un papel en la Ciencia a escala mundial. Y a este respecto el papel que ha jugado la Fundación Ramón Areces desde el principio ha sido extraordinariamente relevante.

LAR- En el ámbito de las Ciencias Sociales pasa un poco lo mismo. No creo que estemos muy avanzados en términos relativos, pero estamos mejor que hace 30 años.

P- ¿Qué papel han jugado las funda-ciones en este avance de la Ciencia en España?

FMZ- Han jugado un papel destacado. Sin embargo, yo desearía que hubiera una participación real de las empresas en la investigación y, sobre todo, en la aplicación de la investigación. Comparada con Estados Unidos y con Japón, Europa no puede hoy decir que está realizando un excelente desarrollo científico porque la patentabilidad de los conocimientos en Europa tropieza con grandes obstáculos. En Norteamérica y Japón existe el denominado “periodo de gracia”, por el que durante un año, se respeta la propiedad intelectual impidiéndose el registro de patentes por parte de terceras personas. En Europa, por el contrario, una vez publicados los descubrimientos ya pueden ser utilizados por otros. A pesar de

P- Y, ¿cuál ha sido, en este contexto, el papel de la Fundación Ramón Areces?

FMZ- D. Ramón Areces, y lo he dicho muchas veces, fue una de esas personas que me sorprendieron e inspiraron enormemente. Era un creador. Yo le conocí cuando acudió al Ministerio a registrar la Fundación y enseguida percibías su capacidad de liderazgo. Era un gran motivador. La Fundación tiene la fuerza que tiene y los medios de que dispone porque había un empresario que sabía lo que era emprender.

LAR- La Fundación es una institución excelente en términos de libertad, de investigación, de ideas y ha hecho una labor muy importante, y espero que la siga haciendo.

P- Si les parece, les planteo esta misma cuestión desde otro punto de vista. En estos últimos 33 años, ¿cuáles han sido las aportaciones de las Ciencias Sociales y de las Ciencias Experimentales al progreso de la sociedad española?

LAR- La Ciencia Económica ha avanzado notablemente en los últimos 15 o 20 años y ha mejorado bastante, aunque no todo lo que hubiera sido deseable. Se han multiplicado el número de Universidades en las Ciencias

“La Ciencia es un esfuerzo permanente de descubrimiento,

por lo que nunca se puede hablar de madurez”(Federico Mayor Zaragoza)

Page 6: Revista Fundación Ramón Areces. Número 1: Enero 2010

10 FRA 11

Sociales, con poco lujo, porque la mayor parte de las facultades se han creado mal, con pobreza de medios, con pobreza de profesores. Pero la pregunta realmente era para qué sirven las Ciencias Sociales. Mire, estamos inmersos en medio de una crisis de la que ni siquiera las grandes universidades norteamericanas han tenido nada serio que decir hasta el momento presente.

FMZ- Lo más importante que tenemos hoy en el mundo como expectativa de solución son, precisamente, las Ciencias Sociales y su aplicación. Las Ciencias Experimentales irán aportando conocimiento, pero este conocimiento tiene que estar orientado por las Ciencias Sociales, para poder cambiar realmente las cosas.

P- Entonces creen ustedes que hay un divorcio histórico entre las Ciencias So-ciales y las Ciencias Experimentales…

LAR- Sí, aunque deberían ir de la mano y colaborar juntas.

FMZ- Sigo pensando que las Ciencias Sociales son lo más importante para salir del bache en el que nos encontramos y son ellas las que marcan los objetivos y los puntos de referencia del futuro.

LAR- No estoy muy de acuerdo con eso. Creo que las Ciencias Experimentales llevan una enorme ventaja sobre las Sociales y seguirán llevándola en el futuro.

¿En qué espejo debería mirarse nuestro país desde el punto de vista científico?

FMZ- En las Ciencias Experimentales es mejor que no nos miremos en ningún espejo. Debemos concebir y aplicar la Ciencia de una manera distinta. No podemos aceptar como resultado un mundo que gasta 3.000 millones de dólares al día en armas y, sin embargo, no utiliza todo el conocimiento de que dispone para tratar el Sida en África o facilitar alimentos a las regiones más pobres. No tenemos ningún espejo en que mirarnos. Todos juntos tenemos que mirar el mundo de otra manera a partir de ahora.

LAR- Eso es verdad. Absolutamente cierto. De todas maneras hay países que en el ámbito de las Ciencias Sociales van muy por delante

P- ¿Cuál sería el punto de encuentro entre ambas?

LAR- No creo que sea cuestión de encontrar un objetivo común. En Economía ha habido dos épocas cruciales, el final del siglo XVIII, cuando nace la Economía, realmente, y los comienzos del siglo XX, que representa los inicios de la Economía moderna. Pues bien, en ninguno de estos momentos se ha produ-cido un encuentro de las dos ramas del co-nocimiento. Cada una ha seguido su camino y realmente las Ciencias Experimentales han ido por delante….

FMZ- …peligrosamente por delante con frecuencia…

LAR- …de eso no me cabe la menor duda.

P- Ahora mismo, ¿cuál sería para uste-des el país o países que España debería tener como referente en los ámbitos de las Ciencias Sociales y Experimentales?

“La Fundación Ramón Areces tiene la fuerza que tiene y los medios de que dispone por-que había un empresario que sabía lo que era emprender”. (Federico Mayor Zaragoza)

de otros y no hace falta que subraye cuales son. Pero, en fin, es verdad, que deberíamos ir todos juntos…FMZ- …En el campo de la Economía me ha sorprendido que instituciones que se crearon para anticiparse a los problemas, como el Fondo Monetario Internacional o el Banco Mundial, hayan sido incapaces de prever las burbujas de las tecnológicas a finales de los 90 o la crisis financiera actual y, ahora, sin embargo, se permiten darnos consejos a todos. Deberían tener un poco de moderación. Estas instituciones no han cumplido con su obligación durante muchos años. Sustituyeron una gobernanza mundial por la de los G-7, los G-8…, sacaron a la Organización Mundial del Comercio de la órbita de las Naciones Unidas… Ahora deberían recomponer las cosas a una situación

“Lo más importante que tenemos hoy

en el mundo como expectativa de solución

son, precisamente, las Ciencias Sociales y su

aplicación”(Federico Mayor Zaragoza)

Page 7: Revista Fundación Ramón Areces. Número 1: Enero 2010

12 FRA 13

anterior y cumplir las misiones que tienen atribuidas.

LAR- Estoy totalmente de acuerdo. Creo que los organismos económicos internacionales han sido, son y seguirán siendo un desastre. Acabarán muriendo, eso sí, pero será una muerte lenta.

P- El profesor Mayor Zaragoza ha cita-do científicos españoles (Severo Ochoa, Oró, Grisolía, Sols) que vivieron el exi-lio y en ese exilio llevaron a cabo sus investigaciones y descubrimientos cien-tíficos. Precisamente, el profesor Seve-ro Ochoa inauguró hace ya treinta años nuestro programa de actividades y tras su regreso a España fue el primer presi-

dente del Consejo Científico de la Fun-dación Ramón Areces. La pregunta es si hoy existe riesgo de “fuga de cerebros” en nuestro país….

FMZ- En aquellos tiempos ese éxodo era un éxodo forzado. En los últimos 20 años, se calcula que en Europa hemos desplazado hacia el Oeste, aproximadamente 150.000/ 200.000 europeos. Es decir, gente ya formada (economistas, biólogos, médicos, …) se han marchado porque aquí no les podíamos retener. Y no les podíamos retener en Europa haciendo algo totalmente incoherente. Les dábamos becas predoctorales, becas postdoctorales, becas para desplazarse al extranjero y, sin embargo, no les facilitábamos el regreso, permanecer, si lo deseaban, en Europa. Por tanto, se ha producido una

deslocalización de cerebros hacia el Oeste. Ante este proceso, en la Cumbre de Lisboa del año 2000 se decidió convertir a Europa en el “líder de la economía basada en el conocimiento”. Durante la presidencia de Dinamarca de la Unión Europea (2004) se puso en marcha el proceso que condujo al Consejo Europeo de Investigación con una dotación de fondos europeos de 1.500 millones de euros al año entre 2007-2013, para reducir este éxodo.

P- Al hilo de este comentario, según el Dr. Valentín Fuster, en España sobra ta-lento y creatividad y falta motivación...

FMZ- Siempre ha sido lo contrario. Aquí lo que ha sobrado siempre es motivación, porque hemos hecho unos esfuerzos tremendos y gracias a esos esfuerzos se han logrado notables éxitos científicos.

P- Entiendo que, para ustedes, la forma-ción de capital humano y la educación son pilares para seguir progresando. Últimamente se discute sobre la nece-sidad de un gran Pacto de Estado sobre Educación…

FMZ- Este pacto tenía que haberse logrado hace años. La educación no es un tema de partidos. Habría que lograr un gran pacto en el que estén también las instituciones de la Iglesia, de todas las iglesias y al que se incorporen los teólogos, los filósofos, los economistas…. Tenemos que estar todos juntos. La educación está por encima de los partidos y es fundamental para que un país funcione y sea democrático.

LAR- Más que pacto si creo necesario un Acuerdo General en el país respecto a lo que hay que hacer con la educación en España. La situación actual es lamentable. A mi juicio es una cuestión tan trascendente que deben implicarse todos los estratos y estamentos de la sociedad, empezando por las familias, por la Iglesia, los profesores y los alumnos, también…

P- Se acaban de cumplir 20 años de la caída del Muro de Berlín, que represen-ta el inicio de la globalización mundial. Con la perspectiva de estos 20 años, ¿podrían decir qué ha supuesto para la sociedad española este proceso de glo-balización?

LAR- La globalización puede tener unos objetivos muy importantes y, sin embargo,

“Más que pacto,sí creo necesario un Acuerdo General enel país respecto a loque hay que hacer enla educación.La situación actual es lamentable”(Luis Ángel Rojo)

“La Fundación Ramón Areces es una institución excelente en términos de libertad, de in-vestigación, de ideas y ha hecho una labor muy importante, y espero que la siga haciendo”. (Luis Ángel Rojo)

Page 8: Revista Fundación Ramón Areces. Número 1: Enero 2010

14 FRA 15

no estar tan ligada a la política, pero bueno, hasta ahora no ha ido demasiado bien. En buena medida, esta crisis que vivimos actualmente es una crisis de globalización.

P- Y la globalización, ¿ha traído una sociedad más justa, menos justa, más igualitaria, menos igualitaria?

FMZ- Más confusa, más asimétrica y más perpleja. Hace unos cuantos siglos Maimónides escribió la guía de los perplejos. Creo que hoy deberíamos tener otro Maimónides para que nos escribiera la guía de los perplejos ante la globalización.

P- Ustedes son de la misma quinta, de la misma “añada”, la del 34. Uno nacido

en Madrid y otro en Barcelona, ¿se pue-de decir que les ha tocado vivir, como dice el proverbio, tiempos interesantes?

LAR- Tanto la gente de mi generación como yo mismo hemos sido bastante afortunados. Hemos vivido un periodo en el que han sucedido cosas terribles en el mundo pero que a nosotros no nos han tocado muy de frente. Tras la Segunda Guerra Mundial, las soluciones a los grandes problemas económicos, políticos, sociales se han planteado de otra forma, sin llegar al enfrentamiento armado. En general hemos tenido bastante fortuna. Económicamente hemos vivido una época formidable desde el punto de vista del impulso tecnológico, que ha sido fundamental. Yo realmente no la cambiaría por otra época. Si tuviera que decidirme por una época concreta elegiría el periodo de arranque del crecimiento en este país en los años 60 y comienzo de los 70.

FMZ- Coincido con el profesor Rojo. Yo tampoco cambiaría la época en la que nos ha tocado vivir. Hemos vivido un momento fascinante de la Humanidad. Los conflictos a escala mundial se han terminado, las ideologías que podían llevarnos a un desastre ya no son posibles y, por tanto, los horizontes son menos angustiosos que antes.

Personalmente, y desde un punto de vista científico, lo que me ha resultado más satisfactorio ha sido poner en marcha el Plan Nacional de Prevención de la Subnormalidad Infantil. Y desde un punto de vista personal, cuando me nombraron, de una manera inesperada, Rector de la Universidad de Granada, en 1968, porque era un momento en el que la Universidad era el único espacio donde podía haber cierta expresión política… y se iniciaba una nueva forma de “mirar alrededor”…

FMZ- No me atrevería a decir que esta-mos muy bien, pero se ha dado un paso de gigante gracias a la creación de re-des con una serie de centros y laborato-rios de primer orden, que han permitido favorecer a grupos de investigación que necesitaban un impulso adicional para poder tener un papel en la Ciencia a es-cala mundial. LAR- En el ámbito de las Ciencias So-ciales no creo que estemos muy avan-zados, pero estamos mejor que hace 30 años.

La relación entre Ciencias Sociales y Ciencias ExperimentalesLAR- Aunque deberían ir de la mano y colaborar juntas, existe un divorcio cla-ro entre las Ciencias Sociales y las Cien-cias Experimentales. En ninguno de los dos momentos cruciales de la Historia

Económica – final del siglo XVIII y co-mienzos del XIX-se ha producido un encuentro de las dos ramas del cono-cimiento.FMZ- Las Ciencias Sociales son las que marcan los objetivos y los puntos de re-ferencia del futuro. Las Ciencias Experi-mentales irán aportando conocimiento, pero este conocimiento tiene que estar orientado por las Ciencias Sociales para cambiar las cosas.

La Educación FMZ- La educación es fundamental para que un país funcione. No es un tema de partidos. El Pacto de Estado tendría que haberse logrado hace años. LAR- Yo lo llamaría Acuerdo General, más que pacto, y en ese Acuerdo de-berían participar todos los estamentos y estratos de la sociedad.

La situación de la Ciencia en España

“Económicamente hemos vivido una época formidable desde el punto de vista del impulso tecnológico, que ha sido fundamental. Yo realmente no la cambiaría por otra época”(Luis Ángel Rojo)

Page 9: Revista Fundación Ramón Areces. Número 1: Enero 2010

17

CONFERENCIAS

ENTRE

LA INDEPENDENCIA LITERARIAY

LA LITERATURADE LA INDEPENDENCIA

Para el escritor peruano Fernando Iwasaki no existe peor agravio en el dominio cultural hispanoamericano, que el calificativo de “colonial”. Sin embargo, para muchos críticos más influidos por la ideología que por la filología, la literatura latinoamericana sigue siendo “colonial”, a pesar del modernismo y del boom. La presente conferencia traza el itinerario de semejante persuasión, producto, dice Iwasaki, “de una mala digestión de

los conceptos de nación e independencia”.

Fundación Ramón Areces, 26 de marzo de 2009

aunque mi propósito debería ser hablarles de literatura y de los gozosos hallazgos que uno realiza leyendo, en el contexto de un ciclo dedicado al Bicentenario de las Independencias en Iberoamérica será inevitable hacer más de una digresión política, pues para muchos filólogos la independencia literaria supone una «nación», y para todos

los científicos sociales la literatura de la independencia consiente una «literatura de la dependencia». De ahí el marketing sociológico del título propuesto, pues me hacía ilusión atraer a interesados en política para perfumarlos de literatura.

Si a pesar de los 200 años transcurridos desde el nacimiento de las nuevas repúblicas

Por Fernando IwasakiEscritor

Page 10: Revista Fundación Ramón Areces. Número 1: Enero 2010

18 FRA 19

antojaron «coloniales» porque “su movimiento y su desarrollo, están subordinados a los intereses y a las necesidades de los mercados de Londres y de Nueva York”. Como se puede apreciar, lo «colonial» fue definido como lo contrario a lo «nacional», y como sinónimo de servilismo a cualquier país en general y a España en particular.

Mariátegui fue uno de los autores más

invocados por los creadores de la llama-da «Teoría de la Dependencia» –aquella co-rriente que atribuía el origen del atraso ibero-americano a la «herencia colonial» española–, pero ahora quisiera centrarme en su visión de la literatura, ya que para el ensayista perua-no: “el proceso normal de la literatura de un pueblo distingue en él tres períodos: un pe-ríodo colonial, un período cosmopolita, un período nacional. Durante el primer período un pueblo, literariamente, no es sino una co-lonia, una dependencia de otro. Durante el segundo período, asimila simultáneamente elementos de diversas literaturas extranjeras. En el tercero, alcanzan una expresión bien modulada, su propia personalidad y su pro-pio sentimiento”.

Esta teoría literaria se fundaba en la espe-ranza que Mariátegui albergaba en la buena acogida internacional de las novísimas lite-raturas indigenistas de América, dentro del ámbito continental de la Revolución Mexi-cana y del nacimiento de los movimientos obreros y universitarios, en el nuevo contexto mundial posterior a la I Guerra Mundial y la Revolución Soviética, y gracias al progresivo interés de las vanguardias europeas por el arte y la cultura de las sociedades arcaicas, exóti-cas y tradicionales. Sin embargo, Mariátegui

falleció en 1930 y nunca pudo saber que los primeros escritores hispanoamericanos que fueron leídos, traducidos y celebrados en to-das las lenguas modernas no fueron precisa-mente indígenas, ni escribieron sus obras en náhuatl, quechua, guaraní o aymara, sino en la denostada lengua «colonial»: el español.

Podría enumerar docenas de títulos y autores aplicados en demostrar la naturaleza «colonial» –y por lo tanto perversa– de las obras de Borges, Cortázar, Fuentes, Donoso, García Márquez, Vargas Llosa o Cabrera Infante, a quienes acusan de haberse vendido a los grupos editoriales multinacionales para

que sus libros lleguen a sus respectivos países en las mismas condiciones en que llega la Coca-Cola a todos los mercados periféricos del planeta. Sin embargo, valga esta mención para corroborar que las teorías de Mariátegui siguen vigentes, porque cada vez hay más críticos y filólogos a quienes ya no les basta con el peyorativo marchamo de «colonial» y así han acuñado el concepto de «poscolonial». Inefable vertedero literario donde arrumban a los escritores tercermundistas que viven lejos de sus países, y fingen tener una cultura cosmopolita para posicionarse en el mercado internacional y vender unas obras vacías de

No existe agravio mayor dentro de los predios académicos latinoamericanos, que ser tachado

de «colonial»

hispanoamericanas, aún siguen apareciendo caudillos y libertadores que levantan la ban-dera de la independencia, ¿por qué debería extrañarnos que muchos críticos y filólogos consideren que la literatura latinoamericana todavía no es independiente? Teniendo en cuenta que la independencia alumbró más de quince naciones, en el vocabulario histórico-político-sociológico de Hispanoamérica, lo opuesto a lo «nacional» vendría a ser lo «co-lonial».

no existe agravio mayor dentro de los pre-dios académicos latinoamericanos, que ser tachado de «colonial». Así, para descalificar a un ensayista de la realidad nacional basta-ría con hacer hincapié en su visión «colonial» del país; la economía iberoamericana sería atrasada por su carácter «colonial»; los escri-tores que no comulgan con las ideas del es-tablishment crítico son acusados de producir una literatura «colonial», y no hay quehacer más execrable que investigar la historia «co-lonial». Lo «colonial» es un anatema, la peor imprecación posible y una suerte de lepra in-telectual.

Quien acuñó tan temible baldón fue el

pensador marxista José Carlos Mariátegui, pues lo aplicó a diversas expresiones de la actividad social en sus 7 Ensayos de interpretación de la realidad peruana (1928). Así, la educación republicana que marginaba y denostaba al indio le pareció fruto de “un espíritu colonial y colonizador”. Por otro lado, toda la literatura del siglo XIX merecía ser calificada como colonial “por su dependencia y ... subordinación a los residuos espirituales y materiales de la Colonia”. Y, finalmente, las economías hispanoamericanas también se le

1 Timothy BRENNAN: «The National Longing for Form», en Nation and Narration, Homi BHABHA [editor+). Routledge (London, 1990) pp. 44-70.

Page 11: Revista Fundación Ramón Areces. Número 1: Enero 2010

20 FRA 21

contenidos «nacionales».

La gLobaLización –ese fenómeno por el cual un broker de Chicago hunde un banco bengalí y le suben la hipoteca a uno de Valverde del Camino– ha extrapolado por todo el planeta los prejuicios de la «Teoría de la Dependencia», y así nos encontramos con teóricos como Timothy Brenan –profesor de Harvard University– quien sostiene que “ciertos sectores ilustrados del Tercer Mundo han empleado la novela como un artefacto a través del cual se han presentado y legitimado culturalmente ante las metrópolis, las cuales, a su vez, han permitido que esta forma cosmopolita, la novela, desempeñe un papel nacional sólo en la arena internacional”. Esta hipótesis, desarrollada a lo largo de un sugerente libro –At Home in the World– se propone demostrar cómo Salman Rushdie, Julio Cortázar, Hanif Kureishi, Alejo Carpentier, Tariq Alí, Jorge Luis Borges o Vikram Seth, entre otros, son escritores que se han posicionado en el mercado internacional a través del postizo cosmopolitismo de sus fabulaciones.

Nacida a fines de los 90 en los campus ame-ricanos, la perspectiva «poscolonial» es el úl-timo grito filológico de la moda universitaria y hoy -26 de marzo de 2009- me atrevo a sugerir que arrasará en nuestros departamen-tos de literatura española e hispanoamerica-na cuando los fastos del Bicentenario de la Independencia estén en pleno apogeo, tal como el deconstructivismo reinó en los 80, la «Political Correctness» en los 90 y la posmo-dernidad en la primera década del siglo XXI. Así que cuando lean o escuchen que Rubén Darío era «poscolonial», que Borges fue un

escritor «poscolonial», que a los autores del Boom se les veía el plumero «poscolonial» y que Roberto Bolaño era el colmo de la «pos-colonialidad», por favor recuerden que aquí, en la Fundación Ramón Areces, pasamos el trailer de la película.

No pienso dedicar ningún esfuerzo intelectual a impugnar una teoría que considera que los centros artísticos y culturales del planeta permanecen inmutables a través de los siglos, aunque sí se me antoja más atractivo demostrar –primero– cuánto ha influido la literatura latinoamericana sobre la española y –segundo– reivindicar la libertad y la independencia creadora de cualquier escritor, por más que haya nacido en los extramuros de la periferia de los suburbios de los viejos imperios coloniales.

Contra quienes proponen que la literatura hispanoamericana seguirá siendo «colonial» hasta que no sea indígena, revolucionaria y por lo tanto «nacional», pienso que disponemos de argumentos suficientes y necesarios como para demostrar que durante los últimos cien años, fueron los poetas y narradores de las antiguas colonias, quienes influyeron sobre la literatura española y no al revés.

eL crítico rafaeL conte resumió cómo fue el impacto del Boom en una cita impagable que no me resisto a leer:

Los gustos del público, al mismo

tiempo, empujaron a los editores

españoles a seguir por aquel camino,

Carlos Barral, con José Castellet, se

convirtieron en los abanderados de

la nueva novela latinoamericana,

abandonando en las viejas trincheras

del realismo social sus armas y bagajes,

y abriendo sus catálogos a la obra

de muchos otros escritores, de mayor

o menor importancia, como Carlos

Droguett, Néstor Sánchez, Severo

Sarduy o Guillermo Cabrera Infante.

Otros editores de importancia, como

Destino o hasta el propio Planeta,

intentaron hacer lo mismo. Los premios,

tanto el primero, el Biblioteca Breve,

como también los más establecidos como

el Nadal o el Planeta, empezaron a

recaer en obras latinoamericanas, y lo

que en principio pudo ser una moda,

pronto se transformó en una verdadera

perforación del mercado, primero en

lengua española y luego en todo el

mundo occidental. Sin embargo, poco

después empezaron a elevarse las voces

disconformes, procedentes del sistema

establecido, y menudearon las polémicas

en torno a la real entidad de aquella

novela. Narradores más o menos

establecidos, de una u otra tendencia,

empezaron a protestar por aquella

ofensiva que todo lo arrasaba, y hasta

revistas y publicaciones del aparato

estatal o de sus aledaños, iniciaron

una contraofensiva que sin embargo

se revelaría bastante inútil al fin y a

la postre, frente a la real importancia

de obras posteriores que pronto iban a

surgir: el propio Vargas Llosa lanzaría

después La casa verde, que también

obtendría el Premio de la Crítica, y

posteriormente ya a escala internacional

el Rómulo Gallegos, y luego vendrían

Cien años de soledad de Gabriel García

Márquez, Rayuela de Cortázar, y El

siglo de las luces de Alejo Carpentier,

mientras Carlos Fuentes, que ya había

triunfado con La muerte de Artemio

Cruz, alcanzaría asimismo el premio

Biblioteca Breve con Cambio de piel,

que sin embargo sería censurada por

la administración franquista, que

prohibiría su publicación en el interior de

España, como luego haría con Tres tristes

tigres, de Cabrera Infante, ganador

del mismo galardón y que tuvo que ser

modificada para poder ser publicada.2 Timothy BRENNAN: At Home in the World. Cosmopolitanism Now. Harvard University Press (Cambridge, 1997).

Page 12: Revista Fundación Ramón Areces. Número 1: Enero 2010

22 FRA 23

Sin embargo, el éxito del Boom está demasiado cerca en el tiempo y demostrar su importancia no supone ningún reto intelectual, amén de que los autores del Boom son el paradigma de esa literatura «colonial» o «poscolonial», presuntamente vendida a los holdings internacionales de la edición, para que sus lectores del Tercer Mundo soñemos con una existencia cosmopolita mientras las multinacionales saquean nuestras materias primas y nos amputan la identidad nacional. Por lo tanto, si quiero probar mi hipótesis debo recurrir a la poesía, pues la poesía está fuera de los circuitos comerciales de las grandes editoriales. La poesía jamás ha

movido el dinero que mueve la novela. Los prestigios poéticos no dependen de las veleidades del mercado, y la trascendencia de la poesía siempre ha sido una consecuencia del placer, y el placer nunca es sectario; pues como seguro les consta, el placer podría llevarnos al vicio, pero jamás a la represión.

Así, tal como propuse en mi último libro

rePUBLICANOS, quisiera volver a hacer hincapié en cómo seis poetas de América Latina han influido y condicionado la evolución de la mejor poesía española del siglo XX. Los tres primeros –Rubén Darío, Vicente Huidobro y Pablo Neruda– fueron

influyentes porque deslumbraron a sus contemporáneos españoles, mientras que los tres últimos –César Vallejo, Octavio Paz y Jorge Luis Borges– se convirtieron en influyentes porque fueron reconocidos como maestros por las generaciones siguientes.

Rubén Darío (1867-1916) no requiere

que se acredite ni su importancia ni su magisterio, pues bastaría con los testimonios de la admiración de Valle Inclán, Juan Ramón, los hermanos Machado y los poetas del 27. Incluso los denuestos de Unamuno y Cernuda valdrían para lo mismo, por ser quienes fueron Cernuda y Unamuno.

Por otro lado, si Rubén Darío creó el

modernismo, Vicente Huidobro (1893-1948) alumbró el creacionismo, la genuina estética de la vanguardia que en España pasó por Ultraísta y que pobló la poesía española de máquinas, imágenes y metáforas cubistas. Huidobro cambió el rumbo y la estética de la poesía española, y su magisterio rompió en los nuevos poemarios de Gerardo Diego, Eugenio Montes y Juan Larrea.

Pablo Neruda (1904-1973) completaría

la trilogía de poetas latinoamericanos que irrumpieron por deslumbramiento en la poesía española, aunque no descarto que sus grescas con Huidobro y Juan Ramón le granjearan la simpatía de otros poetas más jóvenes, como los miembros de la generación del 27. Así, nada más llegar a Madrid, Neruda fue agasajado con una primorosa edición de los tres «Cantos materiales» de Residencia en la tierra, que llevaba un texto de salutación firmado por Alberti, Aleixandre, Cernuda, Guillén, Salinas, García Lorca, Gerardo Diego y Miguel Hernández, entre otros. De cualquier manera, lo esencial es que la irracionalidad de los poemas de Residencia en la tierra conmovió a poetas de lo más

heterogéneos –desde Rafael Alberti hasta Agustín de Foxá, pasando por Leopoldo Panero y Ángela Figuera– dejando a la poesía española de los años 30 y 50 transida de surrealismo y «cantos generales».

La guerra civil, el exilio y la censura

retrasaron la difusión y asimilación de la nueva poesía hispanoamericana en España, circunstancias que perjudicaron especialmente el conocimiento de la obra de mi paisano César Vallejo (1892-1938), quien a pesar de sus amistades, publicaciones, colaboraciones en revistas y estancias en España, no fue dilucidado y reconocido hasta la década de los 40, gracias a las antologías y reediciones latinoamericanas de sus poemarios. Sin embargo, en 1930 Gerardo Diego ya le había dedicado un bello poema -«Valle Vallejo»- y hasta César González Ruano reivindicó su descubrimiento, pero la trascendencia española del autor de Los heraldos negros tuvo mucho que ver con su influencia sobre la poesía de Leopoldo Panero y la de Juan Larrea, quien además fue su valedor y su albacea literario. Vallejo se convirtió así en uno de los poetas esenciales de la Poesía Social de los años 50, y la lluvia, la soledad y los huesos húmeros de su poesía arrasaron los versos de Blas de Otero, Gabriel Celaya, Salvador Pérez Valiente, Ángela Figuera, Leopoldo de Luis y los primeros poemas de José Hierro, Jaime Gil de Biedma, Ángel González, José Ángel Valente, Félix Grande y José Manuel Caballero Bonald.

En 1970 el crítico José María Castellet

publicó una antología que sirvió de presen-tación a una nueva promoción de poetas –«Los Novísimos»– que reivindicó la obra y la figura del mexicano Octavio Paz (1914-1998). El joven Paz había asistido al Con-greso de Escritores Antifascistas de Valencia (1937). En 1941 publicó Laurel. Antología de

3 CONTE, Rafael: «España descubre a Mario Vargas Llosa» en El autor y su obra: Mario Vargas Llosa. Cursos de Verano de la Universidad Complutense (El Escorial, 1989), p. 28.

Los prestigios poéticos no dependen de las veleidades del mercado, y la trascendencia de la poesía siempre ha sido una consecuencia del placer, y el placer nunca es sectario

Page 13: Revista Fundación Ramón Areces. Número 1: Enero 2010

24 FRA 25

la poesía moderna en lengua española, y hacia 1970 su trayectoria como crítico y ensayis-ta era tan importante como su obra poética. De ahí que aquellos «novísimos» enamorados de Ezra Pound, Cavafis, Andy Warhol y el surrealismo, fueran seducidos por la poesía inusual de Octavio Paz, a veces pedernal y a veces metafísica, lo mismo discursiva que concisa y con versos que tenían el aliento de la prosa y poemas que tenían la ambición del ensayo. Una poesía tan europea y tan orien-tal a la vez, aunque siempre plástica y siem-pre luminosa, como una «piedra solar». Las siguientes generaciones de poetas españoles han perseverado en la lectura de Paz y no des-carto que el estudio de su correspondencia, la edición de sus obras completas y la puesta en valor de sus admiraciones personales, siga ensanchando su magisterio dentro de la poe-sía española.

El último de los poetas que cambió el

estatuto de la poesía española fue Jorge Luis Borges (1899-1986), a quien podríamos adjudicarle su propia definición: no fue simplemente un literato, sino una literatura. En realidad hay una cierta justicia poética en el caso de Borges, pues cuando se marchó de España en 1920 era un novel inédito y cuando regresó a comienzos de los 60 lo hizo como ganador del prestigioso premio Formentor. Desde entonces Borges es el gran clásico de nuestra lengua después de Cervantes, ya que ningún otro autor en español ha influido tanto sobre tantas literaturas del mundo. Desde luego se ha escrito mucho sobre la influencia de Borges en la nueva narrativa española, pero quizás no lo suficiente en el caso de la poesía. Y conste que no hablo del poeta que fue Borges, sino del Borges que es una literatura. Sin aquel Borges no existiría esa última poesía española que tiene un sentimiento panteísta de la experiencia, que inventa su tradición a partir

de poetas menores y olvidados, que rescata el mundo clásico para explorar la épica íntima, que ha convertido el soneto inglés en una métrica generacional, que recurre a las enumeraciones como recurso retórico, que piensa –parafraseando a Heráclito– que nadie lee dos veces el mismo poema, que reescribe los mitos para constelar de paganismo la vida cotidiana y que recurre al humor para decir las cosas más serias. Hasta en las reseñas, las intrigas y las trifulcas es visible la impronta de Borges en la poesía española. En suma, que gracias a Borges existen los universos personales de poetas tan distintos como Felipe Benítez Reyes y Julio Martínez Mesanza, Luis García Montero y Luis Alberto de Cuenca, Juan Bonilla y Carlos Marzal, Jon Juaristi y José María Álvarez, José Luis García Martín y Lorenzo Martín del Burgo, Víctor Botas y Abelardo Linares, Miguel D’Ors y Juan Luis Panero, Javier Salvago y Vicente Tortajada o Francisco Bejarano y Eloy Sánchez Rosillo.

Si la literatura –es decir, la ficción, los

sueños y la fantasía– fuera algo susceptible de ser reducido a una elaboración «colonial» que se conforma con remedar los cánones de las metrópolis, la poesía española no habría pasado de Quintana o Campoamor. Por lo tanto, felizmente para la literatura, su calidad no tiene nada que ver con la independencia política de los pueblos sino con la independencia de los lectores y especialmente con la independencia de sus creadores individuales. Por eso para

mí Rudyard Kipling siempre será un autor clásico, aunque la última moda sea colocarle el sambenito de «poscolonial».

no creo ser injusto si aseguro que de

la literatura hispanoamericana se espera que colme ciertas expectativas temáticas que van desde el realismo mágico a la gesta revolucionaria, pasando por los dictadores esperpénticos, la némesis antropológica o el exotismo ecológico-culinario, y que la ausencia de semejantes credenciales pone muchas veces en entredicho la naturaleza «latinoamericana» de numerosos autores, a quienes se les reprocha que sus ficciones transcurran lejos de sus países o –peor todavía– que ellos mismos vivan fuera de sus países, como si la independencia cultural consistiera en leer a escritores autóctonos que solamente escriban acerca y dentro de sus respectivos países.

En efecto, a los críticos de la «poscolonia-lidad» les irrita que ciertos escritores hispa-noamericanos no ambienten sus historias en sus países de origen o que ni siquiera mencio-nen a sus países de origen en sus narraciones, porque tienen asumido que un genuino es-critor «nacional» siempre escribirá novelas o cuentos que transcurran en su país y con per-sonajes del mismo país, ya que de no hacerlo ni serían escritores, ni serían nacionales, ni harían literatura. Sin embargo, para mí Loli-ta es una novela extraordinaria y me trae sin cuidado que su autor haya sido un ruso que

escribía en inglés. ¿Acaso La Cartuja de Par-ma no es una de las cumbres de la literatura universal, a pesar de transcurrir en Italia y de haber sido escrita por un francés? Ignoro si las novelas de Conrad han contribuido a definir la identidad nacional polaca, pero el infierno africano que nos narró en inglés –me refiero a El corazón de las tinieblas- es un libro que nos sumerge en los pantanos más siniestros de la condición humana. ¿Henry James será considerado un escritor exótico en Inglaterra y T.S. Eliot un poeta «poscolonial» en Esta-dos Unidos? ¿Qué se le perdió a Shakespeare en Dinamarca y en Italia? ¿Por qué Thomas Mann no escribió «Muerte en Hannover», con lo bonito que es Hannover?

La literatura siempre ha sido un mundo global y sin fronteras desde los tiempos de Homero –ese griego que ambientaba sus poemas en Turquía– y por eso no comprendo las críticas contra los escritores latinoamericanos que sitúan sus ficciones en cualquier lugar del mundo.

La literatura siempre ha sido un mundo global y sin fronteras desde los tiempos de Homero -ese griego que ambientaba sus poemas en Turquía-

Page 14: Revista Fundación Ramón Areces. Número 1: Enero 2010

26 FRA 27

Los mexicanos Jorge Volpi e Ignacio Pa-dilla tienen excelentes novelas ambientadas en Suiza, Francia y Alemania; el boliviano Edmundo Paz Soldán es autor de obras que transcurren en los campus de Madison y Ber-keley; el colombiano Santiago Gamboa nos demuestra en Los impostores que «siempre nos quedará Pekín»; y el argentino Rodrigo Fresán lo mismo ambienta sus novelas en el Distrito Federal mexicano o en los británicos jardines de Kensington. ¿Y qué decir de las ficciones japonesas de Mario Bellatín o de los paraísos magrebíes de Alberto Ruy Sánchez, por no hablar de los desterrados italianos del ecuatoriano Leonardo Valencia, de las intri-gas saharianas del argentino Alfredo Taján o de los esperpentos españoles del venezolano Juan Carlos Méndez Guédez? El argentino Andrés Neuman acaba de ganar el premio Alfaguara con una novela que interroga al si-glo XIX europeo desde el multiculturalismo del siglo XXI y el chileno Roberto Bolaño se ha convertido en el primer escritor que ha ganado el prestigioso US Book Prize con una novela publicada originalmente en español. ¿Serán todos «poscoloniales»?

La fantasía y la literatura no sólo carecen de fronteras, sino que a través del hechizo de la lectura podemos abolir el tiempo lineal y convertirnos en contemporáneos de Ho-mero, Stendhal, Tolstoi o Eça de Queirós. ¿Cuántos narradores españoles contemporá-neos despertaron a la literatura gracias a los escritores latinoamericanos? Beatus Ille de Muñoz Molina surge al conjuro de Cien años de soledad y El jinete polaco es un alarde de las técnicas aprendidas en la lectura minuciosa de Vargas Llosa y Onetti; la obra de Enrique Vila-Matas sería impensable sin la influencia de Borges, Arreola, Monterroso y Cortázar, y las novelas de Eduardo Mendicutti tienen una deuda evidente con Manuel Puig y Gui-llermo Cabrera Infante. Sin embargo, tam-

poco la narrativa de García Márquez sería posible sin las improntas de Faulkner, Kafka y Hemingway, por citar sólo un ejemplo de entre todos los autores del Boom.

No existe el escritor «nacional» química-mente puro, cuya literatura no esté contami-nada por lecturas de otras culturas y tradi-ciones, de otros tiempos y lenguas. Y aunque existiera, no me siento capaz de considerar una expresión de riqueza el que aquel es-critor sólo hubiera leído a los autores de su propio país. Todo lo contrario, para mí sería una forma de pobreza y un síntoma de aridez intelectual, por más que se hayan cumplido todos los requisitos para evitar la «poscolo-nialidad» y encarnar la literatura de la inde-pendencia.

La independencia literaria es otra cosa.

Uno de los pasajes más hermosos de Ventanas de Manhattan transcurre en el Farmer’s Market de Union Square, cuando gracias al blanco tierno de las hojas de apio, a la tierra húmeda que barnizaba las patatas y a la fragancia penetrante del tomillo, Antonio Muñoz Molina recobró la memoria olorosa del puesto de hortalizas que tenía su padre en el mercado de abastos de Úbeda. En cambio, si uno tuviera que convertir una patata de Zurich en una magdalena de Proust, jamás nos perdonarían –en Perú, Bolivia o Ecuador– que no dijéramos que esa cosa «no era una papa ni erá ná».

En un ensayo brillante titulado «¿Cuánta patria necesita un novelista?», el ecuatoriano Leonardo Valencia resumió de manera ma-gistral lo que muchos narradores pensamos: “Lo que [el novelista] necesita es dejar atrás la manida búsqueda de raíces, esa forma subterránea de irse por las ramas, que decía Bergamín. Esta escisión en la que un nove-lista vive su condición de desplazado frente a una cierta realidad (o patria) de base, no tiene que ser un elemento de esquizofrenia sino de ventaja ... Me resulta particularmen-te insufrible la nostalgia pro-patria, heredera viejísima de aquella tradición en la que Ovi-dio canonizó su expulsión de Roma. Prefiero la otra tradición, la del pensamiento estoico, que encuentra en el exilio, y por extensión en las formas de extrañamiento, una opor-tunidad de conocimiento, una ocasión para seguir nuestro aprendizaje. Precisamente por eso conviene llevar a cabo la ficción de nues-tra tradición: su extrañamiento”.

Así, desde hace años vengo escribiendo

sobre mi propia tradición de extrañamientos y destierros. Una tradición que por la familia de mi padre comenzó en Hiroshima, Japón, y que por la familia de mi madre empezó en los Abruzzo, en el centro de Italia. Sin aquellos exilios yo mismo no existiría y por eso tengo la certeza de que ni soy de un sólo país ni he perdido mi país por vivir fuera del Perú, porque ahora España también es mi país.

Según la etimología, la patria es la «tierra

de los padres», pero la «tierra de los hijos» no tiene sustantivo alguno y resulta que eso es España para mí, la «tierra de mis hijos». Por eso, cuando España aparece en mis novelas, relatos o ensayos, les aseguro que aparece porque de verdad me concierne, y no porque haya maquinado la estrategia «poscolonial» de convertirme en el primer escritor andaluz de apellido japonés, que ha nacido en el Perú.

No existe el escritor «nacional» químicamente puro, cuya literatura no esté contaminada por lecturas de otras culturas y tradiciones, de otros tiempos y lenguas

Fernando Iwasaki Cauti

(Lima, 1961)

Es autor de las novelas

Neguijón (2005), Mírame

cuando te ame (2005) y Libro

de mal amor (2001); de los

ensayos Cuando dejamos de

ser realistas (2008), Mi poncho

es un kimono flamenco

(2005) y El Descubrimiento de

España (1996); de las crónicas

reunidas en La caja de pan

duro (2000) y El sentimiento

trágico de la Liga (1995), y de

los libros de relatos Helarte de

amar (2006), Ajuar funerario

(2004), Un milagro informal

(2003), Inquisiciones Peruanas

(1994), A Troya Helena (1993)

y Tres noches de corbata

(1987), entre más de veinte

títulos. Reside en Sevilla,

donde dirige la revista literaria

Renacimiento.

Page 15: Revista Fundación Ramón Areces. Número 1: Enero 2010

29

CONFERENCIAS

EL FUTURODE LA DESIGUALDAD

UNA PERSPECTIVA HISTóRICA

El profesor Jeffrey Gale Williamson analiza en esta conferencia las causas del aumento de la desigualdad en la Unión Europea, Estados Unidos y la mayoría de los países ricos desde 1970 y se pregunta si este incremento es una continuación de las tendencias experimentadas por la desigualdad en los dos últimos milenios. Asimismo, el confe-renciante explora las perspectivas de desigualdad futura en la OCDE, analizando el papel del comercio, la inmigración, el cambio tecnológico, la demografía y las políticas públicas, cuyo impacto, asegura, disminuirá en el futuro, sugiriendo un porvenir po-

tencialmente más igualitario.

Fundación Ramón Areces, 7 de octubre de 2008

this afternoon i want to taLk about what our inequality future looks like. It’s a big question, and it can be attacked many ways. First, since we have to be clear about what we are talking about, I’m going to spend some time discussing measurement, offering a so-mewhat different way to measure inequality.

Second, my remarks are motivated by the

following questions: Does modern economic growth cause a rise in inequality? This question has been hotly debated ever since the industrial revolution started in Britain sometime before 1800. We need an answer, it seems to me, so that we know better what to expect about the future for Third World countries embarking on modern economic growth. Does greater inequality

Por Jeffrey Gale WilliamsonHarvard University. EE.UU.

Page 16: Revista Fundación Ramón Areces. Número 1: Enero 2010

30 FRA 31

create greater violence, or does it suppress voice and dissent? Surely we need a clear answer to this question too if we care about the level of violence on our planet. Have some parts of the world always been more unequal than others? Has Latin America always been more unequal than the rest? Has Asia always been less unequal than the rest? And if that’s so, why is that so? Or is this a recent phenomenon? Does inequality tend to improve growth performance, or diminish it? We cannot debate policy very effectively without an answer to that question. Does democracy breed equality, or is it the other way round? This seems like another question that ought to be at the top of our agenda. And what about contemporary experience with demographic booms and busts? Demographically mature Spain is dealing with the bust; demographically young Africa is dealing with the boom. Both contribute to the immigration waves which are pounding your shores, but the latter also contributes to poverty and inequality in the sending countries. We need to know more about the connection between demography and inequality. When we have the answers to all these questions, then I’ll be able to tell you what the future looks like. That’s my plan this afternoon.

i cannot speak to the future until I lead you way back into the past. History is important since inequality persists over the very long run. If we are interested in why Spain has current inequality problems, we need to look carefully at the past century and more. Thus, I want to place current inequality experience in that historical context, so that we can assess current issues properly.

Not only do we need go to history to seek the answers to these questions, but we need to look at ancient pre-industrial history before

we can look at more recent post-industrial history. Thus, I am going to walk you all the way back to Rome in the year 14 and start there. Having announced that intention, you might ask: where is he going to get the data for Rome in the year 14? Good question. But the answer –and my colleagues that have been working with me share this view– lies with what we call social tables. The quality

of these social tables data is not as great as we now expect when looking at Spain in the year 2008. That is, Roman officials did not take any household surveys in 14 AD, so a full income distribution that documents families from poorest to richest does not exist. Thus, we have to rely on other kinds of evidence.

Peter Lindert and I collected our first set of social tables twenty-six years ago. These offered three observations for England and Wales in 1688, 1759 and 1800-1801. The fourth observation was Nueva España in 1790, which turns out to be one of the most unequal distributions since Rome. This Nueva España observation was revealed to me by two scholars while I was lecturing

at CIDE in Mexico City in 2004. Most recently, my collaborators –now including Branko Milanovic from the World Bank– and I just got our 29th social table, this one for Chile in 1876. There are some young people in the audience who are just starting out in economic history, being taught by some wonderful scholars here in Madrid. I want to warn these young people that this is not a project a young scholar should attempt. After all, it took twenty-six years to collect this evidence so that I could give this lecture here at the Areces Foundation this afternoon. I do not advise a 25 year old to start on such a project; you’ll never get a secure position at Complutense or Carlos the Third! My advice is to wait until you’re older and they can’t fire you before you attempt a research project like this are.

Let me offer a social table example from France, constructed about the time of the Revolution (Table 1). This social table lists

social groups from top to bottom; for each group, we have their per capita income, the population within the group, the number of income earners within the group and thus the size of their families they support, and its shares in the total population. This information can then be used to construct a measure of inequality, that is, the distribution of income for France in 1788, but without any information on the variance of incomes within the groups. A complete distribution of income would also tell you about poor clergy and rich clergy, poor nobles and rich nobles, poor merchants and rich merchants, working young peasants and disabled old peasants, and so on. But we don’t have that information. All we’ve got is this information on average incomes within these groups. Although I’m not going to bore you with

the details this afternoon, it turns out that not much is gained when you even have information on the distribution of income

If we are interested in why Spain has current inequality problems, we need to look carefully at the past century and more.

Page 17: Revista Fundación Ramón Areces. Número 1: Enero 2010

32 FRA 33

within these groups. The variance of incomes between classes is quite sufficient to get a very good fix on overall distribution in these socially-stratified, pre-industrial economies. Table 2 lists the twenty-nine societies we can observe, including Old Castile in 1752. The metric used to measure income is the one being used by Angus Maddison, the World Bank and other economic analysts; like us, all economists are now using this Geary-Khamis PPP-adjusted 1990 US dollars metric, here applied to our gross domestic income per capita measures. The list of countries includes Java under Dutch rule in 1880 and 1924, the Kingdom of Naples in 1811, England in 1290, Rome in 14, Byzantium in 1000, Siam in 1929, Tuscany in 1427, and British India in 1947. My collaborators and I are continually adding to this list, so that it will soon include the American colonies around 1776, and others.

Here’s the way we measure inequality. In

very poor pre-industrial societies, which have very low per capita income and very low average incomes, the vast majority of the working poor –mostly landless peasants tilling the soil– must have the resources to purchase enough subsistence consumption goods –grain, porridge and other essential food items– so that they can survive. If they can not survive, then the system can not survive either. So the elite must ensure that subsistence is sufficient to make it possible for their society to persist through time. Thus, poor societies do not generate much surplus to be extracted by the elite, whether the elite are composed of the king and his court, or Robert Mugabe and his family. If, therefore, inequality is quite limited in very poor societies, what happens as countries slowly enjoy economic improvement leading up to their Industrial Revolution? What happens as the surplus above subsistence rises? Do the elite get it all, or does some trickle down to the poor, improving living standards among

Table 2

Data Sources, Estimated Demographic Indicators and GDI Per Capita

Country/territory Source of data Year Population (in 000)

Estimated GDI per capita

Roman Empire Social tables 14 55000 633Byzantium Social tables 1000 15000 533England and Wales Social tables 1290 4300 639Tuscany Professional

census1427 978

South Serbia Settlement census

1455 80 443

Holland Tax census dwelling rents

1561 983 1129

Levant Settlement census

1596 263 974

England and Wales Social tables 1688 5700 1418Holland Tax census

dwelling rents1732 2023 2035

Moghul India Social tables 1750 182000 530England and Wales Social tables 1759 6463 1759Old Castille Income census 1752 1980 745France Social tables 1788 27970 1135Nueva España Social tables 1790* 4500 755England and Wales Social tables 1801-3 9277 2006Bihar (India) Monthly census

of expenditures 1807 3362 533

Netherlands Tax census of dwelling rents

1808 2100 1800

Kingdom of Naples Tax census 1811 5000 752Chile Professional

census1861 1702 1295

Brazil Professional census

1872 10167 721

Peru Social tables 1876 2469 653China Social tables 1880 377500 540Java Social tables 1880 20020 661Japan Tax records 1886 38622 916Kenya Social tables 1914 3816 456Java Social tables 1924 35170 909Kenya Social tables 1927 3922 558Siam Social tables 1929 11605 793British India Social tables 1947 346000 617

Note: GDI per capita is expressed in 1990 Geary-Khamis PPP dollars (equivalent to thoseused by Maddison 2003 and 2004). Observations ranked by year. * 1790 = 1784-1799.

Page 18: Revista Fundación Ramón Areces. Número 1: Enero 2010

34 FRA 35

the masses? And what determines whether the elite do or don’t grab all there is to grab?

Branko Milanovic at the World Bank, Peter Lindert at the University of California, Davis

and myself find it useful first to define the maximum inequality an elite society can extract from the system, that is, the inequality that results when the elite take all the surplus above subsistence. We call this the maximum feasible inequality. Next, we compute actual inequality. For those of you who don’t care to pay close attention to the statistics, suffice it to say that the index of inequality used here is the Gini coefficient, where a big Gini means high inequality and a small one means low inequality. Next, compare the actual Gini with the Gini implied by the maximum feasible inequality. The ratio of the two is called the extraction ratio. Figure 1 shows what the maximum feasible inequality

looks like when it is plotted against gross domestic income (GDI) as a multiple of fixed subsistence. Thus, it plots the best the greedy elite could do along the vertical axis, and level of development (GDP per capita

relative to this subsistence level) along the horizontal axis. The subsistence level is taken to be a dollar-a-day, the criteria used by the World Bank today and equivalent to 300 Geary-Khamis PPP US dollars per year. (You give people Sundays and holidays off in that calculation.) So, as we move along the axis to the right, what’s increasing is GDP per capita (since subsistence is constant). While this economy is not (yet) industrial, it is getting more and more successful; land yields are rising and thus labor productivity is increasing sufficiently to improve average incomes. In Figure 1, we consider an economy for which average income is a bit more than three times subsistence. What is being measured there is

the distance A, which is the actual inequality we observe for this country, and the distance B, which is the maximum inequality that could have been extracted. The comparison between A and B tells us just how greedy and

successful the elite is in terms of extracting the surplus from the system.

Now then: What was inequality and the extraction ratio like in these per-industrial societies? After we answer this question, we are then going to look at contemporary societies. So, please be patient: we’ll get there. Figure 2 supplies the ancient pre-industrial evidence. The dots plot all of inequality observations for those countries from Rome to British India just prior to its independence, including Old Castile in 1752. The latter fits the general pattern over two millennia pretty well, suggesting that 18th Old Castile was pretty much on the mark in terms of

comparative historical performance. There’s a lot of variance between these countries, so there’s something else at work than simply GDI per capita and the size of the surplus. But in relation to movements over time, and

to movements in GDP and GDI per capita, one thing stands out. In early development stages, countries cluster down close to the 300 1990 US dollars subsistence level. These were very poor pre-industrial economies, like Serbia in 1455 and Bihar (India) in 1807. These very poor societies were pretty close to that black maximum feasible inequality line, that is, the elite in these poor societies did very well in extracting a very large share of the surplus, even though there was not much surplus to extract. So while the level of inequality actually observed may not have been very high, the extraction ratio may have been very high. Note that there are two poor pre-industrial societies where the elite

Page 19: Revista Fundación Ramón Areces. Número 1: Enero 2010

36 FRA 37

actually extracted all the surplus. The Nueva España 1790 observation is right on the predicted maximum inequality line. So even with Bourbon reforms, it looks like Spain was able to squeeze all that was available out of Mexico without driving the Mexican peasant

below subsistence, an alternative policy that could not have survived for long. The second example is Moghul India in 1750 prior to British hegemony. Both of these elite groups were extremely effective in terms of extracting surplus from an otherwise poor economy.

But note what happens when we get up near Old Castile in the middle of the 18th century. The observations begin to bend away as the countries that are richer start to bend away further and further from that maximum feasible inequality line. As these pre-modern societies got richer and richer, and approached an industrial revolution, something happened to the way their

institutions and markets worked to reduce the amount of surplus they extracted. While the extraction rate certainly fell, we know less about why and how it fell, that is, the new institutions and policies which drove actual inequality away from the maximum.

There was a significant rise in inequality prior to Industrial Revolutions, but the rise tended to flatten out as these countries approached modern economic growth. The Gini, our measure of inequality, doesn’t increase as much as it could have, and not as much as does the level of development. Figure 3 shows the same observations again, but now I’ve added some more: the filled circles are ones from the ancient sample prior to 1947, while the empty circles are modern observations. Modern pre-industrial countries may be poor, like Nigeria and the Congo, but some have made significant progress like China.

You can see how this tendency of actual in-

equality to pull away from the maximum possible inequality over very long periods of time is not just an ancient phenomenon. This implies that the extraction ratio, that is, the ability (or willingness) of the elite in a society to extract surplus off the backs of the

working poor, declines with time and deve-lopment. Figure 4 shows that the extraction ratio drops from very high levels for poor agricultural so-cieties to low levels for modern societies like Spain. Now you have a better sense of where modern Spain is in terms of levels of inequa-lity. There you see Spain in the context of the very long development of inequality over two millennia. It is exactly on track in terms of the average econometric summary of this historical evidence. And other OECD coun-tries share this. There are some countries that have departed from this average trend. For example, Brazil has special inequality pro-

blems –racial and North-South regional pro-blems that are historically ingrained– so it’s not surprising that it’s a deviant on the high side. On the other hand, China is pretty clo-se to this line, in spite of what has happened over the past three decades, when inequality

rose during their double digit growth rate performance.

The extraction ratio also declines across a much larger cross-section of countries in 2002 (not shown). So even when we look at the present, we observe wide differences in the inequality extraction rate, and, once again, it is correlated with GDP per capita. That is, rich countries have much lower extraction rates than poor countries. There are, of course, exceptions to the rule, so special country-specific conditions play a role in spite the fact that it’s the fundamentals of long run economic growth that are driving the decline in the extraction rate.

Page 20: Revista Fundación Ramón Areces. Número 1: Enero 2010

38 FRA 39

Now let me show you another inequality measure that may be more familiar. There has been much talk of late about how the very rich –the top one or top ten percent– are doing in the OECD and how they have been doing since the 1970s. How does their

performance compare with what you’ve just seen over the two millennia? Recently, there has been a lot of good work led by Anthony Atkinson, in England, and Thomas Piketty, in France, and others, which show that there is a very strong positive correlation between the income share accruing to the top one percent and other measures of inequality, like the Gini coefficient.

Figure 5 documents trends in the income share of the top ten percent across the 20th century for English-speaking countries. Note the great tide that was flowing then. You have to keep this plot in mind when thinking about today’s inequality. It shows that the English-

speaking countries –the UK, Ireland and the offshoots – have all shared the same trends since World War I, and maybe before (when we don’t have good evidence). All of these countries underwent revolutionary declines in the share of income received by those at

the top. This 20th century phenomenon has, of course, been closely correlated with the rise of the welfare state and with the appearance of democracy. While analysts agree that these three are correlated, they disagree about causality. But the inequality changes have certainly been very big. The top share fell from 15 or 20 percent around World War I, to 5 or 8 percent in the 1970s. We also know what’s happened since the 1970s, a turnaround in this century-long trend. In the American case, it looks like the inequality conditions in 1913 have almost been recovered, although none of the other countries in Figure 5 have undergone quite the extreme rise in inequality since the 1970s

that America experienced. What about the European continent? As Figure 6 shows, the trends are the same, although not always as dramatic. Nevertheless, Europe and its offshoots seem to share the same laws of motion across the 20th century. What makes

the inequality rise in the EU, North America and the Oceanic countries so spectacular is that it took place after a century of decline.

this 20th century experience shows that the last few decades have –to use an American expression– been bucking the long run tide. After a century of declining inequality, which started even before the Industrial Revolution, we have witnessed a reversal over the last forty years. How do we reconcile the rise in inequality in the rich countries since the 1960s or the 1970s with this long run tide of inequality decline all over the globe, at least the globe that we can measure.

The reconciliation must lie with the answer to this question: What has been so different about the world economy since the 1960s compared with the century that preceded it? The first big difference is globalisation and the trade boom. The argument here is clear

and the economics straight forward. Spain’s comparative advantage is in relatively skill-intensive goods and services, and it imports products that use a lot of land and unskilled labour. This implies that trade displaces unskilled Spanish labor as local import-competing industries disappear. Unskilled labor loses, but skilled labor gains, favored by the boom in the export of skill-intensive products. This is standard economics, but what economists fight about is the size of these effects. Still, the trade boom must have played some role in contributing to the inequality rise. And remember that the world was autarkic and closed prior to the 1960s –in the 1930s, 1940s and 1950s– when all

Page 21: Revista Fundación Ramón Areces. Número 1: Enero 2010

40 FRA 41

countries pursued protectionist policies, and trade was minimal. The trade doors started to open wide again in the 1960s. The destruction of those interwar trade barriers began first in Europe and then spread to the rest of the world. So the pro-global trade

boom may have been one force causing the reversal in the 20th century inequality drift. The second big difference is the mass migra-tion boom. Free immigration into America and other overseas countries was shut down in the 1920s. As you well know, it had been preceded by a long period of booming emi-gration out of Europe. These migrations did not resume until the 1960s and the 1970s, and by then high-wage Europe had joined the overseas regions as host countries, and the migrants were now coming from the Third World. This emigration surge was partly due to policy changes that favored emigrants from those poor regions. So im-migration and inequality have risen together. All high-wage OECD countries –including

Spain– have been absorbing immigrants in very large numbers since the 1960s, so much so that it gets front page news every day. The vast majority of the immigrants are relatively unskilled, entering Spain and the US at the bottom of the income distribution, compe-

ting with native-born unskilled, and contri-buting to rising inequality. In Spain, many of them are coming from Africa. In the US, many are coming over the southern border with Mexico. Since they are mainly unskilled, they tend to glut the unskilled labor market. Since these immigrants compete with unski-lled Spaniards and unskilled Americans, they erode unskilled wages and contribute to in-equality. Once again, while the economics is straightforward, what economists fight about is the size of the impact.

The third big difference involves the rate of economic growth in the OECD. Since the 1950s, growth rates have been impressive in all high-wage countries. Not so fast

lately perhaps –and certainly not the last six months, but over the last half century the growth rate has been spectacular– Spain in particular. This growth has been driven by a technology that has been increasingly skill-intensive and school-intensive. So it drove up

the premium on skills and schooling, which added to rising inequality.

The fourth big difference involves the demographic transition in Europe and North America. The baby boom is long gone. Indeed, as the babies became young adults in the 1970s and 1980s, they glutted the labor market, and added to the rise in inequality. Now they are getting older and starting to retire from the labor market. These demographic factors have also left their mark on inequality.

Which of these forces have mattered most? For thirty years, economists have had endless debates over this question. Table 3 offers

one recent example taken from a 2008 IMF paper. The bar diagram refers to the aggregate of all rich OECD countries, not just to one country. The first entry measures the increase in inequality that has taken place over the past three or four decades, while the rest list the causes. Thus, the second entry estimates the contribution of globalisation, composed of two parts, trade and immigration. Its impact has been positive, and a very big share of the total. Next is the contribution of technological change, rapid growth driven by technologies that are increasingly skilled and schooling intensive. This contribution of technological change is a little less but almost equal to the globalization contribution.

The third contribution is a residual which includes all other influences on the income distribution, like demographic factors and changes in policy. I should add, by the way, that if this table was meant to show American experience, the entry at the top would be about twice as big because America has undergone the biggest increase in inequality. And according to American economists, the globalization entry would be smaller than what you see there, and the technology entry would be bigger. I’m not sure what this diagram would look like for Spain.

now you know what happened to inequality over two millennia, what happened to it over the past century and what happened to it over the past forty years. You also now know what the likely candidates are that have been pushing inequality in Spain and the rest of the EU and North America. Now that we understand the past, we can deal with the future. What will it look like?

Will immigration continue to soar, or will it decline? If it soars, it will add to inequality; if it declines, it will subtract from inequality.

Will immigration continue to soar, or will it decline?What about the trade boom?Has it reached a crescendo?What aboutskill-intensive growth rates?

Page 22: Revista Fundación Ramón Areces. Número 1: Enero 2010

42 FRA 43

What about the trade boom? Has it reached a crescendo? If we’ve reached a crescendo, then it will no longer be a contributor to future inequality trends. What about skill-intensive growth rates? Are they likely to continue at the rates we saw during the 1990s? All economists agree that OECD growth rates will continue to slow down over the long run, even ignoring the current recession. In the long run, those growth rates are going to decline over time for various reasons, and one of them is simply demographic as population growth rates drop to zero. What about the distribution of skills and schooling? We live in a world now where skills and schooling determine incomes and productivity, not bricks, mortar and machines. We are in a new era where human capital really matters, and who gets the human capital is crucial in influencing the distribution of income. The most egalitarian societies will be those that distribute education, health and other human capital resources most equally across their citizens. Those that do it well will experience downward inequality trends, and those that do it badly will have persistent inequality and the political and social problems associated with it.

so what wiLL future inequaLity Look Like?first, immigration will decline. Indeed, it has been declining already. Why haven’t we noticed this? Perhaps because the media is misinforming us. But the facts are clear: Rates of emigration from the Third World to the

US hit a peak in the early 90s. More recent experience since 2004 has seen a further slowdown, and no doubt we will witness a bigger downward dip as the US and EU labor markets get increasingly sour. It follows that whatever inequality impact immigration has had in the past, it will diminish in the future.

second, the demographic transition in the OECD is about over, so that it will no longer have an influence on inequality. As I’ve already reminded you, younger adults are poorer than older adults. The baby boom cohort created a lot of young adults in the 70s and 80s, contributing to the rise in inequality during that four decades following the 1960s. But now the baby boomers are becoming older adults, and young adults are getting scarcer. Scarcer means relatively more expensive, an event which helps reduce inequality.

third, what about globalization and the trade boom? There is reason to believe that the boom is pretty much over. After all, the world has already gone pro-global, so it has done almost all it can do to reduce major

barriers to trade. In addition, growth rates in the rich countries are slowing down, which will slow down the growth in demand for everything, including exports and imports. A much diminished trade boom implies a diminished impact on inequality.

fourth, what about skill intensive rates of growth? Any slow down in the rate of increase in the demand for skills and schooling offers a chance for the supply of skills and schooling to catch up. As supply increases and demand slows down, the skill premium and earnings inequality will diminish. The catch-up increase in schooling can be done by private investment in education, of course, but it also has to be done by public authorities to ensure that the children of disadvantaged families get the skills they need.

so, i expect inequaLity to decLine in the near future. Indeed, much of the inequality decline across the 20th century is explained by the same forces that will produce this predicted future: schooling supply catching up with schooling demand; a more equita-ble distribution of that schooling; fewer im-migrants; the absence of a trade boom; and slower technical progress.

Jeffrey Gale Williamson

Jeffrey Williamson enseña e

investiga en los campos de

la Historia económica y el

Desarrollo económico del

tercer mundo. En la actualidad

desarrolla dos grandes

proyectos de investigación:

1) La evolución de precios

de bienes, factores y niveles

de vida desde 1820 que

cubra los países de la OCDE,

este y sur de Europa, África

mediterránea, Latinoamérica y

Asia. y 2) El estudio del cambio

económico en el tercer mundo

antes de 1940, a partir del

estudio de las relaciones reales

de intercambio, la política

comercial, oferta de factores,

des-industrialización, re-

industrialización, migraciones

sur-sur y la profundización

de las bases demográficas del

crecimiento económico.

Any slow down in the rate of increase in the demand for skills and schooling offers a chance for the supply of skills and schooling to catch up.

Page 23: Revista Fundación Ramón Areces. Número 1: Enero 2010

45

CONFERENCIAS

EL CERNEL GRAN COLISIONADOR

DE HADRONES

El profesor Juan Antonio Rubio presenta en esta conferencia el proyecto del Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN). Repasa la historia científica y tecnológica de la Organización, el proyecto mismo y su situación actual, los experimentos que se llevarán a cabo en la instalación y sus expectativas científicas. Asimismo, hace una breve mención a futuros aceleradores que hereden el protagonismo del LHC en el mundo de la Física de

Partículas.

Fundación Ramón Areces, 15 de enero de 2009

eL tema objeto deL títuLo es de indudable actualidad: El CERN y el LHC. Ambos, y otros ligados a ellos, constituyeron mi tra-bajo cotidiano desde mis últimos tiempos previos en el CIEMAT (antes JEN) hasta recientemente, cuando el Gobierno español me nombró Director General del Centro, en 2004.

El LHC (Large Hadron Collider), construido utilizando la casa de LEP (Large Electron Positron collider), es el último de los colisionadores de partículas del Laboratorio y en su momento el más avanzado del mundo (Fig. 1), constituye un proyecto de complejidad tecnológica sin precedentes, cuya operatividad desde el momento de

Por Juan Antonio RubioDirector General del CIEMAT

Page 24: Revista Fundación Ramón Areces. Número 1: Enero 2010

46 FRA 47

su gestación, habrá tardado el equivalente a media carrera de un profesional, del orden de 20 años.

El objetivo es colisionar haces de protones circulando en sentidos opuestos. Las interacciones tienen lugar en cuatro puntos de colisión, a la altura de los haces, y en promedio, cerca de cien metros bajo tierra. Del análisis de los datos obtenidos con ellos se pretende progresar en el conocimiento no sólo de la estructura íntima de la materia y las fuerzas entre sus componentes elementales, sino también del origen del Universo en el marco del Modelo de la Gran Explosión.

Los haces de protones están animados de una energía de 7 GeV, algo más de siete mil veces su masa en reposo, lo que permitirá analizar las interacciones entre sus componente elementales, los quarks, cuya dimensión es inferior a una trillonésima de metro.

El LHC utiliza gran parte de los 27 kilómetros del túnel en imanes que mantienen los haces girando en el acelerador siguiendo órbitas circulares, con la dimensión necesaria, a una velocidad muy cercana a la de la luz, aproximadamente diez mil vueltas por segundo. (Anecdóticamente mencionaremos que, como el CERN está situado en los territorios de Francia y Suiza, los aduaneros de ambos países seguro que lo han intentado pero no pueden controlarlas). Todos los imanes mencionados son superconductores y los dipolares que curvan las trayectorias tienen una intensidad de campo magnético de siete teslas (cientos de miles de millones de veces superior a la del campo magnético terrestre) y en cada punto de colisión se generan ochocientos millones de colisiones por segundo. Estos imanes dipolares están activados por corrientes

cuya intensidad es de aproximadamente 12.000 amperios y circulan dentro de un tubo en que se ha hecho un vacío inferior a la cien mil millonésima parte de torr, que es un vacío interestelar, refrigerados hasta 1,9 grados kelvin, que en la actualidad supone la temperatura más baja del Universo en volúmenes considerables. Los haces están formados por 2.880 paquetes, cada uno con aproximadamente cien mil millones de protones y su dimensión transversal es del orden de 1 milímetro y aún menor en los puntos de interacción, del orden de una centésima de milímetro. La energía total que transporta el haz en las interacciones, a pesar de estar formado por partículas cuya masa es del orden de la cuatrillonésima de gramo, es equivalente a la energía cinética de un avión Jumbo en el momento de su despegue. En resumen, el LHC es una instalación que ha requerido inmensos desarrollos tecnológicos en prácticamente todas las tecnologías de vanguardia lo que ha además ha tenido un efecto social sin precedentes, como luego explicaremos.

Dedicaremos unos párrafos al CERN, su historia, sus logros y su futuro previsible:

Creación del CERN

Las primeras propuestas para la creación del CERN las hicieron eminentes físicos y también políticos con visión europeísta, poco después de finalizar la Guerra Mundial. En 1949 Louis de Broglie propuso construir “…un laboratorio o institución donde sea posible hacer ciencia, pero más allá del marco de los diferentes Estados participantes (…) una colaboración en este campo sería más fácil debido a la verdadera naturaleza de la ciencia”(…)”este tipo de cooperación serviría también a otras disciplinas (…)”. Una vez más la ciencia volvía a ser protagonista de la superación de barreras nacionales, incluso en una época en la que aún estaban muy recientes los rescoldos de la terrible confrontación bélica. Los científicos europeos, ayudados por estadounidenses, muchos con el mismo origen, deseaban también frenar la diáspora hacia Estados Unidos. Otro ejemplo de estos últimos fue Isidor Rabi, esencial en la organización de todo el proceso para la creación del Laboratorio, en el marco de la UNESCO, en donde se depositó su Convención. Entre otros científicos más protagonistas del proceso citaremos a P. Auger, E. Amaldi y L. Kowalski.

Como consecuencia el CERN inició sus actividades en 1954, siendo el Organismo promotor de la Física de Altas Energías en Europa, no solo mediante la construcción de aceleradores sino también estudiando la radiación cósmica.

Fue la primera iniciativa conjunta europea, pero sus pioneros habían pensado más allá, con amplia visión de nuestro continente. Constituye otro ejemplo de una de las cualidades esenciales de la ciencia, puesta en práctica una y otra vez: su constante contribución a la paz.

Breve y resumida historia del CERN

entre 1954 y 1957 comenzaron los trabajos de la División de Teoría, se construyó el sincrociclotrón de protones y se realizó el primer experimento con repercusión mundial, estudiando la desintegración leptónica del pión, que probó la universalidad de la interacción débil.

En 1959 se terminó el sincrotrón de proto-nes y se comenzó la medida del momento magnético anómalo del leptón μ, confir-mando la validez de la teoría de interaccio-nes electromagnéticas, la electrodinámica cuántica, debida a R. Feynman. Este sería un experimento que duraría muchos años, lle-gando a obtenerse precisiones altísimas en la confirmación de la validez experimental de la teoría.

Entre 1961 y 1965 se construyeron los primeros anillos de almacenamiento del mundo, CESAR (CERN Electron

Figura 1. El Gran colisionador de Hadrones (LHC) en el túnel del LEP

Se pretende progresar en el conocimiento no sólo de la estructura íntima de la materia y las fuerzas entre sus componentes elementales, sino también del origen del Universo en el marco del Modelo de la Gran Explosión

Page 25: Revista Fundación Ramón Areces. Número 1: Enero 2010

48 FRA 49

Storage and Accumulation Ring), y se adquiere el primer gran ordenador de la Organización, una CDC 6600.

Hasta entonces los físicos habían utilizado regla de cálculo e, incluso, el CERN contrató en un circo a una persona capaz de operar de memoria con rapidez extraordinaria. El ordenador humano se dedicó a hacer demostraciones semanales para el público en el auditorio principal, que solía llenarse. La CDC me sufrió no pocas noches para realizar los cálculos necesarios en el análisis del experimento base de mi tesis de doctorado. Otro hecho, muy importante para nuestra comunidad científica, es que España se adhirió silenciosamente al CERN (1961) y entonces comenzó la formación de científicos españoles de la especialidad.

En 1965 se inician las amplias colaboraciones internacionales, aprovechando que la tecno-logía de cámaras de burbujas es proclive a ello y con estos detectores se obtiene una imagen e información casi completa de las interac-ciones entre partículas. Es entonces cuando comienza la formación de experimentadores españoles en el CERN y los gérmenes de gru-pos en España.

Entre 1968 y 1971 el físico del CERN Georges Charpak finalizaba el desarrollo de un potente instrumento electrónico, la Cámara Proporcional Multihilos (MWPCh) que permitiría tomar datos sobre trayectorias de partículas cargadas con una frecuencia altísima, del orden del millón por segundo. Por este instrumento, básico para el desarrollo y la construcción de los actuales detectores de interacciones, G. Charpak fue posteriormente galardonado con el Premio Nóbel de Física en 1992.

Casi simultáneamente, España se retira del

CERN, tan silenciosamente como se había adherido a ella, en un momento en el que la comunidad científica española empezaba a formarse. Las razones alegadas fueron económicas pero entiendo que había otras de origen político. Por otro lado, éste era ya el momento en el que la diáspora se había detenido y, gracias al CERN, había comenzado el equilibrio en la movilidad científica entre Europa y Estados Unidos.

Poco después, utilizando las cámaras desarro-lladas por Charpak, se construye la instala-ción OMEGA, excelente banco de ensayos para múltiples experimentos y cuya utilidad de extiende durante bastante más de una dé-cada, y también se inicia la operación de los primeros anillos de colisión de la historia (In-tersecting Storage Rings) que permitieron las colisiones frontales entre haces de partículas, en este primer caso de protones de 30 GeV contra protones de igual energía, maqueta del LHC.

En 1973 la cámara de burbujas Gargamelle (Fig. 14), desarrollada fundamentalmente por laboratorios franceses, detecta las primeras interacciones puramente leptónicas con ausencia de hadrones sobre la base de las interacciones de neutrinos (v), predicción clave de las teorías de unificación electrodébil de S. L. Glashow, A. Salam y S. Weinberg, que obtuvieron por ello el Premio Nobel de Física en el año 1979. De no ser por su fallecimiento prematuro, A. Lagarrigue y Paul Mousset hubiesen ampliado la aportación europea a la lista de laureados con el Premio Nobel de Física.

En 1977 se terminó la construcción del Su-persincrotrón de protones (SPS) de 300 GeV, después mejorado para alcanzar 450 GeV, y se construyeron varios detectores en el marco de amplias colaboraciones internacionales.

En uno de ellos, el Espectrómetro Híbrido Europeo (EHS), el grupo de partículas del CIEMAT tuvo una participación destacada, tanto en la cons-trucción del detector como en el análisis de los datos. Fue la primera vez que un grupo español aportó instrumenta-ción electrónica visible.

También en ese periodo se construyeron los experimentos CHARM y CDHS, que analizaron la estructura de los protones y neutrones utilizando haces de neutrinos. Concluyeron que ambos tenían estructura, confirmando los realizados con haces de muones, y a sus componentes más elementales, que después se identificarían como los quarks, se les llamó “partones”.

En ese periodo el Grupo del CIEMAT participó en el modernísimo experimento MARKJ del acelerador PETRA, en DESY.

El experimento estaba dirigido por el Premio Nobel S. C. C. Ting y tuvo aportaciones muy relevantes, como el descubrimiento del gluón y la predicción del valor de la masa de uno de los bosones intermediarios de las interacciones electrodébiles, el Z.

En 1982 el Gobierno español acordó la adhesión, o readhesión, al CERN, medida que fue confirmada el año siguiente por el nuevo Gobierno y ratificada casi unánimemente por el Parlamento español.

Entre otras instalaciones S. M. el Rey de España visitó el experimento UA1, instalado en el Collider, unos anillos de colisión antiprotón protón, con energías de 450 GeV, que utilizaban una tecnología completamente novedosa y que fueron construidos en tiempo mínimo. Ambos estuvieron dirigidos por Carlo Rubbia. Las tecnologías del

Page 26: Revista Fundación Ramón Areces. Número 1: Enero 2010

50 FRA 51

colisionador fueron desarrolladas por Simon Van del Meer. Utilizando ambos, C. Rubbia descubrió los bosones vectoriales Z y W que confirmaban definitivamente las teorías unificadas electrodébiles. Los dos obtuvieron el Premio Nobel de Física ese mismo año, en 1984. UA1 fue el prototipo de los posteriores detectores de partículas.

En el entretiempo se estaba construyendo un anillo de colisión electrón positrón, con una energía inicial por haz de 100 GeV, con posibilidades de ser incrementada. En él se realizaron cuatro experimentos: ALEPH, DELPHI, L3 y OPAL, y en los tres primeros hubo una importante participación de grupos españoles, tanto en la construcción de los detectores como en el análisis de los datos. Dos de los experimentos estaban dirigidos por Premios Nobel estadounidenses, Sam Ting y Jacques Steinberger; el equilibrio EEUU-Europa comenzaba a decantarse a favor de nuestro continente. Con LEP se obtuvieron muchos e importantes resultados entre los que destacaremos la determinación del número de componentes elementales (3 familias de 4 componentes) y la validez del Modelo Estándar, que interpreta en un único marco las interacciones electrodébiles y las fuertes, lo que conlleva una descripción única de todas fuerzas con la excepción de la gravitatoria.

Desde mucho antes de terminar el LEP (2002) se estaba construyendo el Large Hadron Collider. Entre la finalización del LEP y el inicio y progreso del LHC, con sus experimentos, el CERN también ha llevado a cabo otras importantes contribuciones científicas. Mencionaremos, por su especial relevancia, los dedicados al estudio de la antimateria, la construcción de una factoría de antimateria que permitió estudiar y almacenar antiprotones y la medida de lo que

se conoce como violación de la simetría CP, que interpreta sus diferencias con la materia. Este último experimento también estuvo dirigido por un Premio Nobel estadounidense, James Cronin. A partir de ese momento se realizaron otras importantes contribuciones científicas pero el protagonismo en el CERN estuvo en la terminación del LHC y sus experimentos.

El CERN: sus principales logros En medio siglo la parte más importante de la visión de los fundadores del CERN se ha cumplido porque se ha convertido en el laboratorio más importante de mundo, en donde se reciben científicos de la especialidad de noventa países, superándose, además, el equilibrio intercontinental, pues hay mas usuarios estadounidenses trabajando en el CERN que europeos en los laboratorios de EEUU. Otra de la contribuciones a la paz fueron las colaboraciones con España, la ex-Unión Soviética y con China mucho antes de que hubiese una apertura hacia estos países. Hay otros ejemplos pasados y en curso.

El CERN es prácticamente una ciudad pero en torno suyo ha habido un gran desarrollo,

tanto urbanístico como de servicios, en gran medida debido a él. En la Fig. 2 se in-dican varios círculos que corresponden a los diferentes aceleradores, la mayor parte de ellos subterráneos aunque existan accesos desde varios lugares, en particular a las zonas experimentales. La Fig. 2 muestra un esquema del conjunto de ellos. En ella puede verse que el anillo del LHC está conectado con otros previos que hacen de inyectores del mismo, de forma que no es un colisionador aislado sino que utiliza las instalaciones previas de diversas instalaciones de aceleración. Eso ha servido no sólo para disminuir su coste y tiempo de construcción, sino también para incrementar su rendimiento.

Otros resultados de la Organización son sus efectos industrial y educativo así como el beneficio social de sus avances tecnológicos, como se explica en secciones posteriores del texto. En mi opinión faltan por alcanzar otros objetivos que aparecen en la sección titulada: “consideraciones personales sobre el CERN”.

Ciertamente ya se vislumbran nuevos pro-yectos, que también mencionaré, el futuro previsible del CERN, y obviamente su pre-sente, está íntimamente ligado al LHC. Es necesario, pues, aprovechar al máximo los resultados obtenidos con este dispositivo.

Detalles sobre el CERN y LHC

En el CERN trabajan 2.400 personas de staff y 800 becarios y profesores asociados, todos temporales. Recibe una población de 7.000 usuarios visitantes que pertenecen a 70 países asociados o colaboradores y a los 20 Estados miembros. Su presupuesto, estable desde 1980, es de 750 millones de euros anuales.

El LHC está principalmente constituido por cavidades de aceleración de alta frecuencia (del orden de varios miles de millones de hertzios), que permiten a los protones de los haces recuperar en cada vuelta la energía que pierden, pero también por numerosos criostatos y bombas de vacío, para alcanzar y mantener los parámetros necesarios de forma que se obtenga la temperatura que requiere su funcionamiento superconductor y no se pierdan las partículas por interacciones con las moléculas que puedan existir en los dos tubos por los que circulan los haces, así como por casi 10.000 imanes, en su mayoría superconductores: 1.232 dipolos curvadores de las trayectorias; 392 imanes cuadripolares, que sirven para focalizar los haces en un plano, y 2.500 correctores de trayectoria multipolares, todos superconductores. Exis-ten asimismo 1.800 conversores de potencia, de 60 amperios a 24.000. En total se utilizan 120 toneladas de helio y 10.000 de nitrógeno licuado, enfriadas a temperaturas superconductoras y el primero de ellos en forma superfluida. La corriente circula por

Figura 2. Conjunto de aceleradores

Hay más usuarios estadounidenses trabajando en el CERN que europeos en los laboratorios de EE.UU.

Page 27: Revista Fundación Ramón Areces. Número 1: Enero 2010

52 FRA 53

7.000 km de cable superconductor de niobio titanio, de 15 x 1,5 mm, constituido por 32 fibras de 6.000 filamentos del material referido. La longitud total de filamento es equivalente a más de 6 veces la distancia de ida y vuelta entre la tierra al sol. Como anécdota mencionaremos que las fibras podrían transportar 2 MW de potencia aunque aumentando las condiciones de voltaje puede conseguirse transportar una potencia significativamente mayor.

La Fig. 3 muestra la imagen de un dipolo de curvatura. En ella puede observarse una cubierta de hierro, dentro de la cual se mantiene una temperatura de 70 grados kelvin, que abraza la denominada “masa fría”, cuya temperatura es la del helio líquido. Dentro de ella hay piezas que se llaman “collares”, que sujetan los dos tubos por los que circulan los haces, ya inmersos en helio superfluido. Los tubos corresponden a los canales de conducción de helio (en rojo), tanto a 4 K como superfluido, los conductos de alimentación y las conexiones de alimentación y de instrumentación. Entre ellas están las que controlan el buen funcionamiento de los imanes. Las interconexiones entre imanes son complejas, de forma que el total sea un conjunto integrado superconductor de 27 km. La Fig. 4 muestra una de esas conexiones, con y sin cobertura.

Incidente en la puesta a punto del LHC

El pasado día 10 de septiembre de 2009 co-menzaron las pruebas del LHC. Inicialmente se probó la circulación de los haces, puesto que la energía fue de sólo 0,5 TeV, la misma que alcanza el SPS, en vez de los 7 TeV no-minales. El ensayo tuvo éxito.

Posteriormente se probó cada uno de los subsectores, trozos de círculo del LHC, a bastante más alta energía, próxima ya al valor nominal (5 TeV). En el último de ellos, que se encuentra entre la población francesa de St. Genis y el punto más profundo del túnel, bajo las montañas del Jura, Echenevex, a las 11.00 se detectó una zona resistiva, donde se había perdido la superconductividad, entre dos imanes bipolares, con uno cuadrupolar en medio, posiblemente en una interconexión eléctrica, quizás originada por un mal contacto o soldadura. En ese momento la corriente había alcanzado una intensidad de 8.400 A.

Apenas medio segundo después saltaron los convertidores de potencia, pero ya se había establecido un arco eléctrico en una de las interconexiones entre imanes. Este arco eléctrico perforó la envoltura del helio y, a pesar de que se activaron los resistores de potencia, que son sistemas de seguridad de la pérdida de las condiciones de superconductividad, al cabo de 1 segundo la presión excedió la atmosférica, con lo cual los discos de seguridad situados entre grupos de imanes se abrieron y el helio se escapó desde la cámara aislante al túnel.

También se rompieron las barreras que separan los subsectores y las fuerzas originadas los desplazaron, dañando cerca de una treintena de imanes. La sobrepresión de helio, aunque muy baja (del orden de la milésima de bar), fue capaz de arrancar una puerta blindada del túnel. El helio gas invadió el túnel.

En el momento de preparar esta conferencia aún no se ha determinado el número exacto de imanes afectados ni la totalidad de daños ocasionados. También se están estudiando las medidas adicionales por adoptar para prevenir mejor este tipo de accidentes. Se estima que su ejecución durará unos seis meses.

Detectores del LHC

Como antes hemos referido, todos los de-tectores instalados en los colisionadores de partículas tienen, desde el experimento UA1, la misma topología. Los subdetectores se ins-talan cerca del punto de interacción de las partículas del haz, en forma de capas, como una cebolla. Con ello se trata de identificar las partículas generadas en las interacciones, de qué tipo son y cuál es su energía. En mu-

chos casos se cierra la zona de interacción en torno a la interacción mediante subdetecto-res situados en las partes anterior y posterior del mismo, para detectar la energía de las partículas que lo atraviesan si tener mecanis-mo para detectarlas, como los neutrinos. En algunos el detector no cubre la totalidad del ángulo sólido en torno a la interacción sino que se sitúan en uno solo de los hemisferios. En todos se utilizan campos magnéticos, en su mayoría superconductores, para curvar la trayectoria de las partículas cargadas, distin-guirlas y realizar medidas de la curvatura que permite una medida de su energía. Siempre se hace una selección electrónica y automáti-ca rápida de las interacciones, buscando, en-tre los mil millones de interacciones por se-gundo que se producen en cada experimento del LHC, aquellas que interesan en un expe-rimento concreto. En general el objetivo de cada una de las capas del detector es el mis-mo. Primero se trata de detectar las partículas cargadas generadas en la interacción y realizar una primera determinación de su trayectoria. A continuación se determinan las partículas que interaccionan electrónicamente, más allá de las que tienen interacciones fuerte como protones, neutrones y piones cargados (los neutros viven muy poco tiempo y se mate-

Figura 3. Dipolo de curvatura Figura 4. Interconexión entre imanes, con y sin cobertura

Page 28: Revista Fundación Ramón Areces. Número 1: Enero 2010

54 FRA 55

rializan en dos fotones). Y, finalmente, los muones, que atraviesan grandes cantidades de materia antes de llegar al reposo y desapa-recer por desintegración.

En la Fig. 5 se muestran los cuatros detecto-res construidos e instalados en el LHC. Dos de ellos son multipropósito porque están preparados para detectar todas las interaccio-nes de interés que se plantean en el nuevo dominio de energía que cubrirá el colisiona-dor (ATLAS y CMS) y los otros dos están especializados en determinar con precisión fenómenos poco abundantes en los primeros (LHCb y ALICE). LHCb tiene como obje-tivo principal determinar las razones de la diferencia entre materia y antimateria, parti-cularmente a través de la detección y medida de partículas que contienen el quark b. El de ALICE es determinar un nuevo estado de la materia en que los componentes elementales se encontraban libres dentro de los protones y los neutrones, estado predicho por la teoría

de interacciones fuertes, la cromodinámica cuántica, que es parte integrante del Modelo Estándar.

típicamente Los experimentos multipropó-sito los realizan 1.500 científicos e ingenie-ros de 150 instituciones, procedentes de 30 países, y cuyo coste en material sobrepasa los 350 M euros, la gran parte de él aportado por los grupos colaboradores. Además el tamaño es inmenso (ATLAS es equivalente a un edi-ficio de cuatro pisos que llenaría la Basílica de Notre Dame de París) y todo el espacio del detector está completamente lleno de componentes que han de ser emplazados con precisión de centésimas de milímetro.

En lo que sigue de esta sección nos referi-remos al experimento CMS (Compact Muon Solenoid) porque es en el que el CIEMAT tie-ne una gran aportación.

La Fig. 6 muestra la estructura del experimen-to. Tiene un detector central como primera capa, después un calorímetro electromagné-tico y luego uno hadrónico. A continuación hay un gran imán superconductor de 4 teslas (el más grande e intenso del mundo), des-pués el hierro que cierra el campo magnético y finalmente el detector de muones de varias capas. Finaliza con otro imán.

La Fig. 7 muestra el camino seguido por las partículas procedentes de la interacción y la forma de identificarlas. Como puede verse las trayectorias espirales de los muones cambian de sentido después del hierro que cierra el campo magnético interno porque este también acaba en sentido opuesto.

Todos los subdetectores están construidos utilizando las tecnologías que permiten alcanzar las más altas precisiones de medida y que han sido desarrolladas expresamente

para los experimentos.

eL grupo deL ciemat ha construido una fracción importante de las cámaras de detección de muones porque ya conocía la tecnología desde el experimento L3 de LET y porque las interacciones con muones tienen particular interés para la física buscada. Dichas cámaras, que son de deriva y utilizan argón y CO2 (85/35%), tienen una resolución por celda mejor que un cuarto de mm, lo que finalmente se traduce en que se obtiene una precisión mejor del 10% en la medida de la energía de los muones. También el CIEMAT ha participado en la electrónica del experimento así como en la simulación del análisis, y lo hará activamente en el mismo.

Además el CIEMAT ha participado en el de-sarrollo del nuevo sistema de almacenamien-to, transporte y análisis de datos (la GRID) desarrollado para el LHC como banco de prueba para su utilización social futura como un ingrediente fundamental de las nuevas Tecnologías de la Información y las Comuni-

Figura 5. Los cuatro detectores del LHC

Típicamente los experimentos multipropósito los realizan 1.500 científicos e ingenieros de 150 instituciones, procedentes de 30 países, y cuyo coste en material sobrepasa los 350 millones de euros

Siempre se hace una selección electrónica y automática rápida de las interacciones, buscando, entre los mil millones de interacciones por segundo que se producen en cada experimento del LHC

Page 29: Revista Fundación Ramón Areces. Número 1: Enero 2010

56 FRA 57

caciones (TIC) con repercusión muy amplia, como en el pasado tuvo la Web, desarrollada en el CERN. A ello nos referiremos en la sec-ción siguiente, más adelante.

Las Figs. 8 y 9 muestran dos imágenes, una real, tomada con una cámara de burbujas (la de 2 m, del CERN) hace más de treinta años junto a su interpretación, y otra simulada en un detector multipropósito del LHC.

En la primera se observa la interacción de un mesón K negativo (con uno de los componentes que es un quark extraño) con uno de los protones del hidrógeno que llena la cámara. Pueden verse las partículas que en ella se generan: Un kaón y un pión negativos, una partícula neutra que se desintegra a cierta distancia de acuerdo con su tiempo de vida y otras dos neutras que aparecen también a cierta distancia (son fotones que se materializan en pares electrón–positrón). Los

electrones pierden mucha energía en el campo al curvarse su trayectoria y se convierten en espirales que se cierran.

En la segunda puede verse la complejidad de partículas producidas, por su número. No obstante la mayor parte espiralizan rápidamente debido al campo magnético, muy intenso, y porque tienen baja energía. Sin embargo aparecen cuatro de alta energía, identificados como muones. Es ese un tipo de interacción de las más buscadas ya que puede ser el resultado de la desintegración de un Higgs en dos bosones Z, que a su vez se desintegran en dos muones cada uno de ellos. A este tipo de interacción se lo llama el “canal de oro”.

El desafío de los datos del LHC: La GRID

La cantidad de información que se espera de los experimentos del LHC es inmensa. Se detectarán mil millones de interacciones por segundo y la información por captar es equivalente a 1 Petabyte (mil millones) por segundo, la misma que generan cien mil telé-fonos funcionando constantemente durante un año. Eso es, con mucho, imposible por ahora. Se hace necesario, pues, seleccionar electrónica e informáticamente la informa-ción para hacerla accesible (Fig. 10).

Afortunadamente de todas estas interacciones solo unas pocas, y se sabe cuales, son de interés, y el resto es “ruido de fondo”. Además, éstas se pueden seleccionar en breve tiempo, analógica y digitalmente. Esa es la razón por la que se lleva a cabo una selección (trigger), por otra parte ya utilizada en experimentos

anteriores, que permite pasar de 40 millones de Hz, que es la frecuencia con la que se cruzan los haces, a 7.500 Hz equivalentes, de forma analógica y sobre la base de la información proporcionada por algunas señales de los detectores. En una segunda fase esa información puede disminuirse utilizando procesadores integrados hasta 5.000 Hz, y en una tercera, cuya duración es ya del orden del segundo, se puede disminuir más por filtro de la información mediante software convencional. El resultado es de 100 millones de bytes por segundo, que equivale a 1 Petabyte por año. Es decir con métodos rápidos puede disminuirse la información por almacenar y analizar hasta lo inicialmente generado en 1 año. En todo caso la cantidad de información sigue siendo excesiva.

El tratamiento de la información sobre las interacciones tiene una característica, puede realizarse en paralelo, interacción por

Figura 6. Estructura del experimento CMS Figura 7. Camino seguido por las partículas procedentes de la interacción

Page 30: Revista Fundación Ramón Areces. Número 1: Enero 2010

58 FRA 59

interacción, y también una servidumbre, tiene que ser accesible y utilizable desde todos los grupos colaboradores de un experimento.

Es aquí donde entra la GRID, sistema ya propuesto para el tratamiento de la información mediante clústeres de ordenadores de todo el mundo, unidos por líneas de transmisión y conmutación de banda muy ancha. Las líneas existen en casi todos los continentes, enlazándolos, en forma de ramillete.

La GRID también incluirá, enlazándolos, los superordenadores, porque hay muchos campos en los que la potencia de cálculo paralela no es el método adecuado. También son objeto de atención por parte de la Unión Europea.

Este proyecto, previsto para Europa como un importante paso en las TIC, ha encontrado que los experimentos del LHC constituyen un medio para desarrollar la

GRID y ha encomendado al CERN que lo haga. El procedimiento es como sigue: el primer ordenador que recibe los datos está en la Organización (TIER 0) y luego se transfieren, después de un tratamiento inicial, a 10 nodos situados en diferentes partes del mundo (TIER 1). Existe uno de ellos en la Universidad Autónoma de Barcelona, que cubre las necesidades ibéricas, sufragado por acuerdo ministerial entre la Generalitat de Catalunya y el CIEMAT. Después hay varios TIER 2 en España, que corresponden uno a cada experimento, y también existen en Portugal.

Actualmente el “middleware” de la GRID está ya operativo, aunque todavía resultaría optimizable.

La GRID ya tiene, incluso en el estado actual, aplicación en múltiples campos científicos y servicios globales que requieren almacenar y analizar muchos datos. Por ejemplo en biología y medicina, en climatología, en

archivos, en administración unificada, en educación a distancia, etc.

La Fig. 11 muestra los objetivos, caminos y campos científicos de aplicación inmediata de la GRID (Fig. 10).

El CIEMAT, además de sus capacidades en su sede, el centro de la Moncloa, ha abier-to otro en Trujillo, dedicado únicamente a aplicaciones sociales. El Centro de Trujillo, denominado CETA (Centro Extremeño de Tecnologías Avanzadas) – CIEMAT, ha re-cibido múltiple financiación de la Comisión

Figura 8. Fotografía de interacción en cámara de burbujas y su interpretación Figura 9. Interacción simulada en un detector multipropósito del LHC

Figura 10. El desafío de los datos del LHC

Page 31: Revista Fundación Ramón Areces. Número 1: Enero 2010

60 FRA 61

Europea y sus actividades implican la cola-boración con casi toda Iberoamérica, Portu-gal y otros cinco países europeos, además del CERN. Se espera extender la colaboración a África, especialmente a los países ribereños del Mediterráneo.

¿El LHC y sus detectores, para qué?

La idea de que La materia está compuesta por unidades discretas indivisibles (átomos) había sido propuesta ya por los atomistas griegos hacia el siglo VI antes de Cristo. Sin embargo no fue hasta principios del siglo XIX cuando John Dalton utilizó por primera vez el concepto de átomo para explicar las proporciones entre los componentes en las reacciones químicas y los modos en que estas partículas, únicas e indivisibles, se combinan para formar los distintos compuestos químicos. A finales del XIX (1897), J.J. Thomson descubrió que las partículas de carga eléctrica negativa (electrones) que constituían los llamados “rayos catódicos” eran de naturaleza subatómica y, por tanto, los átomos no eran entidades elementales.

Y, dado que eran eléctricamente neutros, deberían estar compuestos, junto con los electrones, por otras partículas subatómicas de carga positiva (protones). Fue entrado ya el siglo XX (1909) cuando E. Rutherford, bombardeando una lámina de oro con iones de helio, descubrió que tanto la carga positiva del átomo como la mayor parte de su masa estaban concentradas en un núcleo central de dimensiones mucho menores que el átomo y propuso un modelo en el que los electrones orbitaban alrededor de estos núcleos de modo análogo a como los planetas lo hacen alrededor del Sol. Desde el descubrimiento del neutrón por J. Chadwick, en 1932, se sabía ya que la materia ordinaria estaba compuesta por átomos con los electrones distribuidos alrededor de un núcleo muy masivo formado por protones y neutrones (Fig. 12).

Conforme se han ido desarrollando acelera-dores de partículas de mayor energía y de-tectores más complejos y precisos, durante el siglo XX, hemos profundizado en el co-nocimiento sobre los constituyentes de la materia y las interacciones que tienen lugar entre ellos (Fig. 12). Los estudios realizados

durante las últimas décadas sobre las inte-racciones entre partículas elementales han mostrado un acuerdo sin precedentes entre las observaciones experimentales y el llama-do Modelo Estándar (una Teoría Cuántica de Campos formulada en consonancia con los principios de la Relatividad Especial y que describe, mediante Principios de Invariancia frente a transformaciones matemáticas, las interacciones fundamentales conocidas salvo la gravedad: la interacción fuerte, responsable de la cohesión de los núcleos atómicos y de la fusión y fisión nuclear, la electromagnética, que describe las fuerzas electromagnéticas, la cohesión de la materia y los procesos biológi-cos, y la débil, que describe, por ejemplo, la inestabilidad de algunas partículas).

En el Modelo Estándar, las entidades ele-mentales son los leptones y los quarks, partí-culas ambas de espín semientero (fermiones) que se encuentran agrupadas en familias. Por ejemplo, la primera familia está constituida por los quarks u y d, partículas elementales que constituyen los protones y los neutrones, junto con los electrones, que permiten cons-truir los átomos de toda la materia ordinaria

conocida en el Universo, y el neutrino elec-trónico, necesario para describir las desinte-graciones nucleares. Los resultados obtenidos en la última década del siglo XX por los ex-perimentos situados en el colisionador LEP del CERN mostraron que existen tres fami-lias de fermiones elementales. Estas partícu-las elementales, que constituyen las familias, interactúan entre sí mediante el intercambio de partículas de espín entero, denominadas bosones. Conocemos un total de 12 cam-pos bosónicos: el fotón, que media en las interacciones electromagnéticas, los bosones W+,W- y Z, responsables de las interacciones débiles, y ocho gluones que median las inte-racciones fuertes (Fig. 13).

Finalmente, para que la teoría conserve las probabilidades en las interacciones (sea uni-taria), es necesario incorporar una nueva par-tícula de espín 0 (bosón, por tanto) que in-teractúe de un modo concreto con las demás partículas del modelo. Este bosón se intro-duce mediante el denominado Mecanismo de Higgs que permite, por un lado, que las magnitudes observables, calculadas median-te técnicas de perturbaciones, sean finitas (la

Figura 11. La GRID

Figura 12. Evolución en el conocimiento de los componentes de la materia hasta principios del siglo XX

Page 32: Revista Fundación Ramón Areces. Número 1: Enero 2010

62 FRA 63

teoría sea renormalizable) y, por otro, que las partículas del modelo puedan tener masa si es el caso. Es el denominado Bosón de Hi-ggs, elemento esencial del modelo y único ingrediente que aún no ha sido observado directamente. Sabemos, nuevamente por los resultados obtenidos en el colisionador LEP, que su masa es superior a 114,4 GeV y es de esperar que con la próxima entrada en fun-cionamiento del LHC quede confirmada su existencia.

Sin embargo, a pesar del excelente acuerdo observado entre el Modelo Estándar (Fig. 14) y los experimentos realizados hasta la fe-cha en laboratorios terrestres, aún existen va-rios problemas por resolver. Por ejemplo, en el modelo hay muchos parámetros indeter-minados que han de fijarse mediante la expe-rimentación. La unificación de las interaccio-nes fuertes y electrodébiles justificaría varios de ellos, al hacerlos diferentes manifestacio-

nes de una misma causa. Sin embargo, esto sucede a unas energías tan altas (~1019 GeV; Fig. 15) que los efectos gravitatorios, despre-ciables a las energías de los laboratorios, han de tenerse en cuenta. Por tanto, cabe pensar que para unificar las interacciones fuertes y electrodébiles hay que considerar la gravi-tación y, hasta la fecha, no disponemos de ninguna teoría satisfactoria de partículas ele-mentales que incluya esta interacción ni sa-bemos por qué es tan diferente su intensidad de la del resto de las fuerzas.

Otro campo de gran interés en la Física Fun-damental es la Cosmología, que estudia la creación y evolución del Universo. En este caso, el equivalente al Modelo Estándar es el denominado Modelo de la Gran Explosión, basado en la Teoría General de la Relatividad y el Principio Cosmológico. Éste, sólidamen-te fundado en las observaciones realizadas durante las últimas décadas (como el estudio de la radiación de fondo de microondas y la abundancia relativa de núcleos ligeros en el Universo), describe satisfactoriamente la ma-yoría de los fenómenos observados a escalas cosmológicas. Sin embargo, existen impor-tantes inconsistencias cuando se confronta con el Modelo Estándar. En este último, por ejemplo, las interacciones entre partículas y antipartículas se describen de manera simé-trica, pero, según las observaciones realizadas hasta la fecha, hasta distancias de ~107 años luz de nosotros el Universo parece estar cons-tituido exclusivamente por materia.

¿Dónde se encuentra la antimateria? ¿Qué pasó con ella? Para describir de manera co-herente la evolución del Universo desde un estado inicial con simetría entre materia y antimateria hasta un estado como el actual (proceso denominado bariogénesis) es ne-cesario que, entre otras cosas, las interac-ciones entre partículas elementales violen la

denominada simetría CP, combinación de las operaciones C, de conjugación de carga (cambio de partículas por antipartículas), y P, de paridad (reflexión especular). En el Mo-delo Estándar ésta violación, observada ex-perimentalmente, se describe mediante una fase compleja introducida ad hoc y no hay argumento alguno que sugiera ni su origen ni su magnitud. Además, los experimentos sobre interacciones entre partículas elemen-tales presentan una violación de CP mucho menor de la que se necesita para explicar las observaciones cosmológicas.

Por otra parte, el estudio del Universo nos indica que, realmente, aún no conocemos todos los componentes que constituyen la materia. Al aplicar el Teorema del Virial al movimiento de las galaxias periféricas en las agrupaciones de galaxias se observó, ya en los años 30, que la masa contenida en los cúmulos galácticos debería ser unas 400

veces superior a la de la materia luminosa. Estudios posteriores, realizados a finales los 60 mediante el análisis del efecto Doppler en la velocidad de rotación de las estrellas

Figura 13. Comparación entre la sección eficaz de producción de quarks en la interacción de electrones y positrones determinada por los experimentos de LEP y las predicciones del Modelo Estándar para 2, 3 y 4 familias de fermiones

Figura 15. Evolución con la energía de la intensidad de las interacciones fuertes y electrodébiles y la escala de unificación.

Figura 14. Partículas de materia (fermiones) agrupadas en las tres familias conocidas y los bosones del Modelo Estándar que median las interacciones fuertes, electromagnéticas y débiles

Page 33: Revista Fundación Ramón Areces. Número 1: Enero 2010

64 FRA 65

periféricas de las galaxias, confirmaron la existencia de una gran cantidad de Materia Oscura en los halos galácticos formada por partículas o cuerpos que no emiten ni reflejan suficiente radiación electromagnética para poder ser observados directamente pero sí tienen efectos gravitatorios sobre los cuerpos observados. A grandes rasgos, la luminosidad de las galaxias (y, por tanto, la cantidad de estrellas, esencialmente toda la materia visible de la galaxia) sigue una distribución esférica en la parte central y decrece de un modo aproximadamente exponencial hacia los extremos. Según la dinámica newtoniana, la velocidad de rotación de las estrellas y gas periféricos debería decrecer como r-1/2 siendo r la distancia al centro galáctico como sucede, por ejemplo, con los planetas en el Sistema Solar (Fi. 16). Sin embargo, se observa (Fig. 17) que la velocidad de rotación es constante hasta distancias muy lejanas del centro galáctico (de hecho, no se observa que llegue a decrecer). Estos resultados indican que desconocemos la naturaleza del 80% de la materia que constituye el Universo.

Por otra parte, de las observaciones de E.

Hubble sabemos que el Universo se encuentra en una etapa de expansión y, de estar dominado por materia, debería experimentar una desaceleración debido a la atracción gravitatoria. Sin embargo, la relación entre la distancia y la velocidad de recesión observada para objetos lejanos indica que la expansión es acelerada. Estas observaciones, realizadas a finales de los años 90, sugieren la existencia de un tipo de energía desconocida (Energía Oscura) que da lugar a una presión negativa y han sido corroboradas por observaciones posteriores como el efecto de lente gravitatoria en agrupaciones de galaxias. Los estudios más recientes de la radiación de fondo de microondas indican finalmente que el Universo está constituido por un 4% de materia ordinaria como la estudiada en los aceleradores de partículas y por un 22% materia oscura y un 74% de energía oscura que son de naturaleza desconocida (Fig. 18).

Para explicar estas observaciones, es necesario que la Materia Oscura esté compuesta por algún tipo de partícula no relativista y las extensiones del Modelo Estándar en Física de Partículas proporcionan varios

candidatos como, por ejemplo, los bosones de Kaluza-Klein, que aparecen en teorías con dimensiones extra, o las nuevas partículas que aparecen en las Teorías Supersimétricas. En particular, estas teorías introducen una nueva simetría de la naturaleza (llamada supersimetría), que relaciona partículas de espín entero (bosones) con partículas de espín semientero (fermiones) y da lugar a un nuevo bosón por cada fermión existente y viceversa. Aparte de solucionar algunos de los problemas que presenta el Modelo Estándar y de ser una simetría necesaria en la mayoría de los modelos de unificación con la gravitación, la partícula supersimétrica más ligera, denominada generalmente neutralino, es estable y un buen candidato a ser el constituyente de la Materia Oscura. Hasta la fecha, no hay ninguna evidencia experimental de la supersimetría pero es de esperar el LHC aporte evidencias de su existencia.

Las interacciones entre todas las partículas elementales conocidas y las predichas por las diversas extensiones del Modelo Estándar desempeñaron un papel esencial en los primeros instantes del Universo y

determinaron la evolución hasta su estado actual. El LHC alcanzará la mayor energía posible hasta el momento en un laboratorio terrestre y permitirá realizar un estudio sistemático de la dinámica de las interacciones en condiciones controladas a energías de 14 TeV en el centro de masas lo que supone (Fig. 19) observar que sucedía en el Universo cuando tenía una edad del orden de 10-12 segundos, un radio de ~1011 metros, una temperatura de ~1011 K y una densidad cercana a los 1.030 g cm-3.

España y el CERN

Desde la entrada de España en el CERN la Comunidad de Física de Partículas española ha progresado mucho, y con ella la de Física Nuclear. De 2 Grupos Experimentales y 40 científicos antes de la adhesión al CERN se ha crecido hasta 10 grupos y 250 científicos distribuidos entre el CSIC, el CIEMAT y varias Universidades, la mayoría participando en los experimentos del LHC. Hay, además 8 grupos de Física Nuclear (133 científicos)

Figura 16. Velocidad de rotación de los planetas en el Sistema Solar Figura 17. Velocidad de rotación de las estrellas periféricas en la galaxia NGC 6503

Page 34: Revista Fundación Ramón Areces. Número 1: Enero 2010

66 FRA 67

y 13 grupos teóricos (332 científicos) parcialmente trabajando en la Organización, como es usual en la especialidad teórica.En la actualidad el 4,5% del staff del CERN es español y la contribución española supone aproximadamente el 8% de su presupuesto, un poco más de la mitad de lo que correspondería a España pero la distancia entre los porcentajes sigue disminuyendo.

El retorno industrial del CERN a nuestro país ha sido globalmente equilibrado. En las épocas de construcción de nuevas grandes instalaciones suele superar el promedio y en las de explotación científica de las mismas disminuye, fundamentalmente porque ape-nas hay adquisiciones y sí muchos servicios, generalmente adjudicado a empresas locales, de Francia o Suiza.

No se ha obtenido beneficio suficiente de la tecnología del CERN, en parte por incapacidad española.

Posibles proyectos de acelerador para después del LHC

Habitualmente el CERN suele preparar ideas y desarrollar tecnologías para nuevos grandes proyectos que puedan sustituir a los que comienzan a operar, es decir mucho tiempo antes de que se inauguren. Hay que considerar que cada uno de los proyectos supone mucho tiempo de estudio, de preparación tecnológica, de optimización del diseño de la instalación, de evaluación presupuestaria y, finalmente, de la aprobación y construcción. En general el tiempo que suponen todas las fases descritas es equivalente al tiempo de operación del previo, incluidas sus variaciones para optimizar su rendimiento.

Son varios los proyectos que ahora se vislumbran en el horizonte, cuya ejecución efectiva depende de los resultados del LHC en su primera fase: en primer lugar una mejora del LHC: el SLHC (superLHC) y sus detectores para alcanzar luminosidades

de 1031 cm-2s-1, que es muy probable, previsiblemente para el año 2015. Su coste superará los 500 millones. Además se consideran ya dos aceleradores lineales, el ILC y el CLIC.

ILC– Es un proyecto de acelerador lineal para hacer colisionar electrones y positrones a una energía de 500 GeV para analizar detalladamente los fenómenos descubiertos con el LHC ya que las interacciones de electrones son mas “limpias” (los electrones sí son componentes elementales, como los quarks, pero no los protones, hechos de quarks y gluones). Este dispositivo utiliza muy complejas y costosas cavidades de aceleración ya que se pretende alcanzar un gradiente de energía del orden de 159 MeV/m en lugar de los 10 MeV/m que ahora se consiguen. En total se producirán 1.400 colisiones por segundo y su longitud será de 31 km, que podrían conseguirse en Suiza y Francia, en torno a las instalaciones actuales del CERN. Su coste estimado es de 6.000 millones de

euros. Esta característica y el hecho de que solo se alcance el mismo rango de energía del LHC lo hacen improbable.

CLIC- Es también un colisionador de electrones y positrones. Se pretende alcanzar 1,5 TeV de energía en cada haz, lo que permitirá conseguir 3 TeV totales de energía, del orden de 6 veces más que con el ILC. El CLIC trata de utilizar nuevos conceptos de aceleración de los haces para alcanzar gradientes también del orden de 150 MeV/m. Existen proyectos para desarrollar las mismas, liderados por el propio CERN. Estos conceptos están orientados a conseguir la aceleración no mediante radiofrecuencia sino decelerando un haz para lograr otro de alta energía y de relativamente baja frecuencia y transmitiendo la potencia a través de estructuras llamadas PETS (Power Extraction Transfer Structures). CLIC es más probable que el ILC, tendrá una longitud de unos 50 km pero aún no hay estimación de su coste ya que todavía no se conoce la

Figura 18. Naturaleza de los diferentes elementos que constituyen el Universo Figura 19. Historia del Universo mostrando, en escala logarítmica, las relaciones aproximadas entre el tiempo, el radio, la densidad, la temperatura y la energía y la dinámica correspondiente

Page 35: Revista Fundación Ramón Areces. Número 1: Enero 2010

68 FRA 69

tecnología precisa de aceleración.

El CIEMAT participa en ambos. En el segundo caso (CLIC) mediante el desarrollo y construcción de los PETS, componente básico de la tecnología hoy en consideración.

Otras muy importantes actividades del CERN: la conexión social

Las razones que mueven a los científicos a dedicarse a sus actividades investigadoras son generalmente vocacionales, personales, pero a muy pocos les mueven razones sociales, aunque esta actitud vaya progresivamente disminuyendo. No pueden olvidar, no podemos hacerlo, que los presupuestos con los que se financia la Ciencia se originan en las aportaciones de los ciudadanos y estos tienen todo el derecho de conocer y compartir los avances científicos así como la de exigir beneficios sociales de sus inversiones. Es más, el ciudadano se sentirá solidario con la investigación si además de conocerla, es consciente de los beneficios que supone para él como individuo y para la colectividad.

En este aspecto el CERN también tiene actividades, cuyo número, además, se incrementa progresivamente.

Procede recordar algunas citas de persona-lidades. Albert Einstein decía: “creo, junto con Shopenhauer, que una de las más fuertes motivaciones de los hombres para entregarse al arte y a la ciencia es el ansia de huir de la vida de cada día, con su dolorosa crudeza y su horrible monotonía; el deseo de escapar de las cadenas con las que nos atan nuestros siempre cambiantes deseos”.

Y Stephen Weinberg ha comentado, hace

no muchos años: “Durante siglos las relaciones entre ciencia y sociedad han estado gobernados por un pacto tácito. Generalmente los científicos quieren hacer descubrimientos que sean universales, bellos o fundamentales, ya puedan preverse o no beneficios concretos para la sociedad (…).La sociedad ha estado generalmente dispues-ta a apoyar el trabajo en ciencia pura princi-palmente porque espera que tenga aplicacio-nes bien en la tecnología, en la medicina o en la guerra. Normalmente estas expectativas se han mostrado correctas…, pero ahora este pacto parece estar en entredicho(…).

Los problemas que ha encontrado el SSC (Superconting Super Collider) en el Congreso son simplemente un desencanto de la ciencia pura.”

Consecuentemente se hace necesario, además de justo, extremar la transferencia de tecno-logía, que es mucha aunque pase inadvertida. En este sentido el CERN lo hace a través de la formación de personal, de las compras de equipos de alta tecnología y desde hace no mucho a través de una transferencia proac-tiva.

Transferencia a través de personal: La Fig. 20...muestra a dónde va el personal doctor formado en la Organización. Se observa que aproximadamente un 60% no siguen un ca-mino investigador o universitario sino que se dedican a utilizar su excelente información, más de la mitad de ellos como profesionales de la industria.

Transferencia a través de la compra de equi-pos: Durante los periodos de construcción de equipos para las grandes instalaciones más del 50 % de su presupuesto de adquisiciones se dedican a los de alta tecnología. En ellas las empresas adjudicatarias no solo mejoran

su capacidad tecnológica sino que abren vías para a acceder más y mejor a mercados inter-nacionales. Algunos datos al respecto: de las empresas adjudicatarias el 38% desarrollaron nuevos productos y como las que lo hicie-ron consiguieron generar, en promedio, casi tres, se puede afirmar que por cada contrato del CERN se genera un nuevo producto. Es más, el tamaño y la envergadura de la Or-ganización compensa el esfuerzo de presen-tar ofertas a sus licitaciones. De las empresas mencionadas el 18 % crearon nuevos equipos de I + D, el 42 % afirma haber mejorado su imagen internacional, el 44% un importante aprendizaje tecnológico y el 36% un apren-dizaje de mercado.

Transferencia proactiva: El proceso de trans-ferencia es conocido. Tiene tres fases, lapri-mera es investigadora, que necesariamente depende de presupuestos estatales; la segunda es precompetitiva, con desarrollos en domi-nios específicas de tecnologías con aplicación social y el desarrollo de prototipos y demos-tradores con interés industrial, en la que la Organización ha de extremar sus aportacio-

nes y en la que hay financiación externa, en-tre ellas las de la propia industria; y la tercera es el desarrollo de productos de productos nuevos cuyos fondos han de ser industriales. Esta última y parte de la anterior ha de ser acompañada por una acertada política de propiedad intelectual. Puede proceder seguir el camino de patentar los desarrollos o puede convenir transferir la tecnología sin patentar, sobre la base de acuerdos. En todos los casos hay que incentivar la transferencia, tanto a los investigadores y tecnólogos, inventores y transferidores de la tecnología, como ser capaz de mantener el apoyo a las industrias o spin-offs durante el tiempo necesario para garantizar el éxito final. Los fondos del pro-ceso de transferencia pueden provenir de la industria para que no sea oneroso a los presu-puestos de la investigación. El proceso ha de estar canalizado a través de profesionales en cada uno de los pasos (…). En todos aspec-tos mencionados el CERN es ya muy eficaz o está en vías de serlo.Los dominios tecnológicos preferentes de la Organización son aquellos que se derivan de los desarrollos en los aceleradores, los

Figura 20. Destino de los doctores formados en el CERN

Page 36: Revista Fundación Ramón Areces. Número 1: Enero 2010

70 FRA 71

detectores y las TIC. Las tecnologías que involucran son casi todas las de vanguardia: superconductividad, alto vacío, criogenia, mecánica de precisión, electrónica de potencia y radiofrecuencia, detectores de visualización de imágenes, etc. y los campos en los que pueden tener consecuencias como las TIC, la Salud, la Energía y otros.

También es necesario incrementar los esfuer-zos en Educación, Comunicación y divulgación científica que el CERN ya lleva a cabo, comple-mentarios de las dedicadas a la formación de personal antes referida. Procede referir lo que ya se hace (…).

En primer lugar, además de las sentencias de Stephen Weinberg antes mencionada citaremos una frase de Carl Sagan, muy reveladora, aunque sea un tanto maximalista: “Hemos organizado una civilización global en la que los elementos cruciales dependen de la ciencia y la tecnología. También hemos

organizado las cosas de forma que casi nadie entiende ni de ciencia ni de tecnología. Son las condiciones idóneas para el desastre. Podremos quizás continuar durante un cierto tiempo pero más pronto o más tarde esta mezcla combustible de ignorancia y poder nos estallará entre las manos…”

La divulgación científica esta fundamental-mente dirigida a los escolares (Fig. 21), al público en general y a la propia comunidad científica, tanto de la especialidad como la de todas la comunidades científicas.

Los mandatos son los siguientes:

Al Público en general: Se pretende aumentar el conocimiento de la Organización, su valor cultural y la utilidad de su tecnología.

A las Escuelas: Se pretende aumentar su formación en la Física más moderna.

A la comunidades científicas, global y pro-pia de la especialidad: Se pretende informar y motivar al personal del CERN, usuarios de la Organización y lo mismo con toda la comunidad poniéndoles al tanto de los avan-ces, tanto de la especialidad como de la res-tante. La Fig. 21 muestra un resumen de las principales actividades de la Organización al respecto.

Una mención particular merece el programa de formación de educadores. A los profesores de Institutos y Colegios se les invita al CERN, con beca. Son educadores de todo el mundo. La beca les cubre el viaje y estancia en el CERN, por periodos de tres meses. Durante los mismos conviven con los científicos y reciben cursos. Posteriormente preparan material educativo para difundir en sus países a la vuelta de CERN.

Para el público en general se utiliza una red de divulgación científica que cubre varios continentes, se preparan y distribuyen programas, se reciben visitas (un total de aproximadamente 30.000 al año) y se organizan actos especiales en la exposición permanente del “Globo del Universo” un espacio dentro de una construcción emblemática instalada en territorio del CERN. Existen además exposiciones itinerantes sobre ciencia y tecnología además de otra sobre el valor de la ciencia como vínculos de unión entre los pueblos.

Para las comunidades científicas se editan va-rias publicaciones de alto nivel divulgativo.

Consideraciones personales sobre el CERN

La Organización ha alcanzado los objetivos que establecieron sus fundadores, porque:

•Siendounlaboratorioeuropeoseha convertido en el mejor del mundo en su especialidad y es el centro de una colaboración planetaria.

•ElLHC,últimodesusaceleradores, es único y se abre a una nueva frontera del conocimiento de la estructura de la materia y de nuestro conocimiento sobre el origen del Universo según el Modelo de la Gran Explosión.

Figura 21. Educación y comunicación en el CERN.

Para el público en general se utiliza una red de divulgación científica que cubre varios continentes, se preparan y distribuyen programas, se reciben visitas (un total de aproximadamente 30.000 al año) y se organizan actos especiales

Page 37: Revista Fundación Ramón Areces. Número 1: Enero 2010

72 FRA 73

•Hadispuesto,yaúndispone,dela mejor infraestructura tecnológica de Europa.

Sin embargo, en mi opinión, hay cosas mejorables:

•Los proyectos son cada vez más costosos, mientras que los presupuestos se mantienen constantes, lo que ha dado lugar a la externalización parcial de su acervo tecnológico, en un momento en el que Europa busca y promueve infraestructuras tecnológicas de envergadura.

•Lalimitacióndesuspresupuestosyla avidez natural de los científicos apenas deja margen para incrementar el desarrollo de las aplicaciones sociales.

•Existencamposcientíficos(laAstrofísica de Partículas y la Física Nuclear) que sería conveniente pudiesen ser coordinadas desde la Organización.

Todo ello está dando lugar a cierta deca-dencia, que deseamos sea limitada en el tiempo, porque es seguro que con el LHC nuevos éxitos científicos están próximos.

CONCLUSIONES

Podemos resumirlas en las siguientes:

•LaconstruccióndelLHCestá terminada con éxito.

•Dadalacomplejidaddelainstalación era esperable la aparición de averías. Y en menor medida aún es esperable.

•Ladirecciónsaliente,sindudaclave para finalizar la construcción del acelerador, cometió el error de apresurar su inauguración con un despliegue mediático sin precedentes. No era necesario.

•Convienereflexionarsobrela adaptación del CERN a la época. No estamos ya al final de la Gran Guerra.

•Laparticipaciónespañolaenla Organización ha evolucionado de acuerdo con el desarrollo español.

En todo caso mantengamos la actitud de Cervantes:

“Sancho, podrán (empeñarse) los encan-tadores (en) quitarnos la ventura pero el esfuerzo y el ánimo será imposible”

AGRADECIMIENTOS

El autor desea expresar su reconocimiento a los Drs., M. Cerrada, Luis García Tabarés y Carlos Mañá por la excelente información suministrada para la preparación de esta conferencia.

También desea agradecer al Dr. C. Maná por su contribución a alguna de las secciones del texto y al Dr. J. Salicio por su inestimable ayuda con las figuras y con versión final del mismo.

Finalmente quiere dejar explícito su reconocimiento a D. J.C. Sanz por su lectura cuidadosa y múltiples comentarios al mismo y a la Sra. C. Sanz por la eficaz gestión de la logística tanto de la conferencia como del artículo.

Juan Antonio Rubio

Director General del CIEMAT, es doctor en Ciencias Físicas por la Uni-versidad Complu-tense. Su trayectoria profesional está íntimamente vincu-lada a la Organiza-ción Europea para la Investigación Nuclear (CERN), el laboratorio de Física de Partículas más importante del mundo. En este organismo ejerció, entre otras funcio-nes, la de Jefe del Grupo de Investiga-ción, Asesor Cien-tífico del Director General, Coordina-dor y, finalmente, la de Jefe de la Divi-sión de Educación y Transferencia de

Tecnología. En el ámbito univer-sitario, Juan Anto-nio Rubio ha sido profesor de Física Nuclear, Mecánica Cuántica y Física de Partículas en las Universidades Complutense y Au-tónoma de Madrid. Además, ha hecho estancias en los laboratorios del MIT (EEUU), Collège de Francia y DESY en Alemania. Ha sido colaborador de los Premios Nobel de Física Samuel C. Ting, Carlo Rubia y Martín Perl y autor o coautor de 360 artículos de investi-gación.

En todo caso mantengamos la actitud de Cervantes:

“Sancho, podrán (empeñarse) los encantadores (en) quitarnos la venturapero el esfuerzo y el ánimo será imposible”

Page 38: Revista Fundación Ramón Areces. Número 1: Enero 2010

75

CONFERENCIAS

MUROS O PUENTESVISIONES ALTERNATIVAS

DE LA INTEGRACIóN REGIONAL EN NORTEAMÉRICA Y EUROPA

La conferencia “¿Muros o puentes?: visiones alternativas de la integración regional en Norteamérica y Europa”, pronunciada por el profesor Douglas Massey compara el funcionamiento y las consecuencias de los dos modelos de integración regional que existen en el mundo: el modelo europeo y el modelo norteamericano. Según el profesor Massey, el modelo europeo es comprehensivo y tiene objetivos sociales, políticos y culturales, y no sólo económicos. Por el contrario, el modelo norteamericano es limitado y tiene fines estrictamente económicos, con poco interés en cuestiones

sociales, políticas o culturales.

Fundación Ramón Areces, 17 de marzo de 2009

hay dos modeLos de integración regional: el modelo europeo y el modelo americano. El modelo europeo tiene objetivos sociales, políticos y no solamente económicos. La meta en la Unión Europea es crear una unión estable y próspera con derechos comunes y libertad de movimiento de todos los ciudadanos, de todos los países dentro de

la Unión. Se toman acuerdos para reconocer la realidad de la migración laboral dentro de esta Unión. Y funciona bien.

Por el contrario, el modelo americano, es parcial e incompleto. Tiene objetivos muy limitados, económicos, pero no políticos y no sociales. La meta es crear una ventaja

Por Douglas Massey

Page 39: Revista Fundación Ramón Areces. Número 1: Enero 2010

76 FRA 77

económica para el poder dominante, es decir, los Estados Unidos, con pocos derechos transnacionales y movimiento limitado y restringido. Además, los Estados Unidos se reservan el derecho de tomar acciones unilaterales para impedir los flujos de mano de obra.

Tenemos, por tanto, dos modelos y dos resultados. A partir de aquí, me gustaría establecer una comparación de dos casos paradigmáticos e instructivos. La integración exitosa de España a la Unión Europea y la integración problemática de México al Tratado de Libre Comercio (TLC).

Los casos de México y de España resultan paralelos en muchos sentidos. La Figura 1 muestra una medida de aperturismo: el comercio total de un país dividido por el PIB. Se aprecia que México y España tienen más o menos la misma trayectoria hasta el aperturismo, momento en que abren sus economías a las inversiones globales, y fuerzas globales de desarrollo económico. Ambos países eran en los años 50 y 60 economías bastante cerradas, sin inversión internacional, sin exportación ni importación. Después de la entrada de España en la Unión Europea,

se produjo una gran apertura y el comercio empezó a tomar un papel mucho más importante en la economía española. Al mismo tiempo se experimentaba un proceso similar en México, pero por diferentes razones. Actualmente, el comercio internacional constituye aproximadamente el 60% de toda la economía.

Cuando España expresó su intención de solicitar el ingreso en la Unión Europea, se abrió un amplio debate en los países del norte de Europa, como consecuencia de la existencia de una gran brecha entre los salarios promedio entre España y los de aquellos países. Esta brecha fue una de las causas por las que durante años España había enviado hacia el norte mucha mano de obra. Hubo, por tanto, un debate sobre si admitir a España con derechos totales o admitirla de otra forma, sin movimiento libre de mano de obra. Pero, finalmente, se decidió que Europa fuese un proyecto no solamente de unificación económica, sino también, más bien, un proyecto de unificación política, social, cultural y económica. Una combinación de todos. Decidieron, por tanto, admitir a España con movimiento libre de personas. En la práctica, sin embargo, la brecha en términos salariales nunca logró cerrarse,

llegando, incluso, a ampliarse ligeramente en el momento de la solicitud de ingreso en la UE y manteniéndose constante tras el ingreso, como muestra la Figura 2.

Una concepción neoclásica de la economía indica que observaríamos migración conti-nua entre España y el resto de Europa. Sin embargo, no ocurrió eso. Los países del nor-te de Europa eran conscientes de que la inte-gración española en la Unión Europea iba a exigir un ajuste estructural importante. Por tanto, la UE proporcionó fondos de ajuste estructural que fueron transferidos desde la UE a España para facilitar la transición de una economía cerrada hacia una economía abierta.

La Figura 3 muestra la cantidad de fondos transferidos entre la UE y España desde la entrada de España en el 86 hasta el fin del

siglo XX. Como vemos, en dicho período se transfirieron billones de dólares para ayudar a España a hacer esta transición tan difícil de convertirla de una economía dominada por un estado fascista durante 40 años hacia una economía capitalista, democrática, abierta y parte de una unión económica. Lo que sucedió en términos migratorios es que, en vez de producirse una migración continuada mientras se mantenía la brecha salarial y de renta, se producía una terminación de la emigración desde España y una migración de retorno bastante importante.

La Figura 4 muestra indicadores de migración: tenemos la emigración temporal en la parte superior, junto con migración de retorno y migración permanente. Son estadísticas tomadas de fuentes oficiales de España. Y, en la parte inferior, la migración neta. Como puede verse, la migración en términos netos

Figura 1 Figura 2 Figura 3 Figura 4

Los países del norte de Europa eran conscientes de que la integración española en la Unión Europea iba a exigir un ajuste estructural importante

Page 40: Revista Fundación Ramón Areces. Número 1: Enero 2010

78 FRA 79

fue negativa durante toda la historia previa a 1986, indicando el predominio de la migración hacia fuera. Pero cuando España entró en la Unión Europea, en tres años cambió completamente a una migración neta positiva. Y los españoles regresaron, no solamente de los países de Europa, sino también de Latinoamérica. Antes de la entrada de España en la Unión Europea hubo un flujo neto negativo de España hacia lugares como Venezuela durante el boom petrolero y hacia México y otros lugares. Pero después de 1986 comienza el regreso.

El caso de México

en contraste, en eL caso de méxico tenemos una política que yo denomino una política de contradicción. En Norteamérica deseamos crear un mercado integrado con unificación de ciertos mercados de capital, de servicios, de recursos naturales, bienes de consumo, tierra, bienes productivos, etc. Todos estos mercados están más abiertos cada vez y hemos concluido un tratado con México y Canadá para reducir las barreras de movimientos a través de la frontera de todos estos bienes. Simultáneamente, estamos configurando un mercado integrado para casi todos los factores de producción, con una excepción: no deseamos movimiento libre de mano de obra, de gente, de personas. Es decir, los Estados Unidos están insistiendo en mantener una separación de los mercados de mano de obra. La contradicción es cómo establecer un mercado común dentro de Norteamérica con libre movimiento de todos los factores de producción con una sola excepción. Y para mantener esta excepción, estamos moviéndonos en dos direcciones opuestas al mismo tiempo.

La Figura 5 muestra varios indicadores de

integración económica entre México y los Estados Unidos, cuyos valores están divididos por el valor en 1986. Por tanto, el gráfico presenta el factor de incremento desde 1986. Vemos que la línea roja, el comercio total, ha crecido en un factor de más de ocho veces, mientras que el movimiento de gente dentro de empresas incrementó en un factor de más de cinco y los visitantes de negocios entre México y los Estados Unidos por un factor de cuatro. Estábamos en proceso pleno de integrar, de crear una nueva economía integrada en Norteamérica. Pero al mismo tiempo, los Estados Unidos, de una manera unilateral están insistiendo en la separación de un mercado de mano de obra y están militarizando la frontera con uno de nuestros principales socios comerciales.

La Figura 6 muestra varios indicadores de este intento de separación. La línea verde, es el presupuesto de la Patrulla Fronteriza, otra vez dividido por su valor en 1986. Vemos que el presupuesto de la Patrulla Fronteriza ha crecido en un factor de 10.5. Las horas que los agentes de la patrulla pasan cuidando la frontera han crecido por un factor de ocho y el número de agentes ha crecido tres veces. Actualmente, la Patrulla Fronteriza se ha convertido en el cuerpo más grande del Gobierno Federal con armas, con excepción del Ejército. Y más y más tropas de la Guardia Nacional y del Ejército están tomando parte de la patrulla en la frontera sur de los Estados Unidos. Estamos hablando, por tanto, de una verdadera militarización de la frontera entre México y los Estados Unidos. En vez de destinar el dinero para ayudar a México a adaptarse a los cambios estructurales que

necesitan para tener un mercado unificado en Norteamérica, para mejorar su situación, para invertir en su infraestructura, para mejorar sus servicios sociales, lo que hacemos es destinar todos los recursos económicos a proteger la frontera.

Figura 5

Frontera Estados Unidos - México en San Diego

Figura 6

Page 41: Revista Fundación Ramón Areces. Número 1: Enero 2010

80 FRA 81

La Figura 7 ilustra la comparación entre lo que hizo la Unión Europea y lo que está ha-ciendo los Estados Unidos en contra de Méxi-co. En el caso de la unificación de España y Portugal y Grecia, en vez de invertir fondos para construir un muro en los Pirineos, los europeos destinaron inversiones en mejorar la capacidad productiva de España. Una vez culminada la integración y los españoles te-nían libertad de movimiento, se produjo un regreso importante de emigrantes a su país de origen. Por el contrario, en los Estados Unidos estamos gastando todo el dinero en construir muros; no puentes, sino muros. Y, como voy a demostrar, esta estrategia de con-tradicción fue, y está siendo, un fracaso total. En este sentido Norteamérica está viviendo una verdadera contradicción. Es esta contra-dicción la responsable del fracaso que vemos en la política migratoria norteamericana. La situación actual no puede existir en una de-mocracia: tenemos más de doce millones de personas viviendo en los Estados Unidos sin documentos, sin derechos sociales, sin de-rechos civiles, sin derechos económicos, sin ningún derecho. Pueden ser deportados en cualquier momento. Y uno de cada dos mexi-canos que vive en los Estados Unidos ahora es ilegal, no tiene documentos. Es una situación insostenible.

existen dos fechas cLave en lo que yo denomino la política de contradicción de los Estados Unidos: el año 1986, cuando México abandonó la política de Import Substitution Industralization, de sustitución de importaciones para el desarrollo, y comenzó un nuevo programa neoliberal inspirado por la Secretaría de Hacienda de los Estados Unidos. Ese mismo año, los Estados Unidos aprobaron una nueva ley, llamada IRCA (Immigration Reform and Control Act), la Ley de Reforma y Control de la Inmigración en los Estados Unidos,

que representó el punto de partida de este proceso de dos décadas de militarización de la frontera. La segunda fecha clave es 1994; aunque realmente había empezado en 1993. En 1994 los Estados Unidos lanzaban en San Diego, California, la Operación Gatekeeper, es decir, el bloqueo total de este segmento de la frontera entre Tijuana y San Diego. El año anterior, en 1993 habían lanzado la llamada “Operación Bloqueo”, en El Paso de Tejas para parar los flujos en estos dos sectores más importantes del cruce de la frontera de inmigrantes entre México y los Estados Unidos. Pero 1994 fue la misma fecha en que empezó el TLC, NAFTA, North American Free Trade Agreement o Tratado de Libre Comercio entre México y los Estados Unidos. Entonces, intentamos bloquear el canal más importante de inmigrantes, al mismo tiempo que firmamos y entramos en el Tratado de Libre Comercio con México. Y esto es parte de la contradicción.

Como vemos en la Figura 8, en paralelo con la situación con España y el resto de Europa hay una brecha de salarios en promedio entre México por un lado, y Canadá y los Estados Unidos por otro; pero, en vez de mantenerse más o menos constante, se está ampliando y México no está creciendo. En términos económicos nuestra relación no está funcionando bien para México. Fue un tratado negociado por los norteamericanos para ser más o menos predatorio con los mexicanos. México tuvo que abrir sus mercados agrarios, eliminar los subsidios, las protecciones de los productos de México, mientras los Estados Unidos continúan con

los subsidios. Ello ha provocado, entre otras cosas, que el maíz de los Estados Unidos esté inundando los mercados de México y los pobres agricultores mexicanos no puedan competir.

Pero creo que el fracaso más importante y más triste se refiere a la migración. Este intento de conseguir un mercado de trabajo no integra-do no ha funcionado, lo que ha empeorado todos los problemas con la migración y ello ha derivado en una serie de consecuencias, muy graves. En primer lugar, en vez de dete-ner la migración entre México y los Estados Unidos, la militarización de la frontera ha

Figura 7

Una vez culminada la integración y los españoles tenían libertad de movimiento, se produjo un regreso importante de emigrantes a su país de origen. Por el contrario, en los Estados Unidos estamos gastando todo el dinero en construir muros

Page 42: Revista Fundación Ramón Areces. Número 1: Enero 2010

82 FRA 83

transformado el proceso migratorio entre los dos países. Se ha producido una transforma-ción geográfica de la migración mexicana. El fenómeno que antes afectaba a tres Estados afecta, en la actualidad a 50. Se ha registrado un crecimiento de mortalidad en la frontera; se ha reducido la probabilidad de aprehen-sión de inmigrantes; se ha producido una caída en la tasa de migración de retorno que duplicó el flujo neto de inmigrantes indocu-mentados a los Estados Unidos; se ha dupli-cado también el crecimiento de la población mexicana en los Estados Unidos; no sólo no detuvo los flujos, sino que duplicó los flujos netos, y, por último, ha causado un deterioro de salarios entre trabajadores documentados e indocumentados. Los que están pagando el precio ahora son los trabajadores documen-tados que tienen el derecho ya de trabajar en los Estados Unidos.

Junto con el profesor Jorge Durán estoy realizando un proyecto de investigación en el que anualmente nos desplazamos a distintos lugares de México para realizar encuestas de aquellas comunidades que envían inmigrantes a los Estados Unidos. En los últimos años hemos realizado más de 120 encuestas de diferentes comunidades de México. Cada una de ellas contiene una muestra representativa del pueblo o de la comunidad o del barrio o

de la ciudad y una muestra de emigrantes que vienen de estos lugares, que están establecidos en los Estados Unidos y no regresan. Es decir, de forma paralela y simultánea encuestamos a los inmigrantes en ambos lados de la frontera y tomamos una historia completa de vida, que incluye una historia del cruce de la frontera, de nueva migración y trabajo en los Estados Unidos. Todas estas bases de datos están disponibles de forma gratuita en la Web (http://mmp.opr.princeton.edu/). A continuación les detallaré algunos de los datos más destacados que hemos obtenido en este trabajo.

En la Figura 9 aparece la frontera entre Méxi-co y los Estados Unidos. Los dos corredores más activos antes de 1986 fueron Tijuana -San Diego y El Paso- Ciudad Juárez. Más del 70% de todos los inmigrantes ilegales que llegaron a los Estados Unidos antes de 1986 cruzaban al otro lado por uno de estos cana-les, siendo el de Tijuana el más importante. Pero a partir de 1986, tras la aprobación de la Ley de Inmigración, de la IRCA, se inicia el proceso de militarización de la frontera. Posteriormente, en 1993 y 1994, el Gobier-no lanzó las dos operaciones de bloqueos; primero en El Paso y luego en San Diego, cuyo resultado fue la transformación geográ-fica en el proceso migratorio entre México y los Estados Unidos.

La línea roja de arriba en la Figura 10 es la proporción o porcentaje que está cruzando en un nuevo lugar en la frontera y definimos como nuevo lugar a cualquier lugar aparte de El Paso o de San Diego. Hasta mediados de 1980, más y más gente estaba cruzando en estos dos lugares. Pero tras la militarización de la frontera con la IRCA y los posteriores bloqueos se modificó sustancialmente la geografía de la migración. Actualmente, dos tercios de los emigrantes cruzan la frontera por otros lugares. Se ha producido, por tanto, una desviación geográfica de los flujos. La mayoría pasa ahora por Arizona, por el Desierto de Sonora, que anteriormente constituía un segmento tranquilo de la frontera, con poca población y sin agentes de la Patrulla Fronteriza. Frente a ciudades grandes en cuanto a población de millones de personas, como Tijuana, San Diego, Ciudad Juárez y El Paso, esta parte de la frontera son pueblos, no ciudades. Ha sido una transformación importante, una desviación de flujos hacia

fuera de California, especialmente.

El otro elemento tras el desvío de los flujos, es que los inmigrantes continuaban hacia otros nuevos destinos. Lo que tenemos en azul es la proporción que va a un nuevo destino en los Estados Unidos, definido como uno de los tres Estados no tradicionales para la migración de México a los Estados Unidos: California, Tejas, e Illinois, o como dicen los inmigrantes, Chicago. Hasta 1986, entre el 85% y 90% de los inmigrantes fueron a California, Illinois o Tejas. Pero, tras la aprobación de IRCA y luego especialmente con los bloqueos, cambió completamente la geografía de los destinos de los inmigrantes. Y ahora los inmigrantes van a todos los Estados en los Estados Unidos y más del 55% está yendo a nuevos Estados de los Estados Unidos. Las poblaciones más crecientes en los Estados Unidos en número de población mexicanos ahora están en Carolina del Norte y Carolina del Sur, Alabama, Nebraska,

Figura 8

Se ha producido una transformación geográfica de la migración mexicana. El fenómeno que antes afectaba a tres Estados afecta, en la actualidad, a 50

Figura 9 Figura 10

Page 43: Revista Fundación Ramón Areces. Número 1: Enero 2010

84 FRA 85

Iowa, y no California, Tejas, ni Illinois. Por tanto, la militarización de nuestra frontera no detuvo los flujos migratorios, sino que los desvió a nuevos destinos y ha contribuido a transformar el proceso migratorio, un fenómeno que afectaba a sólo tres Estados afecta ahora a 50. Ha dejado de ser un

problema regional para convertirse en un verdadero problema nacional.

otra consecuencia de La miLitarización ha sido la reducción importante de la probabili-dad de aprehensión de emigrantes. En térmi-nos históricos, la probabilidad de ser deteni-do por la migra (policía de inmigración) en la frontera era aproximadamente de un 33%. Uno de cada tres intentos por inmigrante resultaba fallido. Con la implantación del IRCA, dicha probabilidad disminuyó. Volvió a crecer tras la aplicación del bloqueo, prin-cipalmente en la zona fronteriza de Tijuana. Sin embargo, como consecuencia de la des-viación geográfica, el número de detenciones de inmigrantes que atraviesan la frontera por Arizona, ha vuelto a disminuir. Actualmente, la tasa de aprehensión de inmigrantes se sitúa en su nivel más bajo, a pesar del ingente pre-supuesto que se destina a este fin.

Al cruzar ahora en estas partes vacías de la frontera, en el desierto, en partes no desarrolladas del río Bravo, los emigrantes afrontan más peligros. En la Figura 13 puede observarse la tasa de mortalidad entre inmigrantes intentando cruzar la frontera. En términos históricos, inmediatamente antes de 1993, cuando empezaron los bloqueos, dos de cada diez mil intentos resultaban en muerte; ahora son seis de cada diez mil. Se ha triplicado la tasa de mortalidad en la frontera, eso significa, entre 300 y 400 muertes adicionales cada año.

Están muriendo más personas. Por otra parte, a los inmigrantes les cuesta más caro cruzar la frontera. El servicio de un coyote, o “po-llero”, –términos que definen a los que guían a los inmigrantes a través de la frontera– se ha triplicado pasando de los 400 dólares a los 2.200 dólares. Cuando los emigrantes partían desde Tijuana el guía les llevaba al otro lado –a algún lugar de California– y les dejaba en un aparcamiento en una tienda de 7-Eleven. Sin embargo, ahora cuando cruzan la fron-tera en Arizona están muy lejos de mercados de trabajo. Los “coyotes” tienen que adquirir una casa segura en Sonora, en el lado mexi-cano, otra casa segura en el lado americano, afrontar los gastos de transporte de esta casa a mercados en Chicago o en Nueva York, en Florida o California. Estos mayores gastos los pagan los inmigrantes.

Entonces, ¿qué tipo de situación creamos para los inmigrantes? Ahora es mucho más difícil cruzar la frontera, hay muchos más riesgos. La probabilidad de ser detenido por la migra es más baja, pero los costes para su bolsillo son mucho mayores. ¿Qué hace un inmigrante racional? Decide minimizar el número de veces de cruzar la frontera, pero lo hace no quedándose en México sin venir a los Estados Unidos, sino quedándose en los Estados Unidos después de cruzar.

Figura 11 Figura 12 Figura 13

A los inmigrantes les cuesta más caro cruzar la frontera. El servicio de un coyote, o “pollero”, –términos que definen a los que guían a los inmigrantes a través de la frontera– se ha triplicado pasando de los 400 dólares a los 2.200 dólares

Page 44: Revista Fundación Ramón Areces. Número 1: Enero 2010

86 FRA 87

La línea azul en la Figura 14 muestra la probabilidad de que un varón en México haga una nueva migración indocumentada, un nuevo viaje indocumentado a los Estados Unidos. Puede verse que ha sido más o menos constante, no ha cambiado en 20 o 30 años. El flujo de entrada no ha cambiado. Lo que

ha cambiado ha sido el flujo de retorno. La tasa de retorno de inmigrantes (línea roja), comenzó un descenso con la IRCA que luego se acelera tras los bloqueos y ahora está en su nivel mínimo, habiéndose reducido casi a la mitad desde 45% a 25%.

Pero ¿qué pasa si el flujo de entrada en los Estados Unidos desde México no cambia, pero el flujo de retorno cae dramáticamente? Significa que hay un incremento en el flujo neto. La Figura 15 muestra datos oficiales del censo de los Estados Unidos. Vemos que la población mexicana de los Estados Unidos crece año a año de una forma más o menos regular; comienzan los bloqueos y, de repente, a mediados de los 90 la tasa de crecimiento experimenta un crecimiento bien fuerte. Y ahora tenemos más mexicanos que nunca en los Estados Unidos y más fuera de los canales legales.

Finalmente, la última consecuencia es que tenemos una presión hacia abajo de las condiciones laborales, no solo de trabajadores indocumentados en los Estados Unidos, sino también de trabajadores documentados. La Figura 16 muestra los sueldos en promedio de trabajadores mexicanos indocumentados

y documentados en los Estados Unidos. A partir de 1986 se produjo un cambio sustancial en la legislación norteamericana que ilegalizó la contratación de un inmigrante sin papeles. La contratación de ilegales o “sin papeles” esta penado con fuertes multas y cárcel. Como consecuencia de ello los patrones empezaron a usar subcontratistas, lo que a su vez provocó un fuerte cambio en los mercados de trabajo. Se pasó de un reclutamiento directo a contratación indirecta usando subcontratistas. Ahora un inmigrante que busca trabajo en una fábrica ha de pasar antes por el contratista. Y el contratista toma parte del salario del inmigrante como paga por asumir los riesgos y el papeleo. En consecuencia, en la industria en los Estados Unidos ha habido una transformación de contratación directa hacia contratación indirecta, reflejándose en la caída rápida del dinero pagado a los ciudadanos.

En definitiva, estamos gastando alrededor de ocho billones de dólares cada año para militarizar la frontera con un país que no constituye una amenaza para los Estados Unidos. El ejército mexicano nunca va a invadir a los Estados Unidos. Y ese presupuesto de ocho billones de dólares está siendo contraproductivo, porque no

hemos detenido los flujos migratorios, sino que hemos parado los flujos de retorno, duplicando el crecimiento de la población mexicana y la población indocumentada de los Estados Unidos. ¿Qué podemos hacer? Para mí la respuesta está clara: adoptar Europa como modelo. Un modelo que construye puentes para establecer la integración regional económica y ampliar la visión de la inmigración más allá de las condiciones económicas, incluyendo asimismo condiciones sociales, culturales y políticas, para crear una unión económica norteamericana. En términos prácticos, no estoy seguro de que los Estados Unidos o los motores de los Estados Unidos estén listos para el movimiento libre de personas entre México y los Estados Unidos, pero podemos mejorar la situación para regularizar los flujos y manejarlos teniendo los intereses de ambos

lados de la frontera en mente.

Para empezar Estados Unidos debería au-mentar las cuotas de inmigrantes para Méxi-co y Canadá. No podemos olvidar que Ca-nadá es la tercera fuente más importante de inmigrantes ilegales en los Estados Unidos. La entrada de ilegales desde Canadá y Méxi-

co se produce, en términos prácticos, por la brecha que existe entre la realidad de la inmi-gración y las leyes con las que pretendemos controlar el movimiento a través de la fron-tera. Estados Unidos asigna a cada país una cuota anual de 20.000 inmigrantes, 20.000 visas para residencia permanente. México, con una población de 106 millones de per-sonas, que es parte de un tratado de libre comercio, de un nuevo mercado integrado de Norteamérica, con quien compartimos una frontera de 3.000 km, tiene la misma cuota que Botswana, el mismo número de visas. Esto causa la inmigración ilegal, por-que se crea una demanda legítima para visas de residencia que el sistema no puede mane-jar. Entonces, tenemos que proporcionar al menos 100.000 visas al año, para Canadá y México.

Figura 14 Figura 15 Figura 16

A partir de 1986 se produjo un cambio sustancial en la legislación norteamericana que ilegalizó la contratación de un inmigrante sin papeles. La contratación de ilegales o “sin papeles” esta penado con fuertes multas y cárcel.

Page 45: Revista Fundación Ramón Areces. Número 1: Enero 2010

88 FRA 89

La otra cuestión es estabLecer un nuevo programa de visas para trabajadores temporales en los Estados Unidos. Tuvimos este programa por 22 años entre 1942 hasta 1964. En los años 50, admitimos cada año 450.000 mexicanos con visas temporales y ahora casi no tenemos un programa de visas temporales. He entrevistado a muchos inmigrantes mexicanos, y la realidad es que cuando empiezan a emigrar, su meta no es establecerse permanentemente en los Estados Unidos. Quieren trabajar por una temporada para solucionar un problema en su familia o en su hogar: construir una casa, comprar una casa, comprar medicinas, comprar bienes de consumo, comprar tierras, o invertir en un negocio. Lo que desean es trabajar por un año o dos años y regresar. La paradoja es que, cuando hacemos una militarización de la frontera, este hecho frustra la motivación natural de regresar a su país de origen. En esta situación, muchos de los flujos migratorios pueden satisfacer la demanda de los inmigrantes y de los patrones en los Estados Unidos con un programa nuevo de visas temporales. Y en vez de implementar una campaña de militarización fronteriza, que es contraproductiva, podemos usar este dinero para un nuevo programa de asistencia estructural en México, utilizando nuevamente el modelo de la Unión Europea, que ahora está haciendo disponibles fondos, no tanto para España, Portugal y Grecia, sino actualmente para Polonia y los países de Europa Oriental.

Y, finalmente, necesitamos un nuevo progra-ma de legalización. Tenemos una situación inhumana e insostenible en los Estados Uni-dos: 12 millones de personas sin derechos en una democracia no es aceptable, no es sostenible a largo plazo. Entonces, la reco-mendación que he hecho a los congresistas en Washington es que dividan a la población

en tres grupos. Para los que entraron en los Estados Unidos como menores en compañía de sus padres, y no tengan antecedentes pe-nales, una amnistía; una amnistía para conti-nuar sus vidas. Porque ahora hay tres millo-nes de personas que crecieron en los Estados Unidos, que hablan inglés, que no conocen sus países de origen, que se han graduado en un High School, pero no pueden continuar, tienen una barrera absoluta a la movilidad social. Y es una cuestión humana quitar la mancha de la ilegalidad de esta población que no es culpable de nada.

Para los que entraron como adultos, hemos de distinguir entre los recién llegados y los más establecidos. Entre los recién llegados, la ma-yoría estará contenta con documentos de visa temporal para trabajar uno o dos años más y luego regresar a su país de origen, a México. Pero para los que ya tienen muchas raíces en los Estados Unidos, muchos años de residen-cia, propongo un programa de legalización merecida, donde establecer un camino hasta la residencia permanente legal en los Estados Unidos. Un sistema de puntos, por ejemplo, donde se ganan puntos por aprender el inglés, por conocer la historia norteamericana, por pagar impuestos. Estados Unidos está aho-

ra están en un momento muy penalizador; si quiere penalizar a los pobres inmigrantes por su delito de ilegalidad, al final de la úl-tima etapa, puede hacerles pagar una multa. Y luego pueden empezar la vida; han pagado su deuda a la sociedad y pueden continuar su vida en los Estados Unidos. Creo que este es el programa más humano, más práctico que podemos imaginar para el país ahora y, como dije, estamos replicando el experimento de España y los otros países del sur de Europa, ahora con Europa oriental.

En la Figura 17 vemos el caso de Polonia y México, con una transición económica aproximadamente igual otra vez. Y Polonia y México están más o menos en el mismo nivel de desarrollo. Europa está admitiendo a Polonia y, finalmente, va a tener derechos completos de movilidad libre dentro de la Unión Europea y por ciertos países ya los tiene. Si Europa puede hacerlo con Polonia, Rumania, con la República Checa, con todos estos países que están en el mismo nivel de desarrollo que México, los Estados Unidos, el país más rico del mundo con la economía más grande del mundo, puede hacerlo con México. Para ello se requiere un cambio de mentalidad. Pensar en los mexicanos, como “nosotros”, en vez de “aquellos”. Pensar en una sociedad norteamericana común, que compartimos Canadá, los Estados Unidos y México, formando una Unión, una sociedad norteamericana. De igual modo que vemos ahora día a día cómo crece el sentido de in-tegración en Europa. Somos españoles, pero también somos europeos. Finalmente, para construir puentes en vez de muros, lo esen-cial es este cambio de mentalidad.

Figura 17

Douglas Massey

Es uno de los sociólogos estadouniden-

ses más brillantes de su generación.

Ha trabajado en campos tan diferentes,

pero tan próximos, como la demo-

grafía, la inmigración, la sociología

urbana, la estratificación social y las

relaciones étnicas. Massey forma parte

de los comités editoriales de las prin-

cipales revistas del campo, entre otras,

American Union of Sociology, Demo-

graphy, Annual Review of Sociology,

International Migration Review y otras

muchas. Y ha desarrollado no menos

de 20 grandes proyectos de investiga-

ción de la máxima calidad avalados

por las principales entidades patrocina-

doras públicas y privadas de los Estados

Unidos.

Douglas Massey ha sido presidente de

la Population Association of America

en 1996, de la American Sociological

Association en el año 2000, 2001 y en

la actualidad y desde el año 2006, es

también presidente de la American Aca-

demy of Political and Social Science.

Page 46: Revista Fundación Ramón Areces. Número 1: Enero 2010

91

CONFERENCIAS

CONOCIENDO MEJORLA ENFERMEDAD CARDIOVASCULAR

En marzo de 2009, Valentín Fuster intervino como ponente en el simposio sobre Prevención cardiovascular y rehabilitación cardiaca con una conferencia titulada “Conociendo mejor la enfermedad cardiovascular” en la que afirmó que hoy en día, estamos pasando del tratamiento de la enfermedad cardiovascular a la promoción de la salud y valoró el destacado papel que están teniendo las técnicas de imagen en el conocimiento de la enfermedad cardiovascular. Extractamos, en este texto, algunos de

los puntos de la conferencia.

Fundación Ramón Areces, 5 de marzo de 2009

Por Valentín Fuster CarullaDirector del Instituto Cardiovascular del Mount Sinai Hospital

of New York. EE.UU. Director General del Centro Nacional

de Investigaciones Cardiovasculares (CNIC).

aunque pueda pensarse Lo contrario, en un país rico como es Estados Unidos, la mortalidad cardiovascular no ha disminui-do en los últimos años. Es cierto que se ha prolongado la vida dos años por década en las últimas tres décadas, lo cual ha dado lu-gar a una disminución de la mortalidad en una cierta edad. Pero, en términos globales, la mortalidad cardiovascular sigue situada en

los mismos niveles que hace treinta años. Un estudio reciente muestra que esta prolonga-ción de la vida se debe en un 75% al trata-miento de la enfermedad coronaria aguda, y sólo un 25% a la prevención.

De hecho en Estados Unidos en el año 2006 se gastaron 368 billones de dólares en tratar la enfermedad cardiovascular, es decir, tres

Page 47: Revista Fundación Ramón Areces. Número 1: Enero 2010

92 FRA 93

veces más que diez años antes. De esa cifra el 95% del presupuesto de salud cardiovascular se destina para el tratamiento y solamente un 5% para la prevención. La situación re-sulta bien distinta para un país pobre en el que un paciente que ha sufrido un infarto de miocardio tiene que asumir, de su bolsillo, el 80% del coste del tratamiento, lo que supone que, en estos países, el enfermo muere a una edad más temprana. No existe esta prolon-gación de la vida, porque no puede tratarse. Económicamente, en ambos caso, en un país pobre y en un país rico, resulta más barato prevenir la enfermedad que tratarla. Y este es un asunto crítico dado que la enfermedad cardiovascular va a aumentar en los próximos años, como consecuencia, entre otros facto-res, del problema de la obesidad.

Los economistas estadounidenses coinciden en destacar que hoy en día resulta rentable trabajar en investigación y desarrollo en pro-longar la salud. Un estudio realizado en 2002 por la Mary Lasker Foundation afirmaba que la mejor inversión en salud que puede hacer un país, si desea mantener su hegemonía, es la prevención. En esta idea parece coincidir un estudio recientemente iniciado en Es-

tados Unidos en el que se compara el coste económico que supone el tratamiento de un paciente con infarto de miocardio y el coste que representa para su hermano gemelo la detección de la enfermedad con tecnología de imagen diez años antes. El coste de tratar la enfermedad es tres veces superior que el coste de prevenirla. La conclusión de estos datos es clara: resulta ineludible que nos va-mos a mover en el campo de la promoción de la salud y la prevención y este es un fu-turo absolutamente importante que se está demostrando de una manera absolutamente inédita.

¿Qué es lo que mata al enfermo de infarto de miocardio? Lo que llaman una placa ines-table, una placa vulnerable. Se trata de un fenómeno en el que se detecta el problema de la inflamación. Y hay una inflamación a nivel muy cercana de la luz vascular y hay un tipo de inflamación o reacción muy cercana a la adventicia.

La inflamación es una reacción del organis-mo a un cuerpo extraño. En la enfermedad arteriosclerótica hay dos cuerpos extraños importantísimos. Uno es el depósito del co-lesterol, del LDL, y otro es una hemorragia en la placa. El problema de la inflamación es que cuando se encuentra con un cuerpo extraño, que es el LDL, o se encuentra con la hemorragia, hay una reparación del tejido y todo puede terminar en un proceso absoluta-mente estable.

La cuestión clave de la enfermedad arterios-clerótica es conseguir la salud del vaso. Pero el problema es que, en este proceso, puede ir o muy lejos o quedarse corto. Entonces, se produce lo que es la enfermedad arterios-clerótica. En realidad este proceso es un fe-nómeno de defensa. Este fenómeno que el cuerpo tiene para mantener la salud es un fenómeno que está distorsionado. O bien es muy hiperactivo, hay más inflamación de la que se quiere, o bien la inflamación no pue-de dar lugar al proceso de crear simplemente salud en el vaso y, entonces, las células se sui-cidan con apoptosis y liberan productos tóxi-cos que hacen tanto daño como el proceso de la hiperinflamación.

Desde el punto de vista práctico las tecnolo-gías de bioimagen nos han enseñado en los últimos dos o tres años algunos aspectos inte-resantes de lo que estoy explicando. El OCT es una tecnología computarizada mediante la cual se puede ver cómo una placa se rompe, se puede ver el coágulo de sangre y se puede ver el lípido con mucha más nitidez y sen-sibilidad y especificidad que, por ejemplo, con la ecocardiografía intravascular. Los in-tervencionistas están utilizando mucho esta tecnología que se originó en Japón para em-pezar a ver estas placas. El problema es que a nosotros no nos interesa ver la placa cuando ya se ha roto. Nos interesa verla antes. Esta es la gran diferencia. Aquí es donde está el pun-to fundamental, que podamos hacer algo por este enfermo antes del infarto de miocardio.

Una segunda tecnología que ahora empeza-mos a utilizar usa un catéter que penetra en la arteria y el proceso inflamatorio activa una

Dudo que en el futuro el corazón pueda regenerarse simplemente con las stem cells, lo que no dudo es que tal vez estas células podrán alterarse genéticamente, entrar

en el corazón y poder reproducirse

Page 48: Revista Fundación Ramón Areces. Número 1: Enero 2010

94 FRA 95

proteasa que se libera, activa esta zona del ca-téter y se produce por inmunofluorescencia una especie de imagen que uno puede ver en el papel. Entonces, uno puede detectar dón-de está el proceso inflamatorio.

Pero hay otro tema, a mi juicio, más intere-sante que es estudiar de qué manera se de-fiende a sí mismo el vaso sanguíneo. Y aquí está el endotelio, los factores de riesgo que todos conocemos. El LDL penetra cuando hay un daño endotelial, sea la hipertensión, la hipercolesterolemia, la diabetes… Lo que realmente es nuevo es que el endotelio crece no necesariamente desde la vecindad, pero se sustituye por las células progenitoras.

Actualmente, células progenitoras bien defi-nidas hay cuatro, que vienen de la médula ósea o, incluso, de otros órganos como del sis-tema gastrointestinal. Y aquí ocurre que, una vez que se ha dañado el endotelio, viene este conjunto celular de cuatro células que puede reemplazar al endotelio o, incluso, reempla-zar el tejido lipídico con células musculares lisas desde el punto de vista fenotípico. La cuestión clave es conocer cómo se defien-

de la arteria. Porque si aprendemos cómo la arteria mantiene su salud, en el futuro po-dremos elaborar un sistema que, en realidad, haga que estas células progenitoras, que tra-bajan como equipo unas con otras, puedan salir de la médula ósea o de otros lugares y puedan sustituir al endotelio dañado. Esto, actualmente, es uno de los campos de inves-tigación más interesantes que hoy existen y mucho de la biología de estas células la esta-mos conociendo gracias, precisamente, a las tecnologías de imagen.

Otro sistema de defensa es el de los vasa va-sorum, (cosa muy discutida hace unos años, no es discutida ahora). Estos pequeños vasos que vienen de la venticia tienden a sacar el LDL oxidado de la arteria por la parte de atrás cuando el LDL en estos pequeños vasos es bajo. El problema está en que estos vasos son, desde el punto de vista embriogénico,

muy débiles, muy vulnerables. Entonces, es donde se produce un proceso importante para la inflamación que es la hemorragia. Las células rojas salen y se produce un fenóme-no inflamatorio que puede tener muy graves consecuencias en la arteria.

estas consecuencias son Las siguientes: Este fenómeno inflamatorio que penetra, una vez se hayan depositado los glóbulos rojos fuera de estos vasos pequeños, puede ser tan activo, que puede liberar los macrófagos, sustancias encimáticas que digieran la arteria en sí misma, concretamente la capa elástica interna que mantiene la cohesividad de la arteria. Un proceso inflamatorio que comienza con una hemorragia, que aparece en un mecanismo de defensa, puede ser hiperactivo y llevar a la placa a que sea muy vulnerable porque se ha roto la capa que mantiene la cohesividad y esta placa entonces puede romperse. Es decir, un mecanismo de defensa que termina autoaniquilándose por la liberación de estos macrófagos que toman cuidado de la hemorragia. Y esto, básicamente, está ahora muy bien encauzado desde el punto de vista de la

investigación y es que estos macrófagos parece que surgen de la hemoglobina a través de una aptoglobulina I, que, en realidad, en el enfermo diabético y muchos enfermos hiperlipidémicos predomina la aptoglobulina II, que es lo que hace de puente. La aptoglobulina II es muy inferior para establecer esta unión del macrófago con la hemoglobina. El resultado es que hay muchos macrófagos, pero que precisamente con que falle el mecanismo de unión en muchos de estos enfermos diabéticos e hiperlipidémicos, lo que ocurre es que este fenómeno inflamatorio entonces termina digiriendo la capa elástica interna de la arteria. Es decir, un fenómeno de defensa que no puede llevar a cabo su misión o su unión con el glóbulo rojo haciendo fagocitosis, aquí tienen glóbulos rojos y macrófagos terminando con un proceso que puede ser el de destrucción de la membrana.

La cuestión clave es conocer ¿cómo se defiende la arteria? Porque si aprendemos cómo la arteria mantiene su salud, en el futuro podremos elaborar un sistema que,

en realidad, haga que estas células progenitoras, que trabajan como equipo unas con otras, puedan salir de la médula ósea o de otros lugares y puedan sustituir al

endotelio dañado

Page 49: Revista Fundación Ramón Areces. Número 1: Enero 2010

96 FRA 97

Entonces, desde el punto de vista de la infla-mación, esto es lo que hemos aprendido. La hemoglobina es un cuerpo extraño, que nace de unos vasa vasorum que están tratando de quitar el colesterol de la arteria si el LDL en los vasa vasorum es bajo. La consecuencia es que si entra la aptoglobulina II, entonces el proceso termina siendo muy hiperactivo sin que lleve a tomar el sustrato que son los gló-bulos rojos y, como resultado, puede llevar a la ruptura de la placa arteriosclerótica. Un fenómeno de defensa que parecía que tenía que trabajar es hiperactivo, porque no se une al sustrato que es el glóbulo rojo. Entonces, desde el punto de vista de cómo podemos nosotros dar fuerza a este fenómeno, esto se pudiera hacer por ejemplo dando estatinas y en individuos de alto riesgo, bajar el LDL en sangre. Y bajando el LDL en sangre pudiera ser que los vasa vasorum predominaran sobre los macrófagos y la hemorragia y, entonces, el colesterol que se deposita o el LDL que se deposita en este caso en la aorta o en las carótidas con resonancia magnética pudiera marcharse por el bajo LDL en sangre con las estatinas.

en definitiva, podemos decir, a fecha de hoy, que el infarto de miocardio es un fallo de tres mecanismos de defensa. No hay sufi-cientes células progenitoras para tomar cui-dado del endotelio dañado por los factores de riesgo. Los vasa vasorum no son suficientes en contra de la inflamación y el LDL tal vez no es lo bajo suficiente para sacar este complejo lipídico de la íntima. Y, por último, estas cé-lulas inflamatorias, los macrófagos, deciden suicidarse y liberan el factor tisular. Y cuando esta placa se rompe por un fenómeno hiper-inflamatorio, la sangre se encuentra con una úlcera por un fenómeno apoptótico, que se ha liberado el factor tissue factor o el factor tisular que puede contribuir al trombo y al infarto de miocardio. Y lo que es interesante,

desde el punto de vista de la imagen, es que, hoy en día, empezamos a conocer este proce-so mucho más que en el pasado (…).

¿Puede el corazón regenerase en un futuro simplemente con lo que se llama stem cells o células embriónicas? Lo dudo. Lo que no dudo es que tal vez estas células podrán al-terarse genéticamente, entrar en el corazón y poder reproducirse. Y esto actualmente se está obteniendo como saben en los adultos con células de ciertos tejidos como puede ser la piel, como puede ser el bazo. Y, por otra parte, también pudiera en cierta manera in-yectarse los genes en células progenitoras in vivo en el corazón directamente y, tal vez, una célula que, por una parte, pudiera empezar a proliferar en el corazón, que es una célu-la embrionaria o una célula, un stem cell. En realidad, estas células tienden a morir. Tie-nen una vida media corta. Solamente modi-ficándolas genéticamente podrán continuar proliferando y, tal vez entonces, la unión de la genética y la regenerativa tendrá un valor.

En realidad, actualmente, en muchos de los departamentos del mundo en dónde había un departamento llamado “Departamento de Biología Regenerativa”, están cambiando la nomenclatura y se les llama “Departamen-to de Biología Celular Regenerativa” o “Bio-logía Genética Celular Regenerativa”, unien-do los dos campos.

Valentín Fuster Carulla

Es uno de los cardiólogos españoles más

universales. Nacido en Barcelona fue

el número uno de su promoción en la

universidad. Completó su formación como

cardiólogo en Gran Bretaña, donde trabajó

con el Dr. Desmond Julian y realizó su tesis

doctoral sobre el papel de las plaquetas en

el infarto de miocardio. En 1972 se traslada

a Estados Unidos donde trabaja como

interno en el servicio de urgencias de la

Clínica Mayo, graduándose por segunda

vez como cardiólogo tres años después.

Fue profesor de Medicina en la Escuela de

Medicina de la Clínica Mayo de Minnesota

y consultor de cardiología en la Clínica

Mayo. En 1981, ocupó el cargo de jefe

de cardiología en la Escuela de Medicina

del Hospital Monte Sinaí de Nueva York.

Posteriormente, desde 1991 hasta 1994,

fue catedrático de Medicina en la Escuela

Médica de Harvard en Boston y jefe de

cardiología en el Hospital General de

Massachussets regresando en 1994 al

Hospital Monte Sinaí, ya como director

del Instituto cardiovascular.

Es autor de más de 400 artículos relevan-

tes sobre las enfermedades de las arterias

coronarias, sobre la arteriosclerosis, sobre

la trombosis. Es autor de varios libros de

texto, de divulgación y literarios. Ha reci-

bido las más altas distinciones y reconoci-

mientos científicos como, por ejemplo, el

Premio Príncipe de Asturias de Investiga-

ción el año 1996. Ha sido distinguido con

el galardón Honoris Causa por más de 16

universidades de distintas partes del mun-

do. Actualmente, además, es el director

General del Centro Nacional de Investiga-

ciones Cardiovasculares Carlos III (CNIC)

en Madrid.

Page 50: Revista Fundación Ramón Areces. Número 1: Enero 2010

98 FRA 99

FRAGMENTOS

IMPLICACIONESDE LA TRANSICIÓN DEMOGRÁFICAEN EL MUNDO

Entre los días 24 y 26 de septiembre de 2009 se celebró en la Fundación Ramón

Areces una reunión internacional sobre “Las Implicaciones a largo plazo de la

transición demográfica en el mundo”, organizada en colaboración con el Grupo de

Estudios Población y Sociedad (GEPS), grupo consolidado de investigación en temas

de poblaciones, que cuenta con el apoyo de la Comunidad de Madrid. Esta reunión

formó parte del Seminario Población y Sociedad (SEPS) que viene celebrando

distintos eventos desde hace ya un año, siempre dedicados a temas de población.

La organización concreta de esta reunión correspondió a los profesores Ronald Lee

(University of California, Berkeley) y David Reher (Universidad Complutense de

Madrid).

eL objeto deL encuentro fue reunir un grupo de investigadores a fin de evaluar el efecto que ha tenido la transición demográfica en el mundo. Este proceso -mediante el cual se reduce la mortalidad y, unas décadas más tarde, la fecundidad- implica una serie de cambios en las tasas de crecimiento de la población, en su tamaño y su distribución por edad, que continúan durante décadas. Se trata de un cambio fundamental en la forma en que se organiza los procesos reproductivos, que comenzó en Europa y en un número muy reducido de países fuera de Europa hace más de un siglo y que sigue en marcha hoy en día en la mayor parte del mundo. Ningún país ha terminado del todo ese proceso ya que la fecundidad y la mortalidad continúan cambiando y el envejecimiento de

la población, derivado del proceso mismo de transición, sigue siendo una realidad futura incluso para Japón, donde más avanzado está.

La transición demográfica implica pasar de una sociedad caracterizada por muchos ni-ños y pocos ancianos a otra con pocos niños y muchos ancianos; de una vida corta a una larga; de una vida adulta casi entera dedicada al cuidado de muchos niños de corta edad a otra donde el cuidado de la prole se con-centra en un periodo relativamente limitado de la vida; de unas redes de parentesco bá-sicamente horizontales a otras fundamental-mente verticales. La transición demográfica ha hecho posible un cambio radical en el papel económico y social de las mujeres, la

PeriscopioA partir de enero de 2010La Fundación Ramón Areces convoca nuevas becas y amplía su programa de actividades

La Fundación Ramón Areces abre en enero de 2010 la convocatoria de su Programa de Becas de Ampliación de Estudios en el Extranjero para el Curso 2010-2011 en las áreas de Ciencias de la Naturaleza y Economía y Derecho de la UE, programa al que la institu-ción destinará en torno a 2,5 millones de Euros para un total de 44 Becas, con el objetivo de contribuir a la excelencia en el proceso investigador facilitando la formación de personal altamente cua-lificado en centros de referencia en el extranjero. En el Área de Ciencias de la Naturaleza, se adjudican veintidós Becas a Doctores españoles, con una dotación de 2.200 Euros mensuales; seguro médico de accidentes y viaje al lugar de destino.

Otras 22 becas se adjudican en el área de Economía y Derecho de la Unión Europea para la realización de estudios de postgrado sobre temas de Econo-mía (Economía monetaria y bancaria, Economía de la empresa, Comercio exterior, Distribución comercial, y Economía internacional) y Derecho de la Unión Europea. Cada Beca está dotada con 1.650 Euros mensuales y la institución se hace cargo, además, de los gastos de inscripción y matrícula en la Universidad o centro, del que se trate, así como de los gastos de un viaje anual.

ACTIVIDADESEn el primer semestre del año 2010, la Fundación amplia su programa de difusión del Conocimiento en los ámbitos de las Ciencias de la Vida y

la Materia, las Ciencias Sociales y las Humanidades con nuevas actividades que se concretan en Simposios Interna-cionales, Mesas Redondas, Reuniones Científicas y Ciclos de Conferencias.

La Fundación tiene previsto realizar en el semestre un Seminario en colabora-ción con la Autoridad Internacional de los Fondos Marinos (AIFM); y un Sim-posio sobre el futuro del Sistema Mul-tilateral en colaboración con la OCDE que congregará en la sede de la Funda-ción a relevantes personalidades mun-diales del mundo financiero, político, económico y social quienes debatirán la nueva arquitectura de la cooperación internacional que debe plantearse tras la crisis financiera y económica global. Asimismo está prevista la organización de un Ciclo de Conferencias en cola-boración con el IE Business School, sobre las Organizaciones en el entorno de la crisis, en el que se analizarán las implicaciones de esta crisis en la gestión y la dirección de las organizaciones, con un marcado carácter internacional, no sólo por los ponentes, sino por los te-mas que se abordarán en las distintas conferencias. Intervienen en este Ciclo los profesores Hyuan S. Shin (Universi-dad de Princeton); Jeffrey Pfeffer (Uni-versidad de Stanford); Vinod Singhal (Georgia Institute of Technology) y Al-fonso Gambardella, de la Universidad Bocconi de Milán.

Los Simposios Internacionales aborda-rán, entre otros asuntos, la Revolución nanotecnológica, jornada que se realiza en colaboración con Nature Publishing

Group, editora de la prestigiosa revista científica Nature; los Avances científi-cos en la aplicación de la toxina Botu-línica (Botox) en medicina y estética; los Modelos moleculares asociados a la interacción planta-microorganismo, el futuro de los alimentos y cultivos transgénicos o los nuevos avances en la investigación en cáncer colorrectal.

Las Mesas Redondas y las Reuniones Científicas enmarcadas en el área de las Ciencias Sociales se detendrán en las “Políticas migratorias: pros, contras, margen de maniobra” y “El sistema educativo español: una evaluación”; “Los factores determinantes del con-flicto social o las perspectivas a largo plazo sobre Política comercial, integra-ción y Crecimiento. En el mes de enero, Manuel Aguilar Benítez de Lugo, académico de la Real Academia de Ciencias Exactas, Físicas y Naturales, impartirá la primera con-ferencia programada en el año 2010 que versará sobre la “Observación del Universo desde la Estación Espacial Internacional (ISS). Asimismo la sede de la institución acogerá nuevas con-ferencias dentro del Ciclo “Población y Sociedad”, en concreto las que pro-nunciarán François Héran, del Institut Nacional d’Etudes Demographiques de París y el Profesor Luis Rosero-Bixby, y del Ciclo sobre Japón en el que Heizo Takenaka, Director de Global Security Research Institute, de la Universidad Keio de Japón hablará sobre “Leccio-nes aprendidas de la crisis económica japonesa”.

Programación completa y actualizada en www.fundacionareces.es

Page 51: Revista Fundación Ramón Areces. Número 1: Enero 2010

100 FRA 101

invención de la jubilación como una tercera edad en la vida y una eficacia reproductiva que alimentó una inversión muy intensiva en capital humano para unos pocos niños que iban a vivir mucho tiempo.

Algunas de las implicaciones de la transición demográfica se manifestaron en seguida, mientras otras han tardado décadas en poder apreciarse. Algunas de ellas han sido beneficiosas para las sociedades afectadas, mientras otras lo han sido mucho menos. Varios de los retos principales para las sociedades actuales se derivan directa o indirectamente de la transición demográfica. En resumidas cuentas, este proceso ha tenido mucho que ver con el paso a las sociedades modernas y encierra implicaciones evidentes para las sociedades del futuro.

Puesto que se trata de un proceso ya en mar-cha en la mayor parte del mundo, se abre la posibilidad de que a partir de la experiencia de los países pioneros en el mundo desarro-llado se puedan entrever los caminos por donde se irá desarrollando en los países en vías de desarrollo. A fin de debatir sobre este

tema, la Fundación Ramón Areces reunió a 35 investigadores de todo el mundo, la mitad de los cuales provenía de instituciones inter-nacionales. Muchos de ellos procedían del campo de la Demografía, aunque también ha habido participación destacada de econo-mistas, sociólogos, historiadores, antropólo-gos y biólogos. En los tres días que duró la reunión, se presentaron y se discutieron un total de 16 trabajos sobre distintas temáticas que a continuación se glosarán brevemente.

Consecuencias de la transición demográfica

Tres de los trabajos abarcaron temas generales, sintetizadores de la transición demográfica en su conjunto. En su ponencia, David Reher (Universidad Complutense de Madrid) habló de las consecuencias sociales y económicas de la transición para las sociedades afectadas y cómo la bondad de estas consecuencias está condicionada por la manera particular en que se experimenta la transición, muy dife-rente en el mundo desarrollado y el mundo en desarrollo. David Coleman (Oxford Uni-

versity) adoptó una perspectiva muy a largo plazo para preguntarse hasta qué punto el declive de la población, implícito de alguna manera en la transición demográfica, ha de ser necesariamente negativo para las socieda-des desarrolladas. Rematando este bloque te-mático, Paul Demeny (Population Council, Nueva York) evaluó el papel que han tenido las políticas demográficas durante la transición y su capacidad (modesta, en opi-nión del autor) para influir en los comportamientos de-mográficos contemporáneos y del futuro.

Otros tres trabajos versaron sobre la manera en la que la transición demográfica ha afectado las transferen-cias intergeneracionales, tan esenciales para el bienestar en las sociedades afectadas. Ronald Lee (University of Califor-nia, Berkeley) presentó un trabajo de síntesis a partir de las experiencias de las sociedades de cazadores-recolectores, el mundo en de-sarrollo y el mundo desarrollado, llegando a la conclusión que en todos ellos suele predo-minar una direccionalidad desde los mayores hacia los jóvenes. Dicha direccionalidad persiste en la actua-lidad incluso en sociedades desarrolladas, pero ello no quiere decir que vaya a persis-tir necesariamente en el futuro. Luis Rosero Bixby (Universidad de San José, Costa Rica) adoptó un enfoque similar, aplicado esta vez a la experiencia latinoamericana, llegando a

la conclusión de que los mayores, lejos de ser una carga para la sociedad, constituyen una fuente de riqueza y de distribución de recur-sos. Por fin, Tommy Bengtsson (University of Lund, Suecia) presentó un análisis del proceso de envejecimiento de la población de Suecia, evaluando la medida en la que la mi-gración y el retraso en la jubilación pueden

neutralizar una situación en principio muy negativa. Su conclusión es rotunda-mente negativa respecto a la primera, mientras el se-gundo constituye un recur-so posible a disposición de las sociedades inmersas en procesos rápidos de enveje-cimiento.

Dos de los trabajos tuvieron un claro enfoque evolucio-

nista. Por un lado, Lesley Newson (University of Exeter, UK) y Pete Richerson (University of California, Davis) presentaron un enfoque imaginativo de cómo un rasgo humano típi-co, la capacidad de criar a la prole con ayuda del padre y de otros parientes (cooperative breeding), afecta y es afectado por la transi-ción en los comportamientos reproductivos. En la misma línea, menos especulativo y más empírico, fue el trabajo a cargo de Rebecca Sear (London School of Economics) y Da-vid Coall (University of Western Australia) donde se detalló cómo ha ido cambiando la atención a la crianza de los hijos de otros parientes en sociedades pre- y post-transicio-nales, así como la influencia en los procesos reproductivos que tienen otros parientes.

Los mayores, lejos de ser una carga para la sociedad, constituyen una

fuente de riquezay de distribución de

recursos

Page 52: Revista Fundación Ramón Areces. Número 1: Enero 2010

102 FRA 103

Tres de los trabajos versaron sobre diversas consecuencias de la transición demográfica, utilizando todos ellos datos británicos en sus estudios. Tim Hatton (Australian Na-tional University) presentó un análisis muy interesante acerca de cómo la reducción en el tamaño de la familia fue un factor crucial para las ganan-cias en estatura de los niños británicos durante el primer tercio del siglo XX. Por su parte, Tim Dyson (London School of Economics) plan-teó el papel central que tuvo el crecimiento de la pobla-ción derivado de la transi-ción demográfica en los pro-cesos de urbanización en el Reino Unido y en Sri Lanka. Por fin, Mike Murphy (Lon-don School of Economics) hizo uso de técnicas de mi-crosimulación para retratar la composición y el desarrollo de las redes de parentesco a lo largo del siglo XX.

También se presentaron dos trabajos de con-tenido claramente regional. Por un lado, Héctor Pérez Brignoli (Universidad de San José, Costa Rica) hizo un análisis de la expe-riencia de la transición demográfica en Lati-noamérica haciendo uso tanto de las estadís-ticas vitales oficiales como de datos históricos y empleando técnicas de estimación demo-gráfica indirecta (proyección inversa). Esta estrategia le permitió seguir las dinámicas demográficas de varios países del continen-te desde el siglo XIX e incluso antes. Por su

parte, Wang Feng (University of California, Irvine) glosó la experiencia de la transición demográfica en China donde recalcó que los grandes cambios en la fecundidad y la morta-lidad tuvieron poco que ver con las políticas y que la famosa política de hijo único vino a

incidir en una fecundidad ya muy baja. Apuntó previsio-nes bastante sombrías para el futuro de China, donde el proceso de envejecimiento va a ser durísimo y rapidísi-mo. Se preguntó al final de su trabajo si China no estaría encaminada hacia su propio ‘precipicio demográfico’.

Los alentadores resultados de esta reunión animaron a los participantes a plantear la posibilidad de una publica-ción en un medio de presti-

gio para una selección de los trabajos presen-tados. En estos momentos existe una oferta para una publicación —siempre previa eva-luación anónima de los originales— como suplemento anual de la revista Population and Development Review, una de las de mayor prestigio en el campo. El Fondo para la Pobla-ción de las Naciones Unidas, que envió un ob-servador a la reunión de Madrid, tiene interés en apoyar esta iniciativa. También cuenta con el apoyo del Center for the Economics and Demography of Aging (CEDA) de la Univer-sity of California Berkeley, del Centro Cen-troamericano de Población (CCP) de Costa Rica, amén del apoyo del Grupo de Estudios Población y Sociedad (GEPS) de Madrid.

Algunas de las implicaciones

de la transición demográfica se manifestaron en

seguida, mientras otras han tardado décadas en poder

apreciarse

FRAGMENTOS

EL ENVEJECIMIENTOde la población y sus consecuencias económicas

El envejecimiento de la población representa un desafío para los políticos y gober-

nantes porque plantea cuestiones sociales y económicas importantes en muchas

áreas. Además, a pesar de que los patrones del proceso de envejecimiento son simi-

lares en la mayoría de los países desarrollados, existen diferencias importantes en

sus políticas y marcos institucionales. En este sentido las comparaciones entre paí-

ses son de interés para entender mejor cómo el comportamiento de los individuos

se puede ver influido o afectado por diferentes regímenes o marcos institucionales.

Durante una reunión científica celebrada en la Fundación Ramón Areces sobre el

envejecimiento de la población y sus consecuencias económicas varios expertos

destacados en la materia expusieron trabajos académicos de investigación en los

que analizaron algunas de estas cuestiones. La organización de esta reunión cien-

tífica correspondió a los profesores Laura Crespo y Pedro Mira (CEMFI), y Michael

Hurd (RAND).

Los trabajos presentados por John Rust (University of Maryland. EE.UU. ), David Blau (Ohio State Univeristy. EE.UU.) y Ma-rio Padula (University “Ca’ Foscari” Venice. Italia) abordaron el análisis del efecto que diferentes tipos de pensiones públicas pue-den tener sobre las decisiones de ahorro y jubilación de los individuos. Éste es un tema de gran relevancia en la actualidad dado que las predicciones sobre el envejecimiento y el descenso de la población relativa en edad de trabajar plantean serias dudas acerca de la viabilidad futura de los regímenes actuales de Seguridad Social. Desde una perspectiva mi-croeconómica, la vejez representa un período

de la vida en el que el deterioro de la salud y de la productividad influye fuertemente en el status económico de los individuos. Por ejemplo, la existencia de cambios negativos en la salud puede tener efectos importantes en los recursos económicos de las personas mayores y, por lo tanto, en sus posibilida-des de consumo. La incertidumbre existente sobre la viabilidad futura de los sistemas ac-tuales de pensiones y la dificultad de conocer con antelación la pensión que cada trabaja-dor recibirá en el futuro, deberían represen-tar fuertes incentivos para intentar proteger-se de estos riesgos que pueden surgir en el periodo de la vejez. Por esta razón, tanto las

Page 53: Revista Fundación Ramón Areces. Número 1: Enero 2010

104 FRA 105

decisiones de ahorro a lo largo del ciclo vital como las de jubilación se ven influidas por la disponibilidad y las características de los sistemas públicos y privados de pensiones. El análisis de cómo todos estos aspectos están relacionados o conectados entre sí es crucial para desarrollar estrategias públicas que fo-menten el ahorro, la participación laboral de los trabajadores mayores, su autonomía in-dividual y un envejecimiento saludable y sa-tisfactorio. En esta línea, el trabajo de David Blau (2008) analiza cómo diferentes sistemas de pensiones afectan a las decisiones de aho-rro y acumulación de riqueza de los hogares estadounidenses. En los Estados Unidos las pensiones proporcionadas por el empleador son una fuente importante de apoyo finan-ciero para los trabajadores jubilados dado que representan una forma de “ahorro obli-gado”. El racionamiento económico sugiere que un trabajador responderá a este “ahorro obligado” a través de un plan de pensiones ahorrando menos a través de otros medios u otros mecanismos. La importancia de este efecto puede estar limitada por la existencia de imperfecciones en los mercados de capita-les (imposibilidad de endeudarse ofreciendo como garantías prestaciones o rentas futuras),

ventajas fiscales a los planes de pensiones y restricciones o penalizaciones al acceso a la jubilación anticipada. Sin embargo, también hay una parte de la literatura sobre este tema que postula que las pensiones pueden actuar como un medio de compromiso, proporcio-nando una forma de evitar los problemas de autocontrol asociados a las preferencias tem-poralmente inconsistentes y fomentando el ahorro a través de otros mecanismos.

entender cómo diferentes tipos de pen-siones plantean diferentes incentivos al aho-rro es importante para ayudar a anticipar los efectos que determinadas reformas de la Seguridad Social pueden tener sobre dichas decisiones. En este sentido, Blau analiza los efectos sobre las decisiones de ahorro de dos tipos de planes de pensiones. En el primero de ellos las prestaciones recibidas dependen de la edad, los años de servicio y el historial salarial de los trabajadores en el momento de jubilarse. En el segundo plan, el trabajador recibe como pensión una prestación constan-te determinada por la cantidad existente en su plan en el momento de la jubilación. Ésta dependerá de las contribuciones realizadas por el trabajador y la empresa y por los in-

tereses generados durante el tiempo de vida del plan. En concreto, Blau encuentra que en general los efectos de estos dos tipos de pensiones sobre la riqueza de los hogares son pequeños y, en algunos casos, positivos, lo que es consistente con otros estudios de la li-teratura que utilizan datos y métodos simila-res. Sin embargo, otros trabajos que analizan estos aspectos para Europa han encontrado evidencia a favor de efectos negativos.

Relacionado con el mismo tema, Luigi Gui-so, Tullio Jappelli y Mario Padula (2008) utilizan en su trabajo datos sobre las percep-ciones subjetivas que los italianos en edad de trabajar tienen sobre las pensiones de jubila-ción a las que tendrán derecho en el futuro. Basándose en esta información, estos autores plantean dos cuestiones. En primer lugar, cuantifican la cantidad de incertidumbre que los individuos tienen sobre sus pensiones fu-turas e identifican los principales factores que determinan las diferencias entre trabajadores en este aspecto. Esta cuestión ayuda a enten-

der si la gente es consciente de los riesgos que deberá afrontar durante la vejez. Segundo, investigan si el riesgo o incertidumbre exis-tente sobre la pensión que un trabajador re-cibirá en el futuro está relacionado con la de-manda de ahorro para la jubilación (a través de activos como los seguros de vida o planes de pensiones) y la propensión a asegurarse contra otros riesgos (de salud u otras even-tualidades). Utilizando una muestra aleatoria

extraída de la población de clientes del banco italiano Unicredit en el 2007, los autores muestran que la propensión de contratar un plan de pensiones pri-vado y de invertir en un seguro de vida está asocia-da positivamente con el riesgo o la incertidumbre percibida de la pensión pública de jubilación que se recibirá en el futuro. También encuentran que la propensión de contratar

un seguro sanitario es mayor para aquellos que perciben una mayor incertidumbre sobre la pensión.

Otro tema importante analizado y debatido en esta reunión científica se refiere a la par-ticipación de los hogares en los mercados fi-nancieros. Este recurso representa otro meca-nismo para afrontar la mayor incertidumbre económica existente durante la vejez debido al deterioro de la salud y de la productividad. Los trabajos presentados por Gugliemo We-ber (University of Padova. Italia.) , Michael

En algunos países europeos laspersonas en edad madura noinvierten en los mercados deacciones, ni directa ni indirectamente,y en ocasiones piden préstamos a altos tipos de interés sin hacer uso de su riqueza residencial

Page 54: Revista Fundación Ramón Areces. Número 1: Enero 2010

106 FRA 107

Haliassos (Goethe University Frankfurt. Alemania. ) y Robert Willis (University of Michigan. EE.UU.) analizan diversos aspec-tos relacionados con este tema. En concreto, el trabajo de Angelini, Brugiavini y Weber (2008) documenta el hecho de que en al-gunos países europeos las personas en edad madura no invierten en los mercados de ac-ciones, ni directa ni indi-rectamente, y en ocasiones piden préstamos a altos ti-pos de interés sin hacer uso de su riqueza residencial. Estos autores argumentan que este uso limitado de los mercados financieros constituye una “capacidad financiera no utilizada”. Ésta, combinada con una alta prevalencia de la jubi-lación anticipada en algunos países europeos, puede generar una “trampa de la jubilación anticipada”: por una parte, el sistema incen-tiva a que muchas personas se jubilen a una edad muy temprana. Pero si su riqueza está poco diversificada, estas personas son muy vulnerables a cualquier cambio en sus cir-cunstancias. Dado un horizonte vital muy dilatado, es altamente probable que en algún momento tengan dificultades económicas. Basándose en los datos provisionales de la segunda ola de la Encuesta sobre la Salud, el Envejecimiento y la Jubilación en Europa (SHARE) para varios países europeos, los au-tores aportan evidencia de que este mecanis-mo está operativo, especialmente en algunos países del Sur y del Centro de Europa.

En la parte empírica de este trabajo se utiliza las respuestas proporcionadas por los hogares encuestados en SHARE a una pregunta sobre si tienen dificultades para llegar a fin de mes (o no). El análisis descriptivo de esta variable muestra que mientras que en países como Italia y España alrededor de un 60 por ciento de los hogares en los que el cabeza

de familia tiene 65 o más años dice tener dificultades para llegar a fin de mes, en países como Dinamarca y Holanda menos de un 20 por ciento dice encontrarse en esta situación. Los autores obtienen que la probabilidad de que un hogar tenga dificultades económicas está relacionada con indicadores de utilización de la capacidad financiera, como son la participación directa o indirecta en los mercados de acciones y la tenencia

En países como Italia y España alrededor de un 60 por ciento de loshogares en los que el cabeza de familia tiene 65 o más años dice tener dificultades para llegar a fin de mes

de préstamos hipotecarios. En su análisis tienen en cuenta otros factores que podrían explicar las dificultades financieras del hogar tales como la salud, la edad, el tamaño del hogar, la situación respecto a la jubilación y la riqueza. También tienen en cuenta que las dificultades económicas podrían en si mismas ser la causa de la no participación en los mercados financieros. Además, también se observa que, controlando por edad, salud y riqueza, los individuos que se jubilaron antes tienen mayor propensión a sufrir dificultades económicas, al menos en el caso de que no participen en los mercados financieros y en aquellos países que incentivan en mayor medida la jubilación anticipada como Austria, Bélgica, Francia e Italia.

Participación en los mercados financieros de los hogares

un aspecto cLave para entender las diferencias observadas en la participación en los mercados financieros de los hogares es el grado de conocimiento financiero y la sofisticación de los mismos. El trabajo de los investigadores Adelina Delavande, Susann Rohwedder and Robert Willis (2008) se basa en la teoría que supone que el conocimiento de los mercados financieros representa una forma de capital humano y la adquisición o acumulación de este conocimiento puede ser considerada como una inversión para el individuo. La inversión en mejorar el conocimiento de los mercados financieros permite a los hogares obtener mayores rendimientos esperados de sus activos. A su

vez, el coste de adquirir este conocimiento depende de la habilidad cognitiva, del esfuerzo, del conocimiento previo y del coste de la educación o asesoramiento en el que incurran los individuos. Basándose en esta teoría, los autores utilizan nuevos datos procedentes de la Encuesta sobre Economía Cognitiva y del Panel Vital Americano para estudiar cómo las variaciones en el conocimiento sobre los mercados financieros y el esfuerzo en la toma de estas decisiones varían en la población. Según las medidas de sofisticación financiera proporcionadas en estos datos, las mujeres suelen tener menos conocimientos de este tipo mientras que el nivel educativo, el nivel de renta y la edad están asociados positivamente a mayores niveles de sofisticación financiera. Además, basándose en la teoría del conocimiento financiero como una forma de capital humano, desarrollan un modelo que les permite explicar por qué la fracción de riqueza invertida por los hogares tiende a ser una función creciente de la riqueza total, y por qué los hogares menos ricos no participan en los mercados financieros. Finalmente, muestran cómo la habilidad cognitiva, el coste de oportunidad en términos de tiempo y la disponibilidad de asesoramiento influyen en las decisiones de inversión financiera.

Page 55: Revista Fundación Ramón Areces. Número 1: Enero 2010

108 FRA 109

Relacionado con este último punto, el traba-jo de Hackethal, Haliassos y Jappelli (2008) argumenta que, en principio, los asesores fi-nancieros pueden mitigar las consecuencias de las diferentes habilidades de los hogares en la administración de sus finanzas mejorando los rendimientos de sus carteras y garantizan-do una mayor diversificación del riesgo entre los hogares menos sofisticados. Sin embargo, la delegación de las decisiones financieras en un asesor financiero supone ciertos costes en términos de comisiones y retribuciones. Además, también puede conllevar ciertos riesgos derivados de problemas potenciales de información asimétrica entre los asesores financieros y las empresas y entre los asesores financieros y sus clientes. En concreto, estos problemas se derivan de los incentivos con-trapuestos que tienen los asesores financieros: por un lado, tienen que vender productos fi-nancieros y por otro tienen que aconsejar a sus clientes sobre qué es lo mejor para ellos. En este sentido, estos autores utilizan datos procedentes de una gran empresa alemana de asesoría financiera para analizar si tener un asesor financiero implica una mejor ad-ministración y rentabilidad de la cartera de inversión. Estos datos proporcionan infor-mación sobre clientes que utilizan los servi-cios de asesores financieros y de clientes que administran sus propias carteras sin recurrir a estos agentes. Los resultados de este análisis muestran que el uso de asesores financieros está asociado a menores rendimientos de las carteras, mayores riesgos y mayores proba-bilidades de pérdidas en comparación con clientes similares en ciertas características que administran sus inversiones por su cuenta.

Atención a la dependencia

otro de Las cuestiones discutidas durante la conferencia se enmarca en el tema de la atención a la dependencia y los sistemas públicos de cuidados de larga duración. En este sentido, el envejecimiento de la población conduce también hacia un incremento de los gastos sociales en sanidad y cuidados de larga duración. A pesar de las mejoras en los niveles de vida y de las innovaciones en los cuidados médicos, la prevalencia de los problemas de salud relacionados con la edad es todavía alta en los países desarrollados. Por lo tanto, estas tendencias conducirán a un incremento en la demanda de cuidados sanitarios y de larga duración por parte de las personas mayores.

Dadas las implicaciones presupuestarias de este fenómeno, el desarrollo de sistemas sanitarios y de cuidados de larga duración más eficientes es en la actualidad un asunto importante en las agendas de nuestros go-bernantes. Sin embargo, tal y como se argu-menta en el trabajo de Laura Crespo y Pedro

Mira (2008) existen diferencias importantes entre los países europeos en lo que respecta a la disponibilidad y generosidad de los servi-cios públicos de cuidados formales de larga duración.

En concreto, existe un claro gradiente Nor-te-Sur. Mientras que los países del Norte de Europa se caracterizan por sistemas públicos

universales y generosos de prestaciones y cuidados de larga duración, en los países del Mediterráneo el sistema público sólo cubre las necesidades más básicas de la gente más pobre. De hecho, en estos países el cuidado informal a las personas mayores y depen-dientes es la forma de cuidados más predo-minante. Ésta es asumida normalmente por la familia, concretamente, por las hijas de mediana edad, las cuales se convierten en las principales cuidadoras de los mayores en la familia. Sin embargo, es evidente que realizar este tipo de actividades de cuidados puede representar un alto coste para estas mujeres en términos de su salud física y mental, su tiempo libre, y sus carreras profesionales, que podrían incluso interrumpirse. En este senti-do, estos autores analizan la relación entre la salud de los padres, los cuidados informales prestados a estos y las decisiones de partici-

pación laboral de mujeres de mediana edad. En concreto, se estima el efecto de empeora-mientos en la salud de los padres mayores so-bre las decisiones de participación laboral de sus hijas a través de sus decisiones de propor-cionarles cuidados informales de forma dia-ria o semanal. Para analizar este efecto, uti-lizan datos longitudinales para una muestra de mujeres entre 50 y 60 años de la primera

ola y segunda ola de SHARE (correspondientes a 2004 y 2006, respectivamente) para tres grupos de países euro-peos: los países del Norte re-presentados por Dinamarca, Holanda y Suecia, los países Mediterráneos representados por España, Italia y Grecia, y

el grupo de los países continentales formado por Alemania, Austria, Bélgica, Francia, y Suiza. Los resultados de este estudio mues-tran que las mujeres de mediana edad cuyos padres experimentaron un empeoramiento importante en el estado de salud entre 2004 y 2006 tenían una menor probabilidad de es-tar trabajando y una mayor probabilidad de prestar cuidados informales a los padres en 2006. Además, estas correlaciones son mayo-res y más significativas a medida que vamos de los países del Sur a los del Norte. Este gradiente Norte-Sur muestra una correspon-dencia clara con el gradiente existente entre estos países en lo que se refiere a sus sistemas públicos de cuidados de larga duración. Otro resultado relevante de este estudio es que el número de mujeres de mediana edad cuyas decisiones de participación laboral y de cui-dados podría verse afectado por la salud de

El envejecimiento de la población conduce también hacia un incremento de los gastos sociales en sanidad y cuidados de larga duración

Page 56: Revista Fundación Ramón Areces. Número 1: Enero 2010

110 FRA 111

sus padres es significativamente mayor en los países del Sur. Esto está también claramen-te relacionado con las diferencias existentes entre estos grupos de países en la disponibi-lidad de fuentes de cuidado alternativas para los mayores dependientes.

Finalmente, y adoptando una perspectiva macroeconómica, el trabajo de Axel Börsch-Supan (University of Mannheim. Alemania.) y Alexander Ludwig (2008) analiza algunas de las implicaciones negativas que el enve-jecimiento puede tener sobre el crecimiento económico y los niveles de vida. Tal y como estos autores argumentan, se espera que du-rante las próximas décadas la proporción de población en edad de trabajar empiece a descender a medida que un número elevado de personas nacidas durante el “baby-boom” se jubile. Estas predicciones plantean serias dudas acerca de la viabilidad en el futuro de los regímenes actuales de Seguridad Social y sugieren que este descenso continuado en la proporción de población en edad de trabajar puede ralentizar el crecimiento económico o disminuir los niveles de vida si no se compen-sa con incrementos en la productividad. En concreto, Börsch-Supan y Ludwig analizan estas cuestiones para los tres países más gran-des de la “Vieja Europa”, Alemania, Francia e Italia. Estos países se caracterizan en que tienen presupuestos públicos elevados y siste-mas de seguridad social de reparto cuya sos-tenibilidad en el futuro plantea serias dudas dado el descenso en los ratios de dependencia (trabajadores por jubilados). Sin embargo, estos países se han mostrado muy resisten-tes hasta el momento a implementar refor-

mas de sus mercados de trabajo y sistemas de pensiones que puedan mitigar en parte las implicaciones negativas del envejecimiento de la población. Los autores analizan el efec-to de algunas de estas reformas teniendo en cuenta que determinadas reacciones directas o indirectas en el comportamiento de los tra-bajadores a dichas reformas anulen el efecto previsto de las mismas.

En concreto, muestran que estos efectos directos e indirectos son grandes y que afectan de forma significativa el crecimiento económico y los niveles de vida. Además, los autores argumentan que dados los fuertes efectos de interacción entre los sistemas de pensiones y los mercados de trabajo, una combinación idónea de políticas de pensiones y reforma de las instituciones relacionadas con el mercado de trabajo puede ser más efectiva que cada política o reforma aislada. Sin embargo, también muestran que las reacciones de los trabajadores a estas políticas o reformas pueden mitigar o moderar los esfuerzos y efectos de dichas reformas. Al tener en cuenta los efectos positivos y negativos de estas reacciones, los autores concluyen que es necesaria una combinación de muchas medidas de política para mantener el consumo per cápita y evitar que caiga por debajo de la senda de crecimiento secular.

eL objetivo de La jornada fue presentar y debatir sobre diferentes puntos de vista: ¿Qué haría usted si la secuenciación de su genoma estuviera inmediata-mente disponible a un precio asequible? ¿Tienen las prue-bas actuales validez analítica, viabilidad y precisión para medir un genotipo? ¿Cuál es la utilidad clínica real de las pruebas genéticas actuales en la determinación o pre-dicción de trastornos asocia-dos a variaciones genéticas? ¿Cuál es el balance riesgo/beneficio de su incorporación a la práctica clínica? ¿Cómo regular y controlar las impli-caciones sociales y éticas del mal uso de estas pruebas?

En la reunión participaron Kari Stefansson, Profesor de Neurología y Neuropatología y Presidente y cofundador de deCode en Re-

ykiavik, como experto en la investigación y comercializa-ción de las pruebas genéticas y de secuenciación genómica utilizadas ya en la valoración personal del riesgo de pade-cer enfermedades con cau-sa genética; Manel Esteller, Director del Programa de Epigenética y Biología del Cáncer (PEBC) del Instituto de Investigación Biomédica

de Bellvitge (IDIBELL) en Barcelona, como especialista en epigenoma; Paul Pharoah Investigador clínico del Departamento de Oncología de la Universidad de Cambridge,

FRAGMENTOS

PRUEBAS GENÉTICASLa era de los genomas personales*

La Fundación Ramón Areces y Nature Publishing Group, editora de la prestigiosa

publicación científica Nature, reunieron en la sede de la Fundación a expertos

mundiales para debatir un tema de interés científico y de creciente interés social,

como es el de las pruebas genéticas, la disponibilidad y uso de la información

genómica.

Hasta ahora sólo hay 8 genomas secuenciados

aunque el ritmo de la

secuenciación va en aumento

* La monografía de esta Jornada está disponible en http://www.fundacionareces.es

Page 57: Revista Fundación Ramón Areces. Número 1: Enero 2010

112 FRA 113

datos en genómica ha generado tanta expecta-ción que pronto habrá importantes avances y aplicaciones médicas. “Pero los genomas son inmensos, complejos y muy variables, lo que hace que éste sea un proyecto largo en el que debemos proceder no sólo con optimismo, sino también con extrema cautela. Establecer la relevancia médica de una secuencia del ge-noma es mucho más difícil que simplemente encontrar sus variantes”.

Axton concluyó afirmando que “la genéti-ca es la base de la investigación del futuro y debe ser esencial para entender la medicina. La información genómica no debe despertar miedo sino ser una fuente de información preventiva, diagnóstica, de tratamiento y pronóstico de las enfermedades”

eL dr. k. stefansson destacó las variantes genéticas de distintos trastornos que se co-nocen ya, y para las que existen pruebas ge-néticas de utilidad diagnóstica, y las pruebas que no siendo diagnósticas determinan el riesgo genético de padecer una determinada enfermedad, tales como fibrilación auricu-lar, infarto de miocardio, cáncer de próstata, cáncer de mama y glaucoma. Stefánsson ex-

experto en la genética del cáncer de mama; y Sharon Terry, Presidenta de Genetic Allian-ce, en representación del punto de vista de los pacientes y consumidores en Washington y Myles Axton, Editor de Nature Genetics, que actuó como coordinador de la jornada.

myLes axton ofreció un recorrido histórico y una visión general sobre la investigación en genética en la actualidad. Aunque por el mo-mento, sólo existen 8 genomas secuenciados el ritmo de la secuenciación va en aumento, lo que ha aumentado las expectativas de los beneficios médicos de este proceso, si bien, afirmó Axton, el estudio de los genomas es complejo. Para ilustrar esta complejidad, el editor de Nature Genetics explicó que entre dos individuos europeos existen unos tres millones de variaciones genéticas que ocu-rren comúnmente. Unas 10.000 de las va-riaciones que ocurren comúnmente en los europeos alteran las regiones de codificación del ADN y ocurren entre 5 y 50 nuevas mu-taciones en cada individuo. Finalmente hay variaciones en el número de copias, modifi-caciones estructurales y epigenéticas.

Axton explicó que esta abundancia de nuevos

plicó que en deCode ya han sido capaces de aislar bastantes variantes de la secuencia que afectan a un número considerable de enfer-medades complejas o rasgos comunes (para 38 enfermedades y caracteres que van desde el infarto de miocardio y la diabetes hasta la reacción alérgica al alcohol y la calvicie mas-culina).

Stefánsson se mostró absolutamente conven-cido de que en unos pocos años los métodos para evaluar el riesgo basado en la secuencia-ción del genoma humano constituirán las ba-ses de la medicina preventiva. Pero advirtió que antes de comenzar a ven-der pruebas genéticas por todo el mundo, debemos entender las diferencias regionales y las diferencias en frecuencia, y conocer el efecto de esas dife-rencias, puesto que todas esas enfermedades, las comunes, tienen componentes de riesgo tanto genéticos como medio-ambientales, y hay una posibi-lidad de que el medio ambien-te tenga un cierto impacto sobre la frecuencia de la variación a través de la selección.

El Dr. Stefansson concluyó su intervención afirmando que “todos tenemos que tener el derecho de llegar a conocer nuestro genoma, y conocer así nuestro riesgo de llegar a pade-cer ciertas enfermedades. Igualmente, debe-mos tener libertad para utilizar esta informa-ción como consideremos más conveniente”.

eL dr. maneL esteLLer destacó que la in-vestigación en torno al epigenoma es de gran importancia para la práctica clínica, en la medida en que ya existen y están disponibles para el tratamiento fármacos desarrollados para actuar sobre las variantes epigenéticas. Para Esteller “el epigenoma representa un

paso más allá del genoma en cuanto que se trata de modificaciones químicas que se in-troducen por circunstancias ambientales, independientes del genoma y hacen que in-dividuos genéticamente idénticos, como los gemelos homocigóticos, tengan diferentes riesgo de llegar a padecer diferentes enferme-dades”.

pauL pharoah centró su intervención en la importancia de las pruebas genéticas para la detección del cáncer de mama y la preven-ción personalizada, así como la importancia de seguir manteniendo las pruebas de diag-

nóstico precoz.

La dra sharon terry cerró las intervenciones con la pers-pectiva de los pacientes y de los consumidores en relación con las pruebas genéticas, se-ñalando la importancia de tener en cuenta las consecuen-cias personales, sociales y lega-les implícito al uso de la in-formación genética personal,

destacando el derecho del individuo a cono-cer su genoma, pero también a la privacidad y a la no discriminación laboral o por las ase-guradoras médicas por conocer, por ejemplo, quién lleva en unos genes un elevado riesgo de padecer una determinada enfermedad.

Los conferenciantes coincidieron en destacar la necesidad de que la población pueda tener acceso a la información genética pero nadie debe ser obligado a conocer esa información. Para la investigación en genética se necesitan los datos de la población, por lo que es importante que los ciudadanos sean conscientes de ello para poder seguir investigando. Como concluyó el Dr. Axton, la libertad de conocer supone la libertad de decidir.

La genética es la base de la

investigación del futuro y debe ser esencial

para entender la medicina

Page 58: Revista Fundación Ramón Areces. Número 1: Enero 2010

114 FRA 115

Junio de 1989. Típica maña-na soleada de los junios de Valen-cia. Calor, pero todavía soporta-ble. Y luz, mucha luz. Hacía ya dos meses que había recibido la carta de aceptación para hacer el doctorado en la Universidad de Harvard. Aún recordaba vi-vamente el momento en que abrí la carta y mi incredulidad inicial. “I am deligthted to in-form you of your admission in the Graduate School of Arts and Sciences at Harvard University. The Department of Economics has recommended that you be invited to enroll in September 1989”.

Recuerdo haber leído mu-chas veces estas dos frases antes de salir dando saltos del despa-cho para comunicar la noticia a mis compañeros del departa-mento de Teoría Económica de la Universidad de Valencia. Pero tras la inmensa alegría inicial vuelve el realismo. Aquella carta era condición necesaria pero no suficiente para poder estudiar el doctorado de economía en Harvard. Hacían falta recursos económicos para sufragar los costes de la estancia y la matrí-cula. Rápidamente vuelve la in-certidumbre. El miedo a haber superado una competencia fe-roz para acceder al doctorado y no poder finalmente aprovechar esa oportunidad. En la actuali-

dad existen bastantes institucio-nes y organismos que financian estudios doctorales en el extran-jero, pero en 1989 la situación era muy diferente.

La Fundación Ramón Areces tenía un prestigioso programa de Becas para Ampliación de Estudios en el Extranjero y era una de las pocas opciones dispo-nibles. Pero estábamos a princi-pios de junio y la Fundación no había dicho nada. Aquella ma-ñana de junio con calor sopor-table y mucha luz, llegó la carta de la Fundación Ramón Areces. ¡Me habían concedido la beca! Ya era oficial: iría a estudiar a Estados Unidos. “…tengo el gusto de dirigirme a Vd. para comunicarle que le ha sido con-cedida una de las Becas de esta Convocatoria… En nombre del Consejo de Patronato de la Fundación Ramón Areces, y en

el mío propio, le hago llegar mi más cordial enhorabuena”.

La financiación de la Fun-dación Ramón Areces fue muy importante en el comienzo de mi carrera científica. Me per-mitió concentrarme en mis es-tudios doctorales y realizar la tesis en un periodo razonable de tiempo, sin necesidad de preocuparme por los aspectos económicos de mi estancia en Estados Unidos. Pero ha sido igualmente importante en los cientos de “becarios Areces” que han podido ver cumplido su ob-jetivo de ampliar estudios en los más prestigiosos centros de in-vestigación y las mejores univer-sidades del mundo desde que el Programa de Becas de Amplia-ción de Estudios comenzó su andadura allá por el año 1986. Además, la Fundación Ramón

Areces financia muchas otras actividades científicas y divul-gativas. Sería muy largo hablar de todas estas iniciativas. Solo como ejemplo, en mi campo científico tiene una convocato-ria de ayudas a la investigación económica para menores de 40 años, que en 2009 cumplió su octava edición.

Estudiar en universidades de países de cultura anglosajona muestra la importancia de las asociaciones de antiguos alum-nos, no solo como lugares de encuentro de los recuerdos sino también como tanques de nue-vas ideas y contactos interesan-tes. Sé que uno de los proyec-tos que más ilusionan al actual director de la Fundación, es la constitución de la asociación de antiguos becarios de la Funda-ción Ramón Areces. Después de veintitrés años de “becas Are-ces” somos más de 700 beca-rios. Es un número elevado de

personas que compartimos una experiencia común que ha sido muy importante en nuestras carreras profesionales. Existe su-ficiente masa crítica como para tener una asociación funcional y potente. Desde estas páginas me gustaría apoyar con entu-siasmo la iniciativa del Director para constituir la asociación de antiguos becarios de la Funda-ción, con la convicción de que será un lugar de encuentro don-de podremos hablar no sólo de recuerdos sino también del fu-turo. La experiencia de los be-carios puede aportar a la Funda-ción savia fresca para proponer nuevas iniciativas, programas o ideas.

Quizás en un futuro cercano, quizás en una mañana luminosa y no muy calurosa, llegará otra carta de la Fundación Ramón Areces con la invitación a ins-cribirnos en la asociación de antiguos becarios.

Tribunas

Recuerdos de un “becario Ramón Areces”

JOSÉ GARCÍA MONTALVOCatedrático de Economía

Universitat Pompeu Fabra.Ex becario de la

Fundación Ramón Areces.

POSTDATAPor si alguien está sorprendido

de que después de veinte años

me acuerde del contenido

preciso de la carta de concesión

de la beca, dada mi dificultad

para recordar todo lo demás,

adjunto a este artículo la

prueba obtenida fruto de una

investigación de varios días:

una copia de la carta original

de concesión de la beca. Me

costó mucho encontrarla pero

finalmente apareció.

La financiación de la Fundación Ramón Areces me permitió concentrarme en misestudios doctorales y realizar la tesis en unperiodo razonable de tiempo sin necesidad de preocuparme por los aspectos económicosde mi estancia en Estados Unidos

Page 59: Revista Fundación Ramón Areces. Número 1: Enero 2010

116 FRA 117

Están a punto de ver la luz dos tomos del Románico en Guadalajara, y el tomo del Ro-mánico de Cuenca saldrá antes de fin de año. Estos volúmenes de aproximadamente 500 págs. cada uno forman parte de la Enciclopedia del Románico de la Península Ibérica de la cual hasta la fecha se habían edita-do otros treinta correspondien-tes a Castilla y León, Asturias, Cantabria, Navarra, La Rioja y Madrid.

La Enciclopedia del Romá-

nico es una misión cultural que promueve la Fundación Santa Maria la Real-Centro de Estu-dios del Románico con el apoyo de diversas entidades públicas y privadas entre las que destaca

por su generosidad y constan-cia en el tiempo la Fundación Ramón Areces. La labor ya ha merecido un premio Europa Nostra a la mejor labor editorial sobre el Patrimonio Europeo.

La enciclopedia está dirigida

por el catedrático e historiador Miguel Ángel García Guinea y por el arquitecto José María Pé-rez González (non profit) y pre-tende editar con planimetrías incluidas todo el Románico de la Península Ibérica de modo que se generalice su conocimiento, salvaguarda y disfrute. La obra es una auténtica misión cultural en la que participan catedráticos y profesores de Arte Medieval de las principales universidades de la Península Ibérica y en ella han trabajado hasta la fecha más de 500 personas, muchas de ellas licenciados en paro que, de este modo, tienen un primer trabajo gratificante en pro de la defensa y conservación del pa-trimonio de su tierra.

Los promotores de la obra

entendemos el Patrimonio Na-tural y el Patrimonio Cultural como un gigantesco recurso económico a la vez que una enorme riqueza. Con la Enci-clopedia y las restauraciones que se están acometiendo en diver-sas regiones de España, nuestro románico pasará a ser un desti-

no turístico muy atractivo y una posible locomotora económica de las comarcas del interior.

La despoblación de las zo-

nas rurales es una fatalidad para buena parte de esos 9.000 testi-monios de arquitectura románi-ca que, como hitos en el paisaje, se hallan dispersos por el nor-te de la península y que tanta emoción y disfrute nos propor-cionan. Con esta obra, y con sucesivas series documentales de televisión como “Las Claves del Románico” estamos llamando la atención de la sociedad sobre la calidad, el valor y la importancia de este primoroso arte medieval que corre un serio peligro por-que muchas iglesias y ermitas ya no tienen curas que celebren el culto ni vecinos que las atiendan y disfruten. Ojalá esta Enciclo-pedia sea un aldabonazo en las conciencias y una invitación a los ciudadanos a conocer y dis-frutar este primoroso legado.

Tribunas

El valor y la importancia del Románico Especialización formativaen la Distribución Comercial

JOSÉ MARÍA PÉREZ “PERIDIS”

Presidente del Patronatode la FundaciónSanta María La Real

EDUARDO ESTRADAProfesor Titular de Derecho

Civil de la Universidadde Oviedo

Co-director de la Cátedra Fundación Ramón Areces

de Distribución Comercial

La actividad comercial –que consiste en poner a disposición del consumidor una buena par-te de los bienes de consumo– ya no es sólo –como señalaba Siegfgried– un mecanismo de ganancias, sino que se concibe como un servicio integral y con-cienzudo al cliente, desde el ci-vismo, el utilitarismo y el amor al progreso.

Las actividades relacionadas con el suministro de productos han pasado de ser considera-das meras intermediarias entre el fabricante y el consumidor, a convertirse en protagonistas fundamentales de la actividad económica. No sólo en el ámbi-to interno, sino que el fenóme-no globalizador de la Economía se representa fundamentalmen-te por la capacidad de ampliar mercados y de implantar pro-ductos en países distintos al del fabricante.

Los ocupados en el sector del comercio en España en el año

2008 ascendían a 3.239.130 (15,89%), y de ellos, 1.974.230 lo eran en el comercio minoris-ta.

En el año 2008, las empresas encuadradas en el sector del co-mercio suponían el 24,64 % del total de las empresas españolas activas, siendo el formato pre-dominante el de persona física sin asalariados. Sólo el 39,5% de las creadas en 1999, seguían activas en el año 2008.

En los canales de distribu-ción comercial e industrial, de consumo, se ha generado una compleja estructura de relacio-nes de gestión, custodia, coope-ración y más concretamente, de prestación de servicios con un contenido muy específico.

La aparición de nuevas es-tructuras de comercio, su con-trol público, la eliminación de barreras, el urbanismo comer-cial, la defensa del consumidor, la libre competencia, las nuevas

La Distribución Comercial, como todas las actividades eco-

nómicas del siglo XXI, ha alcanzado un grado de compleji-

dad tan elevado que ya no son suficientes los conocimientos

generales en todas las materias que la componen, alcanza-

dos generalmente de forma autodidacta, sino que requiere

una especialización formativa.

Page 60: Revista Fundación Ramón Areces. Número 1: Enero 2010

118 FRA 119

tecnologías, son algunos de los aspectos que intervienen en la Distribución Comercial.

Los nuevos métodos de ven-ta, la aparición de nuevos for-matos mayoristas y minoristas, sus estrategias competitivas, las tendencias de futuro, los nue-vos operadores logísticos e in-termediarios, la justificación de actividades por proveedores ex-ternos de servicios (outsourcing) y la necesidad de nuevas formas de cooperación, convierte la Distribución Comercial en una disciplina con suficiente enti-dad como para constituir un objeto de estudio que necesita cohesionarse alrededor de una disciplina.

En una actividad tan hete-rogénea y dispersa, los contra-tos tienen como causa la co-laboración y la confianza. La continuidad, el compromiso mutuo, la solidaridad, la inte-gridad, el intercambio de roles e inputs que cada parte realiza, la flexibilidad y la mutualidad y dependencia son las caracte-rísticas más sobresaliente de las relaciones de los participantes en el ámbito de la distribución comercial (compradores y ven-dedores; fabricante-mayorista-minorista).

Aunque muchas relaciones de intercambio utilizan con-tratos para su regulación, esta condición no siempre se hace patente porque en este tipo de relaciones el compromiso dis-funcional puede conducir a la rigidez e inhibir la flexibilidad y, por tanto, quebrantar las vir-tudes que caracterizan las rela-ciones efectivas y mutuamente beneficiosas entre empresas.

El comercio minorista es un sector con gran relevancia en España (como lo demuestra el que representara el 4,7% del VAB de la economía en 2006), y también muy sensible a la cri-sis económica y a la subida de impuestos, mostrando ya en el año 2008 una reducción de los indicadores de rentabilidad.

La presión sociológica y po-lítica del comercio merece un especial análisis en España que permita mirar el futuro de otra manera. El proceso histórico que va desde los gremios, el cor-porativismo, los bloqueos, los aranceles, las aduanas, el pro-teccionismo, el librecambismo, el micro-urbanismo comercial, la protección pública de algún sector, hasta la actual Directiva 2006/123/CE del Parlamento Europeo y del Consejo, de 12 de diciembre de 2006, relativa a los servicios en el mercado interior,

debe ser objeto de un minucio-so estudio compartido entre los profesionales del sector y los in-vestigadores universitarios.

La Cátedra Fundación Ramón Areces de Distribución Comercial

A este escenario general ha-bría que añadir que hasta ahora, han sido pocas las personas que han podido formarse en la di-versidad de la actividad comer-cial moderna y que aglutinen las cualidades de un buen empresa-rio de la distribución. Normal-mente, los expertos se localizan fuera de las aulas universitarias y sólo al final de su trayectoria la-boral consiguen un acercamien-to al total conocimiento de las estructuras del comercio, que necesariamente reúnen con la colaboración con un equipo de trabajo de muy diversa índole.

En este contexto se crea la Cátedra Fundación Ramón Are-ces de Distribución Comercial que nace del empeño común de la Universidad de Oviedo y la Fundación Ramón Areces, refle-jado en un convenio del 10 de julio de 2008, como un propó-sito personal del presidente de la Fundación D. Isidoro Álvarez y del Rector de la Universidad de Oviedo D. Vicente Gotor,

de profundizar en la investiga-ción y la formación de líderes empresariales en la rama de la distribución.

La programación de la Cáte-dra de Distribución Comercial de la Fundación Ramón Areces en la Universidad de Oviedo ([email protected]), pretende invertir el proceso, de modo que el cono-cimiento integral que hoy está al alcance de unos pocos exper-tos empresarios, se adelante con el estudio y la práctica a quienes inician su trayectoria laboral.En la actualidad, la formación de directivos en el sector de la Distribución Comercial se cen-tra en la formación de carácter general y no especializada, y en la formación posterior en las propias empresas. Además, el fuerte crecimiento de las empre-sas del sector está demandando profesionales capacitados y con proyección para abordar futuros proyectos de expansión.

El proyecto es muy ambi-cioso para la Universidad de Oviedo, que esperamos va a dar muchos frutos. Se trata de la primera Cátedra en España que aborda esta área de activi-dad económica y que nace con la vocación de convertirse en un centro de excelencia nacional e internacional en los ámbitos de

En una actividad tan heterogénea y dispersa, los contratos tienen como causa la colaboración y la confianza

En la actualidad, la formación de directivos en el sector de la Distribución Comercial se centra en la formación de carácter general y no especializada, y en la formación posterior en las propias empresas

Tribunas

Page 61: Revista Fundación Ramón Areces. Número 1: Enero 2010

120 FRA 121

la investigación, la docencia y la divulgación.

La Cátedra se propone ser un instrumento de transferencia de conocimiento, entre el mundo universitario y el mundo em-presarial, situando a nuestro país en línea con otros países de nuestro entorno en los que la Distribución Comercial ha sido ya incorporada a las tareas docentes e investigadoras de las instituciones universitarias.

En el ámbito de la investiga-ción, la Cátedra contempla la formación de un equipo mul-tidisciplinar, constituido por economistas y juristas, para analizar los problemas concre-tos y actuales de Distribución Comercial de interés regional, nacional e internacional.

Curso de Experto

Otra de las iniciativas es el Curso de Experto en Dirección de Empresas de Distribución Comercial, que ha comenzado en el mes de noviembre, con 24 alumnos y que concluirá con prácticas remuneradas. Este Curso busca inicialmente en-marcar las decisiones de distri-bución comercial en el entorno económico e institucional inter-nacional.

Posteriormente, se profundi-za en los diferentes factores que intervienen en el diseño de los canales de distribución y en la estructura de las relaciones pre-sentes en los mismos, prestando una atención especial a la apli-cación de las nuevas tecnologías en el ámbito de la distribución y a los tipos de asociacionismo. Se reflexiona, entre otras materias, sobre las competencias y habili-dades directivas que deben estar presentes en el gestor de una empresa detallista, analizando su carácter emprendedor y la ne-cesidad de conocer el compor-tamiento del consumidor me-diante estudios de investigación de mercados. También se estu-dian las estrategias de marketing para la empresa detallista, pro-fundizando en aspectos de gran actualidad como localización, diseño de redes de distribución, merchandising, surtido y marcas del distribuidor, desarrollo de nuevos productos, estrategias de precio y promoción, comu-nicación y técnicas de venta y negociación, calidad de servicio y atención al cliente, programas de fidelización y CRM.

Finalmente, también se ofre-ce una visión exhaustiva del en-torno legal que afecta a la distri-bución, tratando cuestiones de urbanismo comercial, contratos, regulación de la distribución co-

mercial y competencias autonó-micas, internacionalización de las empresas del sector o el mo-delo de centros comerciales.

En la lección inaugural del Curso de Experto celebrado en el mes de octubre en Ovie-do, el Profesor D. Juan Velar-de, apremiaba a no perder el tiempo y denunciaba la menor productividad como uno de los males endémicos de nues-tra competitividad. Muchas veces la ignorancia ha animado a una concurrencia de muchos competidores imperfectos que realizan un reducido número de negocios, permaneciendo en el sector únicamente hasta que pierden su capital, haciendo que no se reduzcan los precios hasta el suelo del coste marginal, que es lo que genera la competencia perfecta. Preocupa a los analis-tas el excesivo reglamentismo del sector, las restricciones de la política comercial y su inciden-cia en el empleo, los salarios y la productividad del sector

La investigación en grupo, los Semanarios y encuentros, confe-rencias y jornadas sobre la ma-teria sobre estas cuestiones y el rigor, han de servirnos de guía.

Tribunas VITRUVIO, 5

Convenio con la Fundación Príncipe de Girona

La Fundación Ramón Areces se ha incorporado como patrono de la Fundación Príncipe de Girona que, presidida por SAR el Príncipe de España, D. Felipe de Borbón tiene como objetivo principal la proyección de actividades sociales en su sentido más amplio, la promoción de la educación y la formación de la juventud, tanto en Cataluña como en el resto de España. Los Príncipes de Asturias y de Gerona, D. Felipe de Borbón y Dña. Letizia Ortiz, presidieron la constitución de la Fundación Príncipe de Girona, acompañados por los patronos fundadores.

Convenio con la Fundación Pasqual Maragall para la investigación sobre el Alzheimer

La Fundación Ramón Areces ha entrado a formar par-te del consejo de mecenazgo de la Fundación Pas-

qual Maragall, en calidad de patrono. El convenio entre ambas instituciones incluye una aportación económica

por parte de la Fundación Ramón Areces al Fondo Alzheimer Internacional para colaborar con la labor de promoción, fomento y apoyo a la investigación y desarrollo de la prevención y cura de las citadas enfermedades.

ACUERDOS Y CONVENIOS FIRMADOS EN 2009NOMBRAMIENTO

El profesor Corma se incorpora al Consejo Científico de la Fundación Ramón Areces

Avelino Corma, director del Ins-tituto de Tecnología Química de Valencia (CSIC-Universidad Poli-técnica de Valencia), el científico español más citado en los últimos 10 años en el área de Química, según la clasificación de la organi-zación In-Cites, se ha incorporado como vocal al Consejo Científico de la Fundación Ramón Areces.

El Consejo Científico es uno de los dos Consejos Asesores con los que cuenta la institución y enmarca su actividad en todos los ámbitos de actuación de la Fun-dación, es decir, la investigación y divulgación científicas, la forma-ción de capital humano y el apoyo a la cultura.

El profesor Corma ha publicado más de 700 artículos en revistas nacionales e internacionales, y es coautor de más de 100 patentes. En 2000, fue galardonado con el Premio Rey Jaime I. Es Doctor Honoris Causa por las Universi-dades de Utrecht, Tecnológica de Munich, UNED, Jaime I de Cas-tellón y Universitat de Valencia.

Page 62: Revista Fundación Ramón Areces. Número 1: Enero 2010

122 FRA 123

VITRUVIO, 5

Acuerdo con la Fundación Abbott para estudiar el impacto socioeconómico de las enfermedades reumáticas

La Fundación Ramón Areces participa junto con la Fundación Abbott en el proyecto Fit for Work que estudia el impacto so-cioeconómico de las enfermedades reumáticas en España y las posibles vías para contribuir a mejorar la productividad y la calidad de vida de estos pacientes.

Con esta iniciativa España se suma al proyecto que, a nivel europeo, dirige la Work Foundation en 24 países. En nuestro país, las enfermedades reumáticas (ER) supusieron en 2007 un gasto de 1.678 millones de euros en incapacidades laborales temporales (IT), de los cuales 433 millones de euros fueron sufragados a las empresas.

Convenio con la Fundación de la Universidad Carlos III para la difusión de la cultura portuguesa en España

La Fundación Ramón Areces y Fundación de la Universidad Carlos III han renovado el convenio de colaboración para pro-mover la difusión de la cultura portuguesa en España a través de la Cátedra Luis de Camõens de Estudios Portugueses. El ob-jetivo de estos estudios es dar a conocer la situación científica, académica, artística, económica y política de Portugal.

Con la presencia del Rector de la Universidad Carlos III de Ma-drid (UC3M), D. Daniel Peña Sánchez de Rivera; el director de la Fundación Ramón Areces, D. Raimundo Pérez-Hernández y Torra; el director de la Cátedra, D. Gregorio Peces- Barba Martínez y del Embajador de Portugal en España D. Álvaro José de Mendoça e Moura, se firmó un nuevo acuerdo, para de-sarrollar a lo largo de 2009, un amplio ciclo de actividades en el ámbito de la historia, la literatura, la cultura y la economía de Portugal. También se ha acordado promover otras iniciativas que favorezcan al desarrollo de las relaciones entre España y Portugal. Además, la Cátedra da apoyo a programas de Grado y Postgrado que tienen actividades relacionadas con el fomen-to del intercambio de estudiantes y actividades docentes en el ámbito de Brasil y Portugal.

Convenio con la Clínica Universidad de Navarra para financiar un ensayo clínico pionero con células progenitoras endoteliales

La Fundación Ramón Areces y la Clínica Universidad de Na-varra han firmado un convenio de colaboración por el cual la Fundación Ramón Areces financia el primer ensayo clínico que se realiza en España en el que se aplicará el tratamiento con células progenitoras endoteliales a enfermos hepáticos. En concreto, el ensayo tiene por objetivo probar la eficacia de las células progenitoras endoteliales (EPC) obtenidas de la médula ósea para el tratamiento de la cirrosis hepática.

El proyecto, que tendrá una duración de tres años, está dirigido por los doctores Jesús Prieto Valtueña y Jorge Quiroga Vila, di-rector científico y director del departamento de Medicina Inter-na de la Clínica Universidad de Navarra, respectivamente.

Convenio con la Real Academia Nacional de Medicina para la edición del Diccionario de Términos Médicos

La Fundación Ramón Areces contribuirá a la financiación, du-rante los dos próximos años, de los trabajos necesarios para la edición de un Diccionario de Términos Médicos en el que la Real Academia Nacional de Medicina lleva trabajando desde

Page 63: Revista Fundación Ramón Areces. Número 1: Enero 2010

124 FRA 125

hace una década, según el convenio firmado entre ambas ins-tituciones.

La primera edición del Diccionario estará concluida en dos años e incluirá las definiciones de cerca de 54.000 términos, así como las recomendaciones correctas de su uso, algo que representa una novedad respecto a otros diccionarios de estas características. En esta obra trabajan cerca de un centenar de académicos así como un equipo lexicográfico de personas que complementan el trabajo de la Academia.

Convenio con la Fundación General de la Universidad Autónoma de Madrid

La Fundación Ramón Areces patrocina durante el Curso 2009-2010, tres másters en Biociencias de la Universidad Autónoma de Madrid (UAM), que forman parte de un Programa Interfacul-tativo Oficial de Posgrado en Biociencias, según el Convenio firmado por el Director de la Fundación Ramón Areces, D. Rai-mundo Pérez-Hernández y Torra y la Directora General de la Fundación General de la UAM, Dª María Artola.El Programa Interfacultativo patrocinado comprende tres Más-teres: Biología Molecular y Celular, Biomedicina Molecular, y Biotecnología (y su Programa de Doctorado). Está organizado conjuntamente por el Departamento de Biología Molecular de la Facultad de Ciencias y el departamento de Bioquímica de la Facultad de Medicina de la Universidad Autónoma, y estará coordinado por los profesores D. Javier Díaz Nido y D. Luis del Peso Ovalle. El patrocinio de la Fundación Ramón Areces se destina principalmente a otorgar becas de Másteres “Fun-dación Ramón Areces” (20 becas de matrícula y tres becas de matrícula y mantenimiento para alumnos no residentes en la Comunidad de Madrid) con el objeto de atraer a los mejores estudiantes.

VITRUVIO, 5

Convenio con la Fundación Bertelsmann para impulsar la iniciativa social de los jóvenes

La Fundación Ramón Areces participó el pasado mes de no-viembre como institución colaboradora en el Congreso Anual de la Fundación Bertelsmann “Diálogo y Acción”, plataforma activa en pro del cambio social. El tema de la edición de este año ha sido “La participación juvenil, garantía de futuro”. Du-rante la celebración del Congreso se hizo entrega del Premio Fundación Bertelsmann, galardón que tiene como objetivo reconocer iniciativas españolas impulsadas por jóvenes. Con estos galardones, cuyo jurado estuvo presidido por el profesor D. Federico Mayor Zaragoza, presidente del Consejo Científico de la Fundación Ramón Areces se desea promover la cultu-ra emprendedora juvenil en España, apoyar iniciativas de Em-prendimiento Social Juvenil que contribuyan a la construcción de una sociedad más justa y solidaria, estimular el fomento de la cultura emprendedora juvenil, en cualquiera de sus modali-dades (social, empresarial...), reforzar y hacer visible el espíritu emprendedor de los jóvenes y su rol en la sociedad, hacer un reconocimiento público del valor, importancia e impacto del emprendimiento juvenil.

Page 64: Revista Fundación Ramón Areces. Número 1: Enero 2010

126 FRA 127

Convenio con la Fundación para el Progreso del Soft Computing

La Fundación Ramón Areces ha firmado un convenio de cola-boración con la Fundación para el Progreso del Soft Compu-ting con el objetivo de desarrollar actividades de formación y divulgación en el ámbito del Soft Computing que favorezcan la preparación de nuevos profesionales, la innovación tecno-lógica y la transferencia de tecnología en el ámbito del Análi-sis Inteligente de Datos. Mediante este acuerdo la Fundación Ramón Areces financia el MÁSTER UNIVERSITARIO EN SOFT COMPUTING AND INTELLIGENT DATA ANALYSIS, que orga-nizan la Fundación para el Progreso del Soft Computing y la Universidad de Oviedo, contribuyendo así a la formación de personal especializado, y al desarrollo de sus capacidades y habilidades, de acuerdo con el programa formativo del Máster.

Acuerdo con Casa Asia para desarrollo de un ciclo sobre Japón

La Fundación Ramón Areces ha alcanzado un acuerdo con Casa Asia, para la organización conjunta de ciclos de Confe-rencias. Ya ha comenzado un ciclo sobre Japón, con una con-ferencia que corrió a cargo del Dr. Kazuhito Yokoi , subdirec-tor del Instituto de Investigación de Sistemas de Inteligencia. Instituto Nacional de Ciencia y Tecnología Industrial Avanzada (AIST-CNRS), experto en robótica humanoide, celebrada en Madrid y Barcelona, en el mes de octubre. A lo largo de 2010 se completará el ciclo, mediante la celebración de otras con-ferencias, la siguiente tendrá lugar el próximo 2 de febrero, será pronunciada por Heizo Takenaka y llevará por título “La gestión de la crisis económica en Japón”.

Acuerdo con la Fundación Consejo España-India

La Fundación Ramón Areces se ha incorporado en calidad de patrono al Patronato de la Fundación Consejo España-India, institución que nace bajo los auspicios del Gobierno de España con el objetivo de fortalecer los lazos culturales, económicos y sociales con uno de los países de perspectivas más brillantes y esperanzadoras del panorama mundial. La Fundación Conse-jo España-India toma como modelo la exitosa experiencia de otras dos fundaciones ya en funcionamiento en Asia, como son las actualmente en vigor con China y Japón.

Convenio con Nature Publishing Group

La Fundación Ramón Areces y Nature Publishing Group Ibe-roamerica, han firmado un convenio de colaboración para el desarrollo de un Ciclo de Conferencias y debates en Ciencias en torno a un tema interés científico y de creciente interés so-cial como es la aplicación de la “Nanotecnología”. La Jornada, que se celebrará el 28 de enero de 2010, abordará los princi-pales campos de investigación y avances actuales en la nano-medicina o nanobiotecnología, en los nanomateriales, la na-noelectrónica y nanoenergía, nanoquímica, nanomagnetismo, nanofotónica y nanotubos. En el año 2009, ambas instituciones organizaron con notable éxito la jornada Pruebas genéticas: la era de los genomas personales.

VITRUVIO, 5

Casa Asia tiene el objetivo prioritario de promover y realizar proyectos y actividades que contribuyan a un mejor conoci-miento y al impulso de las relaciones entre España y los países de Asia y del Pacífico, especialmente, en el ámbito institucio-nal, económico, académico y cultural.

Page 65: Revista Fundación Ramón Areces. Número 1: Enero 2010

128 FRA 129

VITRUVIO, 5

79 postgraduados becados por la Fundación Ramón Areces

Setenta y nueve postgraduados españoles iniciaron el pasado mes de septiembre el Curso 2009-2010 en las mejores universi-dades del mundo con una beca de la Fundación Ramón Areces para ampliar estudios en las áreas de Ciencias de la Vida y la Materia y de Economía y Derecho de la Unión Europea. Entre los principales destinos de los adjudicatarios están las Universi-dades de Harvard, Stanford, Berkeley, Cambridge o el MIT.La Formación de Capital Humano es el capítulo al que anual-mente la institución dedica mayores recursos directos median-te el Programa de Becas para la Ampliación de Estudios en uni-versidades y centros de investigación de gran prestigio en el extranjero. Con este Programa, iniciado en 1986, se pretende que los jóvenes universitarios mejor preparados y con más mé-ritos dispongan de una oportunidad para su promoción.

ha apoyado de forma preferente aquellos proyectos que cuen-ten como responsables principales a investigadores españoles jóvenes, que no cuenten con abundantes recursos, sobre todo teniendo en cuenta que la Ayuda puede suponer un decidido impulso al desarrollo de sus investigaciones. En esta XV edi-ción del Concurso se han presentado un total de 433 trabajos de investigación procedentes de toda España, lo que representa un incremento del 131% respecto a los 187 proyectos presen-tados en la convocatoria anterior.

La Fundación Ramón Areces adjudica ayudas a 40 nuevos proyectos de investigación científica y técnica

La Fundación Ramón Areces adjudicará ayudas a un total de 40 nuevos proyectos de investigación correspondientes a la XV edición del Concurso Nacional de Ayudas a la Investigación Científica y Técnica convocado por la institución con el objeti-vo de contribuir a consolidar una sólida estructura científica y tecnológica en nuestro país. En esta convocatoria la Fundación financia proyectos sobre Biohidrógeno, Enfermedades raras y emergentes, Epigenética, Nuevos materiales biocompatibles, Acuicultura y Biotecnología para la alimentación funcional y

BECAS Y AYUDAS

Ayudas a la investigación en Economía

La Fundación Ramón Areces ha adjudicado en 2009 ayudas a ocho nuevos proyectos de investigación en Economía reali-zados por jóvenes investigadores menores de 40 años, corres-pondientes a la VIII edición del Concurso Nacional de Ayudas a la Investigación que aborden temas de Macroeconomía; Eco-nomía internacional; Economía pública; Economía de la salud; Economía laboral; Economía industrial y regulación y Distribu-ción Comercial.

Page 66: Revista Fundación Ramón Areces. Número 1: Enero 2010

130 FRA 131

VITRUVIO, 5

Alfonso Novales ingresa en la Real Academia de Ciencias Morales y Políticas

Alfonso Novales, profesor de Economía del Departamento de Economía Cuantitativa de la Universidad Complutense de Ma-

drid y asesor del Consejo de Ciencias Sociales de la Fundación Ramón Are-ces, ingresó el pasado mes de noviem-bre en la Real Academia de Ciencias Morales y Políticas con un discurso en el que analizó “Los datos y Modelos en el Análisis de Política Macroeconó-mica”. Novales, que ocupa la vacante de Enrique Fuentes Quintana, es Doc-tor en Economía por la Universidad de Minnesota (USA) y Doctor en Ciencias

Matemáticas por la Universidad del País Vasco.

La Fundación Ramón Areces participa en la Fundación Amigos de la Biblioteca Nacional de España

La Fundación Ramón Areces participa, como miembro funda-dor, en la FUNDACIóN AMIGOS DE LA BIBLIOTECA NACIO-NAL DE ESPAÑA que tiene por objeto “la promoción, estímulo, apoyo y desarrollo de cuantas acciones culturales, educativas y de otra índole tengan relación con la Biblioteca Nacional para ayudar a su misión y actividades, y para incrementar sus colec-ciones, su conocimiento, su difusión nacional e internacional y su integración en la sociedad”, según el estatuto fundacional.

Page 67: Revista Fundación Ramón Areces. Número 1: Enero 2010

132 FRA