imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/cn2.pdf · otra parte, las...

88
Revista semestral de los Centros de Investigación Cooperativa de Euskadi Tim Hunt Entrevista con el Premio Nobel de Fisiología o Medicina 2001 El cambio climático: ciencia, política y moral José Manuel Sánchez Ron ENTORNO CIC 25 aniversario de los Centros Tecnológicos Octubre 2007 nº2 Imagen molecular Mesa Redonda con Manuel Fuentes (CEIT), Germán Giménez (CAF), Carlos Redondo (IK4), Rogelio Pozo (Tecnalia) y Michael Schlicht (Fraunhofer) La herencia de una singular apuesta, Jon Azua Perspectiva para otros 25 años de liderazgo tecnológico, Carlos Cuerda

Upload: truongdat

Post on 01-Oct-2018

214 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

Revista semestral de los Centros de Investigación Cooperativa de Euskadi

Tim Hunt Entrevista con el Premio Nobel de Fisiología o Medicina 2001

El cambio climático: ciencia, política y moral

José Manuel Sánchez Ron

ENTO

RN

O C

IC25 aniversario de los Centros Tecnológicos

Octubre 2007 nº2

Imagen molecular

Mesa Redonda con Manuel Fuentes (CEIT), Germán Giménez (CAF), Carlos Redondo (IK4),

Rogelio Pozo (Tecnalia) y Michael Schlicht (Fraunhofer)

La herencia de una singular apuesta, Jon AzuaPerspectiva para otros 25 años de liderazgo tecnológico, Carlos Cuerda

Page 2: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO
Page 3: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

Contenidos

La imagen molecular, un ojo para lo invisible.

Robert Kypta, Group Leader en la Unidad de Biología Celular y Células Madre de CIC bioGUNE, entrevista al Premio Nobel de Fisiología o Medicina 2001, Tim Hunt.

José Manuel Sánchez Ron, catedrático de Historia de la Ciencia-UAM, diserta sobre el cambio climático desde las perspectivas de la ciencia, la política y la moral; y Enrique Zuazua, director de IMDEA-Matemáticas-UAM, nos explica las aplicaciones de las matemáticas en el ámbito aeronáutico y sus retos en el futuro.

Manuel Desco y Juan José Vaquero, del Hospital General Universitario Gregorio Marañón de Madrid, escriben sobre las posibilidades y aplicaciones de esta nueva disciplina. Félix M. Goñi habla de las imágenes de las moléculas biológicas. Miryam Asunción describe la Unidad de Imagen Molecular que está construyendo CIC biomaGUNE.

··· Especial sobre el 25 aniversario del decreto de creación de los Centros Tecnológicos en Euskadi. Mesa Redonda con Germán Giménez (CAF), Rogelio Pozo (Tecnalia), Carlos Redondo (IK4) y Michael Schlicht (Fraunhofer). ··· Artículos de Jon Azua y Carlos Cuerda. ··· Proyectos de investigación.

Margarita Salas, presidenta de la Fundación Severo Ochoa, hace un repaso de sus investigaciones pioneras en España junto a Eladio Viñuela sobre Biología Molecular.

Editorial 04 Entrevista 06

Divulgación 16

Investigación hoy 30

Entorno CIC 45

Científicos Ilustres 82

Page 4: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

La imagen molecular, un ojo para lo invisible

Durante muchos años los científicos hemos utilizado técnicas de ima-gen para ver lo que es invisible para el ojo humano. Los avances han sido espectaculares. La microscopía, que empezó a utilizarse en el siglo XVI, es hoy capaz de visualizar, identificar, seguir y manipular molécu-las individuales sobre superficies, en disolución o, incluso, dentro de una célula. En medicina, la obtención de imágenes mediante rayos X o por resonancia magnética ha permitido profundizar en el conocimiento del organismo y detectar enfermedades en un estadio temprano de su desarrollo. A pesar de ello, nuestras necesidades van mucho más allá de la tradicional imagen fotográfica. Las fronteras del conocimiento en áreas como la nanotecnología, el desarrollo de nuevos materiales, o la comprensión de la función celular en estados normales y patológicos demandan la visualización de la estructura molecular, la composición química y las interacciones moleculares en espacio y tiempo reales. En el campo de las ciencias biomédicas, la necesidad de observar a es-cala molecular los procesos biológicos in vivo en el organismo intacto ha tenido como consecuencia la aparición de un campo de investiga-ción, denominado imagen molecular, donde se fusionan los conceptos de la biología molecular con tecnologías no invasivas de imagen bio-médica. Utilizando esta aproximación, muchos de los ensayos original-mente establecidos para estudiar sistemas bioquímicos en soluciones homogéneas o en células aisladas pueden trasladarse a una situación in vivo, lo que permite demostrar o refutar hipótesis biomédicas en el organismo intacto aportando una visión holística del sistema biológico, frente a las visiones reduccionistas de la biología molecular clásica y de la bioquímica.

Aunque se ha progresado de modo importante en los últimos años, la imagen molecular está aún en su infancia. Es preciso que las tecnolo-gías de imagen alcancen mayor sensibilidad, mayor resolución tempo-ral y espacial, y sean capaces de proporcionar datos cuantitativos. Y es necesario profundizar en el diseño y la preparación de sondas y agentes de contraste selectivos que sean capaces de aportar información sobre varios procesos biológicos simultáneos evitando al mismo tiempo in-terferencias de señales inespecíficas. Las expectativas son grandes. En primer lugar, la posibilidad de obser-var procesos moleculares en el organismo intacto va a mejorar de modo importante la comprensión a escala molecular de fenómenos biológicos básicos, permitiendo estudiar, por ejemplo, sistemas receptores espe-cíficos o vías de transducción de señales en su contexto biológico. Por otra parte, las aberraciones estructurales o funcionales de los tejidos van siempre precedidas de acontecimientos moleculares y la imagen molecular puede dar información sobre marcadores moleculares como indicadores tempranos de un proceso patológico, mucho antes de que la transformación morfológica o fisiológica aparezca. Finalmente, la imagen molecular puede proporcionar una prueba directa de la vali-dez de un principio terapéutico, por ejemplo si una molécula inhibe una determinada enzima o si la inhibición de un receptor específico cancela la cascada de señalización correspondiente. Esto es particularmente importante en un área de tanto interés económico y tanta actualidad como es el desarrollo de medicamentos diseñados para interaccionar específicamente con dianas moleculares bien caracterizadas.CIC biomaGUNE, que tiene ya una considerable capacidad en el campo de la imagen química, pretende posicionarse en esta área y está constru-yendo una Unidad de Imagen Molecular que estará en funcionamiento en la segunda mitad del próximo año. Esta Unidad, junto a las Unidades de Nanomateriales Biofuncionales y de Biosuperficies, actualmente en funcionamiento, completará el perfil investigador del centro.

Manuel Martín Lomas,

Director Científico de CIC biomaGUNE

Edi

tori

al

Page 5: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

CONSEJO EDITORIAL

Eduardo AnituaPedro Miguel EtxenikeManuel FuentesFélix M. GoñiJoseba JaureguizarManuel Martín LomasJosé María PitarkeAna Zubiaga

DIRECTOR

José M Mato

REDACCIÓN / COORDINACIÓN

Iñaki GorostidiGarazi AndonegiIgor CampilloEgoitz EtxebesteJavier Urtasun

COLABORAN

José Manuel Sánchez RonEnrique ZuazuaManuel DescoJuan José VaqueroJon AzuaCarlos CuerdaMargarita Salas

DISEÑO Y MAQUETACIÓN

nu comunicación

REPORTAJE FOTOGRÁFICO

Xabier Aramburu

EDITA

Arista RR.PP.Portuetxe 24 · 20018 San Sebastián Tel.: 943 215177 · Fax: 943 215777 · [email protected]

EMPRESA COLABORADORA

Elhuyar Fundazioa

RESERVA PUBLICIDAD

[email protected]+34 943 32 69 66

IMPRIME

Reproducciones Igara S. Coop.

DEPÓSITO LEGAL

SS-1228/06

Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda

prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.

La decisión de establecer una instalación de imagen molecular de pri-mer nivel internacional en CIC biomaGUNE se tomó en los momentos iniciales de la definición de su proyecto científico. Su diseño se llevó a cabo a lo largo de los seis últimos meses de 2006, su construcción se ha iniciado en la segunda mitad de 2007 y su puesta en marcha está previs-ta para el verano de 2008. Tal y como se indica con mayor detalle en un artículo de este mismo número, el equipamiento de esta Unidad incluye la resonancia magnética de imagen (MRI) de 11,7 teslas con criosondas y sistemas de gradiente para diferentes aplicaciones, un ciclotrón, cé-lulas calientes y módulos de síntesis automatizados, la tomografía de emisión de positrones de alta resolución y alta sensibilidad (PET-CT para animal pequeño) y la tomografía computerizada de fotón único (SPECT-CT) de alta eficacia.La génesis y la localización de esta Unidad, en un centro cuya activi-dad principal se centra en la investigación en bionanoestructuras y procesos de autoensamblado, con un fuerte componente de química biológica y biofísica, hacen de ella una instalación singular y diferente de la mayoría de las actuales instalaciones europeas en este campo, generalmente establecidas en entornos hospitalarios o en laboratorios de investigación de grandes multinacionales farmacéuticas. Es de espe-rar que esta singularidad y el equipo selecto de investigadores interna-cionales que el centro está reclutando le permitan obtener resultados originales e innovadores que redunden en beneficio de la sociedad en un plazo razonable.La Unidad de Imagen Molecular de CIC biomaGUNE, junto con la po-tente Unidad de Biología Estructural recientemente inaugurada en CIC bioGUNE y las importantes instalaciones y equipamiento previstos para CIC nanoGUNE, constituyen una infraestructura científico-técni-ca de gran envergadura y primerísimo nivel que va a permitir abordar con solvencia y en profundidad temas multidisciplinares en la frontera del conocimiento.

Page 6: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

6 CICNetwork

Page 7: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

7CICNetwork

Tim Hunt, premio Nobel de Fisiología o Medicina 2001, entrevistado por Robert Kypta

Tim Hunt. Premio Nobel de Fisiología o Medicina (2001)

junto con Leland Hartwell y Sir Paul Nurse, así como inves-

tigador principal de ICRF Clare Hall Laboratories. Premio

Abraham White al merito científico de la Universidad George

Washington. Miembro de la Academia Nacional de Ciencias

de EEUU desde 1999 y del Royal Society desde 1991.

Robert Kypta. Group Leader en la Unidad de Biología Celular y

Células Madre de CIC bioGUNE.

hubiera estado ahí. Pero no recuerdo haber estudiado ese tipo de cosas en el colegio, ni siquiera en secundaria. En el colegio lo más importante es enseñar, da igual el qué, siempre que sea interesante para alguien. Lo que quiero decir es que en secundaria llega un momento en que tienes que elegir. Inglés o biología. Y, aunque me dio pena dejar el inglés, tenía clarísimo que iba a estudiar biología y química. Supongo que aquellos tiempos fueron una especie de ‘punto culminante’ en la bioquímica, aunque en el Oxford de 1950, donde yo crecí, se considerara un tema muy moderno.Oxford no era un lugar muy científico, aún cuando algunos de los padres (de los alumnos de la escuela) trabajaran en el departamento de bioquímica, y un año la universidad impartiera un curso complementario de bioquímica. Puede que eso fuera lo que, finalmente, hizo que me dedicara a la bioquímica. Fue muy emocionante, cuando una vez en

en este ámbito, concede una entrevista en exclusiva para CIC Network. En su extensa charla con Robert Kypta, Group Leader en la Unidad de Biología Celular y Células Madre de CIC bioGUNE, Hunt nos desvela detalles sobre sus descubrimientos, sobre su vida y sobre el estado actual de la ciencia y del negocio que gira alrededor.

Me gustaría empezar hablando un poco sobre su infancia. Supongo que, en aquellos tiempos, sería importante tener cierta sensibilidad hacia el lenguaje para ejercer la biología, ya que el lenguaje es fundamental en la descripción de proce-sos biológicos.Lo curioso es que entonces no dábamos mucha química; eso vino más tarde. Yo tenía 10 años cuando Watson y Crick hicieron su famoso descubrimiento, y me pregunto cuándo fui consciente, por primera vez, del DNA y de su importancia, y, francamente, no podría decirlo, es como si siempre

“La ciencia es un negocio basado en la ignorancia”

La biología celular adquirió una nueva dimensión tras los descubrimientos realizados sobre la función de la ciclina en la regulación del ciclo celular. Tim Hunt, galardonado en 2001 con el Premio Nobel de Fisiología o Medicina por su trabajo

Page 8: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

8 CICNetwork

Entrevista - Tim Hunt

Cambridge, se descubrió el alosterismo, y, por fin, empezaron a aclararse los principios del control metabólico.

Y por ello se quedó en Cambridge a hacer su doctorado...Sí, y me quedé con mi supervisor, Asher Korner, que me gustaba mucho. Dirigía un gran laboratorio; debíamos ser unos 10 estudiantes de doctorado. Admitía dos o tres nuevos todos los años. Y no te decía qué hacer, simplemente, te animaba a buscar algo interesante sobre lo que trabajar. Afortunadamente para mí, Louis Reichardt estuvo allí un año, antes de irse a Stanford. Había investigado los reticulocitos de los conejos en Harvard, donde había sido estudiante universitario, y sabía cómo hacerlos. Estaba intentando investigar el problema que, finalmente, resolvimos mis compañeros y yo. Intentaba (sin mucho éxito) conseguir hemo para estimular la síntesis de la globina, muy por delante de su tiempo. Nosotros no trabajamos en ello hasta 4 ó 5 años más tarde, e, incluso entonces, fue más o menos por casualidad.Toda mi experiencia como científico, de principio a fin, ha ocurrido por casualidad. Ya sabes, cuando queríamos hacer algo, no podíamos, pero más tarde ocurría algo que nos permitía hacerlo. Creo que eso es verdad. La biología es demasiado complicada, de verdad, para tener un enfoque racional, porque la vida puede actuar de muchas formas diferentes. Por eso es virtualmente imposible averiguar de qué manera funciona realmente si no se hace un montón de experimentos.

Por lo tanto, en su laboratorio, ¿us-ted anima a los doctorandos a que elijan su propio proyecto?Sí, bueno, normalmente se empieza con algo y se espera que encuentren algo interesante. Lo mismo que en los postdoctorados. Todos tienen que encontrar su propio camino. Yo sería un inútil dirigiendo un laboratorio que produjera publicaciones con 70 autores, incluso con una docena, porque eso implicaría una inteligencia y unos planes superiores. Si mi experiencia me dice que tu plan fallará el primer día, entonces ¿para qué planear?

Por supuesto, muchos laboratorios van en esa dirección.Sí, y supongo que cada vez más. Depende de lo que intentas hacer. Si tienes un gran proyecto de ingeniería, como la secuenciación del genoma humano, tienes que estar organizado, decidir cómo hacerlo.

¿Tiene algún consejo para los estu-diantes que van a empezar su doctorado ahora?Bueno, me dan un poco de pena los que van a empezar su doctorado hoy en día, porque cuando yo empecé sabíamos tan poco que se podía plantear casi cualquier pregunta, sin que se conociera su respuesta. Cuando éramos estudiantes, doctorandos en Cambridge, nos animaban mucho a intentar pensar, por decirlo de alguna manera, cómo diseñaríamos las cosas si fuéramos Dios. Nos enseñaban a ser muy críticos, de verdad —algo bastante interesante— y se nos decía explícitamente que no leyéramos revisiones, pero que contáramos con la literatura básica. Nuestros profesores eran muy progresistas. No sé de dónde venía eso, pero me impresionó mucho, había que leer las publicaciones para saber quiénes eran los autores, ¿sabes?, en quién se podía confiar y en quién no, quién era claro y quién no. Y cuando era estudiante me gustaba mucho leer todos aquellos Proceedings of the Cold Spring Harbor Symposia, porque solían incluir discusiones al final de las publicaciones y podías saber si era un trabajo interesante y si había provocado mucha discusión. Las discusiones eran a menudo mucho más esclarecedoras que los propios trabajos; eran discusiones de verdad y aclaraban puntos poco claros.Todo aquello ha acabado, más o menos. Puede que el Novartis Foundation Symposia incluya todavía alguna que otra discusión al final. Pero, hoy en día, ya no se discute tanto, porque todo está más que establecido de antemano. Supongo que me gusta lo desconocido: la gente habla de la economía basada en el conocimiento, pero para mí, la ciencia es un negocio basado en la ignorancia.

“Toda mi experiencia como científico, de principio a fin, ha ocurrido por casualidad”

Las ciclinas Sir Richard Timothy Hunt recibió el Premio Nobel de Fisiología o Medi-cina junto con Leland Hartwell y Sir Paul Nurse, por sus descubrimientos sobre la función de las ciclinas y las kinasas ciclina-dependientes en la re-gulación del ciclo celular.Hunt hizo su descubrimiento más importante en el Marine Biological Laboratory (Woods Hole, Massachu-setts), en verano de 1982. Descubrió las proteínas ciclinas cuando trabajaba con huevas de erizos de mar (Arbacia punctulata), que usaba como organis-mo modelo. Vio que las ciclinas empe-zaban a sintetizarse tras fertilizar las huevas, su nivel aumentaba en la inter-fase y disminuía rápidamente durante la mitosis de cada división celular. También vio que las ciclinas están pre-sentes en las células de los vertebrados, donde también regulan el ciclo celular. Hunt y otros demostraron que las cicli-nas se unían a y activaban una serie de proteínas kinasas, hoy llamadas kina-sas ciclina-dependientes, y una de ellas ha sido identificada como reguladora fundamental del ciclo celular.En 1990 empezó a trabajar en los la-boratorios Clare Hall del Cancer Re-search UK London Research Institute. Es miembro del Royal Society desde 2001 y fue nombrado caballero en 2006. Es coautor del popular libro de texto “Molecular Biology of the Cell: A Problems Approach”.

R.Kypta

Arbacia Punctulata

Page 9: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

9CICNetwork

Entrevista - Tim Hunt

Puedes hacer cuantas preguntas quieras, sin conocer la respuesta; nunca sabes cuál es la respuesta hasta que das con ella, y eso sólo se consigue haciendo experimentos. No me interesa la biología teórica, me parece que es una pérdida de tiempo, y soy bastante receloso con todas las “-ómicas”; vienen a ser más de lo mismo, no hacen más que generar listas de cosas, y luego tienes que inventar historias que les den sentido. Es más, uno de los papeles de la ciencia como forma de diversión es contar una buena historia, y eso es muy emocionante. Escuchar a alguien relatar una bonita historia, explicando algo que siempre has querido saber, es magnífico.

Eso es cada vez menos frecuente.Sí, se está volviendo algo realmente excepcional. Sin embargo hubo un tiempo en que casi todas las piedras que levantabas escondían algo interesante o inusual debajo, y eso ya no ocurre.

Tanto usted como sus antiguos alum-nos y doctores han pasado algún tiem-po en los EEUU. ¿Es algo que todavía recomienda?En realidad, pienso que es bastante importante. Al menos, lo fue para mí. Y es interesante, porque los vientos de la política soplan en direcciones concretas. Yo crecí en un entorno muy pro-americano.Cuando fui por primera vez, el ambiente era muy optimista, pero después se ensombreció considerablemente. De hecho, trabajé allí como doctor durante la guerra de Vietnam, y muchos de mis amigos vivían bajo la amenaza de ser enviados al frente. Después de eso, se le tenía tanta antipatía a Nixon en Inglaterra y el mundo desaprobaba tanto la guerra de Vietnam, que la siguiente generación de estudiantes, como, por ejemplo, Paul Nurse, ya no fueron a los Estados Unidos. Conozco varias personas que decidieron deliberadamente no ir a América, porque desaprobaban el régimen. Siempre he creído que salían perdiendo, porque el sistema científico es increíblemente liberal y bastante diferente. Creo que es importante ir a trabajar a EEUU, porque, te guste o no, América es líder en ciencia, y gasta más dinero (varios órdenes de magnitud más) en ciencia que nosotros.

¿Cree que esa es la diferencia? ¿el dinero que gastan?, ¿o tienen otro punto de vista sobre la ciencia?No, la actitud también es diferente. Creen en la ciencia de manera muy sensata. Les han convencido, sobre todo el NIH (National Institute of Health-Instituto Nacional de la Salud), de que el dinero gastado en investigación básica biológica realmente merece la pena, porque ése es el camino del progreso. Esas diferencias culturales también son difíciles de entender. Viviendo en Nueva York me llevó mucho tiempo comprender en su totalidad lo diferentes que son la cultura americana y la europea. Creo que hay una profunda división, que no se aprecia a primera vista. Lo que más me gustó de América, y me gusta todavía, es esa actitud entusiasta de ‘¡podemos hacerlo!’. Si dan con un problema, la gente está predispuesta a decir ‘bien, veamos cómo podemos arreglarlo’. En Inglaterra, en cambio, la gente aguanta la respiración y dice ‘oooooh, eso no se puede hacer’.

Aún así creo que fui afortunado, porque no tuve ninguna supervisión en el postdoctorado, me controlaron menos, incluso, que cuando hice el doctorado. Fue una época muy interesante, porque resultó que Irving London, el tipo para el que trabajaba y que, de hecho, era el director de la escuela médica, tenía un interés enorme en el control de la síntesis de la hemoglobina. Como estaba muy implicado en dirigir la escuela médica, yo era, junto con un técnico, la única persona en el laboratorio. Así que podía hacer lo que más me apeteciera. Como además tenía un gran presupuesto, el dinero no era problema. Sólo teníamos un problema: ¿Cómo estimula el hemo la síntesis de la globina? Hice uno o dos descubrimientos importantes para la solución final; pero, volviendo atrás, pienso que fue una suerte que me dejaran solo para poder seguir lo que me dictaba mi intuición y descubrir cosas pequeñas. ¿Sabes?, las cosas pequeñas a veces llevan a cosas más grandes.

“Hubo un tiempo en que casi todas las piedras que levantabas escondían algo interesante o inusual, y eso ya no ocurre”

Page 10: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

10 CICNetwork

Entrevista - Tim Hunt

Después de trabajar con el lisado de reticulocitos de conejo, empezó a tra-bajar con almejas y huevas de erizos de mar. ¿Puede decirnos cómo surgió?Uno de los problemas de ser un científico es que, a nada que seas bueno, resuelves problemas. Y cuando has resuelto un problema, ya no hay nada sobre lo que trabajar. Eso da bastante miedo. Así que habíamos solucionado, para mi satisfacción, el problema del hemo y de la doble cadena del RNA al descubrir las proteina quinasas que regulan la síntesis de proteínas. Sabía que las cosas iban a ser difíciles y lentas a partir de ese momento, porque teníamos que purificar y clonar cosas, y yo no sabía cómo hacerlo. También estaba muy interesado en el control global de la síntesis de proteínas, cosa que sigue siendo un importante problema sin resolver, desde mi punto de vista. Así que, como no tuve éxito, empecé a pensar en lo que sabía sobre el control de la síntesis de proteínas en la fertilización de huevas de erizos de mar, y parecía que no había mucha gente trabajando en ello. Así que me las arreglé, en un golpe de suerte, para dar un curso de verano en Woods Hole. Conocí a Tom Humphreys que trabajaba con huevas de erizos de mar y buscaba a alguien para dar clases en el curso que iba a dirigir el verano siguiente. Eso me dio la oportunidad de conseguir huevas. Luego empecé a trabajar en el problema de cómo se activa la síntesis de proteínas en la fertilización, pero resultó ser muy difícil.

¿En cuántos sitios del mundo se tra-bajaba en ello?Bueno, mi amigo Tom Humphreys, el director del curso, era casi el único. Quizás una o dos personas más. Tenía que haberlas, porque Matt Winkler trabajaba en ello con Rick Steinhardt y descubrió que el pH del tampón era importantísimo. El verdadero problema era que las huevas de erizo de mar sólo están disponibles durante 6 semanas al año por especie, y al principio

son bastante difíciles de encontrar, lo mismo que al final, así que sólo durante una o dos semanas abundan. Cada año volvías pensando que habías resuelto el problema, y cada año, tras un experimento o dos, descubrías que sabías tan poco como antes y que tenías que esperar otro año. Esta forma de investigar es muy poco satisfactoria. Así que tuve la increíble suerte de que el famoso experimento ganador del premio Nobel tratara precisamente en fertilizar huevas y utilizar un trozo de gel unidimensional, cosa que cualquiera hubiera podido haber hecho en los 10 años anteriores. Así que, ¿porqué no lo hicieron? Porque muy poca gente estaba trabajando en ello y era un

experimento muy tonto, muy simple. Así que tuve la gran suerte de ver desaparecer esta proteína. Esa suerte cambió mi vida, porque supe de inmediato que había hecho el descubrimiento más importante de mi carrera. Fue un descubrimiento excepcional, porque era algo tan evidente... Había visto algo que pedía una explicación. Pero también proponía explicaciones. Creía que hacían falta 6 semanas desde que le empiezas a seguir la pista a algo hasta que entiendes lo que está pasando para poder publicar los experimentos. Pero, en este caso, sólo había un experimento. Eso era todo. Exagero un poco, pero no mucho.El verdadero problema era comprobar si era cierto. Estaba muy nervioso al volver el año siguiente, porque había tenido que esperar todo un año para repetir el experimento. Así que el verano siguiente volvimos a Woods Hole y, afortunadamente, la observación inicial fue buena y repetible. Y eso fue estupendo. En cierta manera, tenía que serlo, porque las primeras observaciones las hicimos en huevas de erizo de mar, pero más adelante, en el primer verano que trabajamos con ciclinas, pensamos que podíamos probar con almejas...

La temporada de almejas es más larga...Sí, la temporada de almejas es más larga, y, si las mantienes a baja temperatura, no ponen huevos. Pero todos los años fallaba el frigorífico de las almejas. Era como si fuera deliberado, para que la gente pudiera irse a casa. Sea como sea, miramos dentro de las huevas fertilizadas de las almejas, y vimos que ocurría exactamente lo mismo, lo cual es extraordinario. Porque las almejas, que son moluscos, y los equinodermos están muy distanciados en el árbol evolutivo, así que si estos dos lo hacían, podía que fuera algo universal, bien conservado.Pero sigue habiendo un problema. Tanto los unos como los otros son invertebrados marinos, así que uno podría pensar que eso no ocurría en humanos, o, quizás, se limitaba a huevos y embriones tempranos. Así que echamos un vistazo a las huevas de rana, y no pudimos ver nada. Pero eso fue una mera incompetencia por nuestra parte. En aquella época, las ranas eran más difíciles

“Creo que es importante ir a trabajar a EEUU, porque, guste o no, América es líder en ciencia y gasta más dinero”

Page 11: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

11CICNetwork

Entrevista - Tim Hunt

funcionan las cosas, de forma muy ingenua.Así que fue genial dejar la genética a los genetistas. Luego fue divertido converger las dos partes, los genetistas y los bioquímicos, mucho más que en cualquier otro campo. Esta especie de confluencia de fisiólogos y bioquímicos y genetistas, con bastante antipatía mutua y falta de comprensión para empezar, dio fuerza a las bases, al menos entre los pioneros, cosa que pienso que no se ha conseguido desde entonces, porque mucha gente da estas cosas por supuestas. Creo que es importante saber donde has puesto los pies.

¿Cuánto tiempo pasó desde su ‘mo-mento Eureka’ hasta que descubrió el gen de la ciclina?Bueno, hizo falta bastante tiempo para clonar el maldito gen. Luego ocurrió algo gracioso, porque el gen de la ciclina ya había sido identificado, y se le había llamado Cdc13 en S. pombe (levadura de fisión), creo que por Kim Nasmyth, en su tesis doctoral. Pero no sabían nada sobre ello. Existe una historia muy conocida sobre cómo secuenció Bob Booher el gen en el laboratorio de David Beach, y cómo introdujeron la cadena equivocada en la base de datos; así que no vieron la homología con la ciclina de la almeja, que Joan Ruderman había clonado. De hecho, mi amigo Eric Rosenthal ya había clonado la ciclina A de la almeja antes de saber que era una ciclina; la había clonado porque era una proteína regulada en la traducción. La única forma de clonarlas a partir de almejas y de erizos de mar, era traduciéndolas y haciendo una especie de selección antisentido o de mensaje. Era algo bastante tedioso, laborioso y exasperante, que nos llevó mucho tiempo. Cuando hablo de nosotros me refiero también a Jon Pines y Jeremy Minshull, dos estudiantes de doctorado. Nos enseñamos a nosotros mismos técnicas de DNA recombinante. Podíamos haberlo hecho mejor, ¡creo que nos hubiera servido de ayuda asistir a algún curso!Vimos la ciclina original en 1982, y creo que clonamos la ciclina B del erizo de mar y obtuvimos su secuenciación en navidades de 1987. La verdad es que tardamos bastante. Y, luego, el gran acontecimiento, la confluencia de la genética y la bioquímica,

de conseguir que los erizos de mar, porque necesitan tanques y sistemas de purificación de agua, y no teníamos nada de eso. Así que echamos un vistazo, pero no vimos nada.Después clonamos las ciclinas de rana y volvimos a los oocitos, y lo hicimos correctamente.

En ese momento empezó a hablar so-bre los resultados. ¿Cuál fue la reacción de la comunidad científica?Todos fueron bastante escépticos. Supongo que yo había sido un poco exagerado y eufórico con el tema, y creo que, de alguna manera, no lo expliqué bien, porque para mí era evidente lo que ocurría. Pero pienso que a otra gente le pareció demasiado sencillo, y también creo que no estaban tan familiarizados como yo con los trabajos publicados, y que no habían pensado sobre ello tanto como yo. Tuve suerte, porque John Gerhart vino a Woods Hole en 1979 y habló sobre sus esfuerzos para desentrañar el MPF (maturation-promoting factor - factor promotor de la maduración), y nos hizo un

maravilloso relato sobre los antecedentes del MPF y todo lo que sabía sobre ello. Así que tuve el privilegio de disfrutar de una exposición muy clara de lo que yo ya suponía. Fui muy consciente de la importancia de todo lo expuesto. Fue extraordinariamente útil. Supongo que reflexioné más sobre el ciclo celular.Era un caso interesante. El control del ciclo celular era importantísimo, fundamental, básico para la biología, pero nadie había visto cómo se podía entrar en materia, excepto gente como Lee Hartwell, que fue un verdadero pionero, y Paul Nurse más tarde, que hicieron una aproximación puramente genética. El problema de la genética es que te dice cuáles son los actores, pero no te dice como actúan juntos. Es bastante formal, no suficientemente fisiológico, y mi formación y aptitudes eran diferentes. Me gusta entender cómo

“El problema de la genética es que te dice cuáles son los actores, pero no te dice cómo actúan”

Page 12: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

12 CICNetwork

Entrevista - Tim Hunt

se produjo entre la primavera y el verano de 1988. Se celebraron un par de reuniones clave en las que se planteó claramente el problema. Una de las reuniones tuvo lugar en primavera, en el Banbury Center de Cold Spring Harbor, y la otra en Roscoff, Francia, en otoño. Me acusaron de indiscreto; y soy indiscreto, porque me gusta tratar los temas abiertamente, alzar la palabra y divulgar las cosas. Pero yo no conté ningún secreto, era más que evidente lo que estaba pasando, ya habían hablado de ello en público.

¿En esa época era más fácil que ahora hablar sobre un trabajo no publicado?Bueno, no sé si era más fácil, pero lo hicimos. Quiero decir que todavía lo hago. Normalmente suele ser tan difícil hacer que las cosas cobren sentido, que si no lo discutes con alguien tienes muchas posibilidades de hacerlo mal; si no de hacerlo, de enfatizarlo mal. Para mí la emoción de la caza es una gran satisfacción, estar atento y, de repente, ver que lo que has visto cobra sentido. Pero para eso necesitas otra gente.Hace un par de años hubo una bonita celebración en Madrid, en el centenario del nacimiento de Severo Ochoa. Uno de los ponentes fue Marshall Nirenberg (Premio Nobel de Fisiología o Medicina, 1968), que habló de cuando él y Ochoa fueron competidores feroces. Cada uno de ellos solía publicar un artículo cada, aproximadamente, seis semanas en el PNAS, explicando lo que era el código genético. Nirenberg habló con mucho afecto de esta rivalidad intensa, que, al final, ganó él mismo. Hay este tipo de unión entre rivales feroces. Ese tipo de relación tuve yo con mi anterior asesor de postdoctorado, y con varias personas en el campo del ciclo celular. Unas pocas personas a las que temes de verdad porque tienen muchas posibilidades de llegar antes que tú. Creo que esta rivalidad establece una red de relaciones, y que afianza un gran respeto y comprensión mutua. Porque, en general, en cualquier tipo de iniciativa científica, hay sólo un puñado de gente, en algún sitio del mundo, que realmente conoce y se preocupa por el problema concreto en el que estás trabajando; a menos que se trate del p53 (el famoso oncogén), en cuyo caso serán miles.

Para terminar con la historia de la ciclina. Hoy en día se han clonado varias ciclinas más. ¿Qué están haciendo?Bueno, todavía quedan muchas cosas por hacer, y es una lástima. Por ejemplo, la ciclina G es una ciclina producida por el estrés, y el único grupo que trabaja en ello dice que es la subunidad de activación de una proteína fosfato, y no de una proteína quinasa. Pero no sé si será cierto.Uno de los problemas de hoy en día es que si publicas algo y luego alguien lo confirma, le dicen que no se puede publicar porque es algo que ya conocemos. Yo pienso que eso es lamentable, porque la confirmación es necesaria. Y también está la ciclina F, que no tiene un asociado conocido, y que, sin embargo, es un gen esencial en los ratones. Se clonó el año pasado, siguiendo un procedimiento muy especial.Así que todavía quedan muchas preguntas. Y eso es lo curioso... Por ejemplo, hay algo que sabemos desde 1985 —que la ciclina A siempre desaparece antes que la ciclina B— y todavía estamos intentando explicar cómo y por qué ocurre.

¿Ocurre en todas las especies?Sí, eso creo. Primero lo vimos en las almejas y también ocurre en humanos. Ocurre en todas partes. Los últimos trabajos han provocado que los capítulos sobre el ciclo celular de los libros de texto se hayan tenido que reescribir. Hay muchas sorpresas. Sigo creyendo que no entendemos bien qué es lo que programa el comienzo de la mitosis. Y es curioso, porque pienso que los pioneros lo hicieron realmente bien, y que, posteriormente, cuando se completaron las piezas, se obtuvo una imagen muy detallada; pero en cuanto a la comprensión real, todavía falta algo. No sé bien qué puede ser, y no se está haciendo ningún trabajo sobre ello, porque no está claro que los experimentos que se hagan puedan arrojar alguna luz.

Pero hay muchas preguntas que siempre he querido hacer. Por ejemplo, hemos empezado a trabajar con las fosfatasas. Esto es algo que siempre he querido hacer porque siempre me ha parecido que no basta con activar la proteína quinasa y con fosforilar muchas proteínas, para que la célula entre en el proceso de mitosis. También hay que inhibir su desfosforilación, porque si no, no puedes hacer que se fosforilen completamente. Hace aproximadamente un año tropezamos por casualidad con el hecho de que, en realidad, estas fosfatasas están desactivadas y nadie, ningún teórico, había dicho que hubiera que estudiar eso, y la gente que trabajaba con fosfatasas mitóticas no lo había descubierto. De hecho, la única publicación que trataba este tema lo hacía mal, justo al revés, probablemente porque no habían hecho bien el ensayo. Es sorprendente cómo cada cierto tiempo se puede hacer una puntualización que aclara algo que creías que estaba más que resuelto. Si indagas en la literatura sobre el ciclo celular, si tecleas ‘ciclo celular’ en PubMed, encontrarás miles de publicaciones; si tecleas ciclina puede que des con 25.000. ¿Cómo es posible dar sentido a 25.000 publicaciones? ¿Cómo puedes saber cuáles son realmente ciertas, cuáles son realmente relevantes, y cuáles no son más que repeticiones? No te queda más remedio que leer revisiones; y las revisiones están llenas de prejuicios y suposiciones sin probar. Muchas revisiones no son más que copias de revisiones anteriores.Yo sólo he escrito unas dos revisiones en mi vida, ambas muy cortas. No entiendo cómo la gente pierde tanto tiempo escribiendolas. Es como escribir redacciones en el colegio, y eso era algo que odiaba.

¿La investigación que se está lle-vando a cabo en estos momentos en su laboratorio es, sobre todo, sobre esas fosfatasas?Bueno, tengo un estudiante de postdoctorado, y nos divertimos intentando comprender el papel de las fosfatasas y la forma en que se regulan; otros se están dedicando más a los sustratos de las quinasas, un problema difícil. Es decir, todos saben que el citoesqueleto de tubulina se reorganiza totalmente durante la mitosis

“Me acusaron de indiscreto, porque me gusta tratar los temas abiertamente, alzar la palabra y divulgar las cosas”

Page 13: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

13CICNetwork

Entrevista - Tim Hunt

sus componentes ni qué hacen o cuál es su función. Probablemente será un problema muy difícil, y mucho más complicado de lo que pudiera parecer a simple vista.

¿Qué enfoque habría que hacer en su opinión?Bueno, creo que hay que desglosarlo; se necesitan muchos ensayos para ello, y el problema es que la genética de las levaduras no ayuda mucho, porque los ejes de las levaduras son mucho más sencillos que los de

los organismos superiores. Puede que sirva la genética de la Drosophila (mosca de la fruta). Además muchas cosas no se manifiestan, la redundancia es el gran enemigo de las claras respuestas genéticas, y también la esencialidad. Es estupendo obtener información, pero es muy difícil lograrlo, y no se puede dar por supuesto que se consiga.

Ahora me gustaría hacerle algunas preguntas generales sobre los objetivos de la ciencia. ¿Qué opina sobre la forma en que las universidades buscan explo-tar comercialmente las investigaciones académicas? ¿Ha notado algún cambio en la forma de investigar a consecuencia de ello?

Es una pregunta interesante e importante. Me gustan las universidades por la importancia que tienen la enseñanza y el progreso de la investigación, pero debo admitir que no he ejercido desde hace tiempo. En el departamento de bioquímica solíamos tener un grupo trabajando en las toxinas de insectos que hoy día se usan en plantas recombinantes que las utilizan para ser resistentes ante insectos depredadores. Llegaron a un punto en que cuando tenían que impartir un seminario no podían darlo ellos, porque al hablar de su trabajo ponían en peligro una solicitud de patente. Eso me molestaba mucho, porque, si ese fuera el caso, el trabajo no debería haberse hecho en un departamento universitario, porque la libertad académica y de expresión y la libertad de informar son fundamentales. No tengo nada que objetar a que la gente gane dinero con sus descubrimientos. Tampoco tengo nada que decir a la gente que piensa que la investigación básica es demasiado dura, incierta y mal remunerada, y decide crear empresas. O que tienen grandes aptitudes a explotar en el mundo empresarial. No tengo ningún problema con todo eso, pero pienso que deberían permanecer dentro de los límites empresariales. Y tampoco tengo nada que objetar a que la gente haga de asesor; yo, por mi parte, lo hago muy pocas veces, porque no soy bueno como asesor, pero conozco gente a la que le parece muy gratificante. Creo que está bien. Y puedes jurar que guardarás el secreto.

y que luego se ensambla el eje mitótico. ¿Pero cómo se explica el ensamblaje del eje mitótico? Se lo pregunté a mi amigo Eric Karsenti y me dijo, “no tenemos ni idea”. Es increíble. Han pasado 25 años desde que se enunció el principio básico, y todo el mundo ha trabajado durante años en los ejes de marras y en un montón de cosas interesantes relacionadas con ellos, pero nadie sabe lo fundamental: qué es lo que hace a la célula y al citoesqueleto pasar del estado A al estado B.

Hay cosas que se pueden usar para provocar ese cambio, como drogas...Sí, pero no llevan a ningún sitio, como las drogas que detienen el ensamblaje de la tubulina. Eso es hacer trampa. Además, no son tantas las que bloquean el ensamblaje del eje mitótico. Muchos lo congelan cuando ya ha sido ensamblado. Así que nunca se sabe. Puede que la respuesta sea simple, pero lo más probable es que sea más bien complicada, y yo creo que ese es el problema de las quinasas. Pocas veces suele ser tan claro como parece, suele ser más bien difuso. No es que simplemente se fosforile el residuo y luego se pegue, hace falta una combinación de fosforilaciones.Y ahí es donde todas las “-ómicas” suelen fallar. Cuando se trata de algo tan complicado como el eje mitótico, en el que los dos extremos de las fibras tienen una estructura muy complicada (cinetocoro y centrosoma), nadie entiende

“El nacionalismo es el gran enemigo de la excelencia en la ciencia”

Page 14: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

14 CICNetwork

Entrevista - Tim Hunt

Cuando fui a empresas farmacéuticas (una o dos veces) que trabajaban con el RNA de doble cadena (herramienta importante para la inducción del interferón), las conversaciones con la gente de la empresa fueron peculiares, porque no te decían porqué estaban interesados en ciertas cosas; y eso tampoco me gustó. Las barreras de comunicación ofenden mi sentido de cómo deberían de ser las cosas.

Otra de las cosas que han cambiado con los años es lo siguiente: se valora continuamente la productividad de la investigación de los científicos mediante el impacto en publicaciones, subvencio-nes, etc. ¿Hay todavía alguien que tenga una carrera científica y que disfrute del placer de centrarse en la investigación?Supongo que tal vez sólo si has ganado el premio Nobel (se ríe). Me temo que siempre se me ha ido la fuerza por la boca. He confiado en que la gente fuera amable y, por supuesto, cuando empezamos, no pensamos en la importancia de publicar; nunca he pensado en esos términos. Pero, por supuesto, te alegras cuando te aceptan una publicación.Por otra parte, y por alguna extraña razón, publicamos muchos artículos en Nature, y no sé ni por qué ni cómo. No creo que hoy en día se hubieran publicado. Pero supongo que era porque estábamos haciendo cosas curiosas, interesantes. Hubo una publicación, mi favorita, en la que descubrimos cómo hacía la proteína de cubierta el virus del mosaico del tabaco. Había sido un tema de controversia durante años, y lo zanjamos de una vez por todas. Fue una colaboración muy agradable de tres o cuatro personas y tres laboratorios diferentes. Pero no se trataba de hacer una evaluación. Al menos yo no era consciente de ello, como lo somos hoy en día. Quizás fuera un ingenuo, pero pienso que el clima ha cambiado, y no me preocupa mucho, aunque todos tengamos que aceptarlo de una manera o de otra. Eso creo.

¿Eso ocurría porque la mayoría tenía puestos de trabajo fijos?No, no tenían trabajos fijos. Una de las peores cosas que me haya ocurrido jamás, fue conseguir un trabajo fijo; fue horrible. Siempre he trabajado con subvenciones, cosas a corto plazo, nunca de más de tres

años, bueno, quizás uno o dos fueran de cuatro o cinco años. Así que durante unos diez años estuve más o menos viviendo al día, así que supongo que eso era un estímulo, me hacía trabajar. Por aquel entonces se trabajaba bastante duro, o si no duro, mucho; se metían muchas horas en el laboratorio. Finalmente conseguí una plaza de profesor en la universidad, y, poco después, me llegó la edad de jubilarme, como una pena de muerte; lo odiaba. Creo que uno de los grandes obstáculos del sistema de investigación europeo —puede que ocurra menos en Inglaterra— es que la gente obtiene plazas fijas cuando es muy joven, y pienso que eso no es conveniente.

Pienso que es necesario un periodo de estrés y tensión. En el sistema americano tienes que producir, si no, te quedas fuera. Es duro y cruel, pero hace que la ciencia sea muy fuerte. Allí donde veas que a la gente se le dan trabajos de por vida sin tener que luchar por ello, sin tener que producir, encontrarás que esa situación empobrece y desmoraliza a mayoría de la gente involucrada.

Si fuera a empezar ahora una carrera como investigador, ¿qué área elegiría?Suelo decir a los jóvenes que deberían trabajar en el sistema nervioso. Creo que hay muchas cosas desconocidas; deberían investigar sobre la conciencia o algo parecido. Pero no lo sé. Pienso que sigue siendo cierto que la investigación se compone de cosas muy específicas, de forma que una cosa lleva a la otra. Así que pienso que tienes que encontrar un problema que sea interesante para ti, preferiblemente uno que no se haya resuelto todavía y en el que no estén trabajando millones de personas; eso es lo difícil.Otra cosa que ha cambiado mucho es que si realmente querías trabajar sobre la replicación del DNA, por ejemplo, tenías que ir a Stanford a trabajar con Arthur

Kornberg, y sólo así podías conseguir entrar en ese campo. Cuando se hizo posible crear cualquier gen o proteína en cualquier momento, y cuando todos los genomas estuvieron disponibles, cualquiera podía trabajar en cualquier cosa en cualquier momento, sin tener que pedir su aprobación al que realmente conocía el tema. El clima había cambiado completamente, y no creo que yo funcionara muy bien en el sistema actual.

¿Les recomendaría una carrera cientí-fica a sus hijos?No, no se lo recomendaría, a menos que fuera eso lo que quieren. Creo que es duro conseguir algo. Admiro a la gente que dirige restaurantes con éxito, porque pienso que es algo que vale la pena y muy difícil de mantener. La competencia, todo está tan globalizado; antes, si eras un joven violinista, podías tener éxito en tu ciudad natal, y luego, poco a poco, hacer tu camino, pero ahora...Puede que la ciencia sea una de las últimas industrias caseras. Cualquiera que sea el campo, sólo hay un pequeño número de personas, y creo que uno de los problemas de hoy en día es que no sabemos lo que ocurre en los campos que no son los propios. Me doy cuenta constantemente, para mi vergüenza, que ha habido grandes desarrollos que me he perdido por no leer las publicaciones de Cell. En realidad, apenas leo ya el Cell. Leer es bastante doloroso, así que una de las cosas que hago es escribir problemas para Alberts et al. (famoso libro de texto) con mi amigo John Wilson. Lo más difícil para mí son los factores de transcripción, hacer que todas las vías de control del desarrollo tengan sentido, y sin embargo me parece algo fascinante. Pero, en cierta forma, me parece que la biología del desarrollo ha perdido ímpetu. Hubo una época muy emocionante, hace unos 15 ó 20 años, cuando surgieron los principios; ahora parece que hay muchos pormenores. Puede que una gran parte de la biología vuelva a ser emocionante cuando sea posible clonar y secuenciar todos esos genes y descubrir lo que eran. Es decir, hubo muchísimas publicaciones que celebrar porque conectaban cosas, y eso ocurría porque de repente todos supieron cómo secuenciar, incluso la gente que había estado en la otra

“¿Cómo es posible dar sentido a 25.000 publicaciones? ¿Cómo puedes saber cuáles son realmente ciertas, cuáles son relevantes, y cuáles no son más que repeticiones?”

Page 15: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

15CICNetwork

Entrevista - Tim Hunt

división. Pero, de alguna manera, hemos ido demasiado lejos en todo este asunto molecular, y ya va siendo hora de volver a la fisiología, al cómo funcionan las cosas.

Supongo que, de alguna manera, eso es lo que se está haciendo con pantallas de alto rendimiento con embriones de peces cebra, y demás...Sí, eso es, y de vez en cuando hay gente inteligente que hace considerables progresos en el entendimiento del funcionamiento de las cosas. Pero a veces pienso que, en la biología del desarrollo, con sus cuatro dimensiones, va a ser muy difícil; incluso cuando sabes de qué va la cosa, creo que para la mente humana es muy difícil llegar a comprenderlo. Y es muy difícil hacer experimentos que expliquen lo que está sucediendo. Pero deberíamos dejar claro lo que estamos intentando hacer. Sería francamente maravilloso, si tienes un tumor pancreático, que se pudiera coger el núcleo de una célula de la piel, y convertirla en un nuevo páncreas. Eso sería lo mejor del mundo, porque podrías quitar el órgano enfermo y poner uno nuevo. Creo que hay una publicidad exagerada sobre las células madre, pero tiene que haber publicidad; me parece que es una ambición válida. Sólo pienso que estamos más lejos de conseguirlo de lo que la mayoría de la gente cree. ¿No te parece?

A mí me parece que técnicamente esas cosas son relativamente sencillas de hacer en un plato, pero cómo funcionan en la realidad y si se puede hacer o no en casos reales...

Otra cuestión que es tremendamente interesante e importante, y que siempre me ha sorprendido es la homeostasis de los órganos. Por qué tu nariz tiene el mismo tamaño a lo largo de toda tu vida? ¿Por qué, cuando pierdes un riñón, el segundo se expande hasta que cumple la misma función fisiológica? La regeneración del hígado es también un ejemplo muy conocido. Y los tritones pueden regenerar sus extremidades y la cola, pero nosotros no. ¿Por qué? Ese es un tema apasionante, y sería interesante saber si tiene una explicación sencilla, como que el DNA tiene dos hebras, o si va a ser algo muy complicado con miles de detalles que tienes que comprender para saber de qué va la cosa. Pero sospecho que gran parte de ello será bastante sencillo. Seguro que hay ciclos de retroalimentación positivos y negativos, substancias humorales circulando en la sangre, etcétera.

Creo que otra cosa que debemos saber, seguro que tú sabes mucho de esto, es la forma en que las células se comunican entre ellas, ¿quién está a mi lado?, ¿qué estoy haciendo?, ¿qué células están conectadas por poros abiertos?, etcétera. Y por eso me gusta la historia de la ciencia. Porque la historia de la ciencia te permite volver al pasado y decir cuál es la clave que permitió a la gente entender esto, y con frecuencia te das cuenta de que había llegado el momento. Y otras veces, tan

frecuentemente o más, te das cuenta de que ha sido una adición gradual de pequeños elementos de información que al final construyen una explicación satisfactoria.

En ese sentido, es agradable leer las conferencias de los Nobeles.Si, son una fuente importante. Yo procuro entender las que escriben los físicos, porque me doy cuenta de lo poco que entiendo, ya que la mayoría de ellas están más allá de mis posibilidades. Por ejemplo, el tipo que descubrió el microscopio de contraste de fases. Empezó intentando hacer algo totalmente diferente, y luego sumó dos y dos.En definitiva, es un recurso maravilloso. Pero ves que casi nunca se ha empezado buscando ese objetivo. Han podido pensarlo, como una especie de forma general, pero fueron en esa dirección y zigzaguearon. Si lees esos ensayos al principio del Annual Reviews of Biochemistry, tienes una idea bastante buena del recorrido aleatorio que se suele recorrer. Por eso, recelo un poco de los bioingenieros. Y creo que otra de las cosas buenas de la ciencia es que no tiene fronteras. Después de todo, es cierto que uno de los mayores neurobiólogos de todos los tiempos fue Ramón y Cajal, y no hay nada que indique que no se puede ser un gran científico en España. Aunque pienso que, desgraciadamente, sí que es cierto que suelen dar mejores frutos cuando van al extranjero. Creo que la verdadera fuerza del sistema americano consiste en que contratan el talento, y no importa su nacionalidad. Para mí, el nacionalismo es el gran enemigo de la excelencia en la ciencia. El Reino Unido saca mucho provecho de que el inglés sea su lengua; mi laboratorio está lleno de japoneses e indios.

¿Cree que Singapur será el nuevo USA de la excelencia en la investigación?¿Quién sabe? Ya tienen mucho éxito, pero es una comunidad pequeña. Creo que se necesita algo más grande. Y también pienso que la ciencia es una actividad de lujo, y que por eso lo hacen tan bien los americanos, porque tienen mucho dinero, y si gastas un poco en ciencia nadie se queja. En cambio, en otros sitios, la gente busca más el beneficio a corto plazo, y es difícil.

“Una de las peores cosas que me ha ocurrido jamás es haber conseguido un trabajo fijo”

Page 16: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

16 CICNetwork

des y discapacidades, o los mecanismos de reproducción. Sin embargo va creciendo en mí, cada vez con mayor intensidad, la opinión de que acaso esta centuria nuestra termine siendo recordada como el “Siglo del Medio Ambiente”. Y es que cada vez son más numerosas y más frecuentes las evidencias de que nuestras conductas están modifican-do la naturaleza y el clima de una forma que afecta profundamente a nuestras vidas.Los indicios de que el clima está cambiando son cada vez más nume-rosos. No es imposible creer que los que ahora observamos sean fenó-menos pasajeros, pero es cada vez más difícil continuar pensando en términos semejantes. El clima está cambiando. Estamos modificando —por no emplear la expresión más adecuada “destruir”— la naturaleza, el medio ambiente, el producto larga y lentamente edificado de la his-toria de nuestro planeta. Y no podemos cerrar los ojos ante este hecho.

Hasta hace poco pensaba que sí. De hecho, no hace falta ser un científi-co para llegar a semejante conclusión: prácticamente todos los días los medios de comunicación nos informan de nuevos descubrimientos que tienen que ver con la vida. Son, además, descubrimientos que no nos pueden dejar indiferentes, ya que afectan, o pueden afectar, a dominios que nos son especialmente queridos, como la lucha contra enfermeda-

José Manuel Sánchez Ron. Licenciado en Ciencias Físicas por

la Universidad Complutense de Madrid (1971) y doctor en Física

por la Universidad de Londres (1978). Desde 1994 es catedrático

de Historia de la Ciencia en el Departamento de Física Teórica de

la Universidad Autónoma de Madrid. Miembro de la Real Academia

Española de la Lengua y de la Real Academia de Ciencias Exactas,

Físicas y Naturales.

En uno de mis libros denominé al siglo XX el “Siglo de la Ciencia”, por la cantidad de descubrimientos y desarrollos científicos que se produjeron en él y por la importancia que éstos tuvieron en la sociedad, en la política y en la economía. No es posible, sostenía, comprender la historia general de esa centuria que hace poco nos abandonó, dejando al margen a su ciencia. Instalados ya en el siglo XXI, y siendo testigos de un caudal constante de avances que tienen como protagonistas a las ciencias biomédicas, podríamos pensar que el presente siglo será considerado, cuando llegue la hora de ponerle etiquetas, como otro “Siglo de la Ciencia”, aunque, en este caso, el de las Ciencias Biomédicas. Ahora bien, ¿será realmente así?

El cambio climático: ciencia, política y moralJosé Manuel Sánchez Ron, Catedrático de Historia de la Ciencia - UAM

Div

ulg

ació

n

Page 17: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

17CICNetwork

Divulgación - El cambio climático: ciencia, política y moral

Japón, un país no siempre ejemplar a la hora de respetar los recursos naturales del planeta —recordemos su comportamiento con respecto a la pesca de ballenas—, decidió limitar el uso del aire acondicionado en los edificios oficiales, lo que ha conducido, inevitablemente, a una relajación en las normas de la forma de vestir.¿Aumentará, disminuirá o se mantendrá la temperatura de la atmós-fera terrestre?, ¿cuáles serían las consecuencias en los dos primeros casos?, ¿se mantendrá, por ejemplo, la corriente del Golfo —sin ella el clima mundial sería muy diferente—?, ¿sobrevivirán las pluviselvas del Amazonas?, ¿serán cada vez más frecuentes los huracanes como el reciente Katrina? Son, éstas, preguntas fundamentales en las que nos va, por decirlo de alguna forma, la vida o, al menos, el futuro. Nos en-contramos frente a la punta de un inmenso iceberg que nos mantendrá ocupados y al que tendremos que dedicar recursos de todo tipo, cada vez mayores.Los problemas científicos implicados en estas cuestiones son muy va-riados. Así, los mecanismos que intervienen en los fenómenos meteo-rológicos son diversos y complejos; eso hace que nos planteemos todo tipo de posibilidades y preguntas, muchas de ellas todavía sin respues-ta. Es difícil cuantificar, por ejemplo, el movimiento de las corrientes profundas o la emisión directa o indirecta de calor de la superficie del mar. Ni siquiera sabemos cuál es la capacidad de los mares para absor-ber dióxido de carbono. Tampoco entendemos bien cuál es el orden de magnitud de la energía que intercambian, a largo plazo, las aguas super-ficiales del planeta con las aguas profundas, con el aire o con la tierra.Y no es sólo lo que ignoramos. Sabemos que los procesos meteorológi-cos son un arma de doble filo. Las nubes, por ejemplo, son elementos que frenan el efecto invernadero, actuando durante el día como panta-llas que impiden la llegada de la radiación del Sol a la Tierra, pero, por otro lado, acumulan calor en las noches, y la Tierra se enfría menos por estar el cielo cubierto.Afortunadamente, últimamente se está hablando mucho, cada vez con mayor frecuencia e intensidad, de los problemas asociados al clima y medio ambiente, aunque algunos —cada vez menos, es cierto— insis-

ten en lo que todavía desconocemos sobre los procesos que rigen el clima y en que, de todas formas, aún tenemos tiempo. No sé si es cierto que aún tenemos tiempo. Al Gore, convertido en uno de los grandes misionarios de la defensa del medio ambiente, cree que no tenemos más de unos diez años para tomar las medidas que eviten el cambio cli-mático; pero otros piensan que ya hemos cruzado la frontera, el punto de no retorno, y que lo único que podemos hacer es minimizar las con-secuencias y prepararnos —y preparar a nuestros hijos— para lo que habrá de venir. Pero aunque todavía tengamos tiempo, aunque existan incógnitas científicas, con los datos de que ya disponemos sería crimi-nal no tomar medidas. Absolutamente criminal para el futuro.La difusión, a finales de 2006, del denominado Informe Stern sobre la economía del cambio climático, y la celebración de una Conferencia del Clima en Nairobi, intensificaron la discusión del problema en los medios de comunicación. En cuanto al Informe Stern, presentado por el entonces primer ministro británico Tony Blair, merecen ser comen-tados al menos dos aspectos. El primero tiene que ver con el hecho, bien sabido, de que el señor Blair se encontraba al final de su mandato. ¿Acaso no tenía conciencia del problema antes, y tuvo que esperar a un informe cuyo contenido a pocos podía sorprender? Lo que necesitamos no son políticos alejados del poder que se convierten en voceros de los peligros medioambientales y climáticos que nos aguardan, sino políti-cos en activo que se comprometan, que actúen e implementen las ne-cesarias —y necesariamente duras— medidas, con los consabidos ries-gos políticos que esto entraña. Todos, es cierto, somos responsables del deterioro que está sufriendo el planeta, pero nadie es más culpable que aquellos que disponen o pueden disponer de toda la información, y que, además, tienen el suficiente poder como para tomar medidas.El otro aspecto del Informe Stern que quiero comentar es su carácter económico. Es, parece, característico de nuestra civilización verlo casi todo a través de su valor económico. Todo, la humanidad incluida, tie-ne precio. Y, así, en este informe nos encontramos con pasajes del tipo: “Debemos considerar el hecho de mitigar los efectos —tomar acciones duras para reducir las emisiones— como una inversión, un coste en el que incurrimos ahora y en las próximas pocas décadas para evitar el riesgo de tener muy severas consecuencias en el futuro. Si hacemos estas inversiones con sabiduría, los costes serán manejables, y existirá un amplio rango de oportunidades para el crecimiento y el desarrollo a lo largo del camino”. “La evidencia”, se nos dice, “es que ignorar el cambio climático dañaría el crecimiento económico” (se estima que la economía mundial caerá un 20% si no se frena el calentamiento del planeta). Es cierto, evidentemente, pero un poco triste, ¿no? Reducir el dolor, la angustia, el desamparo tiene en este caso un valor econó-mico, pero, ¿y si no lo tuviera? ¿Y si en algún momento llegamos a la conclusión de que, por ejemplo, el valor económico de los países subdesarrollados no compensa los gastos que deberíamos hacer para evitar su cuota en el deterioro del medio ambiente? (recordemos la frase de Indira Gandhi: “La peor contaminación es el hambre”, esto es, la pobreza).De hecho, más recientemente, esta “línea económica” ha ido adquirien-do un nuevo carácter. En un informe publicado en el número del 16 de abril de 2007 de la revista Newsweek se analizaba la “cuestión” (ya no claramente el “problema”) del calentamiento global desde el punto de vista de las consecuencias económicas. Una de las conclusiones a las

Page 18: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

18 CICNetwork

Divulgación - El cambio climático: ciencia, política y moral

que se llegaba era que los países que se beneficiarán más del cambio climático serán, por este orden, Noruega, Finlandia, Suecia, Suiza y Ca-nadá, mientras que los más perjudicados serán Sierra Leona, Bangla-desh, Somalia, Mozambique y Etiopía; es decir, los ricos se harán más ricos y los pobres más pobres. Puede que no sea posible mantener las estaciones de esquí de los Alpes, pero en su lugar se podrán construir spas con vistas maravillosas. Y la Costa del Sol se verá sustituida por la Costa del Norte escandinava.Con respecto a la Cumbre del Clima de Nairobi, el resultado tampo-co es demasiado alentador, aunque vaya en la dirección correcta. Los países desarrollados han pactado que en el futuro reducirán un 50% sus emisiones de gases de efecto invernadero. Empezarán a discutir el calendario dentro de dos años y se espera comenzar a actuar hacia 2012, con el 2050 como horizonte para lograr esa anunciada reducción a la mitad de las emisiones. Política y económicamente puede ser una agenda razonable, pero no, desde luego, desde el punto de vista de la salud del planeta —y, en consecuencia, desde una perspectiva social—, estando como parece que estamos en el filo de la navaja, al borde del punto de no retorno, si es que no lo hemos sobrepasado ya.

Gases de efecto invernaderoAcabo de mencionar los gases de efecto invernadero. Es necesario de-tenerse en ellos pues son fundamentales para comprender el cambio climático.El principal gas de esta clase es el dióxido de carbono (CO

2). No es

el único —otros son el metano (CH4), el óxido nitroso (N

2O), y el más

importante de todos, el vapor de agua—, pero sí el responsable de la intensificación (en un 53%) del efecto invernadero.Lo que tienen en común los gases que producen el efecto invernadero es que, si bien permiten que la luz que proviene del Sol atraviese la atmósfera, no dejan salir una parte de la radiación infrarroja que rebo-tada en la Tierra, con lo que se produce un aumento de la temperatura del aire.En principio, los gases de efecto invernadero no son necesariamente malos. De hecho, una cierta presencia de ellos es necesaria para la exis-tencia de la vida, o al menos de nuestra vida: sin ellos, la temperatura media de la superficie de la Tierra rondaría los 18° grados centígrados bajo cero. Con ellos, esa temperatura es, o debería ser en condiciones naturales, de 15° C sobre cero. El problema es que, debido a nuestras

actividades, la presencia de estos gases, en especial la del dióxido de carbono —responsable de en torno al 80% del total de la emisiones de gases de efecto invernadero—, ha aumentado de manera extraordina-ria. Cuando quemamos combustibles fósiles —petróleo, gas natural y carbón— en nuestras casas, automóviles, fábricas y plantas eléctricas, o cuando producimos cemento, liberamos CO

2 a la atmósfera.

Me detendré un instante en el caso de los transportes, un sector que constituye la fuente de emisiones de dióxido de carbono que crece más rápidamente, tanto en el mundo rico como en los países en vías de desarrollo. El transporte por carretera —los automóviles que utili-zan derivados del petróleo— es el mayor responsable de las emisiones totales del sector —emite más del 75%—, mientras que el transporte aéreo participa con un 15%, aunque crece rápidamente (entre un 2% y un 3% anual).Es imposible mantener esta tendencia durante mucho tiempo. Olvidán-donos por un instante de su contribución al calentamiento global, los gases que se emiten contribuyen a aumentar la contaminación atmos-férica —por ejemplo, la suspensión de partículas de plomo en la atmós-fera— lo que, a nivel biológico, redunda en una mayor proliferación de las enfermedades respiratorias y cardiovasculares, así como de las alergias. Urge, en consecuencia, tomar medidas. Y como, por el mo-mento, no es posible pensar en abandonar los automóviles particula-res, que, por otra parte, tanto nos han dado y continúan dando, es pre-ciso poner en marcha otros mecanismos. Uno de ellos es desarrollar e introducir otro tipo de motores —eléctricos, por ejemplo—, tarea en la que ya se ha avanzado, pero de una forma caótica y sin ser impulsada por los gobiernos —y éstos, no conviene olvidarlo, somos todos— que se benefician mucho de los impuestos que se incluyen en el precio de los combustibles. Ya existen, no obstante, coches pequeños que gastan menos de 4 litros de combustible cada 100 kilómetros, y coches híbri-dos que consumen y contaminan menos. Y si esos 4 litros fuesen de un biocombustible —combustibles orgánicos procedentes, por ejemplo, de cultivos intensivos de colza, girasol o de otras plantas, al igual que del alcohol obtenido de la caña de azúcar o de la remolacha—, mucho mejor, ya que en su combustión se produce menos dióxido de carbono, entre otras razones porque estas plantas ya lo han absorbido en su cre-cimiento. Aunque, claro, ya sabemos de las perniciosas consecuencias sociales que está teniendo la utilización de cosechas para la produc-ción de biodiesel.

Nacimiento de un iceberg de gran tamaño en la bahía de Pine Island, Antártida. Fuente:NASA

Page 19: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

19CICNetwork

Divulgación - El cambio climático: ciencia, política y moral

La transformación a otro tipo de automóviles tardará, sin duda. Pero no hay motivo para que se mantenga, por ejemplo, la reciente tendencia absurda a poseer esos coches todo-terreno, los cuatro por cuatro, que, sin embargo, en su inmensa mayoría únicamente se utilizan para tran-sitar por las ciudades o por carreteras bien acondicionadas (si no por autopistas). Ocupan más espacio, son más peligrosos —si no para sus ocupantes, sí para los otros— y, lo más importante, consumen más. Un coche de gasolina de más de 2.000 cm3 tiene un gasto energético —ín-dice que se mide a partir del gasto de energía primaria por kilómetro re-corrido y viajero— de entre 4 y 5,4, frente a 1-1,8 de un coche diesel de 1.400 cm3, o 2-2,8 de uno de gasolina de esa misma cilindrada; un avión Boeing 747, por cierto, tiene un gasto energético de 2,9. Los impuestos o la prohibición son el mecanismo más fácil para evitar estos absurdos, aunque, qué duda cabe, atractivos armatostes.Continuando con los gases de efecto invernadero, y aunque sea menos importante, no debemos minimizar la importancia del metano, que, de hecho, es un gas invernadero 24 veces más potente que el dióxido de carbono, aunque, afortunadamente, menos abundante. El 60% del me-tano que hay en la atmósfera procede de los vertederos, cría de ganado, tratamiento de aguas residuales y quema de combustibles fósiles. En la cría de ganado a gran escala, los desechos líquidos se almacenan en gigantescos tanques que emiten metano. En cuanto al óxido nitroso no natural presente en la atmósfera, procede de los fertilizantes, combus-tibles fósiles, quema de bosques y residuos de cosechas.Son muchas las cuestiones que surgen ante evidencias y problemas como éstos. Una de ellas es si no sería posible hacer algo para que disminuya la presencia de dióxido de carbono en la atmósfera. En este sentido, hay que comenzar recordando que no hay mejor consumidor de dióxido de carbono que las plantas, que lo “recogen” a través de la fotosíntesis.La fotosíntesis, no está de más recordarlo, es la base de la vida actual en la Tierra. Consiste en una serie de procesos mediante los cuales las algas, plantas y algunas bacterias utilizan la energía de la luz para transformar la materia inorgánica de su medio externo en materia or-gánica que utilizan para su crecimiento y desarrollo. Los organismos capaces de llevar a cabo este proceso se denominan autótrofos. Salvo en algunas bacterias fotoautótrofas, el proceso de fotosíntesis produ-ce la liberación de oxígeno molecular —proveniente de moléculas de H

2O— hacia la atmósfera. Uno de los pasos de la fotosíntesis, el que a

mí me interesa aquí, es aquel en el que se asimila el CO2 y atmosférico

para producir hidratos de carbono e, indirectamente, el resto de las moléculas orgánicas que componen los seres vivos (aminoácidos, lípi-dos, nucleótidos, etc).En consecuencia, cuanto más vegetación exista más dióxido de car-bono se consumirá. Y, sin embargo, resulta que una de las actividades a las que los humanos nos hemos dedicado con más intensidad desde hace siglos es la destrucción de bosques y selvas. Está, por ejemplo, la deforestación de la Amazonía. Todos hemos visto imágenes aterrado-ras de vastas extensiones que antes eran frondosas selvas y que ahora son eriales despojados de cualquier tipo de vegetación, tras la tala in-discriminada, salvaje, de sus árboles. Hace poco se descubrió que el Instituto Brasileño del Medio Ambiente ha estado implicado, durante años, en la destrucción ilegal de importantes áreas de la selva amazó-nica, concediendo licencias para talar árboles a madereros —se estima que han conseguido extraer de Mato Grosso unos dos millones de me-tros cúbicos de madera—.Semejante destrucción tiene, además, otras consecuencias: se produ-ce una mayor evaporación de agua en la atmósfera que recubre los bosques que sobre praderas o superficies desprovistas de vegetación, con la consecuencia de que el aire que rodea a éstas últimas contiene menos vapor de agua que el de bosques y selvas, por lo tanto, llueve menos. Asimismo, un bosque refleja entre 12% y 15% de la luz solar que cae sobre él, mientras que una pradera refleja 20% y un desierto 40%. Ahora bien, la mayor energía solar que absorbe una zona con abundan-te vegetación tiende a estimular, en la atmósfera, corrientes de convec-ción y otras actividades dinámicas que conducen a la producción de lluvia. Así que cuando desaparecen los bosques, se reduce la lluvia. Eso ha llevado a cada vez más investigadores a pensar que regiones como la Amazonía se verán convertidas en regiones semiáridas a finales del siglo XXI.Ahora bien, como he indicado, también las algas marinas utilizan dióxi-do de carbono, pero resulta que a medida que los océanos se calientan, crece el área cubierta por aguas pobres en nutrientes, y los océanos se convierten en un lugar inhóspito para las algas. Eso reduce el ritmo de reducción de dióxido de carbono de la atmósfera.En cuanto al metano, diré que, en principio, no es tan peligroso como el dióxido de carbono porque su producción no ha aumentado tanto, pero existen riesgos de que aumente. Por ejemplo, hay grandes depósitos de metano en los cristales de hielo dentro de nichos moleculares de-nominados clatratos. Son estables sólo con el frío o a altas presiones. Al calentarse la Tierra hay un riesgo mayor de que estos clatratos se fundan y liberen grandes cantidades de metano.Como es bien sabido, hace años se firmó el Protocolo de Kioto para intentar frenar la emisión de gases de efecto invernadero, pero no está resultando demasiado eficaz. Estados Unidos —responsable del 27% de las emisiones de dióxido de carbono— no lo ha firmado y España, que lo firmó, no lo cumple.

La energía nuclear como solución al problemaCuando se habla de efecto invernadero, de emisión de dióxido de car-bono, es inevitable considerar la cuestión de la energía nuclear —aun-que muchos no quieran hacerlo—, es decir, la producción de energía en centrales nucleares de fisión (la de fusión es, por el momento, una

Page 20: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

20 CICNetwork

Divulgación - El cambio climático: ciencia, política y moral

esperanza en el horizonte). Y es necesario considerarlo, por la sencilla razón de que esta fuente energética no implica la emisión del temible dióxido de carbono.La evidencia de este hecho ha hecho que algunos distinguidos defenso-res del medio ambiente hayan cambiado de opinión respecto a la ener-gía nuclear. En 1989, ante una audiencia de 1.500 estudiantes del Insti-tuto de Tecnología de Virginia, Paul Ehrlich —uno de los más firmes y constantes enemigos de la energía nuclear durante décadas— anunció que, en vista del efecto invernadero, estaba dispuesto a apoyar la ener-gía nuclear si ésta se basaba en nuevas tecnologías intrínsecamente seguras. A veces la fe es producto de la necesidad. Así mismo, más re-cientemente, James Lovelock —el imponente científico más conocido como el padre de la teoría de Gaia— ha escrito en su último libro (The Revenge of Gaia) publicado en español bajo el título de La venganza de la Tierra:

“Yo soy un verde, y me cuento entre sus filas, pero ante todo soy un

científico; por eso es por lo que ruego a mis amigos ecologistas que

reconsideren su ingenua fe en el desarrollo sostenible y las energías

renovables y que abandonen la creencia de que con ellas y con polí-

ticas de ahorro de energía basta para solucionar el problema al que

nos enfrentamos. Más importante todavía es que abandonen su obs-

tinado rechazo de la energía nuclear. Incluso si tuvieran razón sus

peligros —y no la tienen—, usarla como fuente de energía segura y

fiable representaría una amenaza insignificante comparada con las

incomparables y letales olas de calor y la subida del nivel del mar que

amenaza a todas las ciudades costeras del mundo. El concepto de ener-

gías renovables suena bien, pero hasta ahora son poco eficaces y muy

caras. Tienen futuro, pero no tenemos tiempo para experimentar con

ellas: la civilización se enfrenta a un peligro inminente y tiene que re-

currir a la energía nuclear o resignarse a sufrir el castigo que pronto

le infligirá un planeta indignado. La política de ahorro de energía de

los verdes es correcta, aunque sospecho que, igual que perder peso, es

algo que resulta más fácil de decir que de hacer...

No estoy diciendo que la energía de fisión nuclear sea lo ideal a largo

plazo para nuestro planeta enfermo, o que vaya a solucionar todos

nuestros problemas, pero hoy por hoy es la única medicina eficaz de

que disponemos”.

Nuestra percepción de los peligros de la energía nuclear ha cambiado con el tiempo. Una magnífica manifestación de ello es el número de enero y febrero de 2007 de la histórica revista Bulletin of the Atomic Scientists. Una característica de esta publicación —fundada 1947 por un grupo de físicos atómicos— es un reloj que aparece en su cabecera, que marca el tiempo —los minutos— que según sus responsables nos separan de un cataclismo nuclear —la medianoche—. Al principio, el tiempo estimado que quedaba hasta las doce de la noche eran 7 minu-tos. Desde entonces, el minutero ha cambiado de posición diecisiete veces: marcó un mínimo de 2 minutos en 1953 —cuando Estados Uni-dos y la Unión Soviética realizaron sus primeras pruebas con bombas de hidrógeno con un intervalo de nueve meses—, y un máximo de 17 minutos en 1997 —cuando esas mismas naciones firmaron el Tratado Estratégico de Reducción de Armamento Nuclear—. En el número de enero y febrero de este año, el reloj —que marcaba 7 minutos desde 2002, cuando Estados Unidos rechazó una serie de tratados de con-trol de armamento nuclear y anunció que abandonaba el Tratado de

Misiles Antibalísticos— se adelantó 2 minutos, y dejó la distancia a la medianoche en 5 minutos. Es, en la historia de la revista, la quinta dis-tancia más pequeña que nos separa de esa terrible medianoche. Ahora bien, la novedad, la absoluta novedad, es que se trata de la primera vez que el desplazamiento horario tiene lugar en relación con un suceso no nuclear. El motivo, en esta ocasión, ha sido el cambio climático. “Las armas nucleares”, se lee en uno de los titulares, “todavía plantean la amenaza más poderosa contra la humanidad, pero el cambio climático y las tecnologías emergentes han acelerado nuestra capacidad de au-todestrucción”.Visto desde este perspectiva, la utilización de la energía nuclear de fi-sión en la producción de energía adquiere un nuevo carácter. Un carác-ter que afecta incluso al aspecto más controvertido y peligroso de esa energía: la larga vida de los residuos. En efecto, si el cambio climático llegara a producirse, la duración de éste sería también muy larga, acaso comparable a la de los residuos en cuestión —tal vez, incluso supe-rior—. Y no podríamos hacer nada por modificar semejante secuencia; la naturaleza es, no lo olvidemos, una compañera de viaje que transita a su propio ritmo, en otros órdenes de magnitud.No pretendo que estos comentarios míos se tomen más que como una recomendación para que se discuta abiertamente lo que por el mo-mento, en nuestro país, parece ser una materia prohibida: la energía nuclear. Personalmente, me inclinaría por restringir severamente el consumo energético. Esa es una postura que, sin embargo, no creo que tenga demasiados seguidores. Lo único que está claro es que al igual que sucedió con el armamento nuclear, necesitamos no sólo una cien-cia y una tecnología mejores y tomar nuevas decisiones, sino también una nueva ética para tratar el problema del cambio climático.

Page 21: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

21CICNetwork

Hasta hace poco pensaba que sí. De hecho, no hace falta ser un científi-co para llegar a semejante conclusión: prácticamente todos los días los medios de comunicación nos informan de nuevos descubrimientos que tienen que ver con la vida. Son, además, descubrimientos que no nos pueden dejar indiferentes, ya que afectan, o pueden afectar, a dominios que nos son especialmente queridos, como la lucha contra enfermeda-des y discapacidades, o los mecanismos de reproducción. Sin embargo va creciendo en mí, cada vez con mayor intensidad, la opinión de que acaso esta centuria nuestra termine siendo recordada como el “Siglo del Medio Ambiente”. Y es que cada vez son más numerosas y más frecuentes las evidencias de que nuestras conductas están modifican-do la naturaleza y el clima de una forma que afecta profundamente a nuestras vidas.Los indicios de que el clima está cambiando son cada vez más nume-rosos. No es imposible creer que los que ahora observamos sean fenó-menos pasajeros, pero es cada vez más difícil continuar pensando en términos semejantes. El clima está cambiando. Estamos modificando —por no emplear la expresión más adecuada “destruir”— la naturaleza, el medio ambiente, el producto larga y lentamente edificado de la his-toria de nuestro planeta. Y no podemos cerrar los ojos ante este hecho. Japón, un país no siempre ejemplar a la hora de respetar los recursos naturales del planeta —recordemos su comportamiento con respecto a la pesca de ballenas—, decidió limitar el uso del aire acondicionado en los edificios oficiales, lo que ha conducido, inevitablemente, a una relajación en las normas de la forma de vestir.¿Aumentará, disminuirá o se mantendrá la temperatura de la atmós-fera terrestre?, ¿cuáles serían las consecuencias en los dos primeros casos?, ¿se mantendrá, por ejemplo, la corriente del Golfo —sin ella el clima mundial sería muy diferente—?, ¿sobrevivirán las pluviselvas del Amazonas?, ¿serán cada vez más frecuentes los huracanes como el reciente Katrina? Son, éstas, preguntas fundamentales en las que nos va, por decirlo de alguna forma, la vida o, al menos, el futuro. Nos en-contramos frente a la punta de un inmenso iceberg que nos mantendrá ocupados y al que tendremos que dedicar recursos de todo tipo, cada vez mayores.Los problemas científicos implicados en estas cuestiones son muy va-riados. Así, los mecanismos que intervienen en los fenómenos meteo-rológicos son diversos y complejos; eso hace que nos planteemos todo tipo de posibilidades y preguntas, muchas de ellas todavía sin respues-ta. Es difícil cuantificar, por ejemplo, el movimiento de las corrientes profundas o la emisión directa o indirecta de calor de la superficie del mar. Ni siquiera sabemos cuál es la capacidad de los mares para absor-ber dióxido de carbono. Tampoco entendemos bien cuál es el orden de magnitud de la energía que intercambian, a largo plazo, las aguas super-ficiales del planeta con las aguas profundas, con el aire o con la tierra.Y no es sólo lo que ignoramos. Sabemos que los procesos meteorológi-cos son un arma de doble filo. Las nubes, por ejemplo, son elementos que frenan el efecto invernadero, actuando durante el día como panta-llas que impiden la llegada de la radiación del Sol a la Tierra, pero, por otro lado, acumulan calor en las noches, y la Tierra se enfría menos por estar el cielo cubierto.Afortunadamente, últimamente se está hablando mucho, cada vez con mayor frecuencia e intensidad, de los problemas asociados al clima y medio ambiente, aunque algunos —cada vez menos, es cierto— insis-

Divulgación - El cambio climático: Ciencia, Política y Moral

Page 22: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

22 CICNetwork

Div

ulg

ació

n

Enrique Zuazua, Director de IMDEA-Matemáticas - UAM

Las matemáticas del diseño aeronáutico

El momento de las matemáticasLas matemáticas son a la vez una ciencia básica, el lenguaje en el que está escrito el universo, como decía Galileo Galilei, y también una dis-ciplina que interacciona permanentemente con todos los demás ámbi-tos de nuestra sociedad. En efecto, la sociedad actual reposa cada vez más en la comprensión que las matemáticas aportan y que están en la base de la innovación en tecnología, ciencia, transporte, comunicacio-nes, etc. Por otra parte, las crecientes demandas de progreso exigen un esfuerzo añadido en investigación matemática.En este artículo presentamos un breve panorama de las matemáticas que se desarrollan en el campo del diseño óptimo, orientándonos al ámbito aeronáutico y haciendo especial énfasis en algunos de los pro-blemas más relevantes aún por resolver, que tienen una motivación

fuertemente tecnológica y a la vez un marcado acento matemático.Las matemáticas son una ciencia amplia, que abarca diferentes campos entre los que destaca la matemática aplicada, que tiene como uno de sus principales objetivos contribuir a la comprensión y al diseño de numerosos mecanismos y estructuras de gran importancia en nuestra vida diaria y en muy diversos ámbitos del I+D+i, haciéndolos más fun-cionales, más económicos, más respetuosos con el medio ambiente, más atractivos, etc. Este es el principal cometido de la disciplina del Diseño óptimo a la que dedicamos esta artículo. Sus aplicaciones son muy variadas: biotecnología y biomedicina (sistema cardiovascular, el diseño de bypasses y fármacos), física cuántica (control laser en me-cánica cuántica, diseño molecular, nanoestructuras, optoelectrónica), estructuras y edificios inteligentes (en particular, que resistan los tem-blores sísmicos), ingeniería química (reactores y columnas de destila-ción), medioambiente (descontaminación, diques, reducción del ruido, la barrera del Támesis), sistemas de comunicaciones e irrigación, pros-pección y extracción de recursos naturales, aeronáutica, automoción, robótica,...En el ámbito de la aeronáutica, en el que nos centramos en este artícu-lo, uno de los principales objetivos de las matemáticas es contribuir al diseño de aeronaves más seguras, eficaces y respetuosas con el medio ambiente. Son ya muchos años de investigación matemática en este campo desde que los hermanos Wright, hace ahora algo más de un si-glo, se convirtieran en los pioneros del aire. Pero es aún mucho lo que

Enrique Zuazua. Doctor por la UPV/EHU y por la Universidad Pierre et

Marie Curie. Actualmente dirige el instituto IMDEA-Matemáticas de la Uni-

versidad Autónoma de Madrid. Premio Nacional de Investigación 2007

y Premio Euskadi de Investigación 2006. Además, ha sido reconocido

como “Highly Cited Researcher” por el Instituto ISI (Thomson).

Financiado por los proyectos MTM2005-00714, Domino CIT-370200-2005-10 del programa Profit, el Proyecto Ingenio Mathematica (i-Math) del Programa Consolider Ingenio 2010 del MEC y el proyecto Simumat de la CM. Este trabajo ha sido redactado durante la visita de su autor al Isaac Newton Institute de Cambridge en el marco del programa “Highly Oscillatory Problems”. El autor agradece a Eduardo Artamendi (Departamento de Arquitectura de la UPV/EHU) por su revisión del manuscrito y valiosas sugerencias.

Page 23: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

23CICNetwork

Divulgación - Las matemáticas del diseño aeronáutico

supongamos que buscamos un mínimo de J, lo cual es, además, un pro-blema muy natural cuando hablamos del consumo de combustible. El problema consiste por tanto en buscar

o, lo que es lo mismo, construir o encontrar el dominio óptimo Ω*, den-tro del conjunto de configuraciones geométricas admisibles Cad, es de-cir, de las posibles formas geométricas de la aeronave, de modo que el funcional coste J alcance el valor mínimo posible.Este tipo de problemas son ubicuos en muy diversos ámbitos de la ac-tividad humana y son los que han dado lugar al desarrollo de campos tan importantes de las matemáticas como el cálculo de variaciones o la investigación operativa. Este último se ocupa, en particular, de pro-blemas de planificación en las que el gran número de parámetros hace imposible una solución basada en la mera intuición (planificación del funcionamiento de los semáforos de una gran ciudad, por ejemplo, o distribución de personal en una gran empresa, con diversos departa-mentos y turnos.)Volviendo al caso de la aeronáutica que nos ocupa, una de las princi-pales dificultades radica frecuentemente en la complejidad del funcio-nal J, que depende del dominio Ω(la aeronave) de manera muy poco evidente, a través del campo de velocidades del fluido que lo rodea (el aire). Mediante el símbolo u = u(x, t) denotamos el campo de velocida-des del aire en el exterior del recinto Ω ocupado por la aeronave.3

queda por hacer para ser capaces de realizar simulaciones numéricas lo bastante rápidas y eficaces que permitan desarrollar herramientas inte-ractivas que sirvan a los diseñadores e ingenieros para trabajar con un conocimiento fiable del rendimiento previsible de sus diseños en tiem-po real. Las grandes empresas del sector y los más prestigiosos labora-torios científicos se afanan en este empeño, en el que las matemáticas tienen mucho que aportar. A pesar de los importantes avances que se producen constantemente en la capacidad de cómputo de los modernos supercomputadores, un verdadero salto cualitativo en este campo sólo será posible si somos capaces de avanzar significativamente en algunos de los problemas matemáticos que describiremos en este artículo.El reto es grande, pero se confirma la oportunidad de la célebre frase de Isaac Newton según la cual “caminamos a hombros de gigantes”. En efecto, son las contribuciones de Euler y el propio Newton, entre otros, las que nos permiten entender el estado del arte y planificar la investigación futura.

Diseño óptimo en aeronáuticaEn muchas disciplinas de ingeniería, y esencialmente en aeronáutica, el uso sistemático de los métodos matemáticos para simular y optimi-zar procesos tiene ya una larga tradición y resulta indispensable para ahorrar energía, reducir costes y polución y para aumentar la seguri-dad. Por ejemplo, no hay prototipo de nuevo automóvil de turismo que sea construido sin haber previamente recorrido millones de kilómetros en simulaciones por ordenador. A pesar de ello, aún a día de hoy, la simulación y optimización de una aeronave entera tiene un coste com-putacional prohibitivo.1

Son varias las razones para que ésto sea así y es por eso que ésta es un área en la que se continúa haciendo un esfuerzo investigador importan-te y en el que las matemáticas tienen cada vez más protagonismo.Desde un punto de vista matemático, el problema se formula de la si-guiente manera: el avión ocupa una región o dominio del espacio tridi-mensional, que denotamos mediante el símbolo Ω, en torno a la cual fluye el aire. Nótese que adoptamos un punto de vista más propio del de los ensayos en túneles de viento que en el vuelo real, en el que la nave está en movimiento mientras que en nuestro modelo matemático con-sideramos que la aeronave está fija y es el aire el que fluye en torno a la misma, lo cual nos permite trabajar en un sistema de coordenadas fijo.En la práctica, se pretende determinar la forma de la aeronave que op-timice algún criterio de interés industrial, comercial o medioambiental. Por ejemplo, que se maximice la sustentación de la aeronave o se mini-mice el consumo de combustible. Con el objeto de medir estas cantida-des introducimos una función o funcional de coste2 J(Ω), por ejemplo el consumo de combustible. Para simplificar un poco la presentación

Figura 1: Forma típica de una aeronave y simulación numérica bidimensional de las líneas de corriente del aire en torno a un ala.

1 Entendemos por ello que, con la capacidad de cálculo de los ordenadores actuales, el tiempo necesario para realizar el cálculo es tan largo que, en la práctica, éste resulta irrealizable o simplemente exige más tiempo del que disponemos. Es también frecuente que, cuando las simulaciones numéricas se prolongan excesivamente, las inestabilidades que introduce el propio algoritmo computacional acaben corrompiendo los resultados y los hagan finalmente inservibles.

2 La terminología “coste” en este contexto se utiliza en el sentido que, en muchas aplicaciones, el funcional J representa en efecto el coste económico que supone una determinada configuración. Minimizar el “coste”, tal y como nos proponemos aquí, es pues un objetivo natural desde un punto de vista de la rentabilidad económica.

3 Se trata en la práctica de un vector de tres componentes que proporciona la velocidad (rapidez escalar y direccionamiento) de la partícula de aire que ocupa el lugar x en el exterior de la región Ω ocupada por la aeronave, en el instante t.

Page 24: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

24 CICNetwork

Divulgación - Las matemáticas del diseño aeronáutico

Es por eso que una de las piezas clave de la metodología matemáti-ca que aquí describimos es disponer de modelos fiables para el com-portamiento del aire en torno al diseño Ω y métodos computacionales aproximados para su cálculo y previsión. Este es precisamente el papel de la mecánica de fluidos, que proporciona diversos modelos que per-miten identificar este campo de velocidades u a través de sistemas de Ecuaciones en Derivadas Parciales (EDP) que describen el movimiento del aire en torno a la aeronave. Hay toda una jerarquía de tales modelos dependiendo de que consideremos un modelo tridimensional (3 – d) completo que evoluciona en el tiempo, estacionario (independiente del tiempo), que tengamos en cuenta los efectos de la viscosidad del aire o no, de la turbulencia que se genera en torno a la aeronave, que adopte-mos un modelo reducido bi o unidimensional (2 – d o 1 – d), etc. Entre ellos cabe destacar las ecuaciones de Navier-Stokes, las de Euler, los modelos de turbulencia (Reynolds-Averaged Navier-Stokes (RANS), el modelo de Spalart-Allmaras) y las ecuaciones de Burgers.Como estamos viendo, todo esto es un proceso complejo en el que in-tervienen diferentes ingredientes de las más diversas áreas: mecánica de fluidos, ecuaciones en derivadas parciales, diseño optimo, geome-tría,... Sería materialmente imposible concluir con éxito este programa sin la ayuda del análisis y la simulación numérica mediante los ordena-dores más potentes. En este punto conviene también que tengamos en cuenta que, a pesar de que en cada uno de los pasos que debemos dar en el desarrollo de este ambicioso programa usemos los métodos com-putacionales más eficaces, el pequeño error computacional que come-tamos en cada paso puede tener un efecto acumulado importante en el resultado final. Obviamente, en la práctica, el diseño óptimo nunca se alcanza, ni es imprescindible hacerlo, pues una mejora significativa del diseño previo suele resultar rentable y suficiente. Ahora bien, sólo la combinación de las herramientas más punteras existentes y el diseño de nuevos métodos matemáticos y computacionales puede dar lugar a una mejora de los diseños ya existentes, incluso si el objetivo final es la mejora de su rendimiento en un porcentaje aparentemente pequeño.El punto de vista que adoptamos al abordar el diseño de las aeronaves desde las matemáticas es aquél según el cual al alterarse la forma del dominio Ω en búsqueda del óptimo, se altera el flujo del fluido, el aire en este caso, a su alrededor. Es la interacción del dominio Ω que ocupa la aeronave con el aire la que determina el grado de eficacia del diseño, a través del valor correspondiente del funcional de coste J, que nor-malmente está definido sobre la superficie exterior de la aeronave (lo que en matemáticas se denomina frontera: ∂Ω) y que mide cantidades físicas que afectan el rendimiento del avión, como la resistencia, la pre-sión o la sustentación de dicha configuración.

Los métodos de descensoLa mayoría de los métodos computacionales que se desarrollan en el ámbito de la matemática aplicada son de carácter iterativo. Es el caso de los métodos de descenso que describimos en esta sección. El princi-pio básico es tan sencillo y natural como eficaz y reposa en el hecho de que, si somos capaces de encontrar un método que mejore un diseño previo, aplicando este método de manera reiterada, deberíamos obte-ner diseños cada vez mejores, del mismo modo que la práctica constan-te en cualquier actividad nos permite mejorar el rendimiento.Veamos cómo podemos diseñar un método iterativo que pueda ser de

utilización sistemática en la minimización de funcionales y por tanto en diseño óptimo.En aquellos casos en que el funcional es convexo4 (tal y como se mues-tra en la izquierda de la Figura 2), es relativamente fácil calcular su mínimo a través de un método iterativo de descenso que lo que hace es reproducir algorítmicamente la trayectoria que una canica en el in-terior de la superficie seguiría hasta caer en el punto de mínimo por efecto de la gravedad, o la que adoptaríamos para descender una ladera lo más rápido posible.Desafortunadamente, en las aplicaciones aeronáuticas que nos ocu-pan, a causa de la compleja dependencia del funcional con respecto al dominio a través de las ecuaciones de la mecánica de fluidos antes mencionadas, no podemos asegurar que se tenga la forma convexa que tanto conviene a los métodos iterativos de minimización (véase la Figu-ra 2, derecha).5 Pero, en la práctica, a pesar de no poder garantizar que estemos en una configuración en la que el mínimo del funcional existe, este hecho no es un obstáculo para seguir aplicando la metología que estamos presentando, puesto que, como habíamos visto anterioremen-te, lo que realmente se busca en una aplicación es una nueva configura-ción que mejore la anterior.Recordemos brevemente el algoritmo iterativo del método de gradien-te, también denominado, muy elocuentemente, de máxima pendiente o “steepest descent” que reproduce precisamente la dinámica de la cani-ca sometida a la fuerza de la gravedad a la que antes hacíamos alusión.6 El método consiste en, a partir de un diseño inicial de arrancada Ω0, producir la sucesión de diseños Ωk, a medida que avanzamos en el valor del índice entero k = 0,1,2,3,..., de modo que, en cada paso, deforme el dominio previo Ωk en la dirección de máximo descenso del funcional J, con un paso de avance de amplitud fija ρ > 0, para obtener el nuevo dominio Ωk+1.7 Hay otras versiones y variantes de este método de máxi-mo descenso, como el método de gradiente conjugado, el de Newton, etc. que son más eficaces pero que están inspirados en el mismo tipo de ideas y que, en definitiva, producen una sucesión que aproxima el mínimo que supone una variante de la anterior.La aplicación de los métodos iterativos, como el método del gradien-te, necesitan, en cada paso de la iteración, calcular el gradiente del funcional a minimizar que representa la sensibilidad del funcional con respecto a cada uno de los parámetros de diseño. Es un principio fun-damental que una buena estrategia de optimización ha de estar basada

Figura 2: Izquierda: Superficie de un paraboloide cuyo mínimo está bien identificado y que un método de descenso encuentra con facilidad. Derecha: superficie más compleja en la que los métodos de descenso corren el riesgo de no converger.

Page 25: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

25CICNetwork

Divulgación - Las matemáticas del diseño aeronáutico

4 Desafortunadamente, hay una cierta ambigüedad en la terminología que se emplea para denominar las figuras que presentan la forma que se indica en a izquierda de la Figura 2. En efecto, mientras que en la literatura matemática avanzada éstas se denominan “convexas”, tal y como lo hacemos aquí, en cursos elementales de matemáticas se denominan “cóncavas”.

5 En este caso, en ausencia de convexidad, es fácil imaginar cómo la canica se perdería en una dinámica ininterrumpida sobre la superficie con esta geometría compleja, por efecto de la gravedad, sin nunca llegar a un punto de mínimo.

6 En este punto y en lo sucesivo abusamos de la notación. Para dar un sentido riguroso a estas fórmulas deberíamos considerar el funcional definido en un espacio de Hilbert, definir la distancia entre dominios, sus deformaciones a través de campos que apunten en la dirección normal, etc. Se dispone una teoría matemática consistente que arranca en los trabajos de J. Hadamard y que permite dar rigor a todo lo que aquí describimos.

7 De manera más rigurosa la regla de avance que permite obtener el nuevo dominio Ωk+1 a partir del anterior Ωk es Ωk+1 = Ωk — ρ∇J(Ωk), k ≥ 0, siendo ∇J(Ωk) el gradiente del funcional J, en la configuración Ωk que representa la dirección de máxima pendiente sobre la gráfica del funcional J.

8 En esta ecuación b(Ω) representa los datos del problema, el operador A(Ω) el modo en que el sistema responde ante estos datos, y u(Ω), el estado en consideración, es precisamente la respuesta del sistema. Formalmente la solución u(Ω) puede simplemente obtenerse por la fórmula u(Ω) = A(Ω)-1(b(Ω)). En la práctica, esto no es, sin embargo, fácil de hacer. Dar sentido a esta inversión del operador A(Ω) es, de hecho, en algunos casos, un verdadero reto intelectual aún pendiente de realizar.

9 Con el objeto de ilustrar el método adjunto, consideremos, para simplificar la presentación, un funcional de la forma:

J(Ω)=½<Bu(Ω), u(Ω)>,

en el que B es un operador simétrico. Entonces la variación del funcional J es δJ(Ω) =< Bu, δu >, donde δu es la variación del estado. Para evitar el cálculo de δu que, para cada parámetro de diseño, nos obliga a la resolución de un sistema semejante al de las propias ecuaciones de estado, introducimos el estado adjunto p que satisface A*(Ω)p = Bu. Aquí, mediante A(Ω)* denotamos el operador adjunto de A(Ω) que se caracteriza por la propiedad de que < A(Ω*v,w>=< v, A(Ω)w>. Vemos entonces que

< Bu,δu >=< A*(Ω)p,δu >=< p, A(Ω)δu >=< p,δb – δAu >,

y, por lo tanto, δJ puede ser calculado tomando productos escalares del estado adjunto p con cantidades que sólo dependen del estado ya conocido u y de las variaciones de los coeficientes del sistema, pero sin necesidad de recalcular δu. El método adjunto permite por tanto realizar cada paso de la iteración del método gradiente resolviendo dos sistemas: la ecuación de estado para el cálculo de u, y la de estado adjunto, para el cálculo de p.

en una buena comprensión del funcional a minimizar, lo mismo que el pilotaje de un vehículo con destreza exige un buen conocimiento de la respuesta del mismo al accionamiento de los diversos mandos que lo regulan. El gradiente codifica precisamente la sensibilidad del funcio-nal frente a la alteración de los parámetros de diseño.El cálculo del gradiente, como vamos a ver, es formalmente fácil de realizar aunque, cuando abordamos las aplicaciones reales a las que nos referimos, puede resultar sumamente costoso y complejo cuando el número de parámetros de diseño es elevado. Por ejemplo, en el ám-bito del diseño de una aeronave el número de parámetros relevantes puede ser del orden del centenar, correspondiendo cada uno de ellos a diferentes elementos geométricos de la aeronave (alas, sustentadores, cola, motores, etc.), sin contar otros como los propios materiales de los que está constituida, tema de gran actualidad también en el mundo de la aeronáutica que comienza a incorporar nuevos materiales en sus modelos más vanguardistas.En la práctica, el campo fluido u = u(Ω) obedece a las ecuaciones de la Mecánica de Fluidos en el exterior de la región Ω ocupada por la aeronave. Este sistema puede ser representado de forma abstracta del siguiente modo: 8

Al derivar estas ecuaciones con respecto a las deformaciones del do-minio Ω, con el objeto de calcular la sensibilidad del fluido δu, con respecto a variaciones de la misma, se obtiene Aδu = δb − δA u, que es una ecuación semejante a las del propio campo fluido u, en las que en el segundo miembro interviene el propio estado del fluido u, que ya conocemos, y las variaciones del modelo (δA y δb) que podemos calcular a partir de los datos de los que disponemos sobre el mismo. En la práctica, estas ecuaciones han de resolverse de manera aproxi-mada mediante el uso de herramientas computacionales, gracias a los ordenadores, discretizando el dominio fluido, y generando un malla-do computacional. Cada nodo de este mallado es un punto en el que aproximamos la solución u.Antes hablábamos del gran número de parámetros de diseño que se presentan habitualmente en las aplicaciones. En principio, a nivel com-putacional, la deformación de la geometría Ω (la sección bidimensio-nal del ala en la Figura 3) podría realizarse moviendo cada nodo que

está sobre su superficie, pero esto sería inmanejable. En la práctica, no es ésto lo que se hace sino que se identifican zonas o perfiles que deforman simultáneamente un cierto número de nodos, con unas for-mas predeterminadas, fruto de desarrollos analíticos o experimentales, como las que mostramos en la derecha de la Figura 3. A pesar de ello, el número de parámetros de diseño resulta aún del orden de las decenas, lo que tiene un coste computacional excesivo.Esto puede ser remediado por la técnica del “estado adjunto” que cons-tituye una versión moderna de los clásicos multiplicadores de Lagran-ge, que nos permite, mediante la resolución de un sólo sistema adicio-nal, calcular la sensibilidad con respecto a cualquier parámetro.9

Figura 3: Izquierda: mallado o triangulación del dominio computacional constituido por el exterior de una sección bidimensional de un ala. Centro: mallado regular del plano. Derecha: deformaciones de Hicks-Henne en el diseño de la sección 2 – d de un ala.

Page 26: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

26 CICNetwork

Divulgación - Las matemáticas del diseño aeronáutico

Las matemáticas de los fluidosLos modelos matemáticos de los fluidos son algunos de los objetos ma-temáticos más complejos y relevantes sobre los que aún no se dispone de una comprensión completa. Son muchos los factores que hacen que esto sea así. Uno de ellos es el hecho de que las soluciones desarrollen choques o discontinuidades, del mismo modo que las olas marinas se rompen al llegar al litoral. Esto hace que los métodos matemáticos ha-bituales, basados en la intuición y técnicas desarrolladas en el ámbito de las superficies y funciones regulares y que conducen a los gradientes de los funcionales que hemos de emplear en la implementación de los métodos de descenso, no puedan ser utilizados sin una revisión a fondo de los mismos. 10

Los choques o singularidades en mecánica de fluidos son un tema clási-co y sin duda uno de los más importantes para la teoría actual de EDP. Por otra parte, las ondas de choque son de hecho uno de los fenómenos más relevantes en muy diversos ámbitos de la mecánica (detonaciones, terremotos, fracturas, etc.) y, como vamos a ver, influyen de manera decisiva en los diseños aeronáuticos.Desde un punto de vista matemático, sin ir más lejos, la unicidad y re-gularidad de las soluciones de las ecuaciones de Navier-Stokes en tres dimensiones espaciales constituye uno de los problemas del milenio de la Fundación Clay.11 El modelo más sencillo en el que este tipo de fenó-menos queda de manifiesto es la ecuación de Burgers unidimensional. En su versión viscosa, las ecuaciones correspondientes son12

con un parámetro de viscosidad ν > 0 dependiente del fluido en cues-tión, y sus soluciones son regulares. Sin embargo, en ausencia de vis-cosidad, es decir ν = 0, obtenemos el modelo

que se asemeja a las ecuaciones de Euler de los fluidos perfectos en tres dimensiones espaciales. Sus soluciones desarrollan discontinui-dades, también denominadas choques, de igual modo que las olas del mar, con perfiles suaves en alta mar, se rompen al llegar a la costa, tal y como se ilustra en la Figura 4. Esto es debido a que las soluciones to-man valores constantes a lo largo de las trayectorias que describen las denominadas curvas características, que son las que trazan las propias partículas del fluido en movimiento. Al colisionar dos partículas, las soluciones se encuentran ante el conflicto de tomar dos valores distin-tos, generando una discontinuidad, del mismo modo que el tubo de una ola, antes de romperse, se enrolla sobre sí mismo en una configuración aparentemente imposible.Tal y como hemos señalado, uno de los elementos clave en el desarro-

el material de laboratorio en cuanto lo necesite

» Instrumentación analítica WATERS: UPLC, HPLC, HPLC-MS, GC-MS, MS-Alta Resolución, Aplicaciones Clínicas, Seguridad Alimentaria, Industria Farmacéutica

» Instrumentación Auxiliar» Reactivos y productos químicos» Material de vidrio y plástico» Mobiliario de laboratorio» Reparaciones

SUMINISTRO URGENTE AL LABORATORIO

Polígono Industrial Aurrera - Módulo 36 · Ctra. Baracaldo a Trápaga- Aptdo. 11 · Tél. 94 472 17 45 · Fax 94 472 11 26 · 48510 Trapaga Vizcaya · [email protected]

94 472 17 45

Page 27: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

27CICNetwork

Divulgación - Las matemáticas del diseño aeronáutico

llo de la metodología que acabamos de presentar es la utilización de esquemas numéricos eficaces para la aproximación de las soluciones puesto que éstas rara vez pueden ser obtenidas de forma explicíta.En el marco de la ecuación de Burgers, en ausencia de viscosidad, los esquemas más habituales son de la forma,

(4.1)donde, gn

j+½ = g(unj, un

j+1), siendo g el flujo numérico13 que ha de sa-tisfacer la relación de consistencia g(u, u) = u2/2. Esta condición de consistencia garantiza que el esquema numérico es, efectivamente, una aproximación de la ecuación de fluidos en consideración, en este caso la ecuación de Burgers.Se trata de esquemas en diferencias finitas de tres puntos que propor-cionan, a través del valor de la función discreta un

j, una aproximación de la solución u en los puntos (j∆x,n∆t), donde ∆x; y ∆t son los pasos del mallado en la dirección espacial x y temporal t, respectivamente. Tal y como hemos mencionado anteriormente e ilustrado en la Figura 3, en la práctica, los mallados considerados han de ser irregulares para adaptarse a la compleja geometría de las aeronaves, aunque el análisis numérico muchas veces se restringe, en una primera etapa, a los ma-llados cartesianos regulares (gráfica de la derecha de la Figura 3) en los que la bondad de los esquemas de discretización empleados puede verificarse con mayor facilidad.Existen muchos esquemas numéricos que satisfacen estas condiciones de coinsistencia (Lax-Friedrichs, Engquist-Osher, Godunov, Roe, etc.) y se distinguen, en particular, por tener una eficacia muy distinta cuan-do se trata de aproximar soluciones que presentan choques.Frecuentemente, los esquemas más eficaces, como el de Godunov y Roe, no son diferenciables, al involucrar una función de flujo g que no lo es,14 lo cual impide la aplicación de los métodos de descenso basa-dos en el gradiente del funcional, tal y como los hemos presentado. En efecto, la posible presencia de discontinuidades o choques en las soluciones hace que los esquemas tengan que ser sensibles al direccio-namiento del flujo e incluso a su amplitud. Esto hace que todo buen es-quema haya de incorporar limitadores, términos que se activan sólo en determinadas circunstancias en función del valor de ciertos sensores que miden, en particular, la inminencia de los posibles choques. De este

modo, los esquemas dejan de ser suaves en el paso de un nodo a otro y el formalismo de linealización anterior deja de ser válido. Este proble-ma es inevitable, pues los esquemas suaves, para capturar los choques de las soluciones, necesitan unos mallados tan finos que en la práctica suponen un coste computacional excesivo y no pueden ser utilizados.Esto conduce a un difícil dilema: necesitamos esquemas que resuelvan bien los posibles choques que se presentan en el fluido, pero esto nos obliga a utilizar esquemas numéricos que no son diferenciables, lo cual dificulta considerablemente el empleo de los métodos de descenso.Se trata éste de un tema de gran importancia, que se acrecienta en pro-blemas más complejos derivados de las aplicaciones a la aeronáutica que describimos y que son objeto aún de investigaciones exhaustivas.

InestabilidadesUna vez de haber desarrollado el programa matemático expuesto y el algoritmo de descenso en alguno de los lenguajes de programación más avanzados, pondremos el programa en marcha en el ordenador (normalmente un superordenador o granja de ordenadores para simu-laciones de características realistas) a la espera de obtener un diseño algo mejor que el que teníamos anteriormente, tal y como se ilustra a la izquierda de la Figura 5. En la tabla comparativa del centro de dicha gráfica mostramos experimentos numéricos realizados en la ecuación de Burgers sin viscosidad en presencia de choques. Constatamos cómo los diferentes métodos empleados, que se diferencian esencialmen-te en el esquema numérico utilizado para discretizar la ecuación y el modo en que se tiene en cuenta la presencia de choques en la solución, evolucionan en función del número de iteraciones del algoritmo gra-diente. Algunos de ellos descienden de manera muy lenta, lo cual, en la práctica, supone la no convergencia del método, pues en las aplicacio-nes reales, el número de iteraciones que se puede realizar, debido a su gran coste computacional, es muy pequeño. El algoritmo que presenta un mejor rendimiento, llegando en cuatro iteraciones a un valor mucho menor de lo que los demás métodos son capaces de alcanzar en 30, ha sido diseñado en el seno del proyecto DOMINO.Pero no hay que excluir que nos encontremos, de manera inesperada y contrariamente a nuestras expectativas, con resultados un tanto des-concertantes. En efecto, es frecuente que cuando, al cabo de un gran número de iteraciones y de haber consumido el tiempo computacional disponible, paramos un algoritmo, observar un resultado fuertemente

Figura 4: Izquierda: Imagen de una ola que en su lado izquierdo ya se ha roto y que en el otro está a punto de hacerlo. Centro: evolución de un frente solución de la ecuación de Burgers sin viscosidad que, de izquierda a derecha, se observa cómo desarrolla un choque. Derecha: rectas características que colisionan describiendo una curva sobre la que se propaga un choque.

el material de laboratorio en cuanto lo necesite

Page 28: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

28 CICNetwork

Divulgación - Las matemáticas del diseño aeronáutico

oscilante como el ilustrado en la derecha de la Figura 5, que resulta a todas luces inutilizable, puesto que una deformación de este tipo de la forma de un vehículo es irrealizable y contraria al propio sentido común. Estamos frente a una falsa solución, espúrea, producida por el método numérico, un fantasma numérico, y no la que corresponde al problema real original planteado. Es una situación producida por la acumulación de errores numéricos en los que vamos incurriendo en cada paso del complejo proceso de optimización y que acaban corrom-piendo completamente los resultados numéricos finales. Es una mani-festación de haber violado la condición de estabilidad que, junto con la de consistencia antes mencionada, según el Teorema de Peter Lax (Premio Abel 2005), garantiza la convergencia de un método numérico. Esta inestabilidad es la que produce este tipo de resultado altamente oscilante, de alta frecuencia y gran amplitud.Es por eso que los algoritmos iterativos de tipo gradiente que hemos descrito han de ser suplementados con frecuencia con técnicas de fil-trado y/ o regularización de las altas frecuencias espúreas, lo cual se realiza con frecuencia mediante la utilización de varios mallados simul-táneos, del mismo modo que las obras de arte necesitan de un acabado o pulido final antes de considerarse terminadas.

Conclusiones: algunos retosEn este artículo hemos descrito los ingredientes principales de los mé-todos matemáticos de diseño óptimo de formas, centrándonos en la aeronáutica. Como hemos visto, son muy diversos los elementos que intervienen en el desarrollo de una metodología global y sistemática y en la que las matemáticas juegan un papel central, en coordinación con otras disciplinas y muy en particular con la computación. El programa que hemos descrito está fuertemente inspirado en las ideas de algu-nos de los clásicos como Euler y Newton, pero utiliza los desarrollos más actuales y avanzados de muy diversos ámbitos de las matemáticas. Hemos mencionado las dificultades que surgen en su implementación y algunos problemas abiertos a los que ésto conduce, que son de pro-fundo calado matemático. En esta última sección realizamos un breve resumen de las principales problemas abiertos que se plantean en éste área, no sin antes recordar que la metodología descrita tiene un carác-ter universal por su amplio e importante espectro de aplicaciones al que aludíamos al inicio de este artículo, más allá de los propios de la aeronáutica. Entre los problemas más relevantes que quedan por resol-

ver en este campo cabe mencionar:• Regularidad y unicidad de las soluciones de las ecuaciones de los

fluidos en tres dimensiones espaciales.• Desarrollo de métodos de identificación de choques y singularida-

des, lo cuál requerirá el empleo y desarrollo de técnicas propias del tratamiento de imágenes y cual de la geometría computacional.

• Análisis de la sensibilidad de los funcionales de coste habituales con respecto a las singularidades del fluido.

• Métodos eficaces para resolver numéricamente las ecuaciones ad-juntas que, aunque tengan un aspecto semejante a los modelos clá-sicos de la Mecánica de Fluidos, poseen soluciones con caracterís-ticas muy distintas a las ecuaciones de estado que no son fáciles de capturar.

• Desarrollo de nuevos métodos de minimización que transciendan los métodos gradiente habituales, puesto que estos últimos permi-ten mejorar los diseños ya existentes pero no dar con otros más innovadores.

• Desarrollo de métodos de filtrado y regularización de las oscilacio-nes espúreas que funcionen de manera sistemática y de modo que el calibrado de los parámetros relevantes pueda automatizarse.

Todos estos problemas técnicos se enmarcan en un esfuerzo colectivo, que necesita un abordaje multidisciplinar, y que tiene como objetivo último el desarrollo de métodos computacionales integrados en los que los procesos de simulación del fluido y la optimización se realicen en paralelo, proporcionando herramientas de diseño que puedan ser usa-dos de manera intuitiva, creativa, versátil y en tiempo real en entornos avanzados de diseño, dotados de las más modernas tecnologías, en par-ticular, de realidad virtual.

10 En efecto, del mismo modo que la derivada de una función discontinua como la función H de Heaviside (H = 0, x < 0; H = 1, x > 0) tiene como derivada la delta de Dirac δ0 (medida singular que concentra una masa unidad en un sólo punto, x = 0), al linealizar una EDP en torno a una solución que presenta discontinuidades, se producen términos singulares soportados en el lugar geométrico de los choques.

11 Lo cual corresponde a justificar la inversión el operador A(Ω) al que antes aludíamos para obtener la expresión u(Ω) = (A(Ω))-1(b(Ω)) para los fluidos tridimensionales.

12 En este caso utilizamos la notación u en lugar de u con el objeto de subrayar que se trata de una función escalar que representa, por ejemplo, la altura de una ola en un canal unidimensional.

13 El flujo numérico tiene como objeto simular en el modelo computacional la cantidad de fluido que entra y sale por los extremos del intervalo [xj,xj+1], siendo xj = j∆x los nodos del mallado espacial.

14 lo mismo que ocurre con la función valor absoluto |x| = x, si x ≥ 0 y |x| = –x, si x ≤ 0, que no es diferenciable en el punto x = 0 en el que la gráfica de la función presenta dos pendientes distintas ±1, a ambos lados.

Figura 5: Izquierda: evolución del coeficiente de presiones Cp a lo largo de la superficie del ala, al pasar de la geometría inicial (en negro) a la nueva (en rojo) tras un proceso de optimización. Centro: rendimiento de los diversos métodos de descenso aplicados a la ecuación de Burgers mediante diferentes esquemas de discretización y diferenciando, sobre todo, el tratamiento de los choques. Derecha: inestabilidades numéricas.

Page 29: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

29CICNetwork

XXXXXX

Page 30: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

30 CICNetwork

Inve

stig

ació

n ho

y

Page 31: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

31CICNetwork

Imagen molecularen medicinaManuel Desco y Juan José Vaquero, Hospital General Universitario Gregorio Marañón

El auge de la imagen molecular se debe, entre otras circunstancias, al reciente acercamiento de la biología molecular y las tecnologías de imagen, y cabe esperar que en un futuro cercano se produzca una ace-leración de la transferencia de estas técnicas a la práctica clínica.Un concepto clave de este campo es el de “sonda para imagen mole-cular”. Se llama así a cualquier compuesto capaz de proporcionar, por una parte, un componente de afinidad o especificidad que determina la diana biológica a que se unirá y, por otra parte, un componente que permite su detección externa mediante diferentes técnicas de imagen. Es interesante resaltar que un mismo componente de afinidad puede unirse a diferentes componentes de detección, y eso facilita la elección de la técnica de imagen más adecuada.

El gran éxito que está teniendo la imagen molecular se debe en gran medida a la buena aceptación que tiene en aquellos campos de la biolo-gía molecular en los que tradicionalmente se ha trabajado con métodos in vitro y en los cuales el salto a la técnica in vivo supone un avance importante. Las claves de este éxito radican en la capacidad de desa-rrollar sistemas de imagen suficientemente sensibles, sondas de gran especificidad y métodos de amplificación para los casos en los que la sensibilidad sea baja.

Imagen nuclearLa medicina nuclear ha sido una técnica de imagen intrínsecamente molecular desde sus orígenes, y su uso clínico está ampliamente exten-dido en la actualidad. Las sondas para la imagen nuclear utilizan como componente de detección un átomo radiactivo cuyas emisiones pue-den detectarse desde el exterior. Existen básicamente tres variantes: la imagen plana (gammagrafía), la tomografía de elementos emisores de fotón único (SPECT) y la tomografía de positrones (PET). La PET es la que mejores características presenta para la investigación biomédica, por su resolución, carácter cuantitativo y mayor sensibilidad (puede detectar concentraciones nanomolares). Además, el marcaje se realiza

La imagen molecular se caracteriza, en el contexto de la imagen médica, por su capacidad para detectar y cuantificar en vivo procesos celulares a nivel molecular, lo que permite el estudio de dichos procesos de forma remota y no invasiva, sin perturbar el sistema en estudio.

Visi

ón tr

idim

ensi

onal

de

un e

stud

io fu

ndid

o PE

T-CT

de

una

rata

.

Manuel Desco. Médico, ingeniero superior de Telecomunicaciones, especialista en Medicina

Nuclear y doctor por la Universidad Complutense de Madrid. Jefe de la Unidad de Medicina y

Cirugía Experimental del Hospital General Universitario Gregorio Marañón.

Juan José Vaquero. Doctor ingeniero de Telecomunicaciones y máster en Tecnología e

Instrumentación Biomédica. Actualmente coordina las actividades de imagen molecular en el

Laboratorio de Imagen Médica del Hospital General Universitario Gregorio Marañón.

Page 32: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

32 CICNetwork

con radioisótopos de elementos constituyentes de la materia orgánica, como el carbono, el oxígeno, el nitrógeno o el flúor, y eso amplía mu-cho el abanico de sustancias que se pueden marcar. Su mayor inconve-niente deriva del hecho de que los radioisótopos utilizados tienen pe-ríodos de semidesintegración muy cortos, por lo que han de generarse en ciclotrones in situ, lo que complica y encarece su uso. Una de las dificultades que debe afrontar la imagen nuclear (PET o SPECT) es su relativamente baja resolución espacial, que dificulta la identificación de las estructuras. De ahí surge el interés de utilizar simultáneamente otras modalidades de imagen estructural que apor-ten esa información anatómica, como, por ejemplo la tomografía de rayos X.

Tomografía de rayos XLa tomografía de rayos X (CT) aporta una información anatómica de gran valor. El contraste de las imágenes depende de un parámetro fí-sico relativamente “simple”: el coeficiente de atenuación a los rayos X, directamente relacionado con la densidad del tejido. Podría decirse que no es una técnica de imagen molecular en el estricto sentido de la definición, pero ha demostrado ser una herramienta complementaria utilísima cuando se combina con otras modalidades de imagen funcio-nal, dado que aporta una información estructural que permite una me-jor localización de las funciones representadas en la otra imagen.Como contrapartida de la imagen de rayos X cabe mencionar, por un lado, el bajo contraste que presentan los tejidos blandos y, por otro, la dosis de radiación ionizante a la que expone la muestra, que no es despreciable y que limita el número de exploraciones que se pueden hacer en un mismo sujeto. Sus mayores ventajas son la simplicidad de manejo y que puede integrarse fácilmente con otras modalidades, en dispositivos de imagen híbrida.

Imagen de resonancia magnéticaEl mecanismo de producción de la imagen de resonancia magnética (MRI) es bastante complejo: la muestra debe colocarse en el seno de un potente campo magnético constante, habitualmente producido por un electroimán superconductor. La muestra se “ilumina” con impulsos de ondas de radio cuya frecuencia corresponde a la de resonancia de ciertos núcleos —habitualmente, el de hidrógeno—, y los tejidos de-vuelven esta energía que es captada desde el exterior por una bobina o antena. Las diferencias químicas de los entornos moleculares de esos núcleos y la abundancia de los mismos determinan el contraste de la imagen, en función de la secuencia de pulsos electromagnéticos apli-cados a la muestra.Es destacable la capacidad de la MRI para obtener información anató-mica, funcional e, incluso, de composición química (mediante la llama-da espectroscopia por resonancia magnética). La resolución espacial alcanzada depende del equipo y de la secuencia utilizada, y se llega, incluso, a la obtención de imágenes microscópicas (10 μm de resolu-ción) con instrumentos especializados de alto campo.La principal limitación de la MRI como técnica de imagen molecular es su relativamente baja sensibilidad, del orden de mili a micromolar. Esta baja sensibilidad hace muy aconsejable el desarrollo de mecanismos de amplificación que permitan aumentar la señal; para ello se utilizan cationes metálicos convenientemente quelados, o incluso nanopartícu-

Investigación hoy - La imagen molecular en medicina

1: Gammagrafía de un esqueleto humano. 2: Resonancia magnética de cabeza humana. 3: Tomografía de elementos emisores de fotón único (SPECT)

2

3

1

Page 33: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

33CICNetwork

Investigación hoy - La imagen molecular en medicina

las superparamagnéticas. El desarrollo de estos agentes de contraste constituye un área de investigación muy prometedora, sobre todo en lo relativo a agentes de contraste inteligentes, que se activan o desactivan en presencia de una determinada enzima, cambiando selectivamente las propiedades paramagnéticas del entorno en el que se encuentran.

Imagen ópticaLa imagen óptica es probablemente la técnica más extendida actual-mente en la investigación biomédica para su uso in vitro y ex vivo, debido a su sencillez y a su bajo coste. Existe una amplia disponibili-dad de preparados o kits de laboratorio para realizar experimentos de bioluminiscencia y fluorescencia, sobre todo en microscopía. Sin em-bargo, su aplicación in vivo ha estado siempre limitada por las propie-dades físicas de la radiación luminosa. Aún así, en los últimos años han aparecido técnicas —como la tomografía de coherencia óptica— que permiten realizar imágenes tomográficas con resoluciones en el rango de las decenas de micras. Además de esta alta resolución espacial, la imagen óptica presenta la ventaja de ofrecer una alta resolución tem-poral y una extraordinaria sensibilidad, que puede llegar a detectar concentraciones picomolares.El traslado de la imagen óptica a la experimentación in vivo no está exento de complicaciones, que se derivan de la dificultad que supone la detección de la luz emitida en el interior del organismo vivo en estudio, dado que el tejido biológico presenta una cierta opacidad en las longi-tudes de onda de la radiación utilizada. Gracias al desarrollo de dispo-sitivos muy sensibles tipo CCD (charged coupled devices, dispositivos acoplados en carga) se han podido transferir para uso in vivo técnicas en principio solo viables para cultivos celulares, si bien es verdad que en la mayoría de los experimentos con animales se prefiere utilizar ra-tones del tipo “desnudo”, cuya piel resulta especialmente transparente a las longitudes de onda utilizadas.Por el momento, los avances más significativos se deben al diseño de nuevas sondas, de modo que es posible disponer de sondas basadas en proteínas de fluorescencia en el rojo, fluorocromos activables, sondas bioluminiscentes o combinaciones de ellas que, funcionando en dife-rentes zonas del espectro, permiten su utilización para realizar imáge-nes multicanal in vivo.Los mecanismos más habituales son la fluorescencia y la bioluminis-cencia. Dado que en la fluorescencia la emisión de luz depende de la luz incidente y no se origina como consecuencia de una reacción quí-mica, el tejido de interés deberá contener una sustancia que absorba la luz de excitación y que genere una emisión de luz como resultado. Lógicamente, la excitación ha de ser capaz de atravesar todos los teji-dos intermedios hasta llegar al lugar de interés, y la emisión generada también debe ser capaz de llegar al exterior del cuerpo para poder ser detectada. Normalmente, cuando se diseñan estas sondas para uso in vivo, se procura que las emisiones se localicen alrededor del infrarrojo cercano (NIR, near infrared), dado que en esas longitudes de onda (de 700 a 900 nm, aproximadamente) la penetración en el tejido biológico es mayor. A ello se debe el creciente interés en el desarrollo de sondas y contrastes con fluorescencia en el NIR. Otro mecanismo de producción de luz es la bioluminiscencia. En este caso, la producción de luz es el resultado de un proceso biológico que normalmente se habrá asociado a la función que se esté estudiando. La

1: Dispositivo CCD de captura de imagen óptica de alta sensibilidad. 2: Planta de tabaco alterada genéticamente para producir luciferasa (Fuente revista Science). 3: Escaner PET/CT de un cáncer de colon (Fuente National Cancer Center, Japón).

2

3

1

Page 34: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

34 CICNetwork

Investigación hoy - La imagen molecular en medicina

bioluminiscencia es un fenómeno habitual en la naturaleza y, si bien la química subyacente difiere dependiendo de la especie, el mecanismo es siempre similar: un sustrato, la luciferina, interactúa con la enzima luciferasa, dando lugar a la emisión de fotones de luz. La gran ventaja de esta técnica es que no existe ruido de fondo, porque el animal en estudio no dispone de un sustrato endógeno para la luciferasa, por lo que la relación entre la señal y el ruido es muy alta. Estas técnicas no están exentas de problemas que pueden restringir su uso. Probablemente la limitación más seria sea la debida a la trans-misión de la radiación luminosa través del tejido biológico. Se calcu-la que, por cada centímetro de tejido, la señal se reduce en un orden de magnitud; además, esta atenuación y la dispersión asociada no son constantes y uniformes, ya que dependen del tejido. Todo ello limita seriamente la posibilidad de hacer estudios tomográficos, razón por la cual la mayoría de estos sistemas generan imágenes de proyección planar, lo que, a su vez, limita la posibilidad de realizar estudios cuan-titativos. No obstante, hay trabajos recientes en los que, mediante el uso de excitaciones especiales y conjuntos de detectores colocados alrededor de la muestra, se consigue realizar imágenes tomográficas de fluorescencia con resoluciones de 3 milímetros aproximadamente.Una última desventaja, también consecuencia de la limitada penetra-ción de la radiación luminosa, es la difícil extrapolación de estas técni-cas a estudios con humanos, a causa del mayor grosor de los órganos y tejidos.

EcografíaDe todas las técnicas comentadas hasta el momento, ésta es la única que no hace uso de radiación electromagnética para la formación de la imagen. La ecografía utiliza ondas acústicas que producen ecos al atravesar los diferentes tejidos. Esos ecos son detectados y procesa-Sonograma de un feto humano de 6 meses.

Imagen simultanea de MRI y PET de un cerebro humano. Fuente Siemens.

Page 35: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

35CICNetwork

dos, y de ellos se extrae una serie de características mecánicas de la muestra explorada. De esta forma, y utilizando ultrasonidos de muy alta frecuencia (40 a 60 MHz), se pueden obtener, en pequeños anima-les, imágenes de muy alta resolución, entre 15 y 40 μm, dando lugar a lo que se denomina ‘biomicroscopía por ultrasonidos’. Por tratarse de una técnica no invasiva y que no utiliza radiación ionizante, puede emplearse para el estudio del desarrollo embrionario o de la angiogé-nesis tumoral, además de las aplicaciones habituales en estudios de la función cardiaca o circulatoria y microcirculatoria, mediante el uso del efecto Doppler.Están, también, los recientes avances en el diseño de agentes de con-traste, que se pueden dividir en dos grandes grupos. El primero lo constituyen los contrastes intravasculares (como las microburbujas de perfluorocarbono o aire encapsuladas en un polímero que se destruye al ser expuesto a los ultrasonidos), que abren un amplio abanico de aplicaciones centradas, principalmente, en el estudio de la microvascu-larización. El otro grupo lo constituyen los contrastes dirigidos a recep-tores de membranas celulares, que utilizan nanopartículas ligadas al marcador que modifican las propiedades mecánico-acústicas del tejido al que se ligan. Estos contrastes abren nuevos campos a la investiga-ción y al uso de los ultrasonidos como técnica de imagen molecular.

MultimodalidadSi bien la fusión de dos modalidades de imagen no se debería conside-rar como una técnica diferente en sí misma, la complejidad que implica la realización de estos estudios obliga a hacer algunas consideraciones

Investigación hoy - La imagen molecular en medicina

Visión tridimensional de un estudio fundido PET-CT de una rata.

Estudio fundido PET-CT en una ratón, para cuantificar la distribución intrapulmonar de un trazador.

Estudio CT con contraste, donde se observa un tumor en el tórax y la eliminación renal del contraste.

al respecto. Las diferentes modalidades de imagen ofrecen informacio-nes complementarias, y de su combinación surgen ventajas adicionales. Para registrar estudios —poner en correspondencia espacial uno a uno todos los puntos de los distintos volúmenes que representan las dife-rentes modalidades— es necesario eliminar las diferencias de tamaño, de posicionamiento, de orientación o, incluso, de distorsión espacial. El proceso consiste en una búsqueda de la transformación geométrica necesaria para poner las dos imágenes en concordancia y en la aplica-ción de esa transformación a uno de los estudios (registro), para, poste-riormente, hacer una visualización conjunta del resultado (fusión). Además de estas técnicas informáticas para obtener la imagen mul-timodalidad, en los últimos años se están desarrollando sistemas hí-bridos que integran en un solo dispositivo al menos dos modalidades —por ejemplo, el PET-CT, el SPECT-CT o, incluso, la MRI-PET—. Ya están disponibles versiones comerciales de sistemas PET-CT tanto para humanos como para animales; los principales argumentos a favor de estos dispositivos son la posibilidad de hacer las dos exploraciones intrínsecamente registradas, en un tiempo mínimo y sin necesidad de trasladar al paciente. Algo similar ocurre con la instrumentación de imagen molecular para pequeños animales de laboratorio: son varios los grupos de investigación que se están aventurando a integrar varias modalidades en un solo sistema, y empiezan a estar disponibles comer-cialmente. Estos sistemas ofrecerán nuevas posibilidades al investiga-dor, que podrá desarrollar y caracterizar sondas de imagen y cuantificar sus parámetros con mucha mayor precisión; y ello permitirá, también, una mejor interpretación de los datos.

Page 36: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

36 CICNetwork

XXXXXX

zoeléctrico localiza la aguja en la superficie. La detección se consigue por un haz de láser enfocado sobre el voladizo y que se refleja en un fotodiodo (Fig. 1). Los “accidentes” (moléculas) que encuentra la aguja en su barrido hacen subir o bajar el voladizo, y eso causa un cambio en la posición del haz reflectado en el fotodiodo que, a su vez, permite elaborar un mapa topográfico de la superficie.La AFM encuentra una importante aplicación biológica en los estudios de las membranas celulares. Las membranas se disponen sobre soportes planos inertes, por ejemplo mica, bañadas en una solución fisiológica a temperatura controlada. Las proteínas de las membranas aparecen como protuberancias cuyas irregularidades son detectadas por la aguja. Hay imágenes obtenidas a partir de los complejos fotosintéticos de la bacteria Rhodospirillum, que muestran cambios estructurales con la intensidad de la luz. Esto es posible gracias al mínimo tratamiento requerido por las muestras biológicas para su examen por AFM; en muchos casos, basta con depositar unos pocos microlitros de la muestra sobre la superficie

Microscopía de fuerza atómica o AFMLa microscopía de fuerza atómica (AFM, de sus siglas en inglés) es una técnica que permite obtener imágenes con resolución igual al nanó-metro —el nanómetro es la milésima parte del micrómetro—, incluso menos, por medio de una nanosonda que va recorriendo (“barriendo”) la superficie de la muestra. La AFM es, por lo tanto, una técnica de scanning o barrido. El microscopio de AFM consta de una aguja (tip, stylus) muy afilada, montada en el extremo de un pequeño voladizo (cantilever) que permite el movimiento vertical de la guja a medida que ésta va “barriendo” la superficie de la muestra. Un transductor pie-

Imágenes de las moléculas biológicasEn el siglo XXI estamos asistiendo al rápido desarrollo de técnicas que nos permiten observar, “ver”, directamente las moléculas que conforman los seres vivos, incluso en la célula, su entorno natural. Este conjunto de técnicas se conoce en inglés como molecular imaging y se puede agrupar en tres categorías: la microscopía de fuerza atómica, las técnicas de seguimiento de partículas individuales o single particle tracking y el gran grupo de técnicas basadas en la fluorescencia.

Félix M. Goñi. Director de la Unidad de Biofísica (CSIC-UPV/EHU),

Leioa, Bizkaia

Félix M. Goñi, Director de la Unidad de Biofísica (CSIC-UPV/EHU)

Inve

stig

ació

n h

oy

Page 37: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

37CICNetwork

de mica o vidrio.La AFM se aplica también a muestras de DNA y RNA, a moléculas de proteína —como el colágeno—, al análisis de complejos de proteína y ácido nucleico, a cromosomas y a otros biomateriales; tiene, asimismo, aplicaciones no biológicas —nanotubos, etc— que no vamos a citar. Tam-bién las células vivas han sido objeto de estudio por AFM, de manera que se ha conseguido, por ejemplo, observar, en tiempo real, los movimientos de células epiteliales en migración. La Fig. 2 muestra imágenes de aplica-ciones de AFM.Estudios recientes han conseguido imágenes de AFM de células vivas situadas no sobre un soporte rígido, sino suspendidas entre dos compar-timentos acuosos. Esto abre el camino a numerosos estudios fisiológicos sobre fenómenos de transporte y de excitación eléctrica, sobre todo por la posibilidad de variar a voluntad la composición química de la disolu-ción de cada compartimento.

Seguimiento de partículas individuales o SPTEsta técnica, que se designa abreviadamente SPT por las siglas de su nom-bre en inglés, utiliza la videomicroscopía combinada con el procesamien-to digital de imágenes para observar el movimiento de una molécula en un plano. La necesidad de que la molécula se mueva, sobre todo, en dos dimensiones, hace que la técnica sea particularmente útil para el estudio de las moléculas que componen las membranas celulares. Las moléculas se hacen visibles uniéndolas a partículas de tamaño inferior a un micró-metro por medio de anticuerpos o ligandos específicos. Por ejemplo, para observar moléculas la proteína CD4, que es la molécula a la que se une el virus del SIDA en la superficie de los linfocitos T, se utiliza un anticuerpo anti-CD4 —obtenido de manera independiente inmunizando un conejo con CD4—, unido por métodos bien establecidos a esferitas de látex (0,2 - 0,5 micrómetros de diámetro) o a partículas de oro coloidal (0,04 - 0,1 micrómetros). Como las partículas son mucho más pequeñas (1.000 y 10.000 veces más pequeñas) que la longitud de onda de la luz utilizada en el microscopio, dispersan la luz, y la luz dispersada permite su localiza-ción con una precisión de unos 0,01 micrómetros. Es el mismo fenómeno por el cual las partículas de polvo se nos hacen visibles a la luz del sol que atraviesa una ventana, sólo que en nuestro caso hemos seleccionado, por medio del anticuerpo, un solo tipo de molécula, y dentro de ese tipo de molécula, por medio del microscopio, sólo unas moléculas concretas.Las imágenes del vídeo se procesan en tiempo real. El software debe ser capaz de detectar una partícula individual sin confundirla con otras, y te-ner la flexibilidad suficiente como para permitir cambios en la estructura aparente de la partícula cuando ésta se desenfoca ligeramente. El análisis de la trayectoria de una partícula se lleva a cabo determinando, en cada imagen del video, las coordenadas (x,y) de la partícula, y calculando los desplazamientos a intervalos regulares de tiempo (Fig. 3). La SPT permi-te distinguir entre movimiento browniano, confinamiento y flujo dirigido de las moléculas en las membranas. Por mencionar sólo dos ejemplos, estudios de SPT han permitido observar cómo ciertos receptores olfati-vos quedan inmovilizados en la superficie celular cuando se unen a una molécula odorante y forman, junto con otras moléculas de la membrana, un complejo que inicia la transmisión de la sensación olfativa al cerebro. También se ha demostrado que la difusión de proteínas del complejo principal de histocompatibilidad se retrasa cuando la concentración de colesterol en la membrana disminuye.

1 Láser2 Espejo3 Fotodetector4 Amplificador5 Registrador6 Muestra7 Aguja8 Voladizo

Fig. 1. Esquema del funcionamiento del microscopio de fuerza atómica (AFM).

Fig. 2. Imágenes obtenidas por AFM. (A) Fibrilla de beta-amiloide, la sustancia que se acumula en la enfermedad de Alzheimer. (B) Membrana sintética compuesta por lípidos y la proteína fluorescente Rho PLAP. Los picos blancos corresponden a la proteína.

Investigación hoy - Imágenes de las moléculas biológicas

Page 38: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

38 CICNetwork

Fluorescencia y sus aplicacionesLas moléculas de las sustancias coloreadas absorben constantemente cuantos de energía luminosa en el intervalo del espectro electromagné-tico correspondiente a la luz visible. Merced a la energía absorbida, hay electrones que acceden a un nivel energético excitado. En la mayoría de los casos, el retorno a la situación basal (relajación) se produce por pér-dida de energía no radiante (calor). Sin embargo, en algunos casos las moléculas pueden relajarse emitiendo energía luminosa, a una frecuencia ligeramente menor que la luz incidente. Esta emisión se llama fluorescen-cia, y tiene numerosas aplicaciones en la obtención de imágenes en bio-logía. A veces, las propias moléculas biológicas son fluorescentes, como es el caso de las proteínas. Otras veces, las biomoléculas se modifican ligeramente para unirlas a grupos químicos fluorescentes. El resultado, en cualquier caso, es que podemos excitar la fluorescencia de moléculas específicas y observar su localización en el interior de la célula. Debido a la utilidad de este fenómeno, en los últimos años se ha desarrollado una plétora de técnicas fluorescentes aplicadas a la imagen biológica, de las que daremos aquí sólo unos pocos ejemplos.Fluorescencia y microscopía confocal. En un microscopio convencio-nal, la totalidad de la muestra se ilumina con la luz de una lámpara de xe-non o de mercurio. Como las muestras biológicas son normalmente más gruesas que el plano focal, la imagen contiene una aportación importante de luz desenfocada, lo que perjudica su calidad. En el microscopio con-focal, la muestra se ilumina barriendo con un haz de luz enfocada, gene-ralmente un láser. El haz de luz se hace incidir en un punto de la muestra por medio del objetivo, y se mueve lateralmente en el plano de la muestra mediante un sistema mecánico controlado por ordenador. Las secuencias de puntos de luz de la muestra se detectan en un tubo fotomultiplicador a través de un pequeño agujero (pinhole), y el ordenador las convierte en imagen. La función del agujero es eliminar la luz no enfocada (Fig. 4). Aunque la microscopía confocal se puede aplicar a muestras fijadas y te-ñidas con los procedimientos histológicos habituales, la utilización de la fluorescencia permite obtener imágenes de células vivas intactas.La microscopía confocal produce, en principio, la imagen de un plano —lo que se llama una sección óptica—. Enfocando la muestra en distin-tos puntos del eje z se obtiene una serie de secciones ópticas de alta reso-lución, que pueden utilizarse para reconstruir una imagen tridimensional. Además, se pueden utilizar distintas longitudes de onda para excitar la fluorescencia de diversas moléculas. Como existen sondas fluorescentes características de numerosos orgánulos y estructuras celulares, se pue-den obtener con facilidad imágenes específicas de núcleos, mitocondrias, fibras de actina, etc. (Figs. 5 y 6).Fluorescencia multifotónica. Esta técnica constituye otro procedi-miento para eliminar la luz no enfocada, aunque se basa en un fenómeno enteramente distinto, como es la absorción de varios fotones —habitual-mente dos— en un único suceso cuántico. En la microscopía confocal, la luz no enfocada se elimina a través del agujero estenopeico (pinhole) pero todo el espesor de la muestra es iluminado, con los consiguientes riesgos ciertos de fotoblanqueamiento y fototoxicidad. En cambio, en la micros-copía multifotónica sólo se ilumina la muestra en el propio plano focal.En el caso más frecuente de la microscopía de dos fotones, la excitación se produce por la absorción simultánea de dos cuantos de luz. Como la energía de un fotón es inversamente proporcional a su longitud de onda, los dos fotones absorbidos deben tener una longitud de onda doble de la

Fig. 3. Movimiento de gránulos de secreción a lo largo de una dendrita. En color se representa la trayectoria retrógrada (flecha R) de un gránulo que va de la zona roja hacia la púrpura, mientras otro gránulo sigue la trayectoria anterógrada (flecha A).

Fig. 4. Esquema del funcionamiento del microscopio confocal.

Fig. 5. Microscopía confocal. (A) Reparto de una proteína (Tac) unida a una proteína fluorescente (CFP) entre la membrana (rojo) y el citoplasma (azul). (B) Células de hipocampo de rata: neuronas (rojo) y astrocitos (verde).

FotodetectorAgujero Confocal

Objetivo

Muestra

Rayos de luz enfocados

Rayos de luz desenfocados

Investigación hoy - Imágenes de las moléculas biológicas

Page 39: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

39CICNetwork

requerida para la excitación por un fotón único. Por ejemplo, una molé-cula fluorescente que absorbe normalmente luz ultravioleta de 350 nm puede también ser excitada por dos fotones de luz infrarroja de 700 nm que actúen simultáneamente (en unos 10-18s).Como la fluorescencia de dos fotones depende de la doble absorción simultánea, la emisión fluorescente depende del cuadrado de la intensi-dad de la excitación. Para obtener un número significativo de sucesos de doble excitación, la densidad de fotones debe ser un millón de veces superior a la necesaria para excitar con un fotón. Esto se consigue sin dificultad utilizando láseres pulsados (mode-locked) en los cuales la in-tensidad en el máximo del pulso es suficiente para generar excitación por dos fotones, al tiempo que la intensidad media de la irradiación láser no es demasiado alta. Esto permite obtener, con dos fotones, la misma intensidad de emisión fluorescente que con fotón único.Cuando el láser se enfoca en un punto de la muestra, allí, y sólo allí, se produce una concentración de fotones suficiente como para generar la doble excitación. El enfoque óptimo concentra los fotones en el espacio y el pulso de láser los concentra en el tiempo, de modo que sólo una pe-queña fracción de la muestra y sólo durante un corto espacio de tiempo están afectados por la radiación (Fig. 7). En consecuencia, la microscopía de dos fotones consigue una resolución tridimensional idéntica a la obte-nida en un microscopio confocal ideal. Además, como no hay absorción en las regiones no enfocadas, la penetración de la luz en la muestra es dos o tres veces mayor que la alcanzable con la microscopía confocal. Por otra parte, la baja energía media que recibe la muestra la protege del fotoblanqueamiento y la fotolisis (Fig. 8).La proteína verde fluorescente. Junto a estos avances físicos y tec-nológicos, es necesario mencionar aquí un descubrimiento biológico de similar importancia en las tecnologías de imagen. Se trata de la llamada proteína verde fluorescente (green fluorescent protein, GFP) y sus deri-vados. La GFP fue aislada de una medusa, Aequorea victoria, y rápida-mente clonada, de manera que está disponible en cantidades ilimitadas. Como su propio nombre indica, es una proteína que emite espontánea-mente una fluorescencia verde intensa. La proteína es muy robusta y se puede unir, químicamente o por ingeniería genética, a casi cualquier otra proteína. La proteína quimérica resultante tiene normalmente la fluores-cencia verde de uno de sus integrantes, mientras mantiene las funciones y la localización celular del otro. Así, la GFP se ha convertido en una herramienta utilísima para estudiar la localización, la dinámica y las inte-racciones de las proteínas en las células.Más recientemente se aisló de la anémona marina Discosoma striata una proteína fluorescente roja (RFP) con aplicaciones parecidas a la GFP. A partir de éstas, por modificaciones genéticas, se ha conseguido un nú-mero de proteínas fluorescentes —en la actualidad una treintena— que cubren todo el espectro visible (Fig. 9).Recuperación de la fluorescencia tras el fotoblanqueado. El nom-bre original de esta técnica es fluorescence recovery after phobleaching (FRAP). Es una técnica conocida desde hace varias décadas, pero que ha visto su utilidad grandemente aumentada con los desarrollos físicos y bio-lógicos que acabamos de mencionar. En este procedimiento se distinguen dos etapas: (a) las moléculas fluorescentes de una pequeña región de la célula se fotoblanquean con un láser de alta potencia, y (b) se observa la recuperación de la fluorescencia en la zona dañada, a medida que se van difundiendo a esa región moléculas fluorescentes que se encontraban ori-

Fig. 6. Microscopía confocal. Invasión de células de mamífero por bacterias. La caveolina (proteína de la membrana celular) está teñida en verde, el DNA del núcleo celular y de la bacteria, en azul, y la toxina bacteriana ACT, en rojo. La bacteria penetra haciendo interaccionar su toxina con una zona rica en caveolina. (Cortesía del Dr. C. Martín).

Fig. 7. Excitación de la fluorescencia con uno y dos fotones. La excitación con un fotón ilumina una superficie cónica, con dos fotones sólo se excita un punto (flecha).

Fig. 8. Microscopía de dos fotones. Vesícula lipídica que contiene dominios fluidos (colorante amarillo) y rígidos (colorante rojo). (Cortesía del Dr. J. Sot).

Investigación hoy - Imágenes de las moléculas biológicas

Page 40: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

40 CICNetwork

ginalmente fuera de ella (Fig. 10). Las moléculas de proteína fluorescente verde GFP son ideales para el FRAP porque pueden fotoblanquearse en condiciones poco lesivas para la célula.Los experimentos de FRAP permiten obtener dos parámetros principales: la fracción móvil (Mf) o fracción de proteínas fluorescentes que se pue-den difundir a la zona blanqueada durante el tiempo que dura el experi-mento, y la constante de difusión (D), que es una medida de la movilidad de una proteína en ausencia de flujo dirigido o transporte activo. D refleja el desplazamiento cuadrático medio de una proteína en movimiento al azar, y tiene unidades de superficie x tiempo-1 —por ejemplo, µm2/s—. Las medidas experimentales de D obtenidas por FRAP dan valores desde 87 µm2/s para la GFP pura en agua hasta 0,03 µm2/s para la E-cadherina unida a GFP. La E-cadherina es una proteína de la membrana plasmática anclada al citoesqueleto, y por ello casi inmóvil. La GFP en el citoplasma tiene una constante de difusión de 25 µm2/s, y las proteínas de membrana —unidas a GFP— no ancladas al citoesqueleto tienen típicamente valo-res de D ≈0,3-0,6 µm2/s. La fracción móvil Mf refleja la facilidad con la que la proteína fluorescente puede moverse en el interior de la célula. Una Mf inferior al 100 % indica que parte de las moléculas fluorescentes pueden estar unidas irreversiblemente a un sustrato inmóvil. También puede tra-tarse de obstáculos a la difusión, o discontinuidades en la estructura a través de la cual se difunden las proteínas.Imágenes a partir de tiempos de vida de fluorescencia. Otra técnica importante es la que se abrevia como FLIM (fluorescente lifetime ima-ging microscopy). Esta técnica consiste en elaborar mapas de la distribu-ción espacial de tiempos de vida dentro de una célula o una parte de ella. El tiempo de vida es una característica propia de la molécula fluorescen-te, y es del orden de nanosegundos. Se define en relación con la caída ex-ponencial de la emisión después de que una molécula fluorescente haya sido excitada. En otras palabras, el tiempo de vida es el tiempo medio que dura el estado excitado de las moléculas fluorescentes.El tiempo de vida no varía con la intensidad de la fluorescencia, ni con la concentración de fluoróforo, ni con las características ópticas del micros-copio. En cambio, se dan casos en los que las moléculas fluorescentes inte-raccionan con otras, fluorescentes o no, de modo que el rendimiento cuán-tico de las primeras disminuye. Algunas moléculas de interés biológico que modifican con frecuencia los tiempos de vida de la fluorescencia son el oxí-geno, el ión calcio, y los hidrogeniones. En estos casos los fluoróforos pier-den la energía de su estado excitado mucho más rápidamente y, por ello, su tiempo de vida se acorta. El FLIM mide estos cambios en los tiempos de vida y, por lo tanto, se utiliza para detectar interacciones moleculares e, indirectamente, cambios en las concentraciones de biomoléculas.El FLIM se puede observar de dos maneras: en dominio de tiempos y en dominio de frecuencias. El primero es el más utilizado en microscopía confocal. Se utiliza un pulso de láser con una duración de unos pocos cientos de picosegundos y un obturador a escala de nanosegundos, ya que el tiempo de vida de un estado excitado es habitualmente de unos 10-20 ns (Fig. 11). El tiempo de vida se mide así en cada píxel o elemento de imagen, y los mapas de tiempos de vida (imágenes FLIM) se muestran en pseudocolor. Así se consiguen, por ejemplo, mapas de la distribución de iones calcio o de pH, en una célula o en un tejido, con la consecuente posible aplicación clínica.Otra importante aplicación del FLIM es la observación de la transferen-cia de energía por resonancia. Este fenómeno, habitualmente conocido

Fig. 9. Utilización de proteínas fluorescentes para estudiar una célula. Los peroxisomas se han teñido con una proteína fluorescente verde, y las mitocondrias con una proteína fluorescente roja. El núcleo se ha teñido de azul con un colorante convencional. (Cortesía de Invitrogen-Molecular Probes).

Fig. 10. Fundamento de la técnica de recuperación de la fluorescencia tras el fotoblanqueo (FRAP). La fracción móvil Mf es el cociente Y/X.

Fig. 11. Fundamento de la técnica de FLIM en dominio de tiempo. Un láser pulsado excita los fluoróforos de la muestra. Al cabo de un tiempo fijo (retardo) se abre el obturador de una cámara CCD que mide la caída de la señal en función del tiempo.

Investigación hoy - Imágenes de las moléculas biológicas

Page 41: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

41CICNetwork

como FRET (fluorescence resonance energy transfer) se basa en un fe-nómeno conocido desde hace un siglo, pero que también ha adquirido un nuevo interés por la combinación de avances tecnológicos y físicos. El FRET se basa en el caso de dos moléculas fluorescentes tales que: (a) el espectro de emisión de una de ellas (donante) se superponga con el espectro de excitación de la otra (receptora), y (b) se hallen ambas muy próximas —en la práctica, a menos de 10 nm—. Cuando esto ocu-rre, si excitamos la fluorescencia de la molécula donante D su emisión servirá para excitar la molécula receptora R, que a su vez emitirá su fluorescencia característica. En resumen, excitando la fluorescencia de D observaremos la emisión fluorescente de R.Aunque el FRET se puede medir, por ejemplo, a través del aparente blan-queamiento, o pérdida de fluorescencia, del donante D, es mucho mejor medirlo por FLIM. Las medidas de FRET por FLIM son mucho más fiables y cuantitativas, y, como hemos dicho más arriba, son independientes de la intensidad de la emisión fluorescente. Además, por FLIM basta con medir el tiempo de vida del donante, de modo que no importa si el receptor tiene una emisión ineficiente —la segunda molécula puede incluso ser no fluorescente, como el oxígeno— (Fig. 12).Espectroscopía de correlación de fluorescencia (FCS). Esta es una técnica muy sensible utilizada para detectar interacciones moleculares. La FCS registra los movimientos al azar de moléculas fluorescentes en un elemento de volumen irradiado por un láser enfocado. Los movimientos de las moléculas dan lugar a fluctuaciones medibles en la señal fluores-cente. Estas fluctuaciones dan información sobre la difusión de una partí-cula y ésta, a su vez, depende de la masa de la partícula. Por consiguiente, cualquier aumento en la masa de una biomolécula, por ejemplo, como resultado de la interacción con una segunda molécula, se detecta fácil-mente como un aumento en el tiempo de difusión. Utilizando la óptica confocal se selecciona un volumen muy pequeño, en el que el número de moléculas fluorescentes es necesariamente reducido. Este volumen pue-de ser parte de una disolución, o parte del citoplasma de una célula.Aunque la trayectoria de difusión de una molécula a través del punto fo-cal se produce al azar, se pueden calcular los tiempos medios de difusión y, por tanto, las masas moleculares, a partir de la correlación temporal de la señal de muchas moléculas individuales. Esta técnica se ha utilizado, por ejemplo, para observar la agregación de unidades de prión que se produce en distintos procesos patológicos de origen priónico.

El futuro que viene: la nanoscopía.Se sabe desde Abbe (1873) que la resolución de un microscopio óptico está limitada por la difracción. Incluso utilizando microscopios confoca-les o multifotónicos, la resolución no es mejor que 180 nm en el plano focal, y 500 nm a lo largo del eje óptico. Sin embargo, están empezando a aparecer propuestas que parecen superar la barrera de la difracción. Stefan W. Hell ha diseñado el microscopio STED (stimulated emisión depletion), basado en la depleción del estado molecular fluorescente por estímulo de la emisión (Fig. 14). Al vaciarse un estado molecular que es esencial para el proceso de fluorescencia, se elimina el efecto de la difrac-ción sin eliminar la difracción. El STED ha conseguido una resolución lateral de 28 nm en experimentos con moléculas aisladas, y sus autores consideran que el resultado es mejorable. En la actualidad Hell y su equi-po trabajan para conseguir resoluciones laterales del orden de 10 nm utili-zando una proteína púrpura fluorescente expresada en células vivas.

Fig. 12. Interacción entre las proteínas PKB y PDK1 medida por FLIM-FRET. Paneles superiores: intensidad de fluorescencia del donante GFP-PDK1. Paneles centrales: imágenes de FLIM de la fluorescencia del donante (verde) y del receptor (amarillo). Paneles inferiores: mapas de tiempos de vida del donante sólo (columna izquierda) o en presencia del receptor (columna central y derecha). La columnas central y la de la derecha representan la diferencia entre una célula control y una estimulada con el factor de crecimiento PDGF. Los tiempos de vida se representan en una escala de pseudocolor entre 1,7 y 2,1 nanosegundos. (Cortesía de la Dra. B. Larijani).

Fig. 13. Esquema del fundamento de la espectroscopia de correlación de fluorescencia. (A) Las moléculas fluorescentes atraviesan un haz de láser enfocado y producen fluctuaciones en la fluorescencia. (B) En una solución muy diluida se producen fluctuaciones en la emisión fluorescente con el tiempo, al variar las posiciones de las moléculas. (C) La autocorrelación de un experimento de FCS se representa por una caída exponencial.

Fig. 14. Comparación de imágenes obtenidas con un buen microscopio confocal y con un microscopio STED. Muestra: dendrita de una neurona humana. (Cortesía del Prof. S. Hell).

TiempoAu

toco

rrel

ació

n G

(_)

Foto

nes

/ U.

de

tiem

po

Tiempo

GFP-PDK1

GFP-PDK1 + HA-

PKB+Cy3-HA

No Slim

No Slim

CB

A

Investigación hoy - Imágenes de las moléculas biológicas

Page 42: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

42 CICNetwork

XXXXXX

Inve

stig

ació

n ho

y

La Unidad de Imagen Molecular de CIC biomaGUNEMiryam Asunción

El Centro de Investigación Cooperativa en Biomateriales (CIC biomaGUNE) está construyendo una Unidad de Imagen Molecular que estará operativa a partir de la segunda mitad de 2008. El inicio de la actividad de esta Unidad completará la puesta en marcha del Centro que quedará finalmente constituido por tres Unidades: Nanomateriales Biofuncionales, Biosuperficies e Imagen Molecular. En este artículo se da una visión general de esta Unidad singular que nace con la vocación de convertirse en una de las primeras en su género a escala internacional.

La imagen molecular es una tecnología emergente cuyo desarrollo tie-ne lugar en la interfase del conocimiento entre las áreas de las ciencias de la vida y de la física, y cuyo objetivo es entender los procesos mole-culares que suceden en un organismo vivo. En el siglo XX, los análisis bioquímicos y moleculares aportaron una visión reduccionista de los procesos in vivo y su primer objetivo fue la descripción de los compo-nentes que integran los sistemas vivos (estructuras y mecanismos). En contraste, la biología del siglo XXI camina hacia un mayor entendimien-to de cómo esos componentes interaccionan entre sí para constituir un sistema biológico complejo. Esta aproximación integradora requiere la observación de las funciones moleculares en el organismo completo. Es necesario conocer in vivo cómo están organizados los componen-tes de las células, cómo interaccionan, cómo se forman y cómo des-aparecen en los diferentes estadios del ciclo vital del organismo, y por último, cómo se mueven dentro de la propia célula en el animal entero.

En los organismos multicelulares las células reciben señales externas, se comunican entre sí, migran dentro del propio tejido y, durante el desarrollo del organismo, sufren complejos cambios que se traducen en el paso de un estadio embrionario inicial a otro de madurez en su forma adulta. Todos estos procesos se pueden visualizar con diferentes niveles de resolución usando técnicas de imagen in vivo.Además del estudio de los procesos fundamentales de la biología, los desarrollos en imagen molecular están dirigidos a la comprensión de los procesos que subyacen en la enfermedad, dado que la mayoría de los procesos patológicos posee una base molecular. Se espera, entre otros objetivos, que los avances en imagen molecular permitan mejorar el diagnóstico, la detección temprana de la enfermedad y la monitori-zación de terapias.La Unidad de Imagen Molecular de CIC biomaGUNE llevará a cabo una investigación orientada al desarrollo de nuevas sondas de imagen

Page 43: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

43CICNetwork

y agentes de contraste, específicos y selectivos, y al desarrollo de mo-delos cuantitativos de transporte de trazadores. Esta investigación, que deberá integrar química, radioquímica, genómica, proteómica, ciencias de la imagen y trabajo preclínico con animales, requiere una importan-te infraestructura con un avanzado equipamiento y un equipo humano de primer nivel. La construcción de la Unidad implica el acondicionamiento de 2.500 metros cuadrados de los que unos novecientos, en la planta baja, se dedicarán a la instalación del equipamiento básico de imagen molecu-lar. Este equipamiento básico se completa en la misma planta con una serie de técnicas de imagen química asociadas a las otras dos Unidades del Centro (Figura 1).El instrumental básico de la Unidad que se instalará en la planta baja e incluye:• Un ciclotrón equipado con ocho blancos y una instalación radioquí-

mica con cinco células calientes y módulos de síntesis automatiza-dos para la preparación de sondas de imagen para PET.

• Micro-PET-CT (positron emission computed tomography) de alta resolución.

• Micro-MRI (magnetic resonance imaging) de 11,7 teslas.• Micro-SPECT-CT (single-photon emision computed tomography)

de alta eficacia. • Animalario de estancia, para el periodo de experimentación.

Ciclotrón e instalación de radioquímicaLa instalación radiactiva producirá [18F]F -, [18F]F

2, [11C]CH

4, [13N]NH

3 y

[15O]O2, y contará con un soporte para blancos sólidos. Con esta capa-

cidad, el laboratorio de radioquímica podrá poner en marcha sus pro-yectos en colaboración con los grupos que trabajen en PET dentro de la misma Unidad. Además, existirá la posibilidad de dedicar parte de la producción del ciclotrón a la fabricación de [18F] fluordesoxiglucosa (FDG), el radiotrazador que se utiliza actualmente en las pruebas diag-nósticas que utilizan PET, para ser distribuida a hospitales del entorno. CIC biomaGUNE ha firmado recientemente un convenio con una em-presa farmacéutica para producir este radiofármaco en el Centro.

Tomografía por emisión de positrones (PET)La tomografía por emisión de positrones (PET) es una técnica que per-mite obtener imágenes moleculares empleando moléculas marcadas con isótopos que emiten positrones, con el fin de visualizar y cuantifi-car los procesos bioquímicos que tienen lugar in vivo en mamíferos.Una patología o enfermedad es un proceso puramente biológico y la sensibilidad de su imagen molecular mediante PET permite captar el proceso biológico que está sucediendo. La técnica muestra los cambios anatómicos que están ocurriendo mediante la detección de las anorma-lidades que aparecen en órganos, tejidos o células. Esta técnica tiene una mayor sensibilidad que la visualización por medio de otro tipo de técnicas como la tomografía o la resonancia magnética. Sin embargo, requiere el uso de isótopos radioactivos muy específicos, lo que hace que no sea fácilmente asequible. Esta capacidad de detección permite identificar el proceso patológico antes, incluso, de que los síntomas se hayan manifestado.Las sondas moleculares que se utilizan con PET se desarrollan primero para identificar el proceso biológico que se va a estudiar y, posterior-

mente, para sintetizar una molécula marcada con un núcleo que emite positrones con la cual se realiza el experimento. Con PET no se puede obtener un análisis directo de los productos resultantes de la reacción bioquímica del tejido. Por tanto, se utilizan moléculas marcadas que permitan hacer el seguimiento de un pequeño número de pasos (1-4 pasos) del proceso bioquímico en cuestión. Posteriormente se realiza un análisis cinético para estimar la concentración en el tiempo de cada uno de los substratos y productos resultantes de las reacciones. A par-tir de este dato, se calculan las velocidades de reacción de las mismas.

Tomografía por emisión única de fotón, SPECT-CTLa tomografía por emisión única de fotón o SPECT-CT, al igual que el resto de las técnicas que forman parte de este programa de investiga-ción, trata de responder a preguntas del tipo: ¿Dónde está localizada la molécula objeto de estudio?, ¿es la dosis de proteína terapéutica utilizada adecuada para la remisión del tumor que se estudia?

Investigación hoy - La Unidad de Imagen Molecular de CIC biomaGUNE

En la otra página, equipo de imagen de resonancia magnética (MRI). Arriba, detalle de ciclotrón y, abajo, detalle de dispensador de radiofármacos.

Page 44: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

44 CICNetwork

Investigación hoy - La Unidad de Imagen Molecular de CIC biomaGUNE

Estas preguntas se pueden responder con certeza utilizando méto-dos como la auto-radiografía (rayos X) o un contador gamma (mar-caje con sondas radioactivas), pero es necesario sacrificar el animal experimental y obtener muestras de tejido muy específicas: hacen falta alrededor de 100 muestras para analizar un tumor. También se pueden responder con certeza utilizando el escáner PET, que tiene la ventaja, como ya se ha mencionado, de tener la mayor sensibilidad que se puede obtener actualmente en el campo de la imagen in vivo. Las sondas empleadas por SPECT-CT, basadas en núcleos que emiten rayos γ, presentan tal rango de emisión de energía, que permiten a los investigadores visualizar simultáneamente dos sondas con dife-rentes emisiones de energía. Esta última característica, su utilidad práctica, es de gran importancia, ya que permite usar una sonda para determinar la efectividad de la administración de una molécula tera-péutica y usar, al mismo tiempo, otra sonda para evaluar la efectivi-dad del tratamiento.Otra ventaja adicional del empleo de SPECT-CT es que ofrece una mayor resolución espacial en animales pequeños. Dada esta resolu-ción espacial y el pequeño tamaño de un ratón, las imágenes que se obtienen con SPECT-CT pueden ser difíciles de obtener y analizar. Ello convierte este campo en interdisciplinario desde su base, y es ne-cesaria la interacción de biólogos y químicos, más que de radiólogos, para poder interpretar las imágenes que se obtienen. Por eso ayuda en la interpretación el uso de estas tecnologías (PET y SPECT) junto con otras que ofrecen referentes anatómicos.

Imagen por resonancia magnética, MRILa imagen por resonancia magnética (MRI) es una técnica no invasiva que utiliza ondas de radiofrecuencia para obtener información espacial. La MRI ha pasado de ser una técnica de obtención de imagen tomo-gráfica a una técnica de obtención de imagen del volumen. El cuerpo humano es, básicamente, una mezcla de agua y grasa que se componen mayoritariamente de átomos de hidrogeno y son la principal fuente de hidrogeno (63%) del organismo. El núcleo del hidrogeno emite una se-ñal que puede ser captada. Ése es el principio en el que se basa la MRI para la visualización de imágenes de tejidos blandos que están cerca de los huesos o los rodean.La MRI permite, no sólo localizar moléculas o desarrollos patológicos, si no también determinar la naturaleza heterogénea dentro del mismo proceso patológico. La aplicación en animales pequeños de muchos de los métodos diseñados para análisis químicos se está haciendo cada vez más factible. Los nuevos desarrollos de moléculas que se utilizan con MRI están ba-sados en propiedades físico-químico-biológicas como el peso molecu-lar, la afinidad por lípidos y la afinidad por tejido, y ofrecen información de parámetros fisiológicos tan específicos como el pH, los iones metá-licos y el potencial expresión génica.Con esta Unidad que proporciona una nueva dimensión a la capacidad ya existente en el Centro para visualizar estructuras, CIC biomaGUNE se sitúa en una importante posición en el amplísimo campo de la imagen química. Esta capacidad va a permitir estudiar los más variados proce-sos, in vitro e in vivo, en espacio y tiempo reales y en el medio fisio-lógico. Es de esperar que ello se traduzca en el desarrollo de proyectos multidisciplinares de envergadura en el campo de las biociencias.

Page 45: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

45bioBASK

Hace ya 25 años que vio la luz el Decreto sobre el Régimen de las Entidades Tuteladas de Investigación Tecnológica impulsado por el Gobierno Vasco, un decreto que se convirtió en el pilar principal para la creación de los centros tecnológicos. Aprovechando esta efeméride, en la sección Entorno CIC hemos querido abrir el debate sobre el pasado, presente y los retos de futuro de los centros tecnológicos. Para ello, contamos con una interesante mesa redonda, así como varios artículos de opinión. Además, Entorno CIC recoge las novedades científicas que se están produciendo en Euskadi, a través de diferentes artículos sobre algunos proyectos de investigación en marcha en centros de investigación, empresas y el ámbito universitario.

Entorno CIC

Mesa Redonda con Germán Giménez (CAF), Rogelio Pozo (Tecnalia), Carlos Redondo (IK4) y Michael Schlicht (Fraunhofer).

Artículos de Jon Azua y Carlos Cuerda.

Proyectos de investigación de CIC bioGUNE.

Euskadi en breve / Euskadi hitz bitan.

46

546072

en Euskadi

Foto

: Erik

Apa

ricio

Page 46: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

46 Entorno CIC

peos, es decir, parece que estamos hablando de ayudas, de ser alguien que facilita la en-trada en proyectos subvencionados. Pero yo creo que los centros son más que eso: son un apoyo para resolver problemas reales de las empresas. Y no solo debe ser la iniciativa de los centros la que promueva la participación de las empresas en proyectos, sino que en muchas ocasiones debe ser la empresa quien tome la iniciativa y tire de los centros hacía proyectos que son realmente de interés. En ese sentido, creo que es más interesante esta faceta, desde el punto de vista de las em-presas, aunque también es importante que los centros nos ofrezcan oportunidades que no hubiéramos tenido por nuestros propios me-dios.Pero, quizás, en algunos casos, ese tirar de las empresas para participar en proyectos tiende a forzar, y eso no es bueno. Yo creo que lo que hay que conseguir es que la empresa esté real-mente convencida de que el proyecto es inte-resante y hay que entrar en él, no por las ayu-das que tiene, sino por el interés del mismo.

Mesa redonda con Germán Giménez, Rogelio Pozo, Carlos Redondo y Michael Schlicht. Moderador: Manuel Fuentes

en proyectos de I+D regionales, estatales y de la Unión Europea, mejorando su nivel tecno-lógico y, por consiguiente, su competitividad y que transfiere su stock tecnológico al exterior, abriendo canales para su industrialización. — Manuel Fuentes: ¿Cuál es la opinión de los CCTT y de la empresa respecto a la actual coyuntura de los centros? ¿Consi-deran correcto este diagnóstico? ¿Consi-deran que realmente actúan como aliados estratégicos de la empresa, ayudándola a formalizar sus estrategias de I+D a largo plazo?— Germán Giménez: Hay que constatar que, efectivamente, los CCTT son una realidad consolidada. Entiendo que superan las expec-tativas que cuando se crearon se habían de-positado en ellos. Ahora bien, no cabe duda de que en toda esa realidad de los centros hay luces y sombras. Quizás se ha minusvalorado cual ha sido real-mente la aportación de los centros a las em-presas. Se ha hablado exclusivamente de ser compañeros de viaje hacía proyectos euro-

Mes

a de

idea

s

Hace ya 25 años que vio la luz el Decreto sobre el Régimen de las Entidades Tuteladas de Inves-tigación Tecnológica. El panorama socioeco-nómico que ofrecía Euskadi suele describirse sintéticamente en los siguientes puntos; unos sectores industriales muy maduros y en grave declive; una universidad pública joven, inma-dura para plantearse el apoyo tecnológico al tejido empresarial; inexistencia, salvo casos excepcionales, no sólo de CCTT empresaria-les, sino también de pequeñas unidades de I+D empresariales; limitadísima presencia de titulados —menos aún de doctores— univer-sitarios en las plantillas de las empresas.Hoy hay una red de CCTT consolidada que co-labora intensamente con la empresa, que pro-mueve y dirige la participación de la empresa

Los centros tecnológicos, a debate

Manuel Fuentes. Vicepresidente Ejecutivo del Patronato

del CEIT. Rogelio Pozo. Director General de AZTI-Tecnalia.

Carlos Redondo. Director General de Ikerlan-IK4. Germán

Giménez. Director de I+D de CAF. Michael Schlicht. Jefe

del programa Radio por Satélite de Fraunhofer Institute,

Erlangen.

Page 47: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

47Entorno CIC

— M. Fuentes: Estoy de acuerdo. Quería se-ñalar que han ayudado a la internaciona-lización de las empresas, y, desde un en-torno muy local, se ha ayudado a vencer los complejos iniciales de los centros y de la empresa, convirtiéndose en competido-res a nivel mundial. — Rogelio Pozo: El diagnóstico que has reali-zado en la introducción me parece correcto. Evidentemente, el escenario ha cambiado de manera significativa. Las empresas e institu-ciones se enfrentan a nuevos retos, y también los centros tecnológicos. Hoy todos tenemos a un clic de distancia una gran cantidad de información y conocimiento. Los centros tec-nológicos tenemos el reto de ser especialistas para poder ofrecer a las empresas el conoci-miento necesario en cada momento. Para ello, somos su aliado, su socio, y asumimos riesgos con ellos. Todo ello en una realidad que ha cambiado enormemente. Hoy día, las empre-sas están compitiendo en mercados como el japonés —tenemos empresas del sector de la automoción que son proveedoras de Toyota, de Honda...—; la universidad que tenemos no es una: son cuatro y con unas capacidades enormes en el entorno de la I+D; tenemos unos centros de investigación cooperativa, centros de investigación básica y de excelen-cia coordinados con el CSIC. Es decir, el teji-do ha cambiado enormemente y los centros nos hemos adecuado a esa realidad.La clave es la cocreación —cooperar para crear juntos—. Lo que no tiene sentido es que hoy los centros tecnológicos compitamos con la universidad, ni con los CIC. Ese es el rol que tenemos en los centros tecnológicos, el ser ese tipo de plastilina que llena los huecos que dejan el resto de los agentes y ser la au-téntica correa de transmisión para que toda la potencialidad de las universidades, los CIC... se convierta en innovación, en beneficio para la empresa.— Carlos Redondo: Yo, por dar una visión un poco complementaria, lo estoy contemplando desde el punto de vista de la misión. Los anti-guos del lugar recordamos que hace 20 años la misión era captar y asimilar tecnología para su transferencia a las empresas. Estábamos pensando en ver lo que había por ahí, para decirles a las empresas hay que ir por este ca-mino.La misión que hoy tenemos los centros tec-nológicos es totalmente diferente. Estamos

Mesa de ideas

hablando de generar y desarrollar tecnología propia para luego transferir. No tiene nada que ver con la misión de la que hablábamos hace 20 años.Hablando de realidades, por aportar algún dato, hoy tampoco existe el concepto de los centros tecnológicos. Estamos todos agrupa-dos en dos corporaciones, y los que no están agrupados están en proceso de hacerlo. Hay 12 centros tecnológicos en las corporaciones Tecnalia e IK4, y otros tres en proceso de in-corporación. Estamos hablando de más de

2.500 personas, de más de 180 millones de in-gresos en el año 2006, de colaboraciones con el tejido empresarial en proyectos bajo con-trato —contando tanto I+D+i como servicios tecnológicos— que ronda el 50% de la activi-dad; estamos hablando de que hemos transfe-rido a las empresas del orden de 200 personas —personal contratado investigador, personal becario que ha pasado por los centros...—. Y podría dar más ejemplos. Estamos hablando de que se han creado más de 100 empresas, con más de 600 personas

empleadas en ellas, una facturación de alre-dedor de 30 millones de euros... Es decir, co-rroborando que los centros son una realidad y son una de las razones de peso encima de la mesa. Y, quizás, un apunte adicional: yo sí considero que los centros en estos momentos estamos empezando a ser aliados estratégicos tecnoló-gicos para las empresas o, por lo menos, para un grupo determinado de empresas. Yo creo que en eso sí que hemos realizado un avance importante. Por supuesto, las empresas han creado unidades de I+D, cada vez están más sensibilizadas con la innovación, pero tam-bién es cierto que cada vez los proyectos que demandan a los centros tecnológicos son de mayor nivel. Entonces, al final, tenemos que posicionarnos en unos niveles en los cuales, como la empresa no es capaz de abordar to-das las tecnologías que necesita para su de-sarrollo, tiene que confiar en los centros. Y, al final, busca esa alianza tecnológica, esa alian-za estratégica.Creo que es un elemento muy importante el que se ha mencionado antes: que no solamen-te acompañamos. Efectivamente, lo que hace-mos es ir de la mano, colaborar con ellos y es-tar trabajando conjuntamente en estrategias a medio y largo plazo. — M. Fuentes: Siempre me he planteado que a medida que las empresas están más dotadas de capital humano para abordar la I+D el papel de los centros a la hora de aportar personal y conocimiento irá dis-minuyendo. Cuando los sectores maduros no necesiten tanto el apoyo de los cen-tros ¿hará falta que se cree un sector más emergente, más puntero? — G. Giménez: Yo creo que hay que apostar por las dos cosas. Estoy convencido de que a más avance de la empresa, más colaboración con los centros tecnológicos. Avance tecnológico en la empresa, aunque sea en sectores madu-ros, más colaboración con los centros. Yo lo veo en CAF: año tras año vamos aumentando la colaboración con los centros y, además, to-talmente convencidos de que debe ser así.Yo considero que en CAF, a pesar de las inno-vaciones asociadas a los trenes de alta veloci-dad, estamos en un sector maduro, en el que integramos muchas tecnologías, pero incluso en las tecnologías más maduras surgen pro-blemas que no se han tratado nunca, que es necesario resolver. Cada vez pedimos más a

“Los centros tecnológicos han ayudado a la internacionalización de las empresas”

Manuel Fuentes

Page 48: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

48 Entorno CIC

riesgos. La cuestión es que los centros de in-vestigación no pueden asumir todo ese riesgo para la I+D avanzada. Siempre tiene que ha-ber la contribución de un consorcio que esté convencido de que la introducción de cierta tecnología tiene sentido. Y, también hay que tratar de entrar en nichos nuevos, con nuevos productos. Es decir, la creación de mercado es una cosa entre los centros de investigación y la industria. Ya no funciona meter productos nuevos en merca-dos establecidos. Nosotros, por ejemplo, es-tamos aproximándonos con alta tecnología a mercados que no existían de antemano.— R. Pozo : Los centros sólo podemos aportar valor al núcleo de las competencias de la em-presa si somos especialistas y si apostamos por temas de futuro. Las empresas, en base al desarrollo de sus fortalezas y competencias, es posible y factible que produzcan la mejora con-tinua, el avance progresivo, en sus productos y procesos. Para dar un salto radical, tanto en un sector maduro o emergente será necesaria la colaboración con un centro de innovación, siempre que éste disponga del conocimiento necesario para hacer posible ese proceso. Por ello, los centros podremos seguir aportando valor a las empresas, aunque estas mejoren sus capacidades y competencias. Ello nos obliga a nosotros a profundizar en la especialización y en la gestión de conocimiento, para hacer más eficientes los procesos de poner nuevos pro-ductos con éxito en el mercadoCuando hablamos de avance radical, de inno-vación radical, es porque se incorporan tec-nologías, experiencias de otros sectores, a un campo en concreto, o porque hemos invertido en campos de alto riesgo. Eso es lo que po-demos hacer los centros y no la mayoría de las empresas, por su escasa dimensión y falta de masa crítica. Los centros podremos seguir desempeñando el rol de ser capaces de unir ne-cesidades y conocimientos, soluciones y pro-blemas, tanto en sectores consolidados como emergentes. Invertir en el futuro nos garantiza poder seguir aportando valor a unas empresas que cada vez serán más autosuficientes.— C. Redondo: Estoy totalmente convencido de que tenemos que mantener un equilibrio entre la apuesta por sectores emergentes —tenemos que apostar por ellos, aunque lo que nos reviertan a corto plazo sea muy pe-queño— y la aplicación del conocimiento ad-quirido a los sectores tradicionales. Tenemos

esos sectores maduros, y conseguir que sean competitivos sin el apoyo de centros con un alto nivel tecnológico es casi imposible. En mi opinión, sería un error transferir a la in-dustria todas esas capacidades que tienen los centros y que la industria ande por si misma, porque esas capacidades se perderán. Se per-derán porque el día a día de la industria va por otros caminos. Por otra parte, también estoy convencido de que el escenario del País Vasco en los próxi-mos 15-20 años se parecerá poco al actual. Y deberá parecerse poco para mantener el nivel de bienestar actual. En alcanzar este último objetivo tienen un papel preponderante los centros tecnológicos. Son los que deben apos-tar por las nuevas tecnologías, por las nuevas oportunidades tecnológicas que serán las que nos permitirán mantener el nivel, nuestro es-tatus actual en el mundo. De otra manera, si nos centramos exclusivamente en sectores maduros, en hacer lo que habitualmente hace-mos, nuestras empresas irán perdiendo cuota de mercado, y muchas desaparecerán.Creo que los centros, además, tienen que ha-cer apuestas arriesgadas, incluso aunque eco-nómicamente no sean viables a corto plazo, porque creo que su misión es hacer apuestas arriesgadas por tecnologías que puedan supo-ner unas oportunidades de negocio importan-tísimas de cara al futuro.— Michael Schlicht: Esta es una discusión que también tenemos en Alemania: las apuestas arriesgadas y la contribución a la industria. Claro que la industria tiene menos capacidad de I+D en ciertas áreas de investigación; por ejemplo, en el campo de la radio digital. Antes teníamos una base muy sólida, había dos es-tándares a nivel mundial —la transmisión AM y la transmisión FM— y no había más. Hoy día, en cambio, estamos abordando una fase donde fácilmente hay 12 ,13 o 14 estándares. Por lo tanto, una empresa que estaba acos-tumbrada a trabajar con dos estándares no puede directamente diseñar y tener una capa-cidad de I+D con esa cantidad de estándares. Es decir, es mucho más complejo hoy día. Yo veo dos cosas. El error de la industria es que compite incluso a nivel de I+D en tecnolo-gías. Es decir, ¿cuál de las 12 o 14 tecnologías es la que se va a imponer? Una respuesta ya se sabe: nunca va a existir un único estándar; la regularización que teníamos en este campo no va a existir. Y ahí está la apuesta por los

Mesa de ideas

que ir transformando poco a poco los sectores tradicionales. Es esta dualidad la que nos tie-ne que mantener en ese equilibrio. Y algo que no se ha mencionado y creo que es importantísimo es aprovechar la oportunidad de la especialización. Especialización y con-centración. Estamos muy habituados a llevar una estrategia de posicionamiento. Es decir, hoy día hay mucho dinero en líneas estraté-gicas y todos nos queremos apuntar a todo porque diversificamos riesgo, me apunto aquí y allí. Y eso es totalmente contrario a la con-centración.

Yo creo que tenemos que entrar en una di-námica de especialización y concentración, es decir, de pocas áreas estratégicas. Porque para eso están luego las alianzas, para com-plementar una oferta multisectorial. Creo que estamos un poco dispersos.— M. Schlicht: Nosotros jugamos un rol un poco diferente del que quizás las alianzas como IK4 juegan aquí. Aunque también no-sotros nos concentramos en consorcios, hay

“Hace 20 años la misión era captar y asimilar tecnología para su transferencia a las empresas. Hoy tenemos que generar y desarrollar tecnología propia para luego transferirla”

Carlos Redondo

Page 49: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

49Entorno CIC

Mesa de ideas

otros centros en el mismo mercado de I+D que suponen una competencia muy fuerte.Lo que saco como conclusión de lo que he es-cuchado es que aquí hay dos niveles de I+D que podemos diferenciar: un nivel para la in-dustria, donde directamente los resultados son introducidos en productos, y el segun-do nivel de un I+D avanzado donde se crean nuevas tecnologías que pueden ser aplicadas en diferentes campos. Nosotros nos hemos ocupado de estos dos niveles hasta ahora, de creación de nuevas tecnologías y preparar pa-quetes lo suficientemente aptos para ser intro-

ducidos en productos.Yo creo que esos dos niveles reflejan el enfo-que principal de lo que hay en este momento en el País Vasco: el industrial, y la aplicación de investigación avanzada. Y veo una oportunidad de colaboración para los centros de aquí con otros centros (por ejemplo, con el Fraunhofer), porque tarde o

temprano esa confluencia internacional les va a afectar. Es decir, tener ciertos nichos no significa un mercado mainstream o de banda ancha. La cuestión es ¿cómo se quieren dirigir las industrias si realmente se quiere tener un mercado de banda ancha?¿Ubicar un nicho y ensancharlo?— M. Fuentes: Quisiera plantear el hecho de que el aumento de agentes tecnológi-cos, posible disminución de demanda en sectores maduros, una universidad más barata..., nos llevará antes o después a preguntarnos: ¿Serán viables o inviables los centros tecnológicos? ¿Cómo ve esta disyuntiva la red Fraunhofer?— M. Schlicht: El planteamiento es bien claro. Las universidades pueden cubrir ciertas ta-reas en este marco, pero, definitivamente, en mi opinión la industria está interesada en te-ner un colaborador a largo plazo. Ciertos pro-cesos de I+D y la implantación de productos requieren cierta experiencia y, es verdad que ciertos aspectos limitados se pueden hacer en la universidad, pero proyectos más grandes requieren una continuidad. Es decir, esa continuidad la tenemos, por ejemplo, en muchos de los centros del Fraun-hofer. Y esa es una oportunidad también para la industria. Por ejemplo, el cine digital no hu-biera sido posible sin una cooperación de más de 15 años. — M. Fuentes: ¿Cómo véis esa cooperación con la universidad a largo plazo?— M. Schlicht: No hubiera sido posible, sim-plemente porque las personas cambian en la universidad. Por ejemplo, la contribución al tema del cine digital. Son casi 50 empresas a nivel mundial —desde Hollywood hasta Ja-pón— y se necesita tener una cadena desde la producción hasta la presentación de la pe-lícula en el cine. Este sistema requirió varias tesinas a nivel tecnológico (semiconductores, sensores, memorias...) que no hubieran sido posibles solamente a nivel universitario. Es decir, el rol de las universidades fue claro en el marco de los algoritmos de compresión de los videos, pero esa fue una pequeña parte del proyecto con respecto a la cadena completa. — R. Pozo: has hecho una pregunta muy clara que refleja muy bien algunas de las inquietu-des del sistema. Estamos creando un entorno mucho más competitivo, hay más recursos, pero quizás la oferta crece más que la deman-da. Evidentemente, hay que replantear la rela-

ción con el mercado.Incluso en esos entornos tan dinámicos, el que los centros podamos ser viables, soste-nibles, va a depender de nosotros. Va a de-pender de que seamos más eficientes. Más eficientes en la creación de los nuevos pro-ductos (inversión, time-to-market, etc), com-partiendo riesgo con los empresarios —cosa que nosotros podemos hacer y, posiblemente, la universidad no—, invirtiendo en crear los productos, servicios y procesos del futuro, cerca del mercado, pero, sobre todo, cerca de las necesidades y soluciones de los problemas de las personas. Pero, además, para que podamos hacer esto tenemos que tener una ventaja competitiva comercial. No podemos estar esperando. Te-nemos que ser activos para conocer al cliente y al cliente del cliente y poder ofrecer solucio-nes a los empresarios que están dispuestos a invertir en desarrollar procesos, productos o servicios a corto y medio plazo. Eso nos va a llevar a focalizar nuestra apuesta por unas pocas empresas. No vamos a poder estar en todas; tenemos que concentrarnos y especia-lizarnos. Y, a medida que lo hagamos, podre-mos crecer con ese mercado. El riesgo es que no apostemos por el correcto.Yo creo que nos va a llevar a reposicionar nuestro planteamiento, a no estar en todos los sitios, a ser especialistas, a apostar por deter-minados sectores, a apostar por unas determi-nadas empresas, a compartir riesgo con ellas y a crecer con ellas. Si eso lo hacemos, por su-puesto que seremos viables, porque seremos eficientes en trasladar al mercado los produc-tos y los conocimientos. Si no, intentaremos sobrevivir buscando y gestionando fondos pú-blicos para hacer cosas nuevas, pero no para hacer productos o transferir valor a la socie-dad. Y, además, si hacemos eso, posiblemente podamos aumentar nuestra especialización, y si conseguimos ser los más especialistas del mundo, nuestro mercado sería el mundo. Es decir, esto nos va ayudar en el proceso de transformación y si somos capaces de hacerlo bien, yo creo que no solo podremos sobrevi-vir, sino incluso tener éxito. — M. Fuentes: Un elemento clave en el que parece que coincidís es en que hay que focalizarse más que abrir un espectro am-plio.— C. Redondo: Yo suelo hacer un símil. En es-tos momentos hay un discurso muy generali-

“Los centros sólo podemos aportar valor al núcleo de las competencias de la empresa si somos especialistas y si apostamos por temas de futuro”

Rogelio Pozo

Page 50: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

50 Entorno CIC

Mesa de ideas

zado de la empresa que dice: “supervivencia de empresa= innovación”. Yo, en este caso, diría: “supervivencia de centros= especializa-ción + excelencia”. Aportar valor añadido en la cadena, realmente donde nos corresponde. Y lo enlazo con un reto que no tenemos re-suelto, que es ser capaces de unir la cadena de valor. En estos momentos tenemos centros de investigación de excelencia, CIC, grupos universitarios potentes, centros de referencia extranjeros... Tenemos que ser capaces de li-gar con ellos y llegar a la empresa de la mano. Y no es complicado. En la medida en que estás trabajando en niveles de excelencia más altos, más fácil es conectar con otros grupos y llegar juntos al mercado. — M. Fuentes: ¿Incluida la universidad?— C. Redondo: Nosotros tenemos, por ejem-plo, un proyecto que estamos casi en el estado del arte, en el cual participamos con 10 enti-dades de investigación punteras, universida-des —incluidas las extranjeras—, centros del CSIC, etc. Es decir, que en la medida que en un tema empiezas a avanzar en niveles altos de conocimiento es mucho más fácil enganchar con grupos de investigación especializados e ir al mercado. — M. Fuentes: Tú estás por abrir el abanico.— R. Pozo: Hay empresas que son capaces de gestionar la innovación, pero otras muchas, de menor tamaño, no son capaces de gestionarla. Por lo tanto, no pueden gestionar conocimien-tos; necesitan gestionar soluciones y necesi-tan la solución global. Y la universidad es muy difícil que le dé la solución global. La universi-dad le va a dar soluciones en unas tecnologías concretas. La suma de todas las tecnologías es la solución global. Ahí es donde los centros pueden tener otras capacidades, además de las que se han mencionado antes, en las que tenemos menor competencia.— G. Giménez: Quizás mi empresa no es repre-sentativa de la generalidad de empresas del País Vasco, cuyo tamaño medio es mucho me-nor, pero yo voy a hablar de mi experiencia. Desde esa experiencia, las empresas pedimos especialización. De todas maneras, quisiera hacer un apunte sobre el papel de las universidades y de los centros tecnológicos. Lo ha mencionado an-tes Carlos en su intervención. Yo creo que los centros de excelencia que se van creando en la universidad deben ver en los centros a sus mejores clientes, es decir, no en la empresa,

sino en los centros tecnológicos. Si se consi-gue eso, yo creo que se habrá conseguido en-garzar perfectamente el entramado.

Yo creo que es por ahí por donde hay que tirar. Lo que no quita que se puedan generar gru-pos en las universidades que puedan hacer la competencia en algún tema concreto a algún centro de investigación. Pero siempre van a tener inconvenientes, como comentaba Mi-chael, porque normalmente no van a ser gru-pos que puedan tener la estabilidad suficiente para que en la empresa podamos apostar por ellos a largo plazo. — M. Schlicht: creo que los centros tienen un rol muy importante cuando, por ejemplo, una empresa quiere crear un consorcio para inte-grar una cierta cantidad de tecnologías y hay cierta competencia entre empresas, centros y universidades. Tiene que haber uno que tire del cordón en una dirección y no en varias.

Los centros tienen mucha relación con otros centros y pueden elegir el camino sobre el que una meta puede ser alcanzada. En mi experiencia, nosotros muchas veces nos tenemos que reunir con nuestros socios para traducir el lenguaje de uno al lenguaje de otros. Y también de vez en cuando tratar de negociar cómo y cuándo se entra en la cadena de valor. Es decir, los centros no solo tienen un rol tecnológico o de I+D, sino también de creación de ingresos y de coordinación. Aun-que no lo parezca, muchas veces son los cen-tros los que coordinan. — R. Pozo: Antes has hecho una pregunta so-bre viables o inviables. Es decir, si somos via-bles o sostenibles, si tenemos recursos para invertir en infraestructuras, para invertir en recursos propios, para crear nuevas empre-sas, para amortizar la deuda... Si nos financia-mos de fondos públicos —de donde no puedo sacar ningún margen—, no seremos viables. El margen solo lo puedo sacar del mercado, y sobrevivo cuando tengo ventaja competitiva comercial en el mercado. Para eso, tengo que ser especialista, tengo que ser el mejor. En tal caso no se me discute el precio; se me compra por lo que aporto. — M. Schlicht: Voy a citar al presidente de la agrupación Fraunhofer, que hace unos meses mencionó que el Fraunhofer tiene que recibir más ingresos de patentes y tiene que partici-par más y más en la cadena de valor. Claro que la industria que invierte en I+D requiere cierta exclusividad de los resultados, una propiedad intelectual, pero eso no puede funcionar si realmente queremos fomentar ese régimen de I+D que se puede sostener por sí mismo. Tie-ne que haber una contribución en la cadena de valor que esté directamente a disposición de los centros. Eso fue claramente un error de nuestro presidente.M. Fuentes: Hay otro tema que también es candente: la financiación pública de los cen-tros sobre resultados. Esos resultados ten-drán que medirse contra unos indicadores. ¿Cuál es vuestro punto de vista sobre esos indicadores?— C. Redondo: En un ejercicio de definir qué características deberían tener los indicadores, a mí me salen cuatro: tienen que responder a la misión de los centros; tienen que estar orientados a las necesidades del tejido indus-trial o, en último caso, a la política industrial del país; tienen que ser sencillos, claros y ob-

“Veo una oportunidad de colaboración para los centros de aquí con otros centros (por ejemplo, con el Fraunhofer), porque tarde o temprano esa confluencia internacional les va a afectar”

Michael Schlicht

Page 51: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

51Entorno CIC

Mesa de ideas

jetivos, y, finalmente, tienen que responder al modelo y estrategia de cada centro. Es decir, no nos pueden encasillar a todos los centros y decir: “Estos son los 18 indicadores que tenéis que cumplir”. Hecha esta reflexión de características de in-dicadores, a mí me gusta el modelo de indica-dores del Fraunhofer, por la sencillez y por la claridad. Me sale un indicador básico y princi-pal, que es el medidor de transferencia: cuán-to transfiero yo de I+D a la industria. Y ese es un indicador que está velando por la propia sostenibilidad del centro. Es decir, si antes hablábamos de que la empresa cada vez nos tracciona más, nos pide cada vez mayor nivel de investigación ya vendrá que tengamos que tener más doctores, que tengamos que tener unos niveles de excelencia determinados... Lo importante a medir es lo que yo transfiero; en esa transferencia van englobados gran canti-dad de indicadores Para mí, ese es el indica-dor básico.Se pueden admitir luego los indicadores aso-ciados a las características de cada centro, al modelo y estrategia de cada centro. Ahí pue-den estar el capital humano —cuántos docto-res tiene el centro, cuántos doctorandos...—, el tema de la excelencia... Pero el tema de la excelencia no medido por el número de publi-caciones, dado que, para mí, son mucho más relevantes las ponencias en los congresos, que aportan un capital relacional mucho más importante. Las publicaciones, para mí, no son un indicador de los centros, sino más bien de la universidad.— M. Fuentes: Lo difícil es medir la trans-ferencia.— C. Redondo: Eso es lo más fácil: cuánto fac-turo yo de I+D, bajo contrato, a las empresas.Yo lo que quiero resaltar es que estos indica-dores secundarios deben estar asociados al modelo de cada centro. Por ejemplo, se puede contemplar la propiedad intelectual, pero no contando las patentes de los centros, porque patentes se pueden hacer un montón, pero ¿para qué? ¿Solamente para cumplir el indica-dor? Yo mediría las patentes en explotación, es decir, el conocimiento que una vez transfe-rido a la empresa se patenta.— M. Schlicht: Nosotros, por mencionar el modelo Fraunhofer, tenemos los indicadores blandos y los indicadores duros. Y, al final, lo que cuenta son los indicadores duros. ¿Qué porcentaje de los ingresos proviene direc-

tamente de la industria? Esa es una medida dentro del Fraunhofer que, para mí, es la más importante.

Y cada centro recibe una compensación por cada tanto por ciento de ingresos que recibe de la industria; digamos que un euro indus-trial recibe 30 céntimos para el centro. Es un modelo simple, y es un modelo que se puede medir. Quizás no es el mejor, porque no se puede aplicar en todos los casos. Un ejemplo es que el Fraunhofer va a financiar ahora un gran proyecto en energía solar, donde va a inver-tir mucho dinero, y no puede aplicarse este modelo. Porque este es el nivel más alto de I+D, y en cinco o diez años estaremos en el segundo o tercer nivel para llegar al mercado y transferir conocimiento. Hay que diferenciar un poquito esos niveles y, de acuerdo a ellos, aplicar el modelo.— G. Giménez: Estoy de acuerdo con que hay que tener indicadores que sean lo más obje-tivos posibles, y estoy totalmente de acuerdo con que la riqueza creada por el centro tec-

nológico dirigida a la empresa o a la sociedad deben responder a la misión de los centros. El tema de la facturación de las empresas pue-de estar, de alguna manera, distorsionado por las ayudas que reciben dichas empresas. Lo bueno sería poder descontar de los ingresos las ayudas que reciben las empresas. De for-ma que sería un gasto neto, un flujo de caja neto desde las empresas a los centros tecno-lógicos. — C. Redondo: Si en algo discrepo de tu razo-namiento es en una cosa, Germán: si una em-presa desarrolla un proyecto con un centro y esa empresa solicita una ayuda X, le den o no le den la ayuda, el trabajo que ha hecho con el centro sigue siendo el mismo. Si le dan la subvención, ¿penaliza el ingreso por transfe-rencia que ha hecho, y, si no se la dan, no lo hace?— G. Giménez: Siempre que el proceso sea el que tú has dicho, ¿no?

C. Redondo: El proceso racional es que la empresa contrate con el centro un determi-nado proyecto, independientemente de que vaya a recibir o no una subvención. Y en eso sí que estoy totalmente de acuerdo, porque, si no, con el tiempo el sistema degenera y se convierte en que la subvención es un fin en sí mismo. — R. Pozo: Financiación por objetivos... Sí,, pero ¿qué objetivos? ¿Por indicadores? Depen-de; si son de medida directa de los objetivos, sí; si son indirectos, no. Si me pones como ob-jetivos doctorandos, patentes o publicaciones vamos a publicar los que más. “Dime como me mides y te diré como actúo”. Lo importante es tener definidos claramente los objetivos, no los indicadores.Hay que definir los objetivos, y los objetivos tienen que ser los portafolios tecnológicos que los centros van a desarrollar en los próxi-mos tres, cuatro o cinco años. Por ejemplo, se van a invertir 100 millones de euros en el tema de pilas de combustible o en el sector fotovol-taico, y voy a financiar eso a través de Europa, que pone un 25 %, la administración vasca, que pone otro 25 %, etc.Es decir, valórame el plan tecnológico donde indico los productos nuevos y mejorados que voy a conseguir. Y eso es lo que hay que valo-rar, no las publicaciones, no las patentes; éstas serán una consecuencia de los objetivos. Es el plan tecnológico que es la suma de los esfuer-zos del centro, de la administración vasca, la

“Estoy convencido de que a más avance de la empresa, más colaboración con centros tecnológicos”

Germán Giménez

Page 52: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

52 Entorno CIC

europea y de la empresa que quiera participar. Eso es lo que hay que financiar, no objetivos de patentes, no objetivos de publicaciones; sino, se pervierte el sistema. Si no vamos a los objetivos, nos transformaremos en ir a cubrir los indicadores.Hay indicadores directos; por ejemplo, por cada proyecto que ha hecho en cada uno de esos planes tecnológicos de investigación estratégica, luego, en la sociedad ¿cuánto ha movilizado?, ¿cuántas empresas se han crea-do?, ¿ cuánto facturan?, ¿puestos de trabajo?, ¿inversión realizada?Si, al final, como consecuencia de invertir 100 millones de euros el centro tecnológico consi-gue crear una zona de influencia de un sector económico que da empleo a 3.000 personas, ge-nera unos impuestos de X valor, factura tanto... Ese es el impacto social, ese es el indicador di-recto. En esta línea estoy totalmente de acuer-do en pasar a una financiación por objetivos.— M. Fuentes: ¿Y creéis que nuestras admi-nistraciones tienen esa visión?— R. Pozo: Yo creo que las personas de las ad-ministraciones son inteligentes y tienen esa vi-sión. A veces, les faltan los instrumentos. Son personas que apuestan por hacer de Euskadi un país innovador y también apuestan por nuevos sectores, como las biociencias, o las energías renovables, o el transporte. Tienen claro que por detrás hay un sector industrial, actual o futuro, en el que van a apostar ponien-do dinero para que se desarrolle. Y el centro tecnológico es una pata más para crear o con-solidar ese sector, en el que va a contribuir y va a poner recursos propios. Y la financiación debe ir a desarrollar esas apuestas, por lo que las administraciones tienen que desarrollar

los instrumentos adecuados que permitan rea-lizar planes globales. Esto implica alianzas estratégicas, el entrama-do global de todo el proyecto que se va a ha-cer en el país. Y esos son los objetivos que hay que financiar. Porque eso, realmente, tiene un fin de dar valor a la sociedad, de crear empleo, de generar riqueza.— C. Redondo: Yo apuntaba en esa dirección porque, al final, financiar por objetivos sig-nifica que nos tienen que analizar el modelo y la estrategia a largo plazo para definir qué objetivos tenemos, pactar con el gobierno los indicadores por objetivos.Porque, sino, el riesgo es la perversión del sistema que mencionabas antes. ¿Mi objeti-vo? Hacer publicaciones, porque eso es lo que me han mandado. Ese no es mi modelo ni mi estrategia, pero, como me miden por eso, lo tengo que hacer. — M. Fuentes: Me gustaría entrar en el ca-pítulo de los recursos humanos, del perso-nal. ¿Tienen nuestros centros suficiente número de doctores? ¿Es importante que tengan más doctores? En una organiza-ción como la red Fraunhofer, que está muy próxima a la universidad, ¿cómo está ese equilibrio? — M.Schlicht: Depende mucho del campo de cada grupo de investigadores. No hay una regla general que se pueda dar aquí; depende mucho de dónde se posiciona el instituto dentro de la cadena de valor. Hay centros que, definitiva-mente, están muy cerca de la universidad, de la investigación básica, pero también tenemos otros institutos que definen los estándar, y es un mundo totalmente diferente. Y un centro como el Fraunhofer tiene ambas misiones.

El director de cada instituto, por ejemplo, es profesor universitario, pero también tiene el rol de director de I+D. — M. Fuentes: Te pregunto porque, como sa-brás, la red Fraunhofer inspiró la estructura-ción de los centros tecnológicos vascos. En la red Fraunhofer hay un director de instituto, que es lo que aquí llamamos un catedrático de universidad, pero, al mismo tiempo, es un ge-rente. ¿Cómo veis el resto de los participantes la situación en este aspecto?— G. Giménez: Yo estoy en los dos sitios, en la universidad y en la empresa. Yo creo que qui-zás los centros tienen una estructura adapta-da a la situación actual, a la respuesta que hay que dar a la sociedad. Hay centros con mayor porcentaje de doctores, otros con menor por-centaje de doctores, otros están intentando tener mayor porcentaje de doctores, pero no porque estén convencidos, sino porque les va a permitir acceder a más ayudas. De lo que sí estoy convencido es que la direc-ción que han de tomar los centros les va a exi-gir personal investigador de más alto nivel. Es decir, tienen que potenciarse investigadores de muy alto nivel, porque va a ser algo necesa-rio en los próximos años. — C. Redondo: Creo que hay una tendencia clara de crecimiento de número de doctores en nuestros centros, motivado, en muchos casos, por esa otra opción de la financiación. Pero yo apuesto más por un crecimiento evo-lutivo, es decir, en función de la estrategia y la demanda del mercado, vas creciendo en ese tipo de perfil. Lo que ya no veo muy claro es la apuesta por perfiles de científicos de alto nivel, porque esos perfiles los vamos a tener en los centros

Mesa de ideas

Page 53: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

53Entorno CIC

de excelencia que se están montando. Por lo tanto, es más fácil recurrir a la colaboración con esos centros que incorporarlos a nuestros centros, porque no va a ser atractivo para esos investigadores. En definitiva, sí al crecimiento en forma evo-lutiva, y en perfiles muy científicos, hay que recurrir a la cadena de valor de la que hablá-bamos antes. — R. Pozo: ¿Doctores? Yo creo que es una con-secuencia, no el fin. Está claro que los centros lo que necesitamos son los mejores profesio-nales. Y el futuro se construye mirando al fu-turo. Y la pregunta es, ¿tenemos a las personas con los conocimientos necesarios para lo que hay que hacer dentro de cinco años?Porque los centros, las empresas, incluso las universidades, tenemos que tener buenos pro-fesionales que sean capaces de gestionar mu-chas cosas. Los conocimientos que se genera-rán en el futuro tienen que estar dispuestos al cambio, pero tienen que ser profesores para el resto de las personas, tienen que ser capaces de gestionar el conocimiento integral. Lo que realmente necesitamos son personas compro-metidas con los valores y los comportamien-tos que necesitamos, y que cubran todo este perfil. Ya no es una cuestión de ser doctor o no; a mí lo que me preocupa es todo lo otro. El doctorado será algo que le pueda ayudar en su carrera profesional, pero necesitamos perso-nas con esos perfiles, con esas características de creatividad, de ayuda...— G. Giménez: Yo lo veo con matices. Estoy convencido de que hacen falta estas personas, porque en los retos que nos vienen en el fu-turo hacen falta personas técnicamente muy capacitadas.

— M. Fuentes: Os quisiera pedir una última reflexión, a modo de conclusión.— C. Redondo: A modo de conclusión sobre las cosas que se han dicho, destacaría que en-cima de la mesa en estos momentos hay un gran reto, que es el de la especialización y la concentración, y que con las alianzas pode-mos aportar mucho valor. Un segundo reto es aprovechar la cadena de valor. Tenemos que enlazar con los centros de excelencia, los CIC, las universidades de aquí o de otros países re-ferentes para nosotros y encauzar la I+D en red desde la investigación básica orientada hasta la innovación.— R. Pozo: Yo también lo resumiría en que creo que tenemos que ser especialistas y tenemos que estar abiertos a las alianzas científico-tec-nológicas y comerciales. Creo que tenemos un reto importante, que es el de dar valor a la sociedad. Dar valor a la sociedad significa crear los productos y los procesos del futuro y atender las demandas, las necesidades y los problemas que hoy día tienen las empresas, pero también las que tendrán mañana.— G. Giménez: Yo también estoy totalmente de acuerdo con lo que se ha dicho aquí. Hay que ir a especializarse; creo que el futuro lo va a demandar y va a ser lo que nos va a permitir afrontar los retos de los próximos años. Y en esa especialización, los centros y las alianzas tenéis un papel dificilísimo: la competencia.Yo creo que hay que poner en valor el poten-cial de las alianzas a base de fomentar el lide-razgo. El liderazgo debe de ser reconocido, y hay que fomentar líderes dentro de cada una de las especialidades. Ese liderazgo es el que realmente unirá y dará cohesión y eficacia a esas alianzas.

— M. Schlicht: Yo no puedo opinar tanto sobre las alianzas integrales en el País Vasco, pero estoy seguro de que van a ser importantes, simplemente porque las tecnologías se vuel-ven más y más complicadas. Por ejemplo, hoy día, en los grupos que trabajan en los circuitos integrados son tan grandes que ya no pueden estar bajo el control de una sola compañía. Por lo tanto, hace falta cooperación para tra-bajar a nivel europeo.— R. Pozo: Yo solamente diría que hay que ser generosos, ver lo que se gana y no solamente lo que se pierde, para que la alianza funcione. Porque, a veces, la gente solo se fija en las co-sas que pierde en casa.— G. Giménez: Dejadme añadir algo que no he expresado a lo largo de la reunión. En la bús-queda de los apoyos necesarios, las empresas, conforme van progresando tecnológicamen-te, cada vez necesitarán más aliarse con los mejores, estén donde estén, y con los que les presten el servicio requerido al mejor precio. En este sentido, de algunos comentarios rea-lizados esta tarde parece que algunos centros sólo sienten el peligro de la competencia de entidades ubicadas en nuestro entorno. Esto cada vez será menos cierto: la competencia no sólo estará aquí cerca; la globalización también afectará al desarrollo tecnológico. Conforme los centros se vayan especializan-do, sus competidores se localizarán a mayor distancia. Los centros tecnológicos deberán prepararse para hacer frente, en los próximos años, a la competencia de centros ubicados no sólo en países tradicionalmente muy desa-rrollados, sino también a la de otros en vías de desarrollo, con costes salariales muy inferio-res pero con buena base tecnológica.

Mesa de ideas

Page 54: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

54 Entorno CIC

gasto en I+D respecto del PIB (GERD/GDP). El GBID/PIB no llegaba al 0,08% gracias a la “adecuada” consideración estadística de obsoletas iniciativas de equipamientos de los que podríamos considerar centros de investigación, laboratorios de ensayo o equivalentes de la época.El Gobierno Vasco iniciaba su andadura y, entre otras cosas, exigía el cumplimiento del Estatuto Vasco de Autonomía que recogía (y recoge aún como asignatura pendiente) la asunción de competencias en mate-ria de ciencia y tecnología con la consiguiente transferencia de medios y servicios. A pesar del desprecio al texto y espíritu estatutario de la nueva etapa que se iniciaba, el Gobierno Vasco, yendo más allá de las competencias asumidas, entendió que la ciencia y la tecnología (más ésta segunda que la primera) resultaban esenciales para el futuro del País, y puso el acento en la misma.

Contextualizar el decreto reguladorNo es necesario profundizar en la crisis extrema en la que nos encontrá-bamos a principios de los 80; con crecimientos económicos negativos, cierres y abandonos empresariales continuos, violencia, conflictividad política y social elevada, déficit infraestructurales alarmantes y el reto de la puesta en marcha de instituciones propias de autogobierno. Limi-temos nuestra atención a observar un simple indicador: el GBID/PIB o

25 años después... la herencia de una singular apuesta

En estrategia, una de las reglas de oro es preguntarse si las cosas suceden o si son provocadas, es decir, si son objeto de una determinada opción hecha en un momento determinado. Esta máxima cobra especial relevancia en estos momentos en los que tratamos de recordar cómo, hace veinticinco años, un decreto del Gobierno Vasco regulaba la figura de tutela de unos incipientes (o, mejor dicho, devastados) centros tecnológicos. Hoy observamos un escenario significativamente distinto. ¿Cómo y por qué hemos llegado hasta aquí? ¿Tiene alguna relevancia la decisión política de aquel gobierno? Utilicemos el gráfico 1 para ilustrar el desarrollo de este artículo.

Jon Azua. Presidente y Director General de e-novating lab.

Ex vicelehendakari del Gobierno Vasco.

Jon Azua, Presidente y Director General de e-novating lab

Ent

orno

CIC

Page 55: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

55Entorno CIC

Entorno CIC - 25 años después... la herencia de una singular apuesta

Gráfico 1

Así, el Gobierno Vasco realizó un importante esfuerzo, no sólo para la financiación de los laboratorios y centros existentes (bastante abando-nados, por cierto), si no para su reconfiguración, ordenación e impulso. De esta manera nace el mencionado Decreto de Tutela que hoy recor-damos y del que conviene destacar una serie de atributos:• Un decreto conjunto de los Departamentos de Industria y Energía y

de Educación, Universidades e Investigación.• Una clara diferenciación de apoyo público, tanto al equipamiento

como a la “masa investigadora”, más allá de una estructura y servi-cios generales.

• Una vocación plurianual de programas presupuestarios y proyectos a largo plazo.

• Una peculiar organización y propiedad privada (claramente más aparente que real) con una sólida tutela y una financiación públicas (desde las Instituciones vascas).

• Una presencia institucional en sus órganos de gobierno, garante de la necesaria coordinación con las políticas públicas.

• Una clara incardinación en los programas y políticas públicas de apoyo a la investigación y, sobre todo, al desarrollo tecnológico, orientados a la demanda del tejido industrial del País.

• Un concepto “paraguas” o marco, para facilitar la adecuación al de-creto de otras iniciativas que pudieran surgir a lo largo del tiempo.

Esta iniciativa pionera no fue una decisión aislada. Vino acompaña-da de una serie de instrumentos focalizados en el reto superador del subdesarrollo tecnológico en que nos movíamos: programas como

el fomento de las unidades de I+D empresariales (con la subvención del 25% del coste de un tecnólogo por empresa), los hoy lejanos CN-100/1.000 para incorporar el control numérico a la máquina herramien-ta líder del momento, o el IMI para “incorporar la microelectrónica a la industria”; políticas de desgravación fiscal al I+D, mucho mas re-cientes; o iniciativas complementarias como la promoción y creación de un primer parque tecnológico en Zamudio, al que seguiría una red y una riquísima y creciente oferta de nuevos, cambiantes o imparables programas de apoyo público.

Otros instrumentos. Desarrollo exitosoTras esta iniciativa, y al amparo de este nuevo marco regulador, sur-gieron otros instrumentos de valor. Así, además de los centros tecno-lógicos tutelados a los que dio cobertura el Gobierno Vasco (LABEIN, Tekniker, Inasmet y CEIT) e Ikerlan (surgido desde el movimiento cooperativo y la iniciativa social), y como referencia indirecta como marco adecuado, se crearon otros centros (a partir del Plan Económi-co de 1983-1987) con la promoción de la Diputación Foral de Bizkaia (Robotiker, Gaiker). Más adelante, el “paraguas” siguió cobijando, a lo largo del tiempo, a otros centros como el actualmente llamado AZTI, Neiker, ESI y el desaparecido FEND. Estos dos últimos, con sus espe-cialidades claramente diferenciadas, se acoplaron a los mecanismos de los centros tutelados para posibilitar su creación y sede en Eus-kadi, completando nuestro tejido tecnológico-industrial. Más adelante, nuevas plataformas (Tecnalia, IK-4...) y nuevas figuras (la red CIC, el

Page 56: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

56 Entorno CIC

Entorno CIC - 25 años después... la herencia de una singular apuesta

ex SARETEK, etc.) han complementado el escenario tecnológico de referencia con y para Euskadi, junto con otras iniciativas normativas que regulan varios planes (desde el plan tecnológico industrial de 1993 hasta sus versiones posteriores como el reciente Plan de Ciencia y Tec-nología 2010).Así, situados hoy a las puertas de la Estrategia Vasca 2010 para el cre-cimiento y la competitividad sostenibles, sólo cabe constatar un de-sarrollo exitoso. Se ha superado el subdesarrollo tecnológico, hemos cimentado unos buenos pilares para un sistema de ciencia y tecnología competitivo, nos acercamos al pelotón dirigente europeo y el sistema ha permitido preparar nuestra economía para afrontar un nuevo esta-dio de la innovación.Por tanto, antes de plantearnos nuestros retos, debemos proclamar y compartir el desarrollo exitoso del sistema, con independencia de cualquier otra valoración. Este éxito es fruto de decisiones y opciones estratégicas valientes, originales y referentes, que nos han traído hasta aquí. Un largo camino que, veinticinco años después, nos permite y exige abordar un nuevo futuro, distinto.

¿Y ahora qué?Tras resaltar el éxito del recorrido histórico, entramos en una nueva etapa. Es sabido que “el éxito del pasado no garantiza el éxito del fu-turo”.Siguiendo con el gráfico ya mencionado, observemos el reto que persi-gue nuestra sociedad. Hemos dicho con rotundidad que futuras “inno-vaciones incrementales”, a partir de la base inicial, serán insuficientes para alcanzar el llamado “Objetivo Europa del 2010” (aspiraríamos a la media de la UE-27 con seguridad, pero no a las regiones que estarán en cabeza).Ser un espacio innovador, tecnológicamente excelente y competitivo, de referencia y de liderazgo, como el que perseguimos, exige recorrer el camino de la “innovación radical”. ¿Es esto posible? ¿Cómo hacer-lo?El “rumor” generalizado dentro del sistema y, sobre todo, en el entorno próximo al sistema, nos transmite un mensaje simplificador, cada día con más fuerza: “hemos hecho lo más fácil, actuando sobre los input; nos espera un reto aún mayor”. Y es verdad que nuestra meta no es igualar o superar la media europea sino, como hemos mencionado,

ser “el referente científico tecnológico europeo”. Esto supone que casi habrá que triplicar el ratio actual mencionado al principio de este artí-culo. Esos cambios y esa innovación radical que requieren una intensa transformación de los agentes e instrumentos del sistema.En este sentido, la apuesta que impulsa el lehendakari en esta nueva “ola de la innovación” (en su llamado “tridente innovador”) alumbra nuevas estructuras e instrumentos como “evolución y madurez de la experiencia adquirida”:• El lehendakari al frente del movimiento, con un consejo consultivo

que pretende integrar —de verdad— la ciencia y la tecnología, el gobierno y las diputaciones forales, las universidades, y la interdis-ciplinariedad de los departamentos (mas allá de Industria, Sanidad, Agricultura y Educación), además de un par de instrumentos (la agencia de innovación y la plataforma para la atracción de investiga-dores). Un consejo que parece insuficiente, ya que los instrumentos extrainstitucionales elegidos no parecen ser ni los más representa-tivos ni los más prestigiados en el propio sistema. Se echan en falta otros agentes que vengan a completar la necesaria red objetivo.

• Un claro esfuerzo por generar y/o consolidar la adecuada integra-ción de las principales plataformas tecnológicas del País.

Desgraciadamente, en mi opinión, ésta es una asignatura claramen-te suspendida.

Las dos plataformas base siguen modelos, actitudes y sistemas muy dispares. Tecnalia no ha sido capaz de definir un claro modelo de negocio, carece aún de un esquema operativo validado y alineado coherentemente con las estrategias parciales de sus centros; su propiedad y gobernanza son débiles y no responden al compromiso suficiente para acelerar su apuesta por la innovación radical. IK-4 avanza en una dirección complementaria, construyendo un modelo propio que exige tiempo tanto para su correcto desarrollo como, sobre todo, para la inevitable adecuación y alineación al resto de plataformas. Sus diversas propiedades y gobernanzas serán críticas para el resultado final.

Adicionalmente, las nuevas figuras clave, en torno a los CIC emer-gentes, no han sido capaces de alcanzar la correcta integración con los centros tecnológicos y con el sistema. Son, aún, estructuras jóve-nes —con un gran potencial— que son percibidas con temor por los agentes mayoritarios. Un largo esfuerzo competitivo resulta impres-

Figura 1

Page 57: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

57Entorno CIC

Entorno CIC - 25 años después... la herencia de una singular apuesta

cindible. Una nueva arquitectura ha de irrumpir con nuevas reglas del juego.

• Las Universidades del país, en su contribución científico-tecnológi-ca, siguen siendo la cenicienta del mundo académico de excelencia (nivel necesario para dar el salto previsto), y la interrelación em-presa-academia sigue siendo escasa, incorrecta y poco orientada a las necesidades y resultados exigibles (basta recordar que ninguna universidad vasca aparece, en ranking alguno, entre las 100 prime-ras universidades europeas).

• La amplia red de agentes, tecnólogos y administradores de la tecno-logía adolece de una “adormecida endogamia” en la que la rotación interna —de puesto a puesto y de instrumento a instrumento— y la poca renovación (agentes, personas, redes) suponen una clara resis-tencia al cambio radical.

• Veinticinco años después de las resistencias al desarrollo estatuta-rio en la materia, el sistema ha conseguido paralizar una transfe-rencia competencial real que, más allá de recursos, permitiría ace-lerar el desarrollo ad hoc del sistema; y no se trata sólo de recursos económicos, de interpretaciones legales y competenciales para el desarrollo tecnológico, de la ausencia de centros estatales oficiales de investigación, o de interferencias internas de las administracio-nes, sino de un empeño de acercarse a las políticas “horizontales medias”, de espaldas a la excelencia diferencial local requerida.

• El nuevo estadio de la economía (economía de la innovación) hacia el que nos movemos exige un cambio radical de nuestro tejido em-presarial. La nueva “manufactura innovadora” será la base de nues-tro empleo y riqueza, y “fuente generadora de avance tecnológico e innovación”. Los retos de nuestras empresas, sus alianzas, creci-miento, capacidad de clusterización e internacionalización y el cada vez más inevitable “músculo financiero-corporativo” tendrán mucho que decir en la llamada orientación al mercado de la investigación y del desarrollo tecnológico, su financiación, velocidad e intensidad.

La figura 1 refleja una breve aproximación a los muchos retos y es-cenarios a los que habremos de acercarnos como fuentes o yaci-mientos de futuro (empleo, tecnología, innovación, competitividad y bienestar).

En definitiva, un escenario de luces y sombras, en el marco de una

extraordinaria apuesta de futuro: necesaria, difícil pero, a la vez, ilu-sionante y posible.Finalmente, debemos recordar que el anhelado cambio radical que nos proponemos pasa por una sólida estrategia de innovación (mucho más allá del mero desarrollo científico y tecnológico). Es el reto adicional de la “competitividad innovadora o la innovación competitiva” que ha-bría de traducirse en una sociedad próspera (Figura 2).El “tridente de la innovación” propuesto por el lehendakari habrá de impregnar de esta actitud, ilusión y compromisos innovadores al con-junto de agentes, instrumentos y personas.El éxito del pasado debe obligar a convertir las nuevas decisiones y opciones estratégicas en la llave del reto anhelado, y transmitir la con-fianza necesaria. Ahora bien, requiere un enorme esfuerzo para superar las barreras que se ha autoimpuesto el propio sistema —y su evolu-ción—.El sistema cuenta con los mimbres, el propósito estratégico y las for-talezas necesarias para lograrlo. Si lo hace, dentro de veinticinco años más podremos ser el referente europeo que pretendemos ser (lo desea-mos y lo necesitamos) como garante de nuestro estado de bienestar y prosperidad. Ahora bien, son necesarios nuevos agentes y nuevos caminos.Ojalá seamos capaces, entre todos, de hacer posible que el nuevo im-pulso político, presupuestario y normativo (el nuevo decreto) del le-hendakari, con la creación de un consejo consultivo, de una agencia para la innovación y de una plataforma para atraer el talento —con el mensaje que conlleva—, así como con el marco tras el nuevo Plan de Ciencia y Tecnología (y su interrelación con la estrategia de competiti-vidad e innovación social y con la estrategia para el desarrollo regional sostenible), nos lleven a un exitoso escenario. De esta forma, dentro de otros veinticinco años, nuestra sociedad de entonces aplaudirá y recor-dará con regocijo y agradecimiento dicha iniciativa, del mismo modo en que hoy aplaudimos y recordamos el ya citado decreto regulador de los centros tecnológicos tutelados de 1982.Veinticinco años después, nos felicitamos de la herencia de una apues-ta estratégica singular.

Figura 2

Page 58: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

58 Entorno CIC

Pero el reto de ser competitivos es un proceso continuo que ha de reno-var sus cimientos todos los días. Y esto también se aplica, lógicamente, al entramado de centros tecnológicos que se ha ido tejiendo. Así lo su-pieron ver, hace unos años, sus gestores cuando vio la luz el proyecto de aglutinar, en torno a estructuras de coordinación de mayor alcance, unos centros tecnológicos que hasta entonces operaban de forma aislada y que, en la era de la globalización, podían ver comprometida su competiti-vidad a nivel internacional y su propio papel como generadores de valor en la empresa vasca. Se crearon así dos grandes alianzas estratégicas: Tecnalia e IK4. Unas instituciones que tomaron como referencia para su propia concepción experiencias de éxito en otros países europeos que habían sabido ver antes que ellos la conveniencia de aunar masas críti-cas y capacidades para avanzar en el desarrollo de competencias cientí-fico-tecnológicas a escala global y hacer frente con mayor solvencia a los nuevos retos del conocimiento.Entre las dos engloban al grueso de los centros tecnológicos y sectoria-les del país. Cada uno de ellos venía con su propia historia, su propia cultura y también su propia adscripción societaria. Algunos estaban vin-

Lo que en su momento fueron sueños comenzaron a convertirse en rea-lidades, y hoy observamos los frutos de aquel empeño conjunto. Con permiso de los demás y, en especial, de la Universidad, el mayor expo-nente de este cambio es el conjunto de centros tecnológicos, que son una referencia clara en el resto del estado y tienen una presencia muy significativa en Europa. Es verdad que su esfuerzo por adelantarse a su tiempo y construir capacidades tecnológicas de primer nivel ha podido hacer que se alejaran del grueso de la industria vasca del momento y su sofisticación no ha sido siempre bien valorada ni entendida por todos. Pero lo que es evidente es que, en su conjunto, constituyen, hoy día, una realidad extraordinaria y altamente positiva para la construcción de la economía del conocimiento en Euskadi.

Perspectiva para otros 25 años más de liderazgo tecnológico

A comienzos de los 80, la administración vasca y el mundo empresarial, compartiendo un mismo discurso y un mismo compromiso, apostaron por levantar en nuestro país instituciones de conocimiento orientadas a generar y, sobre todo, a aplicar y transferir tecnologías y competencias técnicas al diezmado tejido empresarial de aquella época.

Carlos Cuerda. Economista y socio de NAIDER

Carlos Cuerda, Economista y socio de NAIDER

Ent

orno

CIC

Page 59: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

59Entorno CIC

Entorno CIC - Perspectiva para otros 25 años más de liderazgo tecnológico

culados a una base amplia de empresas mientras que otros tenían una clara vinculación a organizaciones, empresas y agentes muy concretos. Si bien el modelo concebido para las dos corporaciones era común, la es-trategia desarrollada por cada una ha sido muy diferente con objeto, pre-cisamente, de conciliar las distintas sensibilidades. Así, Tecnalia ha apos-tado por un proceso de integración multilateral más profundo, mientras que los agentes aliados en torno a IK4 han visto en esta plataforma una oportunidad para coordinar esfuerzos y responder a los grandes retos del momento. En cualquier caso, ambas corporaciones han conseguido la virtualidad de configurarse en espacios dinámicos de encuentro de agentes con intereses comunes que han visto en ellas una forma de esta-blecer relaciones comerciales sin necesidad de sacrificar especialmente su capacidad de decisión. Está claro que quienes mejor conocen la realidad de los centros y de las alianzas tecnológicas que los arropan son sus propios propietarios y gestores; y es a ellos, junto al que es en muchos de los casos su princi-pal socio financiero, el Gobierno Vasco, a quienes corresponde orientar su propio devenir. Las empresas y agentes externos que nos movemos a su alrededor tenemos una visión seguramente mucho más parcial e incompleta y nuestro análisis ha de ser comprendido sólo desde esa pre-ocupación e interés por avanzar en la consolidación en Euskadi de un tejido tecnológico en la vanguardia de Europa como mecanismo eficaz para que nuestra economía dé el salto que le falta hacia las posiciones más elevadas de la escalera del conocimiento. El esfuerzo financiero que realiza la sociedad vasca es, además, muy notable y todos deseamos la plena eficacia de su utilización.Con Tecnalia, se ha iniciado la conformación de una especie de holding tecnológico en el que la estrategia del conjunto de centros asociados comienza poco a poco a ser marcada desde la dirección corporativa. Los impulsores de este proceso (el Gobierno Vasco y las empresas asocia-das a los distintos agentes) han percibido la conveniencia de contar con

una masa crítica suficiente para competir en Europa y en el resto del mundo, y para ello han comenzado a integrar sus capacidades, a orien-tar de forma conjunta sus ámbitos de especialización y a proyectarse en el exterior (y en el mercado empresarial) como una única organización solvente y dimensionada donde crecimiento ya no significa duplicidad de capacidades y competencias sino especialización en tecnologías com-petitivas y apertura de nuevos mercados. Es este un proceso largo al que algunos vemos que podrían ir incorpo-rándose otros centros que comparten filosofía y modelo de financiación de forma que se fuera configurando un holding de referencia cuya capa-cidad permitiera acelerar el proceso de transformación de la economía vasca. Un holding concebido no sólo para dar servicio a las empresas vascas sino también para participar en grandes proyectos transnaciona-les de desarrollo empresarial como fórmula para posicionar Euskadi y hacer marca de país. Contar en Euskadi con una multinacional del cono-cimiento es la mejor tarjeta de visita para inversores, talentos y empre-sarios en busca de acomodo en el espacio global (amén de ser el mejor instrumento con el que pueden contar los grupos empresariales vascos para desarrollar sus grandes proyectos de I+D). algunos analistas obser-vamos la posibilidad de acelerar e impulsar todo el proceso de integra-ción iniciado la como algo especialmente interesante y animamos a sus gestores a avanzar rápidamente por ese camino.De forma complementaria, hay retos de país que sólo pueden ser abor-dados coordinando de forma eficaz todas las capacidades científico-tec-nológicas existentes. Esto lo ha sabido ver muy bien IK4 y los centros aliados en torno a ella han dibujado un marco de colaboración muy eficaz y que, de nuevo desde una perspectiva externa, bien parece que podría ir ampliándose al resto de agentes tecnológicos. Competir de forma aislada en el mercado global del conocimiento se va a hacer cada vez más difícil y es importante seguir consolidando los esquemas de colaboración estra-tégica iniciados durante estos últimos años y, por supuesto, ampliarlos a otros agentes, máxime si estos otros agentes comparecen, como veíamos con Tecnalia, con una voz fuerte y única. Coordinar los esfuerzos de todos es muy importante para el país y la alineación con la política de ciencia y tecnología del gobierno es crítica para algunas cuestiones.Concluyo. Se trata en definitiva de impulsar un nuevo proyecto que re-fuerce todo el camino recorrido hasta ahora en términos de coordina-ción, alineación de estrategias o marketing internacional, desarrollados a partir de la creación de las dos grandes corporaciones tecnológicas. Un proyecto planteado en términos ambiciosos porque debe orientar clara-mente la estrategia tecnológica de este país en los próximos años. Un proyecto que debe retroalimentar ambas alianzas para que no avancen en paralelo sino en común. Un proyecto que, además, debe ilusionar y seducir a todos los implicados porque garantice mejores resultados eco-nómicos y científico-tecnológicos para todos los que participen en él. Un proyecto apoyado claramente por el Gobierno Vasco pero con autono-mía suficiente para marcar una estrategia propia liderada por los propios agentes implicados. El gobierno debe, como principal socio inversor en muchos casos, incorporar la visión de país pero sin olvidar que es el mun-do empresarial el que, en definitiva, debe creer en el proyecto; y, quizás, eso pase también por una mayor implicación y compromiso financiero por parte de las empresas. Esa será la mejor garantía del éxito de todo este proceso y un exponente más de la capacidad de nuestro país por saber construir capacidades y volcarlas a la sociedad y a la empresa.

Page 60: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

60 Entorno CIC

Factores de crecimiento y su formulaciónCuando se produce una herida, lesión o trauma, los eventos celulares y moleculares que se desencadenan son, en general, comunes en todos los tejidos e incluyen procesos inflamatorios, proliferativos, angiogénicos, mitogénicos y de diferenciación y remodelado tisular. Un aspecto a re-saltar es que muchos de estos procesos están regulados por un amplio conjunto de factores de crecimiento, proteínas y citoquinas, que ejercen dichas funciones biológicas a través de su interacción física con diferen-tes sistemas receptoriales presentes en los tejidos diana. Aunque el rol exacto de cada uno de estos mediadores biológicos está tan solo parcial-mente dilucidado, el potencial terapéutico de alguno de ellos ya ha sido ampliamente demostrado. Cabe destacar, por ejemplo, la potente acción mitogénica del PDGF (factor de crecimiento derivado de plaquetas) sobre células del tejido conectivo, los diferentes efectos ejercidos por TGF-β (factor de crecimiento transformante-beta) sobre células osteo-progenitoras, o la potente acción angiogénica desarrollada por el VEGF (factor de crecimiento del endotelio vascular). Como consecuencia de

A lo largo de las últimas décadas, el desarrollo de la biología celular y molecular y el progresivo entendimiento de los procesos de cicatriza-ción y regeneración tisular han fomentado la investigación y la aparición de nuevas áreas científicas multidisciplinares como la medicina regene-rativa y la ingeniería de tejidos. La idea conceptual de buscar “soluciones biológicas a problemas médicos” se está convirtiendo en un nuevo para-digma en la medida en que van surgiendo nuevos preparados biológicos con capacidad terapéutica. Existe, de forma paralela, un creciente inte-rés en el desarrollo de protocolos terapéuticos menos invasivos y más biocompatibles, y de tratamientos que, además de reducir la morbilidad, permitan una recuperación funcional más rápida y eficaz.

Potencial terapéutico de la tecnología del PRGF

Biotechnology Institute, (BTI) ha realizado un enorme esfuerzo en la investigación y desarrollo de la tecnología del PRGF (preparación rica en factores de crecimiento). Este preparado autólogo ha supuesto toda una revolución en la aceleración de la cicatrización y regeneración tisular, y en la actualidad se aplica con éxito en diferentes áreas médicas tales como la implantología oral, cirugía maxilofacial, cirugía ortopédica, medicina deportiva, oftalmología, reumatología, cirugía general y medicina regenerativa.

Eduardo Anitua. Director científico de BTI y de BTI I+D.

Eduardo Anitua, Director científico de BTI y de BTI I+D

Proy

ecto

s de

inve

stig

ació

n

Page 61: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

61Entorno CIC

estos hallazgos, a lo largo de los últimos años ha ido ganando fuerza la idea de emplear estos mediadores como agentes terapéuticos para la reparación o regeneración de un gran número de tejidos. A pesar de los esfuerzos realizados, sólo puede decirse que el resultado fi nal es ciertamente decepcionante ya que apenas un reducido número de moléculas han sido aceptadas para su uso clínico. La complejidad intrínse-ca de la regeneración tisular sugiere que la combinación de factores, y no su uso individual, será más conveniente a la hora de obtener una repuesta terapéutica favorable. Además, las características farmacocinéticas de los factores de crecimiento caracterizadas por semividas de eliminación muy breves sugieren la necesidad de asociar o incorporar dichos mediadores en biomateriales o sistemas farmacéuticos de liberación controlada que permitan una mejor formulación, liberación y farmacocinética.

PRGF: Preparación rica en factores de crecimientoLa tecnología del PRGF, que asume las premisas descritas con anterio-ridad, se basa en el uso, formulación y activación de un preparado au-tólogo rico en plaquetas caracterizado, entre otras propiedades, por su

biocompatibilidad y fácil obtención (Figura 1). Las plaquetas constitu-yen un reservorio fi siológico de factores de crecimiento involucrados en los procesos de cicatrización y regeneración tisular. El estudio detallado de las propiedades intrínsecas de estas células, junto con un protocolo optimizado para su concentración, activación y cinética de liberación, ha permitido el desarrollo de una tecnología de enorme versatilidad y potencial terapéutico. El PRGF permite formular, combinar y liberar de forma local un gran número de factores de crecimiento (PDGF, TGF-β, VEGF, IGF, HGF, PF-4, etc.) y proteínas con actividad biológica (fi bronectina, vitro-nectina, etc.). Un aspecto a destacar es la capacidad angiogénica de PRGF tal y como observamos en la Figura 2. Tras la activación del preparado biológico, en pocos minutos se genera una red de fi brina que mantiene el espacio regenerativo y que sirve, además, como ma-triz para las células progenitoras. La combinación de estos ingredien-tes, células progenitoras, factores de crecimiento y una matriz bio-compatible constituye la base ideal para el desarrollo de estrategias terapéuticas de “tissue engineering” (ingeniería de tejidos).

Entorno CIC- Proyectos de investigación

Figura 1: A) Preparado autólogo rico en plaquetas y factores de crecimiento (PRGF) y B) fi brina elástica, ambos 100% autólogos y obtenidos de la sangre del paciente.

Figura 2: Capacidad angiogénica del PRGF inyectado en tendón de oveja. A) La histología del tejido tratado con PRGF (obsérvese uno de los capilares sanguíneos) y B) el grupo control.

Figura 3: Osteoartritis en la rodilla izquierda, hipertrofi a grasa y edema residual secundario a una trombofl ebitis tratada con PRGF: A) imagen de la úlcera de unos 6 cm de diámetro y la reacción infl amatoria; B) PRGF coagulado cubriendo toda la extensión de la úlcera; C) imagen de la úlcera a las 5 semanas del inicio del tratamiento con PRGF y D) curación total de la úlcera después de 7 semanas de tratamiento.

B

A

A B C D

Page 62: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

62 Entorno CIC

Múltiples aplicaciones terapéuticasSon numerosas las situaciones fisiopatológicas en las que la aplicación del PRGF estimula una más rápida cicatrización, regeneración ósea o re-paración tisular. El tratamiento de úlceras crónicas es un ejemplo claro de las posibilidades terapéuticas y regeneradoras del PRGF. En un ensa-yo aleatorio reciente, se ha comprobado cómo la aplicación tópica de la matriz tridimensional de fibrina sobre la zona ulcerada permite, en tan solo 8 semanas, aumentar la superficie regenerada hasta un 73% frente al 22% del grupo control (Figura 3).Otro campo de especial interés es la regeneración ósea, sobre todo a nivel oral, ya que la pérdida ósea causada por enfermedades periodonta-les se ha convertido en un problema de salud pública. El uso del PRGF, tanto individualmente como asociado a diferentes biomateriales, permi-te acelerar la formación de hueso en los defectos óseos y estimular la regeneración del tejido blando adyacente. En relación con esta idea, BTI ha llevado a cabo la sinergia de sus dos principales líneas de investiga-ción (implantes dentales + tecnología del PRGF), que ha dado lugar a implantes con superficie bioactivable que han representado un hito en el campo dental (Figura 4). La bioactivación, unida a las propiedades in-trínsecas de los implantes dentales, implica humectar la superficie de ti-tanio de los implantes con la formulación líquida de PRGF, de forma que la superficie quede impregnada de factores de crecimiento y proteínas con actividad biológica, lo que, en conjunto, mejora la oseointegración —la interacción implante-hueso receptor— de los implantes, y, por lo tanto, la estabilidad y eficacia de los mismos. De hecho, los resultados recientes de los análisis de la supervivencia a 5 años de cerca de 6.000 implantes BTI bioactivables han mostrado una eficacia global del 99,5%, lo cual indica que la bioseguridad y predictibilidad de esta tecnología es elevada (Figura 5).Otro campo en auge es el del tratamiento de lesiones ortopédicas con PRGF, principalmente con el objeto de restaurar la función fisiológica a tiempo de evitar una mayor degeneración tisular. Entre las numerosas aproximaciones realizadas caben destacar los prometedores resultados obtenidos en el tratamiento de lesiones tendinosas y musculares, en lesiones de ligamento cruzado anterior, en lesiones articulares y, más recientemente, en la mejora de la artrosis, en la que nuestro grupo de

investigación está realizando un enorme esfuerzo.Otros campos de actuación igualmente destacables son la aplicación del PRGF en forma de colirio en el tratamiento del síndrome del ojo seco, o los prometedores resultados obtenidos tras la aplicación del preparado autólogo en la regeneración de nervios periféricos.

Consideraciones a futuroLa tecnología del PRGF representa un nuevo hito en la estimulación y re-generación de un gran número de tejidos. La versatilidad de esta tecnolo-gía asociada a su capacidad de interacción con múltiples biomateriales fa-cilita su aplicación en un creciente número de situaciones patológicas.

Figura 5: Fractura vertical de un canino tratada con PRGF: A) imagen de la fractura vertical; B) PRGF cubriendo el defecto; C) regeneración ósea a las 12 semanas y D) restauración final.

Figura 4: Aplicaciones en implantología y cirugía oral: la capacidad aglutinante del PRGF facilita la manipulación de A) biomateriales y B) hueso autólogo. C) la bioactivación de los implantes dentales con PRGF líquido aumenta su capacidad de oseointegración y con ello su predictibilidad.

Entorno CIC- Proyectos de investigación

A B

C

A B C D

Page 63: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

XXXXXX

63Entorno CIC

Page 64: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

64 Entorno CIC

Entorno CIC - El proyecto Bloodgen

ABO o Rh, pero en realidad el número es mucho mayor y se clasifican en función de los cambios de las proteínas que los determinan. De este modo tenemos cambios que pueden ser en la propia proteína y que in-cluye a los sistemas RH; KEL; FY; JK; GIL; CO; DO; MNS; CROM; DI; IN; CH/RG; KN; GE; LW; LU; OK; SC; YT; XG; JMH; RAPH; y el XK o cam-bios en los carbohidratos que se encuentran unidos a algunas de estas proteínas y que incluye a los sistemas ABO, P1, H, LE, GLOB, y el I. La identificación de las bases moleculares que determinan los distintos grupos sanguíneos clínicamente más importantes ha sido uno de los aspectos más estudiados durante los últimos años. La mayoría de las variantes de estos grupos son debidas a cambios de una sola base en la secuencia del DNA, lo que denominamos polimorfismos de un único

Complejidad y determinación de los grupos sanguíneosLos grupos sanguíneos humanos están determinados por cambios en las proteínas que se encuentran en la membrana del glóbulo rojo o eri-trocito. El gran número de proteínas implicadas y la gran diversidad de cambios que éstas presentan hacen que sea un campo tremendamente complejo. A la mayoría de nosotros nos suenan familiares los grupos

El proyecto BloodgenIncremento de la seguridad transfusional mediante el desarrollo de tecnologías que permitan el genotipado masivo de los donantes de sangre y sus receptores

La medicina transfusional es el paradigma de la medicina personalizada. Uno de sus objetivos principales es asegurar la compatibilidad de los grupos sanguíneos entre el donante y el receptor, de modo que cada receptor (paciente) reciba una unidad perfectamente compatible con su grupo sanguíneo. La transfusión sanguínea en Europa es inherentemente segura, gracias al empleo, en la rutina del Banco de Sangre, de técnicas serológicas para asegurar la compatibilidad entre el donante y el receptor. No obstante, ciertos antígenos denominados débiles no son detectados mediante los tests serológicos utilizados hoy en día, y además existen dificultades para la detección de determinados antígenos específicos, por falta o escasez de reactivos serológicos. Actualmente la única metodología disponible para solventar estos problemas es la identificación de los grupos sanguíneos a partir del DNA del donante y del receptor. El objetivo del proyecto de investigación denominado Bloodgen, y que se desarrollará a lo largo de este artículo, es el desarrollo de una herramienta que permita identificar de forma sensible y específica los grupos sanguíneos clínicamente relevantes en medicina transfusional.

Antonio Martínez. Director técnico de Progenika Biopharma.

Antonio Martínez, Director técnico de Progenika Biopharma

Proy

ecto

s de

inve

stig

ació

n

Page 65: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

65Entorno CIC

nucleótido (SNPs), como por Rh C/c y E/e. Un aspecto muy importan-te son los fenotipos denominados D-débiles debidos a SNPs en el gen RHD que hacen que la proteína se exprese muy débilmente y, en algu-nos casos, resulte imposible su detección por las técnicas de serología que de modo habitual se emplean en los bancos de sangre. Sin embar-go, los SNPs no son el único mecanismo que explica esta variabilidad: en el sistema ABO, alelos híbridos debido a recombinación de genes conduce a diversos fenotipos, o en el caso de fenotipos D-negativo, el gen RHD está delecionado.Es por ello que la identificación de estos cambios en la secuencia del DNA se convierte en la aproximación más adecuada de cara a una co-rrecta identificación de estos grupos. El problema es que el número de cambios es muy alto, por lo que es necesaria una tecnología que permita la determinación sensible y específica de cada uno de ellos de cara a su aplicación en la rutina del Banco de Sangre. Los chips de DNA o de genotipado consisten en un elevado número de secuencias de DNA impresas en una superficie de cristal modificada. Estas sondas se unen a las secuencias de DNA complementarias de la muestra que se quiere interrogar y que son aplicadas al chip. Esta tecnología permite la caracterización molecular simultánea de cientos o incluso miles de cambios en la secuencia del DNA.

La Directiva europea en transfusión sanguíneaEn Europa la serología de rutina para identificar los grupos sanguíneos está centrada en la identificación de los grupos clínicamente más signi-ficativos como el ABO, RH, KEL, FY, JK y MNS. A pesar de la seguridad de esta práctica, pueden aparecer casos de aloinmunización, debido a la presencia de grupos incompatibles entre el donante y el receptor (pueden llegar a aparecer con frecuencias de hasta el 4% de los pacien-tes) que puede causar reacciones adversas severas agudas o retrasadas que resultan en hospitalizaciones prolongadas o que producen incluso la muerte. En Europa la directiva de 2002 (2002/98/EC) indica en el punto 9 la necesidad de crear de servicios de Hemovigilancia en todos los servicios de sangre en Europa a los que se comuniquen estos efec-tos adversos. La Directiva también indica que “el Parlamento Europeo resaltó la importancia de asegurar la máxima seguridad en transfusión sanguínea y ha reiterado su continuo apoyo para la autosuficiencia de la Comunidad”.

La incidencia de efectos adversos como, por ejemplo, los debidos al anti-Jka son imposibles de evitar por serología. Por ello, el empleo de técnicas de genotipado masivo de donantes y receptores en la UE mejorará sustancialmente la transfusión sanguínea en pacientes espe-cialmente vulnerables como los pacientes que requieren transfusiones frecuentes o mujeres en edad fértil.

Estructura y objetivo del Consorcio BloodgenEl Consorcio Bloodgen se creó en respuesta a la necesidad de desa-rrollar una nueva tecnología que permita identificar de forma segura y específica de los principales grupos sanguíneos clínicamente rele-vantes. Muchos de los miembros del Consorcio han sido algunos de los principales protagonistas implicados en el descubrimiento de las bases moleculares de los grupos sanguíneos desde 1990 e incluye a investigadores en los bancos de sangre de referencia del Reino Unido, Holanda, Suecia, España, Alemania y la República Checa. El Consorcio fue financiado bajo el V Programa Marco de la Unión Europea con el objetivo de demostrar la viabilidad comercial de una herramienta de genotipado basada en un DNAchip. Progenika fue la empresa selec-cionada por el Consorcio para llevar a cabo el desarrollo tecnológico, gracias a su probada experiencia en el desarrollo de herramientas diag-nósticas basadas en tecnología DNAchip, como el Lipochip, DNAchip para el diagnóstico de la Hipercolesterolemia familiar que se emplea como herramienta de rutina para diagnosticar esta enfermedad.

Aspectos técnicos del proyectoLa primera tarea del proyecto fue la selección de la lista de SNPs, delecio-nes e inserciones correspondientes a los alelos de los grupos sanguíneos que se incorporarían en el Bloodchip. Esta lista incluía 116 polimorfismos cuya combinación determina las 192 variantes fenotípicas correspondien-tes a 10 grupos sanguíneos que era necesario identificar: ABO, Rh (C, c, D, E, e), Kell (K), MNS, Duffy, Kidd, Diego, Dombrock y Colton.Con el fin de detectar cada alelo para los SNPs incluidos en el DNA-chip, se optimizaron reacciones de amplificación por PCR para amplifi-car específicamente cada una de las regiones donde se localizan estos SNPs. Esto supuso un reto tecnológico importante ya que muchos de estos genes comparten gran parte de la secuencia (por ejemplo los ge-nes RHD y RHC), por lo que hubo que desarrollar nuevos métodos que

Entorno CIC- Proyectos de investigación

Chip de DNA usado para genotipado.

Page 66: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

66 Entorno CIC

permitieran amplificar específicamente el fragmento que se deseaba.Progenika diseñó el DNAchip, los controles y cada uno de los fragmen-tos de DNA que se iban a depositar sobre el DNAchip para hibridar con los distintos alelos. Una vez puesto a punto el método de hibridación, se desarrolló un algoritmo que procesara los resultados obtenidos y, de forma automática, permitiera obtener un resultado fácilmente inter-pretable por el usuario, en este caso el banco de sangre.

Validación clínicaLa eficacia del Bloodchip se determinó en una serie de pequeños ensa-yos piloto en muestras en cada uno de los bancos de sangre participan-tes en el estudio. La estrecha interacción entre Progenika y cada uno de los participantes permitió optimizar las condiciones adecuada para cada uno de los procesos a los que se someten las muestras. Una vez puesto a punto el método, se llevó a cabo un gran ensayo clíni-co en 1.000 muestras de acuerdo a los requisitos que marca la Directiva Europea para la obtención del marcado CE del producto (Diario Oficial de las Comunidades Europeas de 16/05/02), y que permite el empleo de la herramienta en rutina diagnóstica en cualquier banco de sangre de la Unión Europea. Nunca hasta ahora se había llevado a cabo en el mundo un estudio de genotipado masivo de grupos sanguíneos como el realizado por el consorcio Bloodgen.Los resultados de la validación clínica fueron muy favorables hacia la nueva herramienta desarrollada. En las 1.000 muestras incluidas en el estudio se identificaron 43 discrepancias entre los resultados de la serología y el Bloodchip. De éstos, dos fueron debidos al Bloodchip mientras que 41 fueron errores de la serología. Estos resultados de-mostraron la aplastante superioridad tecnológica del Bloodchip sobre la metodología que actualmente se está empleando.

Principales beneficiariosEl objetivo final del Consorcio Bloodgen es que Bloodchip se aplique a cada recién nacido en la Unión Europea, permitiendo a cada per-sona contar con su perfil eritrocitario exacto desde el momento del nacimiento. Evidentemente, se trata de un objetivo a medio plazo, pero existen pacientes en los que se hace necesario el empleo inmediato de la herramienta, entre los que se incluyen:1. Pacientes que requieren transfusiones frecuentes y que deberían

estar perfectamente caracterizados, de modo que siempre reciban

unidades compatibles que eviten aloinmunizaciones. Esto incluye pacientes con Talasemias, Drepanocitosis, Anémias refractarias, Síndromes mielodisplásicos, Linfomas, Mielomas, Leucemias linfo-cíticas crónicas, Insuficiencia renal crónica, Pacientes pediátricos, Mujeres en edad fértil.

2. Tipificación de pacientes en los que la determinación del grupo san-guíneo mediante técnicas serológicas no es posible, por ejemplo aquellos que han recibido una transfusión reciente.

3. Tipificación de aquellas donaciones que se utilizarán para producir los reactivos que componen los paneles de identificación empleados como reactivos serológicos.

4. Tipificación de donantes RhD negativos para detectar aquellos por-tadores de un gen RHD de expresión muy débil (Delecionado o D débil) y que erróneamente se etiquetarían como unidades RhD nega-tivo, cuando en realidad son RhD positivo.

5. Tipificación de embarazadas RhD negativas para detectar aquellas portadores de un D débil (son RhD positivas) y que no necesitarían la administración de gammaglobulina anti-D.

Estas aplicaciones suponen que en los bancos de sangre deben existir cohortes de donantes perfectamente caracterizados para satisfacer las demandas de estos pacientes. Esto es posible especialmente en aque-llos donantes que lo son durante largos periodos de tiempo, ya que Bloodchip es un test genético que hay que hacer una sola vez en la vida del donante o del receptor.

Futuro del proyecto BloodgenTras el desarrollo del proyecto Bloodgen, Progenika se ha convertido en la empresa líder en el mundo en el campo del genotipado de los grupos sanguíneos. El objetivo de la empresa es mantener esa posición de liderazgo y para ello es responsabilidad de la empresa mantener un elevado nivel de inversión en investigación que haga que la herramien-ta desarrollada sea siempre superior a cualquiera de las que pudieran desarrollar competidores que puedan surgir en los próximos años. Ello supone aspectos como la automatización del procesamiento del Bloo-dchip, la inclusión de nuevos grupos sanguíneos como los plaquetarios (HPA) o los de linfocitos (HLA), algo en lo que ya se está trabajando. Adicionalmente, el salto a otros mercados no europeos hace necesario la inclusión de grupos clínicamente relevantes en otras poblaciones como la africana o la asiática.

Entorno CIC- Proyectos de investigación

Page 67: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

67Entorno CIC

Page 68: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

XXXXXX

68 Entorno CIC

analizadas, al reducir el esfuerzo necesario para llevar a cabo un análi-sis de asociación (The international HapMap Project, 2003).Una de las incógnitas que se planteó en los comienzos del proyecto Ha-pMap fue si los haplotipos y tagSNPs obtenidos por este proyecto para las cuatro poblaciones analizadas en él (CEU, caucásicos residentes en Estados Unidos con origen en el Norte y Oeste de Europa; CHB, chinos de la etnia Han procedentes de Pekín; JPT, japoneses procedentes de Tokio; YRI, nigerianos de la etnia Yoruba de Ibadan) serían extrapola-bles y, por tanto, útiles para el resto de poblaciones mundiales (The international HapMap Project, 2003; Mueller et al., 2005; González-Neira et al., 2006). Dentro de las poblaciones europeas, esta cuestión despertaba gran interés en el caso de la población vasca, que presenta características genéticas únicas con relación al resto de poblaciones de dicho continente (Aguirre et al., 1991; Cavalli-Sforza et al., 1994; Iriondo et al., 2003). Aunque la población autóctona vasca no está com-pletamente aislada de sus vecinos geográficos, presenta una distancia genética con otras poblaciones europeas mayor que la distancia media inter-europea y representa uno de los factores más importantes a la hora de explicar la variabilidad genética del viejo continente (Cavalli-Sforza et al., 1994). Con estos antecedentes, resultaba necesario anali-zar la utilidad de los datos generados por el proyecto HapMap para su utilización en el diseño de análisis de asociación de polimorfismos a enfermedades en la población vasca.

La necesidad de conocer la distribución del genoma y de desarrollar nuevas estrategias eficaces para identificar variantes de riesgo a en-fermedades complejas, propició que en 2002 se creara el Proyecto In-ternacional HapMap (www.hapmap.org). Entre los objetivos de este proyecto estaba, por un lado, generar un catálogo de variantes genéti-cas comunes que describiera la naturaleza, localización y distribución de las mismas, y por otro lado, se pretendía identificar los haplotipos comunes (conjuntos de polimorfismos de nucleótido único —Single Nucleotide Polymorphims, SNPs— que presentan un alto nivel de des-equilibrio de ligamiento —LD— entre sí), para facilitar su utilización como marcadores en los análisis de asociación con enfermedades, ya que su potencial informativo es mayor que el de los marcadores indivi-duales. Y por último, otro de sus objetivos era determinar los tagSNPs (conjunto limitado de SNPs altamente informativo sobre la variación de una región concreta del genoma) que permitan identificar específi-camente esos haplotipos. La utilización de los denominados tagSNPs permitiría ampliar el número de muestras y regiones cromosómicas

Plataforma de Genotipado

Ana Mª. Aransay. Group Leader en la Unidad de Genómica Funcional

de CIC bioGUNE.

Ana Mª Aransay, Group Leader en la Unidad de Genómica funcional de CIC bioGUNE

Proy

ecto

s de

inve

stig

ació

n

Page 69: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

69Entorno CIC

Entorno CIC- Proyectos de investigación

Nucleosoma

Celula

Núcleo

Cromosoma

Histoma

Gen A

DNA de doble hélice

creación de una plataforma que englobe tecnologías de Illumina, Affy-metrix y Applied Biosystems, las cuales proporcionan rendimiento y ventajas específicos para los distintos diseños experimentales que se requieran en cada caso.

• Desarrollar una plataforma bioinformática para la gestión, integración y tratamiento informático de las muestras, así como para la represen-tación y análisis estadístico de los datos.

Descripción de las tareas realizadasLas tareas propuestas para la puesta a punto de la plataforma de ge-notipado fueron:1. Obtención de muestras de sangre de población autóctona de Viz-caya, Guipúzcoa, Álava y Navarra, tanto para el presente estudio como para el mantenimiento de muestras-referencia en el Banco de DNA.Para ello, la Fundación BIO (BIOEF) solicitó, en primer lugar, la apro-bación de los consentimientos informados que se iban a presentar a los donantes, al Comité Ético de Investigación Clínica (CEIC) del Hospital de Galdakao (Bizkaia). Se recabó la colaboración de la Cátedra Interu-niversitaria de Derecho y Genoma Humano de la Universidad de Deusto para abordar desde el punto de vista ético las peculiaridades de las prue-bas de paternidad y las comprobaciones de las genealogías.El muestreo se realizó siguiendo los siguientes criterios de inclusión:

Plataforma de genotipadoLa plataforma de genotipado coordinada por el CIC bioGUNE surge como una iniciativa apoyada por la estrategia bioBASK 2010 del Depar-tamento de Industria, Comercio y Turismo del Gobierno Vasco. Un grupo de investigadores de varias empresas (Progenika Biopharma, S.A., Noray Bioinformatics, S.L., e-bioIntel, S.L. y Pharmakine, S.L.), el sistema de sa-lud (Fundación Vasca de Innovación e Investigación Sanitarias BIOEF), el Departamento de Genética, Antropología Física y Fisiología Animal de la Universidad del País Vasco y el CIC bioGUNE, se reúnen con el fin de establecer una alianza científico-tecnológica tan excepcional como es esta plataforma.El objetivo científico inicial de este proyecto fue determinar la estructura y diversidad haplotípica de la población autóctona vasca y compararlas con aquellas descritas por el proyecto HapMap Internacional para otras poblaciones (europea, asiática y africana).Asimismo, en este proyecto se plantearon los siguientes objetivos biotecnológicos:• Crear un Banco de DNA para el almacenamiento y gestión de diferen-

tes muestras obtenidas bajo rigurosas condiciones éticas.• Inmortalizar linfocitos como fuente inagotable de DNA genómico estable.• Desarrollar un sistema integrado de análisis de SNPs a gran escala que

posibilite la realización de diferentes tipos de estudios mediante la

Tipos de alteraciones genéticasAlteraciones a nivel cromosómico

- Translocaciones- Amplificación génica o duplicación- Inversiones- Poliploidía- Pérdidas de Heterocigosidad

Alteraciones a nivel génico- Mutaciones puntuales (SNPs)- Delecciones/Inserciones- Hipermetilación

Inestabilidad de secuencias- Microsatélites

• Single Nucleotide Polymorphism (SNP) Mutación causada por el cambio de un único nucleótido

• Los SNPs son muy frecuentes en el genoma humano: hasta aho-ra se ha descrito una media de 1 SNP cada ~1,250 pares de bases (suponen el 90% de las diferencias entre dos genomas)

• La mayoría de los SNPs no tienen efecto fenotípico, pero al-gunos pueden estar asociados con la susceptibilidad a ciertas enfermedades o con una respuesta discordante a ciertos trata-mientos farmacológicos. Grupos de SNPs en desequilibrio de ligamiento podrían ser marcadores ideales para diagnóstico.

Page 70: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

70 Entorno CIC

Autoctonía: Los cuatro bisabuelos y cuatro bisabuelas de cada individuo tenían que ser naturales de la misma provincia. Se excluyeron aquellos individuos en los que alguno de sus ocho primeros apellidos era de claro origen alóctono con respecto a la provincia originaria.Sanos: sin padecer ninguna enfermedad evidente en el momento del muestreo.Edad de los donantes: Para asegurarse de que no haya superposición de generaciones, serán seleccionados individuos adultos, entre 18 (nacidos en 1986) y 45 años (nacidos en 1959). Los padres también deben estar vivos. Parentesco: Los individuos no estarán emparentados hasta el tercer gra-do, de forma que ninguno de los bisabuelos sea coincidente.A cada donante, BIOEF le realizaba las siguientes pruebas:0 - Identificación del donante1 - Exploración física.2 - Analítica de bioquímica y serología3 - Extracción de sangre.4 - Envío de sangre a Pharmakine, S.L. para la inmortalización de linfocitos.5 - Aislamiento y envío de DNA al Departamento de Genética, Antropolo-

gía Física y Fisiología Animal de la Universidad del País Vasco (UPV/EHU), CIC bioGUNE y Progenika, S.L.

6 - Genealogía [Servicio Subcontratado por la Fundación BIO, a Alberto Alday].7 - Envío de muestras a Dpto. Zoología y Dinámica Celular Animal, Fa-

cultad de Farmacia. UPV, Vitoria-Gasteiz para pruebas de paternidad

[Servicio Subcontratado por la Fundación BIO].8 - Inclusión de los datos del paciente en la base de datos.La captación de donantes se realizó a partir de los médicos de centros de sa-lud, hospitales y bancos de transfusiones de las cuatro provincias estudiadas.2. Desarrollo de una Plataforma de Genotipado de SNPs de alto rendimiento:Para ello se pusieron a punto varias tecnologías:a. El departamento de Genética, Antropología Física y Fisiología Animal

de la Universidad del País Vasco se encargó de poner a punto la tecno-logía de SNPlex (Applied Biosystems) para el análisis de alta densidad de SNPs. Esta técnica permite la caracterización detallada de genes candidatos a escala de medio rendimiento. De esta manera se carac-terizaron grupos de SNPs a la carta seleccionados según las regiones cromosómicas que respondían a los intereses particulares de los la-boratorios participantes.

b. Por otro lado Progenika Biopharma, S.A. y el laboratorio de genotipa-do del CIC bioGUNE pusieron a punto las tecnologías de alto rendi-miento de Affymetrix e Illumina Inc. respectivamente, para el estudio de baja densidad de SNPs o rastreo de genoma completo. Para ambas tecnologías se procesaron arrays con los que se caracterizan más de 100.000 SNPs por muestra. Ambos paneles son productos estándar de las compañías correspondientes, diseñados bajo criterios de selec-ción muy diferentes. Entre ellos hay 5.142 marcadores coincidentes, los cuales nos han servido como control de calidad y de reproducibi-lidad de dichos procesos.

3. Desarrollo de una herramienta bioinformática a la carta: Noray Bioinformatics, S.L. junto con BIOEF han desarrollado en primer lugar una aplicación informática que se llama de “gestión de donantes”, en la que se almacenan y gestionan los datos personales de todos los donantes cuyas muestras se van a caracterizar a lo largo de un proyecto, o en un futuro todas las que formen parte del BioBanco de BIOEF. La aplicación asigna a cada donante un código alfanumérico generado alea-toriamente de manera automática.Los mismos investigadores han elaborado una segunda aplicación deno-minada de “selección de datos”. Esta herramienta sirve para la gestión y almacenamiento de la información de cada una de las muestras corres-pondientes a cada uno de los donantes insertados en la primera aplica-ción y los datos resultantes de la exploración física, analítica, pruebas de paternidad y estudio genealógico. La aplicación asigna a cada donante un segundo código aleatorio y relacionado internamente con el código gene-rado por la aplicación “gestión de donantes”. Esta herramienta permite la selección de muestras de donantes que han sido dadas de alta en la prime-ra aplicación según los criterios de inclusión definidos en cada estudio.A estas dos aplicaciones sólo puede acceder el personal de BIOEF, y ambas cuentan con un sistema de acceso de alta seguridad, debido a la sensibilidad de los datos que gestiona (datos de los donantes), rela-cionándose entre ellas por medio del código aleatorio generado por la primera aplicación. Ese código sirve para relacionar los datos de ambas bases de datos, pero en ningún caso será informativo por si solo, es de-cir, actúa de identificador disociado del donante, siguiendo la normativa estipulada en la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal.Por otro lado, Noray Bioinformatics, S.L. y el laboratorio de genotipado del CIC bioGUNE han desarrollado otra aplicación para el almacena-

Entorno CIC- Proyectos de investigación

Page 71: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

71Entorno CIC

Entorno CIC- Proyectos de investigación

miento y gestión de los resultados de genotipado procedentes de cual-quiera de las plataformas tecnológicas mencionadas: “la base de datos de genotipado”. A dicha base de datos se accede vía Web, de tal manera que cualquier investigador colaborador puede solicitar su clave de acceso, y puede gestionar sus resultados desde cualquier lugar, sin necesidad de que la aplicación esté instalada en cada uno de los ordenadores. En esta base de datos tan sólo se pueden incluir códigos de muestras totalmente anonimizados siguiendo la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal.La base de datos de la aplicación incorpora la información relativa a los SNPs que se encuentra en la base de datos pública dbSNP del NCBI, lo que permite al usuario consultar en todo momento dichas anotaciones para todos los marcadores analizados en cada proyecto. Como peculiari-dad, esta tercera aplicación permite al usuario generar ficheros de mar-cadores consensos analizados por distintas tecnologías, para comprobar la calidad de los ensayos de genotipado realizados. 4. Tratamiento estadístico de datosPara la comparación de los resultados obtenidos con los de otras pobla-ciones europeas, el laboratorio de genotipado y la unidad de bioinformá-tica del CIC bioGUNE han desarrollado una aplicación informática que facilita la transformación del formato de los resultados de genotipado extraídos de la base de datos, para su utilización en software específico (tanto programas con licencias propias como gratuitos). Gracias a dicha aplicación, se pueden determinar parámetros estadísticos tales como el equilibrio de Hardy-Weinberg para cada marcador, la diversidad haplo-típica, el desequilibrio de ligamiento, la divergencia genética calculada entre la población estudiada y las caracterizadas por el consorcio inter-nacional HapMap, así como algoritmos para los estudios de asociación de SNPs con enfermedades hereditarias.La aplicación que se ha creado es muy dinámica, de manera que permite la integración de otras herramientas (algoritmos o software) de análisis que puedan interesar en un futuro.Este diagrama superior describe el flujo de trabajo que se ha establecido entre los colaboradores de la plataforma de genotipado.

Resultados obtenidos por la plataformaEl muestreo para el estudio poblacional ya ha finalizado, y se ha compro-bado que todas las muestras cumplen las características de genealogía establecidas en los criterios de inclusión y que sus analíticas generales y exploraciones físicas corresponden a un individuo sano. Los linfocitos de estas muestras están inmortalizados, y éstos, junto con el DNA extraí-do para cada muestra, forman parte del Banco de DNA de la plataforma. Noventa de estas muestras (de Bizkaia, Gipuzkoa, Araba y Nafarroa) se han procesado con las tres tecnologías mencionadas, de manera que para cada muestra se han obtenido un total de 221.000 SNPs, distribuidos a lo largo de todo el genoma a una distancia media de 13,6 kilobases.Los resultados de genotipado han sido importados a la plataforma de bioinformática, y están siendo analizados para inferir la estructura haplo-típica de la población vasca autóctona con respecto a otras poblaciones como la caucásica, descritas por el Consorcio Internacional Hapmap.Diversos proyectos se están beneficiando ya de esta plataforma, la mayo-ría de los cuales han surgido de colaboraciones con centros sanitarios y/o de investigación nacionales e internacionales. Todos ellos tratan de estu-dios de asociación de SNPs a enfermedades con supuesta o demostrada implicación genética, tales como la diabetes mellitus tipo I (Bilbao et al., 2006), enfermedad celiaca, esclerosis múltiple (O’Doherty et al., In press & Vandenbroeck et al., Submitted) y esteatohepatitis no alcohólica.En resumen, la plataforma de genotipado definida en este documento, ofrece a la comunidad científica nacional e internacional, por un lado, las muestras (de controles y enfermos) almacenadas en el Banco de DNA de la Fundación Vasca de Innovación e Investigación Sanitarias, tecnologías de genotipado como SNPlex de Applied Biosystems, puesta a punto por el Departamento de Genética, Antropología Física y Fisiología Animal de la Universidad del País Vasco, los arrays de Affymetrix procesados en Progenika, y las técnicas de genotipado de Illumina, tanto los arrays estándar, como los paneles de hasta 1,536 SNPs que cada investigador puede diseñar a la carta, y que se analizan en el laboratorio de genotipa-do del CIC bioGUNE. La base de datos desarrollada por NorayBio está disponible en internet.

Page 72: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

72 Entorno CIC

Eus

kadi

en

brev

eE

uska

di h

itz b

itan

Las empresas biotecnológicas vascas refuerzan en Boston su posición con la firma de contratos internacionalesLas catorce empresas vascas de biotecnología que participaron en la BIO 2007 de Boston aprovecharon su presencia en la convención más importante del mundo en el sector para firmar contratos comerciales, acuerdos de colaboración, presentar sus productos y promover contactos para sentar las bases de cara a futuros negocios. La bioregión vasca ha consolidado de este modo su creciente peso en el ámbito de las biociencias y ha confirmado su dimensión internacional.

La delegación vasca, encabezada por la Agencia bio-

BASK, estableció contactos bilaterales con represen-

tantes institucionales y empresas de una decena de

países, tanto europeos como americanos. En algu-

nos casos, se reforzaron los vínculos ya establecidos

en los últimos años con bioregiones que han podido

constatar la rápida evolución de las biociencias en

Euskadi desde la puesta en marcha en 2002 de la es-

trategia bioBASK 2010. Estos contactos han sentado

además las bases para la organización de misiones

comerciales al exterior.

Euskal enpresa bioteknologikoek euren posizionamendua indartu dute Bostonen nazioarteko kontratuak sinatuzBostongo BIO 2007-n parte hartu zuten hamalau euskal enpresa bioteknologikoek aprobetxatu zuten sektore horretako munduko biltzar garrantzitsuena kontratu komertzialak eta lankidetza-hitzarmenak sinatzeko, euren produktuak aurkezteko, eta etorkizuneko negozioei begira, oinarriak finkatu ahal izateko kontaktuak egiteko. Horrela, euskal bioeskualdeak sendotu egin du biozientzien arloan duen gero eta pisu handiagoa, eta nazioartean duen dimentsioa berretsi du.

Euskal ordezkaritzak, bioBASK agentzia buru, hamar

bat herrialdetako —bai europarrak, eta baita amerika-

rrak ere— enpresa eta erakundeetako ordezkariekin

aldebiko harremanak finkatu zituen. Kasu batzuetan,

lehendik finkatutako loturak indartu egin dira hainbat

bioeskualderekin. Bioeskualde horiek egiaztatu ahal

izan dute Euskadin, 2002 an bioBASK 2010 estrategia

martxan jarri zenetik, biozientziek izan duten ebo-

luzio azkarra. Gainera, kontaktu horiek kanporako

misio komertzialak antolatzeko oinarriak finkatzeko

balio izan dute.

Page 73: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

73Entorno CIC

Euskadi en breve - Euskadi hitz bitan

Congreso TNT2007Del 3 al 7 de septiembre se celebró en el Kursaal de San Sebastián la 8ª edi-

ción de las serie de congresos “Trends in Nanotechnology - TNT”. TNT es

ya una cita consolidada entre la comunidad científica y tecnológica inter-

nacional que investiga y trabaja en la nanociencia y en la nanotecnología.

En esta 8ª edición se reunieron más de

400 congresistas provenientes de todo

el mundo. La serie TNT la organiza la

Fundación Phantoms, y han sido coor-

ganizadores del Congreso de este año

2007 el CIC nanoGUNE, el Donostia In-

ternational Physics Center - DIPC y el

Centro Mixto CSIC-UPV/EHU. Al acto

inaugural, presidido por Pedro Miguel

Etxenike, acudieron entre otros, la Con-

sejera de Industria, Comercio y Turismo

del Gobierno Vasco, Ana Aguirre y el al-

calde de Donostia-San Sebastián, Odón

Elorza. A su vez, la charla inaugural fue

impartida por Jean Marie Lehn, premio

Nobel de química, que abrió el Congreso

disertando sobre la auto-organización de dispositivos supramoleculares funcio-

nales. Otros ponentes relevantes fueron Sir John Pendry, del Imperial College

de Londres, que presentó sus trabajos sobre invisibilidad y lentes perfectas; Uzi

Landman, del Georgia Technology Institute (Estados Unidos), que ofreció una

extensa charla sobre diferentes fenómenos y sistemas en la nanoescala como

nanocatálisis, nanohilos, o daño en el DNA; y Sumio Iijima, de la Universidad de

Meijo (Japón), que dio un gran repaso a la ciencia y tecnología de los nanoma-

teriales de carbono.

Aprovechando la oportunidad de tener este Congreso en San Sebastián, el CIC

nanoGUNE ha llevado a cabo dos iniciativas para potenciar la visibilidad de los

agentes científicos, tecnológicos y de industria del País Vasco activos en nano-

ciencia y nanotecnología. En particular, el CIC nanoGUNE agrupó 10 entidades

y grupos de investigación en un espacio expositivo permanente y organizó la

sesión “Nanociencia en el País Vasco” con nueve investigadores que pudieron

exponer oralmente sus trabajos de investigación.

TNT2007 kongresuaIrailaren 3tik 7ra “Trends in Nanotechnology-TNT” kongresuaren

zortzigarren edizioa egin zen Donostiako Kursaalen. TNT ekitaldi

entzutetsua da dagoeneko, nanozientzian eta nanoteknologian lan

egiten duen nazioarteko komunitate zientifiko eta teknologikoan.

Zortzigarren edizio honetan, mundu

guztitik etorritako 400 pertsona baino

gehiago bildu ziren. TNT kongresuak

Phantoms Fundazioak antolatzen ditu,

eta, aurten, CIC nanoGUNE-k, Donos-

tia International Physics Center-ek

(DIPC) eta CSIC-UPV/EHU zentro

mistoak ere hartu dute parte anto-

lakuntzan. Irekitze-ekitaldia Pedro Mi-

guel Etxenikek zuzendu zuen, eta han

izan ziren Industria Merkataritza eta

Turismo Saileko buru Ana Agirre eta

Donostiako alkate Odon Elorza ere.

Bestalde, irekitze-hitzaldia kimikako

Nobel saridun Jean Marie Lehn-ek

eman zuen. Gailu supramolekular fun-

tzionalen autoantolakuntzari buruz hitz eginez eman zion hasiera kongresuari.

Beste hainbat parte-hartzaile entzutetsu ere izan zen kongresuan: Londresko

Imperial College-ko Sir John Pendry-k ikusezintasunari eta lente perfektuei

buruzko bere lanak aurkeztu zituen; Uzi Landman-ek —Georgia Technology

Institute (AEB)— nanoeskalako hainbat fenomeno eta sistemari buruz hitz

egin zuen (esaterako, nanokatalisia, nanohariak eta DNAko kalteak) ; eta Su-

mio Iijima-k —Meijo-ko Unibertsitatea (Japonia)— karbonozko nanomateria-

len zientzia eta teknologia errepasatu zituen.

Kongresua Donostian izateak ematen zuen aukera aprobetxatzeko, CIC na-

noGUNE-k bi ekimen antolatu zituen, nanozientzian eta nanoteknologian lan

egiten duten Euskal Herriko zientzia-, teknologia- eta industria-agenteen ikus-

gaitasuna indartzeko. Zehazki, CIC nanoGUNE-k 10 erakunde eta ikerketa-tal-

de bildu zituen erakustoki iraunkor batean, eta “Nanociencia en el País Vasco”

saioa antolatu zuen, non bederatzi ikertzailek euren ikerketa-lanak hitzez aur-

kezteko aukera izan baitzuten.

Page 74: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

74 bioBASK

Premio para un estudio de Pharmakine y la UPV/EHU La Fundación Dr. Antonio Esteve concedió el pasado 11 de julio, tras el fallo de un jurado científico internacional, el X Premio bianual de investigación a un trabajo sobre nuevas moléculas anti-metastáticas, realizado principalmente por investigadores de la empresa biotecnológica Pharmakine y de la UPV/EHU.

En dicho trabajo, publicado en la prestigiosa revista ale-

mana Angewandte Chemie en el año 2005, se demuestra

cómo pequeñas moléculas sintetizadas en el laboratorio,

inhiben integrinas que se expresan en la superficie de las

células cancerosas, impidiendo así su adhesión a las célu-

las endoteliales que tapizan los vasos sanguíneos. Debido

a este fenómeno, la célula cancerosa no se queda retenida

en el torrente circulatorio y se previene la aparición de un

tumor secundario o metástasis.

Estos resultados se obtuvieron en un modelo preclíni-

co de melanoma experimental y en la actualidad, Phar-

makine continúa con el desarrollo de estas moléculas,

evaluando su efecto en otros tipos de tumores, con el

fin de conseguir un futuro fármaco contra el cáncer y la

metástasis.

Saria Pharmakine eta UPV/EHU-ko ikerketa batiUztailaren 11ean Dr. Antonio Esteve Fundazioak, nazioarteko epaimahai zientifiko baten erabakiz, bi urtez behin ematen duen sariaren X. edizioa eman zion Pharmakine bioteknologia-enpresako eta UPV/EHU-ko ikertzaileek egindako molekula anti-metastatiko berriei buruzko lan bati.

Lan horrek —Angewandte Chemie aldizkari alemaniar entzutetsuan 2005ean ar-

gitaratua— frogatzen du laborategian sintetiza-

tutako molekula txiki batzuek minbizi-zelulen

gainazalean agertzen diren integrinak inhibi-

tzen dituztela, eta horrela, zelula horiek odol-

hodiak estaltzen dituzten endotelio-zeluletan

itsastea eragozten dutela. Horri esker, minbizi-

zelula ez da zirkulazio-sisteman harrapaturik

gelditzen eta bigarren mailako tumoreak edo

metastasia saihesten dira.

Emaitza horiek melanomaren eredu aurrekli-

niko esperimental batean lortu zituzten, eta

egun, Pharmakine-k molekula horiek garatzen

jarraitzen du, bestelako tumoreetan duten era-

gina aztertuz, minbiziaren eta metastasiaren

aurkako farmako bat lortu ahal izateko.

Euskadi en breve - Euskadi hitz bitan

Reunión del Foro de Marcas Renombradas en IkusiLa sede de Ikusi en San Sebastián acogió el pasado 5 de julio una nueva sesión de los debates organizados por el Foro de Marcas Renombradas y el periódico Expansión en torno a las marcas y a los sectores embajadores y a su impacto en la imagen país. El tema de debate en esta sesión giró alrededor de las marcas embajadoras de tecnología. Ikusi es miembro del Foro de Marcas Renombradas, integrado por un selecto grupo de cerca de 75 compañías, desde 2006.

A lo largo de varias horas, directivos de empresas e instituciones como CAF,

Garrigues, Iberdrola, ICEX, Indra, Ingelectric Team, Irizar, SPRI, además de Iku-

si, reflexionaron sobre diversas cuestiones: la competitividad internacional en

el sector de la tecnologías; el papel de las marcas

líderes como locomotoras sectoriales y creadoras

de imagen de país; el posicionamiento de imagen

que debería resaltarse en relación con la imagen

exterior de España en el sector tecnológico; cuáles

son y cómo se deben abordar los mercados prio-

ritarios del sector de la tecnología, y cuáles son

las barreras y dificultades de acceso para nuestras

marcas; y, por último, qué medidas de apoyo debe-

rían adoptar las Administraciones Públicas para

favorecer la internacionalización de las marcas en

este sector.

Marka Entzutetsuen Foroaren bilkura Ikusi-n Marka eta sektore enbaxadoreen eta haiek herrialdearen irudian duten eraginaren inguruko eztabaida-saio berri bat egin zuten —Marka Entzutetsuen Foroak eta Expansión egunkariak antolatuta— uztailaren 5ean Ikusi-ren Donostiako egoitzan. Saio honetako eztabaida teknologiaren marka enbaxadoreen ingurukoa izan zen. 75 konpainiako talde bikainak osatzen duen Marka Entzutetsuen Foroko partaide da Ikusi, 2006. urteaz geroztik. Hainbat orduz Ikusi-koez gain, beste hainbat enpresa eta erakundeetako —es-

aterako, CAF, Garrigues, Iberdrola, ICEX, Indra, Ingelectric Team, Irizar eta

SPRI— zuzendariak gai hauen inguruan aritu ziren

eztabaidan: nazioarteko lehiakortasuna teknologien

sektorean; marka liderren funtzioa motor sektorial

eta herrialdearen irudi-sortzaile gisa; sektore tekno-

logikoan Espainiak kanpoan duen irudiari dagokio-

nez nabarmendu beharreko irudi-posizionamendua;

teknologiaren sektorean lehentasuna duten merka-

tuak zein diren eta nola heldu behar zaien, eta gure

marken sarbiderako oztopoak eta zailtasunak zein

diren; eta, azkenik, administrazio publikoek zer neu-

rri hartu beharko lituzketen sektore honetako mar-

ken nazioartekotzea bultzatzeko.

Page 75: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

75CICNetwork 75bioBASK

Euskadi en breve - Euskadi hitz bitan

Un equipo de CIC bioGUNE desvela nuevos datos sobre la proteína p53Un equipo de investigadores de CIC BioGUNE ha desvelado nuevos datos sobre la estructura de la proteína p53, el denominado ‘guardián del genoma’. Las mutaciones de esta proteína están presentes en más de la mitad de los cánceres. El equipo ha estado liderado por Mikel Valle, que trabaja en este proyecto desde hace más de dos años.

La investigación se inició en el Centro Nacional de

Biotecnología del Centro Superior de Investigaciones

Científicas (CSIC), en Madrid, donde Mikel Valle tra-

bajaba hasta hace un año, cuando decidió incorpo-

rarse al equipo de investigadores del científico José

María Mato, en el Parque Tecnológico de Derio. En el

descubrimiento de nuevos datos de la estructura de

la proteína p53 han participado también José María

Carazo y Roberto Melero, ambos del CSIC. Las con-

clusiones de la investigación se publicaron en la edi-

ción digital de la revista Proceedings of the National

Academy of Sciences (PNAS).

CIC bioGUNEko talde batek p53 proteinari buruzko datu berriak eman dituCIC bioGUNEko talde batek ‘genomaren zaintzailea’ deritzon p53 proteinaren egiturari buruzko datu berriak eman ditu. Proteina horren mutazioak agertu ohi dira minbizien erdietan. Taldearen buru Mikel Valle izan da. Bi urte daramatza Vallek proiektu horretan lanean.

Ikerketa Zientifikoen Kontseilu Nagusiko

(CSIC) Bioteknologia Zentro Naziona-

lean hasi zen ikerketa. Han egiten zuen

lan Mikel Vallek, duela urtebete José Ma-

ría Mato-ren ikertzaile-taldera (Derioko

Teknologia Parkea) sartzea erabaki zuen

arte. CSICeko José María Carazok eta

Roberto Melerok ere parte hartu dute p53

proteinaren egiturari buruzko datu be-

rrien aurkikuntzan. Ikerketaren emaitzak

Proceedings of the National Academy of

Sciences (PNAS) aldizkariaren edizio digi-

talean argitaratu zituzten.

Investigadores de Bial Arístegui diseñan una nueva vacuna antialérgicaLa revista científica de más prestigio internacional en el campo de la alergia, la americana Journal of Allergy and Clinical Immunology ha publicado un artículo en el que investigadores de Bial Arístegui describen el diseño molecular y características de una proteína recombinante híbrida e hipoalergénica, con un prometedor potencial para constituir el principio activo de un nuevo tipo de vacunas para tratar la alergia al polen de Parietaria judaica, una planta herbácea que origina una de las polinosis más frecuentes en la Península Ibérica.

Hasta la fecha, todas las vacunas que se

comercializan para combatir la alergia se

basan en extractos proteicos naturales,

que se obtienen a partir de las diferentes

fuentes biológicas que causan la patología

a los pacientes (pólenes, ácaros, hongos,

epitelios animales, etc.). Las principales

compañías internacionales de inmuno-

terapia antialérgica están desarrollando

nuevas vacunas basadas en alérgenos

recombinantes, que se encuentran aún en

diversas fases preclínicas y clínicas.

Bial Arísteguiko ikertzaileek alergiaren aurkako txerto berri bat diseinatu duteAlergiaren alorreko munduko aldizkari ospetsuenak, Journal of Allergy and Clinical Immunology amerikarrak, Bial Arísteguiko ikertzaileen artikulu bat argitaratu du. Artikulu horretan, proteina errekonbinante hibrido baten ezaugarriak eta diseinu molekularra deskribatu dituzte. Proteina horrek aukera handiak ditu Parietaria judaica belarraren polenak eragiten duen alergia tratatzeko txerto-mota berri baten osagai aktiboa izateko. Hain zuzen ere, landare horrek eragiten du iberiar penintsulan arruntenetakoa den polinosietako bat.

Alergiei aurre egiteko merkaturatzen

diren txerto guztiak alergiaren eragi-

le biologikoetatik (polena, akaroak,

onddoak, animalia-epitelioak, eta

abar) ateratako estraktuetan oinarrit-

zen dira. Aitzitik, alergiaren aurkako

immunoterapien nazioarteko konpai-

nia nagusiak alergeno errekonbinan-

teetan oinarritutako txerto berriak

garatzen ari dira. Oraindik ere fase

aurrekliniko eta klinikoetan daude

txerto horiek. Juan Andrés Asturias, investigador líder del proyecto

Page 76: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

76 Entorno CIC

Patenta, nueva agencia de propiedad industrialHa nacido Patenta, una agencia vasca dirigida especialmente al sector biotecnológico, que ofrece servicios para la protección de la propiedad industrial. Patenta tiene por objeto promover la innovación y promocionar la propiedad industrial como herramienta clave para la mejora de los resultados de todas las entidades relacionadas con el conocimiento.

Este proyecto es fruto de la estrecha colaboración de CIC bioGUNE y CIC biomaGU-

NE, algunos de cuyos investigadores estudiarán la viabilidad y potencialidad de las

patentes en el ámbito de la biología molecular, la genética y la nanotecno-

logía, entre otros. Con sede en el Parque Tecnológico de Miramón, en San

Sebastián, Patenta ofrece un servicio integral de asesoramiento para em-

presas, universidades, hospitales, particulares... en todo lo referente a pa-

tentes, marcas, modelos industriales, dominios y protección de datos.

Patenta, jabetza industrialeko agentzia berriaJabetza industriala babesteko zerbitzuak eskaintzeko sortua da, duela gutxi, Patenta, bereziki bioteknologiaren sektorean jardungo den euskal agentzia. Berrikuntza sustatzea eta jakintzarekin loturiko erakunde guztien emaitzak hobetzeko jabetza industrialaren garrantzia hedatzea ditu helburu Patentak.

CIC bioGUNE eta CIC biomaGUNEren arteko elkarlanari esker sortu da proiek-

tua; izan ere, erakunde horietako ikertzaile batzuek patenteen potentzialtasuna

aztertuko dute biologia molekularraren, genetikaren eta nanotek-

nologiaren arloan, besteak beste. Donostiako Miramon Teknolo-

gia Parkean du egoitza Patentak, eta zerbitzu osoa eskaintzen die

enpresa, unibertsitate, ospitale eta herritar partikularrei patente,

marka, eredu industrial, domeinu eta datu-babesari dagokienez.

Nace Noray Biosciences GroupLa empresa vasca Noray Bioinformatics ha anunciado el nacimiento de Noray Biosciences Group (Noray BG), un nuevo grupo empresarial del ámbito de las biociencias que pretende ocupar un espacio relevante en el sector biotecnológico español.

Noray BG ha reforzado su capital con la entrada de fondos de pensiones gestio-

nados a través de la sociedad gestora ORZA, que ha adquirido el 33% del Grupo,

con una inversión de 1,8 millones de euros. El resto del capital sigue en manos

de los socios fundadores, quienes mantienen el control de la empresa, aplicando

un modelo de gestión de la innovación basado en la eficiencia y en la búsqueda

de soluciones a necesidades del mercado biotecnológico.

Noray Biosciences Group sortu daNoray Bioinformatics euskal enpresak Noray Bioscience Groupen (Noray BG) sorrera iragarri du. Noray BG biozientzien alorreko enpresa-talde bat da, Espainiako bioteknologiaren arloan leku nabarmena hartzeko asmoz dabilena.

Horretarako, Noray BGk sendotu egin du kapitala, ORZA sozietate kudeatzai-

lek kudeatutako pentsio-diruen sarrerarekin. Taldearen % 33 hartu du sozietate

horrek, 1,8 milioi euroko inbertsioarekin. Kapitalaren gainerakoa sozio funda-

tzaileen esku dago. Horiek mantentzen dute enpresaren kontrola, eraginkorta-

sunean eta bioteknologiaren merkatuko beharren eta soluzioen bilaketan oina-

rritutako berrikuntzaren kudeaketa-eredua aplikatuz.

Artículo sobre plasmones en NatureInvestigadores del Donostia International Physics Center (DIPC), nanoGUNE, la UPV/EHU y el Centro Mixto CSIC-UPV/EHU han publicado un artículo en Nature (Nature 448, pg. 57-59, 5 de julio de 2007), en el que se presenta la confirmación experimental de la existencia de plasmones acústicos en superficies metálicas.

Los plasmones acústicos son estados de baja energía corres-

pondientes al movimiento colectivo oscilatorio de electrones

en superficies metálicas. Los investigadores del País Vasco

predijeron la existencia de estos plasmones hace seis años,

y han aportado una precisa descripción teórica de este fe-

nómeno. Los plasmones acústicos pueden tener importantes

aplicaciones en nanoóptica y microscopía en general.

Plasmoiei buruzko artikulua Nature-nDonostia International Physics Center (DIPC), nanoGUNE, UPV/EHU eta CSIC-UPV/EHU zentro mistoko ikertzaileek Nature aldizkarian artikulu bat argitaratu dute (Nature 448, 57-59 or., 2007ko uztailaren 5ª). Artikulu horretan, gainazal metalikoetan plasmoi akustikoak existitzen direla frogatzen da esperimentalki.

Gainazal metalikoetan elektroi-multzoaren mugimen-

du oszilatzaileen ondorioz sortutako energia txikiko

egoerak dira plasmoi akustikoak. Euskal ikertzaileek

duela sei urte aurreikusi zituzten plasmoi horiek eta,

orain, fenomeno horren deskribapen teoriko zehatza

egin dute. Plasmoi akustikoek aplikazio garrantzitsuak

izan ditzakete nanooptikan eta mikroskopian.

Euskadi en breve - Euskadi hitz bitan

Page 77: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

Greenland nunca volvió a ser verdeSe sabía que Groenlandia fue verde, pero muestras de DNA sugieren que desde hace 450.000 años ha permanecido bajo el hielo.

Un grupo de investigadores ha perforado dos kilómetros de hielo y extraído

de su interior DNA con una antigüedad de entre 800.000 y 450.000 años, uno

de los más antiguos que se han encontrado. Las muestras de material genético

pertenecen a plantas e insectos, e indican que hubo un ecosistema parecido a

los bosques actuales del este de Canadá.

Sin embargo, no se ha encontrado DNA más reciente, lo que podría significar

que, desde entonces, dichas tierras permanecieron bajo el hielo, una hipótesis

enfrentada a las teorías climáticas más aceptadas, según las cuales en la época

interglaciar (hace 130.000-116.000 años) dicho hielo se derritió, provocando una

subida del nivel del mar de 5-6 metros.

Cómo actúa el efecto placeboEsperar una recompensa ayuda a que la recompensa se haga realidad.

Un grupo de investigadores, liderado por Jon-Kar Zubieta, de la Universidad de

Michigan, ha observado que las personas que experimentan un gran placer ante

la expectativa de recibir una recompensa son mkg susceptibles al efecto pla-

cebo. El estudio relaciona el efecto placebo con el “centro de recompensa” del

cerebro, la región que predice la expectativa de una recompensa. Cuando surge

dicha expectativa, la citada región segrega dopamina, la molécula que produce

la sensación de placer. El equipo de Zubieta ha observado que las personas que

segregan más dopamina son las que experimentan un mayor efecto placebo.

Capecchi, Smithies y Evans, premios Nobel de Fisiología o Medicina 2007Son pioneros en la manipulación genética de ratones

Los investigadores estadounidenses Mario Capecchi y Oliver Smithies y el britá-

nico Sir Martin Evans han sido galardonados con el premio Nobel de Fisiología o

Medicina 2007 por sus trabajos sobre células madre y manipulación genética en

ratones. Sus descubrimientos han permitido, según el jurado, “poner en marcha

una tecnología de una importancia inmensa para manipular genes en modelos

animales”. Los tres premiados trabajan en diferentes laboratorios de los Estados

Unidos y del Reino Unido. Aunque han desarrollado sus carreras por separado,

han mantenido contactos puntuales desde mediados de los años 80. En 2001 les

concedieron el premio Lasker.

Act

ual

idad

C

ient

ífica

CICNetwork 77

Page 78: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

Euskadi en breve - Euskadi hitz bitan

Page 79: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

79CICNetwork

Actualidad Científica - Breves

Premio Príncipe de Asturias para Science y NatureLas revista británica Nature y la estadounidense Science fueron galardonadas con el Premio Príncipe de Asturias de Comunicación y Humanidades 2007.

Según el jurado, “ambos semanarios constituyen el canal de comunicación más

solvente que tiene hoy la comunidad científica internacional para dar a conocer,

tras el filtro de una irreprochable y minuciosa selección, los más importantes

descubrimientos e investigaciones de muy diversas ciencias y difundir al mismo

tiempo, conjugando rigor y claridad expositiva, las teorías y conocimientos más

elevados”. Ambas revistas son, según

el jurado, “fuentes indispensables de

información para el periodismo espe-

cializado de todos los países”. Por últi-

mo, el jurado destaca que “durante más

de un siglo han impulsado y difundido

las grandes conquistas científicas de la

Humanidad, acercando de este modo la

ciencia a la vida”.

Premio Nobel de Física por el descubrimiento de la magnetorresistencia giganteUn efecto físico que ha hecho posible la miniaturización de los discos duros El premio Nobel de Física 2007 ha

sido para el francés Albert Fert y el

alemán Peter Grünberg, que en 1988

descubrieron, independientemente, la

magnetorresistencia gigante o GMR.

En un sistema GMR, cambios magné-

ticos muy débiles pueden dar lugar a

grandes diferencias en la resistencia

eléctrica, por lo que es un sistema

ideal para los lectores de los discos

duros, que convierten la información

magnética de los discos en señales

eléctricas. Fue la primera gran aplica-

ción de la nanotecnología. Gracias al

GMR se han podido desarrollar lecto-

res cada vez más sensibles, y ello ha

posibilitado la miniaturización de los

discos duros.

Chip de microfluidosUn sistema de válvulas y cámaras minúsculas puede servir para identificar y estudiar microorganismos desconocidos.

La gran mayoría de microorganismos no se pueden cultivar en laboratorio, por-

que viven en unos ecosistemas únicos muy difíciles de reproducir. Por eso, se

conoce muy poco acerca de dichos microorganismos. Sin embargo, el chip de

microfluidos diseñado por investigadores de la Howard Hughes Medical Insti-

tute permitirá estudiar muchos microorga-

nismos sin necesidad de cultivarlos.

El chip de microfluidos es un sistema de

válvulas y cámaras minúsculas que permite

aislar a los microorganismos en volúmenes

de nanolitros. Al aislarlos en un volumen

tan pequeño, la concentración de material

genético es alta, por lo que es posible am-

pliar el genoma de una única célula.

Síntesis de proteínas sin aminoácidosEs posible sintetizar polipéptidos a partir de iminas y CO gracias a un catalizador de cobalto.

Normalmente, los polipéptidos se sintetizan a partir de sus componentes: los

aminoácidos. Sin embargo, investigadores chinos han descrito un nuevo mé-

todo para la síntesis de proteínas a partir de iminas y CO. La gran ventaja de

este método es que la materia prima que utiliza es muy barata, por lo que es

ideal para la producción industrial. El proceso es similar al que se utiliza para

la producción de plásticos como el polietileno. Hasta ahora, este proceso no

era posible porque no había un catalizador adecuado. Pero los investigadores

chinos han descubierto uno: un complejo de cobalto.

Anticáncer y antienvejecimientoUna copia extra de un gen anticáncer también combate el envejecimiento en ratones.

La proteína p53, una de las más estudiadas del mundo, tiene la cualidad de man-

tener a raya a los tumores. Investigadores del Centro Nacional de Investigacio-

nes Oncológicas criaron ratones con una copia extra del gen p53 y los compara-

ron con ratones normales.

Los ratones que tenían una copia de más desarrollaron menos tumores que los

normales, y, además, vivieron durante más tiempo. Entre los ratones que no

desarrollaron cáncer, los transgénicos vivieron un 25% más, de media. Los in-

vestigadores descubrieron que la proteína p53 ayuda a luchar contra el enveje-

cimiento, aumentando la producción de antioxidantes.

Page 80: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

80 CICNetwork

puede ponerse en contacto con nuestro departamento de publicidad:e-mail: [email protected]éfono: +34 943 32 69 66

Si desea anunciarse en

Page 81: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

81CICNetwork

Actualidad Científica - Breves

Una pila de papelCrean una pila fina, flexible y barata, que se asemeja a un pequeño trozo de papel.

La novedosa pila consiste en una fina capa de celulosa empapada en una solu-

ción de litio hexafluorofosfato y recubierta, por un lado, de nanotubos de carbo-

no y, por el otro, de una película de litio.

Cada gramo de papel produce unos 10 miliampe-

rios, con una tensión de dos voltios. Acumulan-

do varias hojas, se aumenta la potencia. Funcio-

na a temperaturas de entre -70ºC y 150ºC; es tan

flexible como el papel, y al estar compuesta en

un 90% de celulosa, su fabricación es barata.

Gerhard Ertl, premio Nobel de Química 2007Es el padre de la química de superficies moderna

El investigador alemán Gerhar Ertl ha sido galardonado con el premio Nobel de

Química 2007, por sus estudios sobre procesos químicos en superficies sólidas.

Erlt desarrolló una metodología para la química de

superficies demostrando cómo se pueden estudiar

las reacciones de superficies por medio de diferen-

tes procedimientos experimentales. Gracias a su tra-

bajo podemos entender porqué se destruye la capa

de ozono o cómo funcionan las pilas de combustible

y los catalizadores de los coches. Además, las reac-

ciones químicas en superficies catalíticas son muy

importantes en operaciones industriales, como la

producción de fertilizantes artificiales.

La ecuación de la banda de MöbiusDos matemáticos han resuelto un problema matemático de 75 años.

La banda de Möbius se obtiene retorciendo un

rectángulo largo o una cinta y uniendo sus ex-

tremos. Se trata de una geometría muy cono-

cida para los matemáticos, pero, hasta ahora,

no han sido capaces de predecir la forma tridi-

mensional que tomaría dicha banda.

Dos matemáticos de la Universidad UCL de

Londres lo han conseguido, partiendo de unas

ecuaciones de hace 20 años. La forma tridi-

mensional que tomará una banda de Möbius

está en función de la largura y anchura del rec-

tángulo inicial, según el citado estudio.

Microbestias de cargaInvestigadores estadounidenses utilizan bacterias para mover microplacas de epoxi a través de un líquido.

La bacteria flagelada Serratia marcescens es conocida por su característica de

moverse rápidamente, excepto cuando es expuesta a luz ultravioleta. Gracias al

citado comportamiento frente a la luz (fototaxis),

encendiendo o apagando una luz ultravioleta es

posible controlar el movimiento de las bacterias.

Los investigadores han utilizado el movimiento

de las bacterias para mover placas triangulares de

epoxi de 50 μm de anchura y 10 μm de grosor. Los

científicos sugieren que dichas bacterias podrían

ser utilizadas como “bestias de carga” de micro- o

nanomáquinas del futuro.

Miniaturización de la RMNInvestigadores franceses han desarrollado una técnica de resonancia magnética nuclear (RMN) que permite analizar muestras sólidas de volúmenes de nanolitros.

En la RMN, las moléculas se someten a un campo magnético y se les aplican ra-

diofrecuencias, de modo que, debido a las propiedades magnéticas que poseen

los núcleos atómicos, se puede obtener información estructural o química de

una muestra. Sin embargo, en muestras muy pequeñas, las señales obtenidas

son muy difíciles de interpretar. Los investigadores franceses han resuelto este

problema empleando una bobina estática y otra que rota a 70 kHz. Así, han con-

seguido que la técnica pueda ser empleada en volúmenes muy pequeños. Según

los investigadores, esta técnica podría servir para estudiar los procesos quími-

cos que tienen lugar en el interior de una célula.

Vida bacteriana en los hielosResucitan bacterias de ocho millones de años halladas en la Antártida.

Biólogos estadounidenses han analizado muestras de hielo glacial tomadas

en Upper Beacon Valley y, usando varias técnicas de datación, han datado las

muestras de hielo entre 100.000 —

las más recientes— y ocho millones

de años —las más antiguas—. Se

trata de las muestras más antiguas

estudiadas hasta ahora. Al derretir

el hielo, los científicos encontraron

bacterias vivas incluso en el hie-

lo de ocho millones de años. Tras

aportar nutrientes, lograron que di-

chas bacterias se reprodujeran. Las

bacterias más antiguas que se ha-

bían recuperado hasta ahora eran

de 300.000 años.

Page 82: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

82 CICNetwork

Científicos ilustres

Cie

ntífi

cos

ilust

res

El bacteriófago ø29 como sistema modelo en Biología MolecularMargarita Salas, Presidenta de la Fundación Severo Ochoa

Margarita Salas Falgueras. Profesora en el Centro de Biología Molecu-

lar Severo Ochoa (CSIC-UAM) y jefe de la línea “Replicación y Transcripción

del DNA del bacteriófago ø29”. Ha recibido, entre otros premios, el nombra-

miento Investigadora Europea (1999) por la UNESCO. Miembro de la Real

Academia de Ciencias Exactas, Físicas y Naturales, de la Real Academia

Española de la Lengua y de la Academia Nacional de Ciencias de EEUU.

Después de repasar la literatura que existía sobre distintos fagos, Eladio encontró un trabajo publicado por el laboratorio de Dwight Anderson en el que describían la morfología de la partícula y el tamaño del DNA del fago ø29 de Bacillus subtilis. Este fago tenía las características que está-

bamos buscando: tamaño pequeño, morfología compleja (ver figura 1) y muy poco conocido. Puesto que en aquella época no había financiación estatal para hacer investigación en España, presentamos un proyecto a la Jane Coffin Childs Memorial Fund for Medical Research utilizando el fago ø29 como modelo para estudiar su morfogénesis y los mecanismos de transferencia de la información genética. Gracias a esta ayuda, pudi-mos empezar nuestro trabajo en Madrid en el Centro de Investigaciones Biológicas del Consejo Superior de Investigaciones Científicas. El Direc-tor del Instituto Marañón del Centro, José Luis Rodríguez Candela, nos ofreció un laboratorio espacioso para empezar nuestra investigación. Recuerdo la emoción que nos produjo nuestro primer experimento que

Después de tres años en el laboratorio de Severo Ochoa, Eladio Viñuela y yo decidimos regresar a España en 1967 para tratar de desarrollar la Biología Molecular que habíamos aprendido con Ochoa. Una decisión importante era elegir el proyecto de trabajo. El verano anterior habíamos seguido un curso sobre virus bacterianos en los laboratorios de Cold Spring Harbor. Precisamente, el trabajo con los virus bacterianos había dado lugar al nacimiento de la Genética Molecular en la década de los 50. Eladio y yo elegimos un fago como sistema modelo para estudiarlo a nivel molecular. Pusimos dos condiciones al fago a elegir: una, que fuese pequeño pero complejo desde el punto de vista estructural y, otra, que fuese poco conocido pues sabíamos que el comienzo en España llevaría tiempo y no queríamos empezar con un tema muy competitivo. La otra decisión que tomamos fue empezar a trabajar juntos, pues siempre sería más fácil nuestro comienzo si uníamos y complementábamos nuestros esfuerzos.

Page 83: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

83CICNetwork

Científicos ilustres

consistió en crecer un cultivo de la bacteria Bacillus amyloliquefaciens, infectarlo con el fago ø29 y ver que en 40-50 minutos a 37°C la bacteria lisaba. Esto suponía que ya teníamos el sistema para iniciar nuestro tra-bajo.Pocos meses después de nuestra vuelta a España se convocaron las pri-meras becas de “Formación de Personal Investigador” por lo que pudi-mos seleccionar a nuestros primeros estudiantes de doctorado. El pri-mero fue Enrique Méndez quien caracterizó las proteínas estructurales de la partícula viral utilizando la técnica de electroforesis en geles de poliacrilamida en presencia de dodecil sulfato sódico que había desarro-llado Eladio en Nueva York. Después de Enrique, llegaron Jesús Ávila y Antonio Talavera. Jesús purificó la RNA polimerasa de B. subtilis, impli-cada en la transcripción del DNA de ø29, y demostró que estaba formada por varias subunidades equivalentes a β’, β, σ y α del enzima de Esche-richia coli. Tengo que confesar lo orgullosos que nos sentimos cuando nos aceptaron en la revista Nature el primer trabajo que describía las características de la RNA polimerasa de B. subtilis. Por su parte, Anto-nio Talavera aisló los primeros mutantes letales condicionales de ø29, en su caso mutantes sensibles a temperatura (ts). Posteriormente, Felipe Moreno aisló mutantes sensibles a supresor (sus) de ø29. En paralelo a la obtención de mutantes ts y sus de ø29 en nuestro laboratorio, el grupo de Anderson había aislado otra colección de mutantes ts y sus. Decidimos juntar las dos colecciones de mutantes y construimos un mapa genético lineal con un total de 17 genes que numeramos del 1 al 17 de acuerdo con su colocación en el mapa de izquierda a derecha. Por otra parte, Marta R. Inciarte y José M. Lázaro construyeron un mapa físico relativo al mapa genético utilizando la nucleasa de restricción EcoRI. Esta fue la primera vez que se utilizó en España un enzima de restricción. Mediante el uso de los mutantes sus disponibles, Ana Camacho, Fernan-do Jiménez, José L. Carrascosa y Javier de la Torre caracterizaron la ruta morfogenética para el ensamblaje de las proteínas y la encapsidación del DNA necesarios para la construcción de una partícula viral.Se suponía que el DNA de ø29 era lineal pero Juan Ortín lo aislaba en forma circular o formando concatémeros que se convertían en DNA li-neal de longitud unidad por tratamiento con enzimas proteolíticos. Esto significaba que la circularización y concatemerización del DNA estaba mediada por proteína. Este trabajo se publicó en Nature New Biology. Posteriormente, caracterizamos una proteína codificada por ø29 unida covalentemente a los extremos 5’ del DNA del fago que después demos-tramos que estaba implicada en la iniciación de la replicación del DNA de ø29. A esta proteína, producto del gen 3 viral, la llamamos proteína termi-nal (TP). La Figura 2 muestra una fotografía al microscopio electrónico, tomada por José M. Sogo, que muestra una molécula de DNA lineal de ø29 con la TP en los extremos.José M. Hermoso, José M. Sogo, Marta R. Inciarte y Javier Corral demos-traron la existencia de un control temporal en la transcripción del DNA de ø29, mapearon los promotores y demostraron que después de la in-fección con un mutante sus 4 la transcripción tardía no tenía lugar. Uno de los objetivos fue tratar de caracterizar la proteína producto del gen 4, lo cual era difícil ya que la proteína no parecía sintetizarse en cantidades altas y la infección con ø29 no inhibe la síntesis de proteínas de la bac-teria. Afortunadamente, en la década de los 70 pudimos disponer de las herramientas de la ingeniería genética por lo que fue posible clonar genes y sobreproducir proteínas.

Otro cambio importante tuvo lugar a finales de los 70. En 1977 nos tras-ladamos al Centro de Biología Molecular “Severo Ochoa”. El trabajo de Eladio en la parte científica y el de Javier Corral y Juan A. Manzanares en la técnica hicieron posible la existencia y calidad del Centro.A continuación describiré el trabajo que realizamos en el Centro de Biología Molecular “Severo Ochoa”, centrado principalmente en el estudio de los mecanismos de control de la transcripción del DNA de ø29 y en la replicación de su DNA que utiliza la proteína terminal como iniciadora (“primer”).

Control de la transcripción del DNA de ø29Al comienzo de la infección con ø29 sólo se expresan los genes impli-cados en la replicación del DNA y en la regulación de la transcripción (genes tempranos). Los genes que codifican a las proteínas estructurales del fago y a las proteínas implicadas en morfogénesis y en la lisis celu-lar se expresan posteriormente (genes tardíos). Localizamos los sitios de iniciación de la transcripción e identificamos la secuencia de los cua-tro promotores tempranos principales (A1, A2c, A2b y C2) y la del único promotor tardío (A3). Los promotores A2c y A2b son responsables de la expresión de los genes implicados en la replicación del DNA (6, 5, 3, 2, 1 y 56) y en el control de la transcripción (4 y 6). El promotor C2, localizado a la derecha del genoma, es el primero que se transcribe y dirige la expre-sión de los genes 17 y 16.7, ambos implicados en la inyección del DNA y en su replicación. Previo a la inyección, el fago se adsorbe específica-mente a la pared bacteriana a través de los apéndices del cuello, como demostró Nieves Villanueva. El promotor tardío A3, localizado próximo al promotor temprano A2b, es responsable de la expresión de los genes 7 a 16 que codifican a proteínas estructurales, morfogenéticas y de lisis.La caracterización del producto del gen 4 fue posible debido, por una parte, a la secuenciación del gen y, por otra, a su clonación en E. coli bajo el control del promotor PL del fago λ y sobreproducción de la proteína. La purificación de la p4 y la puesta a punto de un sistema de transcrip-ción in vitro permitió determinar que la proteína p4 es un activador del promotor tardío A3 y, a su vez, reprime al promotor temprano A2b, ya que excluye a la RNA polimerasa del mismo. El promotor A2c, localizado a la izquierda del A2b, también es reprimido por p4 mediante un mecanismo que implica la unión simultánea de p4 y RNA polimerasa, evitando el es-cape de la polimerasa del promotor. Posteriormente, demostramos que la expresión de los promotores A2b, A2c y A3 es regulada por la proteína p6, además de la p4.La estructura cristalina de p4 sola y en complejo con un DNA que in-cluye el sitio de unión del promotor A3, se determinó en colaboración con el grupo de Miquel Coll. La proteína p4 contiene un nuevo motivo de unión al DNA que consiste en una estructura en forma de garfio en cada extremo N-terminal de un homodímero. Los dos garfios entran en el surco mayor de la doble hélice estableciendo contactos específicos con una guanina. La curvatura del DNA permite que los dos garfios contac-ten los dos surcos mayores que se encuentran separados tres vueltas de hélice. Los resultados de mutagénesis dirigida indicaron que los únicos contactos específicos son entre la arginina 6 de la p4 y la G de la repeti-ción invertida del sitio de unión, siendo el resto de los contactos con el esqueleto fosfato del DNA. Recientemente, Ana Camacho demostró que, además, existe reconocimiento específico de secuencia de DNA a través de lectura indirecta de series de adeninas (“A-tracts”).

Page 84: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

Científicos ilustres

molde, daba lugar a la síntesis de TP-DNA de longitud unidad de un modo muy procesivo. Cuando se usó como molde DNA de M13 utili-zando un oligonucleótido como “primer” la DNA polimerasa de ø29 sin-tetizó procesivamente un DNA de más de 70 kb, indicando que es una polimerasa muy procesiva capaz de producir desplazamiento de banda sin necesidad de proteínas accesorias. Debido a estas propiedades y a la actividad correctora de pruebas, la DNA polimerasa de ø29 está sien-do utilizada comercialmente como herramienta para la amplificación isotérmica de DNA circular y de DNA genómico lineal.

Mecanismo de deslizamiento hacia atrás (“sliding-back”) para iniciar la replicación del DNA de ø29La replicación de fragmentos de DNA de ø29 llevó a Juan Méndez a des-cubrir que la iniciación no ocurre en el extremo 3’terminal (T) sino en la segunda base (T) desde el extremo 3’. Una vez formado el complejo de iniciación, dirigido por el segundo núcleotido, el complejo TP-dAMP se desliza hacia atrás para recuperar la T 3’ terminal. La iniciación in-terna también ocurre en otros fagos relacionados con ø29 como Nf y GA-1, así como los fagos Cp1 y PRD1 y los adenovirus.

Estudios de estructura-función de la DNA polimerasa y proteína terminal de ø29Cuando empezamos esta parte del trabajo no disponíamos de la es-tructura tridimensional de la DNA polimerasa de ø29. La comparación

Replicación del DNA de ø29 iniciada por la proteína terminalLa secuencia de los extremos del DNA de ø29 mostró la existencia de una repetición terminal invertida de seis nucleótidos (AAAGTA). La TP está unida a los extremos del DNA por un enlace fosfoester entre el grupo OH del residuo serina 232 y 5’AMP.El análisis por microscopía electrónica de los intermedios replicativos sintetizados en B. subtilis infectado con ø29, indicó que la replicación empieza en cualquiera de los dos extremos del DNA, de un modo no simultáneo, y transcurre hacia el otro extremo por desplazamiento de banda.Cuando Miguel A. Peñalva incubó extractos de B. subtilis infectado con ø29 con [α32P] dATP en presencia de TP-DNA de ø29 como molde, encontró una proteína marcada con la movilidad electroforética de la TP. Este producto era sensible a álcali indicando la formación de un complejo covalente TP-dAMP. Posteriormente, demostramos que los genes 2 y 3 virales son necesarios para la formación de dicho comple-jo. Se clonaron los genes 2 y 3 y las proteínas se sobreprodujeron y purificaron. Luis Blanco demostró que la proteína p2, además de catali-zar la reacción de iniciación (formación de complejo TP-dAMP), tiene actividad DNA polimerasa. Además, tiene actividad exonucleasa 3’-5’ sobre DNA de banda simple, con las propiedades que se esperan de un enzima implicada en corrección de pruebas.La TP y DNA polimerasa purificadas, en presencia de TP-DNA como

AL AIR LIQUIDE ESPAÑA, S.A.Gases Puros y Ultrapuros

Gamas Alphagaz y Mezclas a medida

Más de 100 años al servicio de la investigación

Delegación Norte / Parque Tecnológico - Parcela 224 / 48170 Zamudio - Bizkaia Tel.: 94 431 80 50 - Fax: 94 452 30 27

www.airliquide.es

Page 85: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

85CICNetwork

de la secuencia de aminoácidos de DNA polimerasas procarióticas y eucarióticas llevó a Luis Blanco y Antonio Bernad al hallazgo de una serie de motivos conservados. Propusimos que el sitio activo de la exo-nucleasa 3’-5’ en DNA polimerasas está formado por tres motivos de aminoácidos en el dominio N-terminal que contienen los cuatro grupos carboxilato que unen dos iones metálicos. El análisis de mutantes en cada uno de estos residuos indicó que las mutaciones producían una actividad exonucleasa cien veces menor. Miguel de Vega analizó mu-tantes en otros residuos que estaban implicados en la unión al DNA de banda simple y a la TP. Por otra parte, mutagénesis dirigida en motivos de aminoácidos conservados en el dominio C-terminal mostró que este dominio está implicado en la polimerización y en la iniciación con TP como “primer”, y se identificaron aminoácidos implicados en la unión a metal y catálisis, unión a DNA, a la TP y a los dNTPs. Fueron muchas las personas implicadas en este trabajo, en particular José Ma. Lázaro quien purificó todos los mutantes de la DNA polimerasa.Recientemente, se ha determinado la estructura cristalina de la DNA polimerasa de ø29 en colaboración con el grupo de Tom Steitz en la Universidad de Yale. Esta estructura explica su extraordinaria procesi-vidad y capacidad de desplazamiento de banda. Las DNA polimerasas que utilizan TP como “primer” tienen dos inserciones específicas, TPR1 y TPR2. La región TPR1 interacciona con la TP mientras que TPR2 for-ma una especie de abrazadera que podría conferir la alta procesividad de la polimerasa. Efectivamente, la deleción de la región TPR2 dio lugar a una drástica reducción en la procesividad de la polimerasa y en su capacidad de realizar desplazamiento de banda. También se ha determinado la estructura del heterodímero DNA polimerasa: proteína terminal. La estructura de la TP muestra un dominio (N-terminal) que no interacciona con la DNA polimerasa, otro (intermedio) que interac-ciona con la polimerasa y un tercer dominio (“priming”) que contiene el residuo de serina 232 que ocupa el mismo sitio de unión en la polime-rasa que ocupa el DNA dúplex durante la elongación.

Proteínas virales p6 y p5, esenciales para la replicación del DNA de ø29La proteína p6 de unión a DNA de banda doble (DBP) es una proteí-na tipo histona, esencial para la replicación del DNA de ø29 in vivo, muy abundante en B. subtilis infectado por ø29 (~700.000 moléculas/célula). La p6 se une como dímero al DNA de ø29, preferentemente a sus extremos, cada 24 nucleótidos de forma cooperativa formando un complejo nucleoprotéico. Manuel Serrano demostró que la unión de p6 a DNA circular produce superenrrollamiento positivo proponiendo un modelo en el cual una superhélice positiva de DNA se une alrededor de una estructura de p6. Por microscopía electrónica, Crisanto Gutiérrez demostró que el DNA está compactado unas 4 veces en el complejo con p6. La formación del complejo facilitaría la apertura de los extremos del DNA para iniciar la replicación. De hecho, la p6 estimula la forma-ción in vitro del complejo de iniciación TP-dAMP. La proteína p5 de unión a DNA de banda simple (SSB) es también muy abundante en células infectadas y es esencial para la elongación de la replicación in vivo.

Amplificación in vitro del DNA de ø29Usando las cuatro proteínas purificadas mencionadas, TP, DNA poli-merasa, p6 (DBP) y p5 (SSB) Luis Blanco pudo amplificar in vitro más de 1.000 veces cantidades pequeñas de TP-DNA (0.5 ng) en una hora a 30°C. La infectividad del DNA amplificado fue idéntica a la del DNA de ø29 obtenido de partículas de virus, lo que indica la fidelidad de la amplificación.

Proteínas de membrana implicadas en la replicación el DNA de ø29: proteínas p1 y p16.7La replicación del DNA de ø29 se reduce considerablemente en B. subti-lis infectado con un mutante sus en el gen 1. La proteína p1 se asocia con la membrana bacteriana a través de su extremo C-terminal. Además, la

Científicos ilustres

Figura 2Figura 1

Page 86: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO

86 CICNetwork

Científicos ilustres

Proteinas que forman el DNA del bacteriofagoø29. Fuente: Petr G. Leiman

Otras proteínas virales implicadas en la replicación del DNA de ø29: proteínas p17 y p56Cuando se infecta B. subtilis con un mutante sus en el gen 17 la sín-tesis del DNA viral se reduce. La p17 interacciona con la proteína p6 y estimula la unión de ésta a los extremos del DNA de ø29. El gen 56 codifica una proteína de 56 aminoácidos cuyo blanco celular es la uracil-DNA glicosilasa (UDG). Gemma Serrano-Heras y Alicia Bra-vo demostraron que la adición de p56 a extractos de B. subtilis inhibe la actividad UDG celular. La inhibición de la UDG celular por p56 es un mecanismo de defensa desarrollado por ø29 para evitar la acción del proceso de reparación por excisión de bases si se producen residuos de uracilo en los intermedios replicativos de banda simple en el proce-so de replicación del DNA de ø29.

Interacciones fago-bacteria en el desarrollo de ø29Se conocía que el fago ø29 no se desarrollaba eficientemente en B. subtilis capaz de esporular. Wilfried Meijer y Virginia Castilla-Llorente demostraron que el ciclo lítico de ø29 se suprime cuando la bacteria infectada ha iniciado el proceso de esporulación y el genoma del fago infectante se localiza en la espora y permanece “durmiente” hasta la germinación de éste. En este proceso están implicadas dos proteínas celulares. Por una parte, la proteína SpoOJ, implicada en la segrega-ción del cromosoma bacteriano, que a través de los sitios de unión que existen en el DNA de ø29, parece estar implicada en el atrapamiento del genoma de ø29 en la espora. Por otra parte, la proteína SpoOA, que regula la iniciación de la esporulación, se une a varios sitios de unión que existen en el genoma de ø29 y suprime el desarrollo de ø29 repri-miendo los promotores tempranos evitando la activación del promotor tardío. Además, SpoOA es también un inhibidor de la replicación, tanto del DNA de ø29 como del DNA de B. subtilis. Mediante su unión a los orígenes de replicación, SpoOA previene la iniciación de la replicación de ambos genomas.

Comentarios finalesEl trabajo realizado en mi laboratorio durante 40 años ha sido un tra-bajo de investigación básica que ha tratado de desvelar las bases mo-leculares del desarrollo de ø29. Pero esta investigación básica ha dado lugar a una aplicación biotecnológica importante: el uso de la DNA po-limerasa de ø29 para la amplificación del DNA, tanto de DNA circular como de DNA genómico, lineal. Este es un buen ejemplo de cómo ha-ciendo investigación básica se pueden obtener aplicaciones que no se preveían. Este año se cumple el 40 aniversario del comienzo en España de nuestro trabajo con ø29. Quiero resaltar el hecho de que el trabajo realizado en mi laboratorio es el resultado de la dedicación e ideas de las personas que han trabajado en el grupo durante estos 40 años apa-sionantes. Mi mayor gratitud a todos tanto a los que han sido citados como a los que, por falta de espacio, no he podido citar. Mi agrade-cimiento también a mis dos maestros, Alberto Sols y Severo Ochoa, quienes me enseñaron no sólo la Bioquímica y la Biología Molecular, respectivamente, sino también su rigor experimental, su entusiasmo y su dedicación a la investigación. Pero especialmente quiero expresar mi agradecimiento a Eladio Viñuela. Juntos iniciamos nuestra aventura de desarrollar la Biología Molecular en España y, si esta aventura ha tenido éxito, se lo debemos a Eladio.

p1 se autoasocia dando lugar a largas láminas bidimensionales e inte-racciona con la TP in vitro. Estos resultados sugieren que la p1 forma parte de una estructura viral asociada a la membrana que suministra un sitio de anclaje para la maquinaria de replicación del DNA de ø29.La replicación del DNA de ø29 está retrasada en B. subtilis infectado con un mutante sus 16.7. Wilfried Meijer demostró que p16.7 es una proteína integral de membrana, siendo requeridos los 22 aminoácidos N-terminales para ello. La proteína p16.7 a la que se le ha quitado el dominio transmembrana forma dímeros y multímeros en solución y se une a DNA de banda simple y doble sin especificidad de secuencia, así como a la TP. Daniel Muñoz-Espín demostró que los 70 aminoácidos C-terminales de p16.7 (p16.7C) constituyen la parte funcional de la pro-teína. En colaboración con los laboratorios de Juan Luis Asensio y Ar-mando Albert se ha determinado la estructura cristalina y en solución de p16.7C, así como la estructura cristalina de un complejo trimérico p16.7C- DNA de doble banda.

Page 87: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO
Page 88: Imagen molecular - 54.154.165.4654.154.165.46/wp-content/uploads/2015/02/CN2.pdf · otra parte, las aberraciones estructurales o funcionales de los tejidos ... Margarita Salas DISEÑO