el - cic network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del...

39
Artículos de Óscar Marín y Javier de Felipe Editorial de Carlos Matute ENTORNO CIC Evaluación y financiación de la ciencia Mesa de ideas con Nekane Balluerka, Enrique Castellón, Javier Echeverria y Félix Goñi. Modera: José M Mato Proyectos de investigación Juan Ignacio Cirac físico cuántico, entrevistado por José María Pitarke Cerebro El a examen Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco Noviembre 2013 nº14

Upload: trandieu

Post on 19-Sep-2018

219 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Artículos de Óscar Marín y Javier de Felipe Editorial de Carlos Matute

ENTO

RNO

CICEvaluación y financiación de la ciencia

Mesa de ideas con Nekane Balluerka, Enrique Castellón, Javier Echeverria y Félix Goñi. Modera: José M Mato

Proyectos de investigación

Juan Ignacio

Ciracfísico cuántico, entrevistado

por José María Pitarke

CerebroEla examen

Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco

Noviembre 2013 nº14

Page 2: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Carlos Matute escribe sobre Neurociencia global.

El director de CIC nanoGUNE, José María Pitarke, entrevista a Juan Ignacio Cirac, una de las grandes referencias internacionales de la física cuántica.

José Miguel Mulet escribe sobre la controversia de los transgénicos en el artículo Biotecnología verde: revoluciones y generaciones. Pilar Perla escribe sobre el valor de la divulgación científica en el artículo Los siete mares de la investigación.

Javier de Felipe, profesor de investigación del Instituto Cajal (CSIC), Análisis del cerebro: innovación tecnológica y estrategia interdisciplinar. Óscar Marín, profesor de investigación en el Instituto de Neurociencias de Alicante (CSIC), Construyendo el cerebro…, Build it and you understand it!

··· Eduardo Anitua, Gorka Orive y Roberto Prado (BTI), Potencial del Plasma Rico en Factores de Crecimiento en la terapia con células madre.

··· Nerea Casado, Guiomar Hernández, David Mecerreyes (POLYMAT) y Michel Armand (CIC energiGUNE), Polímeros innovadores para almacenamiento de energía.

··· Jokin Lozares (UPV/EHU), Zigor Azpilgain (Mondragon Unibertsitatea), Iñaki Hurtado (UPV/EHU), Tixoconformado de aceros.

Carmen Sánchez, investigadora ad-honorem de CONICET (Argentina): “El operón lactosa desde La Mesada: mi experiencia con Jacob y Monod”

Editorial 04

Diálogos científicos 06

Divulgación 14

Investigación hoy 24

Entorno cic 35

Científicos ilustres 70

EN PORTADA: Metáfora acerca de la complejidad que representa el cerebro para la investigación.

Con

teni

dos

Page 3: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Neurociencia globalEste año que termina está jalonado por hitos científicos y nuevas ex-pectativas que anticipan una nueva era en la investigación del cerebro. Hace unos meses la Unión Europea aprobó el lanzamiento del Human Brain Project (HBP) que ha movilizado unos recursos económicos y hu-manos sin precedentes en nuestro continente. Con una dotación aproxi-mada de 1.000 millones de euros y la participación de 87 instituciones de 15 países, el HBP pretende establecer un modelo computacional del cerebro humano que permita emular las funciones cerebrales, estudiar sus características, así como entender las causas de las enfermedades neurológicas favoreciendo su diagnóstico temprano, cuando todavía se pueden tratar con mayor eficacia. En su concepción y gestión participa Javier de Felipe, investigador del Instituto Cajal en Madrid, y que contri-buye a este número de CIC Network con el artículo Análisis del cerebro: Innovación tecnológica y estrategia interdisciplinar (página 24).Esta iniciativa es de una envergadura similar a la que en su día fue el pro-yecto Genoma Humano, e integra las disciplinas más diversas: desde la neurobiología y la generación de modelos matemáticos y de simulación, hasta el desarrollo de nuevo software y supercomputadores.A su vez, la administración Obama en EE.UU. ha dado su réplica al HBP con el programa BRAIN (Brain Research Through Advancing Innovative Neurotechnologies) liderado por Rafael Yuste, científico español afincado en la Universidad Columbia de Nueva York. BRAIN aspira a componer el mapa de toda la actividad cerebral en los próximos 15 años. Ambos proyectos surgen de la necesidad de introducir nuevos elementos tecnológicos en el estudio del sistema nervioso, y de la urgencia de inte-grar la gran cantidad de información generada para dar forma al rompe-

cabezas descomunal que constituyen las 100.000 millones de neuronas y el casi billón de células gliales que integran el cerebro humano. Los avances en ambas iniciativas servirán para avanzar en la comprensión de las enfermedades que afectan a este órgano como la esquizofrenia, la epilepsia, el Alzheimer y el Parkinson, por mencionar algunas de las más complejas y prevalentes.El lanzamiento de estas iniciativas surge en un momento en el que se han producido grandes avances en el terreno neurocientífico. Hace varias semanas la revista Nature publicó un estudio en el que se han desarrolla-do técnicas para fabricar minicerebros humanos en el laboratorio. Este hallazgo es crucial puesto que la mayor parte de la investigación sobre el cerebro humano se basa en estudios en cultivos celulares y en el uso racional de la experimentación animal. En estos paradigmas se averigua el funcionamiento normal del cerebro y se modelan las enfermedades neurológicas y psiquiátricas. Aunque la validez y utilidad de esta forma de investigar el cerebro humano sano y enfermo es incuestionable, no es obvia la traslación de la información generada al desarrollo de nuevos tratamientos con claro beneficio clínico. Por eso, es decisivo investigar con tejido nervioso humano, cuestión que hasta ahora se viene rea-lizando con muestras de autopsias o desechadas tras intervenciones neuroquirúrgicas. El nuevo descubrimiento permite generar ‘cerebroides’ humanos a partir de células madre (troncales) pluripotentes inducidas mediante reprogramación de células adultas de la piel de individuos sanos o de pacientes. La estructura tridimensional de estos cerebroi-des reproduce muchos de los parámetros arquitectónicos del cerebro, permitiendo el estudio del desarrollo del mismo y de los trastornos del neurodesarrollo, que constituyen un grupo de enfermedades raras sin curación en la actualidad. Es previsible que en breve se generen en el laboratorio minicerebros humanos que modelen todas y cada una de las enfermedades neurológicas y psiquiátricas. El alcance de estos avances cambiará por completo el panorama terapéutico en la próxima década.Son buenas noticias para los pacientes y sus familias, que llegan en un momento en que las grandes empresas farmacéuticas estaban cerrando sus departamentos de desarrollo de nuevos medicamentos para el tra-

Edito

rial

Carlos Matute es director científico del

Achucarro Basque Center for Neuroscience.

consejo editorial

Aurkene AlzuaEduardo AnituaPedro Miguel EtxenikeJesús María GoiriFélix M. GoñiJoseba JaureguizarLuis Liz Marzán Xabier de MaidaganManuel Martín-LomasJosé María PitarkeAna Zubiaga

director

José M Mato

colaboran

Carlos MatuteJosé Miguel MuletPilar PerlaJavier de Felipe Óscar MarínNekane BalluerkaEnrique CastellónJavier EcheverríaFélix GoniEduardo Anitua, Gorka Orive, Roberto Prado.Nerea Casado, Guiomar Hernández, David Mecerreyes, Michel Armand.Jokin Lozares, Zigor Azpilgain, Iñaki Hurtado.Carmen Sánchez de Rivas

redacción y coordinación

Guk

diseño y maquetación

Nu Comunicación

reportaje fotográfico

Xabier Aramburu

edita

cic NetworkAsoc. Red de Centros de Investigación Cooperativa del País VascoParque Tecnológico de Bizkaia, Ed. 80048160 Derio (Bizkaia)[email protected]

reserva publicidad

[email protected]+34 943 32 69 66

depósito legal

ss-1228-2006

Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda

prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.

tamiento de las enfermedades del cerebro, por ser este órgano demasiado complejo y suponer un reto demasiado arriesgado para la actividad em-presarial. La posibilidad de trabajar con minicerebros humanos ha tirado por tierra este prejuicio y está reorientando la actividad investigadora del sector privado. Así, no es casual que la gigante Novartis y otras compañías multinacionales líderes del sector farmacéutico, acaben de anunciar la apertura de nuevas líneas de investigación que se basan en parte en los avances de la genética y el uso de la tecnología de las células troncales. Pretenden de esta manera estudiar el cerebro y sus enfermedades de una manera menos reduccionista, al margen de la investigación clásica sobre los neurotransmisores, y concentrándose en el análisis de los circuitos neurales que causan las enfermedades. Es decir, en lugar de focalizarse en el mensajero (transmisor), estudiar las disfunciones de la red comunicante.En este ambiente de ‘neuro-optimismo’ generalizado, las neurociencias también han sido reconocidas con la concesión del Premio Nobel de Fisiología y Medicina 2013 que ha sido concedido a la terna de inves-tigadores compuesta por J. Rothman, R. Schekman y T. Südhof por sus descubrimientos de la maquinaria que regula el tráfico vesicular, un sistema de transporte crucial para las células. En particular, dos de los ga-lardonados, Rothman y Südhof, han sentado la bases para la compresión de la biología molecular que rige los procesos de liberación vesicular de los neurotransmisores, las señales que comunican las neuronas entre sí y con las células gliales que las rodean. De esta manera han identificado numerosas moléculas clave para este proceso de señalización, y que constituyen dianas terapéuticas para distintas enfermedades, incluido el autismo.Estas noticias no hacen sino poner de manifiesto el vigor de la investi-gación en neurociencias y su importancia biomédica y social. Así pues, el reto en Euskadi es consolidar la estructura investigadora en este ám-bito, que ya goza de buena salud, y engancharla al tren internacional, que va a toda máquina. La definición de la estrategia de investigación para la especialización inteligente (RIS3) y el nuevo programa europeo Horizonte 2020 serán ocasiones para materializar un salto cualitativo en la internacionalización de la neurociencia vasca.

Page 4: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

7

Entrevista al físico cuántico Juan Ignacio Cirac, por José María Pitarke.

la medalla Franklin en Física del Instituto Franklin (2010) junto con David Wineland y Peter Zoller. En octubre de 2013 visitó San Se-bastián para impartir una conferencia en el festival Passion for Knowledge – Quantum 13 y nos hizo un hueco, un domingo por la tarde, para charlar sobre ciencia en CIC Network.

El año pasado el Premio Nobel se lo llevaron Serge Haroche y David Wineland, personas que han contribuido de forma importante a la com-putación cuántica. ¿El Nobel es, por lo tanto, una batalla perdida para usted? El Nobel nunca ha estado a la vista, así que no hay ningún problema. Aún así, creo que más adelante va a haber más premios en este ámbi-to. A Haroche y Wineland se lo dieron por hacer lo que se llama el single atom o single particle, inventar físicamente una partícula y ver que se pueden crear superposiciones con varios fotones. No obstante, si se logra construir un or-denador cuántico, con toda seguridad le darán un Premio Nobel a esa construcción.

es director de la División de Teoría. Cirac ha recibido un buen número de premios y reco-nocimientos a su labor científica, entre otros el Premio Felix Kuschenitz de la Academia Austríaca de las Ciencias (2001), el Premio de Electrónica Cuántica de la Fundación Europea para la Ciencia (2005), el Premio Príncipe de Asturias de Investigación Científica y Técnica (2006), el Premio Nacional de Investigación Blas Cabrera (2007), el Premio Fundación BBVA Fronteras del Conocimiento (2008), y

“El ordenador cuántico tendrá aplicaciones que no podemos ni imaginar”

Juan Ignacio Cirac (Manresa, 1965) estudió física y se doctoró en Óptica Cuántica en 1991 en la Universidad Complutense de Madrid. Combinó su trabajo en la Universidad de Cas-tilla-La Mancha (1991-1996) con estancias en Estados Unidos y, en ese periodo, publicó el fa-moso artículo Trapped ions o Iones atrapados. En 1996 se fue a la Universidad de Innsbruck con su colega Peter Zoller. Desde 2001 trabaja en el Instituto Max Plank de Óptica Cuántica de Garching (Alemania), donde actualmente

Juan Ignacio Cirac, (Manresa, 1965), es doctor en física

por la Universidad Complutense de Madrid, reconocido

por sus investigaciones en computación cuántica y óptica

cuántica. Es director de la División Teórica del Instituto

Max-Planck de Óptica Cuántica, en Garching (Alemania).

José María Pitarke, es doctor en física por la Universidad

del País Vasco (UPV/EHU), catedrático en esta misma

Universidad y director del Centro de Investigación

Cooperativa en Nanociencias, CIC nanoGUNE.Diá

logo

s cie

ntífi

cos

Page 5: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

9 8

DIáloGos CIENtífICos - JUaN IGNaCIo CIraC

No sólo misteriosa sino repudiada… Es una parte de la física cuántica en la que muchos, entre ellos alguno de los artífices de la misma, no creían. Sí. La razón es que cuando surgió la física cuán-tica no había experimentos que fueran capaces de testearlo. Ahora, desde hace 20 o 30 años, somos capaces de hacer experimentos que per-miten verificar esa parte de la teoría cuántica.

Me gustaría profundizar en esos experimentos. ¿Podría hablar de la paradoja Einstein-Podolsky-Rosen (epr), el teorema de Bell y el experimento de Aspect? Porque todo eso es central en el de-sarrollo de la computación cuántica…La física cuántica fue haciéndose ad hoc. Se planteaba una teoría que explicara los resulta-dos de un experimento: ‘si esta ley fuera cierta, este experimento se podría explicar’, decían. Una vez acumulada cierta experiencia, Schrö-

dinger y Heisenberg intentaron resumirlo todo y establecer unas leyes a partir de las cuales se pudiese derivar todo lo demás. Ésa es la Física Cuántica, la cual surgió en los años 20. Permitía que todos los experimentos se pudieran explicar a partir de esas leyes; pero había un precio muy grande a pagar: el principio de superposición. Si uno se creía esa teoría y la tomaba en serio, quería decir que en la naturaleza puede haber objetos cuyas propiedades no están definidas; o, dicho de otra forma, que pueden tener una propiedad tomando dos valores a la vez, que es lo que llamamos superposición cuántica. Hubo quien se tomó esto como un fallo de la física cuántica, afirmando que era una teoría provi-sional que debería ser completada y mejorada. Uno de los más famosos fue Albert Einstein.

Es decir, que Bohr y Heisenberg defendían la postura de ‘así es la vida’, mientras que Einstein, Schrödinger, Planck y otros se resistían a recono-cer que, en definitiva, ‘así es la vida’.Exactamente. Así comenzaron con la búsque-da de paradojas. Decían: “si estas leyes fuesen verdad ocurriría esto, y esto es tan ridículo que no puede ser cierto”. Einstein escribió el famoso artículo llamado EPR, con el que quiso mostrar una contradicción dentro de la física cuántica, pero enseguida fue contestado. Schrödinger, por su parte, planteó la famosa paradoja del gato: “Si la física cuántica existe en el mundo microscópico, también tiene que existir en el mundo macroscópico y, por lo tanto, podría-mos tener un gato que tenga dos propiedades a la vez, que esté vivo y muerto al mismo tiempo”. Todo parecía más filosófico que físico porque la física cuántica dice que cuando existe una superposición, cuando las propiedades de un objeto no están definidas, al observar esas pro-piedades quedan bien definidas. Por lo tanto, la pregunta es: ¿cómo podemos demostrar que existe una superposición si cuando observo deja de existir? Es decir, ¿si cuando hago una medida no habrá superposición? Mucha gen-te dijo que esto era imposible hasta que llegó John Bell, en el año 1964, que de una manera muy inteligente dijo: “si juntamos el hecho de que la física cuántica predice la existencia de superposiciones con el hecho de que las seña-les no pueden ir más rápido que la velocidad de la luz, es decir, que dos personas que es-tén muy lejos tardan tiempo en comunicarse, entonces podremos diseñar un experimento que nos indique si realmente existen estas su-perposiciones o no”. Y diseñó un experimento

Me gustaría hablar sobre el computador clásico versus computador cuántico. Al computador cuántico se le llama así porque se diseña en base a cierto comportamiento de la materia que predice y describe la física cuántica. Lo que acabo de decir se aplica exactamente igual a lo que llamamos ordenador clásico, y eso puede provocar confusión en la sociedad ya que la gente podría pensar que unos son física cuán-tica y otros no...Sí, lo que pasa es que están basados en diferen-tes leyes de la física cuántica. En los ordena-dores clásicos, igual que en cualquier sistema electrónico, los conductores y semiconducto-res explotan ciertas propiedades cuánticas; pero hay otras propiedades cuánticas que son mucho más difíciles de observar y de domi-nar. Son propiedades que hasta hace poco se tenían por algo muy misterioso, la parte más misteriosa de la física cuántica. En este senti-do, un ordenador cuántico intenta explotar la parte más misteriosa de la física cuántica para hacer algo que los ordenadores que utilizan la parte no tan misteriosa de la física cuántica no pueden hacer.

DIáloGos CIENtífICos - JUaN IGNaCIo CIraC

mental (gedanken); pero por aquella época no se le prestó ninguna atención. Al cabo de algún tiempo, a principios de los años 70, se empeza-ron a hacer algunos experimentos, pero eran bastante ´sucios´ y la gente no se los creía mu-cho; hasta que llegó Aspect en 1981. Este joven estudiante de doctorado obtuvo unos resulta-dos que, claramente, negaban la ausencia de superposiciones. Es decir, el experimento de Aspect no era compatible con una visión ‘rea-lista’ de la naturaleza; el experimento de Aspect nos indicaba que las propiedades de los objetos no están definidas. A partir de ahí se repitieron mucho este tipo de experimentos con distintos sistemas –fotones, átomos, moléculas-, ya que todo esto es algo que tiene un gran impacto en nuestra visión de la naturaleza. Todo el mundo está acostumbrado a que, como decía Schrö-dinger, “cuando no miro, la luna todavía está allí”. La física cuántica decía que no, que a lo mejor no está en un punto concreto, sino que está deslocalizada, que está en muchos sitios a la vez. La gente empezó a pensar que ésta es una propiedad curiosísima de la física cuánti-ca y que había que explotarla para hacer algo extraordinario.

La explotación de ese fenómeno de superposición de la física cuántica es lo que dio lugar a la idea de la computación cuántica. ¿Cuándo se empieza a trabajar en este tema?Si uno indaga en la literatura, se da cuenta de que el primero que empezó a hablar seriamente de la computación cuántica, aunque no lo lla-mó así, fue Richard Feynman. Feynman escribió un artículo en el año 1981 que se titula algo así como Simulando física cuántica con sistemas cuánticos, en el que propone un ordenador cuántico. Este artículo pasó completamente desapercibido; parecía una de sus salidas de tono, pero esto cambia en 1994. Entonces, a Peter Schor, un informático que había estu-diado física cuántica como asignatura de libre elección, le enviaron un artículo para que lo revisase. En este artículo proponían resolver un problema académico, sin ninguna utilidad, con un ordenador cuántico. Se dio cuenta de que, si existiese ese ordenador cuántico, se podría resolver un problema mucho más importante: el problema de la factorización.

Entonces, cuando usted propuso junto con Pe-ter Zoller una potencial implementación de esa computación cuántica con iones atrapados, ¡dio en el clavo!

¡Claro! Peter Schor no había enviado aún su artí-culo para publicar pero lo había repartido, entre otros, a Artur Ekert, que era un físico que trabaja-ba en teorías de variables ocultas, desigualdades de Bell, etc. Ekert impartió una conferencia en Boulder (Colorado) en el verano de 1994, y presen-tó el algoritmo de Schor; yo estaba en la audiencia junto a Peter Zoller. Lo que dijo Ekert es que si tuviésemos un ordenador cuántico podríamos resolver problemas interesantes. Pero nadie sabía cómo construirlo, ni sabíamos si sería posible construirlo. Nosotros, que estábamos trabajando en física cuántica relacionada con la física ató-mica y la física de iones, nos dimos cuenta de que el trabajo que estábamos haciendo se podría exportar y aplicar a los ordenadores cuánticos.

Y lo publicaron en un año. Fueron extraordinaria-mente rápidos…

Sí, dos años antes yo había escrito un artículo sobre teletransporte cuántico, el cual estaba relacionado con esas superposiciones.

Relacionadas sí, pero no se habían estudiado en conexión con la computación cuántica…No, ¡desde luego que no! Y no fue una traduc-ción, tuvimos que pensar alguna cosa nueva. Estábamos trabajando en explotar las propie-dades cuánticas de los iones, la superposición, pero de un solo ion: ver cómo se podría crear un ion en un sitio o en otro sitio, y en los dos sitios a la vez. Y ahora teníamos que hacer lo mismo pero con muchos iones, de tal forma que construyesen un computador.

Y esto lo hicieron muy rápido.Sí, el primero al que se lo contamos fue a David Wineland (Premio Nobel de Física de 2012), que trabajaba en el National Institute of Standars and Technology. Wineland estaba enfriando iones o algo así, cambió el experimento y en seis meses hizo la primera observación relacionada con nuestra propuesta.

“Si se logra construir un ordenador cuántico, con toda seguridad le darán un Premio Nobel a esa construcción”

“Un ordenador cuántico intenta explotar la parte más misteriosa de la física cuántica”

Page 6: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

11 10

DIáloGos CIENtífICos - JUaN IGNaCIo CIraC

tomarlo con mucho cuidado. Si alguien no ha estudiado física cuántica, lo que he dicho ante-riormente le parecerá una barbaridad. Según el principio de superposición se puede pensar que la ‘vida’ de una moneda se ha desdoblado en dos universos paralelos. En un universo está en posición de cara y en el otro está en posición de cruz. Si uno pregunta sin mirar si se encuentra en cara o en cruz, y estos dos universos existen simultáneamente, la moneda se encuentra en las dos posiciones a la vez, depende del univer-so. Lo que la física cuántica dice es que cuando uno observa, uno de los universos se aniquila y sólo queda el otro. Lo mismo pasa en el expe-rimento de la doble rendija. Cuando uno lanza una partícula, como un fotón, hacia una pared con dos rendijas, todo ocurre como si la partí-cula pasara por las dos rendijas a la vez. Una forma de explicar esto con la física cuántica es que en un universo la partícula pasa por la primera rendija y en el otro universo la partí-cula pasa por la segunda rendija, y mientras no miremos pasa por los dos sitios a la vez.

Eso también se puede explicar con ondas. Las ondas de agua que llegan a una pared con dos rendijas pasan por las dos rendijas a la vez. Claro, lo que pasa es que eso no es tan sorpren-dente, porque eso lo vemos todos los días. Lo que es curioso es que uno podría coger un detec-

cara y una en cruz, todas en cara y dos en cruz, etc. Hay muchas combinaciones y eso se puede manejar en un ordenador para que se hagan mu-chos cálculos a la vez. Así que, resumiendo, un ordenador cuántico es un ordenador que utiliza el principio de superposición masivamente, que hace muchos cálculos en paralelo pero con un solo ordenador. En los ordenadores clásicos para hacer cálculos en paralelo uno necesita tantos ordenadores como cálculos quiera realizar. Con un ordenador cuántico de 300 átomos -300 bits cuánticos- se podrían hacer tantas operaciones a la vez como partículas hay en el universo.

Para explicar el fenómeno de la superposición cuántica se suele poner el ejemplo del experi-mento de la doble rendija, y en relación con él se habla a veces de universos paralelos. ¿Nos puede comentar algo sobre este fenómeno?Sí, es una forma didáctica de explicar lo que es el principio de superposición, pero hay que

DIáloGos CIENtífICos - JUaN IGNaCIo CIraC

tor de fotones y puesto junto a la pared empeza-ría a oír ‘clac’, ‘clac’, ‘clac’, porque están llegando partículas. Y que las partículas, que se puede pensar que son como canicas, pasen por las dos rendijas a la vez es lo que llama la atención.

Eso de los universos paralelos, que como bien ha dicho representa una forma didáctica de explicar lo que es el fenómeno cuántico de superposición, hay físicos que se lo creen, ¿no?Sí, hay físicos, algunos muy famosos, que se lo creen. David Deutsch, que ha escrito muchos li-bros de física y es uno de los primeros que habló de ordenadores cuánticos, es un ferviente defen-sor de los universos paralelos. Lo que pasa es que tenemos un problema un poco más filosófico. Cuando uno piensa: ¿cómo explicamos entonces que la naturaleza tenga sus propiedades sin defi-nir? Uno puede empezar a dar interpretaciones. Podríamos pensar que no hay realidad.

Eso es Bohr. Así es. Y hay gente que se lo toma de una ma-nera aún más extrema y dice: “ni me preocupa, ni existe nada; lo único que tengo que hacer yo es detectar mis sensaciones”. Otro extremo dice que todo está definido, pero lo que pasa es que existe un mundo al que no tenemos ac-ceso donde las cosas viajan a una velocidad más rápida que la de la luz, etc. Eso es lo que se

Esto es una muestra de lo importante que es conectar cosas diferentes para que salgan cosas nuevas...Y estar en el momento oportuno en el sitio adecuado. Es curioso que la física no funciona como hace 100 años, cuando había alguien que se encerraba cuatro años y salía con toda una teoría. Ahora tienes que estar en estrecho con-tacto con otros investigadores.

Explíquenos en qué se diferencia un computador cuántico de uno clásico.Es un poco difícil para el público en general, pero la idea fundamental es explotar esas superposi-ciones de las que hablábamos. En la física clá-sica, la usual, cuando tenemos un objeto, por ejemplo una moneda, si está plana puede estar con la cara o la cruz hacia arriba, de una forma o de otra. La física cuántica nos dice que la mo-neda puede estar en las dos posiciones a la vez. Y no es que haya dos monedas, o que la moneda esté cambiando muy rápidamente de un sentido a otro, sino que cuando no observamos tiene la propiedad de la cara y la cruz a la vez, ésa es la forma de definirlo. Con el ordenador cuántico lo que se pretende es explotar esa propiedad. Si uno tiene un objeto que puede hacer dos cosas a la vez, pongámoslo a trabajar y que haga mu-chas cosas a la vez. Si tenemos muchas monedas pueden estar todas en posición de cara, todas en

llaman las teorías de variables ocultas, las cua-les representan una interpretación de la física cuántica. Y está la gente como David Deutsch y Everett, que es el que empezó a hablar de la interpretación de los universos paralelos de la mecánica cuántica.

Y John Wheeler también, ¿no?Sí, Wheeler también ha hablado de ello. De-cían que si nos tomamos la física cuántica en serio también debería haber superposicio-nes en el mundo macroscópico. La verdad es que todas estas interpretaciones tienen algún problema. La más aceptada es la de Bohr, la interpretación de Copenhague.

Hay una cita de Bohr que me gusta que dice everything we call real is made of things that cannot be regarded as real. ¡Eso es! Hay que vivir con eso.

Antes ha mencionado el gato de Schödinger. ¿Dónde se encuentra la transición entre la pe-queña escala en la que todo es superponible y

la gran escala en la que el gato de Schrödinger no puede estar vivo y muerto a la vez? ¿Cómo se resuelve este problema? Ésa es una muy buena pregunta y voy a ser pragmático a la hora de resolverla. Para po-der tener superposiciones, tenemos que aislar completamente el objeto. Entonces, para poder tener un gato que esté vivo y muerto a la vez, lo tendríamos que aislar, pero si lo aislamos no podrá ni respirar, por lo tanto se va a morir de todas formas. Y eso es lo que ocurre en realidad, que es muy difícil aislar algo y, un organismo vivo, todavía más.

Esa es precisamente la clave. Para construir un ordenador cuántico se necesita que se manifies-te el fenómeno de superposición, la coherencia, y para ello se necesita que el sistema de par-tículas que posibilite la computación cuántica se encuentre totalmente aislado. Cuando uno quiere incorporar más y más partículas, lograr ese aislamiento se antoja cada vez más comple-jo. Ahí surge el problema de la decoherencia. ¿Cómo lo resolvemos?Ésa es la razón fundamental por la que no te-nemos un ordenador cuántico. Como he dicho anteriormente, las superposiciones en las que están basados los ordenadores cuánticos son muy frágiles, porque en cuanto alguien las ob-serva desaparecen. La física cuántica dice que

“La física cuántica dice que cuando existe una superposición, cuando las propiedades de un objeto no están definidas, al observar esas propiedades quedan bien definidas”

“El primero que empezó a hablar seriamente de la computación cuántica, aunque no lo llamó así, fue Richard Feynman”

Page 7: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

13 12

DIáloGos CIENtífICos - JUaN IGNaCIo CIraC

no tiene por qué ser una persona quien observe esas superposiciones, sino que puede ser un perro, un gato o una molécula; cualquier ob-jeto que interaccione con ellas va a romperlas. Por lo tanto, si uno quiere tomárselo en serio y construir un ordenador cuántico, tendrá que hacer que no interaccione con nada absoluta-mente excepto con lo que hace que se produzca la computación. Esto nos lleva a un problema que hizo que la gente pensara que sería impo-sible construir un ordenador cuántico, porque cuantas más partículas tengamos en nuestro ordenador, cuanto más potente queramos que sea, más difícil es que no haya interacción. De hecho es una ley exponencial. Afortunadamen-te, hay toda una teoría, la teoría de corrección de errores, que dice que a pesar de que exis-tan esas interacciones no deseadas que dan lugar a esa decoherencia, que dan lugar a que se rompan las superposiciones, si ocurren en pequeña proporción aún es posible realizar computaciones cuánticas haciendo algo más sofisticado. Pero todavía no estamos ahí, en es-tos momentos la gente está luchando por aislar un conjunto de átomos que sea lo suficiente-mente grande para que hagan algo interesante.

Si no se consiguiera implementar esa corrección cuántica de errores, no habría forma de construir un ordenador cuántico que funcione, ¿no es así?Eso es.

Y, a pesar de ello, ¿cree que tendremos ordenado-res cuánticos en el futuro?Sí. Lo que no puedo decir es en cuánto tiempo. Diría que decenas de años. La cuestión es que no hay ninguna ley fundamental que lo prohíba, y tampoco es tan complicado. Sabemos que en cuanto seamos capaces de aislar la cantidad suficiente de partículas ya podremos utilizar esa teoría de corrección de errores y podremos construir un ordenador tan grande como que-ramos. Pero para eso hace falta pasar el umbral de aislamiento que se requiere para poder im-plementar la computación cuántica.

¿A cuánto estamos de ese umbral?Estamos todavía a dos órdenes de magnitud, o a orden y medio. Esto depende de la implemen-tación física con la que uno trabaje y del tipo de errores que haya en esa implementación, del tipo de operaciones que se quieran realizar. En algu-nos experimentos, como en física atómica, ya se ha pasado el umbral. Faltan otros experimentos en los que también se pase el umbral y después

ponerlos todos juntos. Pero eso es muy compli-cado; cualquiera que haya visto un experimento se da cuenta de que mejorar un par de órdenes de magnitud puede llevar mucho tiempo.

¿Llegarán a convivir los ordenadores cuánticos con los ordenadores clásicos? Yo veo los ordenadores cuánticos más bien como superordenadores. No me puedo imaginar te-ner la necesidad de mejorar los ordenadores portátiles que tenemos hoy en día. Tal vez la seguridad en internet se podrá implementar a través de la física cuántica, pero eso será un pequeño chip y no todo un ordenador cuántico. Los ordenadores cuánticos podrían tener sen-tido para complementar los superordenadores. Los científicos, diseñadores o ingenieros a veces tienen que hacer unos cálculos enormes, que no se pueden hacer con ordenadores normales. Para eso existen los superordenadores. Pero los superordenadores clásicos no pueden hacer al-gunos cálculos que son interesantes, y esos son los que podría hacer un ordenador cuántico.

¿El ordenador cuántico nos ayudará a avanzar en la generación de nuevo conocimiento?Sí, hay problemas concretos que son muy difíci-les. Si uno quiere diseñar un fármaco, necesita resolver ecuaciones que, a veces, son imposibles de resolver porque ocurren procesos cuánticos y no existe ninguna forma en la que se puedan resolver de manera precisa con ordenadores clásicos. Para eso podría servir. Pero si uno mira la historia, cuando existe un nuevo producto utilizando unas nuevas leyes de la naturaleza, las aplicaciones que surgen no tienen absolutamen-te nada que ver con las que se habían predicho en su momento. Yo creo que ése será el caso. Es decir, no podemos ni imaginar las aplicaciones que tendrá el ordenador cuántico.

Pero seguro que el ordenador cuántico contribui-ría al avance de la propia investigación científica.Sí. De hecho existe una forma mucho más barata de hacer ordenadores que sean capaces de resol-ver algunos problemas concretos. Estoy seguro

de que éstos llegarán antes. Son los simuladores cuánticos que intentan resolver problemas cien-tíficos, para los que no hace falta construir un ordenador cuántico. En esto están trabajando muchos grupos experimentales y teóricos.

¿Esto también se hace con qubits?Esto se hace con átomos, que pueden ser qubits pero se puede mirar el movimiento. De alguna forma los átomos se comportan como si fuesen, por ejemplo, electrones en sólidos, son átomos que se hace que se muevan en el espacio de la misma forma y siguiendo las mismas leyes que los electrones en sólidos. Los átomos interaccio-nan entre ellos como los electrones; por lo tanto, se comportan como los electrones en sólidos, y uno puede estudiar qué pasa en un sólido utili-zando esos átomos. El campo de la simulación cuántica está hoy en día mucho más avanzado que el de la computación cuántica y creo que lle-gará mucho antes que los ordenadores cuánticos.

La computación cuántica también se suele rela-cionar con la criptografía. ¿Nos puede comentar algo sobre esto?Hay dos vertientes. La primera se refiere al he-cho de que con los sistemas criptográficos que existen en la actualidad cuando nos conecta-mos a internet y vamos a pagar con una tarjeta de crédito nos encontramos con un simbolito en nuestro navegador que indica que la comu-nicación es segura. Lo que está ocurriendo ahí es que la información se está codificando. Esa codificación es segura porque existe una opera-ción matemática que es muy difícil de realizar y no es realizable con los ordenadores actuales. Pero sí se podría realizar con un ordenador cuántico, por lo que la primera consecuen-cia que tendría la existencia de ordenadores cuánticos es que la forma que tenemos hoy en día de enviar información codificada dejaría de ser segura. Pero a la vez, existe otra forma diferente de hacer criptografía, basada en la física cuántica, que permite tener una forma de comunicación completamente segura. Ni un ordenador cuántico sería capaz de descifrarla.

¿En qué se basa la criptografía cuántica?Uno envía la información en superposiciones, de tal forma que si alguien no autorizado la quiere leer destruye la superposición y, por lo tanto, aparece un resultado que no tiene nada que ver con la información original. Y, de hecho, el que la va a recibir se puede dar cuenta de que alguien ha intentado leer la información.

DIáloGos CIENtífICos - JUaN IGNaCIo CIraC

Esto se realiza con fotones, por fibras ópticas, incluso por fibras de las compañías telefónicas.

Para terminar, ¿cómo ve el estado de la ciencia desde el punto de vista de la financiación, desde el punto de vista de su presencia en las decisio-nes políticas y desde el punto de vista vocacional?Creo que en los últimos años la gente se ha per-catado de que la ciencia es algo importante, no sólo desde el punto de vista cultural, sino que tiene consecuencias económicas y sociales muy grandes. Los países más desarrollados contem-plan la ciencia como parte de sus programas eco-nómicos; lo que pasa es que hay países que se lo toman muy en serio, y otros en los que aparecen ilusiones pero luego no se lo toman más en serio. Yo creo que eso está relacionado con la cultura de cada país. En Alemania, por ejemplo, tienen una cultura científica muy profunda, allí han tenido desde hace mucho tiempo muchos científicos, desarrollo, ingenieros, tecnologías... Es parte im-portante de la vida. Eso hace que la gente entien-da muy bien que cuando hay recortes los haya en todo menos en ciencia, educación y desarrollo tecnológico. Uno ve con preocupación lo que está ocurriendo en los países del sur de Europa, donde la ciencia no juega un papel fundamental.

La gente que pasa por el Instituto Max Planck, investigadores predoctorales y postdoctorales, ¿siguen después en la academia o se van a la industria?En Alemania hay una visión muy distinta de lo que es hacer un doctorado. Durante el doc-torado adquieren una formación, aprenden a dar conferencias, a ser versátiles, etc., y eso es muy apreciado por las empresas. En el Max Planck tenemos, prácticamente, a los mejores estudiantes; muchos de ellos hacen después un postdoc, se van a EE.UU. u otro país y siguen la carrera científica. Ésta es otra diferencia funda-mental entre lo que yo vi cuando estuve traba-jando en España y lo que ocurre en Alemania. En Alemania, el doctorado es algo muy impor-tante si uno quiere trabajar en una empresa. Gente que ha estado trabajando conmigo en física teórica está ahora trabajando en Intel, BMW, Siemens...

“Un ordenador cuántico es un ordenador que utiliza el principio de superposición masivamente, que hace muchos cálculos en paralelo pero con un solo ordenador”

“Veo con preocupación lo que está ocurriendo en los países del sur de Europa, donde la ciencia no juega un papel fundamental”

Page 8: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Xxxx xxxx xxx xxxxx

15 14

accesible y va siendo utilizada por más gente, hasta que se traspasa un punto de no retorno en el cual ya somos absolutamente dependientes de esta tecnología y no podemos vivir sin ella. ¿Cuántos en su día dijeron que nunca utilizarían un teléfono móvil porque era un innecesario ca-pricho de ricos y ahora viven pegados a él? ¿Cuántos decían que nunca utilizarían Internet por ser propiedad del ejército estadounidense y hoy lo primero que hacen al levantarse es mirar el diario digital y leer los e-mails? Con los transgénicos ha pasado algo parecido, pero ha sido una revolución silenciosa. El punto de no retorno lo cruzamos hace mucho tiempo. Hoy en día sería imposible vivir sin las plantas transgénicas ni sus productos derivados, puesto que hacen el algodón de la ropa, los billetes de euro y el material sanitario. También el pienso del ganado es mayoritariamente soja y maíz transgénico, por lo que sin él, la carne subiría de precio y bajaría en calidad. A nivel científico no existe ningún debate sobre el tema. No hay cien-tíficos con un mínimo conocimiento sobre biotecnología vegetal que

Cualquier nueva tecnología tiene unos inicios inciertos en los que des-pierta recelos y reticencias. A este aparente rechazo o precaución ayuda el hecho de que tiene un precio muy elevado que hace que solo sea ac-cesible a un sector muy minoritario de la población. A medida que se va perfeccionando, los costes se abaratan y esta tecnología es cada vez más

José Miguel Mulet. Licenciado en química y doctor en bioquímica

y biología molecular por la Universidad de Valencia. Del 2003 al

2006 trabajó en la Universidad de Basilea (Suiza). Actualmente

es profesor de biotecnología en la Universidad Politécnica de

Valencia (UPV) y dirige una línea de investigación en el Instituto de

Biología Molecular y Celular de Plantas, centro mixto del CsIC y la

Uno de los temas que más controversia despierta en Europa en los últimos tiempos es el de la biotecnología verde y dentro de ella, las temidas plantas transgénicas. Decía Carl Sagan que, "vivimos en una sociedad profundamente dependiente de la ciencia y la tecnología y en la que nadie sabe nada de estos temas. Ello constituye una fórmula segura para el desastre." Y en este tema se puede ver lo proféticas que fueron las palabras de Sagan.

José Miguel Mulet, profesor de biotecnología en la Universidad Politécnica de Valencia.

Div

ulga

ción

Biotecnología verde Revoluciones y generaciones

hasta mediados del siglo XX. Por mucho que ahora parece que se glorifi-que la agricultura del pasado, conviene recordar que era una actividad muy ineficiente y tremendamente contaminante. Por ejemplo, el sistema de cultivo de los antiguos mayas era la milpa, sistema en el que se defo-restaba un trozo de selva para sembrar maíz, frijol y calabaza. Cuando se agotaba el suelo, lo solucionaban deforestando otro trozo de selva. De hecho, si los mayas hubieran tenido una agricultura eficiente hubieran podido hacerle frente a la sequía y no se hubieran extinguido. Estrategias igualmente ineficientes se desarrollaban en otras partes del mundo.A mediados del siglo XX se vio claramente que la población continuaba creciendo, pero la producción de alimentos no lo hacía al mismo ritmo. Eso impulsó a numerosas instituciones, públicas o privadas, a hacer un esfuerzo en investigación para tratar de desarrollar formas de agricultura más eficientes. Aunque la segunda revolución verde se hizo gracias al esfuerzo de muchas personas, destaca Norman Borlaug, que trabajando en México con un equipo de colaboradores locales desarrolló nuevas variedades de trigo. Originalmente hicieron frente a las royas, una plaga del trigo que causaba estragos. Después de los primeros éxitos lograron desarrollar variedades más productivas. El truco fue seleccionar aquellas que tenían el tallo más corto, por lo que acumulaban más nutrientes en el grano y producían menos parte no aprovechable para alimentación humana. Años más tarde, gracias a los avances en biología molecular, se descubrió que lo que seleccionaron fueron mutaciones espontáneas en la ruta de biosíntesis de las giberelinas, una hormona vegetal que se encarga de regular el crecimiento de la planta. Estas variedades consi-guieron que México fuera autosuficiente en producción de trigo en 1956.

DIVUlGaCIóN - BIotECNoloGía VErdE: REVolUCIoNEs y GENEraCIoNEs

cuestionen esta tecnología. No obstante, a nivel social pasa como con el tema del cambio climático. La evidencia científica y el consenso científico está de acuerdo, pero cuando aparece una voz disonante desde el campo de la ciencia, disfruta de una gran cobertura mediática, sin que nadie cuestione si es tan experto como alega o si los resultados que muestra son válidos. Esto crea la apariencia de un debate que en realidad no existe. En septiembre de 2012, muchos medios reprodujeron la noticia de que un 'científico' (utilizar este apelativo con Seralini es ser muy generoso) francés había demostrado que el consumo de maíz transgénico producía tumores en ratas de laboratorio. A pocos de los medios que recogieron esta noticia les llamó la atención que esta variedad lleva 15 años utilizán-dose para alimentación animal sin que se haya observado ningún efecto adverso ni advirtieron los evidentes errores metodológicos que fueron denunciados a los pocos días. Sin embargo, todos los días aparecen artí-culos de investigación en revistas científicas especializadas anunciando nuevas variedades de plantas transgénicas con nuevas aplicaciones, que han superado todos los filtros científicos y se publican en medios de mucha más calidad que el artículo de las ratas con tumores (que se publicó en una revista menor) y no merecen ni una miserable línea en los medios de comunicación. De hecho, si consideramos una perspectiva histórica, las plantas transgénicas han sido la tecnología agrícola que ha tenido una aceptación y una implantación más rápida en toda la historia de la humanidad. Ahora mismo estamos viviendo una revolución verde, pero no ha sido la primera.Dentro de la biotecnología vegetal y de la historia de la agricultura se habla de tres revoluciones verdes. La primera sucedió en el Neolítico y fue la que supuso el nacimiento de la agricultura. Los humanos pa-leolíticos eran nómadas que vivían como cazadores recolectores y que, ocasionalmente, se peleaban con otras tribus. En diferentes lugares diversos grupos humanos se dan cuenta de que es más cómodo buscar un asentamiento fijo y, en vez de depender de los animales salvajes y de las plantas silvestres, seleccionar aquellas que fueran más interesantes y plantarlas. Este fue el paso decisivo para la transición del paleolítico al neolítico. Si la escritura marca el inicio de la historia, la agricultura marca el inicio de la civilización. De hecho, las primeras civilizaciones que triunfan, correlacionan con las que se asientan en lugares más fértiles o que desarrollan mejores sistemas de gestionar los alimentos, como Mesopotamia y Egipto, muy vinculadas a los ríos que fertilizaban las tierras y permitieron acumular un excedente agrícola. La primera revolución verde marcó el nacimiento de la agricultura y también de la biotecnología, puesto que aprendimos a seleccionar las mejores semillas para dar lugar a mejores plantas, seleccionando mutaciones que en la naturaleza no tendrían posibilidades de tener éxito. Domesticar una planta y hacer que fuera más productiva, suponía un poder semejante a dominar el fuego. El esplendor de los mayas está muy vinculado a la domesticación del teosinte para crear el maíz, de la misma forma que su declive se debe a una larga sequía. Otras técnicas biotecnológicas de esta primera revolución verde fueron las hibridaciones o cruces forzados entre dos especies distintas que sirvieron para crear plantas que en la naturaleza nunca hubieran existido, como el trigo o la mayoría de los cereales que conocemos actualmente. También los primeros injertos, y por tanto la capacidad de tener dos tipos de frutas diferentes en un mismo árbol, provienen de esta revolución. Todos estos inventos básicos (hibridaciones, selección artificial e injer-tos) fueron tan efectivos que esa primera revolución verde estuvo vigente

UPV, y director del Master en Biotecnología Molecular y Celular de Plantas.

Es autor del libro Los Productos Naturales ¡vaya timo!, del blog del mismo nombre

(www.losproductosnaturales.com) y del blog colaborativo Naukas.

Norman Borlaug. Texas A&M AgriLife.

Page 9: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

17 16

DIVUlGaCIóN - BIotECNoloGía VErdE: REVolUCIoNEs y GENEraCIoNEs

Monsanto lo vio como una idea comercial y se puso a desarrollar produc-tos para que salieran al mercado. Ninguna empresa europea se interesó demasiado por esta tecnología (a pesar de que algunas como Unilever la utilizaban en levaduras). Cuando Monsanto tuvo la primera variedad lista para exportar, a las multinacionales europeas les entraron los miedos a que arrasara el mercado. Por eso vieron con buenos ojos que la política europea fuera restrictiva en el tema de los transgénicos. No era más que una medida proteccionista disfrazada de principio de precaución o de defensa medioambiental. El problema ha sido que cuando ya se han puesto al día, la ley se les ha vuelto en contra. Hace pocos meses la em-presa alemana BASF tuvo que mover toda su división de biotecnología a Estados Unidos y cambiar la estrategia de desarrollo de productos para cubrir las necesidades del mercado americano puesto que veía imposible conseguir la autorización de sus productos para el mercado europeo. Con la perspectiva que nos dan los 17 años desde que salieron al campo las primeras plantas transgénicas, hay algunas ventajas que son incues-tionables. Cada cosecha ha superado a la anterior en superficie y produc-ción en porcentajes de dos dígitos. La principal potencia en producción y consumo es Estados Unidos, que sigue un modelo privado, sin embargo la segunda es Brasil, que desarrolla los transgénicos en base a un mode-lo público. En el 2013 por primera vez, hubo más hectáreas sembradas en países en desarrollo que en países desarrollados y los últimos en apuntarse han sido Cuba y Sudán. No obstante esta revolución no esta concluida, sino que no ha hecho más que empezar. A diferencia de otras generaciones anteriores, aquí se han dado diferentes generaciones dentro de la misma revolución. Las plantas transgénicas de primera generación son las que ahora mismo están en el mercado. El efecto beneficioso se consigue con la inclusión de un único gen en el genoma y por eso fueron las primeras en desarro-

Luego fueron exportadas a todo el mundo y se siguen utilizando en la actualidad. Últimamente diferentes grupos ambientalistas dicen que la segunda revolución verde fue una catástrofe ambiental y que no ha ser-vido para eliminar el hambre en el mundo. Estas afirmaciones no se sos-tienen si analizamos los datos. Norman Borlaug es el hombre al que más personas le deben la vida, mucho más que el descubridor de cualquier medicamento. Hoy en día está comiendo más gente que en cualquier época anterior y el porcentaje de gente que pasa hambre también es el menor que en cualquier momento de la historia. Independientemente de la alimentación, si no hubiera existido la segunda revolución verde ya nos hubiéramos cargado el planeta. Como ejemplifican las milpas mayas, si el sistema no es eficiente, la caída de producción se compensa usurpándole terreno a la naturaleza y utilizándolo para la agricultura. Para hacernos una idea, en el año 1900 en Estados Unidos hacía falta entre 35 y 40 horas de trabajo para producir 100 bushels de maíz. Hoy solo se necesitan 2,5 horas de trabajo y un acre de tierra para conseguir la misma cantidad.En los años 80 llegó la tercera revolución verde. Años antes, Cohen y Boyer habían conseguido coger un trozo de ADN de un virus y meterlo en una bacteria, dando lugar al nacimiento de una nueva disciplina cientí-fica, la ingeniería genética. Era cuestión de tiempo que la tecnología se afinara para permitir que ese intercambio de genes se diera en plantas. Se descubrió de forma casi simultánea, utilizando tres técnicas diferentes y dos plantas diferentes en los laboratorios de investigación de la empresa Monsanto en San Louis (Missouri) y las universidades de Gante, en Bél-gica, y de Washington, en Estados Unidos. Este doble descubrimiento explica en gran parte la idiosincrasia actual de esta tecnología. En Europa las plantas transgénicas se vieron como una herramienta para estudiar la fisiología y la biología molecular de las plantas y así se siguen utilizando hasta ahora en la mayoría de universidades y centros de investigación.

DIVUlGaCIóN - BIotECNoloGía VErdE: REVolUCIoNEs y GENEraCIoNEs

llarse, por ser las más fáciles. Entre ellas tenemos las plantas resistentes a insectos, a herbicidas o a determinados virus. Estas variedades bene-fician principalmente al agricultor haciéndole más fácil su trabajo. Para el consumidor la variedad transgénica es indistinguible de la que no lo es y solo nota una reducción en el precio. Pero por poner un ejemplo, en Argentina el coste de producción de la soja no transgénica era de 78 dólares/Ha en herbicidas. Hoy gastan solo 37 dólares/Ha, a lo que hay sumar el ahorro en emisiones de CO2, horas de trabajo y fertilizantes, ya que la soja resistente a herbicidas permite la siembra directa, que consiste en poner las semillas sobre los restos de la cosecha anterior y utilizarla como fertilizante. La segunda generación son las plantas que la modificación altera sus cualidades organolépticas, físico-químicas o nutricionales. Esta está en el laboratorio o en ensayos de campo y en breve saldrán al mercado. Es-tas plantas han sido más laboriosas puesto que en su desarrollo muchas veces ha hecho falta introducir más de un gen como en el arroz dorado. Este arroz contiene provitamina A y está pensado para distribuirse libre de patente en los países cuya alimentación se basa en el arroz y donde el déficit endémico de vitamina A produce ceguera infantil. Se ha con-seguido añadiendo genes de Narciso y de la bacteria Erwinia uredovora. En otras plantas lo que interesa no es añadirle genes, sino añadir algo que haga que uno o varios genes no funcionen como en el trigo apto para celíacos que han desarrollado en el Instituto de Agricultura Sostenible de Córdoba. Aquí se ha añadido un gen que codifica un ARN que interfiere con los genes que expresan las proteínas del gluten que causan los pro-blemas en los celíacos. Entre los proyectos en desarrollo tenemos carne de cerdo baja en colesterol, tomates ricos en antioxidantes y muchos otros. En estos transgénicos el beneficio es directamente observable por el consumidor. Cuando los transgénicos de esta segunda generación

lleguen al mercado, empezaran a acabarse las reticencias que tenemos en Europa. Alguien puede permitirse el lujo de pagar algo más por un alimento por el hecho de no ser transgénico, pero si les dicen a los padres de un niño celíaco que si se utiliza trigo transgénico puede encontrar más variedad y a un precio similar a los alimentos convencionales, la mentalidad cambiará.Por cierto, que esta tecnología no se utiliza solo para alimentación. Al margen del algodón y de la soja y el maíz que se utiliza para piensos, hay aplicaciones más curiosas. En Europa la empresa Florigene comercializa claveles y rosas azules que son transgénicas. También tenemos plantas que expresan proteínas fluorescentes de medusa, que tiene muchas aplicaciones al margen de la meramente decorativa. Marcar proteína con fluorescencia es una herramienta básica en biología molecular para descifrar cómo funcionan las proteínas dentro de la célula, dónde se loca-lizan, cómo se procesan, etc., también se han modificado bacterias para que expresen esta proteína en presencia de explosivos, por lo que sirven para limpiar campos de mina y minimizar el riesgo para los artificieros. En definitiva, la biotecnología verde es tan antigua como la civilización. Gracias a su nacimiento durante la primera revolución verde no estamos huyendo de los leones. La segunda revolución permitió que millones de personas no murieran de hambre y la tercera nos está permitiendo, por una parte, que menos gente pase hambre y por otra, ahorrarle al medio ambiente millones de toneladas de pesticidas y emisiones de CO2. Esto es solo el principio. Dentro de poco veremos cómo mejora la vida de gente con intolerancias alimentarias, con alimentaciones deficientes o cómo los alimentos comunes ayudarán a mejorar nuestra salud y más cosas que están por venir que ahora ni nos imaginamos. No tengo ni idea de cómo será la 4ª revolución verde, pero de momento a la 3ª todavía le queda mucho recorrido y alguna que otra generación.

Page 10: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

19 18

DIVUlGaCIóN - Los sIEtE marEs dE la dIVUlGaCIóN

donde se maravilla y se arriesga, pero el público no tiene el curso de buceo. A veces, ni siquiera sabe nadar. Por eso tenemos que proponerle una visita guiada por la superficie.Encontrar el nivel de detalle justo para hacer una aproximación abor-dable por el lector es una labor delicada, que precisa cooperación entre periodistas y científicos. Que pide salir de casa, al encuentro del otro. A veces basta con aproximarse a un tema, con disfrutar de la música aunque no entendamos la letra.

El lector como norteEn el fondo, la divulgación científica acerca, rompe distancias, propone un viaje. Un viaje para todos: lectores, divulgadores y científicos. Los medios de comunicación estamos permanentemente en la pista de atletismo, con la meta a la vista: el día siguiente, a veces hasta el minuto siguiente. Pero hay algo que importa más que el aquí y el ahora. Importa el rumbo. Escribimos para quienes nos leen; tratamos de ena-morar lectores. ¿Y qué es la comunicación sino un ejercicio de seducción? Desplegamos mil estrategias divulgativas para conquistar al ciudadano y equiparle con cultura científica y mirada innovadora. Porque la ciencia es la mejor herramienta que tenemos para entender el mundo. Una socie-dad con cultura científica es más libre, es capaz de enfocar racionalmente lo que ve y de hacerse preguntas sobre lo que no comprende. Importa también el pulso interior. Hasta el año 1968 se consideraba que

correr los 100 metros lisos en menos de 10 segundos era misión imposible. El atleta Jim Hines rompió en pedazos esa palabra al lograr una marca de 9,95. Y contó su secreto: correr como si la carrera no terminara nunca. Así, conseguía volar.En nuestro viaje, para que se produzca el encuentro entre ciencia y socie-dad, hay que hacer un ejercicio de empatía, ponerse en el lugar del otro y responder a las preguntas que el ciudadano se haría. Pensar en el lector sobre todas las cosas. Es función del periodista científico, que pone la ciencia y la tecnología al alcance de todos, actuar como mediador entre ambos mundos, como intérprete, pero siempre al servicio del público, no del científico.Bien contada, la ciencia es apasionante. Y el mayor reto es trasladar esa pasión al público, conquistarle. Conseguir que se quede con nosotros hasta el final. Para eso hay que mirarle siempre a los ojos. Que sienta: “Parece que lo han hecho para mí”. Y sea verdad.

Un reto creativoNo hay una única ruta para divulgar. Al contrario. Podemos explorar nuevos caminos, abrir otras vías. Con creatividad y audacia.Menos amarrada a la actualidad que otros contenidos del periódico, en su particular carrera –más que de velocidad, de fondo-, la óptica di-vulgativa puede ser (si le dejan) muy libre e imaginativa. Así entendida, la divulgación aparece como un reto creativo, un territorio de libertad. Volvemos a encontrarnos con el mar.

Div

ulga

ción

Bambú o palma entrelazados para pintar el agua y el aire, sus peligros y sus caminos invisibles. Pintarlos para contar a otros cómo no perderse.Una ayuda para navegantes. Así veo esta tarde la divulgación de la ciencia después de tropezarme en el océano de Internet con la imagen de un mapa polinesio que alguien lanzó dentro de un tuit. Bambú, palma. Palabras, papel. Al comunicar la ciencia ponemos en manos del lector una brújula para andar por el mundo. Para que, luego, cada cual vaya donde quiera, con un pensamiento propio, con su mapa particular.Sigo en el mar, que proporciona disfrute, alimento y tragedia, que es siem-pre el mismo y siempre distinto. Cuando divulgamos la ciencia, miramos desde donde miran otros. Elegimos entre siete mares con muy distinta profundidad. Porque el científico explora las honduras de su campo,

Pilar Perla es historiadora del Arte de formación, aunque ejerce

el periodismo desde 1991. Coordina el suplemento de ciencia,

tecnología e innovación del periódico Heraldo de Aragón, Tercer

Milenio, y el blog De cero a ciencia. Es vicepresidenta de la

Asociación Española de Comunicación Científica. Coordina las

Jornadas de Divulgación Innovadora d+I.

No hay un único camino para divulgar. Aunque la motivación sea común: responder al derecho de la ciudadanía a tener una información científica de calidad, que le sirva para tomar mejores decisiones, con espíritu crítico, y para construir su propia opinión, y que le haga también partícipe de la cultura de su tiempo. La divulgación de autor, libre y creativa, da lugar a verdadera artesanía divulgativa. Múltiple y única.

Pilar Perla Mateo, coordinadora de Tercer Milenio en Heraldo de Aragón.

Los siete mares de la divulgación

Fibras vegetales entretejidas para reflejar las direcciones de las olas, las corrientes, los vientos, las fosas marinas... Conchas para marcar las islas.Antes de diseñar uno de sus mapas, los marinos polinesios se fijaban bien en el recorrido del sol, en las estrellas y las direcciones de los vientos, en el movimiento del océano, en las algas flotantes y las migraciones de las aves.

Palitos trenzados en las antiguas cartas de

navegación polinesias

Page 11: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

21 20

DIVUlGaCIóN - Los sIEtE marEs dE la dIVUlGaCIóN

Siendo únicos, buscando nuestra propia voz, lograremos también dife-renciarnos en un entorno comunicativo tan rico y competitivo como el actual, aportar algo a la buena información que ofrecen hoy las fuentes científicas y, finalmente, conquistar a la audiencia. Porque no queremos un mundo plano, donde una información no se distingue de otra. Ade-más, como periodistas científicos, tenemos que ofrecer algo más para ser elegidos. Por ejemplo, nada nos ata al orden establecido, así que podemos romper los límites de las asignaturas, los departamentos y hasta las facultades. Podemos ir de la vida a la ciencia, como en el reportaje ‘La voz única de los Stradivarius’, con el que la colaboradora de Tercer Milenio María Ares Espiñeira pretendía “divulgar distintos aspectos científicos -desde cómo crece un árbol y cómo el clima influye en su ritmo de crecimiento, hasta cómo suena un violín- a partir de un tema atractivo para todo el mundo, como es el secreto de los Stradivarius”. Este trabajo fue elegido el Mejor artículo periodístico de divulgación científica publicado durante el año 2004 en los Prismas Casa de las Ciencias a la Divulgación. Desde el suplemento Tercer Milenio de Heraldo de Aragón, hemos bus-cado la intersección: con las artes, con las letras, con el turismo y la publicidad, hasta con los refranes populares. Así, en un reportaje sobre biodiversidad literaria, Moby Dick, la ballena blanca; los tigres y cuca-rachas de Borges y Kafka; y el calamar gigante de 20.000 leguas de viaje submarino compartieron página.En el empeño de preguntarnos por qué, de entender, el tema más hu-milde puede proponer un recorrido apasionante. Basta tirar del hilo. Como cuando un lector envió una carta al director preguntándose de

dónde viene la borra (el tamo, las pelusas) que ensucia los suelos. De explicar cómo se forman las pelusas pasamos a contar cómo se libra de la suciedad una sala blanca, descubrimos que una atmósfera sin polvo nos dejaría sin nubes y sin lluvia, que hay científicos especializados en tecnología de polvos (pero de polvos industriales, cerámicos o metálicos), y que en la Luna y Marte el fino regolito complica las misiones espaciales. También la actualidad puede ponernos creativos. No hay una única forma de contarla. Para empezar, tomando las notas de prensa como puntos de partida, como el lugar desde el que explorar los alrededores de un tema, de modo que lo hagamos nuestro, que retratemos un con-texto, que busquemos la historia que hay detrás, los seres humanos que la protagonizan, que hallemos conexiones. Los científicos aragoneses que habían trabajado con Albert Fert y Oliver Smithies nos contaron, no los méritos científicos que les había conducido hasta el Premio Nobel, sino cómo son como personas, cómo enfocan su vocación. Un complemento que enriqueció la información ya emitida desde otras páginas del periódico. Y, por supuesto, la actualidad no científica también sirve para divulgar. Es otra manera de ir de la vida a la ciencia. ¿Recuerdan el caso del joven pirata somalí sometido a diversas pruebas para averiguar si mentía sobre su edad? Aprovechamos la ocasión para explicar cómo se averigua la edad de una persona viva, pero ampliamos el campo preguntándonos también cómo se calcula la edad de un árbol, de un pulpo o del Universo. El reportaje titulado ¿Cuántos años me echas? Las edades del hombre... y todo lo demás, de Elena Sanz, obtuvo el Prisma Casa de las Ciencias a la Divulgación al Mejor Artículo Publicado en 2009.

DIVUlGaCIóN - Los sIEtE marEs dE la dIVUlGaCIóN

Saber mirarEl enfoque siempre es básico. Recordemos a Joan Brossa cuando hablaba de “triunfar en saber mirar”. Pase lo que pase, somos dueños de nuestra mirada. En Tercer Milenio nos ha gustado mirar desde otro ángulo, a través de secciones como Un mundo sin, que imaginaba cómo sería un mundo sin algo que era, precisamente, lo que se ponía en valor al sacar su retrato en negativo. O como Ciencia soñada, que pedía a destacados especialistas, no que vaticinaran el futuro, sino que soñaran con el pro-greso deseado para su campo de estudio.¿Y por qué no experimentar, también nosotros? No estamos en el labo-ratorio pero podemos ensayar, probar. Más aún ahora, en diálogo con el público a través de las redes sociales. A veces, estos experimentos inte-ractivos adoptan forma de juego. Es el caso de concursos que impulsan la creatividad del lector, como ¿En qué lugar del Universo está?, con motivo del Año Internacional de la Astronomía, en colaboración con el Grupo Astronómico Silos. No sólo les pedíamos que acertaran qué se veía en la fotografía y qué sonda o telescopio la tomó, sino que escribieran un texto divulgativo que contuviera la respuesta. Uno de los textos ganadores fue el fantástico anuncio de la venta de un terrenito en la Luna. Durante el Año Internacional de la Química, Francisco Doménech planteó Enigmas moleculares mensuales. Fue curioso comprobar cómo la gente exigía un cierto grado de dificultad para disfrutar más desvelando la respuesta. “Gracias por hacernos pensar”, nos dicen ahora los participantes en el concurso Desafíos estadísticos. Hace unos años pusimos en marcha, de la mano de Miguel Barral, una sección llamada Experimenten, en homenaje a los experimentos men-tales; proponíamos a los lectores sencillos experimentos, ellos nos con-taban el resultado y, a la semana siguiente, les informábamos de las conclusiones de un estudio científico sobre el tema que justamente seguía pasos similares. El último reto es emocionar: igual que hay un lenguaje corporal que ha-bla por nosotros sin palabras, los textos cuentan lo que no está escrito, hablan del tacto de los dedos de la persona que los tecleó, de su mirada. Sabremos si el tema le mojó o llevaba puesto el impermeable profesional. No a todos los temas se aproxima uno igual, no siempre se acerca tanto, pero cuando ocurre, se nota; y el lector se acerca también.

Mares embravecidos y barcos valientesSi tuviéramos que trenzar con palitos el mapa polinesio de la divul-gación de la ciencia actual, deberíamos representar el empuje de los formatos digitales, las innumerables rutas tendidas por las redes socia-les, pero también las intensas presiones laborales y la larga galerna de la crisis. Muchas veces, ejercer con libertad y creatividad es un sueño inalcanzable o un esfuerzo heroico. Pero, conectadas por caminos marinos invisibles, encontraríamos islas valientes y barquitos aún más decididos. El temporal nos ha convertido en supervivientes, en organismos extremófilos sin otro remedio que adaptarse a las hostiles condiciones del entorno. Y es que los comunicadores de la ciencia divulgamos contra viento y marea. Nos embarcamos en mil y un formatos para, a toda vela, tratar de llevarnos con nosotros al público. Los formatos clásicos se renuevan y surgen con fuerza otros que se entrelazan con las artes, la magia, la escena; inventan la ciencia ciudadana; usan tecnologías como las apps o la realidad aumentada; crean, sugieren, impactan, se cuelan por las rendijas de la vida cotidiana... Las I Jornadas de Divulgación Innovadora

que se celebraron en Etopia, Zaragoza, el 18 y 19 de octubre (www.divul-gacioninnovadora.com) trataron de todo ello. Porque, igual que podemos saltar de una disciplina a otra al divulgar, nada nos impide contar la ciencia con las fórmulas más insospechadas. Por ejemplo, un haiku. Un formato corto pero depurado; nada que ver con el fast food informativo.

Son tres de los de haikus divulgativos, los brevísimos poemas japoneses de tres versos, salidos del Taller de Gimnasia Cerebral que organizamos desde la Asociación Española de Comunicación Científica en la Jornada Comunicar la Neurociencia celebrada en Zaragoza en octubre de 2012.Cerca de un centenar de asistentes participaron en la creación colectiva de un cerebro gigante de origami, coordinados por el Grupo Zaragoza-no de Papiroflexia. Después, se les lanzó el reto de componer un haiku comunicando los temas que acabábamos de experimentar en cerebro propio: aprender algo nuevo, poner a funcionar nuestra atención y nuestra memoria, nuestras habilidades espaciales y nuestra coordi-nación manual y visual, el trabajo en equipo, el placer de superar una dificultad, la motivación ante una nueva tarea...Aquel día divulgamos con papiroflexia y poesía. Esta actividad, incrus-tada en un programa intenso, con sus diálogos y presentaciones, enlaza con uno de los talleres que impartimos Elena Sanz, editora y gestora de redes sociales de MuyInteresante.es, y yo en el Campus Gutenberg 2012 (Universidad Pompeu Fabra, Barcelona). Un taller de poda divulgativa, de bonsáis de ciencia. Porque divulgar es, entre otras cosas, saber elegir de qué prescindimos hasta quedarnos con lo esencial para comunicar una idea. Y lo bueno y breve es también una semilla, con el mensaje de que puede crecer, de que hay más. El resultado de aquel taller fue múltiple: un pecha-kucha, un tuit, una cuña de radio, el guión de un anuncio, el texto de una camiseta...La divulgación puede ser un territorio de libertad, de creatividad, pero hay que poner a trabajar la libertad. Hacer, probar, intentar, luchar por que la artesanía divulgativa, que precisa unos medios y unos tiempos de elaboración de contenidos, tenga sitio en los mapas de la comunicación. En los marcos establecidos, cada vez está más difícil y, a la vez, en mar abierto, cada vez es más fácil.Todo para lanzar, con imaginación -ya sea desde un medio de comuni-cación, un blog, una fuente científica, un museo, una performance, un tuit...- ese sirimiri continuo que nombraba Igor Campillo, director de Euskampus, una lluvia suave de conceptos sencillos cayendo sobre la sociedad, para que la gente se encuentre con la ciencia aunque no la busque. Para que los mensajes calen.Razón e imaginación trazan el mapa cada día. La brújula siempre está dentro de uno mismo.

Papiroflexia para divulgar la neurociencia en cerebro propio. Patricia Medrano. aECC.

Soy lo que piensoy pienso lo que soy

todo me encaja.

Sin dopamina,lóbulo de origami

papel mojado.

Peajes grises,autopistas blancas,

todo colores.

Page 12: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

23 22

Xxxx xxxx xxx xxxxxDIVUlGaCIóN - Los sIEtE marEs dE la dIVUlGaCIóN

The Verios is the second generation of FEI’s leading XHR SEM family. It offers sub-nanometer resolution over the full 500 eV to 30 keV energy range with excellent materials contrast. The Verios’ extraordinary low-voltage performance provides extremely precise, surface-specific information that has been previously unavailable from other techniques.

High resolution SEM with excellent materials contrast to visualize the catalyst particles on top of each nanotube. Horizontal field width 14 µm. Sample courtesy of ICN.

Verios™ XHR SEMDiscover the world of Extreme High Resolution SEM

Learn more at FEI.com/Verios

“¿Puede la idea de un niño inspirar un proyecto de I+D?”. Esta fue la pregunta de partida de una experiencia atípica puesta en marcha hace cuatro años desde Tercer Milenio. Aquel ejercicio comunicativo puso ideas de niños, que habían imaginado cosas que no existen, en manos de un grupo de creativas y generosas ‘cabezas’ de tecnólogos, científicos, divulgadores y empresarios que pensaron en cómo hacer evolucionar esa idea-semilla, tratando de convertir una idea fantásti-ca en un producto real. El artículo que reflejó toda esta ‘marcianada’, Bienvenidos a un jardín de ideas, firmado por Javier Mateos y Pilar Perla, recibió el Premio Tecnalia de Periodismo sobre Investigación e Innovación Tecnológica. El jurado no premiaba un artículo que hablara sobre innovación, sino un trabajo innovador en sí mismo, un perro verde en las páginas de un periódico. Probamos algo nuevo, y la escoba-bota que imaginó y dibujó Mateo, un niño de 5 años del colegio de Siétamo (Huesca), es hoy el proyecto Drop, un robot de cuerpo blando encaminado a la extracción de recursos submarinos. ¿La divulgación impulsando la I+D+i? Com-probamos que, desde los medios de comunicación, no sólo podemos contar lo que pasa, sino que también podemos hacer que pasen cosas, cosas tan innovadoras como ésta.

Tercer Milenio, suplemento de ciencia, tecnología e innovación de Heraldo de Aragón, acaba de cumplir veinte años. En continuo y eterno aprendizaje, con buenos estímulos para seguir adelante: Pre-mio CSIC de Periodismo Científico 1998; Premio Especial del Jurado de los Prismas Casa de las Ciencias a la Divulgación en 2002; Mejor Artículo publicado en 2004, 2006 y 2009 en ese mismo certamen; en 2010, Premio Tecnalia y especial de Ciencia en Acción; en 2012, Premio Asebio/Genoma España de Comunicación y Divulgación de la Biotecnología. La longevidad, la mera supervivencia, es un mérito con explicación. A la voluntad de Heraldo de dedicar ocho páginas semanales a la divulgación de la ciencia, la tecnología y la innovación se unió, desde el primer momento, en 1993, el patrocinio del Gobierno de Aragón, siempre a través del Instituto Tecnológico de Aragón. No hemos es-tado solos. Tercer Milenio siempre ha sido una empresa colectiva, un suplemento hecho para los lectores pero con los científicos. Porque un suplemento no sólo está formado de palabras sino también de ideas brillantes, y los nuestros son colaboradores –divulgadores, cien-tíficos, periodistas– con luz propia. Ya se sabe: “Si quieres ir rápido, vete solo; pero si quieres ir lejos, vete acompañado”.

Veinte años de Tercer Milenio

Page 13: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

25 24

Inve

stig

ació

n ho

y

de que está organizado en bloques o sistemas anatómicos y funcionales (e.g., sistema visual, auditivo, etc.)-, estos módulos interactúan entre sí para integrar la información que se procesa por separado. No obstante, el estudio de la corteza cerebral es el tema preferido de muchos científicos teóricos y experimentalistas por su implicación directa en diversos aspec-tos del comportamiento de los mamíferos y porque es la estructura más ‘humana’ del sistema nervioso del ser humano. Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la ima-ginación y la capacidad de abstracción, permitiéndonos realizar tareas tan extraordinarias y sumamente complicadas y humanas como escribir una poesía o inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la extrema complejidad de los circuitos neuronales.

Javier de Felipe (Madrid, 1953), es profesor de investigación en el

Instituto Cajal (CsIC), especializado en el estudio micro-anatómico

del cerebro; doctor en Biología (Universidad Complutense). Dirige

el Proyecto Cajal Blue Brain desde 2009 en el Centro de Tecnología

Biomédica de la Universidad Politécnica de Madrid; y es

co-director de la División Molecular and Cellular Neuroscience del

Human Brain Project. Ha sido nombrado Honorary Member de la

American Association of Anatomists.

La información procedente del mundo que nos rodea es conducida hacia el cerebro a través de un complicado sistema sensorial consistente en receptores de diversas clases que actúan como transductores; estos transforman los estímulos físicos y químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y darles un significado. Existe una gran variedad de cerebros en el reino animal, pero como además el sistema sensorial es muy distinto entre las diferentes especies, la interpretación, necesariamente, no puede ser la misma; es decir, la interpretación del mundo externo es característica de cada especie.

Javier de Felipe, Instituto Cajal y Laboratorio Cajal de Circuitos Corticales.

Análisis del cerebro Innovación tecnológica y estrategia interdisciplinar

Asimismo, la inteligencia, creatividad, comunicación y relación entre los seres vivos ha alcanzado su máxima capacidad y refinamiento en el ser humano, y esto se debe, principalmente, al notable desarrollo y evolución del cerebro. Aunque el cerebro funciona de forma modular -en el sentido

Page 14: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

27 26

INVEstIGaCIóN Hoy - ANálIsIs dEl CErEbro: INNoVaCIóN tECNolóGICa y EstratEGIa INtErdIsCIPlINar INVEstIGaCIóN Hoy - ANálIsIs dEl CErEbro: INNoVaCIóN tECNolóGICa y EstratEGIa INtErdIsCIPlINar

A modo de ejemplo en relación con esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene en torno a 27.000 neu-ronas y 1.000 millones de conexiones sinápticas (Alonso-Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar de elementos al de cualquier otra región del sistema nervioso central. Del mismo modo, las propiedades fisiológicas, los neurotransmisores, receptores y otras moléculas que normalmente se encuentran en las neuronas corticales, no son características exclusivas de la corteza, sino que se encuentran también en diversas regiones del cerebro humano y en el de otras especies. De este modo, dos de las metas principales de la neurociencia son, por un lado, establecer cuál es el substrato neural que hace al hombre ser humano, y por otro, conocer el diseño estructural de los circuitos neuronales y cómo estos contribuyen a la organización funcional del cerebro. La neurociencia ha avanzado de un modo extraor-dinario en las últimas décadas, permitiendo el estudio del cerebro desde múltiples ángulos -genético, molecular, morfológico y fisiológico-, pero el salto de una disciplina a otra es gigantesco y está poco explorado. Por estos motivos han surgido recientemente ambiciosos proyectos a nivel mundial con objeto de aplicar nuevas tecnologías y aunar esfuerzos para abordar el estudio del cerebro de forma interdisciplinar. A continuación se debate el tema de las maquinas ‘pensantes’ y los proyectos Blue Brain, Cajal Blue Brain y Human Brain Project, como ejemplos de las grandes iniciativas internacionales para investigar el cerebro.

Máquinas ‘pensantes’A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar limitadas porque pensábamos que algunas facultades eran exclusivas del ser humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene relación con uno de los temas recurrentes desde los tiempos de René Descartes (1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre principio de Des-cartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-1954), considerado uno de los padres de la ciencia de la computación y precur-sor de la informática moderna, comienza su clásico artículo Computing Machinery and Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la siguiente cuestión: ¿pueden pensar las máqui-nas?”. Al final de su ensayo afirma: “Es de suponer que con el tiempo las máquinas podrán competir con los seres humanos en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis

años después, la sugerencia planteada por Turing se hizo realidad, y el superordenador Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos torneos de ajedrez de 6 partidas cada uno. El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una. Al año siguiente, después de que los programadores introdu-jesen mejoras en el superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató 3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por qué la idea de la inteligencia artificial provoca una reacción emo-cional negativa en muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno humano y el de la máquina? La neurociencia computacional está adquiriendo cada vez mayor pre-ponderancia. Parece evidente que para crear un cerebro artificial no es suficiente con replicar cada una de sus partes o sistemas modulares con sus conexiones y organización, sino que es necesario conocer cómo funcionan cada una de estas partes (tareas computacionales) por se-parado para aprender cómo se generan comportamientos complejos y cómo estos sistemas se integran en una unidad, que es el cerebro. De este modo, se han creado modelos para estudiar cómo se implementan las tareas computacionales a nivel de redes neuronales y cómo estas re-des pueden generar comportamientos complejos. Recientemente se ha creado un modelo altamente sofisticado denominado Spaun (acrónimo de Semantic Pointer Architecture Unified Network) que demuestra que diversas tareas, tanto cognitivas como no cognitivas, se pueden integrar en un solo modelo a gran escala (Eliasmith et al., 2012). Spaun está di-señado para responder a secuencias de imágenes visuales (tiene un ‘ojo’ para la entrada de datos) y se comunica con el experimentador a través del movimiento de un modelo físico de ‘brazo’ que escribe sus respues-tas (salida). El modelo incluye muchos aspectos de la neuroanatomía, neurofisiología y conducta psicológica, y está basado en la simulación de unos 2,5 millones de neuronas que se organizan en subsistemas que se asemejan a diferentes regiones del cerebro. Estos subsistemas están conectados mediante un cableado que proporciona la funcionalidad e integración de dichos subsistemas, y se basa en la simulación de las co-nexiones anatómicas generales de las regiones del cerebro -incluyendo diversas áreas corticales (como la corteza visual, corteza motora primaria y corteza prefrontal) y centros subcorticales, así como diversas regiones de los ganglios basales y el tálamo-. Además, Spaun no solamente integra

percepción, cognición y acción a través de varias tareas diferentes, sino que también puede cambiar de tarea y responder sin necesidad de que el experimentador modifique manualmente los parámetros. Un aspecto interesante es que la arquitectura anatómica y funcional que utiliza Spaun y otros modelos similares está basada en el cableado general entre regiones del cerebro tratadas a modo de ‘cajas negras’ (por ejemplo, el tálamo [caja A] conecta con la corteza visual [caja B]; o un área cortical X está más conectada con un área Z que el área Y). Es decir, únicamente considerando la relación entre las entradas y las salidas de dichas regiones, prescindiendo total o casi totalmente de su estructura interna. Este tipo de arquitectura se puede denominar black brain archi-tecture (arquitectura cerebral negra), y lo interesante es que, como se ha demostrado, es un modelo excelente para simular ciertas funciones del cerebro que hasta ahora era difícil de creer que pudieran ser realizadas con un ordenador. Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la contestación más satisfac-toria es que depende de la complejidad de la tarea y de la respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud como para construir un robot que nos imite, pero realizar las múltiples tareas complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos aspectos del

funcionamiento del cerebro, pero hasta que no conozcamos completa-mente el contenido de estas cajas negras y pasemos de la ‘arquitectura cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no podremos entender completamente el funcionamiento de cerebro. Otra característica importante es que el cerebro no puede interaccionar con el medio externo de forma determinista, ya que la información dis-ponible es incompleta y variable. Por el contrario, el cerebro tiene que realizar un cálculo probabilístico del estado del mundo y de los posibles resultados de sus respuestas de forma muy rápida, en cuestión de milise-gundos, como por ejemplo reconocer un cambio inesperado del entorno, detectar un peligro y decidir una acción. De este modo, el cerebro se podría definir como un instrumento matemático que utiliza algoritmos sumamente eficaces para interaccionar con el mundo externo y resolver problemas. Si descifráramos dichos algoritmos o trucos matemáticos y el sustrato biológico, ello tendría una aplicación inmediata en las ciencias computacionales, permitiendo la creación de una nueva generación de ordenadores y de programas informáticos basados en el diseño biológico del cerebro. Puesto que cada vez son menores las limitaciones tecnológi-cas y los científicos estamos mejor organizados para abordar el análisis del cerebro, ¿por qué no podría ser posible construir una corteza cerebral in silico (siliconcortex), es decir, una máquina computarizada basada en un modelo realista del diseño anatómico, fisiológico y molecular del circuito cortical? (de Felipe, 2010). Por estos y otros motivos han surgido →

Page 15: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

29 28

INVEstIGaCIóN Hoy - ANálIsIs dEl CErEbro: INNoVaCIóN tECNolóGICa y EstratEGIa INtErdIsCIPlINar INVEstIGaCIóN Hoy - ANálIsIs dEl CErEbro: INNoVaCIóN tECNolóGICa y EstratEGIa INtErdIsCIPlINar

Bibliografía

[1] Alonso-Nanclares, L., González-Soriano, J., Rodríguez J. R., de Felipe, J. (2008), Gender

Differences in Human Cortical Synaptic Density. Proc Natl Acad Sci, USA. 105:14615-14619.

[2] Benavides-Piccione, R., Fernaud-Espinosa, I., Robles, V., Yuste, R., de Felipe, J. (2013),

Age-based Comparison of Human Dendritic Spine Structure Using Complete Three-

dimensional Reconstructions. Cereb Cortex 23:1798-1810.

[3] De Felipe, J. (2010), From the Connectome to the Synaptome: An Epic Love History.

Science 330:1198-1201.

[4] Eliasmith, C., Stewart, T. C., Choo, X., Bekolay, T., DeWolf, T., Tang, Y., Rasmussen, D.

(2012), A Large-scale Model of the Functioning Brain. Science 338:1202-1205.

[5] Kandel, E. R., Markram, H., Matthews, P. M., Yuste, R., Koch, C. (2013), Neuroscience

Thinks Big (and Collaboratively). Nat Rev Neurosci 14:659-664.

[6] López-Cruz, P. L., Bielza, C., Larrañaga, P., Benavides-Piccione, R., de Felipe, J. (2011),

Models and Simulation of 3D Neuronal Dendritic Trees Using Bayesian Networks.

Neuroinformatics 9:347-369.

[7] Markram, H. (2006), The Blue Brain Project. Nat Rev Neurosci 7(2):153-160.

[8] Markram, H., Meier, K., Lippert, T., Grillner, S., Frackowiak, R., Dehaene, S., Knoll, A.,

Sompolinsky, H., Verstreken, K., de Felipe, J., Grant, S., Changeux, J. P., Saria, A. (2011),

Introducing the Human Brain Project. Procedia Computer Science 7:39–42.

[9] Morales, J., Alonso-Nanclares, L., Rodríguez, J. R., de Felipe, J., Rodríguez, A. y Merchán-

Pérez, A. (2011), ESPINA: A Tool for the Automated Segmentation and Counting of

Synapses in Large Stacks of Electron Microscopy Images. Front Neuroanat. 5:18.

[10] Turing, A. M. (1950), Computing Machinery and Intelligence. Mind 49:433-460.

Enlaces

Allen Institute (www.alleninstitute.org)

Blue Brain Project (www.bluebrain.epfl.ch)

Cajal Blue Brain (www.cajalbbp.cesvima.upm.es)

Human Brain Project (www.humanbrainproject.eu)

Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de que el proyecto logre sus objetivos finales, los modelos del ce-rebro de HBP revolucionarán la tecnología de la información, haciendo posible el diseño de ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia energética es extraordinaria, ya que gasta más o menos la misma energía que una bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000 ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kiloca-lorías/hora). Los modelos del cerebro nos ayudarán a entender las causas de las enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen Institute y los que están a punto de comenzar como HBP y Brain Activity Map (Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin duda se acelerarán de for-ma notable con el inicio de las nuevas grandes iniciativas. No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para el tratamiento de dichas dolencias.

Figura 1

a lo largo de los últimos años diversos proyectos a escala mundial, entre los que se incluyen Blue Brain, Cajal Blue Brain y Human Brain Project.

Proyectos Blue Brain, Cajal Blue Brain y Human Brain ProjectLos orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro utilizando el superordenador Blue Gene, de IBM. Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir de herramienta para futuras investigaciones en neurociencia y biomedicina. El proyecto no pretende fabricar un cerebro artificial, sino una representación del sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años, imponían su conversión en una iniciativa internacional. En este contexto surge en enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal de Circuitos Corticales (la-boratorio conjunto Universidad Politécnica de Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de Tecnología Bio-médica de dicha universidad). El proyecto Cajal Blue Brain ha permitido disponer de un equipo interdisciplinar de más de 40 investigadores. En términos generales, este proyecto se fundamenta en la idea que sostienen algunos científicos de que para comprender el funcionamiento del cere-bro es necesario obtener primero un mapa detallado de las conexiones sinápticas. Esta reconstrucción a gran escala de los circuitos neuronales

pronto será posible gracias a los recientes avances tecnológicos para la adquisición y procesamiento de datos experimentales. Aunque la comunidad científica está dividida en lo relativo a la viabilidad y validez de la hipótesis de partida, es importante hacer notar que ya surgieron objeciones similares cuando se propuso por primera vez el proyecto Genoma Humano, que ahora es considerado sin reservas como un logro científico de gran magnitud. Para el desarrollo del proyecto se cuenta con diversas herramientas y nuevos métodos computacionales que suponen un importante aporte tecnológico. Entre estas herramientas y métodos destacan el desarrollo de técnicas de inyección intracelular e integración y explotación de datos microanatómicos, la utilización del superordenador Magerit (Centro de Supercomputación y Visualización de Madrid, Universidad Politécnica de Madrid) y la nueva tecnología FIB/SEM (microscopio electrónico de doble haz), que permite estudiar a nivel ultraestructural grandes volúmenes de tejido de forma semiautomática, una tecnología esencial para descifrar el sinaptoma (Figura 1). El proyecto Blue Brain ha servido de base para proponer el proyecto de-nominado Human Brain Project (HBP; fecha de comienzo, octubre 2013), que es mucho más ambicioso y cuenta con la participación de un número mayor de laboratorios e instituciones de todo el mundo (Markram et al., 2011). El principal objetivo de HBP es obtener simulaciones detalladas, desde el punto de vista biológico, del cerebro humano, así como desa-rrollar tecnologías de supercomputación, modelización e informáticas para llevar a cabo dicha simulación. Estas simulaciones servirán de base para crear nuevas herramientas para el diagnóstico y tratamiento de enfermedades del cerebro, desarrollo de nuevas prótesis para personas con discapacidad, tecnologías informáticas de baja energía con una capacidad de ‘inteligencia’ similar a la del cerebro con el fin de crear, finalmente, una nueva generación de robots inteligentes.

Page 16: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Xxxx xxxx xxx xxxxx

31 30

INVEstIGaCIóN Hoy - CoNstrUyENdo El CErEbro…, BUIld It, aNd yoU UNdErstaNd It

simple: la organización de una estructura u objeto se basa principalmente en su función o propósito. Los neurobiólogos han cooptado este principio en los estudios que correlacionan la función del sistema nervioso dentro de los confines de la neuroanatomía. Por ejemplo, el análisis de la corteza visual primaria realizado por el recientemente fallecido David Hubel y su colega Torsten Wiesel sugirió aspectos únicos del procesamiento de la información visual que fueron posteriormente confirmados de forma experimental. Durante los últimos años, esta idea se ha retomado con fuerza, y en la actualidad una parte importante de los esfuerzos enca-minados a comprender la función de la corteza cerebral se basan en un conocimiento detallado de su estructura.La corteza cerebral recibe este nombre porque es una estructura lami-nar, organizada en capas. La mayor parte de la corteza cerebral tiene seis capas de espesor, cada una de las cuales contiene neuronas que no son idénticas, pero comparten muchas características comunes. La corteza se organiza además a lo largo de su espesor, puesto que las neuronas que se encuentran superpuestas en diferentes capas (es decir, que forman parte de una misma ‘columna’ virtual de tejido) suelen estar interconectadas entre sí. Las dimensiones de estas columnas varían de unas áreas corticales a otras, pero de forma general mantienen un nivel de organización similar. Es decir, que la corteza cerebral se podría entender como una sucesión de módulos (columnas corticales) que se repiten muchas veces en cada área de la corteza. Esto ha llevado a algu-nos científicos a sugerir -quizás de forma excesivamente optimista- que si comprendemos el funcionamiento de una columna de tejido cortical podríamos llegar a entender la actividad de la corteza cerebral en su conjunto. En la actualidad existen dos aproximaciones complementa-rias enfocadas a resolver la organización de la estructura cortical: una basada en el estudio de la caracterización de todas las conexiones que se establecen entre las neuronas de una columna de tejido cortical, y otra enfocada en la identificación de las reglas fundamentales que permiten su construcción, independientemente de que el resultado final pueda variar entre diferentes áreas corticales.

Modelar el cerebroNos encontramos inmersos en medio de un interesante debate mundial sobre si ha llegado el momento de poner en marcha un gran proyecto -la llamada big science- para modelar el funcionamiento de grandes áreas del cerebro como la corteza cerebral. Este tipo de proyecto se basa en el análisis masivo de la conectividad de las neuronas de una estructura concreta y, a partir de esta información, en la creación de modelos com-putacionales de su funcionamiento. La belleza de esta aproximación es su precisión y especificidad, pero es difícil imaginar que un modelo que implemente todos los detalles de la conectividad de todas las neuronas de una columna de tejido cortical sea excesivamente útil, ya que la cons-trucción de estos modelos requiere una enorme cantidad de supuestos sobre otros parámetros del circuito, y estos parámetros pueden variar en función de los diferentes estados en los que se encuentre el cerebro. Además, este tipo de proyectos han funcionado bien en el pasado cuando los objetivos estaban claramente definidos y la tecnología necesaria para su desarrollo era accesible a un gran número de laboratorios, como fue el caso del proyecto genoma humano. Esto no ocurre con las iniciativas que se han puesto en marcha recientemente en Europa (Human Brain Project) o en Estados Unidos (BRAIN initiative), donde el énfasis se encuentra, precisamente, en el desarrollo tecnológico y no tanto en la ciencia.

Inve

stig

ació

n ho

y

muchos giros y circunvoluciones. Algo así como lo que haríamos con una hoja de papel si quisiéramos meterla dentro de una bola de ping-pong. Gracias a ella somos capaces de percibir el mundo que nos rodea, razo-nar y tomar decisiones, pero desafortunadamente no tenemos una idea muy precisa de cómo funciona. La corteza cerebral es la estructura del cerebro que más rápidamente ha cambiado durante la evolución, pero su organización general es básicamente la misma en todos los mamíferos, desde los roedores a los primates. En ciencia se toman continuamente ideas prestadas de otros campos del conocimiento. Un ejemplo de este principio procede de la arquitectura contemporánea. El desarrollo del diseño arquitectónico moderno al co-mienzo del siglo XX trajo consigo el principio de que “la forma sigue a la función”, acuñado por el arquitecto americano Louis Sullivan. La idea es

Óscar Marín es profesor de investigación del Consejo Superior de

Investigaciones Científicas (CsIC) en el Instituto de Neurociencias

de Alicante, un centro mixto del CsIC y la Universidad Miguel

Hernández. Miembro fundador del Consejo Europeo de

Investigación (ErC), forma también parte del consejo editorial de

la revista Science, y ha recibido numerosos premios y distinciones,

como el Premio Banco Sabadell de Investigación Biomédica (2008)

y el Premio Rey Jaime I de Investigación Básica (2011).

La corteza cerebral de los humanos es probablemente la estructura biológica más compleja que conocemos, y entender cómo funciona es uno de los retos más apasionantes de la ciencia. En medio de un intenso debate sobre cómo abordar este problema, la neurobiología del desarrollo persigue entender cuáles son las reglas fundamentales que dan lugar a la formación de los circuitos cerebrales, y cómo las alteraciones en el desarrollo de estos circuitos originan enfermedades como el autismo y la esquizofrenia.

Óscar Marín, profesor de investigación del CsIC.

Construyendo el cerebro…, build it, and you understand it!

La corteza cerebral es el tejido nervioso que recubre la mayor parte de nuestro cerebro. Es más, es prácticamente lo único que vemos de nuestro cerebro si lo observamos desde fuera. Está compuesta por varios miles de millones de neuronas, y para caber dentro del cráneo se pliega formando

Figura 1. Una pareja de interneuronas corticales -células de Martinotti- en

una sección coronal de la corteza cerebral del ratón. Las interneuronas se

han modificado genéticamente para expresar una proteína fluorescente roja

(tdTomato), lo que permite la identificación de su morfología, incluyendo los

axones que se extienden hasta la superficie de la corteza.

Page 17: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

33 32

INVEstIGaCIóN Hoy - CoNstrUyENdo El CErEbro…, BUIld It, aNd yoU UNdErstaNd ItINVEstIGaCIóN Hoy - CoNstrUyENdo El CErEbro…, BUIld It, aNd yoU UNdErstaNd It

algo, este principio se ha convertido en algo así como un ‘mantra’ de la ingeniería, según el cual entender cómo se ensambla un circuito eléctrico, por ejemplo, nos puede ayudar a entender como funciona. ¿Qué sabemos del desarrollo de la corteza cerebral que pueda ofrecernos pistas sobre su funcionamiento?Desde un punto de vista reduccionista, la corteza cerebral contiene dos grandes tipos de neuronas, las células piramidales y las interneuronas. Las células piramidales constituyen aproximadamente el 80% de las neuronas en la corteza, son excitatorias, y se especializan en el pro-cesamiento y la transmisión de información entre diferentes regiones corticales y entre la corteza y otras regiones del cerebro. Por otra parte, las interneuronas forman un grupo muy heterogéneo de neuronas que contribuyen principalmente a redes locales, proporcionan la actividad inhibitoria necesaria para controlar la excitabilidad de las células piramidales, y dan lugar a las diferentes formas de oscilaciones sincro-nizadas que coordinan la actividad de muchas neuronas piramidales de forma simultánea.Los programas genéticos que se ponen en marcha durante el desarrollo permiten a los diferentes tipos de neuronas adquirir unas propiedades definidas, que van a influir notablemente en la función que desempeñan en los circuitos en los que participan. Por ejemplo, las células de Marti-notti -una clase de interneuronas- influyen principalmente en las zonas alejadas de las dendritas de las células piramidales porque sus axones se dirigen sistemáticamente hacia la superficie de la corteza (Figura 1), donde se encuentran sus dianas. En los últimos años se ha descubierto

En cualquier caso, ¿cómo podemos modelar redes neuronales con sufi-ciente nivel de detalle sin que el resultado sea tan difícil de comprender como los sistemas biológicos que los inspiran?Otra de las dudas que despiertan estos proyectos, basados en el estudio de la conectividad del cerebro adulto, es que difícilmente pueden reflejar los cambios adaptativos que ocurren de manera continua en el cerebro y a los que los neurocientíficos nos referimos de forma general como plasticidad neuronal. Además, aunque se afirma que el modelaje del funcionamiento de cerebro adulto podría ayudarnos a entender enferme-dades como el autismo o la esquizofrenia, hoy en día sabemos que estos desórdenes surgen como alteraciones del desarrollo normal del cerebro y que precisamente el cerebro de los pacientes con estas enfermedades es diferente al de las personas sanas entre otras cosas por los cambios adaptativos que se producen en respuesta a los problemas surgidos durante el desarrollo. En otras palabras, no solo tenemos que entender cómo es el cerebro adulto “patrón” (es decir, el de los individuos sanos), sino cómo se forma y que desviaciones del patrón normal de desarrollo dan dar lugar a enfermedades.

El cerebro deconstruidoRichard Feynman, Premio Nobel de Física que participó en el proyecto Manhattan y desarrolló la electrodinámica cuántica, dejó escrita a su muerte una frase en la pizarra de su despacho que resumía su forma de entender la ciencia: What I cannot create, I don’t understand. Aunque el célebre científico probablemente no se refería al acto físico de construir

que las células piramidales y las interneuronas, pese a formar parte de los mismos circuitos neuronales necesarios para la función de la corteza ce-rebral, siguen programas de desarrollo muy diferentes. De hecho, ambos tipos de neuronas se originan en regiones diferentes del tubo neural en desarrollo y, por lo tanto, tienen que seguir caminos distintos para alcan-zar su posición definitiva en la corteza cerebral. Algo así como un club de fútbol moderno, compuesto por jugadores locales, de la cantera (las células piramidales), y jugadores importados de otros países (las inter-neuronas), que confluyen en un mismo equipo en el que se coordinan y se complementan. No está nada claro qué tipo de ventaja evolutiva se deriva de este origen dual de la corteza cerebral, pero este patrón de formación se conserva en todos los vertebrados actuales, incluidos los humanos. Los programas genéticos que controlan el desarrollo de las células pira-midales son muy diferentes de los que se activan en las interneuronas. Este descubrimiento tiene importantes implicaciones biomédicas, puesto que es concebible que existan variaciones genéticas que afecten inde-pendientemente a cada una de estas poblaciones de neuronas. Es decir, que pueden existir enfermedades que se deban fundamentalmente a defectos en las células piramidales y no a las interneuronas, y viceversa. Por lo general, los defectos en el desarrollo de las células piramidales, que representan las tres cuartas partes de las neuronas de la corteza, tienen efectos devastadores y son incompatibles con la vida. Por el con-trario, las alteraciones en el desarrollo de las interneuronas dan lugar a modificaciones más sutiles de la estructura cortical, y se relacionan de forma creciente con enfermedades como el autismo o la esquizofrenia.

En la actualidad estamos intentando comprender cuáles son los meca-nismos que permiten que las células piramidales y las interneuronas confluyan en la corteza cerebral y formen circuitos específicos. Como no podría ser de otra forma, la corteza cerebral no contiene solo dos tipos de neuronas. En realidad, las células piramidales y las interneu-ronas constituyen dos grandes grupos de neuronas con caracterís-ticas comunes, pero que a su vez agrupan a muchos tipos celulares diferentes, con características y funciones únicas. Así que el problema de entender los mecanismos que controlan su desarrollo se multi-plica exponencialmente, ya que existen varias decenas de neuronas diferentes dentro de cada una de estas clases. El objetivo final, desde la óptica de la neurobiología del desarrollo, no es tanto saber cuáles son las conexiones exactas de cada tipo de neurona, sino comprender cuáles son las reglas básicas que regulan su establecimiento. Es decir, por qué unas neuronas se conectan con otras y no con cualquiera al azar, y hasta qué punto estas reglas son extrapolables a toda la corteza cerebral, y no sólo a una pequeña porción de la misma. Se ha descubierto que las interneuronas siguen a clases específicas de células piramidales hasta su posición definitiva. Existe un código de señales -todavía desconocidas- que permiten que las interneuronas se coloquen en la capa de la corteza que les corresponde en respuesta a las células piramidales que forman esa misma capa. En modelos animales en los que la distribución de las células piramidales se altera, las inter-neuronas también se distribuyen de manera anormal por la corteza. Aunque todavía es muy pronto para ser concluyente, parece razonable

Figura 2. Izquierda, una sección coronal del cerebro embrionario del ratón,

en donde se aprecia la zona donde nacen la mayor parte de las interneuronas

(mGE) y su destino final, la corteza (NCx), todavía en una fase muy incipiente

de su desarrollo. Derecha, un clon de interneuronas que ha nacido de un único

progenitor, situado en la zona recuadrada en la fotografía de la izquierda.

Las interneuronas se han marcado con un retrovirus que expresa la proteína

fluorescente verde (GfP), lo que permite su identificación y seguimiento. Las

interneuronas migran -se desplazan- a través del cerebro desde su origen en el

mGE hasta la corteza.

NCx

MGE

Figura 3. Izquierda, varias secciones coronales consecutivas de la corteza cerebral

del ratón adulto, en donde se observa como interneuronas que pertenecen al mismo

linaje (en este caso, dos linajes diferentes) tienden a adoptar una distribución espacial

similar, en lugar de distribuirse al azar. Derecha, imágen de mayor aumento de los

grupos de interneuronas recuadrados en las fotografías de la izquierda.

NCx

HC

Page 18: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

MEsa dE IdEas: CrECImIENto y ComPEtIVIdad | Entorno CIC

35 34

INVEstIGaCIóN Hoy - CoNstrUyENdo El CErEbro…, BUIld It, aNd yoU UNdErstaNd It

pensar que este código que permite relacionar interneuronas con células piramidales concretas, y que por lo tanto determina el patrón general de conectividad que subyace a los circuitos corticales, se extiende hasta tipos específicos de neuronas. Es decir, que las neuronas están pro-gramadas genéticamente para establecer conexiones con otros tipos concretos de neuronas, y que este proceso se determina muy temprano en el desarrollo. Esto no quiere decir que dicho patrón sea inalterable, ya que la experiencia, fundamentalmente durante periodos críticos del desarrollo, es capaz de influir en la formación de las conexiones corticales y en la función de los circuitos, tal y como mostraron tan elegantemente Hubel y Wiesel.En nuestro laboratorio hemos descubierto recientemente que la localiza-ción de las interneuronas en la corteza puede estar incluso determinada desde antes de que estas células nazcan. En experimentos de marcaje de linajes, en los que podemos identificar un número muy pequeño de células progenitoras en el cerebro embrionario (Figura 2), hemos obser-vado que las interneuronas que nacen de una misma célula progenitora tienden a ocupar una posición parecida en la corteza cerebral (Figura 3). Es decir, que las células “hermanas” comparten la información necesaria para llegar a su destino, y por esta razón tienden a comportarse de una forma similar. De forma metafórica sería como si todos los pájaros de un mismo nido estuviesen de alguna manera determinados para ocu-par una posición concreta de un cable del tendido eléctrico, que sería diferente del que ocuparían las aves procedentes de otro nido (Figura 4). Desde este punto de vista, y abusando de nuestra capacidad de redu-cir problemas complejos a cuestiones más simples, podríamos pensar que para entender cómo se organizan las interneuronas en la corteza cerebral bastaría con comprender cómo se ordenan sus progenitores. Lo que nos gustaría comprender ahora es si las similitudes que existen entre las interneuronas del mismo linaje van más allá de su localización en la corteza, y se extienden, por ejemplo, a sus conexiones. ¿Conectan las interneuronas que proceden de un mismo progenitor con el mismo conjunto de células piramidales? ¿Se activan o inhiben a la vez en res-puesta a un estímulo común? Éstas y otras preguntas forman parte de los proyectos de investigación que se desarrollan en estos momentos en nuestro laboratorio.

ConclusionesEl sistema nervioso del nematodo C. elegans contiene 302 neuronas, de las que conocemos tanto su desarrollo como cada una de las conexiones que efectúan. Sin embargo, todavía no sabemos cómo funciona el sistema nervioso de este pequeño gusano. Una de las cosas que hemos aprendido de este pequeño animal es que no todas las conexiones tienen el mismo peso para el desarrollo de una tarea concreta, es decir, que el mapa de conexiones de un circuito solo nos informa del rango de posibilidades existente. Esto quizás se deba a que la mayor parte de los circuitos neuro-nales codifican más de una posible solución. En otras palabras, las redes neuronales contienen muchos circuitos que pueden funcionar en para-lelo, en función de la demanda. Si esto es así, es posible que tengamos que aprender mucho más que las reglas que permiten la asociación de unas neuronas con otras para poder predecir su función. Los próximos años serán claves para comprender la organización de la corteza y su funcionamiento. Pienso que la identificación de los patrones generales que subyacen a la organización de la corteza cerebral se conseguirá fun-damentalmente gracias al estudio de su desarrollo.

Figura 4. Representación esquemática de la relación entre el origen de las

interneuronas y su distribución final en la corteza cerebral. Aquellas interneuronas

(aves) que nacen de un mismo progenitor (nido) terminan ocupando posiciones

similares en las capas de la corteza cerebral (cables).

En esta sección de cic Network incorporamos artículos sobre proyectos de carácter científico-tecnológico, proyectos que han derivado en idea o producto empresarial, o que impliquen novedades sustanciosas en el ámbito de la investigación científica. También se incluyen entrevistas de interés general y un apartado de noticias breves sobre novedades acontecidas en el marco de los Centros de Investigación Cooperativa (cic) y la Red Vasca de Ciencia, Tecnología e Innovación.

Mesa de Ideas sobre evaluación y financiación de la ciencia, con Nekane Balluerka, Enrique Castellón, Javier Echeverria y Félix Goñi. Modera: Jose M Mato.

Eduardo Anitua, Gorka Orive y Roberto Prado (BTI), Potencial del Plasma Rico en Factores de Crecimiento en la terapia con células madre.

Nerea Casado, Guiomar Hernández, David Mecerreyes (POLYMAT) y Michel Armand (CIC energiGUNE), Polímeros innovadores para almacenamiento de energía.

Jokin Lozares, Zigor Azpilgain y Iñaki Hurtado (Mondragon Unibertsitatea), Tixoconformado de aceros.

36

46

52

56

en Euskadi

Page 19: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Entorno CIC | MEsa dE IdEas: CrECImIENto y ComPEtIVIdad

37 36

MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs | Entorno CIC

años del compromiso del Gobierno Vasco con la investigación ha sido increíblemente posi-tiva. Ha permitido a centros investigadores planificarse tomar decisiones en el corto plazo, sabiendo cómo se presentaría el panorama en el futuro. Los resultados más inmediatos de esta política han sido una mejora espectacular de las instalaciones científicas, un flujo hacia el País Vasco de científicos provenientes de otros países y comunidades autónomas, un incremento notable del número y calidad de las publicaciones científicas. Y un aumento de los recursos económicos conseguidos a través de los programas más competitivos de investigación, tanto del Estado como europeos e internacionales. Pero con la revisión de los gastos que el Gobierno está llevando a cabo se ha abierto el debate sobre cómo hacer in-vestigación en tiempos de crisis y como fijar las líneas estratégicas de investigación funda-mental y tecnológica. También se ha reavivado el debate sobre cómo impulsar esa cadena que une los descubrimientos científicos con las tecnologías y los productos utilizados en el mundo real. Y sobre cuál debe ser el papel del Gobierno, de la red vasca de ciencia y tecnolo-gía y de la inversión privada en este proceso. Me gustaría conocer vuestra opinión sobre la evaluación científica y sobre cómo fijar las prioridades en investigación. Felix Goñi: ¿Cómo se debe hacer la evaluación científica? Es muy fácil y, a la vez muy difícil. Primero: se debe hacer sobre resultados. Yo creo que el resultado de la actividad científica son las publicaciones; básicamente, las publica-ciones. Digo que es muy fácil y muy difícil por-que la tienen que hacer expertos. No la tienen que hacer funcionarios. No la tienen que hacer oficinistas. Porque la evaluación no se puede hacer reduciendo a una cifra, como es el sueño de todo burócrata, la producción de un cien-tífico. Tienen que ser paneles de evaluadores expertos y eso se ha hecho siempre y no es tan difícil. Es muy fácil hacerlo: montar paneles de evaluadores expertos que digan, este señor lo hace bien, este regular y este mal. Eso en cuanto a la evaluación científica. Y, por otro lado, soy poco amigo de fijar prio-ridades temáticas en investigación. Claro, si uno partiera de un desierto absoluto, pues a lo mejor tendría que fijar prioridades; pero yo creo que en Euskadi, en España, en Europa, que parecerían los tres escenarios que tendrían sentido en nuestra conversación de hoy, ya hay cosas. Yo sería más bien partidario de estimular

métrico es la herramienta más eficaz de la que disponemos para la evaluación científica. Pero siempre y cuando lo utilicemos adecuadamen-te. ¿Por qué? Porque tiene muchas limitaciones. Por ejemplo, ¿por qué cita un autor? Muchas veces no sabemos qué proceso hay detrás de la citación. A veces, no citamos la fuente que real-mente consultamos. Yo he visto muchas citas indirectas. O citamos autores muy relevantes porque pensamos que eso le da más prestigio a nuestro trabajo. O no es posible comparar distintas disciplinas científicas en función del índice de impacto. Tenemos muchas limita-ciones en los índices bibliométricos. Aunque realmente es la herramienta más eficaz de la que disponemos. Otra cuestión que a mí me preocupa es la poca transparencia de los pro-cesos evaluadores, porque creo que hay poca interacción entre el evaluador y el evaluado. Muchas veces no sabemos en función de qué criterios nos han evaluado. Yo creo que eso es muy negativo. Yo desde luego pediría más inte-racción tanto ex ante como ex post. Respecto al establecimiento de prioridades, es-toy de acuerdo con Félix. Yo creo que es más re-levante fijar criterios que permitan priorizar en cualquier ámbito científico, como pueden ser, evidentemente, la calidad de los trabajos que se realizan, el interés social, la posibilidad de transferencia a medio o largo plazo, dependien-do en el área en la que nos movamos. Y no tanto fijar áreas relevantes de priorización. Creo que los investigadores deberíamos tener mucho que decir en cualquier tema de este tipo, pero a veces no se nos consulta lo suficiente. Por ejemplo, a través de órganos colegiados, como hacen en el mundo anglosajón. La Royal Society tiene bastante más voz que la que tenemos aquí los investigadores que, por lo menos en el área de ciencias sociales, andamos un poco como francotiradores. Y no estamos muy organizados para tener voz en este tipo de cuestiones. Javier Echeverria: Por una cuestión de manía filosófica, terminológica, prefiero hablar de la evaluación de la ciencia en lugar de evaluación científica. Igual que prefiero hablar -esto lo de-fiende Emilio Muñoz- de políticas de la ciencia en lugar de políticas científicas. Al poner políti-ca antes de ciencia, parece que la política pasa a ser científica y no siempre es así. Para mí el término ciencia tiene un prestigio, el término política menos, las cosas son como son, y por lo tanto voy a hablar de evaluación de la ciencia. En todo caso, señalo un detalle. Entiendo que cuando hablamos de evaluación nos referimos →

10 años que llevo trabajando en el País Vasco, la actividad científica ha cambiado de forma notable. Cuando llegué en octubre de 2003 comenzó a desplegarse principalmente en el Departamento de Industria del Gobierno Vas-co, ahora de Desarrollo Económico y Competi-tividad, una política renovada de investigación que en el área más próxima a mí, en el área biomédica, recibió el nombre de Biobasque 2010 y que iba a tener un importante impacto en numerosas áreas del conocimiento. Desde entonces ha habido casi una década de creci-miento sostenido del presupuesto de investi-gación. Pero más importante, ha habido una seguridad a largo plazo, debido a que los ho-rizontes de los proyectos de investigación son también a largo plazo. La certeza durante estos

Mesa de ideas con Nekane Balluerka, Enrique Castellón, Javier Echeverria y Félix Goñi. Modera: José M Mato.

son, Félix Goñi, director de la Unidad de Biofísi-ca CSIC-UPV/EHU y presidente de la Fundación Biofísica Bizkaia; Nekane Balluerka, catedráti-ca del área de Metodología de las Ciencias del Comportamiento de la UPV/EHU, y vicerrectora de Estudios de Posgrado y Relaciones Interna-cionales de la UPV/EHU –que interviene en su calidad de investigadora en el área de las cien-cias sociales-; Enrique Castellón, Presidente de la empresa Cross Road Biotech Inversiones Biotecnológicas, y, entre otros cargos ocupa-dos anteriormente, fue secretario de estado del Ministerio de Salud y Consumo (1996-2000); y Javier Echeverria, doctor en Filosofía (Univer-sidad de Madrid) y doctor en Ciencias y Huma-nidades (Universidad de Paris).José María Mato: Desde mi perspectiva, en los

Mes

a de

idea

s

La evaluación y la financiación de la ciencia en tiempos de crisis, es el tema de debate de esta nueva mesa redonda, que ha reunido a desta-cadas personas en el ámbito de la investigación científica, las humanidades y la empresa, como

Evaluación y financiación de la ciencia en tiempos de crisis

Nekane Balluerka, catedrática del Área de Metodología

de las Ciencias del Comportamiento de la UPV/EHU,

y vicerrectora de Estudios de Posgrado y Relaciones

Internacionales de la UPV/EHU; Enrique Castellón,

presidente de la empresa Cross Road Biotech Inversiones

Biotecnológicas, y, anteriormente, secretario de estado

del Ministerio de Salud y Consumo (1996-2000); Javier

Echeverria, doctor en Filosofía (Universidad de Madrid) y

doctor en Ciencias y Humanidades (Universidad de Paris)

y Félix Goñi, director de la Unidad de Biofísica CsIC-UPV/

EHU y presidente de la Fundación Biofísica Bizkaia.

lo que ya existe con un cierto nivel. Más que de una manera totalmente ex novo, optaría por decidir cuales son las áreas que queremos que se desarrollen. La razón es el carácter absoluta-mente transnacional de la ciencia. Nosotros no investigamos en aviónica porque queremos ser los únicos que fabrican aviones. Si investigamos en aviónica es porque queremos participar en la empresa global de fabricar aviones. Es decir, el interés de la investigación no es un interés de aplicación inmediata. Y por eso, en mi opinión, no tiene mucho sentido seleccionar áreas con-

cretas de investigación en un sistema que más o menos está todavía vivo. Hay que estimular lo que hay de bueno. Ver lo que hay mejorable. Y hay que tener la valentía de abandonar lo que sólo con mucho esfuerzo podría llegar a un cierto nivel. Nekane Balluerka: Respecto a la evaluación, es indiscutible que es fundamental evaluar lo que hacemos para que realmente los recursos estén bien invertidos. Pero aquí lo difícil, lo complica-do es qué criterios podemos utilizar para eva-luar en los distintos ámbitos científicos. Y aquí concuerdo con Félix en que el criterio biblio-

"En ningún país la universidad es el motor de la creación de empresas"

José M Mato

Page 20: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

39 38

MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs | Entorno CICEntorno CIC | MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs

las empresas son pymes. Algunas pymes, muy pocas, pueden invertir en I+D, pero es muy raro. Y esto sucede en buena parte de Europa. En Euskadi y en España los porcentajes son muy similares, alrededor del 95%. Entonces, y aquí viene la idea provocadora, en la medida en que las instituciones promueven la investigación recabando fondos públicos, y a veces también con contratos con empresas e instituciones pri-vadas, pienso que son las propias instituciones científicas las que deben promover la creación de empresas. Las propias instituciones científi-cas. Si hubiera empresas de capital riesgo, tanto mejor. Y ojalá que surjan las empresas de capi-tal riesgo en Euskadi. O que surjan cooperativas científicas, ¿por qué no? Ahí están los Centros de Investigación Cooperativa, que es una gran iniciativa, pero un grupo de investigadores se puede constituir como una cooperativa. No pasa nada. No pasa nada y estaría bien. Pero esto tendría que estar potenciado por las pro-pias instituciones. Me refiero a universidades, centros tecnológicos, CICs, BERCs, etcétera.¿Qué sucede? Que ya no basta la investigación. Para constituirse como una empresa, hay que contratar a gestores del conocimiento, expertos en marketing, expertos en comunicación de la ciencia, expertos en captación de recursos. Por concretar, hay que generar pequeñas empresas desde las universidades. Enrique Castellón: En relación con el papel de las empresas, efectivamente, nosotros somos tributarios. O mejor dicho, somos víctimas de una estructura empresarial de empresa peque-ña. Y en consecuencia, esto tiene mucho que ver con el papel de las empresas en el desarrollo tecnológico. Si nos comparamos con países que son grandes potencias empresariales nos da-mos cuenta dónde está la diferencia. E insisto, más en tiempo de crisis. Las pequeñas empresas tienen muchas otras preocupaciones que no son precisamente in-novar, porque no pueden vivir más que en el cortísimo plazo. Los gobiernos tienen un papel fundamental. En la primera fase, en la genera-ción de conocimiento, en dotar a las estructuras de investigación de los elementos básicos para poder funcionar. De desplegar infraestructuras adecuadas. De invertir en infraestructuras. Pero tienen que hacerlo con cabeza. Y evidentemente también en línea con una decisión estratégica, tomada adecuadamente, en nuevas áreas que el país, la región o la comunidad considere que son esenciales. Pues esa inversión constituye el pri-mer empujón para que esa área pueda despegar.

vas sobre otras. Al final, hemos de ser conscien-tes de que no todas las acciones se van a poder financiar. Esto es inevitable, esto es un dogma de la economía. No todo es financiable. Los recursos son limitados. Hay que contraponer la capacidad de financiación con el impacto de lo que se está evaluando. El otro día asistí a una mesa redonda sobre este tema y me di cuenta de que se están extendiendo como la espuma los cursos sobre el impacto de la investigación científica. Es decir, medir el impacto antes de decidir sobre la financiación. Pero el impacto es un término bastante subjetivo. ¿Impacto sobre qué? ¿Impacto en términos de factor impacto o importancia de las citaciones y las publica-ciones? ¿Impacto sobre la sociedad? ¿Impacto sobre la economía? ¿Impacto sobre el medio ambiente? O tal vez todo ello debidamente ponderado.Por tanto, debe hacerse en base a un plan prees-tablecido y hecho con todas las garantías. Ne-kane ha hecho mención a una forma de tomar decisiones estratégicas que yo comparto, que es el ejemplo de la Royal Society. Hay otros, pero me parece que ese es un buen ejemplo de cómo establecer prioridades, que luego en cascada descienden hasta los criterios que deben mane-jarse en los estudios y los proyectos científicos.José María Mato: ¿Cuál puede ser, en vuestra opinión, el papel de las instituciones públicas, gobiernos regionales, nacionales, internaciona-les, y de las propias empresas en este proceso? Javier Echeverria: Voy a hacer una intervención un poquito provocadora, en el buen sentido de la palabra. Lo primero que diría al respecto es que las empresas deben ir teniendo un papel cada vez mayor a la hora de promover la cien-cia, incluida por supuesto la investigación cien-tífica, que es el motor de la ciencia, sin duda. Es cierto que en España la I+D se ha desarrollado mucho y positivamente en los últimos años. Sobre todo en índice de impactos y en produc-ción científica, menos en otros aspectos de la actividad científica, pero siempre ha dependido fundamentalmente de las subvenciones públi-cas. En este sentido, superar el 50% de inversión privada en I+D es el objetivo y creo que todavía no se ha logrado en España. En EE.UU. en el año 89, estaban en el 70%. Luego hay que analizar los datos. Es decir, son complejos los datos de inversión medio pública, etc. Pero pasar del 50% en inversión privada de la I+D sería el ob-jetivo de las instituciones y de las empresas conjuntamente. Bien, segunda idea. Esto es muy difícil de lograr en un país donde el 95% de

Enrique Castellón: Esta pregunta, Félix, a mi me parece difícil, igual que las demás. Todas son muy difíciles, especialmente por la con-sideración que lleva esta mesa en el título de, “en tiempo de crisis”. Eso hace la pregunta aún más complicada. A la hora de hablar de la eva-luación científica, deberíamos responder un poco a las clásicas preguntas. ¿Qué? ¿Para qué? ¿Quién? ¿Cómo? ¿Por qué? Y la respuesta a estas cuestiones tiene mucho que ver con las prioridades que se establezcan. Es decir, la evaluación científica evidentemente

no se haría igual en todas las circunstancias ni en todas las geografías. Y el hecho de que estemos en una situación de crisis es relevante, porque el planteamiento de qué se evalúa pue-de cambiar. Uno entendería, lógicamente, que cualquier evaluación tiene que hacer énfasis en la calidad, resultados, el rigor…, pero es verdad que si uno fija como prioridad de la investi-gación en un momento determinado reforzar las potencialidades de un entorno concreto, entonces, evidentemente, ya están surgiendo unos criterios que discriminan unas alternati-

tiene una responsabilidad. Antes comentá-bamos el papel de la cultura. Aquí tenemos un problema cultural serio, cuya solución no puede improvisarse, no se puede corregir de la noche a la mañana. Que podría enunciarse como que la innovación es cosa del Gobierno y que las empresas están en otra batalla, que es esencialmente comercial. Y por tanto, cuesta conseguir que se impliquen, cuesta conseguir que se apliquen a la innovación tecnológica, no digamos a la I+D.Nekane Balluerka: Yo estoy de acuerdo, Enri-que, en que quizá las empresas no se impliquen

A partir de ahí tiene que hacer un esfuerzo para intentar atraer cuantos más recursos privados sea posible. Efectivamente, lo que distingue a los países avanzados es el ratio entre la in-versión privada y la inversión pública. Aquí fallamos. Si se considera adecuado un tercio-dos tercios público-privado, aquí estamos un tercio-dos tercios privado-público. Y bajando en la parte privada. En consecuencia, los go-biernos tienen un papel muy importante a la hora de estimular esa participación privada. Pero evidentemente el sector privado también

lo suficiente. Pero creo que los investigadores tampoco les damos mecanismos para que eva-lúen lo que estamos haciendo. Ni a las empre-sas, ni a la sociedad civil se le dan mecanismos para que nos digan si lo estamos haciendo bien. Yo considero que el problema es recíproco y que se debe a una falta de comunicación. De cualquier forma, a mí en esta pregunta me han faltado dos agentes. Aunque estamos hablando de los gobiernos y de las empresas, también tendríamos que hablar de la universidad y de los centros tecnológicos. Porque entiendo que esa cuádruple hélice de la que tanto se habla en la estrategia RIS-3 y Horizonte 2020, la vincula-ción entre estos cuatro sectores es fundamental para que la política científica, ese término que a Javier no le gusta, nos permita estar dotados adecuadamente y de una forma estable. Claro ¿qué ocurre? Que a veces se hacen pla-nes de ciencia, tecnología e innovación sin una base lo suficientemente sólida, lo que hace que todos estemos caminando en una dirección durante varios años. Y eso está condicionando el futuro del país. Y yo en este sentido creo que sin esa comunicación desde luego no vamos a ninguna parte. Estoy de acuerdo con Javier en que es una ta-rea muy difícil para las pymes. Pero yo creo que aquí el Gobierno tiene un papel mucho más importante del que viene haciendo hasta ahora. Incentivar, el Gobierno puede incenti-var. Por ejemplo, el Gobierno puede poner un dinero determinado para aquellas empresas que contraten a doctores o para acciones simi-lares; yo creo que pueden hacer que realmente la empresa vaya tomando conciencia de la re-levancia que tienen la ciencia y la tecnología. Y nos vayan facilitando también la entrada de los investigadores en las empresas. En defini-tiva, esta falta de comunicación, esta falta de vinculación, nos ha llevado a la situación en la que estamos. Y yo creo que si no conseguimos romper esto, no vamos a avanzar. Felix Goñi: Como a veces me suele ocurrir, yo estoy de acuerdo con Javier pero por una vía diametralmente opuesta. Eso de los ‘extreme-ños se tocan’, que diría Muñoz Seca. En general, él habla de investigación y se refiere a investiga-ción básica, aplicada y desarrollo, y todas estas cosas. Y yo cuando hablo de investigación soy muy restrictivo. Y hablo de investigación básica. Y por eso cuando yo hablo de evaluación, digo evaluación de resultados, publicaciones, y él habla de otras muchas cosas. Y creo que los dos tenemos razón, porque estamos hablando de

a una evaluación realizada desde las ciencias sociales. El proceso de evaluación de la ciencia es un proceso típico de ciencias sociales, en los cuales intervienen científicos y todo tipo de gente, pero no se hace en un laboratorio sino que se hace o bien en evaluación ciega, digamos anónima, cada cual en su despacho; pero sobre todo en las comisiones de evaluación, donde se intercambian criterios, etc., y por lo tanto es un escenario interesante. En segundo lugar, no sólo hay que evaluar la investigación científica. Yo soy partidario de evaluar las actividades cien-tíficas en general. La investigación sin duda es fundamental, importantísima. Pero hay otras muchas actividades en la ciencia. La ciencia es muy compleja, pasa por múltiples fases. Se suele evaluar la fase de formación. Digamos, las licenciaturas o la formación como investigador. También se suele evaluar la docencia. Está muy bien que se haga. Hay que valorar asimismo la transferencia de conocimiento. La investiga-ción, desde luego. Pero si la investigación no genera transferencia de conocimiento, puede haber distorsiones. La economía de un país o una región puede ser menos competitiva que otra, por muy buena investigación que se haga -la paradoja europea-, muy buena investigación, pero muy poca transferencia de conocimien-to. Por tanto hay que evaluar a un grupo de in-vestigación, a una institución, no sólo porque investigue…, si no por la transferencia de co-nocimiento que desarrolla. Los investigadores transfieren conocimiento a las empresas pero también a las instituciones, a partidos políticos, a parlamentarios, etc. Por otra parte, hay que evaluar más cosas. Hay que evaluar la gestión del conocimiento, que no es lo mismo que la transferencia. Un buen abogado ha de saber ges-tionar las patentes. Muchas veces, los resultados del conocimiento científico se plasman, por ejemplo, en forma de patentes. Hay que evaluar la comunicación y difusión del conocimiento a la sociedad. Porque de eso depende la imagen social que tiene la ciencia. Hay que evaluar la propia evaluación de los evaluadores, pero sobre esto no voy a entrar. Y hay que evaluar la inver-sión. Por lo tanto, un grupo investigador debe cumplir baremos mínimos en un 80% de estos criterios. Y por lo tanto no basta con que tenga muy buenos índices de impacto, sino que en el ámbito de la inversión, por ejemplo, debe mos-trar una capacidad de captación de recursos. Financieros, humanos, capacidad de conectar con socios proyectos conjuntos, etc. Todo lo que se llama capacidad de captar recursos.

" La crisis nos va a ayudar a reposicionarnos. Tenemos que seguir trabajando en aquello en lo que realmente somos potentes, en lo que tenemos una trayectoria consolidada"

Nekane Balluerka

"Hay que estimular lo que hay de bueno. Ver lo que hay mejorable. Y hay que tener la valentía de abandonar lo que solo con mucho esfuerzo podría llegar a un cierto nivel"

Felix Goñi

Page 21: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

41 40

captar recursos al ámbito internacional, como ha comentado Enrique. Aunque sin olvidar que somos un pueblo que tiene un contexto deter-minado y por tanto en áreas como humanida-des, por ejemplo, yo entiendo que no podemos dejar de investigar, por ejemplo, en materias como la lengua y la cultura vasca.A parte de esto, yo creo que lo que tenemos que potenciar son acciones transversales que quizá hasta ahora no hemos potenciado de for-ma suficiente. ¿Cuáles? Yo veo muy relevante impulsar la cultura científica, de la que hemos hablado anteriormente. Hay que impregnar a todos los jóvenes de la importancia de la cien-cia. Yo creo que es el momento, porque si no, no avanzaremos. Y otro elemento fundamental es la internacio-nalización, aunque trabajemos temas locales, pero que los trabajemos de cara al exterior. Y como también ha dicho Enrique, estoy muy de acuerdo con su discurso, yo creo que las siner-gias son fundamentales. Yo, por ejemplo, soy metodóloga, trabajo en un área muy transver-sal, el análisis de datos. Y este año para captar recursos nos hemos aliado con médicos, con psiquiatras, y estamos trabajando en temas vin-culados con la esquizofrenia. Estamos haciendo un proyecto con la OMS y estamos buscando si-nergias y cooperación, porque entendemos que es la única forma de captar recursos. Y también de que lo que hacemos tenga un interés social y una aplicabilidad a medio plazo. Y desde luego tengo también muy claro que toda reorienta-ción, todo cambio de orientación, tiene que estar basado previamente en una evaluación. Si no somos capaces de evaluar lo que hemos hecho hasta ahora, difícilmente podremos reorientar y reposicionar nuestras nuevas acciones. Felix Goñi: Esta es la pregunta del millón. ¿Qué debe hacer el País Vasco? Yo estoy de acuerdo, sin que sirva de precedente, con lo que han dicho el resto de los contertulios. Sólo añadi-ría un pequeño punto, como advertencia a los gestores de la ciencia. El proceso no es lineal, el proceso es bien sabido, pero parece que siempre hay que recordarlo. No es un proceso como alguien ha pensado en algún momento en el que primero es la ciencia básica, luego es ciencia aplicada y luego es desarrollo, etcétera. Estamos llenos de ejemplos y de contraejem-plos de que eso no es así. De que de la ciencia básica se pasa directamente a la aplicación, que una aplicación nos descubre un principio básico en el que nadie había pensado, etcétera.

sobrevivirán porque hay grupos muy potentes y muy competitivos, pero son poquitos. Dicho esto, diríamos que la salida de la comunidad científica vasca, en el sentido técnico, pasa por la capacidad de innovar. Que tiene que ver con lo que decía anteriormente, con su capacidad de generar empresas. Y de hacer investigación, investigación de calidad, pero insertarse tam-bién en el tejido productivo desde ellos mismos, por su propia iniciativa. Eso ya sucede, es muy cierto que está sucediendo, pero no pasa nada si además de que suceda, por propia iniciativa, se incentiva. Para evaluar un grupo de investigación se in-troduce otro indicador que es la capacidad de generación de empresas. Serían 10 puntos so-bre cien, no me voy a poner maximalista. Pero si uno capta dinero y además genera empre-sas y además forma doctores y además estos encuentran una salida profesional y además tienen buen prestigio social y además transfie-ren conocimiento, pues entonces el baremo de evaluación -me estoy refiriendo a los grupos consolidados o de alto rendimiento-, sería más plural. Y tendríamos una evaluación no sé si de la investigación científica, no de la investiga-ción básica, pero sí en cambio que dé respuesta a la crisis. ¡Como la crisis es de inversión! En este momento, mientras siga la crisis, prioriza-ría transitoriamente la capacidad de captación de recursos económicos. Aquel que es capaz… se le premia. Y al que consigue recursos eco-nómicos, externos bien entendido, no estoy hablando de nichos de financiación locales ni regionales, todo fuera de Euskadi, capacidad de captación, a este se le premia. Enrique Castellón: Yo no soy quién para arro-garme ninguna opinión de peso sobre la situa-ción de la comunidad científica vasca, porque no estoy en esta comunidad científica vasca a estos efectos. Pero mucho me extrañaría que no tuviese que reorientar su futuro. Cuando veníamos para aquí vi un grafiti en una valla que decía algo así como “El futuro ya no es lo que era”. En ese sentido, para volver a tener fu-turo, toca cambiar. ¿Y de qué manera? A mí me parece que, básicamente, teniendo en cuenta la limitación de recursos, y quizá sin que hubiera tanta limitación de recursos, es fundamental incrementar el valor de la colaboración, de la cooperación de grupos, de la colaboración con empresas, de la búsqueda de sinergias entre unos y otros. Romper de alguna manera las fronteras de los grupos y las instituciones y buscar de esta mane-

ra una salida. Y por supuesto, en la búsqueda de recursos y en la cooperación a nivel internacio-nal. Hay que salir fuera, hay que dejarse arrastrar por países que ya tienen mayor tradición, que han dado este paso que lo integra todo, la ciencia básica, la ciencia aplicada y, en sentido inverso también, de las necesidades a la invención y el desarrollo tecnológico. Yo creo que la forma de reorientar el futuro es abriendo fronteras, supe-rando límites, buscando la cooperación en todos los niveles. Entre disciplinas, entre grupos, con empresas y a nivel internacional.

MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs | Entorno CICEntorno CIC | MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs

dos cosas distintas. Y también cuando habla-mos de instituciones públicas y de las propias empresas, claro como yo estoy en el caso del científico puro, creo que más allá de la cuestión de los porcentajes, aquí primero hay que distin-guir; estamos mal en los porcentajes de privado y público. Pero estamos peor en la suma total. Esto es lo importante. Y luego en relación con lo que debe contribuir, pues yo desde el punto de vista del investiga-dor básico, diría que las instituciones públicas deben contribuir a la investigación básica. Los empresarios listos les dicen a las instituciones públicas, “usted hágame la investigación básica, que yo ya me encargaré de aplicarla”. Claro es que aquí la gran mayoría de los empresarios están absolutamente incapacitados para hablar de investigación porque no tienen la formación mínimamente necesaria. Y también conectan-do con lo que decía Javier de que tienen que salir empresas de las instituciones de inves-tigación, es que ya están saliendo. Quizá no tantas como quisiéramos, pero en los últimos diez años, ese periodo de diez años que men-cionaba José María al principio, creo que ha ocurrido una cosa bastante bonita, en nuestra experiencia. Que un porcentaje de alrededor del 50% de nuestros doctores se ha ido a trabajar en empresas que no tienen nada que ver con la investigación básica en materia de membranas biológicas. Es decir, que las empresas, las em-presas listas, ya se han dado cuenta que durante el doctorado, no se aprende más bioquímica o biofísica, sino que se aprende a resolver proble-mas. Y el otro fenómeno muy bonito es que hay jóvenes colegas que dicen: “me voy a montar mi empresa”. Y bueno, a trancas y barrancas, unos con más éxito que otros, y unos con empresas más innovadoras y otros con más rutinarias, pero van saliendo. Es decir, esas cosas están ocurriendo. Esto lo digo porque en realidad va en contra… yo he empezado por distinguir entre investigación básica y aplicada y acabo diciendo precisamente que en la biología mo-lecular básica, aplicada, desarrollo, etcétera, todo forma un nudo inextricable. Por eso estoy de acuerdo con Javier estando básicamente en desacuerdo. José María Mato: Es verdad que el 90% de las empresas son pymes, pero esto también suce-de en la mayor parte de los países en Europa, en Alemania, en Holanda. Aquí las pymes son muy pequeñitas y allí tienden a ser más gran-des. Sí influye, pero no es muy distinto a otros sitios. Yo creo que hay un aspecto importante

que se ha comentado, que es la cultura. La cultura, que comentaba Félix, de si el futuro de un investigador, que ha hecho la tesis y el post-doc, es seguir en el sistema público, porque esa era la cultura predominante. Y lo bueno es que empiecen a surgir casos. Que opten por montar una empresa, buscar socios, inversores. La universidad, como motor de la creación de empresas, tiene que hacerlo, pero en ningún país es el motor de la creación de empresas. El sector que mueve las empresas sigue siendo las pymes, las personas jóvenes

ciencia, punto primero. Los que somos filósofos de la matemática, sabemos que a lo largo de la historia ha habido grandes crisis, la crisis de fundamentos, la crisis del cálculo infinitesi-mal, la crisis de los pitagóricos que dio origen a las matemáticas, ni más ni menos. También otras ciencias han conocido grandes crisis a lo largo de la historia. Pero han sido crisis episte-mológicas, de cambio de paradigma. No es el caso, en la ciencia actual. La ciencia funciona perfectamente bien; hay mucho que avanzar y se están haciendo grandes descubrimientos pero no estamos en una época de crisis desde el punto de vista epistemológico. No es una crisis de identidad, sino de crecimiento.La crisis es de inversión, ante todo, con lo cual es cierto que ahora los científicos se han dado cuenta, de que la big science o las industrias de la ciencia son muy costosas, y también la propia investigación científica. Se han dado cuenta de que la inversión, la componente económica de la ciencia, que antes se la daba solucionada el mecenas o el padre Estado, ahora de repente, claro, como el padre Estado no recauda o la ma-dre Comunidad Autónoma tampoco recauda suficientemente, entonces tiene que restringir gastos y entramos en crisis, ¿por qué? Porque no tenemos dinero suficiente. Con lo cual es una crisis de una de las facetas de la actividad científica. No es una crisis de inves-tigación, sino de recursos para la investigación y sobre todo de recursos económicos, porque de recursos humanos se está muy bien. Se dis-pone de recursos humanos altamente cualifi-cados. Hecha esta precisión, entiendo que la crisis para la Comunidad Autónoma Vasca, y me refiero exclusivamente a Euskadi, es una oportunidad. Es una oportunidad importan-tísima. Para liberarse de mucho lastre que se ha generado. Aquí se ha hecho una política en general acertada y exitosa pero a mi me resulta increíble que haya más de 200 grupos de alto rendimiento, de excelencia o consolidados. Yo eso no me lo puedo creer, que haya tantísima gente de excelencia, a los cuales se les reparte el dinero como ‘café para todos’. Hay un problema de evaluación que por lo que sea se ha abierto demasiado la manga y hay que ser restrictivo. Efectivamente, hay que evaluar. Hay que ser un poquito duro y entonces la crisis es una oportunidad. Y algunos grupos caerán. Y no pasa nada porque caigan algunos grupos. En particular los filósofos, caeremos muchos, con lo cual mis colegas de filosofía me odiarán. Al-gunos no caerán, algunos grupos de filosofía

con dinamismo, con ideas y que se arriesgan. Esa cultura, según mi experiencia, que en el País Vasco hay mucho más que en otras re-giones. Cuando yo llegué había 20 empresas que se asociasen a la tecnología y ahora hay cerca de 100. O sea que sí, se está moviendo. Probablemente no se mueve a la velocidad que debía y además en tiempos de crisis éstas son muy frágiles.¿En la actual situación de crisis económica, la comunidad científica vasca debe reorientar su futuro?¿Y si es así, de qué forma?Javier Echeverria: Diría que no hay crisis de la

"Hay que contraponer la capacidad de financiación con el impacto de lo que se está evaluando"

Enrique Castellon

"Hay que evaluar a un grupo de investigación, a una institución, no solo porque investigue…, si no por la transferencia de conocimiento que desarrolle"

Javier Echeverria

Nekane Balluerka: Yo creo que la crisis nos va a ayudar a reposicionarnos. Está claro que, en gran parte, ese reposicionamiento nos vendrá impulsado desde fuera porque la financiación va a venir a partir de los diferentes planes de ciencia, tecnología e innovación, las estrate-gias que he comentado anteriormente… Por lo tanto estamos condicionados siempre por las directrices que marca la fuente de finan-ciación. Ahora bien, yo creo que tenemos que seguir trabajando en aquello en lo que real-mente somos potentes, en lo que tenemos una trayectoria consolidada, pero siempre yendo a

Page 22: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

43 42

MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs | Entorno CICEntorno CIC | MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs

con un 53% de la producción. También están los CIC, los BERC e Ikerbasque con un porcentaje importante… Y hemos ganado tres posiciones en publicaciones y bastantes más en patentes. Yo no soy autocomplaciente, ni mucho menos, todavía estamos muy lejos de muchos países europeos en el tema de las patentes. Y a mi me parece un tema fundamental, sobre todo con el tejido empresarial que tenemos aquí. Pero yo creo que hemos avanzado posiciones, que vamos por el buen camino. Y en cuanto a temáticas, aunque seguimos siendo bastan-te buenos en las temáticas de física, química, ciencia de materiales, biología molecular, medi-cina, ingeniería…, también hemos avanzado en ciencias sociales. De hecho, empresa, psicología y alguna otra área de las ciencias sociales se están colocando ya en posiciones respetadas por la comunidad científica internacional. En ese sentido, creo que gozamos de una relativa buena salud.Por otra parte, sí quiero provocar un poco. Me vas a permitir José María salirme de la temáti-

ser en convocatorias competitivas, siempre. Y para terminar, la idea de las evaluaciones. Creo que esto ha salido desde varias perspec-tivas, pero yo diría que las evaluaciones han de ser externas. Incluidas las evaluaciones en cuestiones de bilingüismo y en cuestiones de filología, etcétera. Hoy es el día que el Parla-mento Europeo ha premiado a Euskaltzaindia por la labor de defensa de la lengua vasca, que es un premio muy bien ganado, y por lo tan-to hay que seguir en esa vía porque además prestigia a Euskadi en Europa. Las políticas de bilingüismo han sido altamente exitosas, más que en otras comunidades autónomas españo-las por cierto. Cuando las cosas se han hecho bien hay que decirlo, pero insisto aún así sobre la necesidad de evaluar externamente, de que se ha de internacionalizar…, también en lo que respecta a las tecnologías de la lengua vasca. La lengua vasca es puntera desde el punto de vista tecnológico en reconocimiento de voz, en traducción automática, etc.. Por lo tanto, eso hay que internacionalizarlo y liderar en Europa.

No hay porque ser tímidos ni tener complejos al respecto. Caben acciones puntuales donde hay niveles de excelencia muy grandes, pero hay otros sec-tores en donde la gente se ha dejado llevar por lo grato que es el país, por lo bien que se vive, por lo bonito que es el paisaje y por la cantidad de dinero que se obtenía fácilmente. Y ahí es donde hay que actuar digamos con una cierta energía. Nekane Balluerka: Totalmente de acuerdo con Javier. Yo no creo que la temática tenga que estar reñida con la capacidad de captación de recursos, no son dos cuestiones contrapues-tas. Yo eso lo tengo claro. Para responder a la pregunta que se nos ha formulado traería a colación los datos del último informe de Iker-basque, en el que se ha visto que ya hemos su-perado la barrera de 4.000 artículos indexados. Además, los hemos duplicado desde el 2004, algo que tú también comentabas, José María, en la introducción. Por otra parte la Universidad del País Vasco es el principal agente científico,

ces, tanto en la UPV/EHU, como en el conjunto del sistema vasco de ciencia y tecnología han sido enormes. Ahora, eso no obsta, para que uno pueda, entre comillas, morir de éxito. La crisis es una oportunidad precisamente para corregir defectos estructurales, que los hay. Y precisamente por eso hay que evaluar. Y algu-nos defectos estructurales que se detectan muy claramente habría que objetivarlos mediante un plan de evaluación ex post, pero no en plan digamos destructivo, sino todo lo contrario; la crisis como oportunidad para mejorar y para avanzar, pero para reestructurar y reorientar las estrategias que en general han sido buenas. Estoy completamente de acuerdo contigo, Ne-kane, en que hay algunos ámbitos del cono-cimiento en donde la comunidad autónoma tiene que prestar atención específica, desde luego la lengua vasca, y algunos más también, pero que son pocos. Se cuentan con los dedos de la mano.Por lo tanto, ahí sí, es la Comunidad Autónoma quién tiene que buscar la financiación. A poder

Apoyo todo lo que se ha dicho y además con la idea, que lo complica, claro, de que todos estos procesos de los que hablamos son procesos no lineales. José María Mato: Una situación de crisis es una oportunidad, pero llevamos años ya de crisis. Todas estas acciones se debían de estar tomando ya, porque no pueden esperar mu-cho más. ¿Qué opinión general tenéis sobre la investigación que se lleva a cabo en Euskadi, en general, en ciencias, ingeniería, ciencias sociales, humanidades?Enrique Castellón: Me atrevo a adelantarme a esta pregunta porque no viviendo en Euskadi y sin embargo teniendo proyectos aquí y habien-do visto proyectos en otros sitios, sí que puedo dar una opinión positiva acerca de la biome-dicina en el País Vasco. Y personalmente creo que resiste (e incluso mejora) la comparación con otros lugares, porque justamente aquí se ha hecho parte de lo que he comentado en la pregunta anterior. Se han conectado grupos y se ha conectado con empresas. La experiencia

del CIC es muy reveladora. Yo no conozco una experiencia semejante en el resto del país. Y me parece que en este punto ya hay una po-sición de ventaja de salida. Es verdad que los problemas económicos generales, estructurales o de coyuntura, van a afectar a todos. Pero la situación de la ciencia biomédica aquí, con las estructuras mencionadas, las innovaciones, con la universidad, ha dado pasos importan-tes para avanzar en la buena dirección. Estoy hablando siempre del área biomédica. De otras áreas conozco muchísimo menos. En conjunto, la resultante es bastante positiva, teniendo en cuenta las circunstancias. Y por tanto, estamos en buenas condiciones para dar un paso sig-nificativo, contando con que se mantenga la voluntad que nos ha traído hasta aquí. Javier Echeverria: Ya dije lo que pensaba, pero voy a añadir una cosa. Fui vicerrector de in-vestigación de la Universidad del País Vasco hace ya muchos años. Y ahora comparto lo que se acaba de decir. Los avances han sido enor-mes. No cabe la menor duda de que los avan-

"Las empresas deben ir teniendo un papel cada vez mayor a la hora de promover la ciencia, incluida por supuesto la investigación científica"

Javier Echeverria

"Lo que distingue a los países avanzados es el ratio entre la inversión privada y la inversión pública"

Enrique Castellón

" Es bueno que haya investigadores, después de hacer la tesis o el post-doc, que se animen a crear sus propias empresas"

José M Mato

"Hay una correlación muy cercana a uno entre los países que tienen y mantienen una buena investigación básica y los países que generan riqueza"

Felix Goñi

"Un país que no invierte en formación e investigación es un país sin futuro"

Nekane Balluerka

Page 23: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

45 44

MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs | Entorno CICEntorno CIC | MEsa dE IdEas: EValUaCIóN y fINaNCIaCIóN dE la CIENCIa EN tIEmPos dE CrIsIs

alumnos. Los mandan primero a Finlandia, a continuación a California y a continuación a creo que a Japón, los tres cursos. Y su carrera consiste en que generen una empresa. Y esas empresas, claro está, desde el principio están gestionadas como tales empresas, compiten los dos grupos entre sí, pero se tienen que consoli-dar como empresas. Al final de la carrera estos chicos y chicas han salido ya con una empre-sa consolidada, porque si no, no obtienen la licenciatura.Como experimento, como buena práctica, es un poco la joya de la corona de la Universidad de Mondragón. No es investigación esto, Félix. En términos comparativos en materia de inves-tigación, no hay comparación posible entre la UPV/EHU y Mondragón, pero sí desde el punto de vista de la innovación. Completamente de acuerdo con Nekane y con todos vosotros en que hay que promover la cultura científica en la sociedad y que es una cuestión cultural, pero es que, además, ahora, hay otro desafío mayor que es la cultura de la innovación que no es lo mismo que la cultura científica. Enrique Castellón: En el crecimiento econó-mico de un país, hay una correlación clarísima con la inversión en I+D. Esto es, como digo, obvio. Los mecanismos se pueden analizar, no son lineales, pero sobre la correlación no hay ninguna duda. ¿Pero cuál es nuestra trage-dia? Como comentaba Félix sobre el ministro de Economía, nuestra tragedia es el plantea-miento mismo del ministro de Economía o, si se quiere, el planteamiento que nos están obligando a hacer. Este sí que es lineal. Por-que básicamente consiste en que ante la cri-sis tenemos que resolver tres cuestiones, el problema de la solvencia de las instituciones financieras, el problema de la deuda y el pro-blema del déficit fiscal. Todos son problemas que exigen una sucesión de medidas de cor-to plazo, mientras que la I+D es un tema que obliga a políticas a medio y largo plazo. No ser capaces de manejar simultáneamente ambas cosas nos puede llevar al fracaso, claramente. ¿Quién tiene que dar un golpe de timón, para hacer compatible la estrategia de corto plazo que parece que les viene obligada desde el punto de vista fiscal y desde el punto de vista de las instituciones europeas en relación con la salida de la crisis y, al mismo tiempo, garan-tizar el futuro del país? No sé quien tiene que dar el golpe de timón, lo que sí sé es que no lo está dando nadie. En este momento, en ese sentido, vamos a la deriva.

Javier Echeverria: Esos datos que has dado son muy importantes, hay que publicitarlos. Yo tra-bajo para Ikerbasque y creo que ha sido uno de los grandes éxitos de la política científica del País Vasco en los últimos años. Hacen bas-tantes cosas bien, pero una de las cosas que hacen muy bien es publicitarse. Y por tanto hay que prestar atención al marketing. Estamos hablando de gestión empresarial como mínimo de buena parte de fondos públicos. Una parte de esos fondos son europeos, han sido logrados externamente. Además, con movilidad, con contratación de investigadores de diferentes países, etcétera. Pondría otros ejemplos. Euskampus es un acierto enorme, es una innovación. Como Ikerbasque ha sido una innovación, como los sexenios fueron una innovación en su momento y tuvieron un efecto sistémico sobre la investi-gación científica en España. Ikerbasque está teniendo un efecto sistémico y, como es normal, salen adversarios. Es normal. Siempre que hay

una innovación, hay gente que está en contra. Si no, no sería innovación. Con Euskampus exac-tamente igual. Entonces está muy bien publicitar todos estos datos de la contribución económica y social de la UPV/EHU, pero creo que la estrategia Eus-kampus, que es buena, debe ser impulsada. Hay ambivalencias, existen tensiones. Tengo para mí que es una apuesta estratégica en el sentido que decía de generación de empresas tremendamente vinculadas a la Universidad. El Grupo UPV/EHU algo debe significar. Sin dejar de ser Universidad pasa a algo más. Esta estra-tegia aumentaría todavía más la contribución económica y social de la UPV/EHU. Y lo mismo diría de la Universidad de Mondragón. Voy a ha-cer un elogio de la Universidad de Mondragón, un elogio concreto. La Universidad de Mondragón tiene una titula-ción de liderazgo e innovación, una titulación ordinaria, donde se constituye a los estudian-tes como empresas; forman dos grupos de 15

Nekane Balluerka: Bueno, en esta pregunta quiero traer a colación un estudio que hizo el IVIE, el Instituto Valenciano de Investigaciones Económicas, sobre la contribución económica y social de la Universidad del País Vasco. Y como es el principal agente investigador, creo que lo que voy a decir puede ser generalizable a mu-chas universidades, sobre todo si tienen calidad investigadora. El estudio puso de manifiesto que genera casi 20.000 empleos anuales, que aumen-ta la tasa de actividad en 1,27 puntos y reduce la tasa de paro en 0,14 puntos, que la recauda-ción fiscal aumenta en 700 millones de euros, que es responsable directa o indirectamente de casi un 23% del crecimiento del País Vasco, que sin su contribución la renta per cápita sería un 22,5% inferior, y que devuelve a la sociedad dos euros por cada uno que se invierte en ella. Con esto quiero decir que un país que no invierte en formación e investigación es un país sin futuro. Porque estos dos elementos son los pilares de la transformación de cualquier sociedad.

ca. Yo lo que veo es que tenemos un déficit en el tema del género. Las mujeres se ve que no con-solidan su carrera investigadora. Se defiende la misma cantidad de tesis por género, mujeres y hombres defendemos la misma cantidad de tesis, pero sin embargo llega un momento en que las circunstancias no nos ayudan mucho a seguir consolidando nuestra carrera investiga-dora. Entonces, ocurre que el 80% de las cáte-dras están ocupadas por hombres; que el 87% de los directivos de los CIC y de los BERC son hombres. Y en este sentido creo que tenemos mucho trabajo por hacer. Apenas hay mujeres Ikerbasque. La diferencia con respecto a los hombres es brutal. En este sentido, creo que tenemos mucho que trabajar. Volviendo a la pregunta, creo que en ciencias sociales hemos ido dando pasos. Y estamos siendo respetados. Felix Goñi: Dos pequeñas puntualizaciones. Una, en lo referente a la opinión de Enrique de que nos comparamos favorablemente, entien-do que con otras comunidades autónomas. Sí, pero porque las otras están fatal. Claro, esto es muy importante. ¿Nosotros hemos mejorado mucho respecto a hace 10, 15, 20 años? Sí, pero otros han mejorado mucho más. La perspectiva correcta es que hemos mejorado mucho, pero teníamos que mejorar más. Y por ejemplo, la situación de este año, en la que lamento -en fin, alguien lo tiene que decir en esta mesa-, la financiación científica ha caído estrepitosa-mente con respecto al año pasado, es una señal muy mala. Sobre todo teniendo en cuenta que, en términos absolutos, las cantidades de dinero de las que hablamos son modestas. Entonces, sí estamos mejor que otros, pero porque aquí esto ha empeorado un poquito este año y en otros sitios ha empeorado desde hace cuatro o cinco años. La otra puntualización. Yo tengo una opinión general que creo que explica muchas cosas. La investigación en Euskadi a pesar de todo, to-davía es un niño en sus primeros años de vida. No es un lactante, pero realmente es un niño que empieza a dar sus primeros pasos. Es una estructura extremadamente débil. Y como suelo decir habitualmente, si a un niño de tres años le damos de comer el doble de lo que necesita, éste no crece el doble de rápido, sino que seguramen-te tenga algún empacho y el crecimiento, en todo caso, disminuirá. Pero si le damos la mitad de lo que necesita, no crecerá la mitad de rápido. Se morirá. Y entonces tendremos que fabricar un niño nuevo desde el principio.

José María Mato: ¿Cómo creéis que la investi-gación puede contribuir a transformar o a me-jorar la situación económica en el País Vasco?Felix Goñi: No como a veces parece, que esto es una cosa mecanicista, de que si ponemos más dinero en investigación, dentro de 5 años todas nuestras empresas funcionarán mejor porque habrán innovado muchísimo. El procedimiento, la relación como he dicho antes, es no lineal. No es evidente. Entonces, nos pueden decir, como nos dice el señor de Guindos, ¿para qué poner dinero en investigación básica, si eso no ayuda a salir de la crisis?.Bueno, a lo mejor no ayuda a salir de la crisis, pero da la casualidad de que hay una correlación muy cercana a uno en los países que tienen y mantie-nen una buena investigación básica y los países que generan riqueza. La generación de conoci-miento y la generación de riqueza tienen una co-rrelación positiva, cercana a uno. ¿Por qué es eso? Yo no lo sé y probablemente no lo sabe nadie, pero eso es algo que se debe señalar en todo momento.

"La crisis para la Comunidad Autónoma Vasca es una oportunidad importantísima para liberarse de mucho lastre que se ha generado"

Javier Echeverria

"La forma de reorientar el futuro es abriendo fronteras, superando límites, buscando la cooperación en todos los niveles"

Enrique Castellón

"Las empresas, las empresas listas, ya se han dado cuenta de que durante el doctorado, no se aprende más bioquímica o biofísica, sino que se aprende a resolver problemas"

Felix Goñi

" Tenemos un déficit en el tema del género. Las mujeres no acaban de consolidar su carrera investigadora"

Nekane Balluerka

Page 24: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

47 46

Entorno CIC | MEsa dE IdEas: CrECImIENto y ComPEtIVIdad ProyECtos dE INVEstIGaCIóN | Entorno CIC

Las células madre de origen mesenquimal son un tipo de células madre que están suscitando gran interés, ya que se pueden obtener en gran número, con mínimas manipulaciones y además no presentan ningún dilema ético. A pesar de su amplia utilización en ensayos clínicos, no existe a día de hoy un consenso sobre la dosis óptima de células madre, ni sobre la mejor ruta de administración. Tampoco existe un consenso sobre los procesos de manipulación de estas células ex vivo. Estos pro-cesos son un conjunto de procedimientos llevados a cabo in vitro para expandir dichas células e incrementar su cantidad hasta alcanzar un número clínicamente relevante. Esta producción 'a gran escala' requiere optimizar los procedimientos, para garantizar un gran número de células a corto plazo, sin que ello afecte a la seguridad del paciente receptor.Clásicamente, los cultivos celulares son suplementados con suero bovino fetal, como complemento que aporta los nutrientes básicos para la célula, incluyendo hormonas y factores de crecimiento. Sin embargo, en terapia celular es necesario evitar todos los productos xenogénicos[2], es decir, cual-quier producto de origen animal. Además de las posibles razones éticas de

emplear grandes cantidades de suero bovino fetal, la principal cuestión que se plantea es la bioseguridad del paciente. Se ha visto que ciertas moléculas presentes en el suero bovino fetal pueden plantear riesgos inmunogénicos. Por ejemplo, se han encontrado restos de moléculas bovinas de ácido xialico (Neu5Gc) en células madre expandidas con dicho suplemento[3]. Además la presencia de suero bovino fetal en el medio de cultivo puede elevar el riesgo de transmitir virus, priones y bacterias[4]. Pero no es solamente el suero bovino fetal el único producto que debe de evitarse. El empleo de trombina bovina en la activación del plasma rico en plaquetas también puede plantear problemas. Se ha observado que el 30% de los pacientes expuestos a trombi-na bovina desarrollan anticuerpos de reactividad cruzada contra proteínas humanas presentes en el plasma[5]. La trombina bovina puede ser sustituida por otros modos de activación plaquetaria, como la activación con CaCl2 o varios ciclos de congelación y descongelación[6].

Suplementos de medio de cultivoLas técnicas convencionales de cultivo celular están evolucionando para adaptarse a los nuevos requerimientos de seguridad y eficiencia necesarias en terapia celular. Existe un amplio abanico de suplementos, cada uno con sus pros y contras (Figura 1): Suero bovino fetal, suero humano, plasma rico en plaquetas, y medios de composición definida[7]. El empleo de cualquiera de dichos suplementos tiene que garantizar las características básicas de las células madre. En el caso de las células madre mesenquimales se tienen que respetar las premisas dictadas por la Asociación Internacional de Terapia Celular[8]: deben de adherirse al frasco de cultivo, ser positivas para CD73, CD90 y CD105, negativas para CD45, CD34, CD14 o CD11b, CD79a o CD19 y HLA-DR, y además deben de ser capaces de diferenciarse in vitro en los linajes adipogénico, osteoblástico y condroide.

Eduardo Anitua, Gorka Orive y Roberto Prado. Biotechnology Institute btI.

Proy

ecto

s de

inve

stig

ació

n

Potencial del Plasma Rico en Factores de Crecimiento en la terapia con células madre

La utilización de las células madre en el tratamiento de múltiples enfermedades está empezando a convertirse en realidad. Un gran número de ensayos clínicos tratan de demostrar que su utilización es segura y eficaz[1]. De esta forma, se están tratando entre otras patologías y lesiones, el infarto de miocardio, la osteogénesis imperfecta, la enfermedad de injerto frente a huésped, daño medular, esclerosis múltiple, esclerosis lateral amiotrófica, diabetes, enfermedades genéticas de la sangre, patologías de la córnea, daños en hueso, cartílago y articulaciones, y cáncer.

Eduardo Anitua es doctor en Medicina y Cirugía por la Universidad

de Valencia, director científico de Biotechnology Institute btI ImasD, y

presidente de la Fundación Eduardo Anitua. Pionero en el desarrollo de

técnicas en el área de la implantología oral y la regeneración de tejidos,

en particular del Plasma Rico en Factores de Crecimiento (PrGf)

Gorka Orive, doctor en Farmacia por la UPV/EHU, profesor

titular de Biofarmacia y Farmacocinética y Farmacia Galénica en

dicha universidad, y responsable del laboratorio de Medicina

Regenerativa de Biotechnology Institute btI ImasD.

Roberto Prado es licenciado en Biología y Bioquímica por la UPV/

EHU e investigador en Biotechnology Institute btI ImasD Figura 1. La expansión ex vivo de células madre presenta diferentes opciones en función del tipo de suplemento del medio de cultivo elegido. No existe un suplemento

ideal. La elección para terapia celular debe de tener en cuenta la bioseguridad y la eficacia de la expansión, además del coste y la disponibilidad. Entre otras opciones, se

puede emplear como suplemento: suero bovino fetal, suero humano, plasma rico en plaquetas, medio libre de suero, y medio de cultivo con componentes de la matriz

extracelular[7].

Page 25: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

49 48

→Potencial del plasma rico en plaquetas en la manipulación ex vivo de las células madreEl plasma rico en factores de crecimiento (PRGF) ha demostrado su seguridad y eficacia en el tratamiento de diversas patologías en múl-tiples áreas de la medicina[9]. El PRGF es un preparado 100% autólogo rico en plaquetas y en factores de crecimiento, tanto plasmáticos como plaquetarios. Se obtiene a partir de pequeños volúmenes de sangre del paciente y se prepara mediante una única etapa de cen-trifugación, separando el plasma en dos fracciones de concentración creciente de plaquetas y factores de crecimiento. La ausencia de leu-cocitos es una de las características diferenciales del PRGF. Además, la activación de las plaquetas con cloruro cálcico consigue que éstas liberen el contenido de sus gránulos, ricos en factores de crecimiento y otras moléculas bioactivas. A partir del plasma fraccionado se pueden obtener varias formulaciones, de características muy diferentes[10]: PRGF líquido sobrenadante, gel o coágulo, y membrana (Figura 2.)Las terapias celulares están suscitando un interés creciente debido a sus prometedores resultados pre-clínicos y el empleo de PRGF ha sido trasladado también a los procedimientos celulares que se rea-lizan in vitro. Los factores de crecimiento son sustancias clave en la proliferación y diferenciación de las células madre. Para que se dé una correcta traslación clínica, estas moléculas deben de incremen-tar la proliferación celular sin producir diferenciación, no contener sustancias xenogénicas, y ser liberados de forma controlada. Las formulaciones del plasma rico en plaquetas contienen varios factores de crecimiento importantes, como son el IGF-I, TGF-ß1, PDGF, HGF, VEGF, EGF y bFGF[11].

Gran versatilidad: tres posibilidades de cultivo celularEl PRGF ofrece tres posibilidades para el cultivo y expansión de las células madre, en función de las necesidades que presente el procedimiento ex vivo[6]. En primer lugar, se puede emplear el sobrenadante, una formulación líquida activada con CaCl2 en la que las plaquetas han liberado todo su contenido (Figura 3). De esta forma, en un cultivo convencional susti-tuiría al suero bovino fetal. Además, es posible reducir el porcentaje de suplemento empleado, ya que el sobrenadante de PRGF estimula más la proliferación que el suero bovino fetal. También se puede emplear el lisado plaquetario, un sobrenadante que ha liberado sus factores de crecimiento mediante varios ciclos de congelación y descongelación[12].Una segunda forma es emplear el plasma rico en plaquetas para crear un biofilm sobre el que las células madre puedan crecer adheridas. Este tipo de técnica se ha empleado con éxito en cultivos de células madre mesenquimales de médula ósea[13].Finalmente, ciertos tipos de células madre pueden ser cultivadas en sistemas tridimensionales de fibrina formados a partir de plasma rico en plaquetas. Así, células madre derivadas de cresta neural crecen formando neuroesferas, que pueden ser cultivadas en este tipo de matrices tridimensionales. Incluso se ha observado que los ratios de proliferación son mayores, además de evitar productos con componentes de origen animal, como capas alimentadoras a base de fibroblastos murinos, Matrigel o suero bovino fetal. El cultivo de células madre embrionarias también ha evolucionado para adaptarse a los nuevos requerimientos de la terapia celular. De esta forma, se ha observado que es posible cultivar este tipo de células hasta 25 pases empleando matrices derivadas de plasma rico en plaquetas[6].

La matriz tridimensional de fibrina mimetiza el ambiente molecular original en el trasplante de células madreLa ingeniería de tejidos se fundamenta en tres pilares, denominados triada de la ingeniería tisular: células, matriz tridimensional y moléculas de señalización. Las matrices de fibrina obtenidas de la sangre del propio paciente y enriquecidas con los factores de crecimiento plaquetarios son una buena opción, ya que se preparan de forma sencilla, son biocom-patibles, no inmunogénicas y biodregradables. Así, estos andamiajes tridimensionales poseen una porosidad adecuada para la difusión del oxigeno y los nutrientes. En líneas generales, su empleo en el trasplante de células madre aumenta la viabilidad de las células, ya que estas ma-trices están basadas en las matrices provisionales que se producen in vivo en la curación de heridas (Figura 3). Al microscopio se observa una

Entorno CIC | ProyECtos dE INVEstIGaCIóN ProyECtos dE INVEstIGaCIóN | Entorno CIC

estructura homogénea, compuesta por fibras de fibrina, (Figura 4). Esta matriz tridimensional de PRGF puede albergar a las células madre que se van a trasplantar al paciente. El empleo de matrices que aumentan la viabilidad celular es especialmente relevante, ya que el trasplante in vivo de células madre presenta una baja supervivencia. Por otro lado, las células madre pueden incluirse en la matriz sin diferenciarse previamen-te, pero dependiendo de la patología a tratar también es posible realizar un precondicionamiento con algún medio inductor de la diferenciación, como por ejemplo medios pro-osteogénicos.

Combinación con otros biomaterialesEl PRGF puede combinarse con otros biomateriales para modular o aumentar sus propiedades. De esta forma, se han cultivado células

Figura 2. Visión global de la obtención de las diferentes

formulaciones de PrGf con fines terapéuticos. Esta

tecnología es 100% autóloga: se extrae la sangre del

paciente, se centrifuga, se separan los componentes

y, tras activar el plasma con CaCl2, se obtienen varias

formulaciones (líquido, gel o coágulo, y membrana)

con diferentes propiedades que se pueden aplicar en la

zona lesionada del propio paciente [10].

Figura 3. Descripción de una opción autóloga de terapia con células madre. (a) En primer lugar se obtiene una muestra de sangre del paciente con el objetivo de preparar el

PrGf y obtener las diferentes formulaciones biológicas que darán lugar a la liberación de los morfógenos endógenos y a la formación de una matriz tridimensional de fibrina.

(b) Seguidamente se aíslan las células madre del mismo paciente. El típico ejemplo son las células madre mesenquimales de médula ósea. Estas células son expandidas

fácilmente con un medio de cultivo suplementado con plasma rico en plaquetas. Después de su expansión (libre de componentes animales), las células madre pueden

ser mezcladas con el plasma rico en plaquetas recién activado, para formar una red tridimensional de fibrina con células madre, generando así un ambiente biomimético.

Finalmente (c) las células madre son trasplantadas. (d) Se describen las diferentes formulaciones biológicas, tanto líquida como matriz de fibrina. Ambas contienen moléculas

bioactivas que posibilitan una expansión segura y eficiente de las células madre, a la vez que incrementan la supervivencia de dichas células en el órgano receptor[6].

Page 26: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

51 50

Entorno CIC | ProyECtos dE INVEstIGaCIóN ProyECtos dE INVEstIGaCIóN | Entorno CIC

madre mesenquimales de médula ósea en esponjas de colágeno[14] o en matrices tridimensionales de hidroxiapatita[15]. Por otro lado, células madre mesenquimales de origen adiposo han sido cultivadas en una combinación de PRGF y biomaterial. En esta ocasión, el biomaterial ha sido un polímero sintético, metacrilato-caprolactona, combinación con la que se ha logrado aumentar tanto la proliferación como la posterior supervivencia de dichas células madre[16].

Perspectivas futurasEl PRGF es una herramienta versátil, útil en el cultivo y trasplante de células madre, ya que incrementa tanto la proliferación como la supervivencia de las células en el tejido receptor. Sin embargo es ne-cesario definir varios temas, tales como la estandarización de todos los procedimientos. El empleo de diferentes protocolos de obtención de concentrados plaquetarios, con variables tan importantes como la concentración de plaquetas, la presencia de leucocitos o el modo de activación del plasma, puede generar resultados variables y afectar al rendimiento de los procedimientos ex vivo. Son necesarios más estudios que clarifiquen cuál es el protocolo óptimo de obtención de los con-centrados plaquetarios. Otra cuestión relevante es encontrar la dosis óptima de PRGF como suplemento en el medio de cultivo. El tipo de célula madre y la edad del donante pueden ser dos factores relevantes en la búsqueda de dicha dosis. El empleo de plasma rico en plaquetas de cordón umbilical puede ser una opción a explorar. A pesar de que su disponibilidad es menor que la de la sangre periférica, se ha observado que puede mejorar el rendimiento celular[6].

Las células madre cultivadas y/o trasplantadas con la ayuda del PRGF mantienen el fenotipo celular, el potencial de diferenciación y su capaci-dad inmunomoduladora. Su utilización es una alternativa segura y eficaz al empleo del suero bovino fetal.

Referencias

[1] Parekkadan B, Milwid JM. Annu. Rev. Biomed. Eng. 2010, 12, 87-117.

[2] Kinzebach S, Bieback K. Adv. Biochem. Eng. Biotechnol. 2012, 129, 33-57.

[3] Rauch C, Feifel E, Amann EM, Spötl HP, Schennach H, Pfaller W, Gstraunthaler G.

ALTEX. 2011, 28, 305-16.

[4] Mannello F, Tonti GA. Stem Cells. 2007, 25, 1603-09.

[5] Diesen DL, Lawson JH. Vascular. 2008, 16, S29-36.

[6] Anitua E, Prado R, Orive G. Trends Biotechnol. 2013, 31, 364-74.

[7] Anitua E, Prado R, Orive G. Ther. Deliv. 2013, 4, 1163-77.

[8] Dominici M, Le Blanc K, Mueller I, Slaper-Cortenbach I, Marini F, Krause D, Deans R,

Keating A, Prockop Dj, Horwitz E. Cytotherapy. 2006, 8, 315-17.

[9] Anitua E, Sánchez M, Orive G, Andía I. Biomaterials. 2007, 28, 4551-60.

[10] Anitua E, Alkhraisat MH, Orive G. J. Control. Release. 2012, 157, 29-38.

[11] Anitua E, Prado R, Sánchez M, Orive G. Oper. Tech. Orthop. 2012, 22, 25-32.

[12] Schallmoser K, Strunk D. Methods Mol. Biol. 2013, 946, 349-62.

[13] Shin SH, Yoo JJ, Kim HN, Nam J, Kim HJ. Connect. Tissue Res. 2012, 53, 318-26.

[14] Warnke PH, Humpe A, Strunk D, Stephens S, Warnke F, Wiltfang J, Schallmoser K,

Alamein M, Bourke R, Heiner P, Liu Q. J. Craniomaxillofac. Surg. 2013, 41, 153-61.

[15] Salvadè A, Della Mina P, Gaddi D, Gatto F, Villa A, Bigoni M, Perseghin P, Serafini M,

Zatti G, Biondi A, Biagi E. Tissue Eng. Part C Methods. 2010, 16, 201-14.

[16] Rodríguez-Jiménez FJ, Valdes-Sánchez T, Carrillo JM, Rubio M, Monleon-Prades M, García-

Cruz DM, García M, Cugat R, Moreno-Manzano V. J. Funct. Biomater. 2012, 3, 556-68.

Figura 4. La tecnología endógena puede ser también empleada como matriz para el trasplante de células madre. La matriz tridimensional de fibrina (a) obtenida mediante

la tecnología PrGf (un tipo de plasma rico en plaquetas libre de leucocitos) contiene morfógenos endógenos que aumentan la supervivencia de las células madre. Al

microscopio óptico (b), en esta misma estructura se observa una red de fibrina que contiene agregados plaquetarios dispersos a lo largo de la malla de fibrina (tinción de

May-Grunwald-Giemsa). Si observamos la estructura a más detalle, mediante el microscopio electrónico de barrido, visualizamos las fibras de fibrina. Estas se presentan

intactas e interconectadas. Aumentos originales: (b) x400 y (c) x3500[11].

A B C

Page 27: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

53 52

Entorno CIC | MEsa dE IdEas: CrECImIENto y ComPEtIVIdad ProyECtos dE INVEstIGaCIóN | Entorno CIC

Polímeros para baterías, evolución históricaLa búsqueda de nuevos materiales para poder diseñar baterías más du-raderas, ligeras o estables es uno de los desafíos tecnológicos en la actua-lidad a nivel mundial. Los requisitos más importantes de los materiales que se buscan están relacionados con la densidad de energía, densidad de potencia, velocidad de carga-descarga, ciclabilidad y seguridad. Los materiales que mejores prestaciones muestran en la actualidad son inor-gánicos, como los óxidos o los fosfatos de litio o sodio. No obstante, estos óxidos inorgánicos no serán suficientes si en un futuro todos los coches se convierten en eléctricos y dependen de materiales procedentes de fuen-tes minerales limitadas. Además, los óxidos de metales de transición de litio presentan problemas de toxicidad y seguridad, por ello es necesario buscar nuevas alternativas. Los polímeros, materiales potencialmente reciclables y que se pueden obtener de fuentes renovables son materiales teóricamente muy atractivos.Así, ya en los años 80 y 90 se realizaron los primeros intentos de incor-porar materiales poliméricos redox a las baterías (en cátodos o ánodos). Estos intentos giraron en torno a los polímeros conductores como la polianilina y el polipirrol y los polímeros que contienen azufre[1,2]. Sin embargo, los electrodos fabricados a partir de polímeros conductores presentaban bajas energías específicas, eran sensibles a la fabricación, mostraban desventajas de autodescarga y experimentaban variaciones de lote-a-lote, por todo ello se apagó el entusiasmo inicial que había sobre este área. Más tarde, en los años 90-00, el desarrollo de polímeros conductores estables y comercialmente disponibles como el poli (3,4-eti-lendioxitiofeno) (PEDOT) abrió una nueva ventana de oportunidades para los polímeros conductores, asociadas principalmente al desarrollo

taica basada en polímeros semiconductores. Los dispositivos fotovoltaicos basados en polímeros son una alternativa a la tecnología fotovoltaica actual basada en silicio. La fotovoltaica polimérica podría encontrar apli-caciones debido a la posibilidad de disponer de dispositivos transparentes, enrollables y flexibles, y facilidades de fabricación mediante tecnologías de impresión similares a las de la industria del papel. Actualmente, la síntesis y procesado de polímeros semiconductores y de mezclas polímero/fullereno son uno de los temas más de moda tanto en investigación académica como industrial. Otras tecnologías que se encuentran en un estado de desarro-llo incipiente serían la termoelectricidad y la piezoelectricidad. En estas tecnologías los polímeros han mostrado propiedades muy interesantes que les pone en el mapa de los materiales investigados en la actualidad.Por otro lado, los polímeros tienen también un papel importante en el almacenamiento electroquímico de energía y tecnologías como las ba-terías o los supercondensadores. En las baterías de litio actuales de los teléfonos móviles o las pilas alcalinas comunes se utilizan polímeros en las formulaciones de los electrodos como aglutinantes -adhesivos o binders- o como soportes en los electrolitos. Así polímeros como el poli(óxido de etileno), celulosa, el poli(ácido acrílico) o el PVDF son materiales utilizados en la actualidad. Sin embargo, existe un interés creciente en nuevas tec-nologías de baterías relacionado con el desarrollo del vehículo eléctrico, la miniaturización de los componentes electrónicos o la necesidad de almacenamiento del exceso de energía renovable que se produce en ciertos momentos. En el desarrollo de estas nuevas tecnologías de baterías, los polímeros ofrecen grandes posibilidades de desarrollo, principalmente si pudieran ser utilizados como material activo o material redox alternativo a los materiales inorgánicos.

Los polímeros, materiales clave en energíaLa energía renovable y la sostenibilidad energética son uno de los grandes retos de la sociedad actual debido a la limitación de los combustibles fósiles, su precio elevado y los riesgos que conlleva la energía nuclear. Actualmente, los materiales poliméricos desempeñan un papel clave en el desarrollo de diversas tecnologías energéticas. Por ejemplo, las palas de los aerogeneradores de energía eólica se fabrican actualmente con com-posites poliméricos de altas prestaciones. Por otro lado, hay tecnologías

Las baterías actuales están basadas en materiales inorgánicos como los óxidos o fosfatos de litio y sodio. Estos materiales son de origen mineral y generalmente tóxicos, por ello, su sustitución por materiales poliméricos, los cuales se pueden obtener de fuentes renovables, es una alternativa muy prometedora. Nuestro equipo está aplicando los conceptos de ingeniería macromolecular para desarrollar polímeros innovadores para baterías y almacenamiento de energía electroquímica. En este artículo resumimos las aplicaciones de los polímeros en energía, su evolución histórica y los problemas tecnológicos actuales de las tecnologías de baterías basadas en polímeros. Por último, indicamos nuestra estrategia para el desarrollo de polímeros innovadores que mejoren las prestaciones de los actuales.

Nerea Casado, Guiomar Hernández, David Mecerreyes y Michel Armand.

Proy

ecto

s de

inve

stig

ació

n

Polímeros innovadores para almacenamiento de energía

en desarrollo como las pilas de combustible en las que los materiales poliméricos tienen un papel no sólo estructural-pasivo sino (electro)activo ya que se utilizan membranas poliméricas conductoras de protones. Estas membranas vienen a ser la clave de esta tecnología y el elevado precio de la membrana de referencia comercialmente conocida como Nafion junto con el de los catalizadores utilizados son el cuello de botella para la explosión comercial de las pilas de combustible.Otra tecnología energética con gran potencial de desarrollo es la fotovol-

Nerea Casado es investigadora predoctoral en el proyecto

Innovative Polymers for Energy Storage (iPEs) del bErC Polymat.

Licenciada en Química (UPV/EHU).

David Mecerreyes es profesor de investigación IKErbasQUE.

Doctor por la Universidad de Lieja. Actualmente, lidera el

Innovative Polymers Group del bErC Polymat en la Universidad

del País Vasco (UPV/EHU).

Guiomar Hernández es investigadora predoctoral en el proyecto

Innovative Polymers for Energy Storage (iPEs) del bErC Polymat.

Licenciada en Químicas por la Universidad de Valladolid.

Michel Armand es co-líder del grupo Electrolitos Sólidos en

CIC EnergiGUNE. Ha sido pionero en el empleo de electrolitos

poliméricos basados en poli (óxido de etileno) y ha contribuido en

la unión de los químicos orgánicos,inorgánicos y electroquímicos

en el desarrollo de las baterías.

Polímeros en Energía

iPesPolímeros Innovadores

para Energia

Pilas de combustibleMembranas conductoras de protonesPlacas Bipolares

Baterías y supercondensadoresMembranas electrolíticas poliméricasAdhesivos de electrodosBaterías de plástico

Energía FotovoltaicaPolímeros semiconductoresDispositivos fotovoltaicos poliméricos

Otras tecnologías energéticasPolímeros termoeléctricosPolímeros piezoeléctricos

Energía eólicaNanocomposites,recubrimientos protectores(hielo, sol, polvo)

Caliente

Frio

Hidrógeno Oxígeno

Calor y Agua

Electricidad

Bateríaseca Bombilla

(carga)

Electrones (e-)

Electrodo decarbonopositivo(cátodo)

Pastaelectrolítica

Separador

Mezcla dedioxido decarbono ymanganeso

Electrodo dezinc negativo(ánodo)

Electrones (e-)

Polímerosconductores(PPy, PANI,

PEDOT)

Electrolitospoliméricos

(PEO, PVDF)

Polímerosradicalarios

(PolyTEMPO)

Moléculasde fuentesrenovables(Quinonas,

carboxylatos,...)

Polímeroslíquido iónicos

Nuevos polímerosorganosulfurados

Polímeroscarbonilos

(poliimidas)

IngenieriaMacromolecular

Copolimeros de bloque,nanocomposites,

polímeros de fuentesrenovables

1980 1990 2000 2005 2008 2010 Futuro

PolímerosRadicalariosPoliTEMPO

( O

On

ON

)

Nuevas técnicasde caracterización

Nuevos PolímerosAutoensamblado

ABCCopolímero de bloque

Nuevas arquitecturasMacromoleculares

Modelización teórica

Figura 1: Aplicaciones de polímeros en diferentes tecnologías energéticas.

Page 28: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

55 54

Polímeros en Energía

iPesPolímeros Innovadores

para Energia

Pilas de combustibleMembranas conductoras de protonesPlacas Bipolares

Baterías y supercondensadoresMembranas electrolíticas poliméricasAdhesivos de electrodosBaterías de plástico

Energía FotovoltaicaPolímeros semiconductoresDispositivos fotovoltaicos poliméricos

Otras tecnologías energéticasPolímeros termoeléctricosPolímeros piezoeléctricos

Energía eólicaNanocomposites,recubrimientos protectores(hielo, sol, polvo)

Caliente

Frio

Hidrógeno Oxígeno

Calor y Agua

Electricidad

Bateríaseca Bombilla

(carga)

Electrones (e-)

Electrodo decarbonopositivo(cátodo)

Pastaelectrolítica

Separador

Mezcla dedioxido decarbono ymanganeso

Electrodo dezinc negativo(ánodo)

Electrones (e-)

Polímerosconductores(PPy, PANI,

PEDOT)

Electrolitospoliméricos

(PEO, PVDF)

Polímerosradicalarios

(PolyTEMPO)

Moléculasde fuentesrenovables(Quinonas,

carboxylatos,...)

Polímeroslíquido iónicos

Nuevos polímerosorganosulfurados

Polímeroscarbonilos

(poliimidas)

IngenieriaMacromolecular

Copolimeros de bloque,nanocomposites,

polímeros de fuentesrenovables

1980 1990 2000 2005 2008 2010 Futuro

PolímerosRadicalariosPoliTEMPO

( O

On

ON

)

Nuevas técnicasde caracterización

Nuevos PolímerosAutoensamblado

ABCCopolímero de bloque

Nuevas arquitecturasMacromoleculares

Modelización teórica

ProyECtos dE INVEstIGaCIóN | Entorno CIC

méricos empezando por la síntesis de polímeros innovadores y el control de su arquitectura macromolecular, diseñando nuevos sistemas, copo-límeros de bloque y nanocomposites. La mayor ventaja de este plantea-miento es que se pueden controlar termodinámicamente la separación de las fases micro-nano y las interfases entre los diferentes componentes o bloques de los polímeros. Dada la importancia que tiene la interfase de los electrodos en el comportamiento general de la batería, nos pro-ponemos controlar la interfase con nuevas estructuras poliméricas y así, superar sus limitaciones de auto-descarga y ciclabilidad. Nuestra investigación incluye la modelización de los compuestos desarrollados y el transporte electrónico e iónico a través de las diferentes interfases. Asimismo, desarrollaremos nuevas técnicas y prototipos de baterías uni-macromoleculares para investigar los fenómenos de transporte en las interfases y a escala nanométrica.

Conclusiones y perspectivasEl objetivo de obtener baterías basadas en polímeros, que además de resolver el problema de toxicidad o reciclaje de las baterías actuales, puedan ser más ligeras, seguras, reciclables y baratas, representa un gran reto científico-tecnológico. Aunque en la actualidad ya se hayan probado diferentes polímeros como materiales redox en los electrodos de baterías, no se han conseguido superar las propiedades que presentan los materiales inorgánicos. Hacia este propósito, buscamos nuevos materiales poliméricos que se puedan utilizar como materiales para el almacenamiento de energía electroquímica. Nuestra estrategia incluye hacer uso de la ingeniería macromolecular. Si los resultados son exitosos, esta investigación puede abrir puertas a la utilización de energía portátil en diferentes áreas como el transporte, medioambiente, textil, electrónica o nanotecnología.

AgradecimientosDM agradece el apoyo económico del European Research Council (ERC) a través de la Consolidator Grant “iPes-Innovative Polymers for Energy Storage”.

Referencias

[1] a) B. Scrosati, Application of Electroactive Polymers; Chapman&Hall; London, 1993. b)

P. Novac, K. Muller, K.S.V. Santhanam, O. Haas, “Electrochemically Active Polymers for

Rechargable Batteries” Chem. Rev. 1997, 97, 207.

[2] R. Gracia, D. Mecerreyes “Polymers with redox properties: materials for batteries,

biosensors and more” Polym. Chem. 2013, 4, 2206-2214

[3] a) M. Döbbelin, R. Marcilla, C. Pozo-Gonzalo, D. Mecerreyes, “Innovative materials and

applications based on poly(3,4-ethylenedioythiophene) and ionic liquids” Journal of

Materials Chemistry 2010, 20, 7613; b) A. Elshner, S. Kirchmeyer, PEDOT: Principles and

applications of an intrinsically conductive polymer, CRC Press 2010.

[4] a) M. Armand, J.M. Chabagno and M. Duclot, “Polyethers as solid electrolytes” in

P. Vashitshta, J.N. Mundy, G.K. Shenoy, Fast ion Transport in Solids. Electrodes and

Electrolytes, North Holland Publishers, Amsterdam, 1979; b) F. Croce, G.B. Appetecchi, L.

Persi & B. Scrosati Nanocomposite polymer electrolytes for lithium batteries Nature 394,

456-458 (1998); c) A.M. Christie, S.J. Lilley, E. Stauton, Y.G. Andreev, P.G. Bruce, “Increasing

the conductivity of crystalline polymer electrolytes” Nature 2005, 433, 50.

[5] Armand M., Endres F., MacFarlane D.R., Ohno H., Scrosati B. Ionic-liquid materials for the

electrochemical challenges of the future. Nature Materials 2009; 8: 621-629.

[6] D. Mecerreyes, “Polymeric ionic liquids: Broadening the properties and applications of

polyelectrolytes” Prog. Polym. Sci. 2011 doi:10.1016/j.progpolymsci.2011.05.007

[7] a) K. Nakahara, K. Oyaizu, H. Nishide “Organic radical battery approaching practical use”

Chem. Lett. 2011, 40, 222-277y refencias. b) NEC press release http://www.nec.com/en/

press/201203/global_20120305_04.html

[8] a) M. Armand&J.M. Tarascon “Building better batteries” Nature 451, 652 (2008) b)

M. Armand, S. Grugeon, H. Vezin, S. Laruelle, P. Ribiere, P. Poizot and J.M. Tarascon

“Conjugated dicarboxylate anodes for Li-ion batteries” Nature Materials 2009, 8, 120.

[9] Z. Song, H. Zhan, Y. Zhou “Polyimides: promising Energy Storage Materials”, Angew. Chem.

Int. Ed. 2010, 49, 8444-8448.

[10] G. Milczarek, O. Inganas “Renewable cathode materials from biopolymer/conjugated

polymer interpenetrating Networks”, Science 2012, 335, 6075, 1468-1471

[11] Jeffrey Pyun et al. “The use of elemental sulfur as an alternative feedstock for polymeric

materials”, Nature Chemistry 2013, 5, 518-524.

[12] K. Matyjaszewski, Y. Gnanou, L. Leibler. “Macromolecular Engineering: Precise synthesis,

materials properties and application”, Wiley-VCH, 2007.

Entorno CIC | ProyECtos dE INVEstIGaCIóN

de (super) condensadores[3]. También en los años 80-90 se propuso la utilización de polímeros no como material de electrodo redox (ánodo o cátodo) sino como material de electrolito. Este interés fue debido a la necesidad de mejorar la seguridad de las baterías y para evitar los proble-mas que conllevaban los líquidos electrolíticos ( fugas, volatilidad, infla-mabilidad). Así, Michel Armand y sus colaboradores fueron pioneros en proponer los electrolitos poliméricos basados en poli (oxido de etileno) que posteriormente evolucionaron hacia nuevos electrolitos de tipo gel, nanocomposites o membranas porosas de PVDF[4]. En los últimos años, se han propuesto los líquidos iónicos como los candidatos idóneos para usarlos como electrolitos ya que mejoran el comportamiento, velocidad, ciclabilidad y estabilidad a largo plazo de varios dispositivos electroquí-micos, incluyendo las baterías[5]. Así un equipo vasco de CIDETEC-IK4 fue uno de los pioneros en 2004 en trasladar las propiedades de los líquidos iónicos como electrolitos a los polímeros[6]. Volviendo a los polímeros de tipo redox, alrededor del año 2000 el Prof. Hiroyuki Nishide de Waseda University en Japón descubrió las altas pres-taciones de los polímeros radicalarios como materiales redox en baterías. Así en la última década se han desarrollado gran número de polímeros in-cluyendo radicales estables como grupos nitróxidos de tipo poliTEMPO[7]. En la actualidad, los polímeros radicalarios parecen ser la tecnología polimérica actual más prometedora a nivel industrial y recientemente la empresa japonesa NEC presentó baterías finas basadas en ellos.El desarrollo e interés de nuevos polímeros para baterías ha crecido exponencialmente en los últimos 5 años. Así, trabajos recientes han mostrado el uso de pequeñas moléculas orgánicas obtenidas a partir de biomasa (carboxilatos de litio conjugados, quinonas) con capacidades de carga-descarga muy prometedoras[8]. Más recientemente, políme-ros convencionales como las poliimidas, polisulfonas o polímeros que contienen carbonilos se han propuesto como materiales prometedores para almacenar energía[9]. Estos ejemplos recientes ofrecen nuevas opor-tunidades al desarrollo de materiales poliméricos mediante el diseño de nuevos polímeros que incorporan nuevas funcionalidades e incluyen compuestos obtenidos de fuentes renovables, azufre y biomasa[10-11].

Ingeniería macromolecular, nuestra estrategia para el desarrollo de polímeros innovadoresCon los desarrollos de los últimos años, las prestaciones teóricas de los materiales poliméricos como su capacidad de almacenamiento energéti-co, potencial o velocidad de carga y descarga presentan unos excelentes valores. Sin embargo, la mayoría de las baterías desarrolladas con estos materiales, han presentado pobres prestaciones debido a problemas de auto-descarga, ciclabilidad y estabilidad. Nuestra estrategia consiste en aplicar conceptos de ingeniería macromolecular[11] para diseñar materia-les poliméricos para baterías con mejores rendimientos que los actuales. La ingeniería macromolecular busca el dominio de los materiales poli-

Polímeros en Energía

iPesPolímeros Innovadores

para Energia

Pilas de combustibleMembranas conductoras de protonesPlacas Bipolares

Baterías y supercondensadoresMembranas electrolíticas poliméricasAdhesivos de electrodosBaterías de plástico

Energía FotovoltaicaPolímeros semiconductoresDispositivos fotovoltaicos poliméricos

Otras tecnologías energéticasPolímeros termoeléctricosPolímeros piezoeléctricos

Energía eólicaNanocomposites,recubrimientos protectores(hielo, sol, polvo)

Caliente

Frio

Hidrógeno Oxígeno

Calor y Agua

Electricidad

Bateríaseca Bombilla

(carga)

Electrones (e-)

Electrodo decarbonopositivo(cátodo)

Pastaelectrolítica

Separador

Mezcla dedioxido decarbono ymanganeso

Electrodo dezinc negativo(ánodo)

Electrones (e-)

Polímerosconductores(PPy, PANI,

PEDOT)

Electrolitospoliméricos

(PEO, PVDF)

Polímerosradicalarios

(PolyTEMPO)

Moléculasde fuentesrenovables(Quinonas,

carboxylatos,...)

Polímeroslíquido iónicos

Nuevos polímerosorganosulfurados

Polímeroscarbonilos

(poliimidas)

IngenieriaMacromolecular

Copolimeros de bloque,nanocomposites,

polímeros de fuentesrenovables

1980 1990 2000 2005 2008 2010 Futuro

PolímerosRadicalariosPoliTEMPO

( O

On

ON

)

Nuevas técnicasde caracterización

Nuevos PolímerosAutoensamblado

ABCCopolímero de bloque

Nuevas arquitecturasMacromoleculares

Modelización teórica

Figura 2: Evolución histórica de los polímeros desarrollados en baterías y almacenamiento electroquímico de energía. Figura 4: Representación de la estrategia de ingeniería macromolecular en desarrollo en el proyecto ERC Consolidator iPes.

Figura 3: Polímeros radicalarios y baterías finas en desarrollo en Japón.

Polímeros en Energía

iPesPolímeros Innovadores

para Energia

Pilas de combustibleMembranas conductoras de protonesPlacas Bipolares

Baterías y supercondensadoresMembranas electrolíticas poliméricasAdhesivos de electrodosBaterías de plástico

Energía FotovoltaicaPolímeros semiconductoresDispositivos fotovoltaicos poliméricos

Otras tecnologías energéticasPolímeros termoeléctricosPolímeros piezoeléctricos

Energía eólicaNanocomposites,recubrimientos protectores(hielo, sol, polvo)

Caliente

Frio

Hidrógeno Oxígeno

Calor y Agua

Electricidad

Bateríaseca Bombilla

(carga)

Electrones (e-)

Electrodo decarbonopositivo(cátodo)

Pastaelectrolítica

Separador

Mezcla dedioxido decarbono ymanganeso

Electrodo dezinc negativo(ánodo)

Electrones (e-)

Polímerosconductores(PPy, PANI,

PEDOT)

Electrolitospoliméricos

(PEO, PVDF)

Polímerosradicalarios

(PolyTEMPO)

Moléculasde fuentesrenovables(Quinonas,

carboxylatos,...)

Polímeroslíquido iónicos

Nuevos polímerosorganosulfurados

Polímeroscarbonilos

(poliimidas)

IngenieriaMacromolecular

Copolimeros de bloque,nanocomposites,

polímeros de fuentesrenovables

1980 1990 2000 2005 2008 2010 Futuro

PolímerosRadicalariosPoliTEMPO

( O

On

ON

)

Nuevas técnicasde caracterización

Nuevos PolímerosAutoensamblado

ABCCopolímero de bloque

Nuevas arquitecturasMacromoleculares

Modelización teórica

Page 29: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

57 56

Entorno CIC | MEsa dE IdEas: CrECImIENto y ComPEtIVIdad ProyECtos dE INVEstIGaCIóN | Entorno CIC

la forja y la fundición basado en el peculiar comportamiento que exhiben los materiales en estado semisólido.Comparado con la fundición, la elevada viscosidad del metal semisólido evita el llenado turbulento de la cavidad y en consecuencia reduce los defectos debidos al aire ocluido. Otra de las ventajas que presenta se debe a su elevada fracción sólida durante el llenado (más del 75%) que reduce la contracción volumétrica lo que conlleva una reducción de la porosidad final.Comparado con la forja tradicional, permite obtener piezas en un solo paso, con menores esfuerzos de conformado y geometrías más complejas, que no se pueden conseguir mediante la forja convencional. Además, al tratarse de un proceso near net shape el mecanizado final y los desechos de material se reducen al mínimo. No obstante, hay que recordar que las propiedades mecánicas de las piezas forjadas son algo superiores, aunque este aspecto puede compensarse mediante el rediseño del componente.El alto punto de fusión del acero exige solucionar algunos obstáculos técnicos como el calentamiento del material hasta la temperatura semi-sólida, la transferencia del tocho semisólido a la matriz de estampación o la fabricación de estampas resistentes a los choques térmicos y efectos de fatiga térmica.La implantación de una célula semi-automatizada de tixoforja en el labo-ratorio de conformado de Mondragón Unibertsitatea (Figura 1) ha sido el primer paso para estudiar la viabilidad de este proceso en la fabricación real de componentes de automoción. Para ello, se han analizado los as-pectos más importantes del conformado en estado semisólido.

MaterialA priori, las características que se le piden a un material para que sea tixoconformable son un amplio intervalo de solidificación, y mínima sen-sibilidad a variaciones de temperatura, de forma que un pequeño cambio en la misma no suponga una variación importante de la fracción sólida. La morfología de los granos en estado semisólido, también juega un papel crucial a la hora de determinar cómo se comportará el material durante el proceso de conformado. Para un llenado laminar de los moldes los glóbulos tienen que ser redondos y estar separados entre sí de forma que la segrega-ción debida a la separación del sólido y el líquido se reduzca al máximo. En contraste con los líquidos Newtonianos, en los que la viscosidad aumenta cuando crece el esfuerzo de cortadura, los metales en estado semisólido con partículas globulares embebidas en una matriz líquida exhiben un com-portamiento tixotrópico. Cuando el material está en reposo las partículas globulares comienzan a aglomerarse debido a las tensiones superficiales, lo que hace que el material se comporte como un sólido. Cuando los esfuerzos aplicados son suficientes para romper esa red, los aglomerados se rompen y las partículas pueden deslizarse, rotar o trasladarse libremente en la matriz líquida, lo que conlleva una disminución de la viscosidad.Muchos de los aceros utilizados por el sector de automoción se pueden adecuar para el conformado en estado semisólido. El objetivo princi-pal de estas modificaciones es obtener una ventana de procesado lo suficientemente amplia que permita lograr un proceso industrial lo suficientemente robusto. El carbono es uno de los elementos a tener muy en cuenta, pues juega un papel crucial a la hora de definir la tempe-ratura de solidus. Cuando el contenido de carbono en el acero aumenta, la temperatura de solidus disminuye aumentando a su vez el intervalo entre las líneas de solidus y liquidus y permitiendo tener una ventana de de proceso más amplia.Debido a las solicitaciones a las que estará sometida la pieza selecciona-da se ha decidido trabajar con tres aceros especialmente diseñados para el conformado en estado semisólido, el LTT C45, LTT C38 y LTT 100Cr6, que han sido modificados mediante la adición de distintos elementos que permiten ampliar el rango de solidificación y disminuir la temperatura de solidus. Estas modificaciones en la composición química del acero hacen que sea más adecuado para el tixoconformado sin afectar a sus características mecánicas.

CalentamientoOtro aspecto importante del proceso es la etapa de calentamiento ya que de su calidad dependen los resultados que se obtienen en el siguiente paso, el conformado. Esta etapa requiere un control exacto, dado que algunas aleaciones tienen una ventana de proceso muy reducida.Tal y como se ha mencionado en el apartado anterior, el correcto llenado de la cavidad depende mucho de la microestructura globular del mate-rial. Para evitar un crecimiento excesivo de los glóbulos, el calentamiento debe de ser lo más rápido posible pero garantizando en todo momento una gran homogeneidad. El material tiene que tener una distribución de temperaturas homogénea con el objetivo de que la fase líquida sea aceptable en cualquiera de las secciones del tocho. Para conseguirlo es importante controlar bien la etapa de homogeneización. Una de las formas de controlarla es utilizar termopares, obteniendo mediciones directas, pero hay que tener en cuenta que este tipo de mediciones no son viables durante la producción en serie donde solo es posible controlar la temperatura de la superficie.

Debido a la madurez alcanzada por los procesos de fabricación tradicionales, la optimización de los mismos con objeto de reducir el consumo de materias primas, los tiempos de ciclo y consumos energéticos, ha alcanzado su techo. Cada vez resulta más difícil mejorar este tipo de procesos, por lo que, es momento de apostar por el desarrollo de procesos y materiales innovadores que permitan fabricar piezas de mayor valor añadido. En este marco, con la tendencia al alza de los precios de las materias primas y la energía, el desarrollo de procesos de conformado conocidos como near net shape pueden resultar un factor clave para obtener la deseada competitividad.

Jokin Lozares, Zigor Azpilgain, Iñaki Hurtado. Mondragon Unibertsitatea.

Proy

ecto

s de

inve

stig

ació

n

El conformado en estado semisólido es una de esas técnicas. Esta familia de procesos de fabricación innovadores basada en el comportamiento tixotrópico ha ido suscitando un interés creciente durante los últimos 40 años. Se trata de procesos que presentan ventajas como: eficiencia energética, mayores cadencias, llenado laminar de las huellas y menor contracción, lo que en su conjunto se traduce en la capacidad de fabricar componentes NNS utilizando para ello menos etapas que los métodos tradicionales. Los procesos de conformado en estado semisólido han demostrado ser eficientes en sectores como el militar, aeroespacial y, especialmente, en el de la automoción. Actualmente, materiales como el aluminio y magnesio son conformados en éste estado como muestra el creciente número de líneas de producción operativas a lo largo de todo el mundo. Sin embargo, hasta ahora, no existen aplicaciones industriales de conformado en estado semisólido de materiales con alto punto de fusión como el acero.El trabajo de investigación llevado a cabo por Mondragon Unibertsitatea y CIE Automotive se ha centrado en la tixoforja, un proceso a caballo entre

Iñaki Hurtado es licenciado en Ciencias Físicas en la UPV/EHU

(1986), máster y doctor en Ingeniería de Materiales en la Universidad

Católica de Lovaina (1994) y Marie Curie Fellow en la rWtH

Aachen. Es profesor en la Facultad de Ingeniería de Mondragon

Unibertsitatea.

Jokin Lozares es ingeniero de materiales por la Escuela Técnica

Superior de Ingeniería de Bilbao y máster en comportamiento

mecánico y materiales en Mondragón Unibertsitatea, donde

trabaja como investigador.

Zigor Azpilgain es ingeniero en Organización Industrial y

doctor por Mondragon Unibertsitatea. Trabaja en la Facultad

de Ingeniería de Mondragon Unibertsitatea desde 1995 como

profesor e investigador.

Tixoconformado de aceros

Figura 1. Célula de tixoforja transversal.

Page 30: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

59 58

Transferencia Horno – PrensaEl conformado en estado semisólido requiere un excelente control de todos los pasos del proceso, desde la fabricación del acero, pasando por el calentamiento del material y el proceso de conformado, ya que cada uno de ellos tiene estrechas tolerancias. De hecho estas grandes exigencias en cuanto a repetitividad hacen que sea recomendable el empleo de una célula automatizada, debido a que pequeñas interrupciones o cambios durante el proceso pueden tener gran influencia sobre los resultados.Durante la transferencia del material a la prensa, es necesario tener en cuenta la perdida de temperatura que se produce en el material. Estas pérdidas pueden ser grandes y deben ser compensadas en la etapa de calentamiento porque hacen subir la fracción sólida, especialmente en la superficie del material, y por consiguiente los esfuerzos durante el conformado.Es importante minimizar también la oxidación, que afecta a la fluidez del material durante el conformado aumentando el coeficiente de roza-miento y deteriorando las propiedades del producto final.

ConformadoEl conformado del material semisólido se realiza mediante modificacio-nes de procesos convencionales como fundición de alta presión, forja, extrusión o laminación.En Mondragon Unibertsitatea se ha seleccionado como método de fabri-cación la tixoforja en molde cerrado. Principalmente, debido a los medios disponibles en el laboratorio de conformado -una prensa servomecánica- y por las ventajas que presenta frente a la tixoforja abierta.En la tixoforja abierta, un tocho semisólido con una fracción sólida del 60-80%, se coloca directamente sobre la huella inferior, al igual que en la

forja tradicional. La operación de conformado se lleva a cabo cerrando las dos huellas una contra la otra, lo cual limita la complejidad geométrica por posibles proyecciones de material. Además, es importante reducir la oxidación de la superficie del material para eliminar así la posibilidad de que ésta se introduzca en la pieza durante el conformado.La tixoforja en molde cerrado es un proceso de conformado alternativo con algunas ventajas significativas respecto a la anterior. En términos de diversidad de piezas, permite una mayor libertad geométrica y se eliminan las posibles proyecciones de la fase líquida.La etapa de conformado requiere un movimiento especial de la prensa y por ello es necesario el empleo de prensas de alta velocidad que pueden ser hidráulicas o servomecánicas. La aproximación al tocho semisólido debe de ser lo más rápida posible con el objetivo de evitar un enfriamien-to prematuro y minimizar el tiempo de ciclo. Cuando el punzón entra en contacto con el material semisólido la velocidad debe disminuir de forma significativa para prevenir posibles proyecciones líquidas. Es necesario alcanzar un compromiso entre las velocidades y los esfuerzos, puesto que, elevadas velocidades implican elevados esfuerzos de cortadura y bajos esfuerzos de conformado, pero también, posibles proyecciones de la fase líquida y llenados turbulentos que pueden generar defectos en los componentes finales. Por otro lado, velocidades de conformado bajas evitan los defectos mencionados anteriormente y hacen posible que el material fluya mejor durante el llenado de las huellas pero, a su vez, promueven la posibilidad de enfriamientos inesperados con los problemas que ello conlleva.Una vez llenada la cavidad, comienza la solidificación de la fase líquida. Se debe incrementar la presión y mantenerla hasta que finalice comple-tamente la solidificación evitando así posibles porosidades.

Resultados obtenidos y conclusionesLos resultados obtenidos hasta el momento son muy esperanzadores ya que se han conseguido piezas con los tres tipos de aceros LTT C45, LTT C38 y LTT 100Cr6. En la figura 3 se muestra una de las piezas tixoforjadas, se trata de un pivote de rueda fabricado habitualmente por forja en caliente. El proceso es robusto, tiene excelente repetitividad y no se aprecian varia-ciones en las piezas tixoconformadas bajo los mismo parámetros.Comparado con la forja en caliente, la cantidad de material de partida se reduce en un 20 % y, debido a que los esfuerzos máximos son del orden de 300 t, la capacidad de la prensa empleada es 8 veces menor que la empleada habitualmente. Además, la etapa de conformado se reduce a un único paso cuando habitualmente se necesitan 3 etapas de deformación. La tabla 1 muestra las diferencias mencionadas entre la forja en caliente y la tixoforja en molde cerrado.Nos encontramos pues ante un prometedor proceso de fabricación con un gran potencial, que nos ofrece la oportunidad de fabricar componen-tes near net shape con geometrías muy complejas en una única operación de conformado, obteniéndose además buenas propiedades mecánicas debido su singular microestructura y fluidez. El calentamiento por inducción tiene que comenzar con un calenta-

miento rápido mientras el material se encuentra completamente sólido, seguido de una disminución de potencia cuando éste comience a fun-dirse. El objetivo de esta disminución de potencia es homogeneizar la temperatura en el material, lo que se denomina fase de homogeneización. Durante esta fase hay que compensar las pérdidas por radiación y dejar que el calor fluya al interior del material por conducción. Si no se aporta la potencia suficiente como para compensar las pérdidas por radiación, puede suceder que la superficie comience a solidificar y que aparezca una piel sólida de varios milímetros de espesor.

Entorno CIC | ProyECtos dE INVEstIGaCIóN ProyECtos dE INVEstIGaCIóN | Entorno CIC

Forja en caliente Tixoforja

Pasos de conformado 3 1

Capacidad de la prensa (t) 3000 400

Mterial de partida (kg) 3,5 2,8

Tabla 1. Comparación entre la forja en caliente y la tixoforja transversal.

Figura 3. Comparación pieza tixoforjada (izda.) con pieza forjada (drcha.). Material LTT C45.

Figura 2. Calentamiento por inducción.

puede ponerse en contacto con nuestro departamento de publicidad:e-mail: [email protected]éfono: +34 943 32 69 66

Si desea anunciarse en

Page 31: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

61 60

Entorno CIC | MEsa dE IdEas: CrECImIENto y ComPEtIVIdad EUsKadI EN brEVE | Entorno CIC

por un lado, se trata de comprender los factores metabólicos que relacionan la obesidad con el cáncer de próstata; también se intentarán definir mejores marcadores para el diagnóstico de la enfermedad y, por último, se pretende identificar las partes más significativas del metabolismo de las células tumorales para poder definir un trata-miento más eficaz.El proyecto que va a desarrollar el Dr. Carracedo sobre los “Requerimientos metabólicos necesa-rios para la salud del cáncer de próstata”, se basa en entender cómo la nutrición, en lo que afecta a nivel celular como de las personas, puede deter-minar el comportamiento del cáncer de próstata. Carracedo y su equipo de su grupo consideran que comprender los fundamentos metabólicos del tumor puede ayudar a mejorar su prevención, su detección y su tratamiento.

Eusk

adi e

n br

eve

Arkaitz Carracedo obtiene un ERC Starting Grant

Las fuerzas mecánicas en las proteínasEl centro vasco de investigación en nanociencia y nanotecnología, cic nanogune, tiene abiertas dos novedosas vías de estudio sobre proteínas, cuyo objetivo es generar nuevo conocimiento científico que pueda ayudar en el desarrollo de nuevos fármacos. Concretamente, el centro está investigando los efectos de las fuerzas mecánicas en proteínas implicadas en infecciones víricas y bacterianas o en el infarto de miocardio, así como la evolución de las proteínas desde el origen de la vida hasta nuestros días. El nuevo grupo de Nanobiomecánica de CIC na-noGUNE, dirigido por el investigador Ikerbasque Raúl Pérez-Jiménez, estudia cómo afectan las fuerzas mecánicas a los procesos biológicos más básicos, un ámbito que se ha investigado poco pese a que está relacionado con numerosas en-fermedades. El objetivo de sus trabajos es medir e intentar controlar el efecto de las fuerzas mecáni-cas en las proteínas, con objeto de generar nuevo conocimiento que pueda usarse para actuar sobre distintas patologías.Además, este grupo también estudia la evolución de las proteínas por medio de técnicas bioinfor-máticas. El propio Pérez-Jiménez ya formó parte del grupo que en el año 2011 resucitó en el la-boratorio proteínas de más de 4.000 millones de años.La combinación de la biomecánica con la resu-rrección de proteínas ancestrales podría crear nuevas proteínas de gran utilidad tanto en medi-cina como en biotecnología.

Teófilo Rojo, Premio de Investigación de la Real Sociedad Española de QuímicaTeófilo Rojo, director científico de cic energigune, ha sido galardonado con el Premio de Investigación de la Real Sociedad Española de Química (rseq) en el área de Química Inorgánica. Rojo es director científico del área de Electroquímica de cic energigune desde 2010 y está especializado en química del estado sólido y en ciencia de materiales. Este premio es el galardón principal que otorga la rseq, máxima institución a nivel nacional en esta disciplina.

El investigador Ikerbasque en el centro vasco de investigación en biociencias cic biogune Arkaitz Carracedo, ha obtenido un ERC Starting Grant, es decir, uno de los proyectos científicos más prestigiosos que otorga el Consejo Europeo de Investigación (erc, de sus siglas en inglés) a jóvenes investigadores, dotado con una financiación de 1,5 millones de euros, para desarrollar un proyecto de investigación sobre la posible implicación de la alimentación en el cáncer de próstata.El proyecto otorgado a Carracedo es uno de los cuatro concedidos en España, y el único en Eus-kadi, a investigadores de ciencias de la salud (108 en toda Europa) de todo el programa ERC Starting Grant en su última convocatoria.Esta investigación, que se prolongará durante los próximos cinco años, tiene diversos objetivos:

Por otra parte, (rsEQ) ha otorgado el Premio de Investigación y Medalla de Oro a Tomás Torres, investigador de la Universidad Autónoma de Ma-drid (Uam), por su trayectoria investigadora. Asi-mismo, el Premio de Química Analítica ha sido para Angel Maquieira (Universidad Politécnica de Valencia), el Premio de Ingeniería Química para José Mario Díaz (Universidad de Oviedo) y el Premio de Física Química para Miquel Solá (Universidad de Girona).

Mecanizado de piezas aeronáuticas complejas El centro vasco de investigación cooperativa de fabricación de alto rendimiento, cic  margune, coordina una línea de investigación sobre mecanizado por electroerosión en la que participan la upv/ehu y la empresa Ona Electroerosión. El objetivo de este consorcio es encontrar soluciones para los problemas que plantean las piezas del sector aeronáutico en el proceso de mecanización.Las piezas del sector aeronáutico tienen general-mente geometrías y cavidades muy complejas, por lo que su mecanizado resulta dificultoso. El mecanizado por electroerosión abre unas posi-bilidades que no se pueden conseguir con los métodos convencionales, porque posibilita el

Rojo ha enfocado su trabajo en la preparación y el estudio de nuevos materiales con potenciales aplicaciones tecnológicas. A partir de su expe-riencia en el campo de los materiales, durante los últimos años se ha centrado en el estudio de materiales aplicados al almacenamiento de energía y de los mecanismos implicados en su funcionamiento. A lo largo de su carrera, ha sido coautor de más de 350 artículos.Además de Rojo, Fernando Cossío, catedrático en la UPV/EHU y presidente de Ikerbasque, también ha recibido el reconocimiento de la rsEQ, en su caso con el Premio de Investigación del el área de Química Orgánica.

Page 32: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

63 62

EUsKadI EN brEVE | Entorno CICEntorno CIC | EUsKadI EN brEVE

trabajo con materiales de gran dureza y porque permite, asimismo, obtener geometrías suma-mente complejas. Gracias a la colaboración entre las tres entidades, se dispondrá en breve de una solución propia que integrará matemática, software y conocimiento de la máquina para solventar los problemas de meca-nizado que presentan las piezas de aeronáutica.

Simulan el movimiento de las proteínas El Departamento de Ingeniería Mecánica de la Escuela Técnica Superior de Ingeniería de la upv/ehu, junto con el centro vasco de investigación en biociencias, cic biogune, ha desarrollado un nuevo método para simular los movimientos de las proteínas. Basándose en la semejanza de los movimientos de éstas y los que realizan los robots empleados en las cadenas de montaje, han desarrollado un software capaz de analizar el movimiento de estas moléculas de una manera más rápida y barata que los programas empleados anteriormente.

Fotografían una molécula orgánica durante una reacciónCientíficos de la Universidad de Berkeley y de la Universidad del País Vasco (upv/ehu) han realizado la primera fotografía de alta definición de una molécula antes e inmediatamente después de una reacción orgánica compleja. Las imágenes permiten apreciar los procesos de ruptura y creación de enlaces covalentes entre los átomos que componen la molécula.

Las microtecnologías como motor de la competitividadEl centro vasco de microtecnologías, cic  microgune, se ha marcado como objetivo impulsar las microtecnologías para erigirlas en un motor de competitividad de productos, procesos y servicios de la industria del País Vasco. Ésta es la principal meta del Plan de Ciencia, Tecnología y Especialización de la entidad, que guiará su actividad durante los próximos tres años, hasta 2016.El Plan de Ciencia reorientará la investigación que se lleva a cabo en el centro a los sectores de la movilidad, el transporte y las ciencias de la vida. “El objetivo último es actuar como punta de lanza en esos ámbitos para contribuir a impulsar la diferenciación y competitividad del tejido em-presarial vasco”, explica Nuria Gisbert, directora de CIC microGUNE.El centro ha optado por esta nueva orientación durante el transcurso de su plan estratégico 2013-2016. De manera conjunta con diferentes agentes, entre los que se encuentran la agencia nanoBas-que y empresas tractoras del país, CIC microGUNE ha determinado aquellos mercados en los que las microtecnologías podían tener un mayor impacto.Los citados sectores de la movilidad y las ciencias de la vida son los ámbitos en los que la entidad considera que podrá generar conocimiento trans-versal y útil para contribuir al desarrollo del tejido industrial vasco.

Premio Europeo a la labor científica de Liz MarzánLa European Colloid and Interface Society (ecis) ha otorgado el Premio ecis-Rhodia 2013 a Luis Liz Marzán, director científico del centro de investigación en biomateriales, cic biomagune. Liz Marzán, que además de dirigir cic biomagune lidera el laboratorio de BioNanoPlasmónica del centro, recibe así el premio que la sociedad europea entrega cada año a aquellos científicos europeos que se hayan destacado en los cinco años precedentes por la calidad de su trabajo en el campo de los coloides. A la hora de valorar los méritos del candidato, la ecis tiene en cuenta las publicaciones, patentes y documentos publicados por el candidato en los cinco años anteriores.Liz Marzán ha dirigido durante más de 15 años el Grupo de Investigación de Química Coloidal en la Universidad de Vigo, es fellow de la Royal Society of Chemistry y la Optical Society of America, edi-tor de la revista Langmuir, de la American Chemi-cal Society y asesor de, entre otras, la prestigiosa revista Science. Asimismo, ha obtenido importantes reconoci-mientos científicos a nivel nacional e interna-cional como, entre otros, el Premio Humboldt, el Premio DuPont de la Ciencia, el Premio de Química Física de la Real Sociedad Española de Química, el Premio Burdinola y el aCs Nano Lec-tureship Award y, más recientemente, el Langmuir Lectureship, entregado por la Sección de Coloides de la American Chemical Society.

Nueva vacuna contra el cólera que no necesita frío Un equipo de investigadores de la Facultad de Farmacia de la upv/ehu ha demostrado la eficacia de una vacuna contra el cólera que no necesita cadena de frío, lo que permitiría reducir su precio y hacerla más asequible. En su investigación, este grupo ha demostrado que la microencapsulación de la vacuna es tan eficaz como el cólera inactivado. Además, al ser un polvo, podría utilizarse sin dificultad para elaborar comprimidos que se podrían administrar por vía oral. Las micropartículas desarrolladas mantienen sus características durante un año y a temperaturas de 25 grados. Estas características permitirían abara-tar mucho el precio de esta vacuna respecto al de las actuales, ya que a diferencia de éstas no necesi-taría estar sometida a una cadena de frío, algo que encarece sobremanera su transporte y distribución.Este trabajo se ha reflejado en la tesis doctoral titulada Gastro-resistant microparticles as an oral cholera vaccine approach, realizada por la investi-gadora de la UPV/EHU, Marta Pastor.

Euskadi se cita con la divulgación científicaSan Sebastián acogió entre los días 30 de septiembre y 6 de octubre el festival Passion for Knowledge - Quantum 13, organizado por el Donostia International Physics Center, la upv/ehu y la Fundación Euskampus con el objetivo de promocionar la ciencia.

Los investigadores han logrado obtener imáge-nes detalladas de las estructuras en las que una molécula se puede transformar sobre una super-ficie, lo cual permite determinar los movimientos atómicos que subyacen en esas transformacio-nes químicas. Las imágenes corresponden a una oligo-enediina (una molécula simple compuesta por tres anillos de benceno enlazados por átomos de carbono) depositada en una superficie plana de oro. La técnica utilizada es el llamado Micros-copio de Fuerza Atómica sin contacto (nc-afm, por sus siglas en inglés), un dispositivo dotado de una sonda extraordinariamente sensible.Además de para confirmar visualmente los meca-nismos microscópicos que subyacen a las reaccio-nes químicas orgánicas predichas teóricamente, este trabajo podría tener interés para la fabricación de nuevos materiales y aparatos electrónicos de medida de alta precisión a escala nanométrica.

PolímerosRadicalariosPoliTEMPO

Reactivo

T > 90ºC

Producto 1 Producto 2

( O

On

ON

)

C26H14 C26H14 C26H14

PolímerosRadicalariosPoliTEMPO

Reactivo

T > 90ºC

Producto 1 Producto 2

( O

On

ON

)

C26H14 C26H14 C26H14

PolímerosRadicalariosPoliTEMPO

Reactivo

T > 90ºC

Producto 1 Producto 2

( O

On

ON

)

C26H14 C26H14 C26H14

PolímerosRadicalariosPoliTEMPO

Reactivo

T > 90ºC

Producto 1 Producto 2

( O

On

ON

)

C26H14 C26H14 C26H14

Entre los oradores figuraron los Premios Nobel de Química Aaron Ciechanover, Dudley Herschbach y Jean Marie Lehn, y el de Física Claude Cohen-Tannoudji. También participaron los Premios Príncipe de Asturias Ginés Morata y Juan Ignacio Cirac, así como el Premio dIraC John Pendry y la catedrática de la Universidad de Oxford Dame Jocelyn Bell Burnell.El festival ofreció también una sesión denomi-nada Naukas Quantum en la que algunos de los colaboradores de Naukas, la popular plataforma de divulgación científica en internet, ofrecieron su visión del mundo cuántico.Unos días antes, entre el 27 y el 28 de septiembre, la mencionada plataforma y la Cátedra de Cultura Científica de la UPV/EHU organizaron en la ca-pital vizcaína el evento de divulgación científica Naukas Bilbao 2013, en el que se ofrecieron a los asistentes decenas de charlas breves a cargo de los principales divulgadores científicos en la red.

Todos los métodos disponibles hasta ahora para analizar estos movimientos eran sumamente ca-ros, ya que se necesitaban superordenadores y largas horas de cálculos. Algunas proteínas son estáticas, como las que forman la piel o los mús-culos, pero otras se mueven a la hora de llevar a cabo sus funciones. Por ejemplo, se expan-den o se contraen para almacenar moléculas y transportarlas.Las proteínas intervienen en la mayoría de los procesos biológicos que suceden en nuestro orga-nismo y también en ciertas enfermedades como el cáncer o el alzhéimer, por lo que el análisis de su movimiento podría abrir las puertas a la com-prensión de estos males.

Page 33: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

65 64

EUsKadI EN brEVE | Entorno CICEntorno CIC | EUsKadI EN brEVE

Premio HR Excellence in Research a AchucarroEl Achucarro Basque Center for Neuroscience ha recibido el galardón HR Excellence in Research, un reconocimiento que la Dirección General de Investigación e Innovación de la Comisión Europea otorga a las instituciones de referencia en la gestión y el desarrollo de la investigación, particularmente en lo referido a la gestión del personal investigador.

En Euskadi, Ikerbasque fue la primera institución pública en lograrlo, mientras que, en el resto de España, el centro ImdEa Agua y el Instituto de Salud Carlos III, ambos en Madrid, son las otras dos únicas instituciones que cuentan con este galardón.

Casi un millar de científicos se presentan a las convocatorias 2013 de IkerbasqueLa última convocatoria internacional de Ikerbasque, la fundación vasca para la ciencia, atrajo el interés de casi un millar de científicos de todo el mundo para cubrir las 35 plazas que se ofrecían para trabajar en centros de investigación y universidades del País Vasco. En concreto, fueron un total de 926 las solicitudes, tanto para plazas de Research Professors, es decir, investigadores con una carrera consolidada como de Research Fellows, un programa que tiene como objetivo promover una ‘cantera’ de personal científico local de alto nivel y atraer a jóvenes talentos internacionales. PPara la convocatoria de puestos permanentes de investigación –los citados Research Profes-

sors- se ofrecen 10 puestos permanentes y se han presentado 317 candidatos de todo el mundo. Por nacionalidades, el grupo más numeroso perte-nece al Estado español (39% de las solicitudes), seguido de Italia, Alemania, Estados Unidos, Ru-sia y Francia. El 80% de las solicitudes recibidas corresponden a hombres y el 20% a mujeres. La mayoría de candidatos proceden de las Ciencias Experimentales (62%), pero llegaron candidaturas de todas las áreas del conocimiento. En la convocatoria Research Fellows 2013 se ofrecen 25 puestos de trabajo de cinco años de duración y se han presentado 607 candidatos procedentes de 54 países. La edad media de los candidatos es de 36 años. El 35% de las solici-tudes presentadas corresponden a mujeres y el 65% a hombres. En lo que se refiere a áreas de conocimiento, el 57% de los candidatos están especializados en ciencias experimentales, el 12% provienen de de las ciencias técnicas e ingeniería, un 9% de medicina y ciencias de la vida, el 10% de ciencias sociales y un 12% de humanidades.Por otro lado, según los datos de Ikerboost, el Observatorio Vasco de Ciencia y Tecnología, que elabora Ikerbasque como una herramienta de diag-nóstico y mejora para la comunidad científica de la Comunidad Autónoma, la producción investigado-ra en Euskadi se incrementó un 10,74% en 2012, lo que supone que la cantidad de publicaciones se ha duplicado desde 2004. La producción cien-tífica en Euskadi superó la barrera de las 4.000 publicaciones con visibilidad internacional en 2012, lo que sitúa a Euskadi como la sexta comunidad autónoma en volumen absoluto de producción.

Este galardón forma parte de una estrategia que puso en marcha en 2005 la Comisión Europea para la mejora de las condiciones de desarrollo de la carrera investigadora, a través del Acta Europea del Investigador y el Código de Conducta para las instituciones de emplean a investigadores. Se trata del primer centro vasco de investigación que obtiene este reconocimiento, y es también la entidad más joven que lo consigue. Actualmente, distintas instituciones de enseñanza superior e investigación cuentan con este reconocimiento, la mayoría en Reino Unido.

0

500

1000

1500

2000

2500

3000

3500

4000

4500

2003

2004

2005

2006

2007

2008

2009

2010

2011

2012

*

Producción científica en Euskadi. Fuente: Scopus

Page 34: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

Xxxx xxxx xxx xxxxx

67 66

Diagnosticado el primer tumor humanoInvestigadores de la Universidad de Kansas han diagnosticado el primer tumor humano del que se tiene constancia, de hace 120.000 años, en un fragmento de costilla perteneciente a un neanderthal que vivía en lo que hoy es Croacia. La enfermedad que afectó al especimen, conocida como displasia fibrosa, es la misma que suele afectar a los homo sapiens de hoy en día.

Obtenidas mediante clonación células madre embrionarias humanasCientíficos estadounidenses han aplicado por primera vez la técnica que se empleó para crear a la oveja Dolly para conseguir células madre embrionarias con el mismo adn, es decir, clonadas, de un adulto. La técnica empleada por los investigadores, llamada de transferencia nuclear, consiste en llegar a la fase de blastocisto del embrión, alrededor de los cinco o seis días de desarrollo, para extraer las células madre. Desde el punto de vista teórico, las células madre obtenidas podrían diferenciarse posteriormente en tejidos que el paciente necesitaría para un autotrasplante que no tendría riesgo de rechazo. El ensayo, dirigido por Shoukhrat Mitalipov, de la Universidad de Oregon Health & Science, fue pu-blicado en la prestigiosa revista especializada Cell.La transferencia nuclear consiste en tomar el óvulo de una donante, extraer el núcleo e insertar una célula adulta del posible receptor. El óvulo se acti-va y empieza a dividirse en los primeros pasos del desarrollo embrionario. Cuando alcanza la fase de blastocisto, se destruye y se obtienen las células madre. Esto sucede porque al cambiar el material genético, el óvulo deja de tener una sola cadena de adN para tener dos, lo normal en las células. El método ya se había ensayado con éxito en ani-males, pero nunca había funcionado en personas, por lo que acerca la posibilidad de poder hacer realidad la clonación humana, un potencial que crea controversia en la comunidad científica y en la sociedad.

ACtUalIdad CIENtífICa

Identifican un gen esencial para reprogramar células pluripotentesUn grupo de investigación del Centro Nacional de Investigaciones Oncológicas (cnio) publicó en la revista Nature Communications el descubrimiento de un nuevo gen esencial para la reprogramación celular, el trf1, necesario para poder reprogramar células de cualquier tejido y convertirlas en células con capacidad de diferenciarse en células de otros tipos, es decir, células pluripotentes.El gen trf1 es indispensable para proteger los telómeros, los extremos de los cromosomas. An-teriores investigaciones ya habían probado que la longitud de los telómeros y la pluripotencia están relacionados, entre otras razones porque las células pluripotentes tienen telómeros muy largos. Sin embargo, hasta ahora nunca se había detectado una proteína protectora de los telóme-ros que fuera esencial para la pluripotencia.Para investigar la conexión entre telómeros y pluripotencia, los científicos generaron un linaje de ratones a cuya información genética incor-poraron el gen trf1 unido a una proteína verde fluorescente. La proteína verde fluorescente actúa como etiqueta que delata dónde se expresa TRF1. De este modo, los investigadores descubrieron que el trf1 es un magnífico marcador de células madre, tanto en las células madre adultas, como en las embrionarias.

Nobel de Física para los ‘padres’ del bosón de Higgs

Act

ualid

ad

Cie

ntífi

ca

El fragmento de costilla muestra las lesiones típicas del tumor, aunque no arroja pistas defini-tivas sobre la causa de la muerte del neandertal. Tampoco está muy claro su sexo, aunque por otra costilla similar hallada en el mismo lugar parece que se trataba de un hombre. No obstan-te, los restos óseos confirman que los tumores de huesos existían mucho antes de lo que se pensaba, ya que los casos más antiguos de los que tenía constancia la ciencia tienen como mucho 4.000 años.El hallazgo no es totalmente inesperado, ya que algunos de estos tumores tienen una incidencia relativamente elevada y como tenemos restos de neandertales de alrededor de 100 individuos actualmente, puede aparecer uno con la enferme-dad. Se especula con que la limitada esperanza de vida de los neandertales, la mitad de la de un occidental actual, pudiera limitar la incidencia de tumores. Por eso, los autores de la investigación aseguran que se trata de un descubrimiento sor-prendente que permite analizar la naturaleza y la historia de las displasias en humanos.

La Real Academia Sueca de Ciencias distinguió este año con el Premio Nobel al belga François Englert y el británico Peter Higgs por proponer hace más de medio siglo de manera independiente la teoría del bosón de Higgs, que ayuda a explicar el origen de la masa y cuyo descubrimiento experimental no se produjo hasta el año pasado.Según la Academia, Englert y Higgs, que se re-partirán los 915.000 euros del premio, lo reciben “por el descubrimiento teórico de un mecanismo que contribuye a la comprensión del origen de la masa de las partículas subatómicas y que, recien-temente, fue confirmado por el descubrimiento de la predicha partícula fundamental por los ex-perimentos Atlas y Cms en el gran colisionador de partículas del Centro Europeo para la Investi-gación en Física de Partículas (CErN)”. Además, ambos científicos y el propio CErN recibieron el Premio Príncipe de Asturias de Investigación Científica y Técnica como reconocimiento a la importancia de su trabajo y al avance de las fron-

teras del conocimiento que ha desencadenado.Por otro lado, los investigadores estadounidenses James E. Rothman, Randy W. Schekman y el ale-mán Thomas C. Südhof recibieron el Premio Nobel de Medicina “por sus descubrimientos de la ma-quinaria molecular que regula el tráfico vesicular, un sistema de transporte fundamental en nuestras células”, según anunció el Instituto Karolinska de Estocolmo, que otorga cada año los galardones.

Schekman descubrió un conjunto de genes nece-sarios para el tráfico vesicular, Rothman desveló la maquinaria de proteínas que permite que las vesí-culas se unan a sus dianas para permitir la trans-ferencia de esa carga y Südhof descubrió cómo las señales ordenan a las vesículas emitir su carga con precisión. Cuando este sistema funciona mal en el organismo, pueden surgir enfermedades neu-rológicas e inmunológicas, así como diabetes.

Page 35: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

69 68

ACtUalIdad CIENtífICa

Los investigadores alojaron en cera de parafina secciones finas del cerebro de una mujer de 65 años de edad, que se cortaron con una herra-mienta de alta precisión. Posteriormente, las secciones se montaron en placas para detectar las estructuras celulares y, finalmente, fueron digitalizadas con un escáner de alta resolución para que los investigadores pudieran reconstruir el modelo en 3d.Los autores necesitaron cerca de mil horas para recoger los datos, y observar diferencias en el patrón laminar entre las áreas del cerebro. Los in-vestigadores sostienen que este trabajo permitirá obtener información sobre las bases neurobio-lógicas de la cognición, el lenguaje, las emocio-nes y otros procesos. Además, planean extraer mediciones del espesor cortical para analizar el proceso del envejecimiento y los trastornos neurodegenerativos.

La técnica, que podría tardar diez años en llegar a la práctica clínica, podría desembocar en el futuro en la creación de otros tipos de órganos y tejidos para ser transplantados en pacientes con un am-plia gama de enfermedades hoy incurables. Las células pluripotentes son una gran promesa en el campo de la investigación biomédica, ya que su principal alternativa son las células madre embrio-narias, cuyo uso tiene el hándicap de las reservas morales de gran parte de la sociedad por tratarse de dar uso a embriones humanos. Las células pluripotentes en cambio se obtienen retrasando el reloj de simples células de piel para que recuperen su naturaleza previa de células madre.Los investigadores japoneses del equipo de Takanori Takebe en la Facultad de Medicina de la Universidad de la Ciudad de Yokohama, en Japón, publicaron en la revista Nature un artículo en el que explican la creación de un “órgano humano tridimensional vascularizado”, es decir, un híga-do fabricado a partir de cultivos de células madre pluripotentes.

Memoria orgánica flexible, re-escribible y transferibleInvestigadores taiwaneses han anunciado en la revista Advanced Functional Materials la creación de un nuevo método para solventar los problemas encontrados hasta ahora por la industria para crear material electrónico sobre superficies flexibles. El equipo de investigación ha demostrado por primera vez que es posible crear una memoria orgánica flexible, re-escribible y transferible sobre una superficie parecida a una pegatina por medio de un método simple y barato.Los investigadores presumen que la electrónica del futuro no tendrá la apariencia de las cajas rígidas de plástico y metal que hoy en día suelen encerrar las tablets, teléfonos y cámaras. En este sentido, han demostrado que su nuevo tipo de memoria orgánica re-escribible puede simple-mente pegarse sobre las superficies que se de-seen, incluidos los substratos flexibles, no planos y rugosos, por lo que su investigación promete un gran abanico de aplicaciones para los apara-tos de almacenamiento de memoria del futuro.Según el profesor del departamento de Física de la

Universidad Nacional de Taiwan, Yang-Fang Chen, su nueva memoria flexible y transferible permite una sencilla ruta hacia la integración vertical de memorias orgánicas digitales con otros dispositi-vos orgánicos con un mínimo problema de disol-ventes, de modo que se pueden eludir los com-plejos pasos de síntesis y fabricación empleados hoy en día con los substratos no convencionales.

ACtUalIdad CIENtífICa

Investigadores españoles ordenan las 9 causas del envejecimientoUn equipo de investigadores españoles ha recopilado las nueve causas demostradas del envejecimiento en un estudio publicado en la revista especializada Cell. En el estudio se definen por primera vez todos los indicadores moleculares del envejecimiento de los mamíferos, las nueve firmas que marcan el avance del proceso. Por otro lado, la investigación combate algunos mitos, como el de que los antioxidantes frenan el envejecimiento.El trabajo agrupa las causas del envejecimiento en tres niveles. El primario incluye daños en el adN, la información genética que va almacenada en cada una de nuestras células y que guarda las instruc-ciones para el correcto funcionamiento del cuerpo.Uno de los resultados obtenidos por la investi-

El Tribunal Supremo de EE.UU. prohíbe las patentes de genes humanosEl Tribunal Supremo de ee.uu. dictaminó de manera unánime que los genes humanos no pueden ser patentados, una decisión que científicos y activistas pro derechos humanos aplaudieron como una barrera menos para la innovación en los sectores médicos y de cuidados al paciente.El tribunal declaró el adN un ‘producto natural’, una herramienta básica para el trabajo científico y tecnológico, por lo que decidió ubicarlo más allá de la protección del sistema de patentes. Una decisión en contra de las patentes de la compañía Myriad Genetics Inc. sobre dos genes vinculados a un mayor riesgo de cáncer de pecho y de ovarios.No obstante, la sala dictaminó que el material genéticos sintético sí puede patentarse. La in-dustria biotecnológica ha recibido la decisión con sentimientos encontrados, ya que según sus argumentos las patentes son necesarias para recuperar los miles de millones de dólares de las inversiones en investigación. La decisión supone un cambio de rumbo en la ley estadounidense, que durante tres décadas ha permitido las paten-tes, por lo que podría tener un importante efecto en las industrias farmacéutica y biotecnológica.

Daubechies y Mumford, Premio BBVA Fronteras del ConocimientoLos Premios Fundación bbva Fronteras del Conocimiento otorgados este año reconocieron a los más destacados científicos del año 2012 en disciplinas como la biología, la biomedicina o la matemática. En la categoría de las ciencias básicas, que premia a investigadores que desarrollen su labor en el campo de la física, la química o la matemática, los premiados fueron los matemáticos Ingrid Daube-

chies y David Mumford por sus trabajos en teoría matemática, que han tenido una gran influencia en campos variados de aplicación, desde la compre-sión de datos hasta el reconocimiento de patrones.Por otro lado, el químico Douglas Coleman y el médico Jeffrey Friedman fueron los ganadores en la categoría de biomedicina. El jurado valoró el mérito de sus trabajos de investigación por

“revelar la existencia de los genes involucrados en la regulación del apetito y del peso corporal, un descubrimiento fundamental para entender patologías como la obesidad”.En el campo de la biología, el galardón fue con-cedido a la investigadora Jane Lubchenco por su trabajo experimental, que ha llevado a la com-prensión de los ecosistemas marinos costeros y ha sentado las bases científicas para el diseño de reservas marinas.

gación es que entendiendo y combatiendo el en-vejecimiento se lucha también contra el cáncer y las demás enfermedades de mayor incidencia en el mundo desarrollado, ya que la relación entre ambos fenómenos es directa. El envejecimiento resulta de la acumulación de daño en el adN a lo largo de la vida, y ese proceso es también lo que origina el cáncer, la diabetes, las enfermedades cardiovasculares y las neurodegenerativas, como el Alzheimer.Otro daño primario del envejecimiento es la acumulación de desechos. Los ejemplos más comunes son enfermedades degenerativas como el Parkinson. Muchos investigadores piensan que estas dolencias surgen cuando falla el sistema para deshacerse de proteínas defectuosas.

Científicos alemanes elaboran la reconstrucción más precisa del cerebro humano Científicos alemanes han elaborado una reconstrucción en 3d de un cerebro humano completo, llamado BigBrain, que muestra por primera vez la anatomía de este órgano con un nivel de detalle microscópico. La resolución espacial de la reconstrucción es de 20 micras, muy superior a las disponibles actualmente. Los investigadores, que han trabajado en colaboración con colegas canadienses, destacan que la nueva herramienta es de libre acceso para la comunidad científica, ya que su objetivo es el avance la neurociencia.

Científicos japoneses crean un hígado artificialCientíficos japoneses han dado un paso fundamental hacia la conversión en realidad de la medicina regenerativa con el anuncio de la creación de unas yemas de hígado humano producidas en laboratorio a partir de células pluripotentes, un paso crucial hacia el tratamiento de enfermos hepáticos en la cola para acceder a un transplante de hígado.

Nuevo tejido auto-reparante que repele agua y aceiteInvestigadores de la Universidad de Deakin en Australia han desarrollado un nuevo tejido superanfífobo, es decir, que repele tanto el agua como el aceite, características que combina con capacidades de auto-reparación, tanto a daños físicos como a daños químicos. Los investigadores han logrado estas características por medio de una técnica de recubrimiento de baños químicos en dos tiempos. Esta investigación, que ha sido recogida por la re-vista Applied Materiales & Interfaces, abre un nuevo camino en el desarrollo de duraderos tejidos repe-lentes de líquidos con múltiples aplicaciones prácti-cas. La investigación se basa en un descubrimiento previo del mismo equipo investigador durante el que desarrollaron el método para la obtención de las propiedades de auto-reparación combinadas con las capacidades de repeler aceites y agua.En su nuevo trabajo, el equipo descubrió que un tratamiento con nanopartículas hidrófobas suma-do al recubrimiento que ya habían diseñado ofrece una novedosa capacidad de auto-reparación tanto contra daños físicos como contra daños químicos. El equipo de investigadores australiano ha logrado un significativo aumento de la repelencia a los líquidos, especialmente a los líquidos con tensión superficial ultra-baja, incluido el etanol.

Page 36: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

71 70

CIENtífICos IlUstrEs - JaCob y MoNod

En 1954-55, después de varios años de convivencia en el altillo, J. Monod fue nombrado jefe de servicio y se mudó a la planta baja donde le ad-judicaron una área importante, que denominaría Service de Biochimie cellulaire. Eso permitió aumentar las posibilidades del ‘grenier’ y com-partir las bibliotecas donde se realizaban los seminarios, y un comedor.En 1958 después de terminar 3 años de estudios de técnica en Bioquímica, tuve la oportunidad de comenzar a trabajar con Jacques Monod. En aquel tiempo Monod estaba entrevistando a jóvenes, posibles ayudantes, para completar el grupo que necesitaban él y sus colegas en el nuevo depar-tamento. Monod me contrató en su equipo y empezó para mi esa gran aventura personal de la investigación científica. Monod me presentó a A. Lwoff para que intercediera en mi nombramiento como técnica del IP. La figura de Lwoff infundía un gran respeto e incluso un punto de temor al conjunto de técnicos e investigadores; he de decir que su escritorio se encontraba en un rincón escondido del altillo y la puerta estaba prote-gida por sus secretarias. Sin embargo, también es cierto que siempre me recibió con su mayor sonrisa y le divertía verme en los seminarios, ya que no era habitual ver a jóvenes técnicas en ese entorno.Rápidamente, Monod me introdujo en el estudio de las curvas de induc-ción de la ß-galactosidasa, ensayos enzimológicos e inmunológicos. En aquel momento, para estudiar la ß-Gal en una gran cantidad de cepas, primero se permeabilizaban los cultivos con detergente y tolueno para luego agregar el substrato (ONPG) y medir la enzima por el color amarillo del orto-nitro-fenol liberado. Eso nos llevó a poner a punto un buffer que permitía la mayor actividad reproducible, que nombramos PM2, y pos-teriormente fue rebautizado como ‘Buffer Z…’; y también introdujimos el bicarbonato de sodio para frenar la reacción. Medición de permeasas, de transacetylasas en las mutantes, con diferentes inductores gratuitos o no, eran los elementos de trabajo cotidianos. Aprendí a organizar pro-tocolos y experimentos, a redactar y analizar los resultados para luego comentarlos con el profesor Monod. Al mediodía o una vez finalizaban los seminarios, investigadores, técnicos y visitantes de ambos grupos nos solíamos reunir para comer en el ‘co-medor’, que era un amplio corredor vidriado al lado de la biblioteca. Uno de los ritos era el café que preparaba Sarah Rapkine. La mayoría de los científicos que estaban ‘construyendo’ la Biología Molecular realizaban diferentes estancias en el laboratorio.Entre el altillo y nuestro servicio, había un ascensor estrecho sin de-masiada seguridad -más parecido al montacargas de una obra en construcción- que permitía el tránsito de tubos, placas de Petri, e ideas entre los 2 equipos.Todas las mañanas, Jacob solía pasar rápidamente por nuestro labo-ratorio antes de encerrarse con sus técnicas, Martine y Danièle, para analizar los colores de las colonias en las placas de Petri, resultantes de la eficiencia de degradación de la lactosa, de las cepas sometidas a mutágenos como UV, RX…, y repicar, aislar y programar con detalle los siguientes experimentos. Después de visualizar sus placas, seleccionaba una gran cantidad de ‘mutantes’ que luego ‘bajaban’ a nuestro laborato-rio. Madeleine Jolit (la otra técnica de Monod) se encargaba del mapeo de las mismas. Yo analizaba las enzimas del sistema en varias condiciones de crecimiento. Los datos eran analizados y contabilizados en función de la inducción o no y repetidos. Una nomenclatura apropiada de las cepas y mutantes nos permitía saber si se trataba de cepas HFR (dadoras) o F-receptoras para la conjugación***; de cepas salvajes para el operón lactosa o mutantes de UV o RX en alguno de sus genes, auxótrofas, etc. →

Jacob, al que llamábamos Le grand François, volvía por la tarde a nuestro laboratorio para ‘controlar’ resultados y discutirlos con Monod. Su escri-torio se comunicaba con el laboratorio y en ese horario solíamos com-partir el té con Madeleine, David Perrin, Gérard Buttin, y otros invitados. Solo permanecía ajeno el silencioso Shiro Naono, que no compartía ni el idioma ni las costumbres culinarias, y menos aún ‘nuestro té’, pero nos regalaba su mejor sonrisa como oriental bien educado!Las discusiones eran intensas, y David intervenía continuamente. Poco a poco, Monod solía desplegar un mapa sobre el escritorio donde se ubi-caban las mutantes y las actividades enzimáticas, inducidas o no. El ‘mo-delo’ aparecía y se analizaba qué experimentos y construcciones faltaban para ser más convincente[1]. El aislamiento de plásmidos F´*** permitió obtener merodiploides***estables para el operón Lac, construir fusiones de Lac a otros operones y avanzar con el modelo[2]. Muchas tardes, Jacob se paseaba con cierta impaciencia esperando los resultados: ¡La aparición del amarillo en los tubos del experimento en curso! Los ‘experimentos del siglo’ eran cotidianos y todos creíamos en ellos, hasta que después de varias horas o días de trabajo nos convencían de que el resultado no era el adecuado y el mismo quedaba “enterrado en el armario de resultados no explicables”. Jacob desaparecía en cuanto vislumbraba que el resultado era negativo. Muchos días nos venía a convencer de lo importante del experimento, ‘copiando’ a Monod que tenía como principio explicarnos tanto las metas de los experimentos como las bases de las técnicas y aparatos utilizados. Recuerdo que muchas noches yo volvía al laboratorio, antes de que ce-rraran la entrada principal del Instituto, bien para terminar algún expe-rimento, cambiar muestras en el contador de centelleo, repicar cultivos, etc. Entonces escuchaba el paso del sereno que venía apagando el gas y las luces, dejando sonar su ristra de llaves que turbaban el silencio de la noche; parecía un personaje de novela siniestra. Nunca tuve que saltar la reja para entrar como muchos de mis compañeros, pero sí entré en más de una ocasión a través del acceso del hospital.En aquel tiempo, además de los seminarios que se realizaban de forma cotidiana, un viernes al mes todos nos desplazábamos a la biblioteca del

asociarse para elucidar ese complejo regulatorio que también permitiría explicar cómo la bacteria Escherichia coli regula los genes involucrados en la utilización de la lactosa como fuente de carbono.Durante y después de la II Guerra Mundial, se fue reuniendo un grupo importante de investigadores bajo la protección y el auspicio de A. Lwoff, que se alojaron en los altillos del Institut Pasteur (le grenier) del edificio de Química Biológica. Monod primero y luego Jacob, se encontraron aquí después de haber participado muy activamente en la Guerra. Jacques Monod tuvo una participación muy intensa en la resistencia acompa-ñando al Partido Comunista, aunque rara vez habló de ello. Sin embargo le acarreó importantes dificultades para obtener el visado en cada viaje que hacía a EE.UU.! Jacob, con a penas 20 años y solo iniciados sus estu-dios de Medicina, se unió al General De Gaulle en Londres, fue enviado posteriormente a combatir en África del Norte y trabajó como cirujano. Durante el desembarco de Normandía resultó gravemente herido. En este sentido, Jacob ha sido uno de los pocos combatientes Compagnon de la Liberation nombrados por el General De Gaulle [4].

Hoy, cuando ya han pasado más de 50 años desde la publicación de dichos trabajos, es importante destacar la conjunción de saberes e inte-reses involucrados tanto en la elucidación de la regulación de la lisoge-nia**, como de la síntesis de enzimas metabólicas. Fueron los estudios realizados sobre virus bacterianos (bacteriófagos), de la lisogenia e inducción de profagos, de la transferencia de genes por conjugación, de la inducción cigótica***, llevados a cabo primero por André Lwoff, luego por François Jacob y Elie Wollman, los que condujeron a Monod y Jacob a

Carmen Sánchez de Rivas, (Barcelona, 1939): licenciada en Química

y Fisiología, doctor de 3er ciclo en Bioquímica (Université de Paris VI,

Faculté des Sciences). Desarrolló su carrera científica entre Francia

(Instituto Pasteur y Universidad de Orsay) y Argentina (Universidad

de Buenos Aires). Actualmente participa de un grupo de investigación

sobre Bacterias Gram positivas, sus fagos y estrés. Es investigadora

Carmen Sánchez de Rivas, investigadora ad-honorem de CoNICEt (Argentina).

Cie

ntífi

cos

ilust

res

El operón lactosa desde La Mesada: mi experiencia con Jacob y Monod.

Con la reciente desaparición de François Jacob (19 de Abril 2013), se ha ido el último de los 3 investigadores que recibieron el Premio Nobel de Fisiología y Medicina en 1965 (Jacob, Monod y Lwoff). Ese premio coronaba los trabajos sobre La regulación de la expresión genética de la síntesis de enzimas y de virus bacterianos, para muchos la consagración del operón* [1].

Jaco

b, M

onod

y L

woff

con

los

dado

s co

n lo

s cu

ales

‘jug

aba’

con

la e

nzim

a al

osté

rica

, 196

5. In

stitu

t Pas

teur

/Ser

vice

des

Arc

hive

s.

ad-honorem del CoNICEt (Consejo Nacional de Ciencia y Tecnología) de Argentina.

Jacques Monod y Carmen Sánchez en 1960. Foto Madeleine Brunerie, Institut Pasteur.

Page 37: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

73 72

CIENtífICos IlUstrEs - JaCob y MoNod CIENtífICos IlUstrEs - JaCob y MoNod

Institut de Physico-chimie, en el barrio latino, donde se realizaban semi-narios más importantes (Club de Physiologie Cellulaire) con la presencia de invitados extranjeros. Monod quiso desde el principio que yo estuviese presente en todos los seminarios y después me hacía un examen y yo le escribía un informe del mismo. Recuerdo las clases de genética que Jacob dictó en el Collège de France, que eran un verdadero placer por su calidad, imaginación y humor.La clase inaugural de Monod en el Collège de France, en 1967, donde presentó su primer ensayo sobre el análisis filosófico de la ciencia, le-vantó mucha controversia e impactó tanto a científicos como a filósofos. “¿Cómo un científico se atreve hablar de Filosofía?” Ese fue el inicio de sus nuevas preocupaciones, que plasmó en su libro Le hasard et la nécessité, aún hoy tema de análisis y discusión en clases de Filosofía[6]. La presencia de Monod en los seminarios era a la vez apreciada y temida, ya que tenía la facultad de incomodar a cualquiera que hiciese alguna pregunta que él considerase absurda o poco elaborada. Su mirada dejaba ‘clabado’ a uno en su silla y sus reflexiones podían llegar a ser descalifi-cadoras. Por otro lado, su capacidad de análisis, de síntesis, le permitía ‘explicar’ al expositor los alcances de sus resultados, los experimentos que faltaban…, incluso en terrenos no directamente ligados a su especialidad, lo que la mayoría admiraba y respetaba.Entusiasta, cordial, atento, ese era el ‘Jacques’ que describe también Jacob y es el que estimuló mi compromiso con la ciencia, el que me per-mitió terminar mis estudios universitarios. Tuve la suerte de participar en lo que fue la gran aventura del operón y más tarde en plena euforia de la Alosteria****[3] participé en muchos experimentos sobre enzimas alostéricas con JP Changeux[8]. Al finalizar mi licenciatura, me ‘confiaron’ analizar a la GDH (glutámico-deshidrogenasa) de E. coli para poner en evidencia sus propiedades alostéricas. Purificación, cinéticas de todo tipo, determinación de la velocidad de sedimentación, de Km y Ki de diferentes sustratos en las dos direcciones…, todas mostraban el com-portamiento esperable para una enzima alostérica, pero ninguna ‘nueva’ propiedad para ‘el modelo’, así que solo quedó en mis cuadernos! Después de más de 1 año, esta línea de trabajo fue abandonada[7]; no se publicaba nada que no fuese considerado como novedoso y aceptado por le patron. ¡Cuál hubiese sido su asombro (y alegría) si hubiese descubierto que el Represor, su represor Lac, es una proteína alostérica![9]. Cuando mi carrera científica estuvo encaminada, Monod puso una luz de alerta: “Carmen, este oficio es muy duro, déjeselo a los muchachos!”. Toda una explícita opinión que muestra lo difícil que ha sido para las mujeres el acceso al mundo de la ciencia, como lo analiza Sandra Legout[16]. Aunque hubo muchas científicas trabajando en su laboratorio, creo que he sido la única mujer en haber realizado una tesis bajo su dirección. También conocí al otro protagonista, ‘Monod’. Así como todos pudimos comprobar y apreciar su creatividad e inteligencia, podía ser extrema-damente rígido en ‘modificar’ cualquier aspecto referido al ‘dogma cen-tral’: ADN-> ARNm proteínas. No resultó fácil que aceptara la regulación positiva* de arabinosa (Engelsbeg en 5) y más próxima de nosotros, la de maltosa (M Schwart en 5). En ese contexto mis resultados de Tesis sobre, ‘La represión catabólica en el operón lactosa’, que proponían una regulación a nivel traduccional, o la presencia de un segundo promotor para el inicio de la traducción (lo que después sería una secuencia Shine-Delgarno), no fueron ‘bienvenidos’ y no se publicaron! Prefirió ahondar en los estudios de represión catabólica con los efectos del AMPc, donde

se pusieron en evidencia efectos regulatorios a nivel transcripcional[11]. Pronto aparecerían trabajos mostrando efectos regulatorios de la repre-sión catabólica a nivel de traducción[12]; yo misma, lejos del Instituto, pude aportar datos en ese sentido[13]. Con el paso del tiempo, Monod fue ganando terreno. Este se exacerbó por su necesidad incomprensible de cortejo que algunos fomentaron. A muchos nos pareció lamentable su paso del té al whisky rodeado de una corte adicta, ya que en nuestra opinión no necesitaba de ella para ser valorado. Su intransigencia en aceptar resultados ‘diferentes’, sobre todo cuando sus impulsores no participaban de ‘la corte’, le llevaron a cometer injusticias. Así es como no entendió o aceptó los resultados de la ‘transcriptasa reversa’***** en bacterias, que describía Mirko Beljanski ya en 1967[14] en su propio Service antes que H. Temin lo hiciera en virus[15], lo que le valió el Premio Nobel junto con D. Balimore y R. Dulbecco en 1975. En cambio se cometió una gran discriminación con Mirko tanto en términos científicos como en lo que respecta a los recursos que le facilita-ron en el Instituto. Precisamente en esa época, durante mis experimentos sobre represión catabólica, sugerí que otros mecanismos diferentes del represor podrían intervenir en la regulación de Lac. Entonces pensé que una transcriptasa reversa podría jugar un rol en ese tipo de regulación. Medí esa enzima en condiciones o no de represión catabólica y observé diferencias significativas que podrían justificar un tipo de regulación por otra vía. Pese a las advertencias de David (¡Le patron n´aimera pas ça!), cuando me encontré con Monod para analizar los progresos de mi trabajo, trató primero de convencerme de lo poco fiables que eran los datos (y de la ‘enzima de Mirko’!) y, tras mi resistencia e insistencia en un

análisis más científico, me conminó a abandonar esa línea.Hacia los años 70, Jacob se dedicó al estudio de organismos eucariotas (ratones) y se mudó al nuevo edificio Jacques Monod, al otro lado de la calle. Era toda una aventura cruzar la calle del Dr. Roux donde se encuen-tran la cripta de Pasteur y la Biblioteca Central, testigos de otra época. En ese lugar, en Año Nuevo, los directores ofrecían al personal sus deseos de felicidad. ¡También en la fecha de la muerte de Pasteur se realizaba una conmemoración con todo el personal que luego desfilaríamos por la cripta para dar el pésame a las autoridades! ¡Dos importantes ocasiones para ‘cruzar’ la calle!Monod, en cambio, dejó el laboratorio por la dirección del Institut Pasteur donde reorganizó tanto la obtención de recursos como la distribución de grupos: los proyectos de investigación se realizarían en París; las aplica-ciones y producción en Garches, todo un revuelo, ¡en el Instituto Pasteur!En una conversación que tuve con F. Jacob en 2010, repasamos nuestra visión de la ciencia actual: demasiado justificada hacia las ‘aplicaciones’. Para ambos fue un placer recordar lo que fue el periodo excitante que nos tocó vivir, lo que algunos denominaron ‘la fiebre de la Biología Molecular’. Solo 2 periodos de su vida fueron tan excitantes, el otro fue su vivencia en África del Norte durante los combates y como médico durante la II Guerra Mundial. Hoy, 50 años después de esas vivencias y muchos kilómetros de por medio, sigo valorando lo importante que fue encontrarme ahí en ese momento y con ese entorno tan excepcional, lo que encendió la llama estimulante (le feu sacré) que me permite continuar siempre mas allá, pese a las trabas con las cuales nos tropezamos en el día a día.

Premios Nobel de 1965. Por la derecha Dr. Robert B.Woodward (Química), Julian Schinger y Richard P. Feynman (Física), François Jacob, André Lwoff y Jacques Monod

(Fisiología o Medicina), Michael A. Sholokhov (Literatura). Institut Pasteur/Service des Archives.

Monod, Carmen Sánchez y André Lwoff en 1960. Foto Madeleine Brunerie, Institut Pasteur.

François Jacob y Sarah Rapkine.

Mme. Odette Monod y Carmen Sánchez en 1960. Foto Madeleine Brunerie, Institut Pasteur.

Page 38: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

74

CIENtífICos IlUstrEs - JaCob y MoNod

Bibliografía

[1] 1960 " L'opéron: groupe de gènes à expression coordonnée par un opérateur". F. Jacob, D.

Perrin, C. Sanchez et J. Monod. Compt. Rend Acad. Sci. 250, 1727 1729

[2] 1961 “Genetic regulatory mechanisms in the synthesis of proteins”. F. Jacob & J. Monod.

JMol Biol 3: 318-336

[3] 1963 “Allosteric proteins and cellular control systems”. Monod, J., Changeux, J.-P., and

Jacob, F. (1963) J. Mol. Biol. 6, 306–329

[4] 1987. “La Statue Intérieure”. F Jacob Editions Odile Jacob

[5] 1980. “Les origines de la Biologie Moléculaire : Hommage à Jacques Monod”. A. Lwoff & A.

Ullmannn. Collection Academic Press

[6] 1970. “Le hasard el la nécessité. Essai sur la philosophie naturelle de la biologie moderne”.

J. Monod, Éditions du Seuil

[7] 1964-1965-"Caracterización y parámetros enzimológicos de la L-glutamico-deshidrogenasa

de E. coli". C. Sánchez, J.Monod & J.P. Changeux. Inédito

[8] 1966. -"Sur les propiétés de la l-thréonine désaminase de biosynthèse d'un mutant d'E.coli

K12". C. Sanchez, J.P. Changeux. Bull. Soc. Chi. Biol. 48, 705 713

[9] 2009. “Allostery in the LacI/GalR family: variations on a theme”. L. Swint-Kruse and KS

Matthews. Current Opinion in Microbiology 12:129–137

[10] 1968 -"Etude de l' effet glucose sur l' opéron lactose d'E.coli K12". C. Sánchez, Tesis de 3er

ciclo en Bioquímica, Universidad de Paris VI. Noviembre 1968. Director: J. Monod

[11] 1968- “Cyclic AMP as an antagonist of catabolite repression in Escherichia coli”. Ullmann A.

& . Monod J. Febs Letters vol2 nº1: 57-60

[12] 1969- “Catabolite Repression of the lac operon: repression of translation”. M. D. Yudkin

and V. Moses. Biochem. J. (1969) 113, 423

[13] 1976- “Catabolite translational effects on the lac messenger RNA of E. coli K12". C. Sanchez-

Rivas & B. Mendez. Molec. Gen. Genet. 148, 98 104.

[14] 1972 Synthèse in vitro de l´ADN sur une matrice d´ARN para une transcriptase

d´Escherichia coli. Beljanski M. Compt Rend Acad Sci Hebd Seances Acad Sci D. 1972 May 1.

5;274(20):2801-4.

[15] 1972 “The RNA tumor viruses--background and foreground”. Temin HM. Proc Natl Acad Sci

U.S.A. 1972 Apr;69(4):1016-20

[16] 2013 “Les femmes pasteuriennes: de la "cuisine" à la paillasse”. Sandra LEGOUT. Conférence

culturelle du Musée Pasteur. 21 février 2013.

Operón* Para una determinada función (metabolismo de la lactosa) se requieren una serie de enzimas ( ß-galactosidasa, ß-galactosil permeasa, transace-tilasa). Los genes correspondientes se encuentran asociados estructu-ralmente y responden coordinadamente a un equipo de reguladores (proteínas y secuencia operador) formando un operón. Las interacciones ambientales permitirán (regulación positiva) o no (regulación negativa) la transcripción de la conjunta (unidad transcripcional) para luego producir las proteínas necesarias a la función. En el caso de regulación negativa (como Lac) el inductor (lactosa y/o alolactosa) intercepta la asociación del represor al ADN (operador) y permite la transcripción del conjunto.La presencia de glucosa, fuente de carbono preferente, interfiere la capacidad de inducción de la lactosa ejerciendo represión catabólica. Solo al agotar la glucosa se expresan los genes lac; en esas condiciones las curvas de crecimiento muestran 2 etapas con diferentes velocidades de crecimiento separadas por una meseta (diauxia).

Profago y Lisogenia**Algunos virus de bacterias (bacteriófagos o fagos) pueden permanecer ‘mudos’ al interior de su huésped en forma de profago y se dice que su huésped es lisógeno para ese fago. Eso implica que la bacteria es inmune

a virus similares; sin embargo en ciertas condiciones (de estrés) el profago se puede ‘despertar’ y lisar al huésped.

Conjugación***Se puso en evidencia en bacterias, primero en Escherichia coli, lo que permitió hablar de la sexualidad de las bacterias. Algunas cepas tienen la capacidad de transferir con alta eficiencia su genoma (HFR, por alta frecuencia de recombinación) a otras bacterias aceptoras en una secuen-cia de tiempo relacionada con la posición de los genes en el cromosoma. Se debe a la presencia de un facto F integrado a su genoma ausente en la aceptora (F-). En algunos casos se han podido aislar cepas portadoras del factor F en forma de plásmido que al escindirse del genoma bacteriano conllevan algunos de los genes (F´o F prima). Eso permite construir diploides parciales para esos genes (merodiploides). Cuando el ADN entrante es portador de un profago, y la bacteria receptora es susceptible a ese fago, en el momento en que ingresa el profago en la cepa receptora este provoca la lisis (inducción cigótica). Esto se debe a la ausencia de represor del ciclo lítico en el receptor.

Alosteria****Las proteínas alostéricas son multímeros en los cuales la unión de una molécula de efector (substrato o inhibidor) a uno de sus monómeros (protómero) provoca un cambio conformacional que modifica la afinidad (Km, Ki) y/o la velocidad de la reacción (Vmax) por el efector.

Transcriptasa reversa*****Son enzimas que a partir de ARN, sintetizan ADN. Los virus cuyo genoma es ARN, requieren de esta enzima para poder permanecer y asociarse al genoma del huésped.

Carmen Sánchez y el grupo de investigadores y estudiantes en la Universidad

de Buenos Aires.

Page 39: El - CIC Network54.154.165.46/wp-content/uploads/2015/02/cn14.pdf · multinacionales líderes del sector farmacéutico, ... Asturias de Investigación Científica y Técnica (2006),

www.cicnetwork.es