el hijo de el cronopiogalia.fc.uaslp.mx/museo/cronopio/boletin no. 979.pdfel hijo de el cronopio no....

59
Boletín El Hijo de El Cronopio Museo de Historia de la Ciencia de San Luis Potosí Sociedad Científica Francisco Javier Estrada No. 979 27 de marzo de 2013 No. Acumulado de la serie: 1463 Boletín de información científica y tecnológica del Museo de Historia de la Ciencia de San Luis Potosí, Casa de la Ciencia y el Juego Publicación trisemanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. (http://www.amazings.com/ciencia). La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será responsabilidad del autor correos electrónicos: [email protected] Consultas del Boletín y números anteriores http://galia.fc.uaslp.mx/museo Síguenos en Facebook www.facebook.com/SEstradaSLP ----------------------------- ------------------------------------------------ 20 Años Cronopio Radio 175 Aniversario del Nacimiento de Francisco Javier Estrada 11 de febrero de 1838 Cronopio Dentiacutus 145 Años Nacimiento de Valentín Gama 21 de enero 1868

Upload: others

Post on 26-Mar-2020

6 views

Category:

Documents


0 download

TRANSCRIPT

Boletín El Hijo de El Cronopio

Museo de Historia de la Ciencia de San Luis Potosí Sociedad Científica Francisco Javier Estrada

No. 979 27 de marzo de 2013 No. Acumulado de la serie: 1463

Boletín de información científica y

tecnológica del Museo de Historia de la Ciencia de San Luis Potosí, Casa de la

Ciencia y el Juego

Publicación trisemanal

Edición y textos Fís. José Refugio Martínez Mendoza

Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. (http://www.amazings.com/ciencia). La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá

enviarse al editor. El contenido será responsabilidad del autor

correos electrónicos: [email protected]

Consultas del Boletín y números anteriores

http://galia.fc.uaslp.mx/museo Síguenos en Facebook

www.facebook.com/SEstradaSLP

-----------------------------

------------------------------------------------

20 Años Cronopio

Radio

175 Aniversario del Nacimiento de Francisco Javier Estrada

11 de febrero de 1838

Cronopio Dentiacutus

145 Años

Nacimiento

de

Valentín Gama

21 de enero

1868

El Hijo de El Cronopio No. 979/1463

30643

Contenido/

Agencias/ Posee Baja California tasa más alta de cura de tuberculosis Alertan sobre aumento de cuadros alérgicos y asmáticos en primavera Desarrollan en la UNAM modelo de atención integral de la tuberculosis Crean universitarios tridente de programas de cómputo único en el mundo Trabajarán juntos Panamá y Costa Rica para salvar animal en peligro de extinción Las selvas tropicales pueden recuperarse si las prácticas agrícolas son de baja intensidad Consumo energético de camionetas, equiparable al de un autobús de pasajeros Trazan científicos mapa genético del trigo; mejorarán productividad y resistencia Problema renal ha matado a miles de agricultores de Mesoamérica Desarrollan prueba más precisa y rápida para detectar tuberculosis

Noticias de la Ciencia y la Tecnología Gran Enciclopedia de la Astronáutica (54): OAO Dinosaurios víctimas de reptiles Técnica innovadora para fabricación a gran escala de microsupercondensadores Profundizando en la evolución mineral de la Tierra Gente con apetito excesivo a causa de la dieta de sus madres durante el embarazo Hacia un almacenamiento eficaz y barato de energía solar durante la noche Nuestra cognición depende de neuronas capaces de disparar sus señales con lentitud y estabilidad Transforman los descartes de bebidas en bioetanol y vinagre Nuevo antimalárico probado con éxito en ratones humanizados Los ‘estrellamotos’ desnudan el interior de las estrellas de neutrones Salvadas para morir Gran Enciclopedia de la Astronáutica (55): Akers, Thomas Dale Nueva estrategia farmacológica para atacar al virus de la gripe Células madre viables obtenidas mediante partenogénesis El primer sensor de imágenes flexible y totalmente transparente Nueva y prometedora terapia para que las heridas en la piel se cierren antes Sistema revolucionario de energía solar basado en nanoantenas Antigua moneda china hallada en Kenia demuestra el comercio entre civilizaciones del pasado Neuronas artificiales podrían detectar sismos Nueva herramienta de diagnóstico para mejorar la conservación de los peces en los ríos El ‘retrato’ del universo más joven desafía al modelo cosmológico estándar Presentismo y absentismo en el trabajo

El Hijo de El Cronopio No. 979/1463

30644

Agencias/

Posee Baja California tasa más alta de cura de tuberculosis Es el estado con el mayor número de casos detectados, con 600 nuevos en Tijuana, Tecate y Playas de Rosarito.

NOTIMEX

Tijuana, BC. Baja California cuenta con la tasa más alta de curación en pacientes con tuberculosis resistente al tratamiento, con 90 por ciento, afirmó el neumólogo de la Secretaría de Salud estatal, Rafael Laniado Laborín.

El responsable de la Clínica de Tuberculosis del Hospital General de Tijuana (HGT) dijo que debido a los trabajos de detección, también es el estado con el mayor número de casos detectados, con 600 nuevos en Tijuana, Tecate y Playas de Rosarito.

En el marco del Día Mundial de la Tuberculosis, que se conmemora el 24 de marzo, señaló que 80 por ciento de los casos son de tipo pulmonar, por lo cual destacó la importancia de acudir al Centro de Salud, en caso de presentarse tos seca o con flemas por más de dos semanas.

Indicó que para atender los casos, la Secretaría de Salud realiza pruebas de diagnósticos mediante estudios de gabinete y laboratorio (basiloscopías), proporcionando el tratamiento medicamentoso de manera gratuita.

Agregó que la Clínica de Tuberculosis Resistente cuenta con el mejor laboratorio en el noroeste del país, y el personal de salud trabaja en la atención oportuna de los pacientes para contribuir a la lucha contra esta enfermedad.

Indicó que personal de la Secretaría de Salud de Baja California llevó a cabo el curso "Actualización en tuberculosis para médicos de primer nivel de atención", donde acudieron más de 200 asistentes de diversas instituciones del sector Salud.

Durante el curso se presentaron diversos parámetros clínicos en la atención de pacientes con tuberculosis, desde la detección mediante estudios radiológicos, tratamiento en pacientes pediátricos y personas diagnosticadas con VIH-SIDA.

_______________________________________________________________

El Hijo de El Cronopio No. 979/1463

30645

Alertan sobre aumento de cuadros alérgicos y asmáticos en primavera Es una época en la que los animales aves y pájaros trasportan en el aire el polen de las flores y plantas.

NOTIMEX

Guadalajara, Jal. Con la llegada de la primavera, se exacerban cuadros alérgicos y asmáticos, debido a la polinización característica de la estación del año, la cual produce ciertas reacciones, principalmente a nivel respiratorio.

El titular de la Clínica de Asma en el Hospital General Regional (HGR) No. 110, del IMSS en Jalisco, Alfredo Gazca Aguilar, explicó que es una época en la que los animales aves y pájaros trasportan en el aire el polen de las flores y plantas.

"Esto propicia reacciones alérgicas en personas sensibles al polen o bien muchas debutan con alergia durante la estación", indicó el especialista, tras señalar que en esta temporada se espera un incremento en las consultas médicas por este motivo.

Añadió que aunque las personas asmáticas y alérgicas tienen sintomatología todo el año, durante estaciones como la primavera, se agudizan las molestias.

Destacó que puede haber cuadros de rinitis semejantes a una gripe, debido al escozor o picor en la nariz que produce la inhalación del polen, irritación y comezón de ojos por inflamación de la conjuntiva (conjuntivitis) y dermatitis atópica (resequedad de la piel).

Subrayó que el impacto es mayor en vías respiratorias, pero una reacción alérgica se puede diferenciar de un cuadro infeccioso, debido a que no se presentan síntomas febriles, no obstante el riesgo es que los pacientes con alergia y asma se compliquen con procesos de infección respiratoria, como la sinusitis.

Además, dijo, es común que los niños se compliquen con inflamación de amígdalas y en los adultos mayores pueden combinarse cuadros de alergia y asma, con problemas de oído (otitis) e incluso con neumonía.

Señaló que muchos pacientes podrían ser estabilizados al llegar al servicio de urgencias, por exacerbación de cuadros alérgicos a través de un manejo con nebulizadores o broncodilatadores, habrá otras personas que requieran de ser hospitalizados por complicaciones con estancia promedio de hasta una semana.

"Lo que pasa es que muchos pacientes empiezan con sintomatología leve que después se complica, lo ideal es empezar a prevenir la agudización de los cuadros alérgicos, incluso antes de que inicie la estación primaveral", expresó Gazca Aguilar.

El Hijo de El Cronopio No. 979/1463

30646

A fin de prevenir las exacerbaciones, recomendó evitar estar cerca de fumadores o pedirles que no fumen al interior de la casa, dejar afuera de la vivienda a las mascotas, incluyendo perros y aves, no tener alfombras, entre otras medidas.

También sugirió evitar el uso de ventiladores e incluso de aire acondicionado, porque éstos crean remolinos de aire, además concentran polvo, bacterias y otros elementos que pueden propiciar exacerbaciones alérgicas.

Por último, el experto comentó que lo ideal es no tener plantas al interior de la vivienda, y en caso de exponerse a ambientes donde la polinización sea muy fuerte como un bosque o realizando alguna actividad al aire libre, se puede hacer uso de máscaras especiales para protegerse.

_______________________________________________________________

Desarrollan en la UNAM modelo de atención integral de la tuberculosis La ENEO trabaja en una propuesta que considera orientación en hábitos alimenticios, recomendaciones sobre actividad física y consejos para establecer una red de apoyo social y familiar.

La Jornada

México, DF. En México hay cerca de 18 mil personas diagnosticadas con tuberculosis. En promedio, entre 2010 y 2011 se registraron 13.7 casos por cada 100 mil mexicanos. En los estados fronterizos (Sonora, Sinaloa, Baja California, Guerrero y Chiapas) la tasa fue de 23 y hasta 42 por cada 100 mil habitantes.

Por esta causa, se registran en el país cerca de dos mil muertes al año. “Esto es inaceptable, porque es una enfermedad que, de diagnosticarse a tiempo, es curable”, aseguró Sofía Sánchez Piña, de la Escuela Nacional de Enfermería y Obstetricia (ENEO) de la UNAM.

El padecimiento sigue presente en la nación, y lo más alarmante es su resistencia a los fármacos y el aumento del número de infecciones en pacientes con diabetes mellitus y VIH Sida, alertó.

En su mayoría, las personas no acuden a los servicios médicos si presentan una tos persistente, porque la atribuyen a las condiciones del clima, la contaminación o al estrés, y no consideran que puedan padecerla, indicó en ocasión del Día Mundial de Lucha contra la Tuberculosis, que se conmemora este 24 de marzo.

La problemática persiste porque los programas de salud sólo contemplan la prescripción de los medicamentos, pero no abordan los aspectos sociales, familiares y culturales involucrados en el seguimiento del tratamiento farmacológico.

El Hijo de El Cronopio No. 979/1463

30647

Además de proporcionarles los fármacos, deben observarse las condiciones de vida de los pacientes para evitar que la infección sea prolongada o que se desarrolle resistencia a las sustancias activas, recomendó la también jefa de la División del Sistema Universidad Abierta y Educación a Distancia de la ENEO.

En este contexto, la instancia participa en el Programa Nacional de Control de la Tuberculosis, y colabora con el Centro Nacional de Programas Preventivos y Control de Enfermedades (CENAPRECE) de la Secretaría de Salud, en programas de servicio social, capacitación y actualización de las enfermeras que atienden a pacientes, y desarrolla una línea de investigación en este ámbito, informó.

El objetivo de esas acciones es generar un modelo de atención integral contra la afección, útil para el diseño de esquemas de cuidado para otros padecimientos; debe integrar orientación por parte de las enfermeras acerca de hábitos alimenticios, recomendaciones sobre la actividad física que requieren y consejos para establecer una red de apoyo social y familiar, factores que aumentan las posibilidades de éxito del tratamiento farmacológico. La ENEO trabaja en esta propuesta, adelantó.

Cuidado humanizado

La galardonada en 2008 con la medalla Isabel Cendala y Gómez, la presea más alta que se otorga a enfermeras mexicanas, refirió que, de acuerdo a estudios realizados en la Escuela, se ha abandonado el cuidado de los enfermos, quienes al sentirse vulnerables, aunado a su condición física, estado nutricional y el rol que desempeñan en sus familias, caen en desesperanza.

No se dispone de un protocolo para orientarlos sobre hábitos de alimentación, relaciones familiares y de pareja, actividades que pueden realizar, exposición al medio ambiente y condiciones de las viviendas, elementos determinantes para recuperar su salud. Para garantizar la eficacia de los medicamentos prescritos, se les deben recomendar alimentos con un alto aporte nutricional a fin de fortalecer su condición física y resistir la infección. Al seguir la prescripción médica, los pacientes ya no pueden transmitir la enfermedad y su convivencia familiar puede llevarse a cabo con normalidad. Tener tuberculosis no debe significar exclusión social, subrayó.

El rechazo genera depresión y, en consecuencia, el sistema inmune es vulnerado, lo que provoca el avance del bacilo y, en algunos casos, la muerte, explicó.

Administrar un medicamento no garantiza la eficacia total del tratamiento farmacológico. Al sentirse acompañado, cuidado y reconfortado en todo momento, logramos un mejor seguimiento, reiteró.

El modelo de cuidado debe tener un enfoque humano, en el que las enfermeras deben considerar la vulnerabilidad y estado de ánimo de los pacientes en todo momento. Si sumamos esfuerzos con el esquema médico existente, será exitoso, concluyó.

_______________________________________________________________

El Hijo de El Cronopio No. 979/1463

30648

Crean universitarios tridente de programas de cómputo único en el mundo Se trata de Modus XXI, Evocanto y Temperamentum, generados por alumnos del Posgrado en Música. Los proyectos son encabezados por Felipe Orduña Bustamante del CCADET de la UNAM

La Jornada

México, DF. Alumnos del Posgrado en Tecnología Musical de la UNAM crearon, por separado, un tridente de programas de cómputo aplicados a esa disciplina. Se trata de Modus XXI, Evocanto y Temperamentum, trabajos recepcionales de maestría de Alfonso Meave Ávila y Gisela Gracida Olvera, así como de doctorado de Eunice Padilla León, respectivamente, dirigidos por Felipe Orduña Bustamante, investigador del Centro de Ciencias Aplicadas y Desarrollo Tecnológico (CCADET) de la UNAM.

Los proyectos realizan aportaciones universales en los ejercicios de música no tonal, la evaluación de cantantes e intérpretes, así como en técnicas de afinación de instrumentos como clavecines y espinetas. Están dirigidos primordialmente a estudiantes de música y se encuentran registrados en el Instituto Nacional de Derechos de Autor.

Modus XXI

El primer programa, tutelado por Felipe Orduña en el Laboratorio de Acústica y Vibraciones del CCADET, es Modus XXI (creación de una aplicación de cómputo generadora de melodías atonales, con la metodología Modus Novus de Lars Edlund); de Meave Ávila, se encuentra en práctica desde 2010.

Es un generador de material para dictados musicales y ejercicios de entonación; es decir, tiene una orientación didáctica, pero cuenta con una peculiaridad, que a diferencia de otros textos, está orientado al estilo que se llama no tonal, es decir, los ejercicios no están en una tonalidad específica, explicó Orduña.

Existe un repertorio musical de la primera mitad del siglo XX que tiene esa característica, pues hubo compositores que rompieron con el esquema tonal, por lo que no hay suficiente material didáctico para entrenar a ejecutantes, instrumentistas y cantantes.

“Desarrollamos el software que produce ejercicios de manera controlada, es decir, el usuario puede graduar la complejidad. No existe ningún otro en el mundo que haga esto”, precisó.

El Hijo de El Cronopio No. 979/1463

30649

Evocanto

¿Canta o no canta y cómo lo hace? Alejado de connotaciones y subjetividades, Evocanto evalúa de manera contundente las capacidades técnicas de un intérprete vocal.

Esta herramienta para estudiantes, creada por Gisela Gracida Olvera, realiza un análisis acústico de la emisión vocal. Asimismo, evalúa qué tan precisa es la entonación, los armónicos o frecuencias armónicas que componen la voz; además, emprende un análisis de las resonancias del tracto vocal y del vibrato musical.

“No es una propuesta de sustituir al maestro de canto o su criterio perceptual y artístico, es un análisis extremadamente frío, objetivo, preciso y técnico, que complementa la evaluación del docente, que finalmente califica otros aspectos que el software mismo no puede evaluar”, subrayó el investigador del CCADET.

Temperamentum

Temperamentum, de Padilla León, es un auxiliar en la enseñanza de afinación de instrumentos de teclado antiguo.

Su aplicación surge de la inquietud de tener en México una herramienta tecnológica que permita a los músicos y personas interesadas en la teoría y práctica de la afinación y los temperamentos históricos, complementar el estudio de los mismos por medio de una aplicación para Mac y PC, que apoye el aprendizaje y la práctica de afinación de los intervalos puros y temperados.

Los intérpretes de este tipo de instrumentos (típicamente el clavecín), requieren la habilidad de afinarlos, porque a diferencia de un piano que mantiene su entonación durante varios meses, aquéllos están sujetos a diversas cuestiones de entorno y se desafinan, apuntó Orduña Bustamante.

“Lo ideal es que afinemos como en las épocas de la música que se interpreta, incluso tiene que ser específica al repertorio que se ejecuta; por ejemplo, la música italiana del Renacimiento requiere temperamentos determinados”, concluyó.

_______________________________________________________________

El Hijo de El Cronopio No. 979/1463

30650

Trabajarán juntos Panamá y Costa Rica para salvar animal en peligro de extinción El proyecto tiene el objetivo de crear esquemas de conservación más sólidos para salvar al manatí.

DPA

Panamá. Científicos de Panamá y Costa Rica iniciaron un proyecto conjunto para tratar de salvar al manatí, un mamífero marino en peligro de extinción en la zona fronteriza en la vertiente del Caribe, confirmaron hoy los responsables de la iniciativa binacional.

Héctor Guzmán, biólogo venezolano del Instituto Smithsonian de Investigaciones Tropicales (STRI, por sus siglas en inglés), se trasladó a la caribeña provincia de Bocas del Toro para emprender un completo estudio del manatí (Trichechus manatus) y su hábitat.

El proyecto, financiado por el Banco Interamericano de Desarrollo (BID) y el Fondo para el Medio Ambiente Mundial de las Naciones Unidas, tiene el objetivo de crear esquemas de conservación más sólidos. Guzmán fue invitado a participar en el estudio.

Los manatíes son parte de la fauna del Sixaola, que incluye a los jaguares y tortugas laúd, y usan los ríos, estuarios y zonas costeras para moverse en agua dulce, salobre y salada, en busca de vegetación acuática. Se estima que entre 20 y 150 manatíes habitan en el área limítrofe entre Panamá y Costa Rica.

Con el apoyo del investigador Mario Rivera, de la Universidad de Costa Rica, los biólogos vinculados al proyecto realizarán un censo de mamíferos marinos y las áreas de preferencia que utilizan para alimentarse y aparearse.

Desde hace varias semanas, los científicos del STRI navegan en un autobús flotante en el río Sixaola, tras la pista de los manatíes. A bordo, Guzmán instaló escáneres sonares de doble frecuencia e hidrófonos, comida y tiendas de campaña, para seguir a los manatíes, conocidos como "vacas marinas".

Los mamíferos marinos se comunican entre sí con un coro de voces que suena como rechinidos, y ayuda a los científicos a detectarlos.

Guzmán dijo que se requiere un inventario de la biodiversidad del área. Añadió que parte de la cuenca del río Sixaola está protegida, pero la deforestación, el turismo, la cacería y los agroquímicos amenazan el hábitat del manatí en el Caribe.

Los manatíes son los únicos mamíferos marinos herbívoros. Llegan a medir cerca de cuatro metros de longitud y pueden pesar más de 900 kilogramos. Debido a que las plantas tienen

El Hijo de El Cronopio No. 979/1463

30651

un bajo contenido energético, un manatí necesita comer a diario una décima parte de su peso para vivir.

_______________________________________________________________

Las selvas tropicales pueden recuperarse si las prácticas agrícolas son de baja intensidad Miguel Martínez, del Laboratorio de Ecología de Poblaciones y Comunidades Tropicales del Centro de Investigaciones en Ecosistemas (CIEco) de la UNAM, en Morelia, Michoacán, estudia los mecanismos ecológicos en campos tropicales abandonados de Chiapas y Jalisco.

La Jornada

México, D.F. El manejo sostenible de las selvas en áreas tropicales secas y húmedas sólo es posible si las prácticas agrícolas permiten conservar el potencial de regeneración o recuperación natural del propio ecosistema; al mismo tiempo, se deben dejar fragmentos en el paisaje para contar con las semillas y la fauna que contribuyan a la restauración.

Miguel Martínez, del Laboratorio de Ecología de Poblaciones y Comunidades Tropicales del Centro de Investigaciones en Ecosistemas (CIEco) de la UNAM, en Morelia, Michoacán, estudia los patrones, procesos y mecanismos ecológicos y sucesión secundaria en campos tropicales abandonados, en las selvas de la región Lacandona, en Chiapas, y de la región de Chamela, en Jalisco.

Ahí, junto con un equipo grande de colaboradores y estudiantes de la UNAM, y otras instituciones del país y del extranjero, ha encontrado que la vegetación se recupera, “pero ello ocurre en áreas que fueron usadas para una actividad agrícola que no fue tan intensa”.

El científico explicó que en Chamela, en la costa del Pacífico, se desarrolla la selva baja caducifolia, o selva seca, con árboles que no rebasan los 10 metros de altura, y que en la época de sequía pierden por completo las hojas. “Hasta que llegan las lluvias, éstas reaparecen, y se vuelve un bosque verde y húmedo”.

Mientras, en la Lacandona, al sureste de Chiapas, crece la selva alta perennifolia o bosque tropical perennifolio; ahí la vegetación conserva el follaje todo el año y los árboles alcanzan 30 metros, en promedio, algunos hasta 50. Se trata de la llamada selva tropical húmeda.

Ambas zonas fueron colonizadas por poblaciones humanas en la década de los 70, en el siglo pasado, época en que el gobierno hizo repartición de tierras; en ese momento comenzó el proceso de conversión de esos entornos secos y húmedos, a paisajes agropecuarios. Se estima que en la década pasada quedaba del 30 (Lacandona) al 80 (Chamela) por ciento de la cobertura original.

El Hijo de El Cronopio No. 979/1463

30652

La investigación de Miguel Martínez se enmarca dentro de un gran proyecto llamado Manejo de Bosques Tropicales, que trata de entender los procesos de conversión, incluso cultivos y pastizales para crianza de ganado.

“Queremos entender qué tan rápido ha sido ese cambio y qué ocurre una vez que se agota la productividad de los terrenos por el uso de los ciclos agrícolas o el sobrepastoreo, o bien por la migración campesina a las grandes ciudades o a Estados Unidos”, explicó.

De ese modo, uno de los objetivos del proyecto es entender si los campos que fueron dedicados al cultivo o al ganado, tienen la capacidad de regresar a sus características selváticas previas. Ese fenómeno, que ocurre en las tierras abandonadas, se llama sucesión ecológica, indicó el universitario.

Para ello, ha establecido sistemas de seguimiento con registros de las plantas y animales que se desarrollan, incluidos insectos, anfibios, reptiles, aves, murciélagos y líquenes (combinación de hongos y algas).

Después de lustros de estudio, con visitas anuales a Chiapas, donde predominan los cultivos de maíz, y trianuales a Chamela, donde prevalecen los pastizales ganaderos y el ritmo de regeneración es más lento, se ha descubierto que la vegetación se recupera, pero ello ocurre en áreas que fueron usadas para una actividad agrícola que no fue tan intensa.

Si no se usan áreas tan extensas, ni de forma recurrente, maquinaria para preparar el suelo, fuego o agroquímicos, después de unos 15 ó 20 años se comienzan a observar atributos muy parecidos a los que tenía antes de ser desmontada. “Se recupera de manera importante”, añadió.

En el caso de la selva alta, tarda 30, 50 ó más años en alcanzarse la altitud de los árboles; sin embargo, lo que no se recupera es la composición de especies. “Hay una proporción que no aparecen en nuestros registros, por ejemplo, cerca del 40 por ciento de anfibios y reptiles”.

Las dos áreas cuentan con una matriz conservada, y eso ha asegurado la persistencia de algunas; lo que no se puede hacer es seguir con el proceso de tala y terminar con la desaparición total del entorno. “Eso llevaría a la desaparición de los organismos, las funciones del ecosistema y los servicios que aportan al bienestar de la gente”.

De ahí se concluyó que en el manejo sostenible es importante considerar prácticas agrícolas de baja intensidad y conservar la mayor superficie forestal posible. Los beneficios van más allá: la cobertura forestal mantiene los suelos, es decir, previene la erosión, mantiene los cuerpos de agua y se minimizan los deslaves.

El trabajo, del cual se han derivado más de 55 tesis de licenciatura, maestría y doctorado, y del que se han publicado alrededor de 50 artículos en revistas como Ecology, Journal of Tropical Ecology y Restoration Ecology, también incluirá la orientación en algunas comunidades para que la gente sepa qué prácticas podrían ser viables o sustentables, con base en este conocimiento. “Los estudios de ecología básica se convierten en información útil”.

El Hijo de El Cronopio No. 979/1463

30653

Ejercicios agroecológicos y de uso múltiple, aunados a la conservación de fragmentos grandes de selva, conectados por corredores biológicos, son componentes de una estrategia de manejo de bosques tropicales que pueden mantener la biodiversidad, las funciones y servicios de los ecosistemas selváticos.

El balance general debe tomar en cuenta cuáles son las ganancias ambientales, ecológicas y socioeconómicas, y para resolver el problema se requiere de la participación de las comunidades, las autoridades y los académicos. “El manejo sustentable de los bosques, sin que se degraden, y en beneficio de la gente, es posible, pero requiere una gran coordinación de esfuerzos entre estos sectores y los diferentes actores sociales involucrados”, finalizó Miguel Martínez.

Para más información comunicarse [email protected]

_______________________________________________________________

Consumo energético de camionetas, equiparable al de un autobús de pasajeros Sólo 15 por ciento de la energía de la gasolina se destina para movilidad del vehículo, el resto se derrocha en ineficiencias del motor y el tren del mismo, aseguró Alejandra Castro González, de la FI de la UNAM.

La Jornada

México, D.F. La escena sobre el asfalto citadino ha acentuado en los últimos años la presencia de vehículos particulares de mayor dimensión y complejidad, pero también con un gasto energético mayúsculo.

Alejandra Castro González, investigadora del Departamento de Sistemas Energéticos de la Facultad de Ingeniería (FI) de la UNAM, explicó que si se llena el tanque de combustible de una camioneta, sólo el 15 por ciento de la energía de la gasolina se destina para movilidad, el resto se derrocha en ineficiencias del motor y el tren del mismo, lo que se convierte, gran parte, en calor inútil.

Embarnecidos automóviles o camiones ligeros se han apoderado del espacio público en prácticamente todas las ciudades del país; la propuesta hecha por el mercado en estos vehículos sólo ha magnificado el exterior y no incluye, en la mayoría de los casos, un incremento en la capacidad de pasajeros, que como cualquier otro vehículo, ronda la cifra de cinco a seis.

¿Qué debemos conocer sobre estos vehículos?, cuestionó la académica de la FI, y respondió: “en muchas ocasiones para transportar a una persona de 70 kilogramos se mueve una

El Hijo de El Cronopio No. 979/1463

30654

camioneta 4x4, con un peso promedio de dos toneladas, lo que requiere una potencia de 393 caballos de fuerza hp, (horse power) en algunas marcas, mientras que un camión urbano de pasajeros puede necesitar en promedio sólo 200 hp”.

En la Ciudad de México, indicó Castro González, quienes buscan un vehículo con el mejor rendimiento de gasolina pueden adquirir aquél que les dará, como máximo, 17 kilómetros por litro, cifra muy superior a los tres o cinco kilómetros por litro, y en pocas ocasiones, hasta 10 kilómetros por litro, que rinden las camionetas en el tráfico capitalino.

No obstante, “la tendencia en los próximos años será semejante a la estadounidense, continuará la renovación del parque vehicular con camionetas de lujo que, por su tamaño, son inadecuadas para circular en un espacio vial cada vez más restringido, y con un alto consumo de combustible”, señaló.

Tendencia global

Contrario a lo que ocurre en las urbes mexicanas, prosiguió, en la Unión Europea la mitad del parque en circulación son autos compactos con nuevas tecnologías diésel, que ofrecen rendimientos de 40 kilómetros por litro. Mientras, en Japón, la tercera parte de los autos tienen motores híbridos, eléctricos y de diésel, que rinden hasta 60 kilómetros por litro.

La tendencia global hacia el alejamiento de las camionetas, la ilustra el 38 por ciento de las ventas de autos familiares compactos en mercados como el español, además de que en urbes como París, los vehículos de lujo de bajo rendimiento no pueden circular en algunas de sus calles.

“El transporte es uno de los motores del progreso en las urbes del mundo, pero también uno de los grandes productores de gases de efecto invernadero (GEI), que tienen una relación directa con el calentamiento global del planeta, pues se estima que el sector transporte produce 25 por ciento de las emisiones de carbono a la atmósfera, además de 47 por ciento de los óxidos de nitrógeno; se considera que 30 por ciento del total de la energía consumida en el mundo se usa para el transporte”, concluyó Castro.

_______________________________________________________________

El Hijo de El Cronopio No. 979/1463

30655

Trazan científicos mapa genético del trigo; mejorarán productividad y resistencia Se espera que la identifiación de alrededor de 38 mil genes del trigo proporcione un recurso valioso que ayude a hacer avanzar los estudios del cultivo genómico y a ofrecer una nueva base sobre la que investigar la evolución, domesticación y optimización genética de este cereal.

XINHUA

Pekín. Un grupo de científicos chinos y estadunidenses ha trazado un mapa de un código genético clave para el trigo, un hallazgo que ayudará a mejorar su productividad y capacidad de resistencia en condiciones extremas.

La secuencia y el trazado del genoma A, uno de los tres genomas básicos del trigo, se publicaron hoy lunes en la página web de la revista Nature, donde los investigadores presentan la generación, el ensamblaje y el análisis del proyecto de la secuencia del genoma de la especie de trigo Triticum urartu, donante del genoma A.

Se espera que la identifiación de alrededor de 38 mil genes del trigo proporcione un recurso valioso que ayude a hacer avanzar los estudios del cultivo genómico y a ofrecer una nueva base sobre la que investigar la evolución, domesticación y optimización genética de este cereal.

El programa de investigación, puesto en marcha por un equipo procedente del Instituto de Genética y Desarrollo Biológico de la Academia de Ciencias de China, lo llevó a cabo BGI, una de las organizaciones líder del sector y con sede en la ciudad sureña china de Shenzhen, y la Universidad de California, en Davis, EEUU.

El trigo es uno de los cereales más cultivados y consumidos en el mundo. Alimenta a cerca del 40 por ciento de la población mundial y suministra el 20 por ciento de la cantidad diaria recomendada de calorías y proteínas en la dieta humana.

En la actualidad, se continúan realizando esfuerzos en todo el mundo por aumentar el rendimiento y la calidad de este cultivo mediante el impulso de la diversidad genética y la resistencia al frío, las sequías y las enfermedades. Sin embargo, el enorme tamaño y la complejidad del genoma del trigo han supuesto hasta ahora importantes barreras para los investigadores a la hora de hacer avances en su biología y evolución.

_______________________________________________________________

El Hijo de El Cronopio No. 979/1463

30656

Se desconoce el origen; afecta a personas de entre 20 y 40 años en los cultivos de caña de azúcar

Problema renal ha matado a miles de agricultores de Mesoamérica Excesivo calor en las labores de la zafra, deshidratación por sobresfuerzos físicos en zonas de altas temperaturas, agroquímicos y hasta contaminación del agua, posibles factores, señala especialista

Diversas fuentes indican que desde 2000, cuando comenzó a detectarse el problema, más de 20 mil trabajadores del campo habrían fallecido a consecuencia de la afección. En haciendas del municipio de Tenosique, en Tabasco, los migrantes laboran arduas jornadas en la cosecha anual. Foto Notimex

DPA

San José, 25 de marzo. En los pasados 10 años, la insuficiencia renal crónica ha causado la muerte a miles de trabajadores del campo en la costa mesoamericana del Pacífico, desde el sur de México hasta Panamá, donde el cultivo de la caña de azúcar es una de las actividades más características de las poblaciones afectadas.

El Hijo de El Cronopio No. 979/1463

30657

La propagación del mal, cuyo origen es un misterio, intriga a los especialistas en nefrología de la región. Las personas que enferman de los riñones con mayor frecuencia son varones de edades comprendidas entre los 20 y los 40 años.

“Se trata de una situación alarmante y se busca realizar estudios conjuntos para determinar las causas del fenómeno”, dijo el director del Laboratorio Nacional de Aguas del Instituto Nacional de Acueductos y Alcantarillados, el costarricense Dárner Mora.

Diversas fuentes indican que desde 2000, cuando comenzó a detectarse el problema, más de 20 mil trabajadores del campo habrían fallecido a causa de la enfermedad, que golpea a obreros especialmente en El Salvador, Nicaragua, Costa Rica y en algunos sectores del Pacífico panameño.

Hasta el momento, y pese a los estudios de las autoridades sanitarias, las líneas de investigación no arrojan resultados concretos que permitan determinar el origen del mal.

Algunos médicos, como el doctor Roy Wong, quien dirige desde hace un año una investigación de la Caja del Seguro Social de Costa Rica, sospechan que la enfermedad podría estar asociada a varios factores: excesivo calor en las labores de la zafra de caña de azúcar, sobresfuerzos físicos en zonas de altas temperaturas –que provocan graves niveles de deshidratación–, presencia de agroquímicos y hasta posible contaminación de las aguas.

“Pero hasta ahora, lo que hay son sólo hipótesis”, explicó Wong.

La Caja del Seguro Social de Costa Rica emprendió, hace un año, un estudio con un equipo multidisciplinario de especialistas en ocho de los 11 cantones de la norteña provincia de Guanacaste, donde se detecta el nivel más alto (112 por cada 100 mil habitantes) de casos de males renales en territorio costarricense.

Los estudios se encuentran en la fase de campo, y según Wong podrían estar terminados el próximo septiembre. Pero el extraño fenómeno llama la atención de especialistas de otras partes del mundo, entre ellas al menos dos universidades de Estados Unidos.

En noviembre, el Instituto Regional de Estudios en Sustancias Tóxicas de la Universidad Nacional (Costa Rica) convocó a un taller con expertos de 15 países para analizar el problema. Las conclusiones aún están en proceso, pero el taller llamó a los gobiernos centroamericanos a reforzar la atención y medidas de prevención, así como de seguimiento al problema.

En Costa Rica, la provincia de Guanacaste prácticamente mantiene colapsada la unidad de diálisis y de trasplantes del hospital México, en San José, pues una tercera parte de los pacientes ingresados por males renales son originarios de esa zona, dijo el jefe de Nefrología, Manuel Cerdas.

_______________________________________________________________

El Hijo de El Cronopio No. 979/1463

30658

Desarrollan prueba más precisa y rápida para detectar tuberculosis

DPA

Brasilia. La red hospitalaria pública de Brasil ofrecerá este año un nueva prueba para diagnosticar tuberculosis, más precisa y rápida que la utilizada hasta ahora, anunció este lunes el Ministro de Salud. Según Jarbas Barbosa, secretario de vigilancia en salud, aseguró que el test dará el resultado en 90 minutos, frente a los 60 días necesarios con los exámenes utilizados actualmente, además de que elimina la posibilidad de diagnósticos equivocados, que es hasta de 30 por ciento. “Esto solía ser un problema, porque el estado de salud de las personas no diagnosticadas se volvía más grave y el portador seguía transmitiendo la enfermedad. El nuevo test prácticamente anula los falsos negativos”, expresó. A lo largo del año pasado, Brasil registró oficialmente 70 mil 47 casos de tuberculosis, lo que supone una tasa de frecuencia de 36.1 casos por cada 100 mil habitantes. La meta del gobierno es reducirla a menos de 30 casos por 100 mil habitantes. Según Barbosa, la tuberculosis afecta principalmente a indígenas, a los sin techo, a portadores del virus VIH/sida y a la población carcelaria.

Noticias de la Ciencia y la Tecnología Astronáutica Gran Enciclopedia de la Astronáutica (54): OAO OAO Satélite; País: EEUU; Nombre nativo: Orbiting Astronomical Observatory Las aspiraciones de los astrónomos por enviar telescopios y otros instrumentos al espacio pesaron grandemente en la redacción del plan inicial de la NASA sobre los primeros pasos científicos de la agencia tras su creación. La atmósfera y otros impedimentos siempre habían dificultado la observación del cielo desde la superficie terrestre, limitaciones que se habían intentado superar con el uso de aviones, globos y cohetes sonda. Pero con la llegada de la era espacial, los satélites artificiales ofrecían un potencial inigualable para este campo de la Ciencia. De las breves oportunidades de antaño, podría pasarse ahora a largas misiones durante las cuales los ingenios espaciales podrían apuntar tales instrumentos hacia los más diversos objetivos astronómicos.

El Hijo de El Cronopio No. 979/1463

30659

El lanzador del OAO-1. (Foto: NASA) Entre los varios programas que la NASA puso en marcha para aprovechar dicho potencial, destacó pronto uno que sería conocido con el nombre de “Orbiting Astronomical Observatory” (OAO). Sus raíces pueden encontrarse en un estudio preliminar presentado el 15 de mayo de 1958, en el Langley Memorial Aeronautical Laboratory (perteneciente a la NACA), donde ya se examinaban posibles objetivos a corto plazo (1960) para la futura nueva agencia espacial estadounidense. En efecto, en cuanto la NASA entró en funcionamiento, en octubre de 1958, se iniciaron los trabajos sobre la viabilidad del envío al espacio de un gran observatorio astronómico (comparado con los pequeños satélites que se estaban preparando por entonces). En abril de 1959, la NASA ya incluía en su plan de investigaciones científicas la creación de plataformas astronómicas capaces de acceder desde la órbita a las diversas ventanas del

El Hijo de El Cronopio No. 979/1463

30660

espectro (visible, infrarrojo, ultravioleta, rayos-X, etc.). El 1 de diciembre, se ofreció a la industria una conferencia sobre las necesidades del programa, denominado ya OAO, y en febrero de 1960, se asignaba al centro Goddard la gestión de su desarrollo.

OAO-1. (Foto: NASA) Entre abril y septiembre de 1960, la NASA evaluó un total de 11 propuestas de la industria para la construcción del vehículo OAO. Al mismo tiempo, empezaban a llegar otras referidas a los instrumentos que debería llevar a bordo. Finalmente, el 10 de octubre se decidió otorgar a la empresa Grumman Aircraft la construcción del observatorio. Debía costar unos 23 millones de dólares y pesar unos 1.360 Kg. Se construirían en principio dos unidades, una de ellas como prototipo y la otra para volar. El diseño del vehículo proseguiría durante los siguientes meses, así como el de su instrumental. En enero de 1962, la compañía Kollsman Instrument recibió el encargo de producir el espejo principal del telescopio que el OAO debería llevar a bordo. Otros elementos, como los fotómetros, fueron probados en el vuelo de un cohete sonda Aerobee, el 29 de octubre de 1962. El 16 de junio de 1964, la NASA compró un tercer OAO por 20 millones de dólares, y el 9 de abril de 1965 autorizaba a Grumman la transformación de la unidad prototipo, que no debía haber volado, en un observatorio capaz de ser lanzado (OAO-A2). Además, el 12 de

El Hijo de El Cronopio No. 979/1463

30661

mayo, se encargaba un cuarto OAO a la empresa. El 21 de julio, el prototipo fue enviado al centro Goddard para que, durante dos meses, pasara todas las pruebas técnicas y físicas pertinentes. Según el plan, cada OAO estaría equipado con un paquete de instrumentos específico. El OAO-A llevaría uno diseñado por la universidad de Wisconsin, para análisis fotométricos en el ultravioleta de ciertas estrellas y nebulosas, un telescopio de rayos gamma del MIT, otro del Goddard y un sensor de rayos-X de Lockheed. El OAO-B, por su parte, llevaría el instrumento llamado Goddard Experiment Package, que emplearía un espectrómetro para examinar miles de estrellas. Posteriormente, el OAO-A2 llevaría una versión avanzada del Wisconsin Experiment Package (fotómetros), y el llamado Smithsonian Astrophysical Observatory (Project Celescope), para levantar un mapa del cielo en el ultravioleta. Por último, el OAO-C llevaría el Princeton Experiment, que mediría los efectos de la absorción del medio interestelar sobre el espectro de una estrella caliente, todo ello bajo un preciso control de apuntamiento.

Lanzamiento del OAO-2. (Foto: NASA) Para entonces, el OAO-1 (OAO-A1) empezaba a estar listo para el despegue. Estábamos ante un vehículo octogonal, de 3,1 por 5,2 metros, con chasis de aluminio, de 1.769 Kg de peso, y que estaba equipado con seis paneles solares (lo que proporcionaba 6,4 metros de

El Hijo de El Cronopio No. 979/1463

30662

diámetro máximo al observatorio). El telescopio se hallaba dentro de la estructura principal, junto a los instrumentos. Podía orientarse hacia cualquier lugar del cielo con una precisión de 1 minuto de arco, precisión que aumentaba a 0,1 minutos de arco en función del instrumento utilizado. El lanzamiento del OAO-1 se produjo el 8 de abril de 1966, desde Cabo Cañaveral. Se empleó para ello un cohete Atlas SLV-3B-Agena-D, una versión con carenado especial para poder albergar el gran volumen del satélite, que sólo se empleó en esta ocasión. El lanzador situó su carga en la órbita circular esperada, a unos 780 Km de altitud. No obstante, una vez transcurridas 22 órbitas, apenas 1 día y medio tras el despegue, la batería del vehículo se sobrecalentó y el sistema de energía no respondió a las órdenes de tierra de cambiar a las baterías de reserva. La misión tuvo que darse por terminada sin que se hubiese obtenido información científica alguna.

OAO-2. (Foto: NASA) El grave fallo obligó a efectuar una profunda revisión de los sistemas y a modificar el de energía, labor que llevó dos años. Para entonces, la NASA decidió lanzar primero el OAO-A2, en vez del OAO-B, dado que llevaba un instrumental que en parte se asemejaba al de su desgraciado antecesor. El llamado en órbita OAO-2 despegó el 7 de diciembre de 1968, esta vez a bordo de un cohete Atlas SLV3C Centaur-D, y obtuvo un éxito resonante. Pesó 1.995,8 Kg al despegue (el satélite no tripulado más pesado de la NASA hasta ese momento) y quedó situado en una órbita circular de unos 750 Km, donde recibió el nombre de Stargazer. Dedicado plenamente a la astronomía ultravioleta y equipado con 11 telescopios, funcionó con normalidad durante 16 meses, período durante el cual obtuvo más de 8.500

El Hijo de El Cronopio No. 979/1463

30663

imágenes del cielo, aproximadamente una décima parte de la bóveda celeste. Los astrónomos pudieron hacer mediciones de unas 5.000 estrellas, así como de cometas (Bennett, Tago-Sato-Kosaka) y de la luz zodiacal. También se empleó para mirar hacia algunos planetas, como Marte y Júpiter, lo que permitió medir la composición de la atmósfera marciana y su presión, así como la de Júpiter. Especialmente interesante fue la observación como primicia de la nebulosa del Cangrejo, en el ultravioleta, de estrellas variables, novas, etc. El OAO-2 fue apagado el 13 de febrero de 1973, cuando falló el sistema de energía de los instrumentos.

Lanzamiento del OAO-B. (Foto: NASA) Su sucesor, el OAO-B, fue lanzado el 30 de noviembre de 1970, a bordo de otro Atlas SLV3C Centaur-D. El vehículo, de 2.121 Kg, había visto ampliada la superficie de sus paneles solares, que alimentarían a su único instrumento, un telescopio de 38 pulgadas

El Hijo de El Cronopio No. 979/1463

30664

llamado Goddard Experiment que debía encargarse de obtener datos espectrofotométricos de resolución media sobre estrellas de diversos tipos. Por desgracia, durante el ascenso, el carenado del cohete no llegó a separarse. El peso adicional impidió alcanzar la velocidad orbital, y la misión concluyó con la destrucción del vehículo y del OAO-B (Stargazer-2), que habría sido bautizado como Goddard.

OAO-B. (Foto: NASA) El último OAO construido, el OAO-C, se convertiría, en cambio, en uno de los más exitosos. El OAO-3 o Copernicus pesó 2.200 Kg y estaría dedicado a obtener espectros estelares en el rango ultravioleta, que permitirían explorar la composición, densidad y estado físico de la materia de las estrellas y el medio interestelar. Lo conseguiría con un telescopio de 82 cm y 3 metros de largo, y un espectrómetro fotoeléctrico, de la Princeton University, así como tres telescopios de rayos-X que proporcionó el británico University College de Londres. El despegue ocurrió el 21 de agosto de 1972. Su cohete Atlas-Centaur situó a su carga en una órbita circular de 715 Km, desde donde pasó más de 9 años observando fuentes de rayos-X y ultravioleta, desde estrellas y planetas hasta galaxias. Efectuó miles de mediciones, incluyendo algunas que permitieron confirmar la existencia de agujeros negros, la composición de las nubes de polvo en la galaxia, etc. El Copernicus dejó de funcionar en febrero de 1981. Antes, en 1975, fue dirigido hacia tres estrellas parecidas al Sol, a 11 años-luz de la Tierra, en busca de información sobre si era posible que hipotéticas civilizaciones inteligentes estuvieran intentando comunicarse con nosotros.

El Hijo de El Cronopio No. 979/1463

30665

Lanzamiento del OAO-3. (Foto: NASA)

OAO-3. (Foto: NASA) En total, el programa OAO costó 364 millones de dólares, y aunque sólo dos de las cuatro misiones fueron exitosas, su aportación a la investigación astronómica fue crucial.

El Hijo de El Cronopio No. 979/1463

30666

Nombres Lanzamiento Hora (UTC) Cohete Polígono Identificación OAO-1 (OAO-A1) 8 de abril de 1966 19:35:00 Atlas SLV3B-

Agena-D (AA15)

Cabo Cañaveral LC12

1966-31A

OAO-2 (OAO-A2) (Stargazer)

7 de diciembre de 1968 08:40:09 Atlas SLV3C-Centaur-D (AC-

16) Cabo Cañaveral

LC36B 1968-110A

OAO-B (Stargazer-2) (Goddard)

30 de noviembre de 1970

22:40:05 Atlas SLV3C-Centaur-D (AC-

21) Cabo Cañaveral

LC36B -

OAO-3 (OAO-C) (Copernicus)

21 de agosto de 1972 10:28:02 Atlas SLV3C-Centaur-D (AC-

22) Cabo Cañaveral

LC36B 1972-65A

Video http://www.youtube.com/watch?feature=player_embedded&v=IbNdcYseKl4 Paleontología Dinosaurios víctimas de reptiles Históricamente, se ha presentado a los dinosaurios como especies dominantes, y en la mentalidad popular se ha venido asumiendo a menudo que un dinosaurio sólo podía ser víctima de otro dinosaurio. Sin embargo, otras bestias de aquellos tiempos eran perfectamente capaces de ejercer de depredadoras de dinosaurios, sobre todo cuando sus presas eran crías. Un ejemplo rotundo de esto llega ahora a raíz de la presentación de los resultados obtenidos en el análisis de fósiles descubiertos en un terreno del Monumento Nacional Grand Staircase-Escalante, en el sur de Utah, Estados Unidos. Los restos fósiles datan de finales del período Cretáceo, hacia el fin de la era de los dinosaurios, y demuestran que animales parecidos a cocodrilos se alimentaban de crías de dinosaurios. El trabajo lo ha realizado el equipo de Clint Boyd, de la Escuela de Minas y Tecnología de Dakota del Sur en la ciudad de Rapid City, Stephanie K. Drumheller, de la Universidad de Iowa y la de Tennessee, y Terry A. Gates, de la Universidad Estatal de Carolina del Norte y el Museo de Historia Natural de Utah, todas estas instituciones en Estados Unidos. El análisis proporciona la primera evidencia definitiva de que las crías de ornitópodos, dinosaurios herbívoros, eran un plato predilecto de los cocodriloformes, parientes ya extintos de la familia de los cocodrilos.

El Hijo de El Cronopio No. 979/1463

30667

Clint Boyd señala un diente de cocodriloforme aún clavado en un fémur de dinosaurio. (Foto: Escuela de Minas y Tecnología de Dakota del Sur) El equipo de investigación también descubrió que el espécimen de dinosaurio que fue presa de un cocodriloforme pertenece a una especie no reconocida previamente de dinosaurio ornitópodo pequeño, que todavía no ha recibido nombre científico. Las evidencias más claras de la identidad del depredador que atacó al pequeño dinosaurio son las marcas de mordeduras en articulaciones de los huesos, así como un diente de un cocodriloforme todavía clavado en un fémur de dinosaurio. Basándose en las evidencias obtenidas, se cree que los cocodriloformes también eran de tamaño discreto, quizás de no más de 2 metros de largo. Información adicional http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0057605 video http://www.youtube.com/watch?v=UHP6BVasmwU&feature=player_embedded Nanotecnología Técnica innovadora para fabricación a gran escala de microsupercondensadores Aunque la demanda de dispositivos electrónicos cada vez más pequeños ha estimulado la miniaturización de diversas tecnologías, un área se ha quedado atrás en esta revolución de

El Hijo de El Cronopio No. 979/1463

30668

miniaturización: Las unidades de almacenamiento de energía, como baterías y condensadores. Ahora, el equipo de Richard Kaner y Maher El-Kady, del Instituto de NanoSistemas de California, dependiente de la Universidad de California en Los Ángeles (UCLA), podría haber comenzado a cambiar la situación. Estos investigadores han desarrollado una novedosa técnica que utiliza una grabadora de DVDs para fabricar supercondensadores micrométricos hechos de grafeno. Los supercondensadores son dispositivos con velocidades de carga y descarga de cientos a miles de veces más rápidas que las de las baterías convencionales. Estos microsupercondensadores, hechos de una capa de carbono grafítico de un átomo de espesor, pueden ser fabricados con facilidad e integrados sin problemas en dispositivos pequeños cuyo funcionamiento debe ser del todo fiable, como por ejemplo marcapasos de la próxima generación.

Los microsupercondensadores de Kaner y El-Kady. (Foto: UCLA) Los métodos tradicionales para la fabricación de microsupercondensadores requieren técnicas litográficas muy laboriosas que han demostrado ser difíciles para la construcción de dispositivos económicos, lo cual limita su aplicación comercial. En vez de intentar hacer progresos por esa vía, el equipo de Kaner y El-Kady usó una grabadora de DVDs común, de tipo doméstico, una LightScribe concretamente, para producir microsupercondensadores de grafeno en grandes áreas, a una fracción del costo de los dispositivos tradicionales.

El Hijo de El Cronopio No. 979/1463

30669

Usando esta técnica, los investigadores han conseguido producir más de 100 microsupercondensadores en un solo disco en menos de 30 minutos, usando materiales de bajo costo. El nuevo y económico método de fabricación se muestra prometedor para la producción en masa de estos supercondensadores, los cuales probablemente transformen la electrónica y otros campos. Información adicional http://newsroom.ucla.edu/portal/ucla/ucla-researchers-develop-new-technique-243553.aspx Geología Profundizando en la evolución mineral de la Tierra Cuando se habla de evolución de la Tierra, solemos pensar automáticamente en la biología y en formas de vida. Sin embargo, la Tierra también ha experimentado una importante evolución mineral. De hecho, la evolución mineral es una útil forma de mirar la historia de nuestro planeta. Consiste en el estudio de la diversidad creciente de los minerales de la corteza terrestre cercanos a la superficie, desde los pocos que conformaron la Tierra a partir de las partículas de polvo interestelar cuando se formó el sistema solar, hasta alcanzar los más de 4.700 tipos principales de minerales que existen hoy. Una reciente investigación sobre un mineral llamado molibdenita, realizada por un grupo encabezado por Robert Hazen del Laboratorio Geofísico del Instituto Carnegie de Ciencia, en Washington, D.C., ha proporcionado nuevos y reveladores conocimientos sobre la evolución geoquímica de nuestro planeta como resultado de procesos geológicos y biológicos. La evolución mineral es un enfoque para comprender mejor la geoquímica siempre cambiante de la superficie terrestre y del subsuelo cercano a ésta. A grandes rasgos, todos los elementos químicos naturales hoy existentes en la Tierra ya estaban presentes cuando se formó nuestro sistema solar, pero al principio esos elementos conformaron sólo unos pocos minerales, quizás no más de 500 en los primeros mil millones de años de existencia de la Tierra. Sin embargo, conforme fue transcurriendo el tiempo, nuevas combinaciones de elementos condujeron a nuevos minerales. El equipo de Hazen, Dimitri Sverjensky y John Armstrong, analizó 442 muestras de molibdenita de 135 lugares, con edades que van desde los 2.910 millones de años hasta tan sólo 6,3 millones de años. Los autores de estudio buscaban específicamente en la molibdenita rastros de contaminación de un elemento poco abundante llamado renio, muy

El Hijo de El Cronopio No. 979/1463

30670

sensible a las reacciones de oxidación, que puede usarse para confeccionar cronologías de reacciones químicas con el oxígeno del medio ambiente.

Molibdenita, en la colección de minerales del Departamento de Geología de la Universidad Brigham Young, en Provo, Utah. (Foto: Andrew Silver) El equipo de investigación encontró cambios que sugieren un aumento en las condiciones propicias para la oxidación en el subsuelo cercano a la superficie, desde hace cerca de 3.000 millones de años hasta hace unos 540 millones de años. Esto coincide con un aumento del oxígeno presente en el entorno, el cual refleja lo que se conoce como la Gran Oxidación, un periodo de la historia de la Tierra en el que los niveles de oxígeno atmosférico del planeta se incrementaron de forma espectacular a consecuencia de los microbios que producían oxígeno mediante la fotosíntesis. Además, los investigadores han descubierto que la distribución de los depósitos de molibdenita a través del tiempo más o menos se correlacionan con cinco épocas de formación de supercontinentes, concretamente los conocidos como Kenorlandia (Kenorland), Nuna, Rodinia, Pannotia, y Pangea. Esta correlación respalda los resultados de análisis anteriores de Hazen y sus colegas, que indicaron que la formación de minerales aumentaba notablemente durante los episodios de convergencia continental y formación de supercontinentes. En la investigación también han trabajado Joshua Golden, Melissa McMillan, Robert T. Downs, Grethe Hystad e Ian Goldstein, de la Universidad de Arizona, así como Holly J. Stein y Aaron Zimmerman de la Universidad Estatal de Colorado.

El Hijo de El Cronopio No. 979/1463

30671

Información adicional http://carnegiescience.edu/news/mineral_diversity_clue_early_earth_chemistry Salud Gente con apetito excesivo a causa de la dieta de sus madres durante el embarazo Aquí está otra razón por la que una dieta saludable durante el embarazo es decisiva para la salud futura de los hijos: Una nueva investigación sugiere que las mujeres que durante su embarazo consumen cantidades significativas de comida basura provocan cambios en el desarrollo de una vía de señalización cerebral de sus fetos en la que intervienen los opioides. Estos cambios conducen a que los bebés sean menos sensibles a los opioides que se liberan después del consumo de alimentos que son ricos en grasa y azúcar. Esto a su vez provoca que esos niños, que nacen con una "tolerancia" más alta a la comida basura, necesiten comer más cantidad de esa clase de alimentos para despertar en su cuerpo la sensación de sentirse llenos y satisfechos. Para hacer este descubrimiento, el equipo de las científicas Beverly Muhlhausler y Jessica R. Gugusheff, ambas de la Universidad de Adelaida en Australia, y Zhi Yi Ong, investigadora de la Universidad del Sur de Australia, también en Adelaida, estudiaron los cachorros de dos grupos de ratas. A las ratas de un grupo se las había alimentado durante el embarazo y la lactancia con comida normal para ratas, mientras que a las ratas del otro grupo se las había alimentado durante ese mismo periodo de sus vidas con diversos productos de consumo humano típico, que pertenecen a la categoría de lo que popularmente se denomina "comida basura".

Regular adecuadamente la dieta durante el embarazo es vital para el bebé. (Foto: Debora Cartagena / CDC)

El Hijo de El Cronopio No. 979/1463

30672

Después del destete de las crías, éstas recibieron inyecciones diarias de un bloqueador de receptor opioide, que bloquea la señalización opioide. El bloqueo de esa señalización provoca una disminución de la ingesta de grasa y azúcar impidiendo la descarga de dopamina. Los resultados obtenidos por las tres investigadoras mostraron que el bloqueador de receptor opioide era menos eficaz para reducir la ingesta de grasa y de azúcar en los cachorros cuyas madres se alimentaron de la comida basura, sugiriendo ello que la vía de señalización opioide en los hijos de esas madres es menos sensible que la de los cachorros cuyas madres se nutrieron de comida normal y sana para ratas. Los resultados de esta investigación parecen aportar por tanto razones adicionales para seguir una dieta saludable durante el embarazo. Información adicional http://www.fasebj.org/content/27/3/1275.abstract Ciencia de los Materiales Hacia un almacenamiento eficaz y barato de energía solar durante la noche La energía solar es una fuente limpia de energía, pero sólo es posible utilizarla de manera directa cuando brilla el Sol. Una opción para poder usar la energía solar en las horas nocturnas es capturar el calor solar durante el día y utilizarlo por la noche. El uso de esta clase de técnica, conocida como almacenamiento de energía térmica, ha sido bastante limitado tradicionalmente, debido a que las sales fundidas que usualmente se emplean para almacenar el calor solar destinado al suministro energético requieren un equipamiento grande y costoso. El equipo de Ewa Ronnebro, científica especializada en ciencia de los materiales, del Laboratorio Nacional estadounidense del Pacífico Noroeste (PNNL), en Richland, Washington, ha mostrado que un polvo hecho de un hidruro metálico especial puede almacenar hasta 10 veces más calor por unidad de masa que las citadas sales fundidas, y operar a temperaturas más altas. El Laboratorio Nacional del Pacífico Noroeste, y sus socios en el proyecto, que son la Universidad de Utah y la empresa Heavystone Lab, están desarrollando un sistema térmico demostrativo de 3 kilovatios-hora que capte el calor durante seis horas y lo libere luego durante más de seis horas.

El Hijo de El Cronopio No. 979/1463

30673

Paneles solares. (Foto: NASA / Jim Grossmann) Si finalmente este sistema piloto alcanzan el éxito que de él se espera, este proyecto podría conducir a una revolución en el campo del almacenamiento de energía solar en forma de calor, permitiendo usar profusamente sistemas de almacenamiento de energía térmica, que serían más pequeños que los convencionales y que tendrían costos más competitivos. Información adicional http://www.pnnl.gov/news/release.aspx?id=973 Neurología Nuestra cognición depende de neuronas capaces de disparar sus señales con lentitud y estabilidad Tener una buena salud mental y pensar con racionalidad dependen de la capacidad que se tenga para almacenar y procesar pensamientos de un modo muy parecido en algunos aspectos a cuando escribimos en una libreta; si queremos hacerlo con letra bien legible debemos escribir despacio, con movimientos firmes, y apoyando la libreta sobre una superficie estable. En un nuevo estudio, un equipo de especialistas de la Escuela de Medicina de la Universidad de Yale, en New Haven, Connecticut, Estados Unidos, ha descrito las bases moleculares de la habilidad neuronal equivalente a lo expuesto en el ejemplo, un rasgo fundamental de la cognición humana, y también ha determinado cómo una anomalía del sistema contribuye al desarrollo de enfermedades tales como la esquizofrenia y el Mal de Alzheimer.

El Hijo de El Cronopio No. 979/1463

30674

Los daños sufridos por estos circuitos corticales altamente evolucionados alteran la capacidad de crear y mantener nuestras representaciones mentales del mundo, la cual es la base de una cognición superior.

La cognición humana depende de neuronas capaces de disparar sus señales de modo lento y estable. (Ilustración: Cortesía de John H. Morrison, Escuela de Medicina Monte Sinaí) Nuestro pensamiento superior depende de la capacidad para generar representaciones mentales en nuestro cerebro sin requerir ningún tipo de estimulación sensorial proveniente del entorno. Estas habilidades cognitivas son el resultado de circuitos altamente evolucionados de la corteza prefrontal. Unos modelos matemáticos creados por el neurobiólogo Xiao-Jing Wang, previamente en la Universidad de Yale y ahora en la Universidad de Nueva York, habían predicho que para mantener estas representaciones visuales, la corteza prefrontal debe valerse de una familia de receptores que permiten a las neuronas disparar sus señales con lentitud y estabilidad. El equipo de Amy Arnsten, profesora de neurobiología en la Universidad de Yale, ha comprobado ahora que los receptores NMDA-NR2B implicados en la señalización del glutamato regulan esta emisión neuronal de señales. Los citados receptores, estudiados en la Universidad de Yale durante más de una década, son responsables de la actividad de circuitos cerebrales muy evolucionados, presentes principalmente en los primates. En la investigación también han trabajado Min Wang, Yang Yang, Nao J. Gamo, Lu E. Jin, y James A. Mazer, de la Universidad de Yale, así como John H. Morrison y Ching-Jung Wang de la Escuela de Medicina Monte Sinaí en la ciudad de Nueva York. Información adicional http://news.yale.edu/2013/02/20/human-cognition-depends-upon-slow-firing-neurons-yale-researchers-find

El Hijo de El Cronopio No. 979/1463

30675

Química Transforman los descartes de bebidas en bioetanol y vinagre Etiquetas mal pegadas, envases que pierden el gas o un ligero error en la cantidad de producto envasado son algunos de los problemas que hacen que las industrias de las bebidas desechen diariamente litros y litros de su producción. Pero descartarlos no es tan simple ya que, por ejemplo, una gaseosa azucarada tiene unas 250 veces más poder contaminante que un efluente cloacal. Ello se debe al azúcar que contienen; en el caso de las cervezas, la carga contaminante se debe al alcohol etílico. Investigadores de la Universidad Nacional del Litoral (UNL), en Argentina, diseñaron procesos capaces de tratar los efluentes de la industria de gaseosas y cervezas utilizándolos como materia prima para la obtención de alcohol, vinagre y anhídrido carbónico. Con los procesos tradicionales, reducir la carga contaminante de los efluentes y dejarlos listos para ser desechados insume unos 20 a 30 días. La propuesta de los investigadores del Instituto de Desarrollo Tecnológico para la Industria Química (Intec) y de la Facultad de Ingeniería y Ciencias Hídricas, liderados por Miguel Isla, permite completar el tratamiento en seis a ocho horas. “Patentamos un proceso simultáneo de tratamiento y valorización de efluentes. Ofrece distintas alternativas ya que una industria cervecera puede destinar una parte de sus efluentes para producir alcohol y otra, vinagre”, destacó Isla, investigador del Intec y docente de la Facultad de Ingeniería y Ciencias Hídricas (Fich). Uno de los componentes de los efluentes de cerveza es el alcohol que se produce por la fermentación durante el proceso de elaboración del producto. En promedio, la cerveza que se comercializa en Argentina tiene entre un 4 % y 5 % de alcohol. “La primera posibilidad es sacar el etanol con una operación muy sencilla como es la destilación. Se aplica calor, se va el alcohol, uno lo condensa y lo recupera”, explicó el investigador.

Investigadores de la UNL logran agregar valor a los efluentes de la industria de bebidas. (Foto: UNL)

El Hijo de El Cronopio No. 979/1463

30676

Esta opción permite hacer una recuperación parcial y si bien la carga orgánica contaminante disminuye significativamente al extraer el alcohol, el 95 % del volumen aún requiere tratamiento. La segunda opción consiste en elaborar vinagre de cerveza, “lo que permite aprovechar prácticamente la totalidad de esa corriente secundaria”, enfatizó. La elaboración no es distinta a cualquier otro vinagre. “A un sustrato que contiene alcohol se agregan bacterias acéticas que lo transforman en ácido acético, es decir, vinagre”, contó Isla. Fruto del interés del propio sector industrial en el tratamiento de efluentes, los investigadores también diseñaron alternativas que se adecuen a los efluentes de gaseosas. Con una composición de entre 10% y 12% de azúcar, los científicos propusieron aprovechar las gaseosas azucaradas para fermentarlas con levaduras y así obtener bioetanol. “El azúcar se transforma en alcohol a razón de 0,5g de alcohol por cada gramo de azúcar que se fermenta. Entonces, de una gaseosa se puede obtener una solución de alcohol al 6%”, especificó. Como ventaja adicional, el proceso de fermentación produce anhídrido carbónico que es el mismo gas que se usa en la elaboración de las gaseosas. Según explicó Isla, de esta forma no sólo se está sustituyendo un tratamiento de efluentes que tiene un costo en sí mismo sino que se produce alcohol de manera rápida y, como subproducto, anhídrido carbónico que vuelve a ingresarse al proceso. El grupo de Tecnologías Limpias liderado por Isla comenzó a trabajar en 2008 gracias a financiamiento otorgado por la UNL en el marco de sus Proyectos CAI+D. Lo que comenzó a escala de laboratorio se fue consolidando a través de acuerdos con el sector industrial. En diciembre de 2012, Cervecería Santa Fe financió la construcción de un fermentador a escala piloto, con una capacidad de hasta 12 litros que se instaló en el laboratorio de Química y Ambiente de la Fich. El equipamiento fue donado por la empresa y brindará la información requerida para la puesta a punto del proceso. En relación con la inversión de $ 120.000 que representa el fermentador a escala piloto, a lo que se suma un sensor de alcohol desarrollado por los investigadores con un valor de $ 80.000, Isla recalcó que se trata de un ejemplo de que “el sector privado es una fuente genuina de financiamiento para la innovación”. (Fuente: UNL/DICYT) Medicina Nuevo antimalárico probado con éxito en ratones humanizados Para acabar con la malaria, que afecta a 200 millones de personas y produce 1,2 millones de muertes cada año, se necesitan medicinas que se puedan dar en una única toma oral, que

El Hijo de El Cronopio No. 979/1463

30677

ataquen varias fases del parásito –para evitar su transmisión–, y que tengan una vida larga en el interior del organismo –para impedir la reinfección–. Un nuevo fármaco (ELQ-300) probado en ratones con un sistema inmunitario ‘humanizado’ ha demostrado que cumple con estas condiciones. Los ensayos del ELQ-300 han finalizado con éxito según un estudio publicado esta semana en la revista Science Translational Medicine, y que ha sido posible gracias a una colaboración internacional en la que ha participado el Medicine Development Campus de Tres Cantos (Madrid), en España. “El ELQ-300 ataca a la mitocondria del parásito”, explica a SINC Aaron Nilsen, investigador del Veterans Affairs medical Center de Portland (EE UU) y uno de los autores principales del estudio. “Como la mitocondria es necesaria para la formación del ADN y por lo tanto para la reproducción, el parásito muere sin poder reproducirse”, añade. Al actuar sobre la mitocondria, el fármaco se asegura de atacar todas las fases del parásito, ya que todas ellas necesitan el ADN para poder multiplicarse. Según los resultados del estudio, este medicamento es treinta veces más efectivo que el medicamento más usado en la actualidad contra la malaria en ratones, y las dosis necesarias son diez veces más bajas.

Estructura molecular del nuevo medicamento ELQ-300. (Foto: Michael Riscoe) Muchos de los fármacos utilizados para tratar la enfermedad atacan solo al parásito cuando este se encuentra en la sangre –y no cuando está en el interior de las células–, y la eficacia de algunos ha disminuido por la aparición de cepas resistentes. Los investigadores del Medicine Development Campus de Madrid estudiaron el efecto de este nuevo medicamento en ratones ‘humanizados’ a los que infectaron con el parásito de la malaria humana –Plasmodium falciparum–.

El Hijo de El Cronopio No. 979/1463

30678

Los resultados mostraron una efectividad similar a la observada en ratones ‘normales’ infectados con la malaria ratonil –Plasmodium yoleii–. “Por esto pensamos que el tratamiento será también efectivo en seres humanos”, explica Nilsen. “Tenemos planes para evaluar el ELQ-300 en seres humanos, pero primero debe pasar toda una serie de controles con modelos animales para garantizar su seguridad”, concluye Nilsen. (Fuente: SINC) Astrofísica Los ‘estrellamotos’ desnudan el interior de las estrellas de neutrones El fenómeno conocido como ‘estrellamoto’ (starquake, en inglés) es típico de estrellas de neutrones con un enorme campo magnético, más conocidas como magnetares. Astrofísicos de la Universidad de Valencia (UV) en España han conseguido obtener los primeros modelos numéricos que explican sus oscilaciones. Estas estrellas presentan flashes de rayos gamma de manera esporádica, que se cree relacionados con reestructuraciones del campo magnético que rompen su corteza –los ‘estrellamotos’– al liberar, en unos pocos segundos, una cantidad de energía equivalente a la emitida por el Sol en mil años. “Los resultados de todas las oscilaciones observadas en los flashes sugieren que es necesario que el interior de las estrellas de neutrones sea superfluido, es decir, que los neutrones fluyan libremente sin ninguna fricción”, comenta Michael Gabler, coautor del trabajo. Durante dos años, astrónomos de la UV, del Instituto Max-Plank de Astrofísica (Alemania) y de la Universidad de Salónica (Grecia) han efecturado simulaciones considerando el interior fluido, la corteza sólida y un campo magnético intenso, para descubrir bajo qué condiciones se producen las vibraciones que se observan. Las conclusiones se presentan ahora en la III Reunión Ibérica de Ondas Gravitatorias en Valencia. El análisis de los flashes más fuertes de los ‘estrellamotos’ ha revelado oscilaciones periódicas que los expertos creen podrían estar relacionadas con diversos modos de vibración del magnetar. “El estudio de estas vibraciones puede darnos información sobre la estructura del interior de las estrellas de neutrones y sobre el comportamiento de la materia nuclear a altas densidades, algo que no se puede hacer en los laboratorios terrestres”, apunta Gabler. “Del mismo modo que los terremotos en la Tierra proporcionan datos sobre la estructura del interior de nuestro planeta, fenómenos similares como los ‘estrellamotos’ podrían aportar

El Hijo de El Cronopio No. 979/1463

30679

información sobre el interior de las estrellas de neutrones”, subraya otro de los autores, José Antonio Font.

Ilustración de un ‘estrellamoto’ con la fractura de la corteza y la erupción de plasma al exterior. (Foto: NASA, CXC, M.Weiss) Entre las fuentes astrofísicas de radiación gravitatoria más importantes se encuentran las estrellas de neutrones y los procesos catastróficos que se asocian con su creación, como las explosiones de supernova, o la emisión de erupciones de radiación gamma de alta energía asociada con la rotura de su corteza externa. La radiación gravitatoria es la última de las predicciones de la teoría de la relatividad general de Einstein que todavía permanece sin comprobar desde su formulación en 1915. “Esta radiación se asocia a ondulaciones del espacio-tiempo originadas por la aceleración de grandes cantidades de materia, como las colisiones de agujeros negros, estrellas de neutrones o las explosiones de supernovas”, añade otro de los autores, Pablo Cerdá Durán. “Y estas olas del espacio-tiempo viajan hasta la Tierra y llevan con ellas información sobre sus orígenes”, prosigue el investigador, quien advierte que la detección de esta radiación, de naturaleza y propiedades distintas a las ondas electromagnéticas, “puede provocar una revolución de nuestra comprensión del universo”. (Fuente: Universidad de Valencia)

El Hijo de El Cronopio No. 979/1463

30680

Biología Salvadas para morir Entrega del podcast Quilo de Ciencia, realizado por Jorge Laborda (catedrático de Bioquímica y Biología Molecular de la Universidad de Castilla-La Mancha), en Ciencia para Escuchar, que recomendamos por su interés. Una célula infectada por un virus supone una bomba de relojería contra las demás, ya que se ha convertido en una fábrica de partículas víricas que, cuando sean liberadas, infectarán a cientos de células vecinas, aumentando el riesgo de infección generalizada del organismo. Para detener la producción de virus, la célula infectada, en un acto de supremo altruismo, despliega en su superficie señales moleculares que indican la infección. Estas señales atraen a células del sistema inmune que inducen el suicidio en las células infectadas, lo que detiene la producción de virus. No obstante, los virus no son tontos y han aprendido a defenderse elaborando estrategias muy sofisticadas. Esta entrega del podcast Quilo de Ciencia, en Ciencia para Escuchar, se puede escuchar aquí. http://cienciaes.com/quilociencia/2013/03/02/salvadas-para-morir/ Astronáutica Gran Enciclopedia de la Astronáutica (55): Akers, Thomas Dale Akers, Thomas Dale Astronauta; País: EEUU; Nombre nativo: Thomas D. Akers Tom Akers nació en St. Louis, Missouri, el 20 de mayo de 1951, si bien se crió en Eminence, ciudad del mismo estado. Casado con Kaye Lynn Parker, tuvieron dos hijos, David Allen y Jessica Marie. El futuro astronauta de la NASA se graduó en la Eminence High School, en 1969, para después estudiar matemáticas aplicadas en la universidad de Missouri en Rolla. Entraría a continuación en la US Air Force (1979), donde después de pasar por la Officer Training School fue destinado a la base aérea de Eglin. Allí actuaría como analista de datos de misiles aire-aire. En 1983 se graduaría como ingeniero de vuelo de pruebas en la Air Force Test Pilot School, en la base de Edwards, y regresó a Eglin para trabajar en varios programas

El Hijo de El Cronopio No. 979/1463

30681

militares y para volar en aviones F-4, F-15 y T-38, entre otros. Acumuló 2.500 horas de vuelo en 25 tipos diferentes de aviones. Durante su estancia allí, presentó su solicitud a la NASA para convertirse en astronauta y fue seleccionado. Miembro del Grupo número 12, sus componentes fueron anunciados el 5 de junio de 1987, pasando inmediatamente a realizar el habitual año de entrenamiento básico. En agosto de 1988, Akers obtuvo la calificación para actuar como especialista de misión, y quedó a la espera de una asignación. Hasta entonces, permaneció en la agencia llevando a cabo tareas en el Shuttle Avionics Integration Laboratory y participando desde tierra en varias misiones de la lanzadera. Por fin, el 29 de septiembre de 1989, la NASA lo asignaba a la STS-41.

Thomas Akers. (Foto: NASA) El transbordador Discovery despegó el 6 de octubre de 1990. Durante este vuelo, Akers se responsabilizó de la carga principal, la sonda europea Ulysses. Su nave aterrizó poco después, el 10 de octubre. Su siguiente misión fue anunciada el 19 de diciembre de ese mismo año, y se desarrolló entre los días 7 y 16 de mayo de 1992, a bordo del transbordador Endeavour (la primera de este vehículo). La STS-49 estuvo dedicada a capturar un satélite de comunicaciones Intelsat-VI que había quedado varado en una órbita baja, al cual se le acopló un nuevo motor. Akers participó con dos salidas extravehiculares (EVA), la primera de las cuales batió el récord de duración, con 8,5 horas, y el de astronautas participantes (tres). Su segunda salida sirvió para evaluar técnicas de construcción que se emplearían en la estación espacial internacional, entonces aún llamada Freedom.

El Hijo de El Cronopio No. 979/1463

30682

El tercer vuelo del astronauta ocurrió entre los días 2 y 13 de diciembre de 1993, de nuevo con el Endeavour (STS-61). Su principal objetivo fue capturar el telescopio espacial Hubble y efectuar diversas reparaciones y operaciones de mantenimiento, lo que supuso llevar a cabo un total de cinco salidas extravehiculares (otro récord). En dos de ellas participó Akers, sumando, junto a las de su anterior misión, un total de 29 horas y 40 minutos de experiencia EVA.

Thomas Akers. (Foto: NASA) El último viaje espacial de Akers se inició el 16 de septiembre de 1996, en el marco de la cuarta misión de un transbordador hacia la estación Mir. A bordo del Atlantis (STS-79), su tripulación se unió al complejo ruso, tras lo cual el astronauta se responsabilizó de la transferencia de 3,5 toneladas de suministros. La misión también recogió a Shannon Lucid y dejó en su lugar a John Blaha, para aterrizar el 26 de septiembre. Akers dejó la NASA en 1997, y posteriormente hizo lo propio con la US Air Force en octubre de 1999 (como coronel). Desde ese momento, empezó a trabajar en la University of Missouri-Rolla, como profesor en el departamento de matemáticas. Se retiraría definitivamente en 2010, dejando paso a una nueva actividad como consultor para la NASA

El Hijo de El Cronopio No. 979/1463

30683

Nombre Misión Lanzamiento Tiempo Thomas D. Akers STS-41 Discovery 6 de octubre de 1990 4 días, 2 horas y 10

minutos

STS-49 Endeavour 7 de mayo de 1992 8 días, 21 horas y 17 minutos

STS-61 Endeavour 1 de diciembre de 1993 10 días, 19 horas y 58 minutos

STS-79 Atlantis 16 de septiembre de 1996 10 días, 3 horas y 19 minutos

Video http://www.youtube.com/watch?feature=player_embedded&v=QrntQkBNXaw Medicina Nueva estrategia farmacológica para atacar al virus de la gripe Se ha descubierto una nueva clase de compuestos capaces de aniquilar al virus de la gripe o influenza. Este esperanzador hallazgo es obra de un equipo internacional de investigadores, dirigido por el químico Stephen Withers de la Universidad de la Columbia Británica en Canadá, el virólogo Masahiro Niikura de la Universidad Simon Fraser en Canadá, y la científica Nicole Bance en esa misma universidad. Ellos han logrado un avance clave con respecto a métodos anteriores usados para manipular una enzima que es crucial para el modo en que el virus de la gripe se replica y propaga. Los nuevos compuestos conducirán a una nueva generación de medicamentos contra la gripe. A estos nuevos fármacos, las cepas del virus no se podrán adaptar tan fácilmente como lo están haciendo con el Tamiflu. Éste es un fármaco que fue bastante eficaz contra el virus de la gripe, pero que hoy en día lo es cada vez menos, ya que este virus muta constantemente. Lo mismo sucede con otros fármacos antivirales, cada vez menos contundentes ante nuevas cepas del virus de la gripe. Sin embargo, a falta de opciones mejores, este arsenal en declive es lo mejor que tienen por ahora los médicos para combatirlo. Los autores del nuevo estudio han demostrado cómo utilizar los compuestos que recientemente han descubierto para sabotear la ayuda que la enzima neuraminidasa le presta al virus de la gripe para propagarse. Esta ayuda consiste en facilitar que el virus se

El Hijo de El Cronopio No. 979/1463

30684

desprenda de la superficie de la célula infectada, lo que le permite ir a parar a otras e infectarlas. Este desprendimiento del virus se logra mediante la acción de la neuraminidasa al deshacer o "digerir" el ácido siálico, un azúcar presente en la superficie de la célula. El virus de la gripe utiliza este mismo azúcar para adherirse a la célula mientras la invade. Una vez que se ha adherido, el virus puede invadir la célula y replicarse.

Masahiro Niikura y Nicole Bance. (Foto: SFU) Aquí es donde los compuestos recién descubiertos acuden al rescate de las células aún sanas. Estos compuestos bloquean a la neuraminidasa, impidiendo que la enzima disuelva al ácido siálico, lo que a su vez impide que el virus escape de la célula infectada y vaya a infectar otra. En cierto modo, la célula infectada se convierte en su cárcel y en su tumba, por así decirlo. Información adicional http://www.sfu.ca/pamr/media-releases/2013/influenza-study-meet-virus-new-enemy.html Biología Células madre viables obtenidas mediante partenogénesis La partenogénesis es una forma de reproducción asexual en la que óvulos no fecundados comienzan a desarrollarse como si hubieran sido fecundados. Se produce de modo natural en muchas plantas y en ciertos invertebrados (algunas abejas, escorpiones, avispas parásitas) y vertebrados (algunos peces, reptiles y anfibios), pero no se produce de forma natural en los mamíferos.

El Hijo de El Cronopio No. 979/1463

30685

En 2007, unos investigadores consiguieron inducir químicamente en óvulos humanos la partenogénesis. El sistema obtenido por partenogénesis tiene propiedades similares a las de un embrión, pero no puede continuar adelante con su desarrollo. En una nueva investigación, llevada a cabo por el equipo de Wolfram Zimmerman y sus colegas de la Universidad Georg-August en Gotinga, Alemania, se ha demostrado ahora que las células del sistema obtenido por partenogénesis funcionan como células madre embrionarias, y mantienen la capacidad de convertirse en diferentes tipos de tejidos.

Células madre embrionarias. (Imagen: NASA / Eduardo Almeida) Además, los autores de este nuevo estudio usaron células madre obtenidas por partenogénesis para crear cardiomiocitos y músculo cardiaco (miocardio) que exhibía las propiedades estructurales y funcionales del miocardio normal. El miocardio así obtenido pudo ser utilizado para ser injertado en las ratonas que habían aportado los óvulos para la partenogénesis. Los resultados de esta investigación demuestran por tanto que las células madre obtenidas por partenogénesis se pueden utilizar para la ingeniería de tejidos. Información adicional http://www.jci.org/articles/view/67961?key=a07301e0e8f34e261854

El Hijo de El Cronopio No. 979/1463

30686

Ingeniería El primer sensor de imágenes flexible y totalmente transparente Cámaras digitales, escáneres médicos y otras tecnologías de captación de imágenes han avanzado considerablemente durante la última década. Continuando con este ritmo de innovación, un equipo austríaco de investigación ha desarrollado una forma totalmente nueva de capturar imágenes, basándose en las singulares propiedades de una lámina plana, flexible, transparente y barata, hecha con un polímero especial. El nuevo y singular sensor de imágenes, el cual podría llegar a tener un costo tan bajo como para podérsele utilizar en aplicaciones de usar y tirar, se asemeja a una hoja de plástico flexible común, utiliza partículas fluorescentes para capturar la luz entrante y canaliza una porción de ella hacia una serie de sensores. Sin ningún componente electrónico o interno propiamente dichos, el diseño del dispositivo también es, hasta donde saben sus creadores, el primer sensor de imagen totalmente transparente, flexible, y sin microestructuras integradas (como por ejemplo circuitos), que se presenta públicamente. Además, se puede fabricar en muy variados tamaños. El sensor se basa en una película de un polímero, que ejerce de concentrador luminiscente, y que incorpora pequeñas partículas fluorescentes que absorben luz de una longitud de onda muy específica (luz azul por ejemplo) y luego la reemiten en una longitud de onda más larga (luz verde por ejemplo). Parte de la luz fluorescente reemitida se dispersa fuera del sensor de imágenes, pero una porción de ella viaja por el interior de la película hasta los bordes exteriores, donde matrices de sensores ópticos capturan la luz. Un ordenador combina luego las señales para generar una imagen en blanco y negro (escala de grises). La principal aplicación que el equipo de Oliver Bimber, de la Universidad Johannes Kepler en Linz, Austria, le ve a su nueva tecnología, está en innovadoras interfaces de usuario, transparentes, y que no requieren ser tocadas por el usuario. Estas interfaces podrían ser colocadas perfectamente ante la pantalla de un televisor o de otros dispositivos de visualización. Eso daría a los usuarios de ordenador o de consola de videojuegos un control total sobre el aparato sin tener que hacer otra cosa más que gesticular, y sin necesidad de cámaras ni de sensores externos de seguimiento de movimiento, y, por supuesto, sin tener que tocar físicamente la película como sí lo requiere actualmente una pantalla táctil. La hoja de polímero también podría ser empleada como envoltorio para objetos, dotándolos así de capacidades de sensor. Puesto que el material es transparente, también es posible utilizar varias capas con sensibilidad a diferentes longitudes de onda, para capturar imágenes en color. Los investigadores también están considerando instalar su nuevo sensor delante de un sensor convencional CCD de alta resolución. Esto permitiría la grabación de dos imágenes al mismo tiempo en dos exposiciones diferentes. La combinación de ambas, según el equipo de

El Hijo de El Cronopio No. 979/1463

30687

Bimber, daría una imagen de alta resolución con menos regiones sobreexpuestas o subexpuestas si la escena captada presenta un fuerte contraste. Bimber también subraya que la hoja de polímero en sí misma es bastante barata, y por lo tanto podría llegar a ser un producto de usar y tirar.

El primer sensor de imágenes flexible y totalmente transparente del mundo. La película plástica está recubierta con partículas fluorescentes. (Foto: Optics Express) Información adicional http://www.opticsinfobase.org/oe/abstract.cfm?uri=oe-21-4-4796 Medicina Nueva y prometedora terapia para que las heridas en la piel se cierren antes A veces no apreciamos el papel vital que nuestras propias biomoléculas naturales desempeñan en el proceso de curar heridas, incluyendo su contribución al crecimiento de nuevas células y al desarrollo de nuevos vasos sanguíneos que proporcionen nutrientes a esas células. Ahora, unos investigadores de la Universidad de California en Los Ángeles (UCLA) dirigidos por Heather Maynard, profesora de química y bioquímica y miembro del Instituto

El Hijo de El Cronopio No. 979/1463

30688

de NanoSistemas de California, dependiente de la UCLA, están trabajando en aprovechar la capacidad de nuestro cuerpo para curarse a sí mismo, y lo hacen mediante el desarrollo de nuevas terapias que se podrían usar para tratar heridas en la piel.

Heather Maynard. (Foto: Steevens Alconcel / UCLA) Entre los principales actores implicados en el proceso natural de sanar heridas está una sustancia de señalización conocida como factor de crecimiento básico de fibroblastos, o bFGF por sus siglas en inglés, que es secretada por nuestras células para activar procesos implicados en la curación, así como en el desarrollo embrionario, la regeneración de tejidos incluyendo el óseo, el desarrollo y mantenimiento del sistema nervioso, y la renovación de células madre. El bFGF ha sido investigado ampliamente como herramienta potencial que los médicos podrían utilizar para promover o acelerar estos procesos, pero su inestabilidad fuera del cuerpo ha sido un obstáculo importante para usarlo de forma generalizada. Ahora, Maynard y su equipo han descubierto cómo estabilizar al bFGF. Basándose en la capacidad del factor de crecimiento para enlazarse a la heparina (un azúcar complejo presente de modo natural en la superficie de nuestras células) el equipo sintetizó un polímero que imita la estructura de la heparina. Al adherirse al bFGF, el nuevo polímero hace que la proteína sea estable ante los muchos factores que normalmente la inactivan. Al dotarla de esa estabilidad, la convierte en un candidato más prometedor para aplicaciones médicas. En el trabajo de investigación y desarrollo también han participado Thi Nguyen, Caitlin Decker, Sung-Hye Kim, Darice Wong y Joseph Loo.

El Hijo de El Cronopio No. 979/1463

30689

Información adicional http://newsroom.ucla.edu/portal/ucla/ucla-scientists-develop-new-therapeutics-243649.aspx Ingeniería Sistema revolucionario de energía solar basado en nanoantenas Una técnica de fabricación creada recientemente podría proporcionar el medio tecnológico que la comunidad científica ha estado buscando para hacerle dar a la energía solar un salto decisivo hacia su implantación generalizada. Desde hace ya unos años, los científicos estudian los beneficios potenciales de una nueva rama de la tecnología de la energía solar que se basa en conjuntos de antenas nanométricas que son teóricamente capaces de lograr aprovechar más del 70 por ciento de la radiación electromagnética del sol y simultáneamente convertirla en energía eléctrica utilizable. La tecnología sería una inmensa mejora con respecto a los paneles solares de silicio, la clase de tecnología de energía solar más usada hoy en día. Incluso los mejores paneles solares de silicio sólo recolectan aproximadamente un 20 por ciento de la radiación solar disponible, y se necesitan mecanismos separados para convertir la energía almacenada en electricidad utilizable por las redes de suministro eléctrico. La eficiencia limitada de estos paneles y sus elevados costos de producción han sido dos de las principales barreras que han frenado su adopción a gran escala como fuentes de energía capaces de reemplazar a los combustibles fósiles tradicionales en muchas aplicaciones. Mientras tanto, aunque las nanoantenas han resultado prometedoras en teoría, ha faltado la tecnología necesaria para construirlas y probarlas. El proceso de fabricación ha estado plagado de obstáculos. Aquí es donde entra en escena el avance logrado por el equipo de Brian Willis, profesor de ingeniería en la Universidad de Connecticut en Storrs, Estados Unidos. Se trata de un innovador proceso de fabricación que promete ser un medio eficaz y barato de producir nanoantenas solares, hasta el punto de que podría permitir a la energía solar ser más barata ya de entrada que los combustibles fósiles. En el proyecto también trabaja un grupo de la Universidad Estatal de Pensilvania en Altoona, Estados Unidos, encabezado por los físicos Darin Zimmerman, Gary Weisel y Brock Weiss. El dispositivo generador de energía solar que se halla en desarrollo gracias a esta colaboración entre las dos universidades citadas, así como con una empresa subcontratista, tiene, en definitiva, un buen potencial para revolucionar la tecnología de la energía solar, aumentando su eficiencia y reduciendo sus costos.

El Hijo de El Cronopio No. 979/1463

30690

Brian Willis sostiene un dispositivo convertidor de energía solar basado en la nueva tecnología. (Foto: Sean Flynn / UConn) Para el próximo año, Willis y sus colaboradores planean construir un prototipo de su dispositivo basado en nanoantenas y empezar a poner a prueba su eficiencia en condiciones reales. Información adicional http://today.uconn.edu/blog/2013/02/uconn-professors-patented-technique-key-to-new-solar-power-technology/ Arqueología Antigua moneda china hallada en Kenia demuestra el comercio entre civilizaciones del pasado Una moneda china de aproximadamente 600 años de antigüedad, desenterrada en la isla keniata de Manda, demuestra que ya existía comercio entre China y África Oriental décadas antes de que los exploradores europeos comenzasen a realizar los viajes marítimos con los que cambiaron el mapa del mundo. El descubrimiento es fruto de una expedición arqueológica dirigida por Chapurukha M. Kusimba del Museo Field, y Sloan R. Williams de la Universidad de Illinois, ambas instituciones en la ciudad estadounidense de Chicago. En las excavaciones también se hallaron restos humanos y objetos con una antigüedad mayor que la de la moneda. La moneda, un pequeño disco de cobre y plata con un agujero cuadrado en el centro, de modo que podía ser llevada en algunos cinturones, fue acuñada por la casa de la moneda del

El Hijo de El Cronopio No. 979/1463

30691

emperador Yongle, un gobernante de la poderosa Dinastía Ming, quien reinó entre los años 1403 y 1425 de nuestra era. El nombre del emperador aparece escrito en la moneda, lo que ha hecho fácil averiguar su antigüedad. El emperador Yongle, conocido entre otras cosas por ser quien comenzó la construcción de la fascinante Ciudad Prohibida de China, estaba interesado en enviar misiones diplomáticas y comerciales a las tierras que rodean el Océano Índico, y por ello le encargó al almirante Zheng He, también conocido como Cheng Ho, la exploración de esos territorios costeros. "Zheng He fue, en muchos aspectos, el Cristóbal Colón chino", valora Kusimba, conservador de antropología africana en el Museo Field. "Es fascinante tener una moneda que puede demostrar definitivamente que él estuvo en Kenia."

La moneda. (Foto: John Weinstein / Museo Field) El hallazgo obligará a replantearse bastantes cosas. Ya se sabía de la conexión antigua de África con otras civilizaciones del mundo, pero esta moneda realza el papel de China como civilización con proyección en ciertas zonas de África y en otros territorios del litoral índico. Sin embargo, esa relación cesó poco después de la muerte del emperador Yongle, cuando los gobernantes chinos subsiguientes prohibieron las expediciones a otras partes del mundo, lo que dejó a los europeos como únicos exploradores de la Tierra y les convirtió en protagonistas de la aventura épica de viajar a sitios ignotos del planeta y conocer el globo terráqueo en su totalidad, algo que también llevó a sus imperios a expandirse y a hacerse más fuertes.

El Hijo de El Cronopio No. 979/1463

30692

La isla de Manda, frente a la costa norte de Kenia, fue hogar de una civilización avanzada desde aproximadamente el año 200 de nuestra era, hasta 1430, cuando la isla fue abandonada por estos pobladores. El comercio desempeñó un papel importante en el desarrollo de esa civilización asentada en Manda, y la moneda descubierta parece demostrar que la importancia del comercio en la isla data de mucho antes de lo que creían hasta ahora los arqueólogos y los historiadores. En la investigación también han trabajado Tiequan Zhu de la Universidad Nacional Sun Yat-Sen en China, que fue quien identificó la moneda, Janet Monge de la Universidad de Pensilvania en la ciudad estadounidense de Filadelfia, Amelia Hubbard de la Universidad Estatal Wright en Dayton, Ohio, Estados Unidos, y Mohammed Mchulla del Fuerte Jesús de Mombasa (Forte Jesus de Mombaça), actualmente declarado Patrimonio Cultural de la Humanidad por la UNESCO, y que forma parte de los Museos Nacionales de Kenia. El Fuerte Jesús fue construido en la década de 1590 por orden del rey Felipe II de España y I de Portugal, monarca de los reinos de España y Portugal. Información adicional http://fieldmuseum.org/about/ancient-chinese-coin-found-kenyan-island-field-museum-expedition Geofísica Neuronas artificiales podrían detectar sismos Un nuevo software para identificar y clasificar señales emitidas por los volcanes fue creado en la Universidad Nacional (UN) de Colombia. Su particularidad es que utiliza redes neuronales artificiales. Se trata de un trabajo desarrollado por Óscar Ernesto Cadena, magíster en Ciencias (línea de Geofísica), que consiste en aplicar una metodología que combina análisis de predicción lineal (LPC, por sus siglas en inglés) y redes neuronales artificiales (RNA) con el objetivo de detectar y clasificar tres tipos de sismos volcánicos: volcano-tectónicos (VT) tipo A, largo periodo (LP) y tremor (TRE). El trabajo consistió en diseñar una herramienta computacional orientada a identificar y clasificar automáticamente estas señales sísmicas, para proporcionar información en tiempo real. Entre sus ventajas está la posibilidad de hallar sismos con arribos emergentes, de corta duración o de bajo nivel energético. La aplicación del método muestra cerca del 100% de acierto para distinguir entre ruido y señal sísmica (fase de detección); del 92% para clasificar entre sismos de largo periodo y volcano-tectónicos; y del 100% para identificar sismos de tipo tremor.

El Hijo de El Cronopio No. 979/1463

30693

Para alcanzar este tipo de exactitud se utilizaron RNA, que nacieron como producto de un intento por emular ciertas características del cerebro humano desde el punto de vista sensorial.

Volcán Galeras, uno de los más activos del país. (Foto: U.N.) El magíster precisa que las neuronas, procesadores elementales y relativamente lentos, se agrupan formando capas que, a su vez, crean redes que funcionan como un todo. Esto es lo que se conoce como cerebro. El estilo de procesamiento que utiliza es en paralelo, esto es, varias neuronas pueden activarse al mismo tiempo sin que el sistema colapse por ello. El conocimiento está ampliamente distribuido en la red, lo que evita grandes pérdidas de información en caso de daños parciales. El cerebro humano tiene la capacidad de adaptarse a las condiciones cambiantes del medio exterior y de aprender nuevas cosas y aplicarlas sobre ese nuevo entorno. Además, es muy tolerante a los fallos, pues, si una neurona deja de funcionar, no es motivo para que el sistema completo interrumpa su funcionamiento. El mecanismo de control de los procesos es autoorganizado, lo que implica que existen grupos de neuronas especializadas para cada tipo específicos de estos. La metodología desarrollada por Óscar Ernesto Cadena, con la dirección de la profesora María Cristina Dimaté Castellanos, del Departamento de Geociencias, recrea esas mismas características, pero con algo que han denominado neuronas artificiales.

El Hijo de El Cronopio No. 979/1463

30694

Explica que una neurona artificial es una unidad elemental de proceso que ejecuta cálculos a partir de un vector de entrada, procedente del exterior, o de otras neuronas. Esta es la base estructural de las RNA. A partir de esa lógica, la estrategia establecida por Cadena contempla cinco pasos. En el primero, se plantea la manera de abordar la identificación, los tipos de sismos por clasificar y las señales. En el segundo, se estudia el orden de la predicción lineal para representar adecuadamente las señales. En el tercero, se diseña y desarrolla un programa que descienda a un nivel operativo estas tareas y se implementa una base de datos para organizar la información emitida por el programa. El cuarto paso aborda el estudio de las topologías de las RNA para las fases de detección y clasificación mediante su entrenamiento con diferentes tipologías. Finalmente, se procede a desarrollar en línea el proceso de clasificación. Como ejemplo de prueba de la metodología y de la herramienta computacional, se efectuó un ejercicio de clasificación de eventos en una de las estaciones de la red sismológica del volcán Galeras. Sin embargo, su aplicación se puede extender a todas sus estaciones. Uno de los datos interesantes es que en la fase de detección o clasificación sismo-ruido, el mecanismo utilizado funciona bastante bien, pues logra cerca del 100% de acierto en las pruebas efectuadas, sin importar cuales fueran los parámetros utilizados. Se observó que en varias ocasiones la localización de un sismo comenzaba segundos antes de que se observara claramente el arribo de sus primeras ondas. Si bien esto no sugiere que el sistema pueda predecirlos, el método sí encuentra componentes espectrales correspondientes a unidades de sismo en lugares donde no es posible reconocerlos a simple vista. El resultado forma parte de la capacidad de generalización que tienen las RNA. Esta clase de innovaciones son muy valiosas para un país como Colombia, que presenta una fuerte actividad volcánica. (Fuente: UN/DICYT) Ecología Nueva herramienta de diagnóstico para mejorar la conservación de los peces en los ríos Un equipo científico de la Universitat de Barcelona (España) ha aplicado una nueva herramienta de diagnóstico para evaluar el estado de salud de los peces de los ríos y conocer, además, el estado de conservación de los ecosistemas fluviales. La nueva herramienta de diagnóstico no letal, basada en el análisis de biomarcadores hematológicos, ha permitido detectar los efectos de los vertidos de aguas residuales en dos especies autóctonas en el río Ripoll: el bagre (Squalius laietanus) y el barbo de montaña (Barbus meridionalis).

El Hijo de El Cronopio No. 979/1463

30695

Los resultados de los estudios, pioneros en toda la península Ibérica en peces continentales, han sido publicados en las revistas Science of the Total Environment y Aquatic Toxicology. Los trabajos están firmados por el equipo encabezado por los expertos Adolfo de Sostoa y Alberto Maceda Veiga, del Departamento de Biología Animal de la Facultad de Biología y del Instituto de Investigación en Biodiversidad (IRBio), ambos adscritos al campus de excelencia internacional BKC. Los ecosistemas de agua dulce son uno de los sistemas naturales más amenazados del mundo. En la península Ibérica, cerca del 52% de las especies de peces de los ríos están en peligro, según datos de la Unión Internacional para la Conservación de la Naturaleza (UICN). Las infraestructuras hidráulicas, la contaminación, la introducción de especies exóticas y las captaciones de agua excesivas son las amenazas más graves sobre la fauna acuática peninsular en general y de los ríos mediterráneos en particular. Tal como explica el profesor Sostoa, jefe del Grupo de Investigación Consolidado de Biología de Vertebrados de la UB y coautor de la descripción de una nueva especie de ciprínido, el Squalius laietanus, «los peces y los anfibios son los grupos de vertebrados más amenazados del mundo. Además, la península Ibérica en concreto es muy rica en peces endémicos, lo que incrementa la vulnerabilidad de estas especies». En opinión del investigador Alberto Maceda Veiga, «considerando el grave estado de conservación de muchas de estas especies, es básico aplicar herramientas de diagnóstico no invasivas que nos permitan evaluar su estado de salud de forma precisa e identificar, así, las especies más vulnerables». El equipo del profesor Sostoa fue pionero en la evaluación del estado ecológico de los ríos catalanes utilizando los peces como bioindicadores (IBICAT), un proyecto financiado por la Agencia Catalana del Agua (ACA) en 2003. Según el profesor Sostoa, «el poder diagnóstico de estos tipos de índices se encuentra en la selección cuidadosa de una serie de características de las comunidades de los peces llamadas métricas, mediante la comparación de largas series de datos de ríos en condiciones de referencia y bajo el impacto de perturbaciones». «No obstante -apunta Maceeda Veiga-, estos índices están marcados por cierta subjettividad en la categorización de algunas de estas variables y por el bajo poder diagnóstico de efectos subletales. Es decir, los índices hacen una diagnosis demasiado general, dado que identifican las poblaciones de peces como impactadas cuando ya se han producido cambios drásticos en la comunidad (por ejemplo, pérdida de especies)». Para el investigador, es necesario actuar antes. La tesis doctoral de Alberto Maceda Veiga, dirigida por el profesor Sostoa y premio extraordinario de doctorado en el curso 2010-2011, incluye un primer trabajo de base empírica, publicado en Ecological Indicators en 2011, que categoriza de forma cuantitativa el margen de tolerancia de la ictiofauna catalana y de la cuenca del Ebro a los cambios de calidad del agua y del hábitat físico. La tesis abarca también una serie de trabajos donde se aplica el análisis de sangre como técnica para determinar los efectos de la contaminación por aguas residuales urbanas e industriales en el bagre y el barbo de montaña, llevados a cabo en colaboración con el catedrático Ginés Viscor, del Departamento de Fisiología Animal. En relación con estos estudios, Maceda Veiga explica que «los trabajos constatan la presencia en los ríos de compuestos refractarios a los procesos de depuración que pueden

El Hijo de El Cronopio No. 979/1463

30696

afectar a la salud de los peces, o que, incluso, pueden bioacumularse y pasar a otros niveles tróficos, como es el caso de algunos metales». La investigación del equipo de la UB demuestra que los niveles de metales pesados en los tejidos de los peces del río Ripoll superan los límites establecidos por la normativa española y europea. «Las concentraciones de metales en los barbos -apunta Maaceda Veiga- son superiores a las del bagre, y las alteraciones patoológicas detectadas pondrían de manifiesto que el barbo de montaña sería más sensible que el bagre a los efectos de la contaminación en este río».

Los expertos Adolfo de Sostoa y Alberto Maceda Veiga. (Foto: U. Barcelona) Los investigadores alertan de que la calidad del agua de muchos ríos mediterráneos no acaba de reflejar todas las mejoras llevadas a cabo en los sistemas de tratamiento de aguas residuales a lo largo de las últimas décadas. Tal como remarca Maceda Veiga, «es necesario garantizar el caudal ecológico para facilitar el proceso de autodepuración de los ríos y también hace falta luchar contra los vertidos ilegales que todavía hoy se continúan produciendo en Cataluña, incluso en los parques naturales». Cataluña es un punto estratégico en la introducción de peces exóticos en la Península, señalaba el equipo de la UB en otra investigación publicada en Freshwater Biology en 2010. Para el profesor Sostoa, «en Cataluña, el número de especie exóticas censadas es superior al de autóctonas. Si no mejoramos las acciones de conservación, la ictiofauna autóctona podría desaparecer en pocas décadas. Es un proceso lento pero implacable, y podríamos encontrarnos con sistemas fluviales globalizados, con faunas de carácter uniforme, un fenómeno conocido como homogeneización biótica». ¿Cómo se pueden evitar más introducciones y luchar contra las existentes? Según Maceda Veiga, «es muy difícil erradicar especies introducidas que ya ocupan grandes extensiones de territorio. Es necesario actuar justo cuando se acaba de detectar la introducción, especialmente si todavía ocupa un área pequeña o, como mínimo, controlar su expansión. Pero sobre todo hace falta trabajar en educación ambiental para evitar futuras introducciones». El profesor Sostoa confirma estas dificultades: «La solución no es trivial:

El Hijo de El Cronopio No. 979/1463

30697

una erradicación descontrolada puede provocar de rebote graves perjuicios en la conservación de otras especies, o que incluso se incremente la depredación sobre las nativas». Uno de los problemas asociados a la introducción de especies exóticas son los agentes patógenos, una amenaza muy desconocida en Cataluña. En esta línea, el equipo de la UB identificó en 2009 uno de los pocos casos descritos de ictioftiriasis o enfermedad del punto blanco en peces salvajes. Esta patología, muy frecuente en peces estabulados, es causada por un protozoo ciliado de origen asiático y se ha extendido a consecuencia del movimiento de peces ligados a la acuicultura. Para los expertos, en materia de conservación medioambiental hace falta priorizar la conservación de los procesos ecológicos y, en definitiva, las acciones in situ sobre las medidas ex situ (programas de cría en cautividad, etc.). Maceda Veiga, que tiene previsto continuar la investigación con una beca Marie Curie en la Universidad de Cardiff (Reino Unido), considera que la recuperación del río beneficia a toda la comunidad biológica y no solo a los peces: «Es necesario plantearse el sentido de los programas de cría en cautividad cuando no se trabaja para disminuir las presiones antrópicas que han causado la regresión de la especie». Una de estas presiones son las especies invasoras. Tal como explica, «en relación con la aparición de nuevas invasiones, se está investigando el papel que desempeñan sectores emergentes como la acuariofilia, y cómo las especies invasoras pueden alterar el funcionamiento de los ecosistemas». El profesor Sostoa concluye: «Nuestra labor investigadora se ha centrado durante los últimos años en la diagnosis preventiva, así que esperamos que instituciones y administraciones puedan ahora aplicarla y establecer medidas que permitan corregir actuaciones en gestión y conservación de la fauna acuática». Los trabajos del equipo de ictiología de la UB para refinar las herramientas de diagnóstico basadas en variables hematológicas, en los que también han colaborado la catedrática Mercè Dufort (Departamento de Biología Celular de la UB) y los profesores Mário Pacheco (Universidad de Aveiro, Portugal) y Maria José Ranzani de Paiva (Instituto de Pesca de São Paulo, Brasil), continúan ahora con las tesis doctorales de Mario Monroy, sobre el lago Tititcaca, y Nicole Colin, sobre el río Ripoll. (Fuente: U. Barcelona) Astrofísica El ‘retrato’ del universo más joven desafía al modelo cosmológico estándar La radiación del fondo cósmico de microondas (RFCM) es conocida como el eco o el resto de la explosión inicial del universo, el Big Bang. Los primeros datos del satélite Planck de la Agencia Espacial Europea, en cuya misión participa el español Consejo Superior de Investigaciones Científicas (CSIC), han dado lugar al mapa más detallado de esta forma de radiación. Esta representación gráfica tan precisa ha revelado ciertas características del universo que difieren de las propuestas por el modelo cosmológico estándar.

El Hijo de El Cronopio No. 979/1463

30698

La información recogida por el telescopio espacial durante 15 meses y medio proporciona una imagen de cómo era el universo cuando tenía unos 380.000 años de antigüedad. Según estos datos, el cosmos, observado a las más grandes escalas, no presenta las mismas propiedades en todas las direcciones. Dicha cualidad es conocida como isotropía y sería la esperada bajo el marco cosmológico estándar. Poco después del Big Bang, el universo sufrió un proceso de expansión acelerada denominado inflación. Convencionalmente, este periodo está asociado a una etapa de homogenización de la composición del universo en todas las direcciones. No obstante, el mapa obtenido por Planck muestra una asimetría hemisférica, es decir, que las dos mitades del mapa poseen las mismas características. En concreto, a gran escala, una de las mitades del mapa presenta más contraste de temperaturas con respecto al valor medio que la opuesta. Esta misma mitad, a su vez, alberga una zona especialmente grande y fría, la llamada Mancha Fría, cuyas características son anómalas.

El fondo cósmico de microondas desvelado por Planck. (Foto: ESA y la Planck Collaboration) Aunque la mayoría de la información obtenida por Planck sí que confirma las predicciones del modelo cosmológico estándar, para el investigador del Instituto de Física de Cantabria (centro mixto del CSIC y de la Universidad de Cantabria) Enrique Martínez, investigador del proyecto, “la anomalía encontrada podría ser la punta del iceberg de nuevos fenómenos físicos cuya naturaleza está aún por desentrañar”. El equipo de Martínez ha sido el encargado, entre otras labores, de obtener el propio mapa de RFCM a través de un método que discrimina las emisiones contaminantes procedentes de otras fuentes. Por su parte, el también investigador del CSIC y participante del proyecto Marcos López-Caniego explica: “Hemos hecho muchas pruebas para intentar justificar

El Hijo de El Cronopio No. 979/1463

30699

dichas anomalías como resultado de otras fuentes de radiación, pero no lo hemos conseguido. Esto podría sugerir que el universo no es, por tanto, isótropo a gran escala como creíamos”. Misiones espaciales previas ya habían detectado indicios de la región fría anómala. Según el investigador de la Universidad de Cantabria Patricio Vielva, “la precisión con la que la mancha fría ha sido revelada por Planck hace que no pueda ser ignorada y que sea realmente necesario buscar una explicación plausible para su origen”. Para Vielva, “el siguiente reto es construir un modelo nuevo que reconcilie estas anomalías con el modelo genérico, aunque todavía no sabemos qué tipo de física hará falta para ello”. Aparte de las anomalías desveladas, Planck también ha sido capaz de redefinir con mayor precisión la composición exacta del universo. Sus datos aumentan la proporción de materia ordinaria del 4,5% al 4,9%, y la de materia oscura del 22,7% al 26,8%. La energía oscura se reduce, por tanto del 72,8% al 68,3%. Del mismo modo, la información del satélite afina la constante de Hubble, que es aquella que representa la razón de expansión del universo. Según el telescopio espacial, el universo se expande a 67,15 km/s/Mpc [kilómetros por segundo por megapársec (unidad de medida de la distancia a nivel extragaláctico)]. Todas estas cifras fijan la edad del universo en 13.820 millones de años. Por último, la misión también ha realizado un catálogo de 1.200 cúmulos de galaxias, muchos de ellos desconocidos hasta la fecha, y un catálogo de más de 25.000 fuentes compactas galácticas y extragalácticas. Para ello, se han servido de herramientas de detección y caracterización desarrolladas por los investigadores del CSIC. Según López-Caniego, “estos resultados permitirán mejorar el conocimiento sobre la formación y evolución de los cúmulos de galaxias, y acotar algunos parámetros cosmológicos de manera independiente a la RCFM”. Los datos recopilados por Planck han dado lugar a 29 artículos científicos. El satélite, que fue lanzado en 2009, continúa surcando el espacio en busca de nueva información que aumente el conocimiento disponible sobre el universo. (Fuente: CSIC/DICYT) Videos http://www.youtube.com/watch?v=A6jE2VA8Zf0&feature=player_embedded http://www.youtube.com/watch?v=M2CWaLU6eMI&feature=player_embedded

El Hijo de El Cronopio No. 979/1463

30700

Psicología Presentismo y absentismo en el trabajo Artículo, del blog Psy’n'thesis, que recomendamos por su interés. Está claro que el absentismo laboral es un problema con consecuencias importantes en términos de productividad, clima organizacional e incluso en el ámbito individual. Muchas veces simplemente se atribuye esta conducta a la “picaresca” o se entiende que tales comportamientos son manifestaciones de la "personalidad" caradura de quien los pone en práctica, pero éstas no son explicaciones válidas, al menos en psicología. Algo no está funcionando bien si un trabajador prefiere evitar su actividad, donde se supone que debería encontrar oportunidades para su desarrollo profesional y personal. El artículo, del blog Psy’n'thesis, se puede leer aquí. http://psynthesis.wordpress.com/2013/03/04/presentismo-y-absentismo-en-el-trabajo/