netzahualcoyotzi 2009, saberes compartidos[1]

62
saberes compartidos Revista de Divulgación Científica, Tecnológica y Humanística año 3 no. 4 • 2009 Segundo Semestre Puebla, Pue. El Gran Telescopio Canarias y la participación de México. Del maravilloso mundo de la literatura al apasioante mundo de las ciencias Gigantes invisibles entre una multitud de enanas brillantes

Upload: adrian-israel-absalon-cruz

Post on 24-Jun-2015

145 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Netzahualcoyotzi 2009, Saberes Compartidos[1]

saberes compartidos

Revista de Divulgación Científica, Tecnológica y Humanística

año 3no. 4 • 2009

Segundo Semestre

Puebla, Pue.

El Gran Telescopio Canarias

y la participación de México.

Del maravilloso mundo de la literatura

al apasioante mundo de las ciencias

Gigantes invisibles entre una multitud de enanas brillantes

Page 2: Netzahualcoyotzi 2009, Saberes Compartidos[1]
Page 3: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20093

Núm. 4año 3 • Segundo Semestre 2009

Directorio SumarioDr. Jaime Díaz HernándezDirector General del Consejo de Cienciay Tecnología del Estado de Puebla

Dr. Benito Ramírez ValverdeDr. Eduardo Mendoza TorresDr. Gregorio Hernández Cocoletzi Consejo Editorial

Dr. Gerardo Francisco Torres del Castillo Dr. José de Jesús Pérez Romero Dr. José Luis Carrillo Estrada Dr. Jenaro Reyes Matamoros Dr. Umapada Pal Dr. Jaime Eduardo Estay Reyno M.C. Germán Sánchez Daza Dr. Nestor Estrella Chulim Dra. Griselda Corro Hernández Dr. Mario García Carrasco Comité Editorial

Fís. Pedro Ochoa SánchezEditor

Lic. Graciela Juárez García Lic. Gabriela Patricia Flores Ancona Corrección de Estilo

Lic. Vanessa Carreón OrtegaMisha Berenice Bautista GuzmánDiseño y Formación Editorial

Saberes Compartidos es una revistade la comunidad académica y de investigación del Estado de Puebla, coordinada por el Consejo de Ciencia y Tecnología del Estado de Puebla.29 Sur 718, Col. La Paz, CP. 72160 Puebla, Pue. Tel/Fax: 01(222)249 76 22 / 231 58 07.www.concytep.pue.gob.mxISSN (en trámite)

4

EditorialLuis Felipe Rodríguez Jorge

Artículos de Divulgación

Gigantes invisibles entre una multitud de enanas brillantes

Itziar Aretxaga / David H. Hughes

El Gran Telescopio CANARIAS y la participación de México

José Ramón Valdés Parra / Raúl Mújica GarcíaMiguel Chávez Dagostino / Emanuele Bertone

Primera noche de las estrellas en México

Philippe Faure

Del maravilloso mundo de laliteratura, al apasionante mundo

de las cienciasCitlalli Netzahualcoyotzi Piedra

Los humedales artificiales, una ecotecnología para el

tratamiento de aguas residualesAlejandra Galiote Flores / Víctor Luna Pabello

GuillermoTenorio Tagle

6

12

Entrevista

20

25

31

55

Artículos de Investigacióny Enseñanza

Uso de las Tecnologías de la Información y la Comunicación

en el laboratorio de cienciasErika Martínez Miró / Fernando Gamboa Rodríguez

Ricardo Castañeda Martínez / Jesús Ramírez Ortega /Clara Rosa María Alvarado Zamorano

39

La Poesía del Universo:Robert OssermanOmar López Cruz / Raúl Mújica García

Reseña 59

Análisis estadístico de la aplicación de un modelo cognitivo

para la evaluación de proposiciones lógicas en estudiantes del nivel Técnico

Superior UniversitarioJoel Suárez Cansino / Emma Lucio Martínez

47

Directorio / Sumario

Page 4: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20094

Editorial

EditorialConcluye 2009, Año Internacional de la

Astronomía, declarado como tal por la Organización de las Naciones Unidas, en res-puesta a una petición hecha desde 2003 por la comunidad astronómica internacional, de la cual México forma parte.

Así, durante este año conmemoramos los 400 años del primer uso astronómico del te-lescopio por Galileo con gran diversidad de eventos, tanto en el ámbito nacional, como internacional. Como objetivo principal, la conmemoración buscaba lograr que el ma-yor número posible de personas en el mundo repitieran algunas de las experiencias de Ga-lileo al observar por vez primera a través del telescopio los cráteres de la Luna, los satélites de Júpiter, o las fases de Venus.

Creo que tanto los astrónomos como el pú-blico ganamos mucho con la experiencia. Además de nuestras labores cotidianas de investigación y enseñanza, los astrónomos estamos acostumbrados a realizar algo de divulgación. Hay al menos dos razones para este interés nuestro en la divulgación; en pri-mer lugar esta actividad nos proporciona una manera de vincularnos de manera inmediata con la sociedad, explicándole las maravillas que hay en el Cosmos; en segundo lugar, la Astronomía llama la atención del gran públi-co, lo cual hace gratificante nuestra labor de divulgación.

El que haya más público para una conferen-cia de hoyos negros que para una de alimen-tos, nos recuerda que no sólo de pan vive el ser humano. Normalmente, los astrónomos dedicamos un poco de tiempo a la divulga-ción, digamos un 5 o 10%. Durante 2009 para muchos de nosotros este porcentaje creció hasta convertirse temporalmente en nuestra actividad más importante.

El público participó entusiastamente en los eventos, tan sólo en nuestro país, se estima que varios cientos de miles de personas par-ticiparon en alguna actividad relacionada con el Año Internacional de la Astronomía. Y sí, la gente del siglo XXI aún emite un suspiro de admiración al ver a través de un telescopio las lunas de Júpiter o las fases de Venus.

Este número de Saberes Compartidos toma cartas en el Año Internacional de la Astrono-mía, con una buena parte de su contenido dedicado a la ciencia de Urania. El artículo de Philippe Faure “Primera Noche de las Estrellas en México” nos recuerda cómo el pasado 31 de enero, con el auspicio de las instituciones francesas y mexicanas, con la colaboración de astrónomos profesionales y aficionados, y co-municadores de la ciencia se celebró en una veintena de sitios arqueológicos e históricos del país la “Noche de las Estrellas”. El evento fue todo un éxito, como se detalla amena-mente en el artículo. También se explica la vinculación de éste con el que se realiza en Francia desde hace unos 20 años y cómo se repetirá en nuestro país en abril de 2010, en el marco del bicentenario de la Independencia y el centenario de la Revolución Mexicana.

Los destacados investigadores del Instituto Nacional de Astrofísica, Óptica, y Electróni-ca (INAOE) Itziar Aretxaga y David H. Hughes nos presentan un artículo en el que de manera muy accesible nos describen uno de sus pro-yectos más importantes, que busca entender cómo se formaron en el pasado las galaxias y los cúmulos de galaxias. Estos investigadores, en colaboración con científicos de EUA y Ja-pón, han descubierto un remoto sistema de galaxias ya presente cuando nuestro Universo tenía sólo el 15% de su edad actual. El detector de ondas milimétricas con el que se realizó el descubrimiento se utilizará eventualmente en el Gran Telescopio Milimétrico, uno de los pro-yectos científicos más ambiciosos del país.

Page 5: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20095

Editorial

Cuatro investigadores del INAOE, José Ramón Valdés, Raúl Mújica, Miguel Chávez y Emanue-le Bertone nos actualizan sobre el estado de otro gran proyecto en el que México participa: El Gran Telescopio Canarias. Este telescopio, ubicado en La Palma en las Islas Canarias es el más grande del mundo y México contará con el 5% del tiempo para realizar diversos pro-yectos observacionales. Tanto el INAOE como la UNAM hicieron aportaciones técnicas y de instrumentación al Gran Telescopio Canarias para obtener este tiempo, que permitirá ob-servaciones de gran sensitividad.

Para completar su contenido astronómico, se nos presenta una entrevista con el Dr. Gui-llermo Tenorio Tagle, uno de los astrónomos mexicanos que más repercusión ha tenido a escala mundial, en el que nos habla de sus logros pasados y sus proyectos futuros. Final-mente, la reseña redactada por Omar López y Raúl Mújica es, faltaba más, de un libro de divulgación de astronomía cuya traducción al español forma también parte del Año Interna-cional de la Astronomía.

Para los lectores interesados en saber más de Galileo, hay varios libros de autores mexica-nos sobre el astrónomo italiano: “El hombre de la torre inclinada, Galileo Galilei” de Irene Cruz González, Abraham Nosnik, y Elsa Reci-llas (Editorial Andrés Bello, 1998), “Galileo y el telescopio, 400 años de ciencia”, de Héctor Do-mínguez y Julieta Fierro (Uribe y Ferrari Edito-res, 2007), “La Mirada De Galileo” de Susana Biro (Fondo De Cultura Económica, 2009) y “Galileo: su tiempo, su obra y su legado”, com-pilado por Luis F. Rodríguez y Silvia Torres Cas-tilleja (El Colegio Nacional, 2009).

En el carácter plural de Saberes Compartidos, este número contiene artículos de otros te-mas, que van de la enseñanza de la cien-cia a los humedales artificiales, pasando por el uso de las tecnologías de la infor-

mación y la comunicación en el laborato-rio de ciencias. Encontré muy educativo leer el artículo “Del maravilloso mundo de la literatura al apasionante mundo de las ciencias” de la Química Citlalli Netzahual-coyotzi Piedra, donde se argumenta que el mundo imaginativo y emocional de la literatura está mucho más cerca del sobrio y racional de la ciencia de lo que normal-mente se cree.

En fin, que le deseamos al lector una feliz travesía por este número que aún con un fuerte toque astronómico, no desatiende otras preocupaciones de la ciencia y las humanidades.

Luis F. Rodríguez Jorge Centro de Radioastronomía y Astrofísica, Campus Morelia, [email protected]

Luis Felipe Rodríguez JorgeFuente Boletín UNAM-DGCS-606

Page 6: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20096

Artículos de Divulgación

Gigantes invisibles entre una multitud

de enanas brillantes Itziar Aretxaga David H. Hughes

Introducción

¿Cómo se formaron las galaxias elípticas, las más grandes que conocemos en el zoo galác-tico? ¿Cómo llegaron a agruparse en enormes concentraciones de miles de galaxias, a las que conocemos como cúmulos de galaxias? ¿Cuán-do nacieron estas superestructuras y cómo se fueron enriqueciendo con nuevos miembros galácticos? Estas son algunas de las preguntas que los astrónomos nos hacemos con el fin de entender la evolución del Universo y nuestro lugar dentro del mismo.

Recientemente un equipo compuesto por in-vestigadores de Japón, Estados Unidos y Méxi-co, descubrimos una agrupación de galaxias masivas a una distancia de 11.5 mil millones de años luz, en lo que se piensa es una estructura filamentaria coherente que dará lugar a un cú-mulo rico de galaxias[1]. La luz que recibimos de esta estructura se emitió cuando el Universo tan sólo tenía el 15% de su edad actual.

Este hallazgo de galaxias gigantes poblando una de las superestructuras del Universo temprano,

arroja nuevos datos sobre la formación de los cúmulos de galaxias y el papel que juegan las galaxias elípticas en la evolución de los mismos.

Hallazgo

El hallazgo se realizó mediante observaciones a 1.1 mm con la cámara AzTEC (Aztronomical Thermal Emission Camera), un instrumento de primera generación destinado para el Gran Telescopio Milimétrico (GTM) de 50 m de diá-metro, ubicado en el Volcán Sierra Negra de Puebla. Desde 2007 el GTM se encuentra reali-zando ajustes de ingeniería, por lo que la cáma-ra se acopló temporalmente al Telescopio Na-cional Japonés ASTE (Atacama Submillimeter Telescope Experiment) de 10 m de diámetro, y se encuentra a 4860 m de altitud en Pampa la Bola, Chile. AzTEC estuvo instalado en ASTE entre 2007 y 2008, y en estos momentos se en-cuentra en los laboratorios de la Universidad de Massachussets, Estados Unidos, con la fina-lidad de incorporar algunas modificaciones en la óptica de entrada al receptor que permita acoplarlo al GTM el año próximo.

Page 7: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20097

Artículos de Divulgación

“Las galaxias milimétricas están fuertemente oscurecidas por polvo

cósmico, que absorbe muy eficientemente la luz visible y ultravioleta, y la remiten en longitudes de onda mucho más largas.”

Las observaciones de AzTEC muestran una agrupación de 30 galaxias brillantes en on-das milimétricas, con brillos aparentes de entre 8.7 y 2.8 mJy (mili Jansky), distribuidas en un área de 390 minutos de arco cuadra-dos, lo que corresponde a un poco más de media luna, en la dirección de la constelación de Acuario. Ya se sabía que en esta zona del cielo y a una distancia de 11.5 mil millones de años luz de la Tierra, se encontraban agrupa-

ciones de galaxias Lyman-alpha menos masi-vas pero brillantes en luz visible. Esta agrupa-ción de galaxias brillantes se llama SSA22. Las galaxias milimétricas, sin embargo, pasaron desapercibidas en los censos realizados en esta zona del cielo en luz visible, ya que estas galaxias están fuertemente oscurecidas por polvo cósmico (conglomerados sólidos de sili-catos, carbonatos y otros elementos pesados, que van desde unas pocas moléculas a tama-ños menores que el micrómetro), el cual es abundante en las zonas donde se forman nue-vas generaciones de estrellas. El polvo cósmi-co se encuentra mezclado con el gas intereste-lar, absorbe muy eficientemente la luz visible y ultravioleta proveniente de los astros en naci-

Figura 1: Región central del Cúmulo de Coma, observado en luz óptica (cortesía de O. López-Cruz del INAOE, e Ian K. Shelton de Mount Allison Univ., Canadá). Coma es un cúmulo de galaxias “rico” y “cercano”, localizado a 320 millones de años luz. Contiene más de mil galaxias gigantes en un diámetro de unos 3 millones de años luz. Las más prominentes son las galaxias elípticas, como NGC4874 y NGC4889, las galaxias color naranja al centro y cen-tro derecha de la imagen, que constan de más de un billón de estrellas cada una, y son unas decenas de veces más masivas que la Vía Láctea.

Page 8: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20098

Artículos de Divulgación

miento, y la reemiten en longitudes de onda mucho más largas. Es por esto que los grandes centros de formación de nuevas estrellas pa-san desapercibidos para los observadores que estudian el cielo a través de luz visible.

“El ritmo de producción de nuevas estrellas en las galaxias AzTEC es unas mil veces el

de la Vía Láctea”.

Las galaxias gigantes detectadas con AzTEC producen estrellas a un ritmo de más de qui-nientas masas solares por año (donde una masa solar es aproximadamente 2 x 1030 kg), es decir, unas mil veces la tasa de producción de la Vía Láctea en la actualidad. Aunque este tipo de galaxias en formación se habían de-tectado hace una década en otras zonas del cielo, por primera vez tenemos evidencia de que se encuentran en una agrupación cohe-rente en el universo temprano

“Descubrimos recientemente una agrupa-ción de galaxias masivas distantes. Estas galaxias gigantes parecen poblar una de las superestructuras del universo infante”.

Lo que sabemos y lo que nos queda por saber

Con las observaciones de AzTEC hemos em-pezado a conocer la naturaleza de estas ga-laxias que están en la misma zona del cielo que las galaxias Lyman-alpha. Sabemos que las separaciones angulares típicas entre ga-laxias AzTEC y Lyman-alpha son similares a las de las galaxias Lyman-alpha entre sí, y que los colores de las galaxias AzTEC parecen in-dicar distancias cósmicas comparables a las de las galaxias Lyman-alpha, de manera que la conclusión lógica es que deben ser parte de la misma estructura de cúmulo. Pero toda-vía no tenemos seguridad absoluta.

Para ello se debe medir con precisión la dis-tancia a estas galaxias. Esto es algo que espe-ramos sea posible con instrumentos sensibles al espectro milimétrico. El GTM contará con el “Receptor de búsquedas de corrimientos al rojo”. Los astrónomos medimos realmente el desplazamiento que sufren las ondas elec-tromagnéticas hacia el rojo producido por la expansión del Universo (un efecto similar al de un transeúnte que escucha en la carrete-ra la sirena de una ambulancia, y percibe que cuando se acerca la ambulancia el sonido es más agudo que cuando se aleja). Este despla-zamiento de la luz a longitudes de onda más largas (si fueran sonido, serían más graves) es el que permite estimar el crecimiento del Universo desde que las ondas electromagné-ticas se emitieron hasta que las recibimos, y a través de esta medida derivar la distancia al objeto emisor. El receptor de búsquedas de corrimientos al rojo se concentrará en de-tectar las líneas de emisión del monóxido de carbono (CO) en astros lejanos, y mediante ellas, calcular la distancia a los mismos. Si las galaxias milimétricas descubiertas con AzTEC en la dirección de Acuario se encuentran real-mente a una distancia de 11.5 miles de millo-nes de años luz, con un desplazamiento de la luz de 3.1 veces la longitud de onda con que fue emitida, entonces sin duda alguna for-man parte de la estructura SSA22.

Figura 2: Representación artística del descubrimien-to de un conjunto de galaxias masivas hacia el proto-cúmulo SSA22 realizado con la cámara AzTEC montada en el telescopio japonés ASTE a finales de 2007. En rojo se representan las galaxias masivas AzTEC. Los puntos blanquiazules representan las centenas de galaxias menos masivas que se conocían anteriormente en esta región a través de censos realizados en ondas visibles, las llamadas emisoras de Lyman-alpha.

Page 9: Netzahualcoyotzi 2009, Saberes Compartidos[1]

20099

Artículos de Divulgación

“Por primera vez tenemos evidencia de que se encuentran en una agrupación coheren-te en el universo temprano. Debemos medir

con precisión la distancia a estas galaxias con instrumentos tales como los del GTM”.

El receptor de búsquedas de corrimientos al rojo también permitirá medir el perfil de las líneas de emisión del CO y conocer la masa concentrada en las zonas centrales de las ga-laxias. Por similitud con los brillos encontra-dos en galaxias milimétricas estudiadas en otros entornos del universo temprano, se tie-ne la fuerte sospecha de que estos sistemas descubiertos con AzTEC tienen masas estela-res del orden de centenas de miles de millo-nes a varios billones de masas solares y, por tanto, podrían corresponderse con las etapas de formación de las galaxias elípticas.

Ahora es necesario saber qué tipo de estruc-tura morfológica tienen las galaxias, si han llegado a la esfericidad característica de las galaxias elípticas, o si por el contrario, son sistemas irregulares y todavía dinámicamen-te inestables en coalescencia (propiedad de unirse o fundirse). Para responder a estas preguntas se tienen que utilizar instrumen-tos con mayor poder de resolución que el GTM, como el interferómetro ALMA (Ataca-ma Large Millimeter Telescope), hoy en día en construcción en Los Llanos de Chajnantor del desierto de Atacama.

Cúmulos de galaxias y galaxias elípticas

¿Por qué es tan importante probar que las galaxias AzTEC forman parte de una estruc-tura coherente en el universo temprano? Los cúmulos de galaxias son las estructuras más grandes que conocemos en el Universo local. El cúmulo de Coma, ubicado a 320 millones de años luz de la Tierra, contiene más de mil galaxias, y en conjunto pesa alrededor de mil billones de masas solares.

Las elípticas forman la población dominan-te de galaxias en los cúmulos ricos, y son los sistemas galácticos más masivos que cono-cemos en el Universo local: normalmente contienen un billón de masas solares en es-trellas. Desde hace décadas se sabe que sus poblaciones estelares son muy viejas, que las galaxias no contienen grandes centros de formación estelar ni abundante gas inter-

Figura 3: A la derecha I. Aretxaga junto a la estudiante de doctorado Milagros Zeballos, en la base del telesco-pio, instalando los ductos que permiten hacer una re-carga de 4He presurizado a AzTEC, durante la campaña de observaciones de AzTEC en ASTE, en el 2008.

Figura 4: Cámara AzTEC montada en la cabina de recep-tores del telescopio japonés ASTE. El barril color crema es un criostato de dos tanques que contienen nitróge-no líquido y helio líquido (4He), y un refrigerador inter-no de tres etapas (4He,3He,3He), capaz de mantener los detectores de la cámara a 250 mK (-272.9 grados Celsius), temperatura necesaria para que sean sensi-bles a la radiación de fuentes astronómicas en ondas milimétricas. AzTEC fue diseñado e integrado en los la-boratorios de la Universidad de Massachusetts (EEUU) por G.W. Wilson y su equipo.

Page 10: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200910

Artículos de Divulgación

estelar, de lo que se infiere que se formaron hace mucho tiempo. La mayoría de las estre-llas que se encuentran en las galaxias elípti-cas tienen fechas de nacimiento que datan de hace más de 11 mil millones de años, lo que quiere decir que debieron formarse en un lapso de 2 mil millones de años (la vida del Universo se estima en 13.7 mil millones de años). Para poder formar un billón de estre-llas en un intervalo de 2 mil millones de años, la tasa de formación de estrellas debe ser de al menos unas 500 masas solares por año, si es que se forman a un ritmo constante. Este ritmo que se deriva de la masa y edad de las galaxias elípticas es similar a la tasa de naci-miento de estrellas medido en las galaxias AzTEC encontradas hacia SSA22.

“El cúmulo de Coma, ubicado a 320 millones de años luz de la Tierra, contiene

más de mil galaxias”.

Conclusión

El descubrimiento de galaxias muy masivas en la misma localización que las galaxias Lyman-alpha enanas, con masas estelares de menos de mil millones de masas solares, pone en evidencia que la “espina dorsal” de un cúmulo en nacimiento, formada por los sistemas galácticos más masivos, puede estar en funcionamiento en épocas muy tempra-nas. Esta estructura podría dar lugar a un cú-mulo rico de galaxias. SSA22 no es todavía un cúmulo de galaxias, ya que no parece tener una dinámica en equilibrio y su morfología es filamentaria, pero con estas nuevas galaxias gigantes, se cuenta con un elemento adicio-nal para llegar a considerarlo un proto-cúmu-lo rico: las proto-galaxias elípticas observadas en esta estructura nos hacen llegar a la hipó-tesis (todavía no probada) que SSA22 podría ser parecido a lo que habría sido Coma hace 11.5 mil millones de años.

“Las observaciones AzTEC ponen en evi-dencia la “espina dorsal” de un cúmulo de

galaxias en nacimiento”.

Glosario:Cúmulo de galaxias: gran agrupación de ga-laxias ligadas gravitacionalmente.

Efecto Doppler: cambio de la frecuencia ob-servada de una onda cuando la fuente emiso-ra está en movimiento respecto al observador.

Galaxia: agrupación autogravitante multitu-dinaria de estrellas, gas interestelar, polvo y, al parecer, materia oscura.

Galaxia milimétrica: galaxia descubierta en ondas milimétricas. Usualmente son galaxias muy lejanas con grandes tasas de formación estelar oscurecida por la presencia de polvo en sus medios interestelares.Figura 5: Telescopio nacional Japonés ASTE (Atacama

Submillimeter Telescope Experiment) de 10 m de diá-metro, localizado a 4860 m en Pampa La Bola, desierto de Atacama, Chile, donde se emplazó la cámara AzTEC en los años 2007 y 2008.

Page 11: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200911

Artículos de Divulgación

Galaxia emisora Lyman-alpha: galaxia le-jana descubierta en ondas visibles que pre-senta líneas de emisión intensas de hidróge-no atómico (Lyman-alpha, la más intensa, se emite en el ultravioleta). En el contexto de este artículo se refiere a galaxias lejanas que forman estrellas y cuyos entornos no están fuertemente oscurecidos por polvo.

Jansky (Jy): unidad de densidad de flujo (energía por unidad de área, por unidad de tiempo, por unidad de frecuencia) utilizada frecuentemente en astronomía. En el sistema internacional 1 Jy = 10-26 W m-2 Hz-1.

Lyman-alpha: transición del hidrógeno ató-mico donde el electrón pasa del nivel orbital n=2 al n=1, y n es el número cuántico principal.

Masa solar: masa del Sol, equivalente a 1.98892 × 1030 kilogramo.

Polvo cósmico: agregados sólidos de molé-culas y metales que llegan hasta tamaños por debajo del micrómetro.

Referencias:

[1] Carrasco E., Aretxaga I. e Irvine W.M. Eds. (2006) “El Gran Telescopio Milimétrico: dos países vecinos exploran juntos el cosmos”, Instituto Nacional de Astrofísica, Óptica y Electrónica, México (http://www.lmtgtm.org/gtm/book/lmtbook.html).

[2] Castro Tirado A.J. (1989) “Macroestructu-ras del Universo: cúmulos y supercúmulos de galaxias”, Equipo Sirius S.A., España.

[3] Hughes D.H. y Aretxaga I. (2009) “El Gran Telescopio Milimétrico”, Ciencia, Academia Mexicana de Ciencias, 60 (1), 67.

[4] Matos T. (2004) “¿De qué está hecho el Universo? Materia oscura y energía oscura”, Fondo de Cultura Económica, México.

[5] Rodríguez L.F. (2005) “Un Universo en expan-sión”, Fondo de Cultura Económica, México.

[6] Tamura Y. et al. (2009) “Spatial correlation between submillimetre and Lyman-α galaxies in the SSA22 protocluster”, Nature, 489, 61.

[7] Tenorio Tagle G. y Muñoz Tuñón C. (2004) “La luz con el tiempo dentro”, Fondo de Cultu-ra Económica, México.

Itziar Aretxaga, investigadora titular del Insti-tuto Nacional de Astrofísica, Óptica y Electrónica (INAOE), y miembro del Sistema Nacional de In-vestigadores (SNI) y de la Academia Mexicana de Ciencias (AMC). Desde 2006 coordina la Sección de Astronomía de la AMC. Obtuvo su doctorado en Fí-sica por la Univ. Autónoma de Madrid (España). Su campo de investigación es la formación y evolución de galaxias y la simbiosis entre la formación estelar y la actividad nuclear de galaxias.

[email protected]

David H. Hughes, investigador titular del INAOE, miembro del SNI y de la AMC. Desde 2005 ejerce como director científico del GTM. Obtuvo su docto-rado en Astrofísica por la Univ. Central de Lancashi-re (Gran Bretaña). Su campo de investigación es la astronomía e instrumentación milimétrica, con un fuerte interés por la formación y evolución de las grandes estructuras del Universo: cúmulos de ga-laxias y galaxias en formación.

Page 12: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200912

Artículos de Divulgación

El Gran Telescopio CANARIAS y la

participación de MéxicoEl telescopio óptico más grande del mundo

José Ramón Valdés ParraRaúl Mújica GarcíaMiguel Chávez Dagostino Emanuele Bertone

El Gran Telescopio CANARIAS (GTC) es el telescopio óptico más grande del mundo, su espejo principal, o primario, es segmentado y tiene una superficie equivalente a un espejo circular de 10.4 m de diámetro. Está ubicado a 2 mil 400 m de altitud, en uno de los mejores lugares del hemisferio norte para hacer obser-vaciones astronómicas profesionales: el Ob-servatorio del Roque de los Muchachos (ORM), en La Palma, Islas Canarias, España. Este pro-yecto internacional es liderado por el Instituto de Astrofísica de Canarias (IAC); con la partici-pación de México a través del Instituto de As-tronomía de la Universidad Nacional Autóno-ma de México (IA-UNAM); el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), el Consejo Nacional de Ciencia y Tecnología (CONACYT); y los Estados Unidos de Nortea-mérica, a través de la Universidad de Florida.

“El GTC es el telescopio óptico más gran-de del mundo...”

Desde 1989, cuando se presentó a un Comi-té Científico Internacional la idea de construir un telescopio de 8 m de diámetro con un es-pejo monolítico (que fue modificada en 1995 por la de un telescopio segmentado de 10 m de diámetro), hasta la inauguración oficial el 24 de julio del 2009, el proyecto superó todos los obstáculos que encontró en el camino para que el GTC se convirtiera, en la actualidad, en el telescopio óptico más grande del mundo.

Figura 1. Imagen de la cúpula del GTC sobre el atarde-cer del Observatorio Roque de los Muchachos (Autor Pablo Bonet, IAC).

Page 13: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200913

Artículos de Divulgación

“…ubicado en uno de los mejores lugares del hemisferio norte para hacer

observaciones astronómicas profesionales.”

El sistema óptico y las características principales del GTC

En un telescopio óptico-infrarrojo, el espejo primario (M1) es el encargado de recoger la luz que llega de los objetos celestes, mien-tras que, el espejo secundario (M2) recoge la luz que llega del espejo primario y la reenvía hacia un foco que se encuentra por detrás del espejo primario (el foco Cassegrain) o hacia un espejo terciario (M3), para que llegue a los focos laterales del telescopio (los focos Nas-myth). Como vemos, los telescopios moder-nos pueden formar la imagen (hacen foco) en diferentes secciones del sistema óptico ya que se trabaja con instrumentos de observación con características muy diferentes entre sí.

“…El tamaño del espejo primario es muy importante…para la nitidez o calidad de la imagen y poder observar objetos muy

débiles”

El tamaño del espejo primario es muy im-portante. La nitidez o calidad de la imagen, es decir la capacidad que tiene un telescopio de separar objetos muy cercanos en el cielo,

aumenta con el diámetro del espejo primario, mientras que el poder colector de fotones (po-sibilidad de observar objetos muy débiles) es proporcional a su superficie (el cuadrado del radio). El espejo primario del GTC está forma-do por 36 espejos vitro-cerámicos hexagona-les de 1.90 m entre vértices, 8 cm de grosor y 470 kg de peso cada uno. Los 36 segmentos funcionan como una sola superficie casi hexa-gonal de 11.3 m de extremo a extremo, con una separación máxima entre segmentos ad-yacentes de 3 mm. Solamente el espejo prima-rio tiene un peso aproximado de 16 toneladas. La forma de los 36 hexágonos difiere un poco entre si, ya que juntos forman una figura se-mejante a un hiperboloide, es decir un cuenco muy abierto.

“El espejo primario del GTC está formado por 36 espejos vitro-cerámicos hexagonales

de 1.90 m…”

El sistema óptico del telescopio se comple-menta con un espejo secundario, casi hexa-gonal, de 1.2 m de diámetro y 38 kg de peso y un espejo terciario plano que desvía la luz, procedente de los objetos celestes, hacia los diferentes focos laterales del telescopio, donde están ubicados los instrumentos cien-tíficos del GTC.

“El sistema óptico del telescopio se com-plementa con un espejo secundario…y un espejo terciario plano que desvía la luz…”

Para garantizar la calidad de las observacio-nes astronómicas se requiere que telescopios grandes, como el GTC, trabajen al límite de sus capacidades. Por tal motivo, el GTC está equipado con un sistema de óptica activa en los espejos M1 y M2, el cual, mediante 168 sensores de borde (que garantizan la continui-dad entre los segmentos) y 108 actuadores, proporcionará la forma ideal de las superficies ópticas. Esto es importante para contrarrestar los efectos negativos de la climatología (vien-tos y cambios de temperatura), las tensiones mecánicas y posibles defectos de fabricación sobre la calidad de la imagen que produzca el

Figura 2. Sistema óptico del GTC. M1: espejo primario, M2: espejo secundario, M3: espejo terciario, PF: foco primario, CF: foco Cassegrain, NF: foco Nasmyth, FCF: foco Cassegrain doblado.

Page 14: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200914

Artículos de Divulgación

telescopio. Por ejemplo, los sensores de bor-de entre los diferentes segmentos del espejo M1 tienen una precisión de un nanómetro (la millonésima parte de un milímetro). Los actua-dores serán los responsables de mover física-mente cada uno de los 36 segmentos.

“…el GTC está equipado con un sistema de óptica activa en los espejos M1 y M2, los cuales proporcionarán la forma ideal de las

superficies ópticas”.

En un futuro el GTC contará, además, con un sistema de óptica adaptativa, cuya función principal será la de corregir los defectos, intro-ducidos por la atmósfera terrestre, en el frente de onda de la luz que llega de los objetos ce-lestes sin necesidad de modificar la forma de las superficies ópticas. Estas correcciones se podrán realizar, durante una observación as-tronómica, con una frecuencia mucho mayor que las correcciones de la óptica activa.

La estructura mecánica del GTC, fabricada en acero al carbono, se divide en tres grandes bloques: el tubo, la montura y el anillo de azi-mut. El tubo tiene la función de sostener los espejos y los diferentes focos del telescopio.

Todo el conjunto del tubo del GTC descansa sobre la montura, un sistema que, junto con los motores de movimiento, proporciona al te-lescopio dos ejes de rotación perpendiculares.

Como todos los grandes telescopios, el GTC posee una montura alta-azimutal (azimut en el eje horizontal y altura en el eje vertical). Las plataformas Nasmyth (donde descan-sarán los instrumentos científicos) y la hor-quilla son dos elementos importantes de la montura del telescopio.

El anillo de azimut está formado por una viga anular de acero, de unos 16 m de diámetro, que sirve de pista de rodamiento al movimien-to de azimut. Sobre el anillo se deposita todo el peso del telescopio a través de unos cojine-tes hidrostáticos que suavizarán el movimien-to y evitarán los rozamientos.

Finalmente, la cúpula tiene forma esférica, con un diámetro de 34 m y una altura máxi-ma de casi 26 m, equivalente a un edificio de 8 pisos. El conjunto, que tiene un peso de unas 500 toneladas, se apoya sobre un riel en su base, de manera que es posible rotar toda la estructura alrededor de su eje de simetría vertical. Con el objetivo de permitir la obser-vación, la cúpula del GTC incorpora una aber-tura de 13 m de ancho con 2 compuertas de observación deslizantes.

“…La cúpula tiene forma esférica, con un diámetro de 34 m y una altura máxima

de casi 26 m, equivalente a un edificio de 8 pisos.”

En el GTC se han conjuntado varios factores: una óptica de excelente calidad, un sistema preciso de óptica activa, una estructura me-cánica robusta y una cúpula diseñada para minimizar la turbulencia atmosférica interna y externa, para que la calidad de la imagen que produce este telescopio sea superior a la de todos los telescopios de su tipo que le han precedido. Para tener una idea de la gran capacidad de observación del GTC, podemos decir que el poder de visión del telescopio equivale a 4 millones de pupilas humanas, con él se podrían distinguir los dos faros en-cendidos de un coche situado a unos 20.000 kilómetros de distancia, más de una vez y media el diámetro de la Tierra.

Figura 3. Diseño de la estructura mecánica del GTC. En gris claro se observa el tubo del telescopio, en rojo la montura y en gris oscuro el anillo de azimut.

Page 15: Netzahualcoyotzi 2009, Saberes Compartidos[1]

2009

“…podemos decir que el poder de visión del telescopio equivale a 4 millones de pupilas

humanas…”

¿Qué esperamos descubrir con el GTC?

Un telescopio como el GTC, donde se apro-vecharon los últimos adelantos tecnológicos en la construcción de espejos segmentados, en el diseño de sistemas de control, mecánica de alta precisión y materiales de construcción, está diseñado y construido para dar respuesta a preguntas fundamentales de la Astrofísica moderna, entre las cuales podemos mencio-nar los sistemas planetarios extra-solares, el nacimiento de estrellas y galaxias lejanas, la naturaleza y evolución de los agujeros negros, la composición química del Universo tempra-no y la naturaleza de la materia oscura, por mencionar sólo los más importantes.

“…está diseñado y construido para dar res-puesta a preguntas fundamentales de

la Astrofísica moderna…”

En los años 90 del siglo pasado se descubrieron los primeros planetas fuera del Sistema Solar. Los más de 370 planetas extra-solares, conoci-dos en la actualidad, son similares a Júpiter en masa y tamaño. El próximo reto, en el cual la contribución del GTC será fundamental, es des-cubrir planetas extra-solares de tipo terrestre.

15Artículos de Divulgación

Figura 4. Fotografía de la cúpula y el edificio del GTC (Foto EFE).

“…Los más de 370 planetas extra-solares, conocidos en la actualidad, son similares a

Júpiter en masa y tamaño…”

La gran superficie colectora de luz del GTC y su excelente calidad de imagen en los inter-valos óptico e infrarrojo del espectro elec-tromagnético, será una ventaja importante para el estudio de nubes moleculares frías y densas que no se observan fácilmente desde la Tierra. Estas nubes moleculares son fantás-ticos laboratorios donde, tanto en la actua-lidad como en el pasado reciente, tienen lu-gar vigorosos procesos de formación estelar.

“Estas nubes moleculares son fantásticos laboratorios donde… tienen lugar vigoro-

sos procesos de formación estelar”.

Los agujeros negros y otros objetos estelares compactos están bien localizados en la actua-lidad, gracias a las observaciones de telesco-pios espaciales de rayos X y rayos (gamma). Recordemos que estos objetos se detectan por la emisión que se genera en los discos de acreción (estructura en forma de disco alre-dedor de un objeto central masivo) del ma-

Figura 5. Primera imagen directa, en falso color, de un planeta extra-solar, tomada en el infrarrojo por el Very Large Telescope (VLT). El cuerpo central es la enana marrón 2M1207, con su compañero de masa planetaria 2M1207b (Cortesía ESO).

Page 16: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200916

Artículos de Divulgación

terial que cae, en espiral, hacia el agujero ne-gro, debido a la extraordinaria deformación del campo gravitacional alrededor de objetos compactos. Sin embargo, un asunto todavía no resuelto, es la confiable determinación de la masa de los agujeros negros, para lo cual ne-cesitamos telescopios grandes como el GTC.

“…un asunto todavía no resuelto, es la confiable determinación de la masa de los

agujeros negros…”

En las ramas de la Astronomía extragaláctica; es decir en el estudio de sistemas físicos si-milares a nuestra galaxia en el Universo, son muchas las contribuciones que puede ha-cer el GTC. Por ejemplo, en el caso particular de las llamadas galaxias activas, una fracción significativa de la radiación electromagnéti-ca emitida no proviene de las componentes “normales” de una galaxia (estrellas, polvo y gas interestelar), por lo que resulta muy im-portante identificar las causas de esta emisión adicional e incluso estudiar la posible contri-bución de las propias poblaciones estelares a este fenómeno. Son igualmente enigmáti-cas las galaxias ultraluminosas, que emiten la mayor parte de su energía en el espectro infrarrojo, las cuales constituyen sistemas con una colosal tasa de formación de nuevas

estrellas. Además, es importante estudiar las poblaciones estelares de nuestra vecindad ga-láctica, ya que sólo se conocen, a ciencia cier-ta, las propiedades de los sistemas estelares de las galaxias más próximas a la Vía Láctea. También se desconocen las abundancias quí-micas de las galaxias de nuestro Grupo Local.

“…en el estudio de sistemas físicos similares a nuestra galaxia en el Universo, son muchas

las contribuciones que puede hacer el GTC”.

El Universo temprano; es decir las galaxias que están a distancias muy grandes y los pro-cesos que ocurrieron en las primeras etapas de la formación del Universo, también serán objetos de estudio del GTC. Son necesarias observaciones de muy alta resolución para estudiar las propiedades de galaxias muy leja-nas y cuásares (las galaxias activas más lumi-nosas que podemos observar en el Universo).

Nuevamente la gran capacidad colectora del GTC jugará un papel muy importante en las observaciones de regiones de hidrógeno io-nizado (átomos de hidrógeno a los cuales se les ha arrancado el electrón que rodea al nú-cleo) en galaxias enanas de baja luminosidad y de estrellas del halo de nuestra galaxia. El halo es una estructura esferoidal que rodea a la galaxia y que está formado por estrellas muy viejas y materia oscura. Estas observaciones fundamentales pueden arrojar nuevos cono-cimientos de importancia sobre la composi-ción química del Universo en sus etapas más tempranas, posteriores a la Gran Explosión.

“El halo es una estructura esferoidal que rodea a la galaxia y que está formado por

estrellas muy viejas y materia oscura”.

Figura 6. Imagen de la Galaxia Activa NGC 7742 to-mada por el Telescopio Espacial Hubble.

Page 17: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200917

Artículos de Divulgación

Los ojos del GTC

Tan importante como el propio telescopio es el diseño y construcción de instrumentos de observación de alta tecnología que aprove-chen las fantásticas prestaciones que brinda un telescopio como el GTC. En otras palabras, un telescopio sin instrumentos científicos no tendría sentido, ya que con ellos se almacena toda la luz que capta el telescopio para, poste-riormente, estudiarla y analizarla.

“…Tan importante como el propio telesco-pio es el diseño y construcción de instrumen-

tos de observación de alta tecnología…”

Son tres los instrumentos científicos de prime-ra generación del GTC:

a) OSIRIS (Optical System for Imaging and low Resolution Integrated Spectroscopy), un espectrógrafo de baja resolución con un siste-ma de imagen.

b) EMIR (Espectrógrafo Multiobjeto Infrarro-jo), un espectrógrafo multiobjeto de gran campo que trabajará en el infrarrojo cercano, muy importante en el estudio de los procesos de formación estelar.

c) FRIDA (inFRared Imager and Dissector for

Adaptive optics), una cámara espectrógrafo para el infrarrojo cercano con unidad de cam-po integral que aprovechará el haz corregido por el sistema de óptica adaptativa.

Paralelamente se trabaja en CanariCam, una cámara y espectrógrafo (con posibilidades de coronografía y polarimetría) en el infrarrojo medio, entre 7.5 y 25 micras, como instrumen-to de segunda generación.

Participación de México en el GTC

El 31 de julio del 2001, el INAOE y el IA-UNAM firmaron con la empresa pública “Gran Telescopio de CANARIAS, S.A.” (GRANTECAN, encargada de la construcción del telescopio) un acuerdo referente a la operación del GTC. En esa oportunidad, México se comprometió a realizar aportaciones monetarias equivalentes al 5% del costo final del GTC. El convenio tam-bién estableció las líneas centrales para la uti-lización futura del telescopio, así como la par-ticipación mexicana en su puesta en marcha y operación. El convenio también establece el intercambio de tiempo de observación entre el GTC y el Gran Telescopio Milimétrico (GTM), que el INAOE y la Universidad de Massachu-setts construyeron en la cima del Volcán Sie-rra Negra en Puebla, y que también es el más grande del mundo en su tipo.

De esta forma, México se convirtió en socio de uno de los instrumentos astronómicos más grandes y tecnológicamente más avanzados del mundo, abriéndose así la puerta para que astrónomos de las instituciones mexicanas tengan acceso a tiempo de observación reser-vado para proyectos de colaboración en los telescopios de los observatorios del IAC.

“…el Taller de Óptica del INAOE participó en la fabricación de diversos componentes

de ELMER…”

Figura 7. Imagen de la galaxia M101 tomada con OSIRIS.

Page 18: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200918

Artículos de Divulgación

El INAOE, que cuenta con un grupo de técni-cos altamente especializados en la fabricación, pulido de lentes y componentes ópticos tan-to para instrumentación astronómica como para otros fines, buscó que su participación en este proyecto fuera más allá de la contri-bución monetaria y que incluyera el desarro-llo de tecnología e instrumentación. Desde que surgió esta asociación científica entre México y España, se trató de aprovechar al máximo la extraordinaria tradición óptica de nuestro país. Así, el Taller de Óptica del INAOE participó en la fabricación de diversos com-ponentes de ELMER, un instrumento multi-propósito, sugerido por el Comité Científico Asesor del GTC para tener un instrumento más sencillo durante las primeras observa-ciones y que ofrece muchas posibilidades al astrónomo en el GTC, dada su extraordinaria calidad de imagen y transmisión. ELMER es capaz de hacer imágenes directas, fotometría rápida, y diversos modos de espectroscopia. Entre los años 2002 y 2003, el Taller de Óptica del INAOE fabricó, para este instrumento, una lente de campo; pulió dos espejos de dobla-do; desarrolló las ventanas para los prismas y los grismas, y fabricó cinco prismas. Este trabajo fue realizado según las especificacio-nes recibidas y cumplió con todos los reque-rimientos establecidos por los especialistas españoles involucrados en el proyecto.

“ELMER es capaz de hacer imágenes direc-tas, fotometría rápida, y diversos modos de

espectroscopia”.

El Instituto de Astronomía de la UNAM, por su parte, diseñó y construyó la cámara de ve-rificación que se usa para revisar que todo el sistema óptico del telescopio esté perfecta-mente alineado.

En el diseño y desarrollo de OSIRIS, primer ins-trumento científico puesto a disposición de la comunidad astronómica internacional, parti-cipó un equipo mexicano formado por cientí-ficos del IA-UNAM y del INAOE.

Estamos seguros que la colaboración estable-cida entre las instituciones mexicanas y el GTC fomentará el desarrollo de nuevas generacio-nes de astrónomos mexicanos, entrenados en el uso de dos importantes facilidades obser-vacionales como son el GTC y el GTM.

Los primeros fotones mexicanos del GTC llegan al INAOE

En abril del 2009 se realizaron las primeras observaciones del GTC con propósito cien-tífico utilizando OSIRIS. Uno de los primeros proyectos, para los cuales se concedió tiempo de observación, fue el concerniente al estudio

Figura 8. A la izquierda: imagen directa de la galaxia 3C 371. A la derecha: espectro preliminar, aún no ca-librado en su totalidad, de la misma galaxia, donde se muestran algunas de las características espectrales identificadas. Ambas imágenes provienen de las observaciones realizadas con OSIRIS en el GTC.

Page 19: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200919

Artículos de Divulgación

de poblaciones estelares en galaxias huéspe-des de núcleos activos. El equipo de trabajo, constituido por investigadores del INAOE y del Observatorio Astronómico de Pádova (Italia), ha recibido con gran entusiasmo los valiosos datos que ha colectado el instrumento OSIRIS.

El proyecto pretende utilizar las capacidades espectroscópicas de OSIRIS para obtener la dis-tribución de energía (espectro), en el intervalo visible del espectro electromagnético, de dos galaxias activas del tipo BL Lacertae: Mrk180 y 3C 371, observadas durante aproximadamente hora y media cada una. Si bien estas galaxias han sido objeto de numerosos estudios en los últimos 30 años, las capacidades de OSIRIS en el GTC y las bondades climáticas del ORM han permitido obtener imágenes espectroscópicas de calidad sin precedentes que darán la opor-tunidad de hacer un estudio detallado de las poblaciones estelares en diferentes regiones de estos sistemas, así como establecer si se han producido brotes de formación de nuevas ge-neraciones de estrellas en el pasado reciente.

Referencias:

Cuasares: en los confines del Universo, Dultzin D, Colección la Ciencia para Todos, FCE, 2008.

http://www.iac.es/divulgacion.php

http://www.lajornadadeoriente.com.mx/20 09/07/01/puebla/cul216.php

José Ramón Valdés Parra, estudió la Licenciatura en Física y Matemáticas en el Instituto Superior Pedagó-gico de Lipietks, Rusia, realizó la Maestría y Doctora-do en Ciencias con la especialidad de Astrofísica en el INAOE, su línea de investigación es: Conexión AGN - Starburts: Síntesis de Poblaciones estelares en galaxias tempranas en diferentes ambientes.

[email protected]

Raúl Mújica García, realizó su Doctorado y Maes-tría en Ciencias con la especialidad en Astrofísica en el INAOE, su investigación se basa principalmente en Núcleos Activos de Galaxias y Surveys. Su proyecto más reciente es el desarrollo del Tráiler de la Ciencia. Proyecto FOMIX, CONACYT-CONCYTEP.

Miguel Chávez Dagostino, estudió su Doctorado y Maestría en “The International School for Advanced Studies”, Trieste, Italia, realizando una investigación llamada “Absorption Line Spectral Indices in Stars and Stellar Systems”(Doctorado) y otra titulada “The Far Ultraviolet Energy Distribution of OB stars and the UVS-TAR Mission” (Maestría). Sus líneas de investigación versan sobre las Atmósferas y Poblaciones Estelares.

Emanuele Bertone, Investigador Asociado C del INAOE, realizó sus estudios de Doctorado en Milán, Italia y su Maestría en Turín en el mismo país; sus in-vestigaciones son acerca de Atmósferas Estelares y Po-blaciones Estelares.

Page 20: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200920

Artículos de Divulgación

En este Año Internacional de la Astronomía se realizó la primera Noche de las Estrellas en México, con el tema “El Cielo de Nuestros Antepasados”, actividad que se llevó a cabo el 31

de enero de 2009 en 26 sitios de la República, la mayoría zonas arqueológicas y reunió a más de 200 mil personas. En Puebla, la sede fue la Zona Arqueológica de Cholula.

Primera Noche de las Estrellas en México

Philippe Faure

Figura 1.- Imagen gráfica de la Primera Noche de las Estrellas en México: “El Cielo de Nuestro Antepasados”.

Page 21: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200921

Artículos de Divulgación

La Nuit des étoiles

La Nuit des étoiles (La Noche de las estrellas) es una actividad que se realiza en Francia desde hace veinte años. Consiste en organizar, en una noche de agosto, en varios sitios del país, un evento de divulgación científica relacionado con la Astronomía. Cabe mencionar que esta época es muy favorable en Francia, puesto que corresponde a un periodo en el cual el clima es bueno, la gente está disponible (es un pe-riodo vacacional) y el cielo nocturno especta-cular (es época de “lluvia de estrellas”). Miles de astrónomos aficionados y/o profesionales comparten su pasión con el público, a través de observaciones del cielo a simple vista y con telescopios, talleres, conferencias, etc. Es importante precisar que todas las actividades son gratuitas y que cada año se promueve un tema específico. En su inicio, contó con el apo-yo de uno de los principales canales de televi-sión francés, lo que le ayudó a popularizarse y desarrollarse rápidamente, al punto que se volvió un acto tradicional que reúne a miles de personas en todo Francia y dura cuatro días, llamándose entonces Les Nuits des étoiles (Las noches de las estrellas).

“Miles de astrónomos aficionados y/o profe-sionales comparten su pasión con el público,

a través de observaciones del cielo…”

Un proyecto Franco-Mexicano

La Embajada de Francia en México quería promover un gran evento de divulgación de la ciencia que reuniera grandes institucio-nes científicas francesas y mexicanas; surgió entonces, a finales del 2007, la propuesta de realizar algo similar a La Nuit des étoiles en México y transmitir la experiencia de Francia en la materia.

La Nuit des étoiles en México… recibió un eco muy favorable de las instituciones

contactadas…”

La propuesta recibió un eco muy favorable de las instituciones contactadas y luego de una misión en Francia se decidió crear un Comité Nacional de organización de la Noche de las Estrellas, integrado por el Instituto de Astro-nomía de la UNAM (IA-UNAM), el Instituto Po-litécnico Nacional (IPN), el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), el grupo Perseo (en representación de las socie-dades de astrónomos aficionados de México), la Embajada de Francia y la Federación de las Alianzas Francesas de México. Asociadas a este Comité Nacional; colaboraron dos institucio-nes en Francia que participan como organiza-dores del evento galo: La Cité de l’Espace (La Ciudad del Espacio) y La Ferme des étoiles (La Granja de las Estrellas), aportando su valiosa experiencia en la realización de un evento de este tipo, no obstante las diferencias existentes entre las realidades de los dos países.

Figura 1.- Imagen gráfica de la Primera Noche de las Estrellas en México: “El Cielo de Nuestro Antepasados”.

Figura 3.- En la Noche de las Estrellas, se realizaron programas científico- culturales: conferencias, música, danza, teatro, talleres, entre otras. Foto: Departamento de Logística-INAOE.

Page 22: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200922

Artículos de Divulgación

El cielo de nuestros antepasados

Acorde a uno de los principios del evento fran-cés, se escogió un tema para esta primera edi-ción de la Noche de las Estrellas. Tomando en cuenta el rico pasado que tiene México en re-lación a la observación del cielo, rápidamente se pensó relacionar el tema científico de la As-tronomía con la historia prehispánica del país. Fue entonces que se invitó al Instituto Nacional de Antropología e Historia (INAH) a sumarse al Comité Nacional de organización y luego se definió el tema de la primera edición: “El cielo de nuestros antepasados”.

“...el tema de la primera edición: El cielo de nuestros antepasados”.

Esta integración fue determinante, ya que per-mitió dar un escenario de lujo al evento: los sitios arqueológicos prehispánicos a cargo del INAH. En lo que se refiere a la elección de la fecha, en principio se pensó realizar en el mes de noviem-bre del 2008, finalmente se optó por el 31 de enero del 2009 por dos motivos: 2009 había sido decretado “Año Internacional de la Astronomía” por la UNESCO y correspondía también a los 70 años de creación del INAH.

“…se integró un Comité Local Puebla con más de 12 instituciones…la sede: Zona

Arqueológica de Cholula”.

El comité local Puebla

Al igual que en otros 24 estados, en Puebla se creó un Comité Local de organización, inte-grado por las siguientes instituciones: Alian-za Francesa de Puebla, Ayuntamiento de San Andrés Cholula, BUAP, CONCYTEP, INAOE, Ins-tituto Municipal de Arte y Cultura de Puebla, IUPAC, Museo Imagina, Planetario de Puebla, Secretaría de Cultura del Estado de Puebla, Universidad de las Américas, Puebla y Zona Arqueológica de Cholula. Los representantes de todas estas instituciones, coordinados por la Alianza Francesa, se reunieron en múltiples ocasiones en los meses y semanas que prece-

dieron al 31 de enero, para resolver todas las cuestiones de promoción de la ciencia y logís-tica involucradas en este tipo de eventos. In-cluso varios de ellos participaron en el ensayo general que organizó el Comité Nacional en el sitio arqueológico de Xochicalco en Morelos, a finales de noviembre del 2008.

Se eligió la zona arqueológica de Cholula y algunas instalaciones próximas a esta zona. Hay que destacar aquí el papel fundamental que tuvo nuestro anfitrión, el Ayuntamiento de San Andrés, Cholula, ya que nos propor-cionó un gran apoyo económico, humano y logístico.

El 31 de enero de 2009 en San Andrés Cholu-la, luego de múltiples esfuerzos y de la labor intensa de mucha gente unida con un mismo objetivo, llegó por fin el gran momento. Desde muy temprano, todos los integrantes del staff de organización trabajaron para instalar todos los elementos logísticos: señalética, templete con luz y sonido, carpas, baños, telescopios, etc. Por la tarde la gente empezó a llegar y des-de temprano se hicieron largas filas para ad-quirir los pases gratuitos para poder ingresar a la zona arqueológica donde se realizaba el recorrido artístico-astronómico que culminaba con la observación astronómica.

Figura 4.- En “La Noche de las Estrellas” se desta-có la Astronomía mesoamericana. La imagen com-puesta corresponde al sitio arqueológico de Xochi-calco, Morelos. Foto: Comité Nacional.

Page 23: Netzahualcoyotzi 2009, Saberes Compartidos[1]

2009

A las 19:00 horas, inició oficialmente el even-to con una afluencia continua; se calcula que más de 10 mil personas acudieron al sitio a lo largo de la noche; disfrutando de talleres, es-pectáculos de música, danza folklórica y tea-tro… y por supuesto de la observación astro-nómica a simple vista, con astrónomos que enseñaban a leer el cielo con la ayuda de un mapa celeste; y luego con telescopios. Todo en un ambiente mágico proporcionado por actores con un vestuario alusivo a los astros y contando las historias del cielo. Fue un mo-mento de gran poesía y muchos se quedaron maravillados… Cerca de la medianoche, se fi-nalizó con una “lluvia de estrellas” de juegos pirotécnicos que ofreció el Ayuntamiento de San Andrés, Cholula.

“… más de 10 mil personas acudieron al sitio a lo largo de la noche...”

23Artículos de Divulgación

Figura 5.- Cientos de personas se dieron cita desde temprano en San Andrés, Cholula. Foto: Departamento de Logística INAOE.

Al día siguiente se organizó en el zócalo de la ciudad de Puebla una actiividad similar, “La Fiesta Continúa”, con una afluencia estimada de más de 2 mil 500 personas.

El balance

Esta primera edición de la Noche de las estre-llas en México puede ser considerada como un éxito: se realizó en 26 sedes repartidas en todo el país, desde Baja California hasta Yuca-tán; la mayoría en sitios arqueológicos. Se es-tima que acudieron más de 200 mil personas, en esta que es probablemente la manifesta-ción de divulgación científica que haya reuni-do más personas en toda la historia. Gente de todas las edades, de todos los niveles socio-culturales o socioeconómicos que compartió el gusto atávico de levantar la vista al cielo, de admirar la belleza del universo y de saber más de sus misterios.

Page 24: Netzahualcoyotzi 2009, Saberes Compartidos[1]

2009

la República Mexicana; esta noche miles de personas observaron al mismo tiempo con su telescopio la Luna, como lo hizo Galileo Gali-lei hace 400 años.

Philippe Faure, cuenta con una Maestría en ense-ñanza del francés como lengua extranjera (Universi-dad Stendhal de Grenoble), forma parte del Comité Puebla y del Comité Nacional Noche de las Estrellas. Es Director de la Alianza Francesa de Puebla y fun-cionario del Ministerio de Relaciones Exteriores de Francia, desde septiembre de 2007.

[email protected]

“… Acudieron más de 200 mil personas, probablemente la manifestación de

divulgación científica que haya reunido más personas en toda la historia”.

El éxito popular fue mucho más allá de las expectativas y debemos reconocer que en algunas plazas, incluyendo a Cholula, hubo personas que quedaron un poco frustradas por no poder participar en todas las activida-des, 37 exposiciones, 80 talleres, 85 proyec-ciones, 137 conferencias y 706 telescopios. 356 actores, 924 instructores y un total de 4 mil personas involucradas en la organiza-ción. Otro elemento que cabe destacar son las 244 instituciones que se involucraron y trabajaron conjuntamente: instituciones científicas, de gobierno y culturales, univer-sidades públicas y privadas, astrónomos pro-fesionales y aficionados.

“…356 actores, 924 instructores y un total de 4 mil personas involucradas en la

organización”.

¿Qué sigue?

Luego del éxito inicial, la mayoría de las insti-tuciones y personas involucradas han mani-festado la intención de organizar una segun-da edición el próximo año. La fecha ya ha sido definida; será el sábado 17 de abril, y el tema estará relacionado con los grandes aniversa-rios que va a celebrar México en el 2010, es decir el bicentenario de la Independencia y el centenario de la Revolución.

“…una segunda edición…el 17 de abril, y el tema estará relacionado con el bicente-nario de la Independencia y el centenario

de la Revolución”.

Pero antes, el Comité Nacional ha organiza-do el llamado “Reto México 2009”, que con-sintió en establecer un récord guinnes que registró el mayor número de personas obser-vando la luna al mismo tiempo a través de su telescopio. El Reto México se llevó a cabo el 24 de octubre en 42 sedes alrededor de toda

24Artículos de Divulgación

Figura 6: El Reto México, organizado también en el marco del Año Internacional de la Astronomía, dio al país un nuevo Record Guiness: “la mayor cantidad de personas observando al mismo tiempo la Luna a través de un telescopio en la Explanada del Comple-jo Cultural Universitario, Puebla. Foto: Guadalupe Rivera, INAOE.

Page 25: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200925

Artículos de Divulgación

Introducción

En una valoración rápida, se considera que la literatura está a las órdenes de la imaginación y las emociones, mientras que la ciencia se encuentra bajo un estricto régimen de sobriedad y razonamiento. Esta visión no podría ser más errónea considerando que la mayor parte de las obras literarias se respaldan en el lógico raciocinio de nuestro entorno; y por su parte, miles de investigadores alrededor del mundo podrían dar testimonio de que las ciencias requieren de la trascendental participación de la imaginación y de un aporte emocional único que les permite continuar día a día su labor científica. Considerando estos hechos podemos asegurar que la literatura y la ciencia logran interceptarse en variados puntos, ya que comparten características (imaginación, emociones, sobriedad y razonamiento) que claramente influyen en sus autores dando como resultado no sólo obras literarias de gran calidad, sino además, tecnologías novedosas. Aunado a esto, se cuenta con gran cantidad de ejemplos en donde se influencian de forma recíproca el maravilloso mundo de la literatura y el apasionante mundo de las ciencias; sobre esto versa el presente artículo.

Del maravilloso mundo de la literatura

al apasionante mundo de las ciencias

Citlalli Netzahualcoyotzi Piedra

“…la literatura y la ciencia logran interceptarse…dando como resultado

obras literarias de gran calidad y tecnologías novedosas”.

De nombres, ciencia y literatura

Como punto de partida para analizar aquellos empalmes entre la literatura y las ciencias, podemos hablar acerca de los variados personajes literarios que la ciencia ha retomado para nombrar a una considerable cantidad de organismos, inclúyanse entre éstos animales y plantas, principalmente.

Uno de estos ejemplos es el arbusto Atropa belladona cuyos efectos mortales en los humanos impresionó tanto al Carlos Linneo (biólogo sueco, padre de la taxonomía; ciencia que trata de los principios, métodos y fines de la clasificación de las plantas), que decidió nombrar al arbusto Atropa belladona; inspirándose en Atropos, una de las moiras o parcas de la mitología griega.

Page 26: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200926

Artículos de Divulgación

Según la mitología griega las moiras son quienes rigen la vida humana. Cloto, la más joven, lleva consigo telas e hilos de todas las clases y colores y los elige según el destino de cada persona. Laquesis es quien mueve el artilugio en el que se enrollan los hilos que Cloto le da y Atropos, la más vieja de las parcas, es quien a su antojo y sin respetar la edad, la riqueza, el poder, ni ninguna prerrogativa corta el hilo de la vida de los mortales y así ésta llega inevitablemente a su fin (1).

Este antecedente mitológico es el que se encuentra detrás de la planta Atropa belladona, cuyo principio activo conocido como atropina, administrado en dosis mayores a 1.0 mg genera depresión en el sistema nervioso resultando un colapso circulatorio e insuficiencia respiratoria que pueden conducir a la muerte (2).

“…Carlos Linneo decidió nombrar al arbusto Atropa belladona; inspirándose

en Atropos, una de las moiras de la mitología griega”.

Figura 2.- Moiras o parcas de la mitología griega. De izquierda a derecha se observa la imagen de Atropos, Cloto y Laquesis.

Otro ejemplo no tan escalofriante, es el de la mariposa monarca o Danaus plexippus, nombre científico inspirado en las historias de personajes de la mitología griega: Danaus y Plexippus. La historia cuenta que Danaus y Aegyptus, hijos gemelos del rey Belus y de la reina Anchinoe de Egipto, tuvieron 50 hijos cada uno.

Aegyptus exigió que sus 50 hijos se casaran con las 50 hijas de su hermano Danaus. Sin embargo, éste último se negó y huyó con sus hijas a la ciudad de Argos, pero a pesar de la larga travesía, Aegyptus y sus 50 hijos les dieron alcance. En la ciudad de Argos, Danaus consintió la boda para evitar problemas y a cada una de sus hijas le dio un cuchillo con el que se ayudaron en la noche de bodas para asesinar a todos los hijos de Aegyptus.

Más tarde, para que sus hijas se casaran, Danaus concibió un ingenioso método en el que los pretendientes tenían que correr una carrera en cuya meta los esperaban sus hijas y cada una era escogida en el orden en el que los pretendientes iban llegando.

“…Danaus y Plexippus fueron viajeros y aventureros, tanto así como las

Mariposas Monarcas…lo hacen a lo largo de sus travesías migratorias”.

Por su parte, Plexippus es el nombre de uno de los desafortunados hijos de Aegyptus, quien participó como uno de los argonautas que se embarcó con Jasón en la nave Argos en busca del vellocino de oro (la piel de oro de un carnero); larga travesía merecedora de una revisión en un artículo aparte (1). En el caso particular de este artículo, cabe destacar que tanto la intrépida fuga de Danaus y sus hijas seguidas por Aegyptus y sus hijos, así como la larga carrera de los pretendientes para elegir esposa, se asemejan a la naturaleza migratoria de la mariposa Monarca y sus costumbres gregarias que refieren a que éstas se desplazan en grupos en varias etapas. Asimismo cabe resaltar que Danaus

Page 27: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200927

Artículos de Divulgación

y Plexippus fueron viajeros y aventureros, tanto así como las mariposas monarcas o Danaus plexippus lo hacen a lo largo de sus travesías migratorias.

Otros ejemplos de nombres del mundo literario que han sido retomados para la ciencia, no sólo incluyen personajes de la mitología; sino además, se extiende a personajes y/o escritores que han trascendido de las propias páginas de sus libros. Tal es el caso de la araña de 5 mm de longitud que vive en completa oscuridad en contadas cuevas del continente australiano. Este pequeño arácnido tiene la capacidad de sujetar su alimento (generalmente organismos invertebrados), cortarlo en piezas y a continuación succionar sus fluidos. Debido a ello, su nombre científico Draculoides bramstokeri (3) está claramente inspirado en uno de los personajes vampíricos más populares de todos los tiempos: Drácula; en esta denominación también se incluye el nombre y apellido del autor (Bram Stoker) creador de este personaje de la literatura de terror.

“…un invertebrado…con el nombre de Gollumjapyx Smeagol en honor al famoso

personaje creado por J.R.R. Tolkien…”

También cabe mencionar el caso de un invertebrado de 2 cm de longitud, transparente y de apariencia depredativa que llevó a Sendra y colaboradores en el 2006 a bautizarlo con el nombre de Gollumjapyx smeagol (4); en honor al famoso personaje creado por J.R.R. Tolkien en su serie de libros de El señor de los anillos (1954-1955). El pequeño animal invertebrado es de origen epigeo (exterior), pero se adaptó al medio subterráneo y evolucionó hacia una nueva especie; tal y como Smeagol, un hobbit habitante de los Campos Gladios (poblado lejano de la comarca), fue inducido y corrompido por el poder del anillo hasta aislarse completamente y convertirse en el ermitaño ser conocido como Gollum.

“Este pequeño arácnido…Draculoides Bramstokeri, está claramente inspirado

en uno de los personajes vampíricos más populares …Drácula”.

De hechos, ciencia y literatura

Con los ejemplos anteriores se puede observar la influencia de la literatura para la asignación de nombres en el ámbito científico. Por otro lado, podemos hallar en los estantes de las bibliotecas una enorme gama de ejemplos donde la ciencia en sus diversas ramas, aparece retratada en las páginas de obras literarias. Uno de estos casos es el conocido libro de Frankenstein. Esta obra publicada en 1818 por la escritora inglesa Mary Wollstonecraft Shelley, no sólo explora en sus páginas los dilemas éticos de la ciencia en relación con la creación y destrucción de la vida; sino además sobresale, de entre los góticos detalles de la novela, el hecho de que el fenómeno eléctrico es necesario para el adecuado funcionamiento del organismo de un ser vivo.

“…podemos hallar…ejemplos donde la ciencia…aparece retratada en las páginas de

obras literarias”.

Este trasfondo de la novela tiene una clara influencia de los experimentos que el fisiólogo italiano Luigi Galvani realizó a partir de 1780. En estos ensayos científicos Galvani demostraba que la estimulación eléctrica en la médula espinal de una rana muerta producía contracciones en los miembros de la misma (5). Con estos resultados se daba inicio al estudio concienzudo de los fenómenos electrofisiológicos α, que aún ahora, se mantienen como una línea de investigación en apogeo continuo.

Figura 3.- El personaje del Señor de los anillos conocido como Gollum o Smeagol fue la inspiración para darle a un animal invertebrado el nombre científico de Gollumjapyx smeagol.

Page 28: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200928

Artículos de Divulgación

Figura 4.- En la novela de Frankenstein se exploran los fenómenos electrofisiológicos, que son vitales para los organismos vivos.

“…Frankenstein...tiene una clara influencia de los experimentos que el fisiólogo italia-

no Luigi Galvani…”

Una muestra más de las intersecciones entre la literatura y las ciencias es la de aquella sus-tancia llamada “soma” que el novelista Aldo-us Huxley nos presenta en su obra “Un Mun-do Feliz” (1932). En esta historia, el soma es un fármaco que es administrado diaria y gra-tuitamente a la población, manteniendo así a todos los hombres (o podría decirse máqui-nas) en un estado de felicidad continua. En esta historia las quejas, así como la sensación de soledad o inestabilidad individual son inexistentes, debido al paraíso farmacológi-co de felicidad instantánea que el soma les ofrece. En opinión de algunos, los fármacos psiquiátricos como la fluoxetina (Prozac®), desipramina (Nopramin®), bupropión (Well-butrin®), selegilina (Eldepryl®), sales de litio, entre otros representan la materialización ac-tual del soma.

La hipótesis podría ser cierta al considerar que este tipo de fármacos ayudan a regula-rizar la señalización neuronal, modulando así la concentración de sustancias químicas como la dopamina, noradrenalinaβ y se-rotonina&; cuya liberación controlada está asociada a un estado de bienestar, felicidad y estabilidad emocional (2, 6). De esta ma-nera, Huxley y su Mundo Feliz nos acercan a los actuales tratamientos farmacológicos de trastornos del ánimo como la depresión, la ansiedad, el trastorno bipolar, entre otros.

“…el soma es un fármaco que es adminis-trado…manteniendo así a todos los hom-bres…en un estado de felicidad continua”.

Con estos antecedentes evidenciamos que el contacto con las ciencias no sólo se encuentra en las aulas de las universidades, sino también impresa en las hojas de obras literarias verda-deramente entretenidas y enriquecedoras.

Otro ejemplo en donde la literatura muestra el futuro de las ciencias es el que presenta la escritora Kate Wilhelm en 1976, en su obra titulada “En Donde Solían Cantar los Dulces Pájaros”, Wilhelm nos acerca a la reproduc-ción clónica como solución a la esterilidad y, en esta misma línea, Huxley hace acto de presencia una vez más al proponer métodos de incubación y acondicionamiento a modo de úteros artificiales en su novela “Un Mundo Feliz”. En esta última novela se describe que la gente “normal” es genéticamente diseña-da, clonada y gestada en úteros artificiales un proceso de línea de montaje para producir ge-notipos£ ideales. Estos datos nos llevan segu-ramente a pensar en los actuales y novedosos tratamientos para la esterilidad, así como las técnicas de clonación de órganos que se en-cuentran actualmente en perfeccionamiento.

“…Jules Gabriel Verne…atravesó la barre-ra del tiempo con sus innumerables nove-las de aventuras denotadas con un toque

científico”.

Page 29: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200929

Artículos de Divulgación

Por otro lado, habría de mencionar al famo-so escritor francés Jules Gabriel Verne, quien atravesó la barrera del tiempo con sus innu-merables novelas de aventuras denotadas con un toque científico. Es considerado por algunos que Verne predijo la existencia de va-riados inventos como los viajes espaciales y el submarino. Pero más allá de estas suposicio-nes, se encuentra un Jules Verne que descri-bía sus máquinas basado en un conocimiento científico ya existente en su época, maduran-do la idea hasta plasmarla en obras como “De la Tierra a la Luna” publicada en1865 y “Veinte Mil Leguas de Viaje Submarino” (1869-1870).

“…un caso que se relaciona con el cielo nocturno… se conoce como la paradoja de

Heinrich Wilhem Olbers…”

Finalmente cabría mencionar un caso que se relaciona con el cielo nocturno que ha inspi-rado, tranquilizado y acompañado a cientos de escritores y científicos por igual. Este es el caso de lo que se conoce como la paradoja de Heinrich Wilhem Olbers, físico alemán que en inicios de los años ochenta se planteó el siguiente cuestionamiento: Si el tamaño del universo es infinito y las estrellas están distri-buidas por todo el universo, entonces debe-ríamos ver una estrella en cualquier dirección y el cielo nocturno debería ser brillante. Sin embargo, el cielo es oscuro, ¿por qué? (7). Si bien actualmente la mejor respuesta a esta pregunta hace referencia a que nuestra visión del cielo sólo se extiende hasta la distancia que la luz recorre en un tiempo igual a la edad del universo y por tanto, no vemos estrellas que estén más allá de esa distancia porque la luz que empezaron a emitir en el momen-to de originarse todavía no llega a la tierra.

“Es asombroso mencionar que el primero en dar esta solución…no fue ningún astrónomo, físico o matemático

sino…Edgar Allan Poe.”

Es asombroso mencionar que el primero en dar esta solución, al menos de una forma sencilla; no fue ningún astrónomo, físico o matemático sino un famoso escritor de nom-bre Edgar Allan Poe, menciona en su poe-ma Eureka publicado en 1848 lo siguiente:

“La única forma […] de entender los huecos que nuestros telescopios encuen-tran en innumerables direcciones, sería

suponiendo una distancia al fondo invisi-ble tan inmensa, que todavía ningún rayo

proveniente de ahí fue todavía capaz de alcanzarnos”.

Comentario final

Todos los ejemplos que se han descrito en este texto son realmente asombrosos en pri-mera instancia; sin embargo, no lo son tanto cuando se reconsidera que la literatura y las ciencias comparten la maravillosa esencia de la imaginación, que se ve plasmada finalmen-te en obras literarias de gran calidad o avan-ces científicos verdaderamente novedosos.

“…la literatura y las ciencias comparten la maravillosa esencia de la imaginación…”

No hay por qué separar tan tajantemente las letras de las ciencias y ambas de nuestras vi-das, a través de la lectura permitámonos co-nocer un poco de estos elementos y viajemos a través de las páginas del maravilloso mun-do de la literatura al apasionante mundo de las ciencias. Seguramente no se arrepentirán.

“A través de la lectura…viajemos a través…del maravilloso mundo de la literatura al

apasionante mundo de las ciencias…”

Page 30: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200930

Artículos de Divulgación

Glosario

αFenómenos Electrofísicos: Fenómenos que involucran procesos eléctri-cos en las funciones de los seres vivos.

βDopamina: Neurotransmisor cerebral que se relaciona con las funciones motrices o de los movimientos, así como con las emociones y los sentimientos de placer. La noradrenalina difiere de la dopamina sólo en su estructura química, pero ejerce primordialmente los mismos efectos.

&Serotonina: Neurotransmisor del sistema nervioso central implicado en la regulación de diversos procesos fisiológicos. Aún no se han podido definir los sitios precisos ni los modos de acción de la serotonina; sin embar-go, el aumento de su disponibilidad ha teni-do eficacia para tratar la depresión.

£Genotipo: Conjunto de genes o fragmentos de ADN que caracterizan a un organismo. En el caso del hombre, organismo diploide, la mitad de los genes se heredan del padre y la otra mitad de la madre.

Referencias

1.- Garibay, K. A. (1993). Mitología Griega: Dio-ses y héroes (12 Ed.).México, D.F.: Purrua, S. A.

2.- Lefkowitz, R., Hoffman, B. y Taylor, P. (1996). Neurotransmisión: Sistema nervioso autónomo y motor somático. En: Las bases farmacológicas de la terapéutica (pp. 113-148) (9na Ed.) (Vol. 1). México, D. F.: McGraw-Hill Interamericana.

3.- Autralian Government. Australian Natural Resources Atlas (ANRA). Natural Resource To-pics. Biodiversity Assessment-Carnarvon. Re-cuperado el 18 de Agosto de 2009 de http://www.anra.gov.au/topics/vegetation/as-sessment/wa/ibra-car-species-threats.html. DRAKULA

4.- Sendra, A., Ortuño, V., Moreno, A., Monta-gud, S., Teruel, S. (2006). Gollumjapyx smeagol gen. n., sp. n., an enigmatic hypogean japygid (Diplura: Japygidae) from the eastern Iberian Peninsula. Zootaxa, 1372: 35–52. gollum

5.- Gillispie, C. (1972). Dictionary of scientific biography (Vol. 5). New York, EEUU: Charles Scribner’s sons.

6.- Baldessarini, R. (1996). Fármacos y trata-mientos de los trastornos psiquiátricos. De-presión y manía. En: Las bases farmacológicas de la terapéutica (pp. 459-489) (9na Ed.) (Vol. 1). México, D. F.: McGraw-Hill Interamericana.

7.- Gobierno del estado de Morelos. Hypatia: Revista de Divulgación Científico-Tecnoló-gica del Estado de Morelos. La paradoja de Heinrich Wilhelm Matthäus Olbers. Recupe-rado el 18 de Agosto de 2009 de http://hypa-tia.morelos.gob.mx/index.php?option=com_content&task=view&id =163&Itemid=27

Citlalli Netzahualcoyotzi Piedra, tiene 21 años, es química farmacobióloga, ha realizado varios diplo-mados, el más reciente es: Analista Químico, temas selectos de atención prehospitalaria y enfermeda-des infecciosas, ha llevado a cabo diversas activida-des académicas que a la fecha la han llevado a ser autora de un artículo en la Revista Biomed, titulado “La marihuana y el sistema endocannabinoide: del efecto recreativo a la neuromodulación”.

[email protected]

Page 31: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200931

Artículos de Divulgación

Introducción

El agua es uno de los recursos naturales más importantes para mantener el equilibrio de los ecosistemas; sin ella, la vida no sería posi-ble en nuestro planeta. El deterioro de la ca-lidad de agua de los ríos, acuíferos, embalses y zonas costeras, originado por la descarga de aguas residuales sin tratamiento adecua-do, limita su aprovechamiento y provoca la contaminación de otros recursos naturales1.

La contaminación del agua se puede solucionar desde dos puntos de vista: el primero se basa en conocer las causas de su contaminación y así implementar estrategias para prevenirla, y el se-gundo es implementar técnicas de tratamiento del agua residuala para su reutilización. La pre-vención y tratamiento de las corrientes de agua tiene, obviamente, un valor ambiental y estéti-co, pero también sólidas razones económicas; pues el agua es una materia prima esencial en las actividades humanas, desde la alimentación, hasta el desarrollo de procesos industriales1.

Los humedales artificiales, una ecotecnología para el tratamiento

de aguas residuales

Alejandra Galiote FloresVíctor Luna Pabello

En las estrategias de prevención se encuen-tra la síntesis de nuevos compuestos amiga-bles con el ambiente y la regularización de las descargas de contaminantes por parte de las autoridades gubernamentales. En México, hay tres normas que regulan los lí-mites máximos permisibles de contaminan-tes en las descargas de aguas residuales. Por su parte, el tratamiento del agua residual, busca construir mejores sistemas que pue-dan eliminar estos contaminantes presentes en el agua.

“Sin agua, la vida no sería posible en nuestro planeta”.

Diferentes tecnologías de depuración tienen como objetivo mitigar parte de las sustan-cias nocivas que contiene el agua residual. En función del tipo de tecnología utilizada, se diferencian dos grandes grupos: los conven-cionales y los naturales. Los convencionales funcionan con energía externa, mientras que los naturales utilizan energía natural2.

Page 32: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200932

Artículos de Divulgación

El objetivo del artículo es presentar uno de los sistemas de tratamiento de aguas resi-duales llamado Humedal Artificial (HA), cuyo diseño y funcionamiento está basado en los humedales naturales.

Antecedentes y concepto de los HA

De manera natural el agua se puede purificar de varios contaminantes a través de diferen-tes mecanismos, entre los que se encuentra una interacción entre componentes bióticos y abióticos3. Los humedales naturales son descritos con frecuencia como “los riñones de la tierra”, porque filtran contaminantes del agua que fluyen hacia ellos a través de ríos, arroyos y oceanos2.

Se denomina Humedal a todas aquéllas zo-nas de transición entre los sistemas acuá-ticos y terrestres que constituyen áreas de inundación, temporal o permanentemen-te, y que presentan una vegetación típica adaptada para vivir en condiciones de suelo saturado. Algunos ejemplos de humedales naturales son los pantanos, las marismas, los esteros y manglares. Sin embargo, a pe-sar de su importancia, muchos humedales naturales han desparecido, los han tapado para la construcción de edificios2,3.

Los humedales artificiales o construidos, como su nombre lo indica, son sistemas construidos por el hombre con el fin de depurar aguas residuales, que imitan los procesos de depuración de los humedales naturales pero controlando las variables fí-sicas, químicas y biológicas que son las que determinan la eficiencia en la remoción de agentes contaminantes del agua4.

Aunque el término “humedal artificial” es re-ciente, el concepto es muy viejo. Las cultu-ras china y egipcia utilizaban los humedales para el tratamiento de aguas residuales.

Además se cree que los aztecas también ha-cían uso de esta ecotecnologíab debido a lo limpio de las aguas de los lagos, a pesar de la enorme población que vivía en sus ribe-ras. Uno de los documentos más antiguos que hace referencia a un humedal artificial data de 1904, en el cual se describe ya una técnica para construir un humedal con la fi-nalidad de remover contaminantes del agua residual2. Más tarde, en la década de los años 50 del siglo XX, la doctora Käthe Seidel, del instituto Max Planck observó que una planta llamada espadaña (Schoenoplectus lacustris) tenía la capacidad de remover una gran can-tidad de sustancias orgánicas e inorgánicas de aguas contaminadas, por lo que comenzó a experimentar con sistemas sembrados con esas plantas, en busca de nuevas alternativas para depurar aguas residuales.

“La contaminación del agua puede solu-cionarse con estrategias de prevención y

tratamiento del agua residual”

El trabajo de la doctora Käthe Seidel inspiró a otras instituciones en Alemania para que rea-lizaran estudios de tratamientos de aguas re-siduales. El Doctor R. Kickuth del Instituto Für Bodenkunde de la Universidad de Göttingen, D. Alemania, con apoyo de Seidel, desarrolló el concepto del método de la zona de las raí-ces a mediados de la década de los sesentas. El diseño basado en este método consiste tí-picamente de un lecho rectangular plantado con carrizos (Phragmites australis). El lecho puede incluir aditivos como: calcio, hierro o aluminio para mejorar su estructura y la capa-cidad de precipitación de fosfatos. En este di-seño se basan los modernos HA, modificando sus componentes para poder tratar el agua residual de deferentes orígenes.

Figura 1. A, muestra al humedal Salem ubicado en Oregón, B , manglar del estado de Yucatán, México1b.

Page 33: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200933

Artículos de Divulgación

Figura 2. Espadaña, Schoenoplectus lacustris2a

Un poco de teoría

Los HA son sistemas mecánicamente sim-ples, pero biológicamente complejos, en los que el agua, las plantas, animales, micro-organismos, sol, aire y suelo interaccionan para tratar aguas contaminadas.

Diagrama 1. Clasificación de los Humedales Artificiales4.

Existen dos tipos de sistemas de humedales artificiales desarrollados para el tratamiento de agua residual: humedales de flujo super-ficial y humedales de flujo subsuperficial. La diferencia entre este tipo de humedales es la disposición del agua4.

Los HA de flujo superficial son canales con la superficie del agua expuesta a la atmósfera y son poco profundos (0.1 a 0.6 m). El fondo del sistema está constituido por material rela-tivamente impermeable y una capa de suelo donde se sustenta la vegetación. Dentro del tipo de vegetación que crece en estos siste-mas están las plantas flotantes, las plantas

emergentes y las plantas sumergidas. Las primeras no necesitan del suelo, las plantas emergentes son aquellas cuya raíz se encuen-tra anclada al suelo, pero sus hojas sobrepa-san el nivel del agua, y por último, las plantas sumergidas tienen sus raíces ancladas al sue-lo pero permanecen sumergidas en el agua.

“Existen dos tipos de sistemas de humeda-les artificiales, los de flujo superficial y los

de flujo subsuperficial”.

Los HA de flujo subsuperficial igualmente son lechos excavados poco profundos, con una ba-rrera que impide la infiltración hacia el subsuelo, pero estos están rellenos de un material granu-lar (matriz o material de empaque), a través del cual circula el agua sin aflorar a la superficie. Adicionalmente, los HA de flujo subsuperficial pueden tener flujo horizontal (HAFH), vertical (HAFV) o ambos. La diferencia es la forma de ali-mentación, en el primero, el agua se incorpora por un extremo y se recolecta por el otro, mien-tras que en el vertical, se riega como si fuera llu-via y el agua se recolecta en el fondo4.

En un HA se pueden eliminar contaminantes como: materia orgánicac, sólidos suspendi-dosd, nitrógeno, fósforo, metales y microor-ganismos patógenos. Todo ello mediante procesos de filtración, degradación aerobia y anaerobia, nitrificacióne y desnitrificaciónf, la asimilación por las plantas y la adsorción por una matriz4. En la figura 3 se ilustran estos procesos que serán descritos a continuación.

El mecanismo responsable de la eliminación de la materia en suspensión se lleva a cabo por el material de empaque, por lo tanto su papel sólo se pueden observar en los HA subsuperficiales. Los procesos físicos que acompañan esta remo-ción son: la filtración, la adsorción, el choque con otras partículas y la coagulacióng.

Las reacciones biológicas que permiten la elimi-nación de la materia orgánica en los humedales se llevan a cabo por la actividad de microorga-nismos. Estos microorganismos se adhieren a la superficie del sustrato sumergido.

Page 34: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200934

Artículos de Divulgación

En los humedales de flujo superficial este sus-trato lo forma únicamente la capa de suelo del fondo, la porción de plantas sumergidas y las plantas muertas que contiene el agua. Sin embargo, en los humedales de flujo sub-superficial, este sustrato está formado por las raíces de las plantas y por la totalidad del medio granular que contiene. Esta superficie es mucho mayor, lo que da lugar a mejores rendimientos1.

“En un HA se elimina materia orgánica, sólidos suspendidos, nitrógeno, fósforo, metales y microorganismos patógenos”.

La vegetación presente en los humedales cumple varias funciones, proporcionar super-ficie para la formación de biopelículash, facili-ta la filtración y la adsorción de constituyentes del agua residual como fósforo y nitrógeno, y, finalmente mejora la transferencia de oxí-geno al cuerpo de agua, provocando así que los microorganismos aerobios cercanos a las raíces aumenten la actividad de los ciclos bio-geoquímicosi, trayendo como consecuencia, la degradación de materia orgánica6.

Principios y reglas de construcción de un HA

La mayoría de los HA que han estado en ope-ración por varios años, se diseñaron basándo-se en reglas empíricas. Sin embargo, actual-mente se construyen con un apoyo teórico que los hace más especializados.

El agua residual que se trata en este HAFV es generada de las instalaciones de los talleres de conservación de áreas verdes de la zona cultural de Ciudad Universitaria. El agua que proviene de los excusados es introducida a la fosa séptica, donde se elimina una gran cantidad de los sólidos sedimentables pre-sentes. Luego pasa al tanque sedimentador, en el cual se elimina la mayor parte de los sólidos sedimentables restantes y las natas sobrenadantes. El agua del sedimentador es bombea (bomba convencional monofásica de 0.25 HP) hacia el HAFV, distribuyéndose en la superficie del mismo a través de cuatro puntos localizados longitudinalmente.

Diagrama 2. Procesos de eliminación de contaminante en un HA subsuperficial.

Page 35: Netzahualcoyotzi 2009, Saberes Compartidos[1]

2009

Diagrama 3. Plano de etapas que se realizan en un Humedal Artificial de Flujo Vertical1.

35Artículos de Divulgación

En este apartado sólo se describirá un ejem-plo de construcción de un HAFV, que fue construido dentro del campus de Ciudad Universitaria, en el sur de la Ciudad de Méxi-co1. El sistema experimental está integrado por las siguientes etapas: a) fosa séptica y regaderas (influente), b) tan-que sedimentador, c) Humedal artificial de Flujo Vertical , d) Tanque desde agua tratada (efluente).

El agua dentro del humedal fluye en dirección vertical y se recolecta en el fondo del sistema a través de tres tubos horadados dispuestos longitudinalmente. El efluente o agua que se obtiene del humedal es almacenado en un tanque que facilite el manejo del agua para su posterior reutilización.

Para construir este sistema se tomaron en cuen-ta: la calidad y el volumen de agua a tratar y las características esperadas para el efluente, que dependen del uso al que se destinará el agua. En este caso, el agua se destinó para riego, por lo tanto el agua debe cumplir con la norma NOM-001-SEMARNAT-1996, que establece los límites máximos permisibles de contaminantes pre-sentes en las descargas de aguas residuales en aguas nacionales, referente a la descarga a ríos de los cuales se hace uso para el riego agrícola.La construcción y manejo de un HAFV es sim-ple. Primero se debe hacer una excavación de

un área adecuada, en este caso fue de 6 m de largo por 2.5 m de ancho y con una profundi-dad de unos 1.3 m. Posteriormente se imper-meabiliza la excavación aplanando las pare-des y el fondo del humedal con una delgada capa de concreto, sobre la cual será colocada una geomembrana de polipropileno que tie-ne un espesor de 3.2 mm.

El material de empaque que se empleó en este sistema es piedra volcánica conocida como te-zontle. La colocación de este material es muy importante, pues de esto dependerá el correc-to flujo del agua. En este sentido, el material se coloca en varias capas llamadas horizontes que varían en tamaño de capa y diámetro de grava.

Las plantas emergentes que se utilizaron para este proyecto fueron carrizos (Phragmi-tes australis) a una razón de cinco carrizos por metro cuadrado de superficie.

Finalmente, para la operación del sistema de riego, se establece la carga hidráulica, en este caso fue de 500L/d (litros por día), con la fina-lidad de evitar problemas de estancamiento. La variación de los ciclos de alimentación se programa en un temporizador.

“Los primeros HA se pusieron en funciona-miento a finales de los años 60, y en este mo-mento hay más de 10 mil en todo el mundo”.

Page 36: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200936

Artículos de Divulgación

Los Humedales Artificiales en México y en el mundo

Los primeros humedales construidos se pu-sieron en funcionamiento a finales de los años 60, y en este momento hay más de 10 mil ins-talaciones funcionando en todo el mundo1. A pesar de que los primeros humedales se usaron para proporcionar tratamientos tercia-rios; es decir, para mejorar la calidad de agua previamente tratada en una planta de lodos activadosl; en este momento la principal apli-cación es proporcionar tratamientos de tipo secundario, cuya principal misión es la elimi-nación de materia orgánica y sólidos en sus-pensión. En este sentido, los HA se emplean para tratar agua doméstica, aguas provenien-tes del cuidado de ganado, agua residual de minas y agua de ríos o lagos contaminados4.

Por otro lado, el agua tratada a través de un HA se ha destinado para alimentar ríos y lagunas, en la agricultura y en la ganadería, para reci-clar el agua de un edificio y, recientemente, en México se está utilizando para preservar al ajolote mexicano (Ambystoma mexicanum) que está en peligro de extinción. Los HA han tenido un amplio desarrollo en Alemania, en los países del Oeste de Europa y en Estados Unidos, donde han implementado estos siste-mas de máquinas vivas como sistemas de re-circulación de agua en hoteles, como se pue-de observar en la Figura 3.

En México, el uso de humedales artificiales empieza a tomar importancia. En la UNAM se iniciaron experimentos a nivel de laboratorio instalándolos en el “Vivero Bajo” de Ciudad Uni-versitaria (1990) y en el Invernadero “Faustino Miranda” (1991), así como en la Planta de trata-miento de aguas residuales “Cerro de la Estrella” (1991). Posteriormente, hace aproximadamen-te una década, se realizó la instalación de una planta piloto tipo HA de flujo horizontal en el “Vivero de Coyoacán” (1998) y en 2000 se instaló un HA de flujo vertical aledaño a las oficinas de la Dirección General de Obras y Servicios ubica-das en la Zona Cultural de Ciudad Universitaria, en el Distrito Federal.

El desarrollo de la ecotecnología de hume-dales artificiales realizado por la Facultad de Química de la UNAM, permitió que en el año 2007 se inaugurará una planta piloto única en su tipo a la que se le denominó HA de flu-jo combinado, diseñada para la obtención de dos tipos de agua de alta calidad, uno para cultivos hidropónicos (sin suelo) de hortali-zas y otro útil para proteger especies acuá-ticas silvestres. Dada la calidad de agua que se produciría, resultó estratégica la ubicación de la instalación de la planta piloto en el Cen-tro de Investigaciones Biológicas y Acuícolas (CIBAC) en Xochimilco, ya que en ese sitio es donde precisamente se realizan estudios so-bre cultivos hidropónicos y cultivan al ajolo-te mexicano. El desarrollo de las actividades conjuntas se estableció mediante un con-

Figura 3. Humedales Artificiales Subsuperficiales. A. Sección de un humedal construido dentro de las instala-ciones de “El Monte Sagrado” en Nuevo México. B. Humedal Artificial para tratar agua de la escuela “Old Trail School, en Ohio, éste se construyó en a principios de 2009. Las flechas indican el HA.

Page 37: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200937

Artículos de Divulgación

venio académico y de investigación entre la Facultad de Química de la UNAM y el CIBAC de la UAM-X (Universidad Autónoma Metro-politana, Xochimilco). Ver figura 4. Este HA, de 55 m2, tiene capacidad para sanear aproxi-madamente 2 mil 600 litros de agua por día. Dicha planta es del tipo subsuperficial que tiene como innovación una alimentación de flujo horizontal y vertical combinados en una misma etapa (HAFC: Humedal Artificial de Flujo Combinado).

El modelo del HAFC considera el uso de especies vegetales de ornato (alcatraz) y forrajeras (alfalfa) las cuales junto con el carrizo, contribuyen a la eli-minación de contaminantes básicosm permitien-do con ello el cumplimiento tanto de los niveles autorizados para el riego de hortalizas y para la adecuada sobrevivencia del ajolote mexicano8.

“Para construir este sistema se tomaron en cuenta: la calidad y el volumen de agua a

tratar y las características esperadas para el efluente”.

Conclusión

Los humedales artificiales son una alternativa sustentable para el tratamiento de aguas resi-duales de nuestro país, puesto que son sistemas de construcción simple, mínimo consumo de energía, largo ciclo de vida, fácil manejo y ami-gable con el ambiente. Actualmente, la UNAM cuenta con casi dos décadas interrumpidas de experiencia en el manejo y desarrollo de este

tipo de ecotecnología. Su implementación sis-tematizada en México, en escuelas, dependen-cias gubernamentales y casas habitación, entre otras, contribuiría significativamente a dismi-nuir la contaminación de ríos, lagos y arroyos que es por donde normalmente se dejan fluir las descargas de aguas contaminantes.

Glosario

a) Aguas residuales: Aguas de composición variada provenientes de descargas de uso mu-nicipal, industrial, comercial, de servicio, agrí-cola, pecuario, doméstico, incluyendo fraccio-namientos y en general cualquier otro uso, así como la mezcla de ellas.

b) Ecotecnología: Formas de ingeniería eco-lógica que reducen el daño a los ecosistemas, adopta fundamentos holísticos y de desa-rrollo sostenible, además de contar con una orientación precautoria de minimización de impacto en sus procesos y operación, redu-ciendo la huella ambiental.

c) Materia orgánica: Materia sólida que se encuentra en el agua y entra en el rubro de sólidos disueltos.

d) Sólidos suspendidos: Materia sólida que está formada por materia inorgánica.

e) Nitrificación: proceso biológico, durante el cual bacterias nitrificantes convierten el amoniaco tóxico en nitrato para disminuir su efecto dañino.

f) Desnitrificación: Proceso que realizan cier-tas bacterias para reducir nitratos hasta gas nitrógeno.

g) Coagulación: Promover que partículas, que se repelen unas de otras, sean atraídas las unas a las otras o hacia un material agre-gado con la finalidad de eliminarlas.

h) Biopelícula: Ecosistema microbiano orga-nizado, asociados a una superficie viva o iner-te, con características funcionales y estructu-ras complejas.

Figura 4. Humedal Artificial de flujos combinados ubi-cado en el CIBAC, Xochimilco. A, tanque de sedimen-tación; B) Carrizo (Phragmites australis); c) Material de empaque y D) estructura de riego para flujo.

Page 38: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200938

Artículos de Divulgación

i) Ciclos biogeoquímicos: Movimiento de can-tidades masivas de carbono, nitrógeno, oxíge-no, hidrógeno, calcio, sodio, fósforo y otros ele-mentos entre los componentes vivientes y no vivientes del ambiente (atmósfera y sistemas acuáticos) mediante una serie de procesos de producción y descomposición.

j) Tratamiento de aguas residuales por lodos activados: Consiste en el desarrollo de un culti-vo bacteriano disperso en forma de flóculo en un depósito agitado, aireado y alimentado con el agua residual, que es capaz de metabolizar como nutrientes los contaminantes biológicos presentes en esa agua.

k) Contaminantes básicos: Compuestos y parámetros que se presentan en las descar-gas de aguas residuales y que pueden ser removidos o estabilizados mediante trata-mientos convencionales (por ejemplo por lodos activados). En lo que respecta a la nor-ma mexicana sólo se consideran los siguien-tes: grasas y aceites, materia flotante, sólidos sedimentables, sólidos suspendidos totales, demanda bioquímica de oxígeno5, nitrógeno total fósforo total, temperatura y pH.

Referencias

1. Chavarría H. JA. (2001) Humedales Artificiales de flujo vertical: estado del arte y propuestas experimentales para la obtención de paráme-tros de diseño. Tesis de licenciatura. UNAM.

2. http://www.epa.gov/owow/wetlands/water-sheds/cwetlands.html

3. Winkler, MA. (1995) Tratamiento biológico de aguas de desecho. Sexta edición, México, Edito-rial Limusa.

4. Kadlek, RH, Knight, RL y Wallace, S. (2008) Treatment wetlands, Segunda edición, EUA, CRC Press.

5. Moshiri, G., (1993) Constructed wetlands for water quality improvement. Edición Ilustrada, EUA, CRC Press.

6. Brix, H. (1994), “Functions of macrophytes in constructed wetlands”, Water science and Tech-nology. 29, 71-78.

7. Reed, CS, Crites, RW y Joe-Middlebrooks, E. (1995) Natural systems for waste management and treatment. McGraw-Hill, Inc EUA.

8. Sánchez, H. (2009). Operación de un sistema experimental a base de humedales artificiales para tratar agua procedente del canal de Cue-manco. Tesis de Licenciatura en Ingenieria Quí-mica, UNAM.

9. Imágenes:http://watersecretsblog.com/archives/wetlands;1b (http://img117.images-hack.us/img117/2862/c5y655765fa1.jpg)

Alejandra Galiote Flores, egresada de la Licen-ciatura en Biomedicina de la Benemérita Universidad Autónoma de Puebla (BUAP), actualmente cursa la Maestría en Ciencias Bioquímicas en la Universidad Nacional Autónoma de México. Trabaja en el tema la eliminación de compuestos farmacéuticos del agua utilizando como modelo Humedales Artificiales de nivel laboratorio.

[email protected]

Víctor Luna Pabello, Biólogo egresado de la Facul-tad de Ciencias de la UNAM, con Maestría y Doctorado en Ciencias (Biología), acreedor a la medalla de plata “Gabino Barreda” y beca “Marie Curie”, proporcionada por la Comunidad Económica Europea para realizar estancia posdoctoral en el Instituto Nacional de Cien-cias Aplicadas de Toulouse, Francia. Perito en Impacto Ambiental y miembro del SNI nivel I. Principales líneas de investigación: Tratamiento biológico de aguas re-siduales por flóculos suspendidos; lechos empacados y humedales artificiales. Es miembro de la Society of Environmental Toxicology and Chemistry, Asociación Mesoamericana de Ecotoxicología y Química Ambien-tal, American Society for Microbiology, Colegio de Bió-logos de México A. C. y de la Federación Mexicana de Ingeniería Sanitaria y Ciencias Ambientales A.C.

Page 39: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200939

Resumen

En este trabajo se reportan los resultados de un estudio diagnóstico sobre las percepcio-nes y uso de las Tecnologías de la Informa-ción y la Comunicación (TIC) en el ámbito de los laboratorios de ciencias experimentales del sistema de Bachillerato – Escuela Na-cional Preparatoria (ENP) y Escuela Colegio de Ciencias y Humanidades (ECCH) – de la Universidad Nacional Autónoma de México (UNAM). Los resultados señalan que aunque los profesores atribuyen varios beneficios al uso de las TIC, en su práctica docente las usan de manera modesta.

Palabras clave

Laboratorio de ciencias experimental, TIC, enseñanza de las ciencias, bachillerato.

Uso de las Tecnologías de la Información y la

Comunicación en el laboratorio de ciencias

Erika Martínez MirónFernando Gamboa RodríguezRicardo Castañeda MartínezJesús Ramírez OrtegaClara Rosa María Alvarado Zamorano

Antecedentes

Existe amplia evidencia del impacto positivo que las TIC pueden tener en el aprendizaje de los estudiantes al promover su interés y motivación, además de potenciar el cambio con respecto a qué y cómo aprenden; sin em-bargo, su utilización en muchos casos puede no dar los resultados esperados, ya que éstos dependen en gran medida del conocimiento y experiencia que posean los profesores con las TIC (Gallego Arrufat, 2001) y, más aún, de su comprensión de los propósitos y valor po-tencial de las mismas (Cowie y Jones, 2008). Además, cuando las autoridades educativas y los profesores poseen una visión adecua-da del uso de las TIC, éstas pueden favore-cer la autonomía del alumno y servir como una herramienta de comunicación, como un camino de acceso a diversos recursos didácticos y como un foro para actividades

Investigación y Enseñanza

Page 40: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200940

colaborativas que involucran a los maestros, a los alumnos y a una amplia comunidad de aprendizaje (Gallego Arrufat, 2001).

“Las metas fundamentales del proyecto buscan la remodelación de los laborato-

rios para propiciar una transformación en la enseñanza de laboratorio; así como la

incorporación a la misma de las TIC”

Con el objetivo principal de mejorar la cali-dad de la enseñanza de las ciencias en el ba-chillerato, el Dr. José Narro Robles, rector de la UNAM, plantea el proyecto “Laboratorio de Ciencias para el Bachillerato UNAM”: (www.laboratoriosdeciencias.unam.mx).

Las metas fundamentales del proyecto bus-can la remodelación de los laboratorios para propiciar una transformación en la ense-ñanza de laboratorio; así como la incorpo-ración a la misma de las TIC, todo ello para contribuir a mejorar la comprensión de los conceptos científicos en los estudiantes del bachillerato. Por tanto, se busca que, entre otras cosas y al finalizar el proyecto, los pro-fesores estén utilizando las TIC para innovar sus estrategias didácticas, establecer nuevas metas y presentar los contenidos de manera novedosa. Para llevar a cabo este proyecto se convocaron a tres grupos (Grupo de Cogni-ción y Didáctica de las Ciencias y Grupo de Sistemas y Espacios Interactivos para la Edu-cación, ambos del Centro de Ciencias Aplica-das y Desarrollo Tecnológico del CCADET; un grupo integrado por la Subdirección de Pro-yectos Educativos y Vinculación Tecnológica y de Integración Tecnológica de la Dirección General de Servicios de Cómputo Académi-co de la DGSCA) de investigación y desarrollo para su coordinación; y además participaron docentes de Bachillerato, así como profeso-res de diversas facultades de la UNAM. Por lo anterior, fue necesario adoptar un enfoque multidisciplinario que permitiera proponer una solución adecuada a la problemática de la enseñanza de las ciencias experimentales con el apoyo de las TIC, integrando ambos enfoques: el pedagógico y el tecnológico.

“El primer paso para mejorar las prácticas escolares es reconocer que las actividades tradicionales de laboratorio no han dado los resultados de aprendizaje esperados.”

Perspectiva pedagógica

En la actividad experimental, como en toda acti-vidad de aprendizaje, se requiere de un buen di-seño didáctico y pedagógico para que se tenga mayor probabilidad de éxito en lograr el apren-dizaje por parte de los alumnos. Sin embargo, las prácticas escolares con o sin tecnología, en general, han mostrado su ineficacia porque, en gran medida, se ha establecido la observación como propósito principal de las actividades de laboratorio; considerando de esta forma, que los estudiantes puedan inferir el conocimiento científico (Luneta, 1998). Además, con este tipo de prácticas se ha fomentado que los estudian-tes se conviertan en reproductores mecánicos de procedimientos para obtener una solución dada y esperada. Esto actualmente se recono-ce como una visión simplista del aprendizaje y de la noción de construcción del conocimiento científico. Por tanto, se menciona que un pri-mer paso para mejorar las prácticas escolares es reconocer que las actividades tradicionales de laboratorio (con procesos determinados, formatos de llenado que no reflejan dichos pro-cesos y cuyos cuestionamientos sólo obedecen a la lógica de la corroboración) no han dado los resultados de aprendizaje esperados (Flores y Gallegos, 2009).

Figura 1.Laboratorio prototipo en el Centro de Ciencias Aplicadas y Desarrollo Tecnológico UNAM. Este labora-torio está en fase de ser replicado en los 14 planteles del sistema de bachillerato de la universidad.

Investigación y Enseñanza

Page 41: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200941

Desde una perspectiva constructivista, Flo-res y Gallegos (2009) sugieren la considera-ción de nuevas propuestas sobre los proce-sos didácticos del trabajo en el laboratorio que consideren la adopción de una base epistemológica sólida que tome en cuenta las construcciones conceptuales y represen-tacionales de los alumnos. Es decir, que se reconozca que el proceso de aprendizaje no es un sólo acto de apropiación, sino un pro-ceso largo de construcción de representacio-nes mentales y de transformación continua de ellas (Flores y Valdez, 2007). Para ello, se recomienda que las nuevas propuestas pro-picien condiciones que permitan el desarro-llo de la indagación, del cuestionamiento y del planteamiento de hipótesis y prediccio-nes; así como la construcción de esquemas y modelos de explicación para los fenóme-nos analizados en el laboratorio. Asimismo, condiciones que flexibilicen las situaciones de aprendizaje y fomenten el trabajo colabo-rativo. El desarrollo de estas situaciones de aprendizaje, por supuesto, requieren consi-derar el tipo de herramientas de apoyo co-rrespondientes al contexto del laboratorio (e.g. equipo, materiales y sustancias tradi-cionales de laboratorio), pero ahora también considerando el uso de las TIC.

“ya no es cuestión de si se usan las TIC, sino de cómo utilizarlas de la mejor manera.”

Perspectiva tecnológica

Desde esta perspectiva, tanto las autori-dades de la Universidad, como los grupos convocados a realizar este proyecto, opina-mos de igual forma que lo hace Cook (2003), “ya no es cuestión de si se usan las TIC, sino de cómo utilizarlas de la mejor manera”; se considera que las diversas herramientas tec-nológicas disponibles ofrecen una gama de posibilidades para apoyar los aspectos teóri-cos y prácticos del aprendizaje en el aula, en general (Osborne y Hennessy, 2003):a) Liberar de procesos manuales laboriosos para dar más tiempo de reflexión, discusión e interpretación.b) Incrementar el alcance de los fenómenos

relevantes ligando la ciencia escolar a la cien-cia contemporánea proporcionando acceso a experiencias que de otra forma no serían posibles.c) Apoyar la exploración y experimentación, a través de la retroalimentación visual inme-diata.d) Enfocar la atención en aspectos generales, enfatizando el realce de conceptos abstrac-tos subyacentes.e) Fomentando el aprendizaje auto-regulado y colaborativo.f ) Mejorando la motivación y el interés.

Por su parte Lunetta,1998 sugiere que el tra-bajo en el laboratorio, en particular, puede ser apoyado por las TIC a través de:a) La recopilación de datos a través de siste-mas de medición automática.b) La visualización, organización, interpreta-ción y discusión de datos.c) La comparación de resultados con los re-portados en alguna otra parte. d) El acceso a nuevas fuentes de información.e) El uso de simuladores.

Para que se puedan alcanzar estos beneficios potenciales, se requiere cubrir ciertos requi-sitos que ya han sido previamente identifica-dos por Pedró 2006, dentro de los ejes de: a) Infraestructura: incrementando el número de dispositivos, recursos y servicios disponibles (desde conexiones inalámbricas hasta pod-casts de las lecciones); b) contexto: recursos funcionales – tiempo y espacio – más flexibles para permitir arreglos alternativos; c) currícu-lo, ajustando los requerimientos para intro-ducir nuevas herramientas culturales o con-tenidos relevantes a las nuevas generaciones – mensajería instantánea, páginas personales; d) orientado al proceso: ajustando las activi-dades y los procesos de enseñanza-aprendi-zaje a las prácticas cognitivas y de comunica-ción usadas por los estudiantes.

No obstante, esto se plantea como primera etapa, ya que además se sugiere, entre otras, 1) garantizar la continuidad tecnológica en-tre el contexto externo e interno a la escue-la; 2) tomar en cuenta las expectativas de

Investigación y Enseñanza

Page 42: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200942

los estudiantes sobre los usos escolares de dispositivos y servicios digitales que ellos ya usan; 3) comprometer a las instituciones de capacitación de profesores – de nuevo ingre-so y de aquellos que ya ejercen – para que sus cursos incluyan el uso de los dispositivos y servicios digitales.

Sin embargo, de forma similar a lo que suce-de con las prácticas pedagógicas escolares tradicionales, hasta el momento los resulta-dos del uso de herramientas tecnológicas que apoyan los procesos de aprendizaje no son todo lo significativos que se esperaban. Esto ha contribuido al incremento en el reco-nocimiento del rol crítico que desempeña el profesor a la hora de seleccionar y evaluar los recursos tecnológicos apropiados; diseñar, estructurar y seriar el conjunto de activida-des de aprendizaje.

Por tanto, la problemática del proyecto des-de la perspectiva tecnológica se circunscribe alrededor de los siguientes cuestionamien-tos: ¿Qué herramientas tecnológicas son las adecuadas para apoyar tareas experimentales que adoptan una base epistemológica sóli-da y que toman en cuenta las construccio-nes conceptuales y representacionales de los alumnos?, ¿qué características deben de te-ner las herramientas tecnológicas que buscan apoyar actividades experimentales que propi-cien el desarrollo de la indagación, del cues-tionamiento y del planteamiento de hipóte-sis y predicciones; así como la construcción de esquemas y modelos de explicación para los fenómenos analizados en el laboratorio?, ¿cómo introducirlas y lograr que los involucra-dos se apropien de estas herramientas?

A continuación se describe la experiencia que se ha tenido en las primeras fases del proyecto por parte del grupo multidiscipli-nario para alcanzar las metas del mismo.

Conocimiento y uso de las TIC por parte de los docentes

Partiendo de contar con el apoyo de las au-toridades para cumplir con el primero de los

requisitos señalados por Pedró (2006) -infra-estructura- se trabajó en la planeación de ac-tividades que permitiesen satisfacer algunos otros requisitos como el contexto, el currícu-lo, y el orientado al proceso.

Como primera etapa del proyecto se propuso identificar la situación actual por la que están atravesando los laboratorios actuales en todos y cada uno de los planteles del subsistema ba-chillerato. Esto permitiría dimensionar más ade-cuadamente las necesidades y posibilidades que un proyecto de esta índole requería. Los resultados están disponibles en: www.laborato-riosdeciencias.unam.mx y aquí recuperaremos aquellos obtenidos en relación al conocimiento y uso de las TIC en la práctica docente, en par-ticular, y en su entorno cotidiano, en general. El estudio diagnóstico indagó sobre a) la percep-ción de los profesores acerca del uso de las TIC para la enseñanza de las ciencias; b) las TIC que conocen y saben utilizar; c) las TIC que utilizan en su práctica docente; y d) la frecuencia del uso de la computadora en diversas actividades.

Participantes

La encuesta fue respondida por un subconjunto de 257 profesores (114 de Biología, 47 de Física y 96 de Química) de los dos subsistemas del ba-chillerato UNAM: 5 planteles de la Escuela Cole-gio de Ciencias y Humanidades (ECCH) y 9 plan-teles de la Escuela Nacional Preparatoria (ENP).

Figura 2. Percepción de los profesores acerca del uso de las TIC para la enseñanza de las ciencias en el sistema de bachillerato de la UNAM.

Investigación y Enseñanza

Page 43: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200943

Metodología

Se enviaron cartas de solicitud dirigidas a los directores de cada plantel pidiendo fuese di-fundida y promovida la participación volunta-ria en la encuesta. El cuestionario fue puesto en línea durante un período de un mes, y tam-bién se enviaron formatos impresos para ser llenados por aquellos profesores que prefirie-ran contestar en papel.

Resultados obtenidos para cada pregunta

a)Percepción de los profesores acerca del uso de las TIC para la enseñanza de las ciencias: Se consideraron las respuestas de 228 profesores (100 biólogos, 37 físicos y 91 químicos; no to-dos los profesores contestaron a esta pregun-ta y, por tal razón, el número de respuestas obtenidas es inferior al número total de profe-sores participantes). Las respuestas en las tres áreas no muestran diferencias significativas, por lo que se realizó un único análisis sobre las 228 respuestas. De los datos obtenidos se puede observar que, en el discurso, los profe-sores están conscientes de la importancia del uso de tecnologías, dando un 60% de ellos respuestas de “Totalmente de acuerdo” o “De acuerdo” para todas las preguntas (en un par de ellas inclusive se alcanza el 90%) (Figura 2). Sin embargo, consideramos que este dato no debe ser estudiado de manera aislada, pues re-quiere ser confrontado con las preguntas que hacen referencia a cómo y en qué momento hacen uso de la tecnología; fundamentalmen-te para descartar que esta respuesta se deba a una opinión “socialmente aceptada”.

b)Las TIC que conocen y saben utilizar: Para el análisis de esta pregunta se consideraron las respuestas de 242 profesores, de los que 107 pertenecen al área de Biología, 40 de Física y 95 de Química. Se observó que la apropiación de TIC en las tres áreas es muy similar. Para el caso de los programas de oficina en las tres áreas el “presentador” es el más utilizado, seguido por el procesador de textos. Los servicio Web asín-cronos disponibles en Internet más utilizados son el correo electrónico, los buscadores públi-cos y buscadores especializados; para el caso de

servicios síncronos, el chat es el más conocido. Respecto a los nuevos servicios colaborativos ofrecidos en la Web 2.0, empiezan a ser utiliza-dos, destacando el Blog (Figura 3).

c)Las TIC que utilizan en su práctica docente: Para el análisis de esta pregunta se conside-raron las respuestas de 257 profesores de los cuales 157 pertenecen al ECCH y 100 a la ENP. Además, de esos 257 profesores, 114 pertene-cen al área de Biología, 47 de Física y 96 de Química. Se destaca el uso de procesador de palabras, herramientas para realizar presen-taciones y hojas de cálculo, además de ser-vicios de Internet como el correo electrónico y los buscadores. Se destaca además un uso importante de software educativo y, en un menor grado, el uso de simuladores, bases de datos y bibliotecas digitales (ver Figura 4).

“Las herramientas más utilizadas en la do-cencia son el procesador de palabras, herra-mientas para realizar presentaciones y hojas

de cálculo, además de servicios de Internet como el correo electrónico y los buscadores”.

Figura 3. Las TIC más conocidas y más utilizadas.

Figura 4. Las TIC que utilizan en su práctica docente.

Investigación y Enseñanza

Page 44: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200944

Con respecto al uso de equipo complemen-tario, en la ENP se observan los mismos pa-trones de uso que en la ECCH: lo que más se utiliza son los Programas (hojas de cálculo simulaciones, presentaciones, etcétera), y equipo de cómputo.

d)Frecuencia del uso de la computadora en ac-tividades pedagógicas diversas: Para esta pre-gunta se obtuvieron entre 225 y 229 respuestas (96-100 de Biología, 88-90 de Química y 39-40 de Física). Para el caso de las actividades “Ob-tener textos” y “Obtener material multimedia”, gran parte de los profesores utilizan frecuente-mente la computadora (36.4 y 39.9%, respecti-vamente) o bien ocasionalmente (25.1 y 24.8%, respectivamente). Para las actividades “Diseñar mis cursos” y “Elaborar material para los es-tudiantes”, el uso es frecuente (34.1% y 38.4%, respectivamente) o bien se da siempre (27.1 y 28.7%). En el caso de “Comunicación con los alumnos”, se reporta una situación balanceada entre uso frecuente y ocasional (26.4 y 26%, respectivamente), situación que para el caso de “Comunicación con otros profesores” tiende al uso frecuente (41.1%). Contrario a lo que se es-peraba, el “Registro y control de las actividades” lo realizan sólo alrededor del 50% de los profe-sores y de ellos 25.6% reporta un uso frecuente, mientras que el 22.1% reporta un uso ocasional.

En estos resultados no se observó ninguna di-ferencia significativa al agrupar las respuestas por disciplina (Figura 5).

Por otra parte, los resultados obtenidos en esta pregunta permiten hacer una mejor lec-tura de los datos obtenidos en la pregunta so-bre la percepción en el uso de computadoras. En efecto, puede observarse cómo el uso que se hace de las TIC es significativamente menor a la importancia que les otorgaban. Es tam-bién de notar que el rubro que califican más bajo es “Comunicación con los alumnos”, lo que indica que dichas herramientas no son in-tegradas a la práctica docente cotidiana, sino como herramienta para el trabajo personal y de adquisición de información.

Lo descrito hasta ahora en los laboratorios cu-rriculares hace ver la necesidad de que cuen-ten con equipo básico de cómputo y de pro-yección para apoyar la labor docente.

“El diagnóstico que se obtuvo proporciona un indicativo sobre el uso reducido de las

TIC en la práctica docente en comparación con la percepción de importancia y

ventajas asociadas a ellas”.

Resultados

Los resultados del diagnóstico realizado con una muestra de la población de los profeso-res de ciencias experimentales de bachillerato muestran que su deseo de introducir las TIC en el contexto del laboratorio es mayor en compa-ración al uso que realmente realizan de ellas.

Figura 5. Frecuencia del uso de la computadora en diversas actividades.

Figura 6. El laboratorio prototipo fue equipado con TIC,S además de los instrumentos y materiales propios según la materia: QFB.

Investigación y Enseñanza

Page 45: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200945

Dadas las características actuales de los labo-ratorios de ciencias experimentales, donde hay carencia absoluta de TIC, no se conside-ró pertinente indagar sobre las razones para no usar TIC en los mismos. Sin embargo, para la segunda etapa del proyecto, donde cada plantel contará con un laboratorio prototipo que integra TIC, se indagará sobre cómo los profesores hacen uso de las mismas cuando las tienen disponibles. Por el momento, nos basamos en los resultados reportados en otros estudios para sugerir que, en parte, la causa de la diferencia arriba señalada se en-cuentra en la inexistencia de infraestructura tecnológica en dichos laboratorios y, por tan-to, se espera que en las instalaciones del la-boratorio prototipo que se instalará en cada plantel, los profesores hagan un mayor uso de estos recursos. Otros posibles factores son la falta de capacitación y el consecuente temor de usar apropiadamente la tecnología en una situación de aprendizaje frente a grupo (Ga-llego Arrufat, 2001; Mukti, 2000).

Conclusiones

El diagnóstico que se obtuvo proporciona un indicativo sobre el uso reducido de las TIC en la práctica docente en comparación con la percepción de importancia y ventajas asocia-das a ellas. Por tanto, en la siguiente fase del proyecto nos centraremos en el seguimiento de los profesores que harán uso de un labora-torio prototipo equipado tecnológicamente, a través de la observación, cuestionamiento y análisis de sí realmente los recursos dispo-nibles en el mismo (e.g. simulaciones, videos) facilitan la realización de aquellas prácticas de laboratorios que deseasen enriquecer con elementos adicionales que proporcionen a los alumnos una mejor representación de los modelos o fenómenos que suceden alrededor de una práctica experimental. De esta manera se busca alcanzar una propuesta que cumpla con las metas que se definieron para el pro-yecto, así como las que señala Pedró (2006).

Referencias

1.- Cook, D. (2003) “The Question is No Longer „If‟, but „How Best‟, ICT can be Used in Early Years Practice”. IFIP Working Group 3.5 Confe-rence: Young Children and Learning Techno-logies. Australian Computer Society, Inc. UWS Parramatta.

2.- Cowie, B. y Jones, A. (2008) “Teaching and learning in the ICT environment”, en L. J. Saha, A. G. Dworkin (eds.), International Handbook of Research on Teachers and Teaching, 771-781. Springer Science+Business Media LLC.

3.- Flores, F. y Gallegos, L. (2009) Una propues-ta didáctica para el trabajo en el laboratorio de los bachilleratos universitarios. En revisión.

4.- Flores F. y Valdez R. (2007) “Enfoques epis-temológicos y cambios representacionales y conceptuales”, en Pozo J.I y Flores F (eds) Cambio conceptual y representacional en el aprendizaje y la enseñanza de la ciencia, Ma-drid, Antonio Machados Libros, 21 - 36.

5.- Gallego Arrufat, M.J. (2001). “El profesora-do y la integración curricular de las nuevas tecnologías”, en AREA, M. (Coord.). Educar en la sociedad de la información (pp.383-407). Bilbao: Desclée De Brouwer.

6.- Lunetta V. (1998) “The school science labo-ratory: historical perspectives and contexts for contemporany teaching”, en B. Fraser y K Tobin (eds.) International Handbook of Scien-ce Education, Kluwer Academic Publishers, Dordrecht, 249 – 262.

7.- Mukti, N.A. (2000) Computer technology in Malaysia: Teachers‟ background characte-ristics, attitudes, and concerns. The Electronic Journal of Information Systems in Developing Countries, 3, 8, 1-13.

8.- Osborne, J. y Hennessy, S. (2003) “Literature Review in Science Education and the Role of ICT: Promise, Problems and Future Directions”. A report for NESTA FutureLab (Report 6), Futu-reLab Series.

Investigación y Enseñanza

Page 46: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200946

Investigación y Enseñanza

9.- Pedró, F. (2006) “The New Millenium Lear-ners: Challenging our Views on ICT and Lear-ning”. France, OECD-CERI.

Erika Martínez Mirón, estudió Ciencias de la Com-putación, realizó su maestría en el Instituto de In-vestigación en Matemáticas Aplicadas y Sistemas de la UNAM, su Doctorado en la Universidad de Sussex (GB). Sus líneas de investigación versan sobre la Tecnología Educativa. Ha participado en varios proyectos de investigación, entre los que destaca: “El Aula del Futuro”; actualmente realiza una estan-cia posdoctoral en el Centro de Ciencias Aplicadas y Desarrollo Tecnológico; y participa en los proyectos “Superficies aumentadas como apoyo al trabajo co-laborativo en el aula”.

[email protected]

Fernando Gamboa Rodríguez, obtuvo su doc-torado en Francia, en el campo de la Interacción Humano-Computadora. En 1999 se integró como Investigador al Centro de Ciencias Aplicadas y De-sarrollo Tecnológico de la UNAM, en el 2000 ingre-só al Sistema Nacional de Investigadores, y obtuvo la cátedra REDII-UNAM. Sus líneas de investigación versan sobre la Interacción Humano-Computadora. Es profesor y tutor de maestría y doctorado en los Posgrados de “Ciencia e Ingeniería de la Computa-ción” y “Ciencias de la Administración. Ha sido pro-fesor invitado por la Universidad de Trujillo, Perú, y participa activamente en la creación del “Posgrado en Sistemas y Ambientes Educativos” de la UNAM. El Dr. Gamboa es miembro del comité editorial del “Jo-urnal of Distance Education Technologies (JDET)” y del “International Journal on Interactive Design and Manufacturing”, además de evaluador frecuente de CONACYT, SEP, UPN y DGAPA-UNAM.

Clara Rosa María Alvarado Zamorano, es Maestra en Pedagogía y cuenta con un Máster en Investigación en la Enseñanza y el Aprendizaje de las Ciencias Expe-rimentales, Sociales y Matemáticas-Orientación Di-dáctica de las Ciencias Experimentales (España, 2007). Ha sido profesora durante 30 años y es coautora de dos artículos, siete libros y manuales, ha participado en congresos a nivel internacional; recibió el reconoci-miento “Sor Juana Inés de la Cruz, 2008”, otorgado por la UNAM y actualmente está desarrollando el proyecto de investigación del Doctorado en la UEX.

Jesús Ramírez Ortega, es Ingeniero Mecánico Elec-tricista y Maestro en Pedagogía por la UNAM. Se ha desempeñado en diversos departamentos dentro de la propia UNAM y actualmente es Secretario Técnico del Centro de Ciencias Aplicadas y Desarrollo Tecno-lógico y Profesor de la Facultad de Ingeniería en el Departamento de Ingeniería Eléctrica y Electrónica. Ha impartido diversos cursos especializados en man-tenimiento a equipos de cómputo y equipos electró-nicos; así como director de 10 proyectos de tesis a nivel licenciatura en Ingeniería Mecánica Eléctrica y Computación.

Ricardo Castañeda Martínez, ingeniero en Comu-nicaciones y Electrónica con créditos concluidos de la Maestría de Administración de Organizaciones. Aca-démico de tiempo completo en el Centro de Ciencias Aplicadas y Desarrollo Tecnológico de la UNAM. Exper-to en el diseño e implementación de sistemas informá-ticos para la educación para Internet, en el desarrollo de software educativo centrados en el usuario y en la integración de TIC en el aula.

Page 47: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200947

Investigación y Enseñanza

Resumen

El presente artículo describe la importancia e impacto del proceso de evaluación adaptable computarizada a través de una simulación. Se muestra cómo la media de las habilidades cal-culadas converge a la habilidad real. Asimismo, se plantea el problema de elaborar reactivos en forma automática considerando problemas de la lógica de proposiciones que son de la for-ma p ■ q ■ r. En el trabajo se muestra eviden-cia experimental de que las métricas basadas en co–ocurrencias tanto del modelo cognitivo propuesto como aquélla de las muestras se en-cuentran correlacionadas.

Palabras clave: evaluación adaptable, gene-ración automática, proposiciones, modelo cognitivo, características psicométricas.

Introducción

Como es del conocimiento público, evalua-ciones internacionales a estudiantes mexica-nos próximos a egresar del nivel secundario y a ingresar al nivel medio superior muestran de manera preocupante un bajo aprovecha-miento en áreas tan esenciales como lo son comprensión de textos, matemáticas y cien-cias [La Jornada, 2007]. Se han propuesto di-ferentes soluciones a esta problemática pero consideramos que ninguna o muy pocas de ellas se enfocan a una cuestión medular; a saber, la evaluación como quehacer diario. Dadas las características de la población es-tudiantil mexicana en todos sus niveles, la evaluación como actividad diaria se vuelve una tarea de gran dificultad si no es acompa-ñada de recursos tecnológicos de vanguardia y recursos humanos preparados adecuada-mente. En este trabajo mostramos de mane-

Análisis estadístico de la aplicación de un modelo

cognitivo para la evaluación de proposiciones lógicas en estudiantes del

nivel Técnico Superior Universitario

Joel Suárez CansinoEmma Lucio Martínez

Page 48: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200948

Investigación y Enseñanza

ra coloquial y somera parte del nivel de pro-fundidad requerido para evaluar a través de una metodología conocida como evaluación adaptable computarizada.

La evaluación adaptable computarizada si-gue la filosofía de adaptar el examen al exa-minando, lo que se contrapone a la filosofía seguida por los exámenes a lápiz y papel en el que el evaluando se adapta a la prueba y, por ello mismo, se hace indispensable instru-mentarla por medio de entornos computa-cionales adecuados. Por ejemplo, considere el lector un examen ficticio practicado sobre un evaluando de quien se desconoce su nivel de habilidad real en el área de conocimien-to evaluada, y esta habilidad tiene que ser estimada a través del proceso de evaluación adaptable. La Tabla 1 muestra los resultados de un proceso de evaluación simulado.

“La evaluación adaptable computarizada sigue la filosofía de adaptar el examen al

examinando”.

Esta tabla consiste de cuatro columnas que indican el número de reactivo planteado, la respuesta que el evaluando proporciona a la pregunta asociada a este reactivo, la habili-dad que el sistema evaluador estima una vez que el evaluando proporciona la respuesta (exceptuando el valor de habilidad con la que el evaluando responde al primer reactivo, el cual se estima como semilla inicial para el proceso) y el valor absoluto del error relativo.

Conociendo un valor inicial estimado de ha-bilidad, el sistema plantea primeramente un reactivo con complejidad acorde a este nivel inicial, al que el evaluando tiene que respon-der correcta o incorrectamente. Según la co-lumna Respuesta Dicotómica, el evaluando responde incorrectamente al primer reactivo y entonces el sistema adapta la complejidad del

Figura 1. Diario La Jornada donde la Organización para la Cooperación y el Desarrollo Económico (OCDE), ex-pone los resultados de las pruebas PISA.

Figura 2. Muestra el link oficial del sitio web para la rea-lización de la prueba PISA (Programa Internacional de Evaluación de Estudiantes).

Tabla 1. Resultados de evaluación adaptable compu-tarizada simulada aplicando reactivos ficticios de res-puesta verdadera o falsa a un evaluando que se asume tiene una habilidad real igual a 0.75 pero en principio desconocida. La habilidad del evaluando inicialmente se estima con valor igual a 0.7015.

Page 49: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200949

Investigación y Enseñanza

siguiente reactivo a plantear. Continuando de esta forma, el sistema determina que con una variación menor al 15% en el error relativo a lo largo de los ocho reactivos más recientes, la habilidad real del evaluando es igual a 0.6448.

Indudablemente un sistema que instrumen-te completamente el proceso de evaluación adaptable que se ha descrito de manera sucin-ta es una herramienta valiosa complementaria al proceso de evaluación en el quehacer diario del docente y del evaluando mismo. Sin em-bargo, surgen diferentes preguntas cuya res-puesta a las mismas es de suma importancia a lo largo del proceso de instrumentación del sistema evaluador. Una de estas preguntas se enfoca al origen de los reactivos; es decir ¿de dónde salen éstos? y ¿cómo se obtienen?

“Esta base de reactivos contiene reactivos relacionados con cierta área del

conocimiento y ellos generalmente son propuestos por expertos en el área”.

Problemática

Sin duda, el alma de un evaluador adaptable computarizado está determinada por la fuente de los reactivos empleados en la evaluación. Esta fuente es una base de reactivos que se construye siguiendo un conjunto de normas de calidad. Como su nombre lo indica, esta base de reactivos contiene reactivos relacionados con cierta área del conocimiento y ellos general-mente son propuestos por expertos en el área, aunque posteriormente son sometidos a aná-lisis estadístico bastante riguroso antes de ser integrados a la base de reactivos. Una vez que se construye la base de reactivos y se encuen-tra lista a ser empleada en cualquier proceso de evaluación, se encuentra el problema de dar mantenimiento continuo a la misma con el ob-jeto de cumplir con los estándares establecidos. Por ejemplo, cuidar la sobreexposición y subex-posición de reactivos en la misma, balancear el contenido en complejidad, etc. [Chen,1999].

Cada uno de estos temas es un problema en sí mismo, para los cuales se han propuesto algunas soluciones. La solución al problema

de sobreexposición es crucial, ya que con ello se evita que un mismo reactivo sea expuesto más allá de lo debido. En este sentido debe ser sustituido al menos temporalmente por reac-tivos de nueva creación o que se han refres-cado previamente. La cuestión aquí es cómo hacer este proceso de creación de reactivos más expedito. La creación de un reactivo a través de la opinión experta no es una tarea sencilla como puede parecer a simple inspec-ción. Tradicionalmente, una vez propuesto el reactivo se requiere someterlo a un proceso de calibración empleando para ello muestras de sujetos hacia los que va dirigido. Ello con el fin de estimar su complejidad, la cual juega un papel importante en el proceso de adminis-tración de la evaluación. Estas son algunas de las dificultades que se encuentran cuando se propone una solución al problema de sobre-exposición. Por ello, algunas investigaciones recientes sobre el tema han propuesto que los reactivos se generen en forma automática [Real, 1999] lo que conduce a otros problemas como veremos en la siguiente sección.

“La solución al problema de sobreexposi-ción es crucial, ya que con ello se evita que un mismo reactivo sea expuesto más allá

de lo debido”.

Solución

La generación automática de reactivos para evaluadores adaptables computarizados es un área relativamente reciente y consiste en crear automáticamente reactivos a través de determinados algoritmos; debiendo men-cionar que en la construcción automática de cada reactivo se considera que está com-puesto de una pregunta y de un área para responderla.

Más importante aún es que a cada reactivo generado automáticamente se le indique su complejidad y otros parámetros sin la nece-sidad de calibrarlo mediante muestras apli-cadas a evaluandos reales. Es decir, estos pa-rámetros deben ser obtenidos mediante un modelo matemático que señale de manera precisa las capacidades cognitivas que inter-

Page 50: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200950

Investigación y Enseñanza

vienen en la solución del reactivo. Ya durante el proceso mismo de una evaluación especí-fica, estos parámetros se integran en un mo-delo matemático, generalmente probabilista, que controla las respuestas del examinando.

Las capacidades cognitivas que se necesitan en la solución de un reactivo dependen mu-cho del área que se evalúa. Esto lo demues-tran los diferentes resultados que se han obtenido en la construcción y aplicación de modelos cognitivos para solucionar proble-mas aritméticos y de análisis lógico [Real, 1999; Revuelta 1998].

Nuestro trabajo propone una forma de espe-cificar las capacidades cognitivas requeridas en la solución de reactivos que buscan eva-luar la habilidad para determinar la validez de proposiciones lógicas formales que tienen una estructura en la que intervienen a lo más dos proposiciones simples (negadas o no) y a lo más dos operadores lógicos. Se trata de proposiciones simples que están ligadas por combinaciones de a lo más dos operadores de conjunción, disyunción, implicación, re-ducción o equivalencia. Por ejemplo, la si-guiente es una proposición de este tipo

(Cristóbal Colón era italiano) (España dominó parte de América) (México está en el continente americano).

El modelo cognitivo de la validez de una pro-posición lógica necesariamente debe especi-ficar los pasos que hipotéticamente sigue el evaluando al determinar el valor de verdad de la proposición. Esta interpretación en nuestro análisis particular está en correspondencia con el concepto general de modelo mental, con el cual se intenta explicar, a través del proceso de pensamiento, el comportamiento real del su-jeto cognitivo [Rickheit,1999]. Bajo este esque-ma se supone entonces que todos los sujetos siguen el mismo proceso de pensamiento para solucionar el problema de interpretación de una proposición lógica. Por ejemplo, consi-deremos el problema de interpretar correcta-mente una proposición negada.

Si la proposición es verdadera, entonces su negación es falsa, mientras que si la propo-sición es falsa, entonces su negación es ver-dadera, el modelo cognitivo en este caso es aparentemente simple. El problema se com-plica un poco cuando la proposición negada interviene en una proposición compuesta de la forma p ■ q, donde el símbolo ■ puede ser cualquiera de los operadores que hemos se-ñalado líneas arriba.

“El modelo cognitivo de la validez de una proposición lógica necesariamente debe

especificar los pasos que hipotéticamente sigue el evaluando al determinar el valor

de verdad de la proposición.”

Es evidente que la interpretación de una pro-posición así debe incluir ahora consideracio-nes acerca de jerarquías de operadores; es de-cir, ¿qué operadores se deben evaluar primero que otros? Esta situación es ilustrada por la Figura 3. Nuestra propuesta de modelo cogni-tivo está fuertemente influenciada por el mo-delo cognitivo asociado a la solución de ope-raciones aritméticas básicas e introducido por diferentes investigadores [Real,1999; Revuelta, 1998; L. J. Jauregui, 2002]. Resulta particular-mente importante que la presencia de opera-dores en la expresión aritmética y el manejo de los signos sobre los operandos se hayan in-cluido en los modelos cognitivos propuestos por estos investigadores, aunque se soslaya el concepto de jerarquía de operadores debido a que las expresiones contienen sólo uno.

Figura 3. Interpretación de proposiciones negadas que son operandos de alguno de los operadores binarios: conjunción, disyunción, implicación, reducción o equi-valencia. La negación tiene mayor jerarquía.

Page 51: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200951

Investigación y Enseñanza

Nuestra propuesta de modelo cognitivo su-pone que en la interpretación de una pro-posición intervienen varios tipos de cono-cimientos, suposición que también hacen otros autores cuando se trata de resolver problemas aritméticos con números enteros positivos [Real,1999]; a saber:

1. Diferenciación de los operadores proposi-cionales; es decir, distinguir cuándo interviene o no alguno de ellos. Con esto se considera que cada operación tiene asociada una dificultad diferente. Por esta razón, la enumeración de rasgos del problema debe incluir la existencia o no de los operadores ya señalados.

2. El conocimiento de las restricciones asocia-das a los rasgos distintivos del problema sus-tenta la verificación de inclusión de la nega-ción en los operandos, y si la proposición que actúa como operando de esta negación es verdadera o falsa. Asimismo, el procedimien-to de una interpretación varía dependiendo del número de operandos que participan en la proposición, y lo mismo sería en el manejo de las prioridades de los operadores.

“Nuestra propuesta de modelo cognitivo supone que en la interpretación de una proposición intervienen cuatro tipos de

conocimientos”.

Consideramos que estas son razones más que suficientes para que en la enumeración de rasgos del problema se incluya el grado de conocimiento requerido para poder interpre-tar una proposición simple, el conocimiento de las prioridades de los operadores partici-pantes, así como el número de operandos.

Finalmente, el conocimiento relativo a los al-goritmos que definen los pasos que condu-cen a la solución del problema se encuentra relacionado con el conocimiento previo que el evaluando tiene sobre el tema de interpre-tación de proposiciones lógicas y tiene que ver con las diferentes etapas de los procesos señalados en la Figura 1 y 2.

Figura 4. Proceso seguido en la interpretación de una proposición compuesta en la que participa un operador binario. La proposición en paréntesis es un proceso alterno que puede ser seguido por el examinando. Se supone que previamente se han interpretado las negaciones en las proposiciones, tal y como lo señala esta figura.

Page 52: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200952

Investigación y Enseñanza

En resumen, el vector de rasgos o característi-cas para cada problema de interpretación de una proposición tiene dieciocho componen-tes y ello se indica de la siguiente forma: (ope-radores, prioridades, número de operandos, interpretaciones), en donde cada componen-te está definida a su vez por componentes bi-narias (0,1), indicando la presencia o ausencia del rasgo distintivo.

Así, operadores es el vector (negación, con-junción, disyunción, implicación, reducción, equivalencia), y la presencia de un cero o un uno en cada componente es indicio de la au-sencia o presencia de la operación en la pro-posición. Análogamente, prioridades consis-te de cinco componentes, la primera señala la presencia de operandos simples, la segunda de operandos negados, la tercera la presen-cia de conjunciones, la cuarta la presencia de disyunciones y la quinta de implicaciones, re-ducciones y equivalencias.

“El vector de rasgos o características para cada problema de interpretación de una

proposición tiene dieciocho componentes”.

El vector número de operandos consiste a su vez de tres componentes, cada una seña-lando si existen uno, dos o tres operandos, y finalmente el vector interpretaciones tie-ne cuatro componentes, la primera indica el nivel de conocimiento lógico, la segunda señala el nivel de cultura general, la tercera el conocimiento general tomando en cuenta su historial académico, y finalmente la cuar-ta determina el conocimiento específico de

un área ajena a la del examinado. Como un ejemplo, consideremos los siguientes proble-mas de interpretación y sus correspondien-tes vectores de características.1. La proposición p es dada por “El elemento neón es su estado natural es un gas”. Interprete ~p. En este caso el vector de características es ( 1 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 1 0 ) e indica que existe un operador de negación cuya priori-dad es necesario conocer cuando se aplica a un solo operando que es una proposición sim-ple que requiere conocimiento específico.2. Las proposiciones p, q y r son respectivamen-te dadas por “El metalenguaje es un lenguaje que explica otro lenguaje”, “El elemento neón en su estado natural es un gas” y “Gran Bretaña es miembro de la Comunidad Europea”. Interprete la proposición p←q~r. Aquí, el vector es ( 1 1 0 0 1 0 1 1 1 0 1 0 0 1 0 1 1 0 )el cual señala que en el problema aparecen ope-radores de negación, conjunción, y reducción aplicados sobre tres proposiciones simples y no simples que se construyen con conocimientos sobre lógica, conocimiento de acuerdo al nivel académico y conocimiento específico. Se re-quiere además que el evaluado conozca acerca de las prioridades de operadores.

Validación del modelo

El modelo se validó parcialmente aplicán-dolo a 77 estudiantes de tercer cuatrimestre de nivel Técnico Superior Universitario de la Carrera en Tecnologías de la Información y Comunicación de la Universidad Tecnológica de Xicotepec de Juárez, localizada en la Sierra Norte del Estado de Puebla. Cabe mencionar

Figura 5. Vista panorámica de la Universidad Tecnológica de Xicotepec de Juárez, en el estado de Puebla.

Page 53: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200953

Investigación y Enseñanza

que de los 77 alumnos, 37 con mujeres cuyas edades oscilar entre los 19 y 21 años y 40 va-rones de edades muy similares. La validación parcial consiste principalmente en cotejar las similitudes que los evaluandos asignan a cada reactivo (similitudes entre los vectores de rasgos o características) con las similitudes que el modelo predice.

Al mismo tiempo que se realiza la evaluación, se le solicita al evaluando que conteste un cuestionario en donde se le pregunta acerca de qué rasgos (dentro del conjunto de diecio-cho características ya señaladas arriba) cree que se requieren para solucionar un reactivo específico. Puesto que los métodos estadísti-cos para poder hacer el cotejo entre lo dicho por los evaluandos y lo predicho por el mode-lo difieren, un buen resultado debe mostrar solamente una correlación aceptable entre ambas medidas. Muestra la correlación que existe entre las proximidades proporcionadas por los evaluandos (eje vertical) y la predicha por el modelo cognitivo (eje horizontal).

Ambos ejes señalan las distancias entre reactivos, aunque medidas con diferentes métricas. Lo que se espera es que los eva-luandos agrupen de la misma forma en que lo hace el modelo cognitivo y esto se corro-bora a través de la correlación entre ambas medidas, que en una primera aproximación (correlación lineal) resulta aceptable.

Figura 6. Laboratorio de Cómputo de la UT de Xicote-pec de Juárez, lugar donde se realizó la experimenta-ción del modelo cognitivo.

Figura 7. Correlación entre proximidades de muestra y proximidades predichas por modelo cognitivo.

Page 54: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200954

Investigación y Enseñanza

“El modelo se validó parcialmente aplicán-dolo a 77 estudiantes de tercer cuatrimes-

tre de nivel TSU de la Carrera en Tecnologías de la Información”.

Conclusiones

La validación parcial del modelo cognitivo tiene que ser completada por medio de una calibración de los reactivos a la manera que tradicionalmente se hace en evaluación adap-table computarizada. Los parámetros de com-plejidad, entre otros, por cada reactivo, deben mostrar también una fuerte correlación con los determinados por el modelo cognitivo a través del denominado modelo componencial, el cual toma en cuenta a los rasgos de un reacti-vo específico para determinar su complejidad. Este es un trabajo que resta por hacer.

Referencias

1.-Chen Shu-Ying, Ankenmann Robert D. & Spray Judith A. (1999). “Exploring the Rela-tionship between Item Exposure Rate ans Test Overlap Rate in Computerized Adaptive Testing”. American Coll. Testing Program Iowa City, IA. No. 1999-09-00. 34pp.

2.-Gert Rickheit & Christopher Habel (1999), ”Advances in Psychology, Mental Models in Discourse Processing and Reasoning”. Elsevier Science Ed.

3.-Jáuregui, L. (2002), “Formulación y valida-ción de un modelo logístico lineal para la ta-rea de adición y sustracción de fracciones y números mixtos”, Psicothema 14, nº 4 (2002): 802 - 809.

4.-La Jornada. (2007), “Se reciben resultados sin ‘‘autocomplacencias’’: SEP México, último en educación en países de OCDE”, Diario La Jornada, 05 de Diciembre de 2007, México D.F. Año 24. Númeo 8368.

5.-Real, Eulogio (1999),”Análisis de la dificultad de un test de matemáticas mediante un modelo componencial”, Psicológica, nº 20 (1999): 121- 134.

6.-Revuelta, Javier y Ponsoda, Vicente (1998), ”Un test adaptativo informatizado de análisis lógico basado en la generación automática de ítems” Psicothema 10, nº 3 (1998): 709-716.

Emma Lucio Martínez trabaja actualmente en la Carrera de T.S.U. en Tecnologías de la Información y Comunicación de la Universidad Tecnológica de Xicotepec de Juárez (TIC - UXTJ) en el estado de Puebla, en donde se desempeña como profesora de tiempo completo; se encuentra concluyendo su tra-bajo de tesis de posgrado dentro de la Universidad Autónoma del Estado de Hidalgo.

[email protected]

Joel Suárez Cansino trabaja en el Centro de In-vestigaciones en Tecnologías de Información y Sis-temas de la Universidad Autónoma del Estado de Hidalgo (CITIS- UAEH), donde se desempeña como profesor–investigador impartiendo cátedras a nivel licenciatura y maestría. Su grado de doctor en ma-temáticas lo obtuvo en la Universidad de Warwick, Inglaterra; fue director del centro de investigación mencionado, también trabajó en diferentes insti-tuciones como el Instituto Mexicano del Petróleo, la Universidad Autónoma de Baja California Sur, la Universidad Anáhuac/Tecamachalco y el Instituto Tecnológico de La Paz.

Page 55: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200955

Entrevista

“El universo es una fuente de sabiduría e inagotable fuente de cuestionamientos

para un científico”.

Gracias a un eclipse de luna, el Dr. Guillermo Tenorio Tagle, reconoce que se decidió a es-tudiar Astronomía, lo cual representa para él la oportunidad de conocer el universo y brindar a los niños y jóvenes la posibilidad de conocer lo maravilloso del cosmos y así inspi-rarlos en el estudio de diversas ciencias.

Después de una vida de estudio y oportunida-des, el Dr. Guillermo Tenorio Tagle, ha realizado diferentes actividades astronómicas y ha puesto en alto el nombre de México en el mundo desa-rrollando diversas actividades, algunas de ellas directivas, pero la más apasionante de todas, la docencia, que le ha permitido dejar un legado con sus jóvenes estudiantes.

Con más de 200 artículos en revistas especializa-das, congresos, boletines, artículos para prensa, programas de radio y televisión alrededor del mundo, Guillermo Tenorio Tagle pretende que el público en general perciba lo grandioso que

es el universo. Cree que la mejor manera de lo-grarlo es a través de la interacción y discusión de diversos temas.

Guillermo Tenorio Tagle

Entrevista: Graciela Juárez GarcíaRedacción: Gabriela Patricia Flores Ancona

Entrevista

Figura 1.- Dr. Guillermo Tenorio Tagle.

Page 56: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200956

El Dr. Tenorio Tagle menciona que como astró-nomo está tocando el universo y que le gustaría que la gente pudiera verlo como lo hace él, por lo que le fascina poder escribir y publicar artícu-los, que promuevan el acercamiento al conoci-miento del cosmos.

“De mi infancia recuerdo que sabíamos que iba a haber un eclipse de luna, pensé en

quedarme a verlo, pero mi padre salió al patio y se dio cuenta que tenía la luz prendida, era muy tarde y al otro día había escuela, me re-gañó de tal manera que me perdí el eclipse “.

El significado del Universo

Lo que se está haciendo en Astrofísica, según el Dr. Tenorio Tagle es muy poco porque los avan-ces son totalmente desconocidos y los astróno-mos son una pequeña comunidad, en México

existen entre 120 y 140 astrónomos, uno por cada millón de habitantes; obviamente conoce-dores de muchas cosas que quisieran que todo mundo supiese.

Lo más interesante para el Dr. Tenorio Tagle es la manera en que se forman las estrellas, ya que los supercúmulos estelares cuentan con varios millones de soles como el nuestro, que están juntos en un pequeño volumen, lo que es tras-cendental para la Astronomía porque se puede deducir que todos esos soles se formaron al mismo tiempo.

Su Trabajo

El Dr. Guillermo Tenorio se ha dedicado a la in-vestigación en Astrofísica, a la formación de recursos humanos, y a la divulgación de las ciencias. Su trabajo científico se centra en el mo-delado numérico de fenómenos astrofísicos, en particular en aquéllos que ocurren en el medio interestelar y durante la formación estelar en “galaxies”. Dentro de su trabajo se destacan 5 áreas de investigación que han tenido repercu-sión a nivel internacional.

Ha realizado trabajos sobre la evolución hi-drodinámica de las regiones ionizadas, des-prendiéndose de esta rama el famoso “Mo-delo Champagne” al que haremos referencia en otro apartado; además realizó estudios so-bre la colisión de nubes con discos galácticos lo que le permitió explorar un nuevo campo de investigación en el mundo; un tema más de sus estudios es “large-scale expanding superstructures in galaxies”; artículo muy ci-tado por contener el marco conceptual para explicar las enormes estructuras generadas en galaxias por la actividad estelar.

Conocida también es su contribución sobre la dispersión y mezcla de elementos pesados, re-sultado de explosiones de múltiples superno-vas, con el medio interestelar.

Una contribución más al campo de la Astro-física es su investigación sobre el volumen galáctico y los cambios de fase que sufren los elementos pesados en su inyección, y

Figura 2.- La Luz Con el tiempo Dentro, Guillermo Te-norio Tagle

Entrevista

Page 57: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200957

por último la interpretación de los diferen-tes perfiles que muestra una línea resonan-te de Lyman Alpha. Todos estudios de gran relevancia e importancia para el campo de la Astronomía y a los cuales hacen referencia otros astrónomos en sus trabajos.

Modelo Champagne

El Modelo Champagne, explica cómo fun-ciona el gas que está alrededor de las estre-llas más grandes que el sol. La teoría expo-ne como la energía de una estrella masiva, calienta el gas a su alrededor y hace que se expanda y disperse a grandes velocidades. Similar al destape de una botella de Cham-pagne cuando por descuido se escapa el pre-ciado líquido. Este modelo creado en 1979, por el Dr. Guillermo Tenorio Tagle es mun-dialmente reconocido y se recoge en varios libros de texto, investigación y docencia uni-versitaria; en distintos idiomas y tiene más de 400 citas en artículos reconocidos en el banco de datos de la NASA (ADS), aunque en ocasiones el término no es asociado a su au-tor, es parte del argot astronómico, haciendo referencia a lo explicado por Tenorio Tagle en 1979. El modelo es ampliamente recono-cido, con más de mil 500 citas en Google.

La Astronomía en México y el GTM, según el Dr. Guillermo Tenorio Tagle

Preguntándole al Dr. Tenorio Tagle por el Gran Telescopio Milimétrico (GTM), nos comentó que para poder verlo en funcionamiento, en primer lugar hay que poner la máquina a pun-to; ya que el GTM es un gran plato de 50 m de diámetro que forma una parábola casi perfec-ta, con un error máximo, en todas direcciones, del orden de las 20 micras; esto es un gran reto para México, ya que la mayoría de las partes del telescopio se han hecho aquí, lo que be-neficiará a la Astronomía y a la industria que comenzará a explotar este rubro.

Por otra parte el astrónomo cree que es nece-sario un grupo científico, que se requiere de jóvenes expertos, que sepan manejar el GTM y sacarle todo el provecho posible; en cuanto

este grupo sea formado deberá estar armando propuestas de observación, haciendo simula-ciones (qué puede pasar, cómo va a pasar); quizás con un poco de suerte y la financiación correspondiente pueda lograrse que el GTM, entre pronto en funcionamiento.

Metas

El Dr. Tenorio Tagle comenta que tiene retos todos los días, y dice que en casa le dicen que se parece a Dr. House, porque a diario debe ver la manera de solucionar un problema; para él es todo un desafío resolver problemas con muchas variables. El poder llegar a entender y saber, qué ocurre aun con pequeñas fluctua-ciones en cualesquiera de sus variables.

Otra de sus metas es llevar a sus alumnos al éxito, a que escriban artículos científicos en revistas que tengan un verdadero impacto, desea que quede tácito en la literatura que los jóvenes mexicanos escriben artículos de alto nivel en revistas internacionales.

“Me encuentro lleno de energía y con mu-chos proyectos, disfruto de estar rodeado de excelentes colaboradores y en particu-lar de los más jóvenes; me encanta buscar nuevas rutas, nuevos temas y nuevas solu-ciones, así que pretendo extender el campo

de mi carrera en todos sus aspectos.”

Figura 3.- Gran Telescopio Milimétrico.

Entrevista

Page 58: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200958

Entrevista

Guillermo Tenorio Tagle

Nació en la Ciudad de México el 27 de mayo 1947, tiene 61 años.

Estudio física en la Universidad Nacional Autónoma de México (UNAM), 1967 - 1972.

Llevó a cabo su Doctorado en “Victoria University of Manchester”, Inglaterra. 1973 - 1975.

Realizó una estancia en el MAX Planck de Alemania, de 1976 a 1979.

En 1979 se convirtió en investigador del Observatorio Europeo Austral, ubicado en Ginebra, Suiza.

De 1981 a 1990 fue jefe del Grupo de Medio Interestelar y Formación de Estrellas en el Instituto Max Planck de Astrofisica.

Las líneas de Investigación que ha realizado son:• Hidrodinámica Radiactiva.• Astrofísica.• Propagación y evolución de frentes de

ionización y de ondas de choque.• El transporte radiactivo, la fotoionización,

la ionización colisional, el enfriamiento radiactivo, el potencial gravitatorio.

Sus publicaciones más recientes son:• “La formación de Galaxias”, que formará

parte de “Siete Problemas de Astrono-mía”, publicación conmemorativa de los 60 años del Colegio Nacional.

• “La Luz con el Tiempo Dentro” que ha escrito en colaboración con la Dra. C. Mu-ñoz Tuñón de la colección La Ciencia para Todos. Fondo de Cultura Económica.

Graciela Juárez García es Licenciada en Comu-nicación por la UPAEP. Su labor profesional abar-ca el desarrollo de programas de televisión en Televisa- Puebla. Actualmente se desempeña en el Departamento de Comunicación Social de la BUAP y colabora en actividades de vinculación y divulgación en el CONCYTEP.

[email protected]

Gabriela Patricia Flores Ancona es Licenciada en Comunicación por la BUAP, estudió un Más-ter en Comunicación Audiovisual, en España. Su actividad profesional comprende el desarrollo de videos educativos, transmisiones en internet y vi-deoconferencias en la DGIE-BUAP.

Además colaboró en el departamento de noticias de Antena 3 en Madrid, actualmente imparte cla-ses en la Facultad de Comunicación de la BUAP y colabora en el CONCYTEP.

Figura 4.- La Formación de Galaxias, Dr. Guillermo Tenorio Tagle.

Page 59: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200959

La poesía del Universo, presenta una ex-ploración matemática del cosmos, escrito por Robert Osserman y editado por CONA-CULTA y el INAOE como parte de los feste-jos del Año Internacional de la Astronomía.

La edición mexicana de la Poesía del Universo es una publicación revisada y actualizada de la primera edición de 1995. Contiene un nuevo prólogo escrito por el Profesor Robert Osser-man, especialmente para esta edición. La acom-paña un ensayo del Profesor George Smoot, ti-tulado La Época Dorada de la Cosmología que

ha sido publicado en la revista Letras Libres de junio de este año: (http://www.letraslibres.com/ index.php?art=13879), donde Omar Ló-pez Cruz, colaboró con la traducción al español.

La obra, “recoge el devenir de las principales ideas matemáticas que han permitido a los as-trónomos dar cuenta de la forma del Universo, por lo que aquí aparecen algunos de los más au-daces pensadores matemáticos… cuyas ideas, a menudo sus vidas, deleitarán al lector, pues Robert Osserman logra transmitir la emoción y el poder de las ideas matemáticas que con-forman el núcleo de la cosmología moderna”.

La Poesía del Universo trata de explicar la evo-lución de los conceptos matemáticos que ayu-dan a entender el mapa de las fluctuaciones del fondo de radiación cósmica generado con Cosmic Background Explorer (COBE) que se pu-blicó en 1992. El Profesor George Smoot dirigió el experimento que midió tales fluctuaciones (con amplitudes de 18 micro Kelvin), dicho tra-bajo le mereció el Premio Nobel de Física en 2006. Este mapa es fundamental para la cosmo-

Reseña:

La Poesía del Universo

Omar López y Raúl Mújica

Figura 1.- Edición mexicana de la Poesía del Universo.

Figura 2.- Robert Osserman, autor del libro: La Poesía del Universo.

Reseña

Page 60: Netzahualcoyotzi 2009, Saberes Compartidos[1]

200960

logía porque marca las zonas que darán origen a la estructura de gran escala del universo. Las fluctuaciones son la semilla donde se genera la evolución cósmica que culmina con la genera-ción de vida en el universo.

Robert Osserman se doctoró en matemáticas por la Universidad de Harvard y posteriormen-te se incorporó a la Universidad de Stanford, donde hoy es profesor emérito. Se ha dedicado al estudio de la teoría geométrica de funciones y la geometría diferencial, combinando ambas en la teoría de superficies mínimas. Desde 1993 ha transitado cada vez más sobre el camino de la divulgación de la ciencia, rama en la cual ha co-laborado con el dramaturgo Tom Stoppard. Un curso de Stanford dedicado a la difusión de ideas matemáticas dio lugar a “La poesía del univer-so”, que se ha traducido a más de diez idiomas.

“La Poesía del Universo es una invitación a ce-lebrar el Año Internacional de la Astronomía”.

Omar López Cruz, investigador del INAOE, obtuvo la Licenciatura en Física del IPN y los grados de Maes-tría, Doctorado y Posdoctorado en Astrofísica de la Universidad de Toronto, Canadá. Experto en el estu-dio de la formación y evolución de las galaxias en las aglomeraciones llamadas cúmulos de galaxias. Ha desarrollado técnicas para la búsqueda de cúmulos de galaxias en grandes bases de datos. Su trabajo ha sido reconocido por varias universidades e institu-ciones internacionales.

[email protected]

Raúl Mújica García, realizó su doctorado y maes-tría en Ciencias con la especialidad en Astrofísica en el INAOE; su investigación se basa principalmente en Núcleos Activos de Galaxias Surveys, su proyecto más reciente es el Tráiler de la Ciencia.

Figura 3.- Cosmic Background Explorer (COBE) 4-year map of the Cosmic Microwave Background (CMB).

Figura 3.- Portada de la Poesía del Universo, edición en inglés, Robert Osserman.

Reseña

Page 61: Netzahualcoyotzi 2009, Saberes Compartidos[1]
Page 62: Netzahualcoyotzi 2009, Saberes Compartidos[1]