ciencia periodico
DESCRIPTION
Que es la ciencia, y aplicaciones de la misma en méxicoTRANSCRIPT
La Ciencia en México
RESUMEN
Hoy en día el desarrollo tecnológico en el mundo está supeditado al conocimiento y su aplicación para un bien de consumo. Los países desarrollados mantienen control sobre la producción bienes y aseguran mantener el liderazgo para el desarrollo de sus países. En la actualidad, los países en desarrollo tienen la necesidad de importar tecnología y bienes de consumo lo cual genera costos elevados y nula competitividad, el reto consiste en competir en producción e importación de bienes de consumo y lo que es mas importante la transferencia tecnológica al mundo teniendo control con las patentes de los desarrollos generados. Es importante que los países como México inviertan mas recursos económicos en el rubro de ciencia y tecnología para dejar de depender y comenzar a mostrarle al mundo la capacidad capital científico intelectual y tecnológico con el que contamos. Nuestro gobierno debe considerar prioritario mayor inversión en este rubro que de no ser así, seguiremos dependiendo de la tecnología extranjera y seguiremos teniendo fuga de capital científico intelectual.
La importancia de la ciencia en Nuestro País
Los país desarrollados están a la vanguardia en ciencia y la tecnología, ellos son los que deciden y venden su desarrollo científico y tecnológico a países que se encuentran en vías de desarrollo haciéndonos dependientes de ello y esto, a cualquier país que tenga que comprar tecnología le cuesta dinero.
Existen muchos productos que se pueden ver en el mercado Mexicano y que pueden consumirse a diario que tiene patentes extranjeras como es el caso de un café soluble muy conocido aquí, el cual su patente se encuentra en Suiza, el famoso auto que se conoció en sus inicios como escarabajo vendiéndose en gran cantidad en México y en el Mundo el cual la patente esta en Alemania, los medicamentos son otro ejemplo claro de productos y así podemos citar un gran número de productos que resultan de un desarrollo tecnológico por el cual hay que pagar regalías debido a la patente que presentan.
Por ello es importante que el gobierno de nuestro país se preocupe e invierta en hacer ciencia generando un bien de salud o consumo y poder competir.
La capacidad de crear Tecnología y presentarla al Mundo.
México tiene la capacidad intelectual científica y los recursos naturales necesarios para despuntar en el área científica-tecnológica.
México tiene la capacidad de innovar, tiene la capacidad crear y mostrar al mundo desarrollo tecnológico mexicano. Prueba de ello tenemos al Ing. Guillermo González Camarena quien a los 17 años construye su primera cámara de televisión y a los 23 años patenta el sistema de color incluido en las televisiones. Otro ejemplo es el caso del Ingeniero José de la Herran que desde adolescente, junto a su padre diseñaron y construyeron más de 100 radiodifusoras en todo el país como por ejemplo la XEW y la XEQ.
Actualmente el país tiene talento, que hay fuga de cerebros, es cierto, que no hay el suficiente apoyo económico como se requiere para realizar investigación, es cierto. Pero lo que no podemos negar es que el talento existe. Existen muchos científicos Mexicanos que con todas las limitaciones económicas se encuentran aportando sus conocimientos en logros de desarrollo científico tecnológico para bien de la humanidad.
Estos científicos contemporáneos están poniendo el nombre de México en alto a nivel internacional.
Cuando escuchamos en la televisión hablar de las nanotecnologías y el avance revolucionario que ésta traerá con bienes a la humanidad, detrás de ella hay científicos mexicanos trabajando como son el “Dr. Humberto Terrones Maldonado” IPICYT de San Luís Potosí, El “Dr. Víctor Castaño Meneses” CFATA Querétaro. Con relación a los trabajos de Células madre tenemos las aportaciones del Dr. Eduardo Gómez Conde, jefe del Laboratorio de Investigación en Biología Celular y Patología Experimental de la Facultad de Medicina de la BUAP donde obtienen las primeras células madres de la medula ósea para ser aplicados a pacientes con problemas de leucemia. En lo que respecta a la clonación, en el Instituto de Fisiología Celular de la UNAM, el doctor Luís Alfonso Vaca y su equipo de investigación, realizan exitosamente clonación de genes en microorganismos para fines médicos.
A todo esto si le aunamos que nuestro país goza de una gran infinidad de recursos naturales poco explotados o mal explotados y que aplicándoles desarrollo tecnológico podemos conferirle a este recurso natural un valor agregado para bien de consumo.
Por todo esto, México tiene potencial de intelecto científico y además tiene los recursos naturales a la mano.
Importancia sobre la Inversión en capital intelecto científico en nuestro País.
Como bien lo dice el Dr. René Drucker coordinador de investigación científica de la UNAM. Lamentablemente, la ciencia nunca ha sido prioridad para ningún gobierno en nuestro país, la ciencia ha sido una actividad tolerada a la cual se le ha asignado un presupuesto insuficiente pese a ello se ha mantenido a cierto nivel pero con ciertas insuficiencias.
Mientras que el gobierno de México continúe con esta política seguiremos teniendo la necesidad de importar desarrollo tecnológico y seguirá la fuga de cerebros, fuga de talento mexicano y estaremos viendo pasos cortos en el avance de esta materia. Mientras que en los países desarrollados como Estados Unidos, Alemania, Japón, Inglaterra invierten un poco mas del 2% del producto interno bruto en ciencia y desarrollo tecnológico. Hasta el 2003, México ha logrado invertir solo hasta el 0.44% por este concepto (Ver Tabla A).
Una solución a este problema es que el gobierno tome en cuenta a la ciencia y tecnología dentro de su política con mayor interés de apoyo, priorizándolo como un elemento fundamental para el desarrollo del país. Esto quiere decir que se debe incluir dentro del plan de desarrollo nacional a la ciencia y tecnología como pilar fundamental de crecimiento. De no ser así México estaría destinado a seguir dependiendo de la compra de tecnología extranjera y lo mas lamentable hasta de tener que importar alimentos básicos como se está haciendo ya actualmente. A la llegada de la nueva administración del Lic. Felipe Calderón en nuestro país se especuló que la inversión en ciencia y desarrollo sería por debajo del 0.40% . Con el nuevo gobierno en México y la nueva estructura en la cámara de Senadores y diputados, se podría lograr mayor apoyo económico a la investigación Esta es una parte complicada ya que se debe convencer a los partidos políticos para lograr incrementar el presupuesto en ciencia y tecnología al 1% del PIB lo cual significan 10 mil millones de pesos para este
sector lo cual no representaría una carga fiscal para el país. El convencimiento al estado estará sujeto a generar un compromiso de entrega de resultados y en la medida que esto se dé también se tendrá que ir expandiendo el sistema científico nacional (incrementar el numero de científicos a nivel nacional).
Especialistas del Instituto Nacional de Cancerología (INCan), Instituto Nacional de Nutrición “Salvador Zubirán, la UNAM, el Centro Médico Nacional Siglo XXI y del hospital 20 de Noviembre iniciaron la primera investigación para conocer la incidencia de cáncer de ovario en el país, enfermedad por la cual mueren cada año hasta mil 500 pacientes.
La maestra en Ciencias Médicas, Flavia Morales Vásquez, una de las investigadoras, señala que el estudio comenzó hace un mes y en dos años estarán los resultados.
“Sabemos que a nivel mundial, este cáncer se presenta con mayor frecuencia en la séptima década de vida de las mujeres, pero los datos del instituto señalan que la edad promedio de las pacientes es de 54 años. “Esto llama la
atención y puede que en las mexicanas se presente en etapas más tempranas o responder a que el INCan es un lugar de concentración del país”.
Los objetivos del trabajo, dice la investigadora, son conocer si la población mexicana tiene factores de riesgo comparables a las otras comunidades en el mundo, como alimentación, hábitos y si hubo o no embarazos.
El estudio se titula “Características epidemiológicas del cáncer de epitelial de ovario en México”, y tiene como base los datos que se han recopilado en el INCan los últimos cinco años.
LA ENFERMEDAD. Morales Vásquez señala que cada año se registran entre dos mil 140 y dos mil 300 nuevos casos, pero no se verifica aumento desde el 2002. No obstante, subraya, la investigación podría arrojar otros resultados, porque en el instituto tenemos entre 100 y 150 casos nuevos al año, agrega
Explica que entre los cánceres, el de mama ocupa el primer lugar en incidencia, luego sigue el cérvico-uterino, el de tubo digestivo que son colon y estómago, y en cuarto el de ovario.
Señala que de 100 casos de cáncer de mama, el 80% de las pacientes tienen una sobre-vida de cinco años; en cambio, de 100 casos de cáncer de ovario, sólo viven el 50% en ese lapso de tiempo. “Al año mueren hasta mil 500 mujeres por esta enfermedad”.
Por falta de un método de diagnóstico temprano y eficaz, entre el 65 y 70 por ciento de los casos se
padecimiento. El INCan atiende cada año hasta 150 nuevos casos de cáncer de ovario.Foto:Archivo
detectan en etapas avanzadas, y si existiese la detección temprana se salvaría el 60% de las mujeres.
PREVENCIÓN. La especialista recomienda a las mujeres que si en su familia hubo casos de cáncer de ovario, de mama, porque hay una asociación muy fuerte entre ambos tumores, pueden ser factores de riesgo.
En cambio, si no existen estos antecedentes clínicos, pero sí hay síntomas persistentes como malestar intestinal, inflamación del abdomen, dificultad para digestión y evacuar, sangrado vaginal anormal o incluso bolita en la pelvis, es recomendable realizar un estudio de imagen de tórax para detectar el posible tumor.
Estos estudios se recomiendan que se realicen cada dos años después de los 40 años, si se tuvo antecedentes familiares con la enfermedad o si se tienen estos malestares en el abdomen.
Aunque no hay una detección oportuna de este cáncer, dice, se puede recomendar a las mujeres a que tengan una cultura de prevención y se realicen un chequeo general para la diabetes, síndrome metabólico, cáncer de mama, Papanicolau y estudios de imagen.
¿Cómo se Descubre o Inventa un Medicamento?
ALEJANDRO C. PALADINIInstituto de Química y Fisicoquímica Biológicas, (IQUIFIB), UBA-CONICET
La mayoría de la población mundial -el 64%- no utiliza productos de la industria farmacéutica para tratar sus enfermedades: recurre a derivados de plantas que el saber popular tradicional considera dotadas de propiedades curativas. Los científicos aprovechan tal saber para buscar productos con potencial terapéutico, tarea que nuevas tecnologías y avances en el conocimiento del modo de actuar de las medicinas están haciendo cada vez más eficiente. En la Argentina, el estudio de substancias presentes en la pasionaria y la
manzanilIa ha permitido encontrar compuestos cuyas propiedades farmacológicas podrían superar a las de los productos sintéticos con que se trata la ansiedad.
.................................................................................................................................................
Un medicamento o droga es una substancia usada con objetivos terapéuticas. Medicamento es, también, sinónimo de medicina, preparación farmacéutica empleada con igual propósito, y droga puede designar un producto adictivo tomado con fines intoxicantes. En la que sigue nos ocuparemos de substancias con propiedades útiles para tratar enfermedades y sólo utilizaremos las denominacianes droga y medicamento en ese sentido.
La industria farmacéutica atiende la salud del 36% de la población mundial (1900 millones de personas) con drogas sintéticas o descubiertas en productos naturales, mayoritariamente plantas. En esa empresa, moviliza más de cien mil millones de dólares por año. El resto de los habitantes del planeta (3800 millones) no tiene acceso a tales medicinas y utiliza regularmente, para tratar sus enfermedades, plantas con supuestas propiedades medicinales. Es así como existe un muy importante acervo tradicional de sabiduría popular, aprovechado por los sectores académico e industrial para descubrir y establecer el potencial terapéutico de productos naturales.
Un estudio realizado en 1985, que recibió apoyo de la Organización Mundial de la Salud, identificó 119 substancias, aisladas de plantas superiores, que los países desarrollados usaban en sus medicinas. Ese número de drogas todavía se extrae comercialmente de alrededor de 90 especies de tales plantas, pero, dado que existen más de 250.000 especies de ellas en el planeta, y que se ignora el potencial médico de, por lo menos, el 95%, el sentido común indica que numerosas substancias utilizables como medicamentos aún esperan ser descubiertas. La búsqueda sistemática de esta clase de compuestos en las plantas ha sido lenta, costosa y de bajo rendimiento. Por ejemplo, el National cancer Institute de los EE.UU. inició, en 1950, un programa de prospección de productos naturales con propiedades anticancerosas. Treinta y dos años después, en 1982, luego de haber examinado más de 35.000 compuestos provenientes de plantas, sólo había hallado el taxol, substancia compleja, aislada de la corteza del árbol Taxus brevifolia, con propiedades antitumorales y antileucémicas que la convirtiéron en medicamento apto para uso humano.
Flor de la pasionaria (Passiflora Coerulea)
Manzanilla (Matricaria Recutita)
En la actualidad, la búsqueda de productos naturales con atributos terapéuticos se ha acelerado mucho, aprovechando indicios proporcionados por ciertos grupos étnicos, que tradicionalmente asignan cualidades curativas a plantas y otros compuestos naturales (lo cual dio origen a la etnobotánica y la etnofarmacología). A ello se suman los avances en la automatización de las pruebas farmacológicas, que permiten realizar hasta cincuenta mil ensayos in vitro por mes, y el empleo, para identificar substancias activas, de receptores especificas y de cultivos de células. En todos los casos, lo que se busca es información sobre substancias activas llamadas líderes, las que luego se intenta transformar en drogas útiles sometiéndolas a modificaciones químicas.
La búsqueda de substancias con actividad biológica no sólo se hace en productos naturales sino, además, en familias de compuestos obtenidos por síntesis química. El procedimiento tiene, igualmente, bajo rendimiento: en la experiencia de la compañía farmacéutica Merck, de los EE.UU., para lograr un medicamento apto para uso humano, es necesario examinar más de 10.000 compuestos sintéticos. En promedio, ello demanda doce años de trabajo y tiene un costo de 300 millones de dólares (véase "Fármacos Naturales: ¿Cómo buscarlos y proteger la biodiversidad?", CIENCIA HOY. 33:33-38).
Hasta 1950, los procedimientos accesibles a los químicos para buscar drogas estaban limitados por el escaso conocimiento de los mecanismos moleculares de acción de los fármacos. En ese entonces, uno de uso frecuente consistía en utilizar reacciones químicas para producir compuestos heterocíclicos poco explorados. con la esperanza de que algunos tuvieran propiedades interesantes. A pesar de que ese enfoque logró algunos éxitos espectaculares, como la síntesis de las benzodiazepinas (ver "Invención de las Benzodiazepinas"), se lo utiliza poco ahora, pues la química medicinal actual se caracteriza por planificar cuidadosamente las estructuras a sintetizar, para obtener una familia de substancias análogas. Entre los procedimientos modernos, cabe mencionar el diseña específica y la química cambinatana, los dos más novedosos para la búsqueda de nuevas drogas.
Por su racionalidad, el diseño específico es intelectualmente el más atractivo. Se basa en el hecho de que las drogas ejercen su efecto uniéndose a determinadas moléculas biológicas; por ejemplo, a enzimas o a
receptores celulares. Dicha unión es posible porque, en sentido amplio, la composición química y la conformación (esto es, el arreglo en el espacio de los átomos) de la droga son complementarias de las de las moléculas biológicas. De ahí que, en teoría, conociendo la estructura de la molécula biológica a la que se debe vincular una droga para actuar, sea posible inferir cómo debe ser esta químicamente. Como las enzimas y los receptores son proteínas, el uso del diseño especifico debió esperar que, en la segunda mitad del siglo, se realizaran progresos en la purificación y determinación de las estructuras de las proteínas. Un temprano ejemplo de diseño específico, ya clásico, fue el desarrollo del inhibidor de la enzima conversora de la angiotensina, que culminó con la obtención de un medicamento de gran aplicación actual en el tratamiento de la hipertensión arterial (véase "Diseño Racional de un Medicamento: La Historia del Captopril"). En nuestros días, numerosas compañías farmacéuticas están usando este método para el diseño de drogas.
¿Qué es bioinformática?
Bioinformática es una disciplina científica emergente que utiliza tecnología de la información para organizar, analizar y distribuir información biológica con la finalidad de responder preguntas complejas en biología. Bioinformática es un área de investigación multidisciplinaria, la cual puede ser ampliamente definida como la interfase entre dos ciencias: Biología y Computación y esta impulsada por la incógnita del genoma humano y la promesa de una nueva era en la cual la investigación genómica puede ayudar dramáticamente a mejorar la condición y calidad de vida humana.Avances en la detección y tratamiento de enfermedades y la producción de alimentos genéticamente modificados son entre otros ejemplos de los beneficios mencionados más frecuentemente. Involucra la solución de problemas complejos usando herramientas de sistemas y computación. También incluye la colección, organización, almacenamiento y recuperación de la información biológica que se encuentra en base de datos.
Según la definición del Centro Nacional para la Información Biotecnológica "National Center for Biotechnology Information" (NCBI por sus siglas en Inglés, 2001):"Bioinformática es un campo de la ciencia en el cual confluyen varias disciplinas tales como: biología, computación y tecnología de la información. El fin último de este campo es facilitar el descubrimiento de nuevas ideas biológicas así como crear perspectivas globales a partir de las cuales se puedan discernir principios unificadores en biología. Al comienzo de la "revolución genómica", el concepto de bioinformática se refería sólo a la creación y mantenimiento de base de datos donde se almacena información biológica, tales como secuencias de nucleótidos y aminoácidos. El desarrollo de este tipo de base de datos no solamente significaba el diseño de la misma sino también el desarrollo de interfaces complejas donde los investigadores pudieran acceder los datos existentes y suministrar o revisar datos
Luego toda esa información debía ser combinada para formar una idea lógica de las actividades celulares normales, de tal manera que los investigadores pudieran estudiar cómo estas actividades se veían alteradas en estados de una enfermedad. De allí viene el surgimiento del campo de la bioinformática y ahora el campo más popular es el análisis e interpretación de varios tipos de datos, incluyendo secuencias de nucleótidos y aminoácidos, dominios de proteínas y estructura de proteínas.El proceso de analizar e interpretar los datos es conocido como biocomputación. Dentro de la bioinformática y la biocomputación existen otras sub-disciplinas importantes: El desarrollo e implementación de herramientas que permitan el acceso, uso y manejo de varios tipos de información El desarrollo de nuevos algoritmos (fórmulas matemáticas) y estadísticos con los cuales se pueda relacionar partes de un conjunto enorme de datos, como por ejemplo métodos para localizar un gen
dentro de una secuencia, predecir estructura o función de proteínas y poder agrupar secuencias de proteínas en familias relacionadas."
La Medicina molecular y la Biotecnología constituyen dos áreas prioritarias científico tecnológicas como desarrollo e Innovación Tecnológica. El desarrollo en ambas áreas están estrechamente relacionadas. En ambas áreas se pretende potenciar la investigación genómica y postgenómica así como de la bioinformática, herramienta imprescindible para el desarrollo de estasDebido al extraordinario avance de la genética molecular y la genómica, la Medicina Molecular se constituye como arma estratégica del bienestar social del futuro inmediato. Se pretende potenciar la aplicación de las nuevas tecnologías y de los avances genéticos para el beneficio de la salud. Dentro de las actividades financiables, existen acciones estratégicas, de infraestructura, centros de competencia y grandes instalaciones científicas. En esta área, la dotación de infraestructura se plasmará en la creación y dotación de unidades de referencia tecnológica y centros de suministro común, como Centros de Bioinformática, que cubran las necesidades de la investigación en Medicina Molecular. En cuanto a centros de competencia, se crearán centros de investigación de excelencia en hospitales en los que se acercará la investigación básica a la clínica, así como centros distribuidos en red para el apoyo a la secuenciación, DNA microarrays y DNA chips, bioinformática, en coordinación con la red de centros de investigación genómica y proteómica que se proponen en el área de Biotecnología. En esta área la genómica y proteómica se fundamenta como acción estratégica o instrumento básico de focalización de las actuaciones futuras.
Las tecnologías de la información jugarán un papel fundamental en la aplicación de los desarrollos tecnológicos en el campo de la genética a la práctica médica como refleja la presencia de la Bioinformática médica y la Telemedicina dentro de las principales líneas en patología molecular. La aplicación de los conocimientos en genética molecular y las nuevas tecnologías son necesarios para el mantenimiento de la competitividad del sistema sanitario no sólo paliativo sino preventivo. La identificación de las causas moleculares de las enfermedades junto con el desarrollo de la industria biotecnológica en general y de la farmacéutica en particular permitirán el desarrollo de mejores métodos de diagnóstico, la identificación de dianas terapéuticas y desarrollo de fármacos personalizados y una mejor medicina preventiva
CIENCIA Y TECNOLOGIA PREHISPANICAS
En las técnicas de construcción empleadas, para levantar, por ejemplo, la fortaleza de Sacsahuamán, siguen siendo un absoluto misterio, puesto que no conocían la rueda. Foto: el Heraldo de TabascoEl Heraldo de Tabasco30 de marzo de 2008
M. Ángel Córdova L.*
Ciencia en el mexico prehispanico
Tabasco, México.- No se ría, pero todavía hay muchos que creen a ciegas que la llegada de los españoles a América fue una bendición para los "pobres indios"; que los hombres blancos y bárbados trajeron con ellos no sólo la cruz y la espada, sino también la luz del conocimiento científico de la Europa del Siglo XVI.
El siguiente es un recuento mínimo de los avances que los pueblos americanos lograron en
diferentes áreas, mucho antes que los conquistadores pusieran un pie en esta tierra.
AGRICULTURA
Aunque el origen del maíz, tal y como se conoce hoy, sigue siendo un misterio para los investigadores, todo parece indicar que originalmente fue una planta silvestre que los agricultores americanos cruzaron y seleccionaron, hasta conseguir una variedad que sirviera como base de alimentación. Eso, aquí y en China se conoce ahora como biotecnología. Así, las mazorcas mexicanas, que en el año 3000 a.C. medían apenas 12 milímetros, crecieron con la ayuda del hombre hasta alcanzar los 15 centímetros hacia el año 1500 a.C.
Otro "invento" que las culturas precolombinas aportaron a la humanidad fue la papa o patata, originaria de los Andes, cuyos primitivos ejemplares, como los de otros tubérculos, apenas se parecían a los actuales. Desde las especies silvestres -venenosas y con mal sabor- hasta las variedades que hoy conocemos, hubo un largo trabajo de cruce y selección.
Sin disponer de aparatos mecánicos complejos, los primeros americanos drenaron pantanos, roturaron campos y construyeron canales. Los aztecas, por ejemplo, pasaron pronto de la quema de una pequeña área de tierra o milpa para la siembra justo antes de las lluvias, a la creación de chinampas, esos ingeniosos huertos permanentes sobre islotes flotantes, cuyo desarrollo requirió de un conocimiento científico notable.
Y qué decir de los canales construidos en el año 1400 a.C. por los incas de la costa andina, o de la fantástica agricultura desarrollada en la región del Lago Titicaca, situado en el altiplano, a 3 mil 800 metros sobre el nivel del mar, con 300 noches de heladas al año y oscilaciones térmicas diarias de más de 30 grados. No sólo adaptaron los cultivos a tan duras condiciones, sino que aprovecharon el escalonamiento de la montaña en pisos ecológicos diferentes, para crear huertos en terrazas con distintas variedades.
TEXTILES
Los primeros antecedentes tecnológicos de creación textil, consistentes en redes, bolsas y sogas hechas con fibras vegetales que eran retorcidas, enrolladas, trenzadas, anudadas y elaboradas a mano, se dieron hacia el año 8000 a.C. Luego, hacia el 5800 a.C., con la domesticación del algodón, se empezaron a elaborar las primeras telas, propiamente dichas. Después vendrían el lino y el empleo de lanas de alpaca y vicuña en los Andes.
Para tener una mejor idea del grado de adelanto tecnológico en materia textil, baste decir que, a la llegada de los españoles, los aztecas contaban con 13 diferentes tipos de tejidos y 53 clases de capas o esclavinas (capas cortas). Y así como ahora se fabrican chalecos antibalas, ellos elaboraban petos acolchados de algodón, que les servían como chalecos antiflechas.
MEDICINA
Otro de los campos del saber que habían alcanzado un notable desarrollo entre las civilizaciones americanas, a un nivel similar al de los pueblos euroasiáticos, era la Medicina. Mientras los europeos se regían por la teoría de los humores, de Galeno, la cultura médica prehispánica se basaba en una mezcla indisoluble de botánica, psicología y mitología, que buscaba el equilibrio de las personas con todo cuanto las rodeaba. Los antiguos americanos conocían las fiebres y los trastornos respiratorios y digestivos, así como algunos remedios, entre los que destacan laxantes, astringentes, vomitivos y antiinflamatorios. Empleaban el sauce como analgésico, y el "cacaloxóchitl" -flor de cuervo- como cicatrizante.
Algunas culturas alcanzaron un alto grado de especialización. Los incas, por ejemplo, tenían dos tipos de médicos: los "ichuri", que trataban las emociones (psicólogos), y los "callahuayas", curanderos itinerantes que administraban hierbas (homeópatas). Los mayas trataban las enfermedades mentales y conocían la existencia de una serie de enfermedades relacionadas con el coito (hoy llamadas de transmisión sexual) y que raramente eran graves.
INGENIERiA Y ARQUITECTURA
Los pueblos prehispánicos también brillaron en la Arquitectura e Ingeniería. Destacan las obras hidráulicas andinas y el desarrollo urbano de Tenochtitlan, fundada sobre un islote del Lago de Texcoco, con obras de drenaje, amplias calzadas y un largo acueducto de 5 kilómetros de piedra, que llevaba agua desde el Valle de Chapultepec.
En cuanto a las técnicas de construcción empleadas, para levantar, por ejemplo, la fortaleza de Sacsahuamán, junto a Cuzco, con sus piedras cúbicas de 5 metros de lado, unidas sin argamasa, pero entre las que no cabe ni un alfiler, éstas siguen siendo un absoluto misterio, puesto que no conocían la rueda (aunque algunos juguetes mayas presentan ruedas) ni máquinas asociadas, como grúas y poleas.
ASTRONOMiA
En términos generales, la ciencia y la tecnología estaban inmersas en el entramado religioso que les servía de soporte existencial. Debido a eso desarrollaron una ciencia astronómica sorprendente. Durante la época prehispánica, culturas como las de los Toltecas, los Mayas y los Aztecas, alcanzaron por la observación un conocimiento avanzado de los movimientos que los astros tienen en la bóveda celeste.
Aprovechando ese saber, desarrollaron los calendarios más precisos que el hombre confeccionó hasta el Siglo XVI, que fue, finalmente, cuando los europeos alcanzaron el mismo grado de exactitud. Esos pueblos también fueron capaces de predecir eclipses y supieron determinar las fechas en que diferentes estrellas brillantes serían visibles desde sus lugares de residencia, lo que les permitió planear correctamente sus actividades agrícolas y religiosas.
Los olmecas y, luego, los mayas, distinguieron las constelaciones de estrellas, elaborando calendarios bastante precisos a partir de su movimiento y el de los planetas. Conocían el
movimiento del Sol, la Luna y Venus, así como el momento en que iban a producirse los eclipses.
Hacia el 1200 a.C., los olmecas usaban ya un calendario sagrado de 260 días, de utilidad agrícola, que pasó luego a los zapotecas, a los mayas y a los aztecas, sucesivamente, hasta que estos últimos lo complementaron con otro calendario de ciclo largo o solar, de 360 días y 5 jornadas "huecas", consideradas nefastas.
La Piedra del Sol, labrada en el Siglo XV, es un calendario azteca que contiene tres cómputos: el año de 365 días o "xihuitl"; el ciclo sagrado de 260 días; y el año venusiano, de 584 días.
En cuanto a los incas, parece ser que no les importaba tanto el movimiento de las constelaciones como la evolución de las manchas oscuras que se distinguen en el firmamento, la más importante de ellas una situada en la Vía Láctea y conocida hoy como Saco de Carbón.
MATEMATICAS
En cuanto a las Matemáticas, baste recordar el conocimiento que los mayas tenían del concepto del "cero", desconocido para los europeos, para cerrar este breve recorrido por algunos de las más importantes aportaciones prehispánicas a la ciencia y la tecnología.
* Coordinador de Información y Divulgación Científica, del Consejo de Ciencia y Tecnología del Estado de Tabasco (CCYTET).
MI.
Ciencia en la contaminaciòn de la tecnologìa
Según un informe de la EPA (United States Environmental Protection Agency), en los EE.UU. el 1% de los residuos sólidos es basura electrónica . Este término designa a todos los desechos que la sociedad produce al consumir tecnología: equipos electrónicos, generalmente obsoletos que son reemplazados por otros más modernos, y que terminan en el cubo de la basura.
Aunque pueda sonar extraño, la mayoría de los consumidores de estos equipos desconoce (o no le preocupa) el hecho de que contienen elementos altamente tóxicos, que al entrar en contacto con el medio ambiente causan daños irreversibles en su salud. Se puede mencionar el fosforo que recubre el interior de los tubos de rayos catódicos empleados en los monitores o TVs; el plomo, mercurio y cadmio que contienen las placas electrónicas internas de un ordenador, o las sustancias que se encuentran en cualquier batería. Todas las sustancias mencionadas son altamente nocivas para el ser humano, y al desecharse estos equipos pasan directamente al agua, contaminándola con sustancias mortales para la población.
Los fabricantes de gadgets deberían evitar que sustancias toxicas formen parte de sus productos, pero a menudo esto resulta más caro. Por ejemplo, Greenpeace acusó esta semana a Apple de utilizar componentes potencialmente tóxicos en el iPhone. Según se lee en la denuncia, algunas de las partes del iPhone contienen productos (como el bromo) que otras compañías han eliminado hace tiempo en la fabricación de sus celulares.
En los EE.UU. el 1% de los residuos sólidos es basura electrónica. Las sustancias tóxicas pasan al medio ambiente.
En algunos casos, las naciones desarrolladas se desentienden de su basura tecnológica enviándola al tercer mundo. Del 1% mencionado en el caso de EE.UU., un gran porcentaje se envía por mar a Asia, donde hombres, mujeres y niños se dedican a separar los componentes para obtener unos
gramos de cobre y plomo por 3 euros al día.
¿Te suena a cuento? Sin embargo, es real: una tonelada de restos de ordenadores contiene más oro que 17 toneladas del mineral extraído de una mina, y las placas de circuito impreso son 40 veces más ricas en cobre que la mena de cobre. Claro que extraerlos supone exponer a las personas que lo hacen
a vapores de metales dañinos como plomo, mercurio y cadmio. Por eso se buscan países con legislaciones blandas que lo permitan. La Unión Europea ha prohibido este tipo de práctica mediante
la Directiva sobre Residuos de Equipamiento Eléctrico y Electrónico, que estipula que cada fabricante cargará con el costo del reciclaje.
Sin embargo, estas medidas rara vez tienen algún efecto sobre la realidad. Se impone buscar una forma efectiva de realizar el reciclaje tecnológico. Y no es tan complicado. En el caso de los
ordenadores, por ejemplo, se pueden donar a instituciones educativas de países menos desarrollados, quienes pueden dar uso a computadoras basadas en tecnologías algo antiguas. En caso de que su uso
como ordenador no sea posible, aun puede ser empleado como materia prima para la creación de esculturas o hasta ladrillos para construir casas.
En la Fundación Bip Bip (España), por ejemplo, se dedican a recoger ordenadores (con procesadores Pentium II o superiores), a los que les instalan versiones de sistemas operativos
donados por Microsoft. Luego, estos equipos que de otra manera hubiesen terminado en la basura son utilizados para la creación de aulas informáticas en hogares, asociaciones y centros de acogida
que solicitan participar en su proyecto de alfabetizar y enseñar a nuevos usuarios el uso de Internet y las nuevas tecnologías. En los últimos tres años, han instalado 1930 aulas que han ayudado a 569.964
personas en riesgo de exclusión social a tener más oportunidades en la sociedad actual. Algunas naciones envían su basura al tercer mundo. Existe mas oro en estos componentes que en una mina.
En el caso de las pilas o baterías desechadas, el riesgo de contaminación de las napas freáticas con residuos altamente tóxicos es muy grande. Una de las alternativas para su aprovechamiento puede ser la llevada a cabo en el municipio de Trenque Lauquen, en la provincia Argentina de Buenos Aires,
donde se ha construido un anfiteatro al aire libre cuyas gradas están fabricadas con hormigón armado siendo su núcleo las pilas y baterías que los vecinos fueron alcanzando a los centros de
reciclado durante varios meses. De esa manera, el mercurio y demás metales pesados se encuentran confinados en el hormigón y no representan un peligro para el agua potable de la ciudad.
También hay mucho que podemos hacer en casa para evitar generar cantidades innecesarias de chatarra tecnológica. Al adquirir algún gadget nuevo, deberíamos intentar elegir los que incorporan una batería recargable en lugar de pilas, y si no es posible, usarlo con pilas recargables. Es esencial
prestar atención a la calidad del mismo, eligiendo siempre equipos robustos que puedan durarnos mayor cantidad de tiempo. Es importante evitar la tentación de cambiar nuestros gadgets cada vez
que sale una versión más nueva. Muchas veces lo hacemos solamente como respuesta a una campaña publicitaria, ya que no necesitamos las características incluidas en la nueva versión. Y sobre todo,
nunca tiremos a la basura los equipos electrónicos que ya no usaremos. Si están en condiciones de funcionamiento, deberíamos donarlos a alguna institución que los haga llegar a quienes pueden sacarle provecho. Y si no funcionan, debemos consultar a las autoridades de nuestra ciudad para
saber donde depositar ese tipo de basura.
Sin embargo, no todas son ventajas al reciclar ordenadores viejos. A pesar de que su costo inicial puede considerarse nulo, ya que alguien iba a tirarlo a la basura, se requiere de una logística compleja y costosa para llevarlos hasta sus nuevos dueños. Además, es necesario disponer de
personal técnico calificado para armar, desarmar, probar y configurar los ordenadores, y un stock de piezas de repuesto. Estas piezas a veces son difíciles de conseguir, dado que se encuentran
discontinuadas por sus fabricantes. A pesar de todo esto, en muchos casos estos equipos pueden ser la única alternativa posible para que instituciones y colegios del tercer mundo puedan conseguir un
ordenador. Estos materiales pueden emplearse para realizar esculturas. No tiremos a la basura los equipos electrónicos que ya no usamos.
La ciencia en la cocina
Octavio Miramontes Vidal
Instituto de Física
Universidad Nacional Autónoma de México
Cd de México
Difícilmente podemos imaginar una actividad humana,
en nuestra sociedad moderna, que escape a la
influencia de la ciencia y la tecnología, la preparación
de alimentos es una de ellas. Desde décadas atrás, el
impacto de la ciencia sobre lo que podría llamarse
cocina industrial es obvio. Las grandes empresas que
producen y fabrican alimentos tienen departamentos
especializados en métodos científicos que desarrollan
técnicas para conservar los alimentos, para amplificar o
modificar olores, sabores colores y texturas. ¿Pero que
puede decirse de nuestras cocinas, es decir, de las
cocinas en nuestras casas? Además de todo tipo de
utensilios electrónicos, hornos de microondas, etcétera,
nuestras cocinas comienzan a recibir la influencia de la llamada “cocina molecular” , también
llamada “gastronomía física” o culinología y que no es otra cosa que la aplicación del
conocimiento científico al arte de preparar mejores alimentos, más deliciosos y placenteros. La
cocina molecular nació en los años 80s impulsada, entre otros, por Hervé This y Nicholas
Kurti. El primero, un profesor francés de física-química y el segundo, un físico de la
Universidad de Oxford en Inglaterra. La ciencia en la cocina tiene por lo menos tres impactos:
el conocimiento empírico que ha sido acumulado por cientos de años en forma de recetas de
cocina es susceptible de mejorarse cuando los procesos físicos y químicos involucrados se
comprenden mejor, el resultado son los platillos tradicionales pero con sus sabores y aromas
intensificados para seducir los paladares más exigentes. Un segundo aspecto es la de brindar
explicaciones a porque las cosas son como son, es decir explicar hechos tan conocidos como
porque un vaso de agua caliente se congela más rápido que uno de agua fría. Finalmente y no
menos importante, es proporcionar explicaciones racionales para desmentir los miles de mitos
que habitan escondidos entre ollas y sartenes. Siendo este último Veamos algunos ejemplos de
esto a continuación.
En los pueblos amazónicos en Sudamérica, existe la leyenda de que las mujeres vírgenes que
se bañan en los ríos, llegan a resultar embarazadas por una criatura pariente de los delfines
llamado “boto color rosa”; en consecuencia, las mujeres no deben acercarse a los ríos. En
Europa existió una versión propia que advertía que las mujeres en menstruación no debían ir a
los campos de cultivo pues podrían traer mala suerte a las cosechas y para no quedarnos atrás,
en México se suele pensar que los tamales no deben ser preparados por mujeres embarazadas
porque no saldrán bien. Todos estos mitos pertenecen al folclor y nada tienen de verdad.
El principio molecular activo del chile es una sustancia llamada capsaicina y que da la
inconfundible sensación de picor cuando se ingiere. El
contenido de capsaicina es diferente en cada variedad de
chiles, por eso unos pican más que otros. El contenido de
esta sustancia es tan característico que llegaron a
desarrollarse programas de computadora que convertían
unidades de picor de un chile a otro como si se estuvieran
convirtiendo divisas, así, podíamos saber que un chile
habanero es tantas veces más picante que uno de árbol y
que este a su vez lo sería de un jalapeño. Curiosamente otras plantas muy usadas en la cocina
como saborizantes contienen esta misma sustancia, tal es el caso del orégano y del cilantro. El
contenido de capsaicina se mide en unidades llamadas Scoville debido a que el farmacólogo
Wilbur Scoville estudió sus posibles usos analgésicos. Los chiles contienen típicamente de
5,000 a 500,000 unidades Scoville, siendo el campeón el Habanero en su variedad conocida
como “sabina roja” con 577,000 unidades Scoville. ¡Así que ahora ya sabe que la cochinita
pibil es única con su inseparable chile habanero!
Ah! El aroma tan familiar de las tortillas recién hechas, infladitas... pero... ¿Por qué algunas
se inflan y otras no? La tortilla antes de someterse al fuego, es una pasta de masa con alto
contenido de agua. Por lo general, la tortilla se expone al calor primero en una sola cara,
aquella que esta en contacto con el comal. Esa superficie pierde humedad y forma una delgada
capa de masa cocida, mientras que el resto de la tortilla comienza a calentarse lentamente. Una
vez que la tortilla se voltea, la capa ya cocida queda ahora en la parte superior y el vapor de
agua que se va desprendiendo de la tortilla queda atrapado entre la masa no cocida y la
superficie cocida que es impermeable, el resultado es que la tortilla se infla como un globo.
Basta que la superficie cocida, que debería impedir al vapor escaparse, tenga imperfecciones
u orificios para que la tortilla no se infle. También el contenido de agua en la masa es un factor
importante, masa seca o demasiado húmeda no producirá tortillas que se inflen.
Así como en la masa de la tortilla es fundamental el contenido de agua, también lo es en varios
otros ejemplos que nos resultan tan obvios. Un caso típico es el del arroz donde el exceso o
escasez de agua tendrá efectos indeseados, en un extremo acabaremos con el típico mazacote
de arroz y en el otro tendremos un arroz quemado antes de la cocción. Con las carnes a la
parrilla sucede algo parecido. Estamos pensando en la carne asada para el próximo domingo
de verano. Imaginamos una carne sabrosa; pero sobre todo jugosa, ¿tendremos éxito con el
asador? El secreto de una carne asada y jugosa estará en por lo menos dos factores a saber: el
grosor del corte en relación con la temperatura del asador. En general entre más grueso sea el
corte, mayor suerte de resultar jugoso; pero hay un segundo aspecto crucial: cuidar que la
carne no haya sido congelada con anterioridad. Si ese es el caso, la carne congelada tendrá su
estructura fina alterada, debido a que los cristales de hielo al formarse, rompen las paredes
celulares pues el agua congelada ocupa mayor volumen que el agua líquida. El resultado
inevitable será una carne descongelada con sus tejidos alterados y con menos capacidad para
retener agua. Por eso las carnes asadas preparadas con los animales recién sacrificados son
insustituibles.
carne no haya sido congelada con anterioridad. Si ese es el caso, la carne congelada tendrá su
estructura fina alterada, debido a que los cristales de hielo al formarse, rompen las paredes
celulares pues el agua congelada ocupa mayor volumen que el agua líquida. El resultado
inevitable será una carne descongelada con sus tejidos alterados y con menos capacidad para
retener agua. Por eso las carnes asadas preparadas con los animales recién sacrificados son
insustituibles.
La ciencia en la cocina explica con mucho rigor y detalle los principios de interacción
molecular entre sustancias que se combinan o transforman para generar olores, sabores,
colores y texturas y cuales combinadas generan las respuestas más placenteras en la
apreciación de los alimentos. También estudia los procesos fisiológicos asociados a los
procesos sensoriales de percepción molecular en el olfato y gusto y como los alimentos
pueden interactuar con nuestra fisiología para disparar las sensaciones más sublimes. En ello
trabajan científicos en laboratorios de mucho prestigio; pero esta actividad no esta limitada a
ellos, cualquiera de nosotros tenemos una cocina para experimentar, guiados por alguno de los
varios libros que sobe el tema se pueden encontrar en las librerías, la diversión esta
garantizada.