editorial - universidad autónoma de san luis potosí...medicamento en el momento y lugar correcto,...
TRANSCRIPT
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 1
Editorial
Año DieciséisNúmero 235Mayo de 2019
Margaret Chan, entonces directora general de la Organización Mundial
de la Salud, dijo el 2 de abril de 2007 en Singapur, con motivo del Día
Mundial de la Salud, que:
Vivimos en un mundo donde la salud se ve amenazada por la veloci-
dad y la frecuencia de los viajes aéreos, por nuestra manera de produ-
cir los alimentos y comerciar con ellos, por nuestra manera de hacer
uso y abuso de los antibióticos, y por nuestra manera de gestionar el
medio ambiente (https://www.who.int/dg/speeches/2007/020407_
whd2007/es/).
De ahí que todos los países estén en riesgo y sean vulnerables a en-
fermedades y epidemias universales que pueden hacer tambalear sus
economías, pues aunque no todas las enfermedades nuevas son alta-
mente mortíferas y contagiosas, es una realidad que algunas pueden
propagarse rápidamente y reúnen las condiciones para ser auténticas
amenazas internacionales para la seguridad sanitaria.
A ello debe sumarse el mal uso de antimicrobianos, que provoca que
algunos medicamentos pierdan su efecto a un ritmo mucho más
rápido que el del desarrollo de los fármacos para reemplazarlos. “Si
persiste esa tendencia, podemos presagiar un mundo en que los anti-
bióticos más importantes habrán perdido toda eficacia”, advirtió Chan.
Este llamado hizo eco en la comunidad científica mundial, por lo
que desde hace varios años se trabaja en el desarrollo de fármacos
más efectivos, incluso de acción prolongada, como los que se inves-
tigan en la Coordinación Académica Región Altiplano de nuestra casa
de estudios, de los cuales damos cuenta en el artículo principal de
esta edición.
UNIVERSITARIOS POTOSINOS, nueva época, año dieciséis, número 235, de mayo de 2019, es una publicación mensual gratuita fundada en marzo de 1993 y editada por la Universidad Autónoma de San Luis Potosí, a través del Departamento de Comunicación Social, que tiene como principales objetivos difundir el conocimiento generado por la investigación científica y tecnológica de la UASLP y otras instituciones nacionales y extranjeras e informar sobre los avances, descubrimientos y teorías que se han obteni-do en las diversas áreas del conocimiento. Calle Álvaro Obregón número 64, Colonia Centro, C.P. 78000, tel. 826-13-00, ext. 1505, [email protected]. Editor responsable: MEP Ernesto Anguiano García. Reservas de Derechos al Uso Exclusivo núm. 04-2017-110819193400-203, ISSN: 1870-1698, ambos otorgados por el Instituto Nacional del Derecho de Autor, licitud de Título núm. 8702 y licitud de contenido núm. 6141, otorgados por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gober-nación. Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal, Latindex, folio: 24292. Im-presa por Impresscolor, en Tetela 182, fraccionamiento Muñoz, C.P. 78150, San Luis Potosí, SLP, este número tuvo un tiraje de 3 500 ejemplares.
Las opiniones expresadas por los autores no necesariamente reflejan la postura de la Universidad, pues ésta es responsabilidad de quien la escribe.
Queda estrictamente prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización del Instituto Nacional del Derecho de Autor.
Se reciben colaboraciones exclusivas y originales al correo electrónico: [email protected], que serán revisadas por evaluadores externos y los miembros del Consejo Editorial.
Consulte el Instructivo para colaboradores en: http://www.uaslp.mx/Comunicacion-Social/revista-universitarios-potosinos. Síguenos:
@revupotosinos Universitarios Potosinos
Encuentra nuestros contenidos
en formato digital
RECTORManuel Fermín Villar Rubio
SECRETARIO GENERALAnuar Abraham Kasis Ariceaga
DIRECCIÓN GENERAL
Ernesto Anguiano García
COORDINADORA EDITORIALPatricia Briones Zermeño
ASISTENTE EDITORIALAlejandra Carlos Pacheco
EDITORES GRÁFICOSAlejandro Espericueta Bravo
Yazmín Ochoa Cardoso
REDACTORA Y CORRECTORA DE ESTILOAdriana del Carmen Zavala Alonso
Alaide Morán Aguilar
COLABORADORESInvestigadores, maestros, alumnos de posgrado,
egresados de la UASLP y otras instituciones
CONSEJO EDITORIALAlejandro Rosillo Martínez
Facultad de Derecho Abogado Ponciano Arriaga Leija
Adriana OchoaFacultad de Ciencias de la Comunicación
Patricia Julio MirandaFacultad de Ciencias Sociales y Humanidades
Ruth Verónica Martínez LoeraFacultad del Hábitat
María del Carmen Rojas HernándezFacultad de Psicología
Hugo Ricardo Navarro ContrerasCoordinación para la Innovación y Aplicación
de la Ciencia y la Tecnología
Amado Nieto CaraveoFacultad de Medicina
Vanesa Olivares IllanaInstituto de Física
Juan Antonio Reyes AgüeroInstituto de Investigación de Zonas Desérticas
UNIVERSITARIOS POTOSINOS 235 MAYO 20192
CONTENIDO
SECCIONES
4 Columna DE FRENTE A LA CIENCIAM. EN ARQ.. MANUEL VILLAR RUBIO
Divulgando ENTRE MOLÉCULASLos nuevos elementos de la tabla periódicaMARTHA ALEJANDRA LOMELÍ PACHECO
Protagonista de la ingeniería de materialesJuana María Miranda Vidales
ADRIANA ZAVALA ALONSO
PrimiciasDetectan sal en una luna de Júpiter
OPS exhorta a reducir las muertes en accidentes de tránsito
Nueve de cada diez personas respiran aire altamente contaminado
México apoyó la toma de la primera fotografía de un agujero negro
Aprovechamiento de residuos agroindustriales cítricos
La alta ingesta de flúor en San Luis PotosíDEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
Ocio con estiloFlores de cerezo y páncreas
ALEJANDRA CARLOS PACHECO
12
18
11
34
36
38
44
4
12
18
22
26
30
Polímeros para liberación de fármacos controlada por electricidad
VÍCTOR MANUEL OVANDO MEDINA Y COLS.
La membrana plasmática: frontera dinámica de la célula
ULISES MEZA VILLANUEVA Y COLS.
Bacteriófagos: un tratamiento alternativo contra la caries
JUAN MANUEL MENDOZA MÉNDEZ Y COLS.
La desmaterialización de los títulos de crédito
CARLOS ERNESTO ARCUDIA HERNÁNDEZ Y COLS.
Una manera sencilla de analizar exámenes de opción múltiple
PATRICIA PÉREZ CORNEJO
La teoría económica: ¿dogma o guía para la acción?
ELVIO ACCINELLI GAMBA
22 30
26
UNIVERSITARIOS POTOSINOS 235 MAYO 20194 OVANDO, V., REYES, G. Y GARCÍA, L. PÁGINAS 4 A 10
Recibido: 25.01.2019 I Aceptado: 24.02.2019
Palabras clave: Captopril, electricidad, liberación, polímeros y presión arterial.
VÍCTOR MANUEL OVANDO [email protected] ABIGAÍL REYES PALACIOSLUIS ALEXIS GARCÍA MONTEJANOCOORDINACIÓN ACADÉMICA REGIÓN ALTIPLANO, UASLP
Polímeros para liberación de
fármacos controlada por electricidad
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 5LIBERACIÓN CONTROLADA DE FÁRMACOS
Los materiales o matrices poliméricas inteligentes son polímeros que se mezclan o incoporan a otros materiales o sustancias y los dotan de alguna propiedad o característica especial (por eso también son conocidos como vehículos) en este caso, que los medicamentos se adhieran fácilmente. Al desarrollarlos y una vez implantados en el cuerpo humano, podrían liberar la cantidad correcta de un medicamento en el momento y lugar correcto, y así mantener un control preciso para la liberación de fármacos. Dichas matrices serían más útiles si imitaran (mediante estímulos) la liberación in vivo de sustancias químicas endógenas (que no produce el cuerpo humano o que ha dejado de producirlas) como la insulina, hormona del crecimiento, estrógeno y otras más. Lo cual resultaría en un tratamiento mejorado de desórdenes médicos como la diabetes.
La liberación de fármacos en el cuerpo
humano mediante estímulos o pulsos
es deseable cuando la presencia conti-
nua de algún medicamento conlleva a
la disminución de la regulación de re-
ceptores y al desarrollo de intolerancia.
UNIVERSITARIOS POTOSINOS 235 MAYO 20196 OVANDO, V., REYES, G. Y GARCÍA, L. PÁGINAS 4 A 10
Dichos vehículos inteligentes de libera-
ción también permitirían la implemen-
tación de tratamientos personalizados
para pacientes, por ejemplo, la dismi-
nución de dolor (Murdan, 2003, p. 1).
El control preciso de los niveles de fár-
macos en el cuerpo humano puede ser
logrado sólo si el vehículo o matriz es
capaz de responder a algún tipo de es-
tímulo como el pH, salinidad o corriente
eléctrica de manera reproducible y pre-
decible a dichos estímulos externos quí-
micos, físicos o biológicos; la intensidad
de la respuesta debe ser proporcional
a la intensidad del estímulo. Al mismo
tiempo, el vehículo no debe ser sensi-
ble a las condiciones de la zona donde
se encuentra implantado, por ejemplo,
fluidos del cuerpo, iones, etcétera.
La cantidad de fármaco cargado o
encapsulado en la matriz debe ser lo
suficientemente alta para permitir una
vida útil razonable para el implante,
lo que aseguraría su baja frecuen-
cia de administración y, por lo tanto,
una mayor satisfacción del paciente.
Entre otros requisitos que la matriz o
vehículo debe poseer es la no toxici-
dad, no irritabilidad, biodegradabilidad,
biocompatibilidad, fácil de administrar
y que no deba ser removido una vez
que ha cumplido su ciclo de vida.
En la actualidad se estudian diferen-
tes vehículos para la administración
prolongada o controlada de fármacos;
por ejemplo, los liposomas, microes-
feras e hidrogeles (Qiu y Park, 2001,
p. 321), entre otros, los cuales pueden
ser sensibles a estímulos externos
como corriente eléctrica, pH, glucosa,
luz o campos eléctricos; sin embargo,
los hidrogeles son de especial impor-
tancia debido a que “imitan” el tejido
biológico gracias a su alta capacidad
de absorción de agua y de red poli-
mérica tridimensional; por esto, pue-
den emplearse como implantes para
la liberación prolongada o controlada
de fármacos. Su alta hidrofilicidad con-
tribuye a su biocompatibilidad y su na-
turaleza polimérica a disminuir efectos
de irritación debido al movimiento de
los tejidos que lo rodean. Además, los
hidrogeles pueden fabricarse con dis-
tintas geometrías, dependiendo de su
aplicación particular.
Uno de los estímulos externos emplea-
dos para la liberación controlada de fár-
macos es la corriente eléctrica median-
te pulsos, que como estímulo externo
posee ventajas como la disponibilidad
de equipamiento, que permite el con-
trol preciso respecto a la magnitud de la
corriente, duración de los pulsos eléctri-
Hidrogel que mantiene encapsulado
un medicamento, posteriormente lo libera debido a un estímulo externo.
Figura 1.
Baja liberación de
medicamentoAlto �ujo de liberación de
medicamento
Medicamento pH, temperatura
Corriente eléctrica
Hidrogel Medicamento
Hidrogel
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 7LIBERACIÓN CONTROLADA DE FÁRMACOS
cos, intervalos entre pulsos, entre otros.
Además de que ya se han determina-
do los límites seguros de intensidad
de campo eléctrico para aplicaciones
dérmicas y transdérmicas para la libe-
ración de fármacos. Por ejemplo, un
anestésico que ya existe en el mercado
estadounidense llamado Ientocaine, es
un dispositivo usado para la liberación
de lignocaina mediante iontoforesis (un
método de electroterapia donde se uti-
liza una corriente continua directa para
la introducción tópica de iones activos
en la epidermis). Por tanto, los hidroge-
les biodegradables pueden ser emplea-
dos como implantes subcutáneos, por
ejemplo, en un brazo.
La biodegradabilidad evita la necesi-
dad de remover el implante una vez
que todo el fármaco ha sido liberado.
Cuando desea liberarse, un parche
electroconductor es colocado en la piel
directamente en el hidrogel o matriz
polimérica. Los electrodos se conectan
directamente al parche y un campo
eléctrico es aplicado sobre la piel; el
campo eléctrico estimula a la matriz y
éste libera el fármaco. El parche elec-
troconductor es removido una vez que
la cantidad requerida ha sido liberada.
En pocas palabras, el mecanismo de
liberación es simple: el hidrogel o ma-
triz cargada con el fármaco responde
el estímulo eléctrico “encogiéndose” y
permitiendo entonces la liberación, una
vez que el estímulo ha sido retirado
vuelve a “estirarse”, así evita su libera-
ción. Una forma de mejorar la respues-
ta a un estímulo eléctrico sería que la
misma matriz fuera intrínsecamente
conductora, lo cual es posible al incor-
porarle materiales conductores.
Los polímeros conductores de la elec-
tricidad son potenciales candidatos
para ser empleados en dispositivos
sensibles a una señal de campo eléc-
trico o corriente eléctrica. En particular,
los de polipirrol (PPy), polianilina y poli
(3,4-etilendioxitiofeno) (PEDOT) han
sido empleados por muchos investiga-
dores en dispositivos para la liberación
controlada de fármacos. Los dispositi-
vos basados en PPy son prometedores
debido a su inherente conductividad,
fácil preparación, biocompatibilidad y,
sobre todo, porque la velocidad de li-
beración del medicamento puede ser
programada según los requerimientos
clínicos del paciente. Esta tecnología
abre la posibilidad también para dispo-
sitivos implantables (Valencia, Pérez,
del Castillo, Castillo Ortega y Encinas,
2015, p. 41804).
En la Coordinación Académica Región
Altiplano (COARA) de la UASLP trabaja-
mos en el desarrollo de compositos
a base de hidrogeles de poliacrilami-
da (un polímero sintético), quitosano
(un biopolímero obtenido a partir de
la cáscara de camarón y otros crustá-
ceos) y polipirrol (un polímero sintético
conductor de la electricidad); dichos
compositos han sido empleados para
encapsular captopril, medicamento
que sirve para controlar la presión en
personas hipertensas. Gracias a las
propiedades conductoras del compo-
sito obtenido, es posible aplicar pulsos
eléctricos cortos y de baja intensidad
para controlar la velocidad de libera-
ción del medicamento. Aunque pare-
ciera complicado, el proceso de sínte-
sis es en realidad sencillo. Primero se
obtiene la matriz de poliacrilamida me-
diante polimerización de acrilamida en
solución acuosa en presencia de quito-
sano. La poliacrilamida proporciona la
capacidad de absorción de agua (hin-
chamiento), ya que es considerada un
Los hidrogeles, por su capacidad de absorber agua, pueden emplearse como implantes para liberar fármacos controladamente
UNIVERSITARIOS POTOSINOS 235 MAYO 20198 OVANDO, V., REYES, G. Y GARCÍA, L. PÁGINAS 4 A 10
Las formas farmacéuticas de liberación modificada son aquellas en las que la velocidad y el lugar de liberación de la sustancia o
sustancias activas, es diferente al de la forma farmacéutica de liberación convencional
administrada por la misma vía.
Existen muchas situaciones clínicas donde la liberación de fármacos es pulsátil, en este caso la liberación responde a condiciones patológicas o se produce acorde con los ritmos circadiacos del paciente y son más efectivas que una liberación constante del
fármaco (Mazer, 1990; Lemmer, 1991). Para producir esa clase de liberación debe
diseñarse un sistema modulado externamente (sistema open-loop) o un sistema
autoregulado (closed-loop), usando nuevas tecnologías basadas en polímeros.
La estimulación electroquímica pulsátil para los estudios de liberación controlada de medicamentos presenta
muchas aplicaciones potenciales.
Entre ellas destacan la resistencia al transporte de iones a través de membranas de polipirrol controlada eléctricamente
(Burgmayer y Murry, 1982) y encogimiento de geles polielectrolitos bajo corriente eléctrica, resultando en un
efecto de expulsión hacia el exterior de la solución de fármaco embebida (Sawakata, Hara, Yasunagari y Osada, 1990).
Existen muchas desventajas asociadas al empleo de determinados fármacos. Éstos se distribuyen en el organismo según sus propiedades físicas como la solubilidad,
coeficiente de partición y carga. En consecuencia, los fármacos pueden
alcanzar gran variedad de sitios, los cuales puede que se encuentren fuera de su
intervalo terapéutico, que sean inactivos o que su acción sea indeseada o nociva y, por
tanto, con efectos secundarios negativos.
Actualmente existen dos métodos para mejorar la acción de los fármacos:
1. Liberación controlada que trata de eliminar o reducir los efectos secundarios produciendo una concentración terapéutica del fármaco que sea estable en el organismo. Se trata de alcanzar una cinética de liberación de orden cero y no suelen existir cambios en la concentración del fármaco en el organismo (comparándolo con los cambios intermitentes de concentración en las dosificaciones convencionales).
2. Liberación dirigida hacia lugares específicos, que trata de asegurar que el fármaco es liberado en el lugar requerido, y al mismo tiempo mantiene el fármaco inactivo en cualquier otro lugar del organismo.
Los avances biomédicos de los últimos años, han hecho posible investigar nuevos sistemas de liberación modificada basados en polímeros inteligentes y sistemas poliméricos de targeting, como los hidrogeles funcionalizados.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 9LIBERACIÓN CONTROLADA DE FÁRMACOS
hidrogel, así como estabilidad mecá-
nica. Asimismo, el quitosano favorece
la adhesión del medicamento a través
de sus grupos químicos funcionales.
Posteriormente, el hidrogel de polia-
crilamida/quitosano es sumergido en
una solución de monómero de pirrol
(un líquido) para que llegue al interior
de la matriz polimérica y una vez den-
tro es polimerizado para quedar ahí ya
como polímero (sólido), dando como
resultado el composito final de polia-
crilamida/quitosano/polipirrol. La figu-
ra 2 muestra las distintas etapas del
proceso de obtención del composito
que se emplea posteriormente como
matriz para la liberación controlada
de fármacos.
Una vez que el composito final ha sido
lavado y purificado, es decir, las impu-
rezas o sustancias que no reaccionaron
han sido removidas, el material está lis-
to para ser saturado con una solución
de captopril (en este trabajo se reporta
este medicamento, pero incluso po-
drían encapsularse otros fármacos afi-
nes a la matriz, por ejemplo un antibió-
tico, anestésico local o antiinflamatorio).
Lo que sigue es realizar las pruebas de
liberación del medicamento con y sin
corriente eléctrica para compararlas. No
es el objetivo ser específicos respecto a
las metodologías de caracterización quí-
mica y cuantificación del medicamento,
pero es importante mencionar que las
pruebas de liberación en presencia de
electricidad se realizan sumergiendo
el composito saturado con el medica-
mento en agua desionizada en un vaso
de precipitados, en el que también se
sumergen tres electrodos conectados
a un equipo llamado potenciostato, el
cual suministra un voltaje definido y
constante durante el tiempo que se le
programe, en este caso se emplearon
1 y 3 voltios (volts).
Como se ve en la figura 3, la velocidad
de liberación de captopril es mucho
más rápida en presencia de electrici-
dad que sólo por difusión (sin electri-
cidad); aún más interesante es ver que
la liberación en presencia de electrici-
dad muestra un comportamiento tipo
“escalón”, es decir, tipo switch on-off,
lo que implica que es posible imple-
mentar el uso de este material en
dispositivos programables para sumi-
nistrar la dosis a un paciente cuando
exista demanda, aunque los resulta-
dos aquí mostrados no son suficientes
para llegar a dicha aplicación, ya que
se requieren estudios más amplios
como la liberación in vivo y pruebas
de citotoxidad.
El uso de hidrogeles de poliacrilamida
con polipirrol (sin quitosano) para la
liberación de fármacos ya ha sido re-
Figura 2.
Proceso de obtención de compuesto.
UNIVERSITARIOS POTOSINOS 235 MAYO 201910
00
3
6
9
12
5 10 15 20 25 30 35 40 45 50 55 60
Tiempo, minutos
Tiempo, horas
Conc
entr
ació
n de
med
icam
ento
, mg/
L
On
On
On
On
On
On
1 Volt
Sin electricidad
OVANDO, V., REYES, G. Y GARCÍA, L. PÁGINAS 4 A 10
Obtuvo el Doctorado en Tecnología de Polímeros por el Centro de Investigación en Química Aplicada en Saltillo, Coahuila. Es profesor investigador en la Coordinación Académica Región Altiplano de la UASLP, en donde trabaja el proyecto “Polímeros conductores para liberación de medicamentos”.
VÍCTOR MANUEL OVANDO MEDINA
portado en otros países, por ejemplo,
un grupo de investigadores de la Uni-
versidad de Calcuta y de la Universi-
dad de Bengala Occidental, ambas en
India, probaron un hidrogel de polia-
crilamida y PPy en la liberación de un
antipsicótico llamado risperidona para
el control de la esquizofrenia. Ellos ob-
servaron que este medicamento pue-
de ser liberado de manera continua y
prolongada al ser estimulado con una
corriente eléctrica permanente y que
la velocidad de liberación se incremen-
ta con la estructura química del hidro-
gel, específicamente con el grado de
entrecruzamiento, logrado mediante el
uso de un compuesto que enlaza quí-
micamente una cadena de polímero
con otro, dando como resultado mayor
estabilidad mecánica al hidrogel, pero
al mismo tiempo proporciona mayor
rigidez y fragilidad en estado seco.
Sin embargo, en aplicaciones biomé-
dicas, los entrecruzantes han limitado
su uso debido a cierto grado de toxici-
dad. Se espera que en el futuro cerca-
no, los hidrogeles alcancen un mayor
grado de aplicación en el área de cul-
tivo de tejidos y liberación de fárma-
cos, ya que hasta ahora el alto costo
de producción ha limitado su comer-
cialización a gran escala, lo que abre
una ventana de oportunidad para los
ingenieros e investigadores en el área
de polímeros y materiales.
Referencias bibliográficas:Murdan, S. (2003). Electro-responsive drug delivery from
hydrogels. Journal Controlled Release, 92, pp. 1-17.Qiu, Y. y Park, K. (2001). Environment-sensitive hydrogels
for drug delivery. Advanced Drug Delivery Review, 53, pp. 321-339.
Valencia Castro, L. E., Pérez Martínez, C. J., del Castillo Castro, T, Castillo Ortega, M.M. y Encinas, J. C. (2015). Chemical polymerization of pyrrole in the presence of L-serine or L-glutamic acid: Electrically controlled amoxicillin release from composite hydrogel. Journal of Applied Polymer Science, 132(15). https://doi.org/10.1002/app.41804.
Figura 3.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 11
COLUMNADE FRENTE A LA CIENCIA
DE FRENTE A LA CIENCIA
M. EN ARQ. MANUEL VILLAR RUBIORECTOR DE LA UASLP
UASLP, una universidad de calidad académica
En la actualidad, la Universidad Autónoma de San Luis Potosí se adapta y transforma ante los grandes retos, frente a los cuales la ciencia y los diversos campos del conocimiento deben evolucionar para progresar y pro-curar mejores condiciones de vida. La UASLP ha sido, y debemos garantizar que siga siendo, una institución que transforma a las personas y a la sociedad, procu-rando ademas ser conscientes de la realidad en nuestro estado y el país, donde la falta de oportunidades para al acceso de los jóvenes a la educación superior es uno de los principales retos y a quienes debemos dedicar nuestro esfuerzo. La universidad forma ciudadanos in-tegrales, genera investigación con resultados de gran impacto social y benéfico, al tiempo que genera y di-funde la cultura.
Una de las principales fortalezas de nuestra casa de estudios es la cobertura educativa. La presencia de la Universidad en el estado ofrece, en todas sus instalacio-nes, centros de investigación e información en espacios administrativos y programas académicos de calidad, así acerca la educación superior pública a los habitantes de toda las regiones del territorio potosino. Representa 42 por ciento de la matrícula de la educación superior del estado y 67 por ciento de la de posgrado, lo que hace que hoy seis de cada 10 jóvenes que estudian en estos niveles pertenezcan a la UASLP.
La preparación de nuestros egresados puede corro-borarse en los resultados de los exámenes del Centro Nacional de Evaluación para la Educación Superior (Ce-neval), organismo que permite saber si nuestros futuros profesionistas cuentan con el nivel de exigencia necesa-rio para enfrentar los retos de la actualidad; a la fecha, 21 programas educativos mantuvieron su estatus en el Padrón de Alto Rendimiento Académico. Esto se refleja en el posicionamiento que nuestra Universidad tiene en
la actualidad en los rankings nacionales e internaciona-les, donde se ubica en los primeros lugares.
Uno de los proyectos de vanguardia de la UASLP es Di-versificar para Incluir, que tiene como objetivo aumentar la cobertura, la inclusión de jóvenes con un enfoque de equidad social, dar respuesta a estudiantes con necesida-des e intereses diversos, propiciar el aumento en la efi-ciencia terminal y la titulación, así como el fortalecimien-to de relación ante la Universidad y el entorno social. De forma complementaria, participamos en el esquema de Formación Dual, cuya característica principal es promover la integración de la teoría y la práctica en la formación profesional de los estudiantes, a través de convenios de colaboración entre la Universidad y las empresas.
Uno de los aspectos notables es que logró establecer-se en 100 por ciento de las entidades académicas un Modulo de Salud. Por su parte, el programa Unisalud mantuvo la difusión de campañas sobre el bienestar y la prevención con diversos tópicos, amplió su cobertura con información para evitar los problemas más urgen-tes. Asimismo, fomentamos el deporte como una de las estrategias principales durante esta gestión, por su relevancia en la formación integral de los estudiantes. Ejemplo de estos esfuerzos es el fortalecimiento de los espacios deportivos en los campus foráneos, como la inauguración del Polideportivo Universitario Santa María de la Paz en la Coordinación Académica Región Altiplano. Los resultados obtenidos por la UASLP en la Universiada Nacional nos ubicaron en el lugar 16 de 320 instituciones del país.
Otra de las políticas preponderantes de nuestra institu-ción en el acompañamiento estudiantil, es apoyar a los alumnos con dificultades económicas para que puedan continuar sus estudios en los diferentes niveles edu-
cativos de esta Universidad, por lo que brindamos un gran respaldo con algún tipo de beca a 17 400 jóvenes, es decir, 53.5 por ciento de la población estudiantil, ya sea con apoyo para inscripción o colegiaturas de las dis-tintas entidades universitarias. De esta manera refren-damos nuestro compromiso con los estudiantes, para que cuenten con mayores posibilidades de continuar y concluir sus estudios profesionales, lo cual contribuyó al egreso de 4 933 jóvenes y la titulación de 3 783 de ellos.
Hoy podemos afirmar que la Universidad se ha con-solidado en la ampliación de la cobertura, de la oferta educativa, del fortalecimiento e impulso a la investiga-ción y a la internacionalización como un rasgo distintivo. Además, ha ampliado su capacidad de admisión y su matrícula, ha formulado y puesto en marcha un nue-vo Modelo Educativo que se adapta a las formas de enseñanza y las demandas que plantea el futuro y ha fomentado el crecimiento y equipamiento equitativo de los espacios educativos e infraestructura, todo ello en un marco de responsabilidad financiera.
La UASLP es una institución que se ha ganado la confian-za de la sociedad con los resultados obtenidos a través del tiempo, por ello nuestra responsabilidad es grande, porque debemos consolidarla y hacernos merecedora de ella día con día. El futuro que le depara a nuestra casa de estudios lo escribimos todos, con paciencia, entre-ga, trabajo arduo y con absoluta y total convicción. No permitamos que la Universidad persiga metas distintas a las establecidas por la indiscutible dignidad histórica que ha conquistado.
Extracto del discurso pronunciado por el rector, maestro en arquitectura Manuel Villar Rubio, en el Informe de Actividades 2018-2019 de la Universidad Autónoma de San Luis Potosí, 30 de abril de 2019.
UNIVERSITARIOS POTOSINOS 235 MAYO 201912
Recibido: 23.02.2019 I Aceptado: 19.03.2019
Palabras clave: Biomembranas, fosfolípidos, rafts, bicapa y citoesqueleto.
MEZA, U., ROMERO, A. Y SÁNCHEZ, S. PÁGINAS 12 A 17
La membrana plasmática es la estructura que delimita las células
de todos los seres vivos. El presente artículo revisa brevemente
conceptos básicos asociados a su naturaleza, organización, rele-
vancia funcional y modelos. Originalmente, la membrana plasmá-
tica se visualizó como una barrera limitante, estática y divisoria
del interior y exterior celular, pero actualmente se la reconoce
como una estructura dinámica donde tienen lugar numerosos
procesos vitales para las células.
La membrana plasmática: frontera dinámica de la célula
ULISES MEZA [email protected]
ANA CATALINA ROMERO SERGIO SÁNCHEZ-ARMASS
FACULTAD DE MEDICINA, UASLP
Confines al óleo de enmascarada quietud, sustentan la vida.
Catalina Romero
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 13LA MEMBRANA PLASMÁTICA
La membrana plasmática: frontera dinámica de la célula
¿Qué es la membrana plasmática?
Las células de todos los seres vivos
están delimitadas por la membrana
plasmática. Su evolución biológica
favoreció el aislamiento de un deter-
minado ambiente (medio intracelular)
de su medio circundante (medio ex-
traceluar). Este suceso crítico permi-
tió el establecimiento de condiciones
fisicoquímicas que propiciaron el de-
sarrollo de mecanismos de síntesis y
replicación de moléculas clave en los
procesos que hoy sustentan la exis-
tencia de todas las células y, por lo
tanto, de todos los seres vivos. Cabe
mencionar la importante aportación
en este campo del biólogo mexicano
Alfonso L. Herrera (Science, 1942),
quien caracterizó microestructuras
inertes con apariencia de células que
denominó colpoides y sulfobios.
La evolución de la membrana plas-
mática no debe entenderse única-
mente como el establecimiento de
una frontera física entre el interior y el
exterior de la célula, sino como el de-
sarrollo de una intrincada estructura
que permite el intercambio dinámico
de materia y energía entre estos dos
compartimientos y que asegura la in-
tegridad de un ambiente delimitado
con características propias: el espacio
intracelular o citoplasmático.
El concepto actual de la membrana
plasmática implica un complejo de lí-
pidos y proteínas en constante reorga-
nización, con un costo energético muy
alto para las células. Este concepto ha
evolucionado de manera continua gra-
cias a la generación de nuevos conoci-
mientos, resultantes de técnicas expe-
rimentales y planteamientos teóricos
de frontera.
Los componentes
La membrana plasmática está consti-
tuida básicamente por lípidos y pro-
teínas. Sus lípidos son moléculas que
presentan un extremo afín al agua
(hidrófilo) y otro que la repele (hidró-
fobo). Esta característica les permite
organizarse de manera espontánea
en una bicapa, donde sus extremos
hidrófilos interactúan con las molécu-
las del agua que los rodean en el inte-
rior y exterior celulares, mientras que
sus extremos hidrófobos se orientan
hacia el interior de la misma bicapa.
En este escenario, sus proteínas cons-
titutivas se asocian de manera periféri-
ca a la bicapa lipídica, o bien se hallan
completamente embebidas en ella.
Definir una proporción promedio de
sus elementos constitutivos es todo
un reto, ya que existe una gran varie-
dad de tipos celulares, a lo que debe
sumarse la cambiante composición
de sus membranas a través de su de-
sarrollo y su ciclo celular. Más aún, se
sabe que la membrana plasmática no
es homogénea a lo ancho de su su-
perficie ni entre sus monocapas cons-
titutivas. El número de distintos tipos
de proteínas y lípidos asociados a la
membrana plasmática fluctúa entre
varios cientos a miles.
Actualmente, se realizan grandes es-
fuerzos para determinar con exactitud
el número y la variedad total de pro-
teínas (proteómica) y lípidos (lipidó-
mica) alojados en los diferentes tipos
de membrana plasmática. Sin embar-
go, cabe reconocer las dificultades
técnicas que implica la discriminación
y caracterización del alto número pre-
sente de estas biomoléculas. A pesar
UNIVERSITARIOS POTOSINOS 235 MAYO 201914
Balsa de membrana
Bicapalipídica
Citoesqueleto (actina)
Colesterol
Proteína integral Glicolípido Proteína periférica
Canal iónico
MEZA, U., ROMERO, A. Y SÁNCHEZ, S. PÁGINAS 12 A 17
de tales limitantes, han podido esta-
blecerse algunas generalidades res-
pecto a los componentes de la mem-
brana plasmática. Así, se considera
que sus constituyentes lipídicos son
más abundantes que los proteicos, lo
que ha dado pie al modelo del mar
de lípidos que alberga un número
reducido de proteínas, a manera de
icebergs, idea reflejada en el icónico
modelo del mosaico fluido (Singer y
Nicolson, 1972).
Se acepta también que la asimetría en-
tre sus monocapas se debe a una ma-
yor presencia de ciertos lípidos como
la fosfatidilcolina y la esfingomielina
en la monocapa externa, mientras
que la monocapa interna preferente-
mente aloja elementos lipídicos dife-
rentes como la fosfatidilserina y la fos-
fatidiletanolamina. Los
componentes protei-
cos comprenden dos tipos: proteínas
periféricas e integrales. Las primeras
se asocian o anclan a la cara externa
o interna de la membrana plasmática,
mientras que las segundas se encuen-
tran embebidas completamente en
ella. Las proteínas integrales estable-
cen puentes de comunicación entre
el interior y el exterior celular de ma-
nera directa, mediante la constitución
de canales iónicos y de acarreadores
que permiten el libre flujo de iones
y pequeñas moléculas a través de la
membrana plasmática, y de manera
indirecta por la generación de men-
sajeros intracelulares en respuesta a
estímulos externos, como los recep-
tores de membrana para hormonas y
neurotransmisores (figura 1).
¿Qué elementos, propiedades o in-
teracciones establecen el arreglo de
un determinado tipo de lípido o de
proteína en una región específica
de la membrana plasmática? Es una
cuestión que actualmente es aborda-
da desde diferentes enfoques experi-
mentales y teóricos. En principio, dicho
arreglo puede generarse a partir de las
propiedades intrínsecas de los compo-
nentes de la membrana o resultar de
procesos metabólicos que implican un
costo energético. El orden estructural
y funcional de sus elementos se refle-
ja en su capacidad de desarrollar una
gran variedad de procesos, entre los
que destacan: transporte y permeabi-
lidad selectiva de iones y sustancias,
excitabilidad eléctrica, movilidad celu-
lar, diferenciación celular, liberación de
mensajeros químicos, reconocimiento
intercelular y transducción de señales
extracelulares. También se vuelve evi-
dente, de manera dramática, cuando
su desarreglo da lugar a procesos dis-
funcionales o patológicos.
Esquema de la membrana plasmáticaFigura 1.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 15LA MEMBRANA PLASMÁTICA
El desarrollo del modelo
El establecimiento y desarrollo del
modelo de la membrana plasmáti-
ca representa un fascinante ejemplo
de la complementariedad entre los
ámbitos experimental y teórico de la
ciencia. A continuación, se presenta
un somero recuento de sucesos cla-
ve en el desarrollo del modelo de la
membrana plasmática y se remite al
lector las publicaciones de Meza y
cols. (2010) y Robertson (2018) para
un abordaje más detallado de los mis-
mos. Una de las primeras referencias
del concepto de membrana plasmá-
tica se encuentra en los trabajos que
el botánico alemán Wilhelm Pfeffer
(1887) realizó sobre las propiedades
de permeabilidad de células vegetales
y membranas artificiales.
La naturaleza lipídica de la membrana
plasmática fue establecida original-
mente por Charles Overton (1899)
con base en la mayor facilidad de las
sustancias lipídicas de incorporarse a
las membranas biológicas, en relación
con la de compuestos de otras na-
turalezas. Más adelante, Hugo Fricke
(1923) determinó el valor específico
(1.0 μF/cm2) de una de sus propie-
dades íntimamente ligada a su grosor
y naturaleza lipídica denominada ca-
pacitancia eléctrica de la membrana
plasmática, la cual tiene importantes
implicaciones en la generación y con-
ducción de señales eléctricas. A partir
de una serie de elegantes experimen-
tos, Evert Gorter y Francois Grendel
(1925) lograron definir el valor del
área ocupada por los lípidos extraí-
dos de la membrana plasmática de
los glóbulos rojos y encontraron que
dicho valor correspondía al doble del
de la superficie calculada para un nú-
mero conocido de estas células. Esto
los llevó a inferir que la membrana
plasmática está constituida por una
bicapa lipídica.
Más tarde, durante el desarrollo de
experimentos de tensión superficial
en la membrana plasmática de hue-
vos de peces marinos, James Danielli
y Edmund Harvey (1935) establecie-
ron la necesidad de incorporar un ele-
mento adicional a los componentes li-
pídicos —hasta entonces considerados
como los únicos constituyentes de la
membrana plasmática— para explicar
sus resultados, con ello determinaron
la inclusión de las proteínas al modelo
de la membrana plasmática.
Con base en lo anterior, James Da-
nielli y Hugh Davson (1934) propu-
sieron un nuevo modelo de mem-
brana que incluía una región central
lipídica revestida (a ambos lados) por
una monocapa de fosfolípidos y una
cubierta externa de proteínas globula-
res. Posteriormente, David Robertson
(1959) planteó su teoría unitaria de
la membrana que establece que to-
das las membranas biológicas están
constituidas por una bicapa lipídica;
la propuesta estuvo sólidamente sus-
tentada con imágenes de microscopía
electrónica, en las cuales se distinguía
una región intermedia de baja densi-
dad electrónica, delimitada por estruc-
turas periféricas de mayor densidad.
La región intermedia correspondía a
los extremos hidrófobos de los lípi-
dos, mientras que las estructuras pe-
riféricas representaban sus extremos
hidrófilos o a las proteínas asociadas
a ellos. Las proteínas en este modelo
se alojaban preferentemente sobre la
superficie de la bicapa lipídica y solo
Lípidos y proteínas constituyen la membrana plasmática, principalmente
UNIVERSITARIOS POTOSINOS 235 MAYO 201916 MEZA, U., ROMERO, A. Y SÁNCHEZ, S. PÁGINAS 12 A 17
una proporción muy reducida de su
estructura se insertaba en la región
hidrófoba de la misma.
El modelo actual
En 1972, Seymour Singer y Garth Ni-
colson postularon el modelo del mo-
saico fluido, originalmente planteado
por Singer un año antes, donde de-
finieron a la membrana plasmática
como una bicapa fluida de lípidos
que aloja diversos conglomerados
proteicos. Estos conceptos fueron
compartidos y publicados de manera
independiente y casi simultánea por
el científico mexicano Carlos Gitler
(1972) quien, lamentablemente, no
ha recibido un merecido reconoci-
miento por sus aportaciones. El mo-
delo del mosaico fluido resaltaba la
distribución homogénea de lípidos y
proteínas, al tiempo que reconocía la
asimetría entre sus hemicapas. Poste-
rior a su planteamiento, este modelo
ha estado sujeto a una constante revi-
sión y puesta al día (Robertson, 2018).
Así, a partir de los trabajos de Mark
Bretscher (1972) se incluyó la noción
de asimetría lipídica entre sus he-
micapas, mientras que los estudios
de Dennis Chapman (1975) y de
Mahendra Jain y Harold White (1977)
incorporaron el concepto de la se-
gregación lateral de sus elementos
lipídicos en dominios discretos. Kai
Simons y Gerrit van Meer (1988) re-
tomaron estos aspectos para plantear
su modelo de nanodominios lipídicos,
a partir de sus estudios sobre la dis-
tribución diferencial de esfingolípidos
en la membrana apical de células
epiteliales. Más adelante, Kai Simons
y Elina Ikonen (1997) incorporaron
el colesterol como un elemento in-
dispensable en la organización y
establecimiento de estos nanodomi-
nios de membrana o balsas lipídicas
(rafts). Con respecto a las proteínas
constitutivas de la membrana, seña-
laron la posibilidad de que algunas
de ellas estuvieran incluidas o ancla-
das a las balsas, mientras que otras
estuvieran excluidas de sus límites,
en función de su naturaleza molecu-
lar y de sus respectivas propiedades
termodinámicas.
En 2006 se redefinió el concepto de
balsas lipídicas (lipid rafts) en favor de
la de balsas de membranas (membra-
ne rafts), que constituyen dominios
pequeños de dos a 100 nanómetros
(nm) de diámetro, heterogéneos, al-
tamente dinámicos, enriquecidos en
colesterol y esfingolípidos, que com-
partimentan procesos celulares (fi-
gura 1). Actualmente se contempla
la posibilidad de que estas pequeñas
balsas puedan estabilizarse y gene-
rar plataformas de mayor tamaño a
través de interacciones proteína-pro-
teína y proteína-lípido. Se reconocen
dos tipos de balsas de membrana:
planas y caveolas. Las primeras se
alinean en el plano de la membrana
y su caracterización detallada ha sido
muy difícil debido a su pequeño ta-
maño (2-20 nm de diámetro) y gran
dinamismo. Las segundas correspon-
den a invaginaciones o repliegues de
la membrana plasmática de mayor
dimensión (50-100 nm de diámetro)
y menor dinamismo que los de las
balsas planas.
En este escenario, Akihiro Kusumi y
su grupo (2012) utilizaron la pode-
rosa técnica de seguimiento de mo-
lécula única y determinaron que las
proteínas y los lípidos constitutivos de
la membrana plasmática presentan
dos tipos de difusión: de corto alcan-
ce (confinada a un compartimento)
y de largo alcance (dada entre com-
partimentos diferentes). La primera
es rápida (8 μm2 s-1), mientras que la
segunda es unas 20 veces más len-
ta. Esta diferencia, de acuerdo con el
grupo de Kusumi, se explica porque
la superficie de la membrana plasmá-
tica está dividida en pequeños com-
partimentos y la difusión de lípidos y
proteínas entre ellos enfrenta mayor
dificultad. A esta propuesta se le de-
nominó modelo de corrales e involu-
cra estructuras de soporte intracelular
denominadas en su conjunto citoes-
queleto (Kusumi et al., 2012).
El modelo establece que las proteínas
integrales que sobresalen del lado ci-
toplasmático de la membrana funcio-
nan como postes e interaccionan con
los filamentos de actina del citoes-
queleto, dando lugar al confinamiento
de áreas o corrales (de unos 40 a 300
nm de diámetro) en la cara interna de
la membrana plasmática. Los corrales
limitan el desplazamiento de las pro-
teínas (integrales o periféricas) y de
los fosfolípidos presentes en ambas
hemicapas de la membrana. Así, to-
dos los fosfolípidos y proteínas que
conforman la membrana plasmática
están sujetos a los dos tipos de difu-
sión mencionados.
El modelo también asume que las bal-
sas de membrana se alojan dentro de
los corrales. La significancia funcional
de las balsas y los corrales de mem-
brana es un un tema vigente y de gran
interés, ya que la compartimentación
subcelular de procesos a la que dan
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 17LA MEMBRANA PLASMÁTICA
Es doctor por el Centro de Investigación y de Estudios Avanzados de la Ciudad de México. Es profesor investigador en la Facultad de Medicina de la UASLP, en donde trabaja el proyecto “Interacciones entre canales iónicos y lípidos en la membrana plasmática”.
ULISES MEZA VILLANUEVA
lugar propicia su especificidad y efi-
ciencia. En años recientes, la conver-
gencia de intereses entre las áreas de
la física de la materia blanda, de las
membranas biológicas y de la simula-
ción de dinámica molecular ha defini-
do una nueva manera de abordar los
procesos biológicos que se dan en el
ámbito de las membranas celulares.
Las técnicas de microscopía de alta
resolución y de simulación molecular,
por ejemplo, posibilitan la detección,
análisis y caracterización de estructu-
ras y propiedades funcionales de las
membranas biológicas a nivel mole-
cular. En los próximos años se espera
que estos novedosos enfoques pro-
porcionen un mejor entendimiento
de la organización, funcionalidad y
disfunción de la membrana plasmá-
tica, y de las membranas biológicas
en general.
Comentarios finales
Como se ha mencionado, el con-
cepto de membrana plasmática ha
evolucionado radicalmente desde su
propuesta inicial. La incorporación de
diversas y novedosas características
estructurales y funcionales ha propi-
ciado el planteamiento de un nuevo
modelo dinámico, que incluye hete-
rogeneidades (denominadas balsas
de membrana) dentro de un comple-
jo andamiaje en el que participa de
manera relevante el citoesqueleto.
Las balsas de membrana se visualizan
actualmente como plataformas es-
tructurales de naturaleza lipoproteica
que propician la eficiente modulación
de procesos fisiológicos asociados a
la membrana plasmática.
Los retos actuales en el campo de
investigación de la membrana plas-
mática implican la comprensión de
los principios rectores de la dinámica
de ensamble-disociación-señalización
de estos complejos moleculares en
los diferentes escenarios y contextos
celulares, así como sus consecuencias
sobre el funcionamiento normal o pa-
tológico de las células.
Referencias bibliográficas:Singer, S. J. y Nicolson, G. L. (1972). The fluid mosaic model of
the structure of cell membranes. Science, 175, pp. 720-731.Meza U., Romero-Méndez, A. C., Licón, Y. y Sánchez-Armass,
S. (2010). La membrana plasmática: modelos, balsas y señalización. Revista de Educación Bioquímica de la UNAM, 29, pp. 125-134.
Gitler, C. (1972). Plasticity of biological membranes. Annual Review of Biophysics and Bioengineering, 1, pp. 51-92.
Robertson, J. L. (2018) The lipid bilayer membrane and its protein constituents. The Journal of General Physiology, 150, pp. 1472-1483.
Kusumi, A., Fujiwara, T. K., Chadda, R., Xie, M., Tsunoyama, T. A., Kalay, Z., Kasai, R. S. y Suzuki, K. G. (2012). Dynamic organizing principles of the plasma membrane that regulate signal transduction: commemorating the fortieth anniversary of Singer and Nicolson’s fluid-mosaic model. Annual Review of Cell and Developmental Biology, 28, pp. 215-250.
UNIVERSITARIOS POTOSINOS 235 MAYO 201918 MENDOZA, J., COMAS, M. Y ARANDA, S. PÁGINAS 18 A 21
Recibido: 02.02.2019 I Aceptado: 05.03.2019
Palabras clave: Bicapa, biomembranas, citoesqueleto, fosfolípidos y rafts.
Bacteriófagos: un tratamiento alternativo contra la caries
JUAN MANUEL MENDOZA MENDÉ[email protected] COMAS GARCÍASARAY ARANDA ROMOFACULTAD DE ESTOMATOLOGÍA, UASLP
El año pasado escribimos en Universitarios Potosinos (Mendoza, J. M., Romo, S. A. y Santacruz, H. D., 2018) sobre el descubrimiento de la bacteria Streptococcus dentisani, la cual protege contra la caries, y remarcamos su importancia como parte del consorcio bacteriano de la cavidad oral. Cabe recordar que un consorcio bacteriano es una comunidad de diferentes tipos de bacterias, altamente regulado, en donde se establecen relaciones simbióticas entre sus miembros.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 19BACTERIÓFAGOS CONTRA LA CARIES
La caries es una enfermedad oral cuya
etología se centra en un desbalance
de la comunidad bacteriana debido al
incremento de las bacterias producto-
ras de ácidos, las cuales llevan a una
desmineralización del diente y a una
disminución de las bacterias capaces
de neutralizar dichos ácidos.
Más allá, dentro de la placa dentobacte-
riana y de la saliva, existe otro conjunto
de microorganismos que combate a
las bacterias de la caries, que disminu-
ye el riesgo de desarrollarla y aumen-
ta los organismos beneficiosos para la
salud oral. Estos microorganismos son
de naturaleza vírica, es decir, son virus.
Aquellos que infectan sólo a bacterias
son conocidos con el nombre de bacte-
riófagos, pero para comprender su na-
turaleza y, por tanto, su importancia en
el establecimiento de una microbiota
oral en equilibrio —eubiosis, que hace
referencia al estado de salud oral don-
de un conjunto de microorganismos
favorecen la salud— o en desequilibrio
—disbosis, que sucede cuando hay una
pérdida del balance entre los microor-
ganismos responsables de la salud,
permitiendo que aquellos patógenos
desarrollen la enfermedad— es necesa-
rio responder las siguientes preguntas.
¿Qué son los virus?
Son partículas extremadamente pe-
queñas formadas por una estructura
proteica denominada cápside, que
contiene la información mínima nece-
saria para poder llevar acabo un ciclo
infeccioso. En algunos casos contiene
proteínas que sobresalen de la cápsi-
de, las cuales reconocen receptores
específicos en la membrana que recu-
bre a las células. Una vez reconocido
este sitio, se ancla a él y desencadena
una serie de señales secundarias, lo
que provoca la inserción del material
genómico —sea ADN o ARN— dentro
de la célula. En este punto pueden
darse dos escenarios: el ciclo lítico o el
ciclo lisogénico.
El ciclo lítico consiste en la replicación
inmediata de los genes del virus usan-
do enzimas virales y del huésped. Una
vez que se multiplican dentro del cito-
plasma, el genoma viral es empaque-
tado dentro de las cápsides; cuando
se han replicado suficientes copias, la
célula explota y muere.
El ciclo lisogénico consiste en la replica-
ción tardía de los genes, ya que éstos se
acoplan al ADN de la célula huésped y
se mantienen en un estado latente, sin
replicarse. Posteriormente, los genes
se nutren de las enzimas de la célula
huésped, lo que favorece su multiplica-
ción y asegura su presencia cada que
la célula se divida. En algún momento,
ciertas condiciones celulares —como el
estrés— provocan que sean expresa-
dos. Esto da lugar a la producción de
las proteínas y del genoma viral, lo que
produce partículas infecciosas que pro-
vocan la muerte de la célula por medio
de la lisis celular, en donde se expulsa
el contenido al espacio extracelular y se
permite infectar otras células.
Cuando esto sucede, el virus puede
producir más de 100 copias de sí mis-
mo en cada infección exitosa. Además,
aprovecha la cercanía entre las células
para infectar más rápido, esto provoca
una muerte exponencial de células, lo
que genera daños al huésped y com-
promete su salud.
No obstante, los bacteriófagos no cau-
san daño al huésped que contiene a la
bacteria blanca, esto se debe a que, a
diferencia de las bacterias, los bacte-
riófagos no infectan células humanas.
De hecho, su infectividad está restrin-
gida a un número muy reducido de
especies bacterianas, por lo que pode-
mos inferir que son seguros para el ser
humano y para otras bacterias que no
sean patogénicas para éste.
¿Qué es un bacteriófago?
Los bacteriófagos —o fagos— son virus
cuya naturaleza les permite infectar
bacterias al reconocer sitios específi-
cos en su pared celular. El conjunto de
estas bacterias forman un biofilm —o
biopelícula—, conformado por proteí-
nas y polisacáridos, lo que facilita su
comunicación y supervivencia; ade-
más, los protege de agentes externos
como los antibióticos, que dificultan su
eliminación.
Fueron descritos por primera vez en
1896 por el bacteriólogo inglés Ernest
Hanbury, cuando se supo de pequeñas
partículas que erradicaban una bacteria
denominada Vibrio cholerae, la cual se
encontraba en el agua de los ríos de
la India. En 1915 Frederick Twort des-
cubrió agentes minúsculos que inhibían
el crecimiento bacteriano en cultivos.
Desafortunadamente, con la Primera
Guerra Mundial y el recorte de presu-
puesto, abandonó su investigación. Fue
hasta 1917 que Felix d’Herelle descu-
brió que existía un agente extraído de
las aguas residuales, que prevenía la
aparición de enfermedades diarreicas
—como la disentería— e incluso llegó a
tratar exitosamente a un joven con es-
tos organismos.
UNIVERSITARIOS POTOSINOS 235 MAYO 201920 MENDOZA, J., COMAS, M. Y ARANDA, S. PÁGINAS 18 A 21
Actualmente, se vive un combate des-
favorable contra infecciones por medio
de la antibioticoterapia (la cual consis-
te en la administración de antibióticos
con el fin de controlar o erradicar una
infección bacteriana), pues las bacte-
rias resistentes a los antibióticos han
dado lugar a un nuevo espectro de
patógenos. Los fallos en el tratamiento
contra éstas han obligado a los profe-
sionales a buscar nuevas alternativas
para el control de infecciones, pero es
más rápida la adaptación de las bacte-
rias que el requerido para el desarrollo
y producción de antibióticos.
Sin embargo, en el caso de los fagos,
éstos penetran en la biopelícula úni-
camente en búsqueda de bacterias
patógenas en las que depositan su
contenido genómico, lo que asegura
su destrucción y disminuye la inciden-
cia de enfermedades, evitando así la
nueva formación de la biopelícula, la
recolonización de bacterias y, por lo
tanto, la necesidad de un tratamiento
antibiótico; ya que el efecto lítico de
los fagos no se ve inhibido por genes
de resistencia a antibióticos, éstos po-
drían ser una alternativa a la antibioti-
coterapia.
En otras áreas, el uso tópico de fagos
ha demostrado ser efectivo para el tra-
tamiento de enfermedades de la piel.
En estudios realizados en la piel de ga-
llina, por ejemplo, se reportó una dis-
minución de Salmonella y Campylo-
bacter, al igual que el fago que infecta
a K. pneumoniae presentó mayor ac-
tividad antibacteriana que la miel y el
aloe. Incluso hay evidencia sobre sus
efectos en la otitis media, pues su ad-
ministración por el conducto auditivo
tuvo efecto sobre la bacteria patógena,
P. aeruginosa. También, se ha descrito
el efecto del fago PH15 para el comba-
te de la bacteria S. gordonii asociada
con la endocarditis, transportado a tra-
vés de lesiones en el tejido oral.
Bacteriófagos en la cavidad oral vs.
patógenos de la caries
A pesar de que la caries es resultado
de la interacción de un consorcio de
bacterias con su entorno, lo que difi-
culta un tratamiento específico, resul-
tados recientes han demostrado que
existen fagos en la cavidad oral que
regulan el crecimiento de patógenos.
Se sabe que existen por lo menos de
108 a 1 010 partículas virales por mili-
litro de saliva humana y por gramo de
placa dental; la lista de fagos aislados
de la cavidad oral incluye combate a
bacterias como Fusobacterium, Lacto-
bacillus, Neisseria, Streptococcus, Tre-
ponema, entre otros.
De estas bacterias, el Streptococcus
mutans está asociado con el desarro-
llo de la caries; la evidencia data de
1982, cuando Masako Higuchi des-
cribió el fago lisogénico PK1, dirigido
únicamente a este agente patógeno.
Posteriormente, en 1988 Edward Ar-
mau describió los fagos líticos para S.
mutans y S. sobrinus. En 1993, Allan
Delisle concluyó que, de los experi-
mentos realizados, 6 de 19 aislados
clínicos de S. mutans fueron sensibles
e inhibidos en la presencia del fago
M102, lo que confirma el principio
de infección: un bacteriófago infecta
a una sola cepa bacteriana. En 2015,
Marion Dalmasso cultivó la bacteria S.
mutans en caldo y en saliva artificial
con uno por ciento de glucosa y con
En la placa dentobacteriana y la saliva hay microorganismos que combaten las bacterias de la caries
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 21BACTERIÓFAGOS CONTRA LA CARIES
Es licenciado en enfermería y actualmente realiza una maestría en la Facultad de Estomatología de la UASLP.
JUAN MANUEL MENDOZA MÉNDEZ
extracto del fago APCM01; las evalua-
ciones mostraron una curva de muerte
de la bacteria en ambos casos, lo que
confirma la capacidad inhibitoria del
fago APCM01.
¿Por qué la caries sigue siendo un
problema de salud pública?
Actualmente, el tratamiento de la ca-
ries se basa en la remineralización
del esmalte perdido mediante la co-
locación de sustancias que vuelvan a
mineralizar ese diente. Dentro de las
sustancias más utilizadas para ello está
el flúor, un mineral natural que se en-
cuentra en el agua y los alimentos; sin
embargo, existen controversias sobre
su utilización debido a la toxicidad que
tiene. Si no es posible lograr la remine-
ralización del diente, el tratamiento re-
comendado es la remoción del tejido
cariado y la colocación de una restau-
ración a base de resina, que depende
de la extensión de la lesión.
Si bien el estado de mineralización de
los dientes es un factor que condiciona
la gravedad de la caries, no es la etiolo-
gía real; el origen del problema es una
multiplicación descontrolada de pató-
genos orales que acidifican el medio
por la falta de higiene y el consumo de
carbohidratos. Por más remineralizado
que esté un diente, si las condiciones
inadecuadas persisten, terminará por
romper la integridad de este, provo-
cando caries.
Por tal motivo, es necesario considerar
a la fagoterapia como una alternativa
eficaz que combata a la raíz del pro-
blema, pues mediante la utilización de
bacteriófagos podrían eliminarse a las
bacterias acidúricas selectivamente, lo
cual favorecería la multiplicación de las
benéficas, logrando recuperar el equi-
librio de la microbiota oral; de esta for-
ma no existiría una desmineralización
del diente.
Por ello, es importante la continua
investigación sobre los fagos; si bien
ya existen avances al respecto, los
estudios publicados sólo se basan en
ensayos de laboratorio sin una aplica-
ción clínica.
Actualmente, nuestro laboratorio ha
abierto una línea de investigación so-
bre bacteriófagos, la cual se encuentra
en el proceso de recolección de mues-
tras salivales, así como de muestras de
distintas fuentes acuíferas para la iden-
tificación, caracterización y aislamiento
de nuevos fagos que permitan su utili-
zación en ensayos clínicos para evaluar
su efecto benéfico en la eliminación
de la caries dental.
Referencias bibliográficas:Armau, E., Bousque, J. L., Boue, D., y Tiraby, G. (1988). Isolation of
lytic bacteriophages for Streptococcus mutans and Strepto-coccus sobrinus. Journal of Dental Research, 67, p. 121.
Dalmasso, M., de Haas, E., Neve, H., Strain, R., Cousin, F. J., Stockdale, S. R … y Hill, C. (2015). Isolation of a Novel Phage with Activity against Streptococcus mutans Biofilms. PLoS One, 10(9), e0138651. https://doi.org/10.1371/journal.pone.0138651
Delisle, A. L. y Rostkowski, C. A. (1993). Lytic bacteriophages of Streptococcus mutans. Current microbiology, 27(3), pp. 163-167.
Méndez, J. M. M., Romo, S. A. y Santacruz, H. D. L. (2018). Steptococcus dentisani, ¿el protagonista de la salud oral del futuro? Universitarios Potosinos, 14(219), pp. 22-25.
Qadir, M. I., Mobeen, T., y Masood, A. (2018). Phage therapy: progress in pharmacokinetics. Brazilian Journal of Phar-maceutical Sciences, 54(1). https://doi.org/10.1590/s2175-97902018000117093
UNIVERSITARIOS POTOSINOS 235 MAYO 201922
CARLOS ERNESTO ARCUDIA HERNÁ[email protected] BERENICE ORTA FLORESBLANCA TORRES ESPINOSAUNIDAD ACADÉMICA MULTIDISCIPLINARIA ZONA HUASTECA, UASLP
Recibido: 13.03.2019 I Aceptado: 20.03.2019
Palabras clave: Contratación electrónica, desmaterialización, incorporación, títulos de crédito y títulos masivos.
La característica principal de un título de crédito es la incorporación del derecho literal expresado en el documento que lo contiene (por ejemplo, cheques y pagarés). Esto es, el derecho que contiene el título está indisolublemente ligado a él. En los ámbitos de la práctica forense circula el mito del “abogado come-papel”, quien para evitar el cobro de un pagaré se lo traga, de tal suerte que su contraprarte pierde el derecho a reclamar lo adeudado. Y es que debido a la incorporación, al desaparecer el título que le da soporte al derecho, éste sigue la misma suerte.
La desmaterialización de los
títulos de crédito
ARCUDIA, C., ORTA, S. Y TORRES, B. PÁGINAS 22 A 25
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 23
Ahora bien, producto del avance tec-
nológico y de las necesidades del trá-
fico mercantil, en los últimos años he-
mos observado una tendencia hacia la
desmaterialización o desincorporación
de los títulos de crédito. Siguiendo el
principio de que “norma especial, de-
roga norma general” en los ordena-
mientos jurídicos específicos se han
configurado excepciones al principio
establecido en la Ley General de Títu-
los y Operaciones de Crédito (LGTOC).
Actualmente se aceptan títulos de
crédito, contenidos en un documento
electrónico.
La desmaterialización de los títulos de
crédito se define como:
Un proceso mediante el cual los tí-
tulos cambiarios seriales que han
sido creados y emitidos físicamente
a través de un macro título, son susti-
tuidos o reemplazados para su circu-
lación y transmisión por instrumentos
alternos como mensajes de datos
o el documento electrónico que, al
igual que los títulos tradicionales, per-
miten a través de medios electróni-
cos específicos acreditar la existencia
del derecho y la correlativa obligación
(Durán Díaz, 2009, p. 93).
Para efectos de dotar a nuestro ama-
ble lector de herramientas que le
permitan saber en qué casos es po-
sible expedir títulos valor con carác-
ter inmaterial, analizaremos los casos
en los que las leyes lo permiten. A
bote pronto, y comparándolo con los
procesos contables electrónicos, no
es de extrañarnos que en un futuro
no muy lejano, la inmaterialidad de
los títulos valor sea la norma y no la
excepción.
Regulación de los títulos de crédito
en la LGTOC
El artículo 5 de dicha ley preceptúa que
los títulos de crédito son los documen-
tos necesarios para ejercitar el derecho
literal en ellos consignado. De lo que se
coligan las características de incorpora-
ción —antes señalada— y de literalidad,
que consiste en que lo que se escriba
en el título es lo que obliga a las partes.
Por su parte, el artículo 1º de LGTOC
dispone que los títulos de crédito son
cosas mercantiles, su emisión, expe-
dición, endoso, aval, aceptación y las
demás operaciones que en ellos se
consignan son actos de comercio. En
este artículo claramente se le da cor-
poreidad al título de crédito. Al decla-
rarlo cosa, el legislador está pensando
que es un bien susceptible de apropia-
ción. Distingue sus actos de creación y
transmisión; éstos son actos jurídicos,
no cosas mercantiles —bienes sujetos
de apropiación—, por ejemplo, suscri-
bir un pagaré es un acto de comercio,
pero el pagaré producto de esa sus-
cripción es una cosa (bien mueble)
susceptible de apropiación, y es distin-
ta de su acto de creación.
Pues bien, al profundizar en la caracte-
rística de incorporación, el artículo 17 de
la LGTOC dispone que quien posea un
título de crédito, denominado tenedor,
debe exhibirlo para ejercer el derecho.
En caso de que sea pagado, debe resti-
tuirlo. Así las cosas, cuando una persona
un crédito documentado con un pagaré;
no basta pagarle al acreedor, éste debe
devolver el pagaré al deudor. No es po-
sible transmitir el título sin transmitir el
derecho que en él se consigna, según
dispone el artículo 18 de la LGTOC. Para
poder transmitirlo, es necesario que el
TITULACIÓN DE CRÉDITO ELECTRÓNICOS
UNIVERSITARIOS POTOSINOS 235 MAYO 201924 ARCUDIA, C., ORTA, S. Y TORRES, B. PÁGINAS 22 A 25
endoso conste en el título o en hoja
adherida a él. Es común endosar che-
ques que han sido expedidos a nuestro
favor para pagar a otra persona alguna
deuda; para ello debemos estampar
nuestra rúbrica en la parte trasera del
cheque y entregársela a la persona a la
que se lo hemos endosado.
A todas luces la LGTOC regula la creación
física de títulos de crédito en papel, que
circulan de mano en mano. Así como
los billetes de banco, que en su día tam-
bién fueron títulos de crédito. Esta situa-
ción comenzó a ocasionar problemas en
el marco de los títulos que se emiten
en masa o en serie. Normalmente es-
tos títulos de crédito son acciones de
sociedades anónimas, obligaciones y
pagarés que se colocan entre el gran
público inversionista a través de la Bolsa
de Valores. Y es que al incrementarse
exponencialmente el volumen de títulos
negociados en las bolsas de valores fue
necesario establecer instituciones de
depósito para administrarlos. También
los bancos se han visto en la necesidad
de utilizar la desmaterialización para in-
crementar la penetración de los servi-
cios de banca y crédito.
La expedición de títulos masivos
desmaterializados
La desmaterialización de los títulos de
crédito es un proceso que comenzó
con los títulos emitidos en serie. Este
proceso inició en Alemania, en 1882,
con el sistema de depósito colectivo
de valores en el Depósito Centralizado
y de Transferencias. En Francia, por Ley
de 18 de junio de 1941, se estableció
la obligación de depositar las acciones
y obligaciones de las sociedades anó-
nimas francesas en la Caja Central de
Depósitos y Transferencias de Títulos
(Toledo González, 2006, pp. 60-62).
En Estados Unidos de América se creó,
en la década de 1960, el Central Certifi-
cate Service para concentrar los valores
que se manejaban en Wall Street. Esta
entidad fue sustituida dos décadas des-
pués por The Depository Trust Com-
pany (Toledo González, 2006, p. 63).
En nuestro país el proceso desmateria-
lizado inició en 1975, con la expedición
de la antigua Ley del Mercado de Va-
lores (LMV). En la regulación relativa al
contrato de intermediación bursátil. Éste
es un contrato por medio del cual el
cliente confiere un poder general, para
que, por su cuenta, la casa de bolsa rea-
lice operaciones a nombre de la misma.
Pues bien, en la fracción II del artícu-
lo 91 de la LMV se establece que “las
instrucciones del cliente para la ejecu-
ción de operaciones concretas o mo-
vimientos en la cuenta del mismo, po-
drán hacerse de manera escrita, verbal
o telefónica”. En el segundo párrafo de
esa fracción se posibilita que las partes
puedan “convenir libremente el uso de
carta, telégrafo, télex, telefax o cualquier
otro medio electrónico, de cómputo o
de telecomunicaciones para el envío, in-
tercambio o en su caso confirmación de
las órdenes de la clientela inversionista”.
Además, la LMV de 1975 contempló la
creación del Instituto de Depósito de
Valores (Indeval), que prestaría el ser-
vicio de guarda, administración, com-
pensación, liquidación y transferencia
centralizada de valores a los actores
del mercado de valores (casas de bol-
sa, instituciones de crédito, de seguros
y fianzas). Por lo tanto, a partir de su
creación, todos los títulos de crédito
susceptibles de negociarse a través de
la bolsa deberían depositarse en el In-
deval, con ésta acción se inmovilizaban
y el Indeval sería quien controlara las
operaciones sobre los mismos, pero sin
que forzosamente hubiese entrega físi-
ca (artículo 57, LMV de 1975).
El último paso hacia la desmaterializa-
ción en el sector bursátil lo constituye la
promulgación de la Ley del Mercado de
Valores de 2005, que establece en su
artículo 282 que los títulos depositados
en el Indeval podrán emitirse de ma-
nera electrónica en forma de mensaje
de datos con firma electrónica avanza-
da, de acuerdo con lo establecido en el
Código de Comercio y de conformidad
con las disposiciones de carácter gene-
ral que emita el Banco de México.
El artículo 283 de la LMV de 2005
dispone que la entrega de los títu-
los al Indeval, tratándose del servicio
de depósito de valores, que consten
en medios electrónicos, ópticos o de
cualquier otra tecnología, así como la
recepción de los mismos, se hará ajus-
tándose a las disposiciones contenidas
en el Código de Comercio.
Asimismo, para el sector bancario, la Ley
de Instituciones de Crédito de 1990 (LIC)
en su artículo 52 dispone que los bancos
podrán pactar la celebración de opera-
ciones y prestación de servicios con su
clientela, mediante “el uso de equipos,
medios electrónicos, ópticos o de cual-
quier otra tecnología, sistemas automa-
tizados de procesamiento de datos y
redes de telecomunicaciones ya sean
públicos o privados”. Esta regulación hizo
posible, desde la década de 1990, el uso
de números de identificación personal
en los cajeros automáticos para realizar
operaciones bancarias. En la actualidad
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 25TITULACIÓN DE CRÉDITO ELECTRÓNICOS
uno puede suscribir cualquier contrato
bancario, incluida la suscripción de títu-
los de crédito, por medio de la banca
electrónica. Ésta ha llegado a niveles
tan avanzados que en el propio teléfono
celular, utilizando una aplicación ad hoc
y dispositivos de seguridad biométricos
como la huella digital, se tienen todos los
servicios de una sucursal bancaria.
La desmaterialización es un proceso
que está muy avanzado en el ámbito
bursátil y bancario; principalmente por-
que son sectores que están a la van-
guardia tecnológica, y a que los intere-
ses del público están garantizados por
el Estado a través del Banco de Méxi-
co, la Secretaría de Hacienda y Crédito
Público y la Comisión Nacional Banca-
ria y de Valores. Pero la regulación del
comercio electrónico en el Código de
Comercio sienta las bases para que en
un futuro no muy lejano, todos los títu-
los de crédito puedan ser suscritos de
manera electrónica.
La contratación electrónica en el
Código de Comercio
Completa la regulación de la desmate-
rialización de los títulos de crédito las
reformas el Código de Comercio de
2000 y 2003 en las que se establecen
las bases de la contratación electróni-
ca, los títulos de crédito tienen origen
en un acuerdo de voluntades y, por
ende, pueden seguir las reglas de la
contratación electrónica. El artículo
89 del Código de Comercio establece
que en la celebración de los actos de
comercio podrán emplearse medios
electrónicos, ópticos o cualquier otra
tecnología; también establece una
serie de definiciones básicas como
mensaje de datos, firma electrónica,
prestador de servicios de certificación,
sistema de información, entre otros
términos básicos para la realización de
operaciones electrónicas.
Para reforzar nuestra tesis de la posible
utilización de títulos de crédito electró-
nicos, el artículo 89 Bis del Código de
Comercio establece que “No se nega-
rán efectos jurídicos, validez o fuerza
obligatoria a cualquier tipo de informa-
ción por la sola razón que esté conteni-
da en un mensaje de datos”. Por ende,
ese mensaje tiene el mismo valor pro-
batorio que un documento impreso.
Si bien en los ámbitos bancario y bur-
sátil los títulos de crédito y demás ope-
raciones hoy en día son preponderan-
temente electrónicas, en las relaciones
entre particulares sigue primando la
suscripción de títulos de crédito en
papel. Suponemos que con los avan-
ces tecnológicos, en un futuro próximo
habrá la disposición de los particulares
que deseen suscribir títulos de crédito
en sistemas informáticos fiables que
les permitan desmaterializar este tipo
de documentos. Las bases legales
contenidas en el Código de Comercio
al día de hoy permiten, sin ningún pro-
blema, la contratación electrónica.
A manera de conclusión podemos es-
tablecer que la desmaterialización de
los títulos de crédito ha hecho posible
que —en estos días— podamos realizar
cualquier compra con nuestro NIP de la
tarjeta de crédito, generando de esta
forma un pagaré electrónico para do-
cumentar la operación. También pode-
mos contratar pagarés bancarios desde
la app para celular de nuestro banco,
o bien, desde la banca por internet. En
otros países, se ha extendido el uso de
los cheques electrónicos.
Doctor en Derecho Mercantil por la Universidad Complutense de Madrid, España. Es profesor investigador en la Unidad Académica Multidisciplinaria Zona Huasteca de la UASLP y trabaja en el proyecto “Hacia una teoría general de la desmaterialización de los títulos de crédito”.
CARLOS ERNESTO ARCUDIA HERNÁNDEZ
Referencias bibliográficas:Durán Díaz, O. (2009). Los títulos de crédito electrónicos, su
desmaterialización. México: Porrúa.Toledo González, V. (2006). La desmaterialización de los títulos
de crédito. En E. Quintana Adriano (Coord.) Panorama inter-nacional de derecho mercantil, pp.47-84. México: UNAM.
UNIVERSITARIOS POTOSINOS 235 MAYO 201926 PÉREZ, P. PÁGINAS 26 A 29
Una manera sencilla de analizar
exámenes de opción múltiple
PATRICIA PÉREZ [email protected] DE MEDICINA, UASLP
Recibido: 15.02.2019 I Aceptado: 15.03.2019
Palabras clave: Examen, fisiología y reactivos.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 27CONTROL DE EXÁMENES
PATRICIA PÉREZ [email protected] DE MEDICINA, UASLP
Para los profesores universitarios no
siempre es fácil estar al día en cuanto a
las mejores prácticas docentes; se pro-
fundiza en el dominio del campo aca-
démico, pero se dedica menos tiempo
a evaluar los métodos de enseñanza uti-
lizados. A partir de 2010, bajo la tutoría
de una colega de la Universidad de West
Chester (West Chester, PA, USA), intro-
duje cambios en mi práctica docente. A
partir de entonces he asistido a congre-
sos sobre educación donde he aprendi-
do sobre nuevos métodos de enseñanza
y en los últimos meses me he interesado
por el tema de los exámenes.
En la Facultad de Medicina de la Univer-
sidad Autónoma de San Luis Potosí se
evalúa a los estudiantes de la Licenciatu-
ra de Médico Cirujano mediante exáme-
nes de opción múltiple, que presentan
ventajas cuando se trabaja con grupos
grandes, de 100 a 150 personas, ya que
permite calificar con rapidez (algo que los
alumnos siempre agradecen) y de ma-
nera automática mediante el uso de un
lector óptico, que evita ambigüedades
en la manera de calificar y permite hacer
un análisis estadístico de los resultados.
Además, el uso de guías para la elabo-
ración de preguntas adecuadas permite
construir un examen bien redactado que
puede usarse para la evaluación de los
estudiantes.
Las calificaciones obtenidas de las evalua-
ciones pueden usarse como un indicador
del aprovechamiento académico. En con-
secuencia, un examen puede evaluar la
eficacia de distintas estrategias de ense-
ñanza; éste es el aspecto que me intere-
sa. Por ejemplo, para mejorar mi práctica
docente he probado diferentes estrate-
gias de enseñanza, pero cómo saber si
la que escogí es efectiva. Lo más sencillo
es suponer que una estrategia efectiva
dará como resultado un mayor aprove-
chamiento académico; en otras palabras,
las calificaciones de los estudiantes mejo-
ran al aplicar dicha estrategia, por lo tanto,
uno podría comparar las calificaciones
obtenidas por diferentes grupos, asu-
miendo que la única variable de cambio
es el método de enseñanza empleado.
Un breve análisis comparativo
Para investigar si el método de enseñan-
za basado en casos de estudio era mejor
que las clases frente a grupo, realicé un
análisis retrospectivo que incluyó datos
obtenidos durante 10 años dando clases
a estudiantes de segundo año, en la Fa-
cultad de Medicina, inscritos en el curso
de Fisiología. En el análisis sólo se inclu-
yeron las calificaciones obtenidas en el
examen de la sección de Fisiología En-
docrina; la sección consta de 12 clases
y una práctica de laboratorio. Los datos
colectados se dividieron en dos mitades:
grupos de aprendizaje pasivo (recibieron
clases tradicionales frente a grupo) y gru-
pos de aprendizaje activo (recibieron cla-
se y además participaron durante ellas
contestando preguntas y discutiendo
en grupo diferentes casos de estudio).
Los primeros sumaron un total de 615
estudiantes que tomaron clases durante
los años 2005 (124), 2006 (108), 2007
(107), 2008 (137) y 2009 (139). Los se-
gundos activo sumaron un total de 744
estudiantes que tomaron clases durante
los años 2012 (178), 2013 (201), 2014
(105), 2015 (126) y 2016 (134). En los
paréntesis se incluye el número de es-
tudiantes inscritos en cada año escolar.
En la figura 1 se comparan las califica-
ciones promedio obtenidas por los cin-
co grupos de aprendizaje pasivo (barras
negras) contra las calificaciones de otros
cinco grupos de aprendizaje activo (ba-
rras grises).
Como puede observarse, no hay una
mejora sustancial en cuanto a calificacio-
nes en los grupos de aprendizaje activo,
pero, ¿podemos concluir que el nuevo
método de enseñanza no beneficia a los
estudiantes? Tal vez, pero esto contradice
lo reportado en la literatura (Freeman et
al., 2014). Al analizar los exámenes apli-
cados en cada uno de esos años, me
di cuenta de que los exámenes tenían
distintos grados de dificultad. ¿Es esto
relevante? Benjamin Wright y Mark Sto-
ne comentan en su libro Diseño óptimo
de pruebas: “Casi todo el mundo se da
cuenta de que el cincuenta por ciento de
respuestas correctas en una prueba fácil
no significa lo mismo que cincuenta por
ciento de respuestas correctas en una
prueba difícil” (1979, p. 7).
Aprendizaje tradicional Aprendizaje activo
Cali�
caci
ón p
rom
edio
10
8
6
4
2
0
Figura 1.
UNIVERSITARIOS POTOSINOS 235 MAYO 201928
La figura 2 muestra que en los grupos
comparados la calificación promedio
(media ± desviación estándar) disminu-
yó conforme aumentó la dificultad del
examen, lo que nos indica que la varia-
ción observada en las calificaciones se
debe a la dificultad del examen y no al
método de enseñanza utilizado (clases
frente a grupo versus el método de ca-
sos donde participaron los estudiantes).
Esto sugiere que al hacer comparaciones
debemos asegurarnos de que el instru-
mento de medición (el examen) funcio-
PÉREZ, P. PÁGINAS 26 A 29
Figura 2.
Figura 3.
Tabla 1.
Grado de di�cultad en el examen0.0 0.1 0.2 0.3 0.4 0.5
Cali�
caci
ón m
edia
10
9
8
7
6
5
4
3
2
1
0
Grado de di�cultad
Índice de discriminación
10.46
0.40
20.33
0.40
30.62
0.46
40.38
0.66
50.10
0.26
60.75
0.2
70.71
0.33
80.33
0.26
Reactivo
ne de manera adecuada. Lo recomenda-
ble sería aplicar exámenes equivalentes
en los grupos a comparar. Pero, ¿cómo
saber si mis exámenes son adecuados?
El método de Rasch
En el campo de la psicología se desarro-
lló el método de Rasch, usado por psi-
cólogos educativos en la aplicación de
pruebas estandarizadas, las cuales son
evaluaciones a gran escala que permi-
ten comparar distintas poblaciones de
estudiantes.
El método de Rash usa una escala li-
neal para medir tanto las habilidades de
los estudiantes como la dificultad de las
preguntas. Con esos datos se constru-
ye un modelo matemático que permite
determinar la calidad de cada una de las
preguntas (Tristán, 1998). Por ejemplo,
Martín y colaboradores (2011) lo aplica-
ron para calibrar un examen diagnóstico
de química compuesto por 12 reactivos
(o preguntas). Un examen calibrado de
química es uno que puede aplicarse a
distintas poblaciones para hacer una me-
dición con propiedades invariantes (Mar-
tín et al., 2011).
Análisis del examen
No siempre es posible calibrar los exá-
menes que aplicamos; sin embargo es
importante tener presente que su calidad
está dada por la excelencia de cada uno
de los reactivos. Un examen de calidad
debe ser confiable (medir consistente-
mente el nivel de aprendizaje) y válido
(medir realmente lo que intenta medir-
se) de manera que sirva para evaluar el
aprendizaje de los jóvenes. La confiabi-
lidad de un examen se ve afectada por
dos factores importantes: el grado de
dificultad (indica que tan difícil es la pre-
gunta para los alumnos) y la capacidad
de discriminación de cada reactivo (indi-
ca si la pregunta es capaz de diferenciar
entre estudiantes con mayor o menor
conocimiento) (Engelhardt, 2009).
Entonces, ¿puedo usar estos parámetros
para hacer un análisis rápido de mi exa-
men? A continuación se muestra como
ejemplo el análisis de ocho reactivos
incluidos en el examen ordinario de la
materia de Fisiología, impartida en 2018,
conformado en total por 50 preguntas
Habilidad
-3 -2 -1 0 1 2 3
Prob
abili
dad
1.0
0.8
0.6
0.4
0.2
0
Reactivo 6
Reactivo 4
Ajuste
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 29
de opción múltiple, de las cuales las
ocho de las analizadas correspondían a
la sección de Fisiología endocrina. El exa-
men fue presentado por 52 estudiantes.
Para cada reactivo se calculó el índice de
dificultad al dividir el número de acier-
tos entre el número de estudiantes que
presentaron el examen. El rango de va-
lores para este indicador va de 0 (nadie
contestó correctamente la pregunta) a
1 (todos contestaron bien la pregunta),
de manera que mientras mayor sea el
índice de dificultad más fácil será la pre-
gunta (Engelhardt, 2009). Asimismo, se
calculó el índice de discriminación para
cada reactivo. Para ello se ordenaron las
calificaciones de mayor a menor, luego la
lista se dividió en tres partes. Estudiantes
con mayor conocimiento (27 por ciento)
localizados en el tercio superior (S) y es-
tudiantes con menor conocimiento (27
por ciento) localizados en el tercio infe-
rior (I). Luego se sumaron los aciertos en
cada grupo y se aplicó la formula D= (S-
I)/(N/2). Donde N es el número total de
estudiantes que presentaron el examen
(Engelhardt, 2009).
La tabla 1 resume los índices de dificul-
tad y discriminación que se calcularon
para cada reactivo. En la primera fila se
muestra el grado de dificultad calculado.
Para este parámetro un valor de 0.5 se
considera óptimo por tener una dificul-
tad media (Engelhardt, 2009). Un reac-
tivo fácil tiene valores mayores a 0.7 y
uno difícil menores a 0.3. Los reactivos 1,
2, 3, 4 y 8 tienen un grado de dificultad
adecuado (0.3 a 0.6), mientras que los
6 y 7 son fáciles (>0.7) y el 5 es difícil
(0.1). Como ya se explicó, el índice de
discriminación se calculó con base en el
patrón de respuesta de los estudiantes
con mayor y menor conocimiento. El ran-
go de valores para este parámetro va de
-1 a +1. Reactivos con valores de 0.3-1.0
se considera discriminan de manera ade-
cuada (Engelhardt, 2009). Como puede
observarse en la tabla 1, los reactivos 5, 6
y 8 no discriminan de manera adecuada
porque tienen un índice menor a 0.3.
De acuerdo con la teoría de respuesta
al ítem (TRI), la cual utiliza el método de
Rasch, se establece que la probabilidad
de que un estudiante responda correc-
tamente a un reactivo depende de su
habilidad (conocimiento) y de las carac-
terísticas del reactivo (dificultad y poder
de discriminación). Esta relación entre la
probabilidad y la habilidad se ajusta a una
función logística, lo que da lugar a la cur-
va característica del reactivo (CCR).
La figura 3 muestra la CCR para los reacti-
vos 4 y 6. En esta representación gráfica
(que incluye los parámetros de dificultad
y poder de discriminación calculados)
puede observarse que el reactivo 4 es
muy diferente al 6. El índice de dificul-
tad y discriminación se muestran como
el punto de inflexión y la pendiente de
la curva (Tristán, 1998). Aquí puede
verse que el reactivo 6 tiene un grado
de discriminación no óptimo (discrimi-
nación=0.2), ya que la pendiente de su
curva es poco profunda. El caso del reac-
tivo 4 muestra una curva con un punto
de inflexión y una pendiente adecuadas
(dificultad=0.38 y discriminación=0.66).
Así, la CCR nos permite inspeccionar de
manera visual la calidad de cada reactivo.
Conclusiones
El análisis de los exámenes puede llevar-
se a cabo utilizando la teoría de respuesta
al ítem, la cual permite ubicar la habilidad
de los estudiantes y la dificultad de las
preguntas en una sola escala. Al calcular
los índices de dificultad y de discrimina-
ción de cada pregunta incluida en el exa-
men, se aplica esta teoría. De esta ma-
nera es posible hacer un análisis rutinario
Es doctora en ciencias por la Universidad de Rochester en Nueva York, Estados Unidos de América. Es profesora investigadora de tiempo completo nivel VI en la Facultad de Medicina de la UASLP. Trabaja en el proyecto “Interacciones entre canales iónicos y lípidos en la membrana plasmática”.
PATRICIA PÉREZ CORNEJO
CONTROL DE EXÁMENES
de exámenes de opción múltiple con el
fin de garantizar la calidad de los reacti-
vos. Mi motivación inicial fue comparar
las calificaciones obtenidas con distintos
métodos de enseñanza para saber si usar
uno nuevo da como resultado un mayor
aprovechamiento académico. Con este
análisis puedo decir que si elaboro pre-
guntas con grados de dificultad similar,
podré aplicarlas para comparar califica-
ciones obtenidas por diferentes grupos.
En resumen, al asegurar que los exáme-
nes aplicados son adecuados, puede
evaluarse con mayor confianza el apren-
dizaje de nuestros estudiantes.
Referencias bibliográficas:Engelhardt, P. V. (2009). An introduction to classical test theory
as applied to conceptual multiple-choice tests. Getting Started in Physics Education Research, 2(1), pp. 1-40.
Freeman, S., Eddy, S. L., McDonough, M., Smith, M. K., Okoro-afor, N., Jordt, H. y Wenderoth, M. P. (2014). Active learning increases student performance in science, engineering, and mathematics. Proceedings of the National Academy of Sciences, 111(23), pp. 8410-8415.
Martín Guaregua, N., Díaz Torres, C., Córdoba Herrera, G., y Picquart, M. (2011). Calibración de una prueba de química por el modelo de Rasch. Revista Electrónica de Investigación Educativa, 13(2), 132-148.
Tristán, A. (1998). Análisis de Rasch para todos: Una guía simpli-ficada para evaluadores educativos. México: Centro Nacional de Evaluación para la Educación Superior.
Wright, B. D. y Stone, M. H. (1979). Best Test Design: Rasch Measurement [Diseño óptimo de pruebas]. Chicago, IL: Mesa Press.
UNIVERSITARIOS POTOSINOS 235 MAYO 201930 ACCINELLI, E. PÁGINAS 30 A 33
Recibido: 27.12.2019 I Aceptado: 29.03.2019
Palabras clave: Abstracciones, dogmas, modelos, procesos de conocimiento y teoría económica.
La teoríaeconómica:¿dogma o guíapara la acción?
ELVIO ACCINELLI GAMBA [email protected] DE ECONOMÍA, UASLP
La teoría económica moderna parte del comportamiento de las unidades económicas individuales, consumidores y firmas, para crear una teoría macroeconómica que explique el funcionamiento de la economía de cada país. Este punto de vista nos permite considerar mecanismos que incentiven a los agentes económicos a actuar de una forma u otra. Permite discutir los beneficios o perjuicios de los mercados competitivos, oligopolistas o monopolistas, sin necesidad de postular que el mundo económico real se comporta exclusivamente siguiendo las leyes estrictas de estos modelos. Ellos son sólo (ni mas ni menos) abstracciones que permiten entender por qué sucede lo que sucede.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 31¿TEORÍA O DOGMA?
Con base en ellos la teoría económica
es capaz de advertir sobre la posibili-
dad del surgimiento de procesos que
influirán (o no) en el bienestar econó-
mico de la sociedad. Al conocer las
leyes económicas es posible acelerar
o detener estos procesos, de allí la im-
portancia del desarrollo de esta teoría.
Como toda teoría, la económica es
una abstracción de la realidad que
pretende conocerla y sobre la que se
desea actuar para transformarla.
Se nutre de diferentes
puntos de vista,
lo que es natu-
ral por cuanto
distintos autores
abstraen en sus teorías
distintos aspectos de la reali-
dad que estudian.
Absolutizar un punto de vista
o un enfoque de la realidad es
más bien un resultado de la fe que
de la ciencia. Sirva como ejemplo de
las dificultades que esta especie de
canonización conlleva, el siguiente
relato: En algún momento del siglo
XVII, la matemática se vio limitada en
su desarrollo por la absolutización de
puntos de vista que explicaban diver-
sos aspectos de la realidad. Conside-
rados antagónicos, eran insuficientes
por sí mismos, pero más que antagó-
nicos eran complementarios. Así, el
cálculo diferencial e integral no son
el resultado de los avances de René
Descartes, Gottfried Leibniz o Isaac
Newton por separado, sino de un
esfuerzo colectivo que enriqueció el
conocimiento del mundo a partir del
uso de las coordenadas cartesianas,
la notación de Leibniz o las fluxiones
de Newton, todo lo cual desemboca
en la geometría analítica y en el aná-
lisis matemático moderno.
La teoría económica moderna
Es un conjunto de hipótesis o mode-
los que pretenden explicar aspectos
de la realidad económica, cuya evo-
lución es el resultado de la supera-
ción de cada uno de ellos. Al hacerse
más ricos y al dejar de lado errores
propios de cada modelo, toda cien-
cia avanza hacia una teoría que re-
sulta cada vez más rica y compleja,
o bien más próxima a la realidad. Por
ejemplo, no porque Albert Einstein
no haya creído en el principio de
incertidumbre negamos la teoría de
la relatividad, que quizás no explica
todo el Big Bang, pero sí una parte
del universo.
En este marco de ideas resulta anacró-
nico descalificar teorías porque sólo
explican una parte de la realidad y no
otra. Precisamente, toda teoría explica
parcialmente la realidad y precisa ser
complementada o negada —en forma
dialéctica— si fuera preciso.
La teoría económica se ha hecho más
formal en el sentido de reconocer
sus postulados y explicar resultados
a partir de un proceso lógico formal,
avanza negando la realidad que pre-
tende explicar para alcanzarla luego
en forma renovada, ofreciendo una
mejor explicación. Se apropia de nue-
vas relaciones entre los objetos de
estudio. En este proceso de apropia-
ción de la realidad, la matemática es
una herramienta de gran utilidad para
la economía, por cierto, no la única,
pues no toda la realidad económica
puede explicarse usándola (al menos
no por ahora). Ciertamente, ella no
es de uso exclusivo de alguna teo-
ría económica. Muchos economistas
clásicos hubieran querido saber más
matemática para desarrollar mejor
sus modelos.
UNIVERSITARIOS POTOSINOS 235 MAYO 201932
Por su parte, la matemática actual no
es la de Euclides, ni siquiera la de Fer-
mat o de Descartes, sino una ciencia
mucho más dúctil, tanto por la notación
que usa como por la abstracción de sus
conceptos primitivos. De esta forma,
el concepto matemático de punto no
es el mismo hoy que en la época de
Euclides.
Al concepto de punto le puede co-
rresponder el de partícula de la física
o el de cesta de bienes de la teoría
económica. Esta gran abstracción o
ductilidad de los conceptos matemá-
ticos nos permite representar, a través
de ellos, diversos aspectos de la reali-
dad y, una vez que así lo hacemos, el
desarrollo matemático, o lógico formal,
de la teoría permite conocer nuevos
aspectos de la realidad desconocidos
hasta ahora. Creo que esta es la dia-
léctica del conocimiento de la que ha-
blan los marxistas.
Evolución vs. dogma
Lamentablemente, este proceso de
abstracción creciente de la teoría eco-
nómica no fue seguido por muchos
economistas, en particular por aquellos
de viejas escuelas latinoamericanas que
durante mucho tiempo permanecieron,
urgidos quizás, por tareas que conside-
raban más importantes que su actua-
lización, apegados a viejos dogmas.
Ciertamente este apego contradice la
actitud de muchos de los inspiradores
de tales creencias. En su época, auto-
res como Carlos Marx, Alfred Marshall
o Paul Samuelson fueron los mejores
críticos de sus propias teorías
y excelentes cono-
cedores de las que
otros desarrolla-
ban en su momen-
to. Alguno de ellos hubiera
querido saber más matemática para
desarrollar mejor sus propios modelos
o discutir los de otros; sin embargo, no
parece ser tal, el espíritu de algunos
dogmáticos modernos.
Como todas las cosas, toda teoría tie-
ne su tiempo y está limitada por los
conocimientos de la época. No es
culpa de León Walras que no haya re-
suelto correctamente el problema de
la existencia del equilibrio económico
—hoy llamada walrasiano—, o de Karl
Marx el no disponer de otra matemá-
tica que no fuera la de los modelos
lineales. Teoremas de punto fijo no
existían en la época de Walras y los
modelos no lineales sólo eran aplica-
dos a la física. Como sea, cada uno de
estos investigadores se adelantó a su
época con los modelos que crearon;
muchos tuvieron que esperar cierto
tiempo —40 años en el caso de Wal-
ras— antes de que se resolvieran algu-
nos de los desafíos que sus avances
implicaban. El problema de la existen-
cia del punto fijo es equivalente al de
la existencia del equilibrio walrasiano y
solo 40 años después de que Walras
planteara este problema se determina-
ron las condiciones que garantizan la
existencia de un punto fijo.
Quienes quedaron al margen de los
avances de la teoría económica a partir
de la segunda mitad del siglo XX —por
urgencias del momento, pereza
intelectual o desco-
La teoría económica permite discutir los beneficios o perjuicios de los mercados competitivos, oligopolistas o monopolistas
ACCINELLI, E. PÁGINAS 30 A 33
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 33¿TEORÍA O DOGMA?
nocimiento— ven en cada avance de
la teoría un ataque a su dogma. Con
frases confusas y definiciones poco
claras intentan descalificar a todos
aquellos que, basados en los avances
de la teoría económica, plantean nue-
vos modelos, teorías o críticas sobre
base científicas de antiguos dogmas,
cuya vigencia es —al menos en la ac-
tualidad— discutible.
La teoría económica moderna se nutre
de los fisiócratas, mercantilistas, clási-
cos, neoclásicos, keynesianos y neowal-
rasianos, entre otros, y se transforma en
un guía para la acción, en la medida en
que es consciente de sus propias limita-
ciones. Es capaz de advertir que ciertos
efectos siguen a determinadas acciones
sólo bajo ciertos supuestos. Descalificar
teorías bien formalizadas sin entender-
las no parece una forma de negar cien-
tíficamente, más bien todo lo contrario,
es una actitud similar a la de aquel que
se negó mirar por el telescopio de Gali-
leo Galilei porque “era una herramienta
del diablo”. Como todo fundamentalis-
mo, esta actitud sólo pone obstáculos
al desarrollo de la ciencia.
Si queremos que la teoría económi-
ca sea una guía para la acción, para
mejorar el nivel de vida de nuestros
pueblos e incentivar el desarrollo tec-
nológico en busca de las mejores cau-
sas, no podemos ser ajenos ni ignorar
diferentes puntos de vista por creernos
dueños de la verdad eterna. Cambiar
una teoría por un dogma o considerar
como válido sólo un punto de vista, no
es precisamente una actitud científica.
Afortunadamente, el punto de vista
crítico es el de la mayoría de los eco-
nomistas modernos y de las mejores
revistas especializadas actuales, ya
que son cuidadosas de los trabajos
que publican, los cuales son revisados
por pares que miran su calidad científi-
ca y no la filiación política o ideológica
del autor. Sus comités científicos inclu-
yen investigadores de diversas institu-
ciones y corrientes del pensamiento,
quienes son elegidos por la calidad de
sus trabajos.
Hacia una economía más justa y
eficiente
Las leyes económicas son parte de la
realidad y no es posible evitarlas. Son
ellas las que determinan los resultados
de ciertas acciones. Muchas veces los
economistas hemos confiado de más
en la fortaleza de los fundamentos de
las teorías, pero lo que hicimos fue
generalizar de más y no entender que
las conclusiones son sólo verdaderas
bajo ciertos supuestos. Más que ne-
gar la teoría por su falta de capacidad
predictiva, debemos cuidar de ella, sin
olvidar que toda verdad es sólo relati-
va, para no decir y sacar conclusiones
no válidas o apresuradas, por exceso
de confianza o soberbia. Sabemos, por
ejemplo, que la actividad económica
produce riqueza y valor nuevo, pero
el problema, es que no sabemos re-
solver cómo repartir el valor generado
para lograr una economía más justa y
eficiente en el uso de los recursos. De-
bemos estudiar mejor cómo repartir
este nuevo valor para que las buenas
intenciones no se transformen en una
tragedia. Esto sin duda requiere cono-
cer las leyes que rigen a la economía
y porqué los agentes económicos ac-
túan como lo hacen.
La teoría económica moderna ayuda
mucho en este sentido, llámese neo-
clásica, neokeynesiana o neowalrasia-
na. El diseño de mecanismos, la teoría
Estudio su doctorado en el Instituto de Matemática Pura e Aplicada en Río de Janeiro, Brasil. Es profesor investigador en la Facultad de Economía de la UASLP.
ELVIO ACCINELLI GAMBd
de juegos —en particular el estudio del
comportamiento estratégico de los
agentes—, el equilibrio general y sus
conclusiones sobre la eficiencia y las
transferencias de recursos, son impor-
tantes en la creación de políticas públi-
cas adecuadas para lograr un mejor, o
más justo comportamiento económico
y una mejor distribución de la riqueza.
Debemos aprovechar estos avances
para crear una sociedad más justa.
Referencias bibliográficas:Fischer, Stanley (1987). Samuelson, Paul Anthony, The New
Palgrave: A Dictionary of Economics, v. 4, Macmillan, pp. 234-241.
Marshall, Alfred (2009). Principios de Economía. Vol I. y II. Editorial Síntesis.
Marx, Karl (1975-1981). El capital. Crítica de la economía política. Siglo XXI.
Newton, Isaac (2011). The Principia: The Authoritative Transla-tion: Mathematical Principles of Natural Philosophy. Editor: www.snowballpublishing.com
Walras, L.(1896.) Estudios de Economía Social, Segunda Sección; Vuotto, Mirta (compiladora) Economía Social, Precisiones Conceptuales y Algunas Experiencias Históricas, pp. 17-36. Buenos Aires: Editorial Altamira, 2003.
UNIVERSITARIOS POTOSINOS 235 MAYO 201934
DIVULGANDO
DIVULGANDO ENTRE MOLÉCULAS
MARTHA ALEJANDRA LOMELÍ [email protected]
INSTITUTO DE METALURGIA, UASLP
Los nuevos elementos de la tabla periódica
Uno de los motivos por los que la Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura (UNESCO, por sus siglas en inglés) declaró el 2019 como el Año Interna-cional de la Tabla Periódica de los Elementos Químicos, fue reconocer la cooperación inter-nacional que se realiza para la síntesis de nuevos elementos (ya no es posible encontrarlos en la naturaleza), debido a la complejidad de las nuevas técnicas y tecnologías, además de lo costoso de los equipos y sus condiciones de operación, lo anterior propicia que hoy en día los avances se logren mediante colaboraciones internacionales, donde intervienen científicos de diferentes áreas de estudio.
Específicamente, es un homenaje al descubrimiento y denominación de cuatro elementos superpesados de la tabla periódica con los números atómicos 113, 115, 117 y 118, cuyos nombres oficiales fueron reconocidos por la Unión Internacional de Química Pura y Aplicada (IUPAC) en 2016.
Recientemente, la IUPAC actualizó su normativa y envió a las instituciones las directrices que debían seguir para nombrar los elementos recién descubiertos, especificó que el nombre
debe estar relacionado con: a) Un concepto o carácter mitológico
(incluido un objeto astronómico)b) Un mineral o sustancia similar
c) Un lugar o región geográficad) La propiedad del elementoe) Como reconocimiento a un científico
Para consistencia con los elementos anterior-mente nombrados, los nuevos elementos de-
berán tener las terminaciones “ium” para los pertenecientes a los grupos 1-16, “ine” para los del grupo 17 y “on” para los del 18.
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 35DIVULGANDO ENTRE MOLÉCULAS
Elemento 113El elemento ununtrium (uno, uno, tres) fue reconocido como nihonium (Nh), es el primer elemento sintético en ser descu-bierto en Asia por el RIKEN Nishina Center for Accelerator-Based Science, es el isotopo 286 y posee una vida media más pro-longada (20 segundos). Su nombre está basado en la palabra japonesa nihon, que significa “Japón, la tierra del sol naciente”.
Los demás elementos hacen referencia a Rusia y Estados Unidos de América (EUA), pues son el resultado de una investigación conjunta llevada a cabo por científicos del Joint Institute for Nuclear Research of Dubna (Rusia), del Laboratorio Nacional Lawrence Li-vermore de California (EUA), la Universidad de Vanderbilt (EUA) y el Laboratorio Nacio-nal de Lawrence Livermore (EUA).
Elemento 115Fue nombrado Moscovio (Mc) y es un homenaje a Moscú, Ru-sia, honra la antigua tierra rusa que alberga el Instituto Con-junto de Investigaciones Nucleares, donde los experimentos se realizaron utilizando el separador de retroceso lleno de gas dubn. Su isótopo más estable es el 299, cuya vida media es de apenas milésimas de segundo.
Elemento 117El tenso (Ts) reconoce la contribución de la región de Tennessee, incluido el Laboratorio Nacional de Oak Ridge, la Universidad de Vanderbilt y la Universidad de Tennessee en Knoxville, pioneros en la investigación de elementos superpesados. Es el segundo estado en verse reflejado en la tabla periódica (el primero es el elemento 98 californiano). Su isotopo más estable es el 294 con una vida media de 78 milisegundos.
Elemento 118El oganesón (Og) fue nombrado en honor al físico ruso Yuri Oganessian, director científico del Instituto Central de Investi-gaciones Nucleares (FLNR) en Dubná, Rusia. Sus logros inclu-yen el descubrimiento de elementos superpesados y avances significativos en la física nuclear de los núcleos superpesados, incluida la evidencia experimental de la isla de la estabilidad (hablamos sobre ello en esta columna en la edición de marzo). Es el único científico vivo que tiene el honor de ver su nombre en la tabla periódica.
¿Sabías que?De los elementos anteriores, es posible que el más famoso sea el 115 Mocovio (Mc), ya que en 1989 un hombre llamado Bob Lazar autodeclarado científico, aseguró haber trabajado en una base secreta ubicada en Nevada (¿la controversial área 51?), donde aseguraba que se encontraban alma-cenados ovnis y que éstas usaban como combus-tible un isótopo estable del elemento 115. Más de una década después de esta declaración, se logró la síntesis de este elemento; sin embargo, sus pro-piedades no han mostrado ninguna relación con la antigravedad ni con extrañas distorsiones del tiempo ni el espacio.
¿Se deben seguir sintetizando nuevos elementos?Todos aquellos elementos anteriores al 94 (pluto-nio) es posible encontrarlos en la naturaleza, aun-que de los elementos sintetizados sólo unos pocos tienen aplicaciones prácticas:
• Americio (95) su emisión de partículas alfa ioniza el aire generando una pequeña corriente eléctrica que el humo es capaz de interrumpir (de ahí su utilidad en los detectores de humo).
• Curio (96) como fuente de partículas alfa en los espectrómetros de rayos X de partículas alfa (APXS), los cuales han sido utilizados en los Mars Exploration Rovers, por mencionar un ejemplo.
• Californiano (98) se utiliza como fuente de inicio de neutrones para algunos reactores, como tratamiento de ciertos cánceres cervica-les y cerebrales en los que otra radioterapia es inefectiva, entre otras aplicaciones.
Cada vez que se sintetiza un nuevo elemento, es una oportunidad de comprobar nuevamente como éste cumple con las leyes de periodicidad y, a la vez, de demostrar la existencia de “islas de es-tabilidad” y nos brinde la oportunidad de conocer propiedades químicas inusuales o desconocidas, además de poseer unas estabilidad excepcional para su tamaño.
UNIVERSITARIOS POTOSINOS 235 MAYO 201936
PROTAGONISTA DE LOS INGENIERÍA DE MATERIALES
Juana María Miranda VidalesADRIANA ZAVALA ALONSO
Es originaria del municipio de Ahualulco, San Luis Potosí, se trasladó a la capital potosina para estudiar la preparatoria y después la Licenciatura en Química en la Facultad de Ciencias Químicas de la Universidad Autónoma de San Luis Potosí. Trabajó en la industria metalúrgica después de egresar. En 1994, se incorporó al Instituto de Metalurgia de la UASLP como técnica académica.
PROTAGONISTA
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 37
APUNTES
Su tiempo libre lo dedica a sus hijos.
Agradece que en vida su esposo
fuera un apoyo incondicional en
todos los aspectos de su vida.
La película La vida es bella le gusta por ese espíritu de ver el lado positivo cuando no pasas por los mejores momentos.
En 1999 ingresó a la Maestría en Metalurgia e Ingeniería de Materiales (MIMM) en el Centro de Investigación y Estudios de Posgrado (CIEP) de la Facultad de Ingeniería, formó parte de la primera generación. Hoy es coordinadora de ese posgrado. Para el doctorado eligió la Universidad Complutense de Madrid, España, su tesis la desarrolló en el Centro Nacional de Investigaciones Metalúrgicas de Madrid.
Su línea de investigación inicial fue la corrosión en estructuras metálicas, es decir, la aplicación de técnicas electroquímicas para el diagnóstico de la corrosión de la varilla que se encuentra en el concreto, así como las técnicas de rehabilita-ción electroquímica (extracción electroquímica de cloruros y realcalinización electroquímica) que se emplean para regenerar las condiciones que tenía el cemento antes de que se deteriora-ra o contaminara; la doctora Juanita explica que la varilla embebida en el concreto se corroe, ya sea por la presencia de cloruros en el concreto o por la carbonatación de este, lo que provoca una disminución de pH (medida de acidez o alcalinidad) en el concreto, lo que genera la pérdida de pasividad de la varilla y, por lo tanto, favorece el proceso de corrosión.
Al volver del doctorado se integró al Comité de la MIMM: “Empecé a asesorar a estudian-tes, tenían una formación diferente, aun así, siempre interesados en las propiedades de los materiales. Así nació una nueva línea de inves-tigación, la de Nuevos Materiales en Sistemas
Constructivos, en la que se trata de reempla-zar parcialmente el cemento del concreto por materiales como las puzolanas naturales, que también tienen una reacción cementante; de ahí se derivan otras áreas como la sustitución del agregado en los concretos, por ejemplo, la arena por desechos industriales que no sean tóxicos y que pueden utilizarse sin que se pier-dan las propiedades mecánicas y fisicoquímicas del concreto”. Otra de sus líneas es el reciclaje: el pet se recicla de manera química, con ello se forma una resina que, al mezclarse con arena y materiales para la construcción, crean los con-cretos o morteros poliméricos.
Ingresó al Sistema Nacional de Investigadores en 2005, ha sido nivel I y II. Su formación y líneas de investigación le han dado la oportunidad de trabajar con arquitectos, ingenieros civiles y de materiales, ingenieros mecánicos, restauradores y hasta historiadores. Está adscrita a la Facultad del Hábitat como profesora investigadora de tiempo completo y sigue colaborando con el Instituto de Metalurgia y el CIEP.
Gracias a esta colaboración multidisciplinaria, la doctora Miranda Vidales asesoró al ahora doc-tor Álvaro Solbes García en su tesis Evaluación de sistemas de limpieza acuosa, basados en ácidos orgánicos para pinturas acrílicas, ga-nadora del Premio INAH 2018 Paul Coremans a la Mejor Tesis de Doctorado en la Categoría Conservación de Bienes Muebles. Cuenta que el maestro en restauración le pidió a ella y a
la doctora Lilia Narváez Hernández que fue-ran sus asesoras: “le dijimos, pero nosotras somos químicas. Él respondió: sí, lo sé, pero quiero desarrollar un sistema de limpieza para pinturas acrílicas del siglo XX, que actualmen-te se están deteriorando”, un tema novedoso, pues hasta ahora la atención estaba puesta en las pinturas de siglos no tan recientes. Con el conocimiento sobre materiales de ambas doc-toras, empezaron a trabajar con soluciones de ácidos no agresivos y tóxicos que pudieran ayu-dar ligeramente a la limpieza sin dañar la capa polimérica, pues el acrílico es una mezcla del pigmento con el acrílico.
Disfruta interactuar con los estudiantes y ser do-cente, “la juventud siempre te contagia. Entrar al salón, reírte, que te cuenten sus anécdotas, creo que eso me mantiene actualizada y, al margen, ser docente me ha hecho entender las nuevas generaciones, comprender cómo piensan y vi-ven”, comenta la doctora Miranda Vidales. Una de sus satisfacciones ha sido “guiarlos en sus trabajos de investigación, que se interesen, ha-cerles saber que todo tiene una explicación, y que siempre hay cosas buenas por aprender”.
Tiene un número considerable de publicacio-nes internacionales en el área de materiales, enfatiza que siempre trata de que sus estudian-tes participen en ellas, para encaminarlos en la investigación y que su trabajo sea reconocido, pues ellos son un soporte y una gran ayuda para los investigadores.
PROTAGONISTA
UNIVERSITARIOS POTOSINOS 235 MAYO 201938
PRIMICIASASTRONOMÍA
DEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
Un ingrediente familiar ha estado escondido a plena vista en la superficie de la luna Europa de Júpiter. Usando análisis espectrales en luz visible, científicos planetarios del Instituto Tecno-lógico de California (Caltech) y del Laboratorio de Propulsión a Chorro (JPL, por sus siglas en inglés) de la Administración Nacional de la Ae-ronáutica y del Espacio (NASA, por sus siglas en inglés) en Pasadena, California, Estados Unidos de América, han descubierto que el color ama-rillo visible en partes de la superficie del satélite son, de hecho, cloruro de sodio, un compuesto conocido en la Tierra como sal de mesa, que es el principal componente de la sal marina.
El descubrimiento sugiere que el océano sub-terráneo salado de Europa podría parecerse químicamente a los océanos de la Tierra más de lo que se creía, contradiciendo décadas de hipótesis acerca de la composición de esas aguas. Los sobrevuelos de las naves espaciales Voyager y Galileo de la NASA han llevado a los científicos a concluir que esa luna está cubierta por una capa de agua líquida salada encerrada en una cubierta helada.
Galileo llevaba un espectrómetro infrarrojo, ins-trumento que los científicos usan para examinar la composición de una superficie que están estu-diando, que encontró agua helada y una sustan-cia que parecía ser sales de sulfato de magnesio (como de Epsom). Dado que la capa de hielo es geológicamente joven y presenta abundante evidencia de actividad geológica pasada, se sos-pechó que cualquier sal en la superficie puede derivar del océano que se encuentra debajo.
“La gente tradicionalmente ha asumido que toda la espectroscopia interesante está en el
Detectan sal en una luna de Júpiter
infrarrojo en las superficies planetarias, porque ahí es donde la mayoría de las moléculas que los científicos buscan tienen sus características fundamentales”, dijo Mike Brown, profesor de astronomía planetaria. “Nadie había tomado espectros de longitud de onda visible de Eu-ropa antes de tener este tipo de resolución es-pacial y espectral. Galileo no tenía un espectró-metro visible, sólo uno de infrarrojo cercano en el que no se diferencian los cloruros”, agregó la graduada de Caltech, Samantha Trumbo.
Todo cambió cuando los nuevos datos —de mayor resolución espectral— del Observatorio W. M. Keck en Maunakea, Hawaii, sugirieron que los científicos no estaban viendo sulfatos de magnesio en Europa. La mayoría de las sales de sulfato consideradas anteriormente poseen distintas absorciones, que sirven como huellas dactilares para los compuestos, que deberían haber sido visibles en los datos de Keck de ma-yor calidad. Sin embargo, los espectros de las regiones —que se espera reflejen la composición interna— carecían de cualquiera de las absorcio-nes características de los sulfatos, por lo que los investigadores pensaron que podrían estar vien-do cloruros de sodio, pero esencialmente no tienen rasgos en un espectro infrarrojo.
Mientras tanto, el científico del JPL, Kevin Hand, utilizó muestras de sales del océano bombar-deadas por radiación en un laboratorio —en condiciones similares a las de Europa— y encon-tró que surgieron varias características nuevas y distintas en el cloruro de sodio después de la irradiación. Descubrió que los colores cambia-ban hasta el punto de poder identificarlas con un análisis del espectro visible. El cloruro de so-dio, por ejemplo, se volvió de un tono amarillo,
similar al visible en una zona geológicamente joven de Europa conocida como Tara Regio.
“El cloruro de sodio es un poco como tinta in-visible en la superficie de Europa. Antes de la irradiación no puede decirse que esté allí, pero después de la irradiación, el color salta directa-mente hacia ti”, indicó Hand.
Al observar de cerca con el Telescopio Espacial Hubble de la NASA y la Agencia Espacial Euro-pea (ESA, por sus siglas en inglés), el equipo de investigación identificó una clara absorción en el espectro visible a 450 nanómetros, que correspondía exactamente a la sal irradiada, confirmando que el color amarillo de Tara Re-gio reflejaba la presencia de cloruro de sodio irradiado en la superficie. “Hemos tenido la ca-pacidad de hacer este análisis con el Telescopio Espacial Hubble durante los últimos 20 años, sólo que nadie pensó en mirar”, señaló Brown.
Si bien el hallazgo no garantiza que este cloru-ro de sodio se derive del océano subsuperficial (esto podría, de hecho, simplemente ser eviden-cia de diferentes tipos de materiales estratificados en la capa helada de la luna), los investigadores proponen que se justifique una reevaluación de la geoquímica de Europa: “El sulfato de magne-sio simplemente se habría filtrado en el océano desde las rocas hacia el fondo, pero el cloruro de sodio puede indicar que el fondo del océano es hidrotérmicamente activo. Eso significaría que Europa es un cuerpo planetario geológicamente más interesante de lo que se creía anteriormen-te”, puntualizó Trumbo.
Fuente: NASA, https://www.jpl.nasa.gov/news/news.php?feature=7423
PRIMICIAS
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 39
PRIMICIASMEDICINA
DEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
Un nuevo informe de la Organización Paname-ricana de la Salud (OPS) indica que las muer-tes en el tránsito continúan aumentando en el continente americano, con casi 155 000 cada año, 11 por ciento del total mundial.
El informe Estado de la Seguridad Vial en la Re-gión de las Américas destaca que las lesiones causadas en las vías son la principal causa de muerte de niños de 5 a 14 años, y la segunda en los jóvenes de 15 a 29 años, mientras que constituyen la décima causa de muerte en to-dos los grupos de edad.
El documento presenta los últimos datos re-portados por 30 países de la región sobre mor-talidad (2016), legislación (2017), evaluación de carreteras (2017) y estándares de vehículos (2018), y señala que, si bien se han registrado avances en gestión y legislación de la seguri-dad vial y en la atención poschoque a los afec-tados, no se logrará la meta de reducir la mitad de las muertes en el tránsito para el año 2020.
Con 15.6 fallecimientos por 100 000 habitantes, la región denominada las Américas tiene la se-gunda tasa más baja de mortalidad en el tráfico en comparación con otras regiones de la OMS.Aún así existen variaciones: mientras el Caribe Latino (21.1), la Región Andina (20.9), el Cono Sur (que logró reducir su tasa de 20.9 en 2013 a 18.4 en 2016) y el Caribe no Latino (16.7) pre-sentaron las tasas más altas, Mesoamérica (14.2) y Norteamérica (11.7) registraron las más bajas.
La tasa de la mortalidad en el tránsito varía por país y nivel de desarrollo. De acuerdo con este informe, Barbados y Canadá tienen tasas de menos de la mitad que el promedio regional (5.6 y 5.8 muertes por cada 100 000 habitantes,
OPS exhorta a reducir las muertes en accidentes de tránsitorespectivamente), mientras que Santa Lucía y República Dominicana cuentan con tasas de mortalidad de más del doble que el promedio regional (35.4 y 34.6, respectivamente).
Casi la mitad de las personas que fallecen por siniestros viales son motociclistas (23 por cien-to), peatones (22 por ciento) y ciclistas (3 por ciento), considerados los usuarios vulnerables de la vía pública porque circulan con mínima protección y, a menudo, no tienen otra opción más que usar infraestructura vial insegura. El porcentaje de motociclistas víctimas del trán-sito pasó de 20 a 23 por ciento entre 2013 y 2016, lo que puede estar relacionado con el in-cremento de 23 por ciento de vehículos de dos a tres ruedas registrados en el mismo periodo.
El informe analiza los avances en la legislación nacional sobre los cinco factores de riesgo clave que pueden abordarse para prevenir muertes y lesiones en las vialidades, como el exceso de velocidad, beber y conducir y la falta del uso de cinturones de seguridad, cascos de motocicleta y sistemas de retención para niños.
Desde 2014, dos países adicionales —República Dominicana y Uruguay— establecieron leyes so-bre la conducción bajo los efectos del alcohol, lo
que ubica el total en ocho. Ecuador implementó legislación sobre el uso de casco (siete en total); República Dominicana puso en marcha una le-gislación sobre el uso obligatorio del cinturón de seguridad (19 países en total), mientras que Chi-le implementó leyes sobre el uso de sistemas de retención infantil (dos países en total).
El reporte añade que no se han promulgado nuevas leyes sobre reducción del límite de ve-locidad (una medida clave que salva vidas), sólo cinco países han presentando normas que se alinean a las mejores prácticas en este sentido (límite máximo de velocidad de 50 kilómetros por hora en vías urbanas). Se considera que la promulgación de leyes y su cumplimiento efectivo son clave para prevenir tragedias en el tránsito, pero siguen siendo un desafío en la mayoría de los países, por lo que es importante contar con agencias de seguridad vial, existentes en 29 de 30 países de la región.
El informe también evalúa el estado de las normas de seguridad de los vehículos y la infraestructura vial, así como el progreso y los desafíos para mejo-rar la atención posterior a una colisión.
Fuente: OPS, https://www.paho.org/hq/index.
php?option=com_con-tent&view=article&i-d=15257:nuevo-in-forme-de-la-ops-ins-ta-a-tomar-medi-das-urgentes-pa-ra-reducir-las-muer-
tes-de-ninos-adoles-centes-y-jovenes-en-
el-transito&Itemi-d=135&lang=es
PRIMICIAS
UNIVERSITARIOS POTOSINOS 235 MAYO 201940
PRIMICIASECOLOGÍA
DEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
Según nuevos datos de la Organización Mundial de la Salud (OMS), nueve de cada 10 personas respiran aire con altos niveles de contaminantes. La exposición puede causar efectos adversos a la salud como aumentar el riesgo de infecciones respiratorias agudas, enfermedades cardíacas, accidentes ce-rebrovasculares y cáncer de pulmón.
La contaminación del aire ambiente por sí sola pro-vocó aproximadamente 4.2 millones de muertes en 2016, mientras que la contaminación del aire doméstico originada por la cocción de alimentos con combustibles y tecnologías contaminantes cau-só 3.8 millones de muertes en el mismo periodo. En México, 18 millones de personas utilizan leña para cocinar, lo que tiene consecuencias negativas no sólo para la salud humana, sino también para el planeta al disminuir la superficie de bosques.
La contaminación del aire es un factor de riesgo crítico para las enfermedades no transmisibles; la OMS estima que causa 24 por ciento de todas las muertes de adultos por cardiopatías, 25 por ciento de las muertes por accidentes cerebrovasculares, 43 por ciento de las muertes por neumopatía obs-tructiva crónica y 29 por ciento de las muertes por cáncer de pulmón.
Por ello, este año, la conmemoración del Día Mun-dial del Medio Ambiente, designado el 5 de junio, se llevó a cabo en China, país con diversas ciudades que son referente de buenas prácticas en lo que a contaminación del aire respecta, pues han reducido 35 por ciento de las partículas contaminantes en
Nueve de cada diez personas respiran aire altamente contaminado
el aire y ciudades como Pekín lo ha hecho 50 por ciento en los últimos 10 años.
Para lograrlo, las autoridades de ese país han cerra-do plantas de carbón, trasladado la industria fuera de las áreas metropolitanas, ha invertido en equi-pos de monitoreo y, principalmente, en transporte público híbrido y eléctrico: China tiene 420 autobu-ses eléctricos circulando.
Las organizaciones Panamericana de la Salud, Mun-dial de la Salud y Naciones Unidas Medio Ambien-te, implementaron la campaña global Respira la Vida, que busca movilizar a las comunidades para reducir el impacto de la contaminación del aire en la salud y el clima. En México, a esta campaña se han sumado 20 nuevas adhesiones, entre las que destacan cinco entidades federativas, nueve muni-cipios, academia, sector privado y sociedad civil.
Fuente: OPS, https://www.paho.org/mex/index.php?op-tion=com_content&view=article&id=1442:nueve-de-ca-da-diez-personas-respiran-aire-con-altos-niveles-de-contami-nantes&Itemid=499
PRIMICIAS
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 41PRIMICIAS
PRIMICIASASTRONOMÍA
DEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
Por primera vez en la historia logró obtenerse
la imagen real de un agujero negro; se trata de
uno supermasivo, ubicado en la galaxia elíptica
gigante Messier 87 (M87), que forma parte del
Cúmulo de Virgo. Con este descubrimiento, y
un siglo después, se cuenta con una prueba de
la teoría de la relatividad general de Einstein.
El hallazgo fue posible con la colaboración in-
ternacional Telescopio del Horizonte de Even-
tos (EHT, por sus siglas en inglés), una red de
ocho radiotelescopios ubicados en distintos
lugares del mundo que observaron al mismo
punto y captaron señales que un grupo de 200
científicos de una veintena de países convir-
tieron en imágenes inéditas. Los resultados se
publicaron en seis artículos de la revista Astro-
physical Journal Letters en abril.
Uno de los equipos participantes fue el del Gran
Telescopio Milimétrico Alfonso Serrano (GTM),
ubicado en el Parque Nacional Pico de Ori-
zaba en el volcán Sierra Negra, Puebla,
a cargo del Instituto Nacional de As-
trofísica, Óptica y Electrónica (INAOE),
uno de los centros Conacyt con la re-
presentación de la UNAM.
El anillo luminoso alrededor de un agujero ne-
gro es un gran descubrimiento que confirma
la teoría de la relatividad, que hace un siglo
predijo la existencia de estas características.
Las primeras predicciones teóricas sobre
cómo debería verse se hicieron en la década
de 1970, pero hasta ahora lograron
México apoyó la toma de la
primera fotografía de unagujero negro
convertirse a una imagen. Las señales capta-
das son de abril de 2017, pero los expertos se
tardaron dos años en analizar y convertir los
datos, generar las imágenes y publicarlas.
Durante dos semanas de 2017, los ocho radio-
telescopios del EHT se comportaron como un
radiotelescopio gigante del tamaño de la Tierra:
apuntaron todos al mismo punto, en este caso
a dos agujeros negros supermasivos. En cada
telescopio se grabó la señal del objeto a obser-
var, junto con la señal de un reloj atómico, que
permitió sincronizar las diferentes observaciones
con la mayor exactitud posible. Estos discos, con
terabytes de datos cada noche, se enviaron a dos
centros comunes del proyecto (uno en Estados
Unidos de América y otro en Alemania), donde
una súpercomputadora los sincronizó usando la
señal del reloj atómico. Esto permitió conseguir
una resolución angular, una nitidez de imagen,
comparable con lo que se tendría si se tuviera un
telescopio del tamaño de la Tierra.
La interferometría es la técnica detrás de es-
tos telescopios; con ella se toman datos de
diferentes telescopios y luego se mezclan para
obtener una imagen de alta resolución. Si uno
toma un telescopio de 10 centímetros de diá-
metro y apunta al cielo tapando la mitad de
la lente, no desaparece la mitad de la imagen,
sino que ésta se vuelve menos intensa porque
queda registrada la mitad de la luz; es decir,
no deforma la imagen, sólo baja su intensidad.
Ése es el principio: no se necesita un telescopio
completo, sino que pueden hacerse imágenes
con pedazos chiquitos del telescopio, siempre
y cuando se junten correctamente; eso es lo
que hace la interferometría, usa diferentes
telescopios como si fueran parte de uno mu-
cho más grande. Después, la manera en que
se mezclan los datos es lo que permite po-
der producir imágenes, como si se tuviera un
telescopio gigante.
Con esta técnica el EHT observó dos agujeros
negros: el M87 del que se reportan los resul-
tados, y otro que está en el centro de nuestra
galaxia, llamado Sagitario A*, cuyos datos es-
tán en proceso. Son dos agujeros negros que
producen los anillos más grandes en el univer-
so, vistos desde donde estamos. Los dos se ven
casi del mismo tamaño, porque el de M87 es
2 000 veces más masivo y más grande, pero
también es 2 000 veces más lejano.
Con esta primera imagen, los científicos del EHT
pretenden a futuro contar con una película del
agujero negro, y para lograrlo tardarán alrededor
de una década. Quiere tenerse una película para
ver cómo evoluciona con el tiempo el material
alrededor del agujero negro y cómo cambian las
cosas. Teóricamente se sabe que estos objetos
son variables, que el material a su alrededor se
mueve a velocidades comparables con la de la
luz, y eso hace que si vuelve a observarse meses
después, podrían verse cambios en su estructura;
por eso, una película sería la meta final.
Fuente: UNAM, http://www.dgcs.unam.mx/boletin/bdboletin/2019_250.htm
UNIVERSITARIOS POTOSINOS 235 MAYO 201942
En las agroindustrias dedicadas al procesa-miento de cítricos, se aprovecha una pequeña fracción comestible de las frutas, con ello se genera hasta 50 por ciento de material residual, como cáscaras y semillas.
El material de desecho de los cítricos está cons-tituido principalmente por cáscaras, semillas y membranas capilares, por lo que el Centro de Investigación y Asistencia en Tecnología y Dise-ño del Estado de Jalisco (Ciatej) sede Sureste, desarrolla proyectos de investigación aplicada, en conjunto con la iniciativa privada, para el aprovechamiento de pectina cítrica y aceites esenciales como parte de la línea de investiga-ción en tecnología alimentaria.
“Lo que nosotros buscamos es que esos poli-fenoles, que también tienen actividad antioxi-dante, y algunos microbiana, puedan utilizarse como un conservador natural en los alimentos”, dijo la doctora Teresa Ayora Talavera, investiga-dora del Ciatej Sureste.
En la naturaleza existe una amplia variedad de compuestos que presentan una estructu-ra molecular caracterizada por la presencia de uno o varios anillos fenólicos, conocidos como polifenoles. Estos se originan principalmente en las plantas, que los sintetizan en gran cantidad como producto de su metabolismo secundario. Algunos son indispensables para las funciones fisiológicas vegetales, mientras que otros partici-pan en funciones de defensa ante situaciones de estrés y estímulos hídricos, luminosos, etcétera.
El consumo de polifenoles de algunas plantas permite que las personas que los consuman puedan obtener los mismos beneficios de los
Aprovechamiento de residuos agroindustriales cítricos
organismos que las producen; por ejemplo, el consumo de quercetina conlleva cierta cantidad de antioxidantes que pueden ayudar a prevenir enfermedades que se generan por una alta pre-sencia de compuestos oxidantes.
Una de las líneas de investigación en tecnología alimentaria del Ciatej se enfoca en la búsqueda de matrices alimentarias a partir de los agrorre-siduos generados en la producción de cítricos en Yucatán para el encapsulamiento de los polifeno-les. De acuerdo con la investigadora, aunque una pectina obtenida de un agrorresiduo no puede competir con una extraída de un limón fresco —que presenta una mejor calidad—, sí puede ser aprovechada en matrices encapsulantes.
“La idea es que si se encapsulan estos compues-tos, se protejan de tal manera que no se dañen con los procesos térmicos. Se conoce como de liberación controlada, porque la idea es que cuan-do una persona consuma ese alimento, la cápsula sea capaz de degradarse, ya sea en el estómago por la acidez o que al llegar al intestino los mi-croorganismos sean capaces de romperla, y en-tonces liberen los polifenoles para que tengan el efecto benéfico”, puntualizó la investigadora.
Fuente: Conacyt Ciencia MX, http://cienciamx.com/index.php/ciencia/quimica/23762-aprovechamiento-residuos-agroin-dustriales-citricos
PRIMICIASBIOTECNOLOGÍA
DEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
PRIMICIAS
MAYO 2019 235 UNIVERSITARIOS POTOSINOS 43
PRIMICIASBIOPROCESOS
DEPARTAMENTO DE COMUNICACIÓN SOCIAL, UASLP
La alta ingesta de flúor en San Luis PotosíEn la República Mexicana se han identificado es-
tados que presentan mantos acuíferos con alta
presencia de flúor, San Luis Potosí es uno de
ellos con concentraciones de más de 1.5 partes
por millón (ppm). La Organización Mundial de
la Salud (OMS) recomienda un límite máximo
permisible para consumo humano de 1.0 mi-
ligramos por litro (mg/L), y el agua subterránea
que se distribuye en la capital potosina excede
los límites permisibles establecidos también por
la Norma Oficial Mexicana 127.
Para profundizar en este tema, la estudiante Laura
Vázquez Ayala, de noveno semestre de la carrera
de Ingeniería de Bioprocesos de la UASLP, realizó la
“Evaluación del efecto del flúor en diferentes proce-
sos de osteoinducción en osteoblastos a diferentes
concentraciones de NaF”, que le llevó un año de
investigación.
“Por la sobreexplotación de los mantos acuíferos, el
agua pasa rápidamente a través de las grietas que se
generan por dicho movimiento y entra en contacto
con el flúor; así se forma una solución y se convierte
en un contaminante natural del agua de consumo,
debido a que el agua subterránea es la principal
fuente de abastecimiento público”, comentó.
La incorporación del flúor en el organismo se da
principalmente por medio de la ingesta de agua,
también al hervirla, lo que ocasiona un aumento
de la concentración: “existen, además, diferentes
fuentes de exposición a flúor como las pastas den-
tales, enjuagues bucales, alimentos, entre otros”.
Vázquez Ayala destacó que el tejido óseo es uno
de los principales afectados por la presencia de
flúor, ya que “el hueso se caracteriza por tener
una consistencia rígida pero flexible; las células
conocidas como osteoblastos son las responsa-
bles de la formación de huesos en etapas tempra-
nas de desarrollo, gobiernan el proceso general
de mantenimiento óseo, por lo que su mal fun-
cionamiento puede causar enfermedades, como
la fluorosis”.
Por eso, el objetivo del análisis fue evaluar la res-
puesta celular (osteoblastos) a la exposición de
fluoruro de sodio a diferentes concentraciones en
un lapso de siete a 21 días. La joven hizo diferentes
experimentos que le permitieron evaluar el funcio-
namiento de los osteoblastos y su comportamiento
en presencia del flúor. Con las pruebas evaluó la
afectación de calcio en las células, en donde es
reemplazado por el flúor y la vuelve una célula
frágil, así como una alteración en las actividades
de muchas proteínas celulares que responden al
calcio, provocando daños para un buen funciona-
miento de los tejidos.
Se ha demostrado que el flúor en bajas concentracio-
nes puede ser benéfico para los tejidos mineralizados
del organismo (dientes y huesos); sin embargo, el
exceso del mismo puede ser perjudicial. El proyecto
de investigación se realizó en el Laboratorio de Cien-
cias Básicas de la Facultad de Estomatología, a cargo
de los doctores Diana María Escobar García y Amaury
de Jesús Pozos Guillén.
La joven Laura Vázquez hizo un llamado a las auto-
ridades sanitarias para que desarrollen estrategias
y la población esté informada de los efectos que
puede generar el consumo de agua de la llave, para
enterarse de los efectos del flúor en la salud.
PRIMICIAS
UNIVERSITARIOS POTOSINOS 235 MAYO 201944
OCIO CON ESTILOCINE
OCIO CON ESTILO
Me quiero comer tu páncreas es un anime que rinde homenaje a la vida y a la amistad. En esta conmovedora historia, el protagonista (cuyo nombre es revelado al final de la cinta), un chico de 17 años, es casi forzado a convivir con Sakura Yamauchi, una joven de su edad que acude a la misma escuela que él. Al final de la primavera y después de leer su diario por accidente bajo el título Viviendo con la enfermedad, en la sala de un hospital, se da cuenta de que a Sakura le quedan pocos meses de vida; ella decide que él la acompañará a disfrutar el tiempo que le queda.
Aunque son totalmente opuestos —él es una persona distante, asocial y un poco frío, y ella por el contrario es sociable, carismática y con un soprendente amor por la vida, pues a pesar de que está enferma vive con alegría cada momento—, es precisamente esa diferencia la que hace que la historia no sea una de amor tradicional, sino que los protagonistas eligen vivir sus días juntos y aprender uno del otro.
La historia es original de Yoru Sumino, quien en 2015 lanzó la obra al público a través de una no-vela, misma que cautivó a los lectores de tal forma que se convirtió en un best seller con más de 2.6 millones de ejemplares vendidos. Esta versión animada fue dirigida por Shin’ichirô Ushijima.
La obra habla de manera excepcional de la muerte desde la vida, aborda la pérdida como lo que es, un suceso normal, aunque con miedos y, sobre todo, la amistad entre dos jóvenes en medio de la caída de las flores de cerezo —en Japón se celebra el hanami, evento que cubre el país de estas flores por un corto tiempo y uno de los mejores actos visuales—, mismas que representan el nombre de la protagonista; además de ser una analogía de los últimos días de Sakura, quien vive sus últimos momentos disfrutando desde un helado hasta un espectáculo de fuegos artificiales.
La película logra su cometido al transmitir y enseñar al espectador qué es la vida (no sólo en el plano terrenal o físico, sino sentimental), y cómo una sincera amistad puede penetrar hasta el corazón más duro para enseñarlo a disfrutar.
Ficha técnica:Ushijima, S. (2018). Me quiero comer tu páncreas [cinta cinematográfica]. Japón: Studio VOLN.
Flores de cerezo y páncreasALEJANDRA CARLOS PACHECO
Antiguamente existían culturas que creían que si comías el órgano que tienes enfermo, te curabas... ¿Puedo comerme tu páncreas?
Sakura Yamauchi