revista vision politecnica

36
Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica 1 Editorial Cultura sobre seguridad, un enfoque a partir de la comprensión de los sistemas adaptativos complejos- propiedades y comportamiento Juan A. , Rafael Cortés Comparación de algoritmos de aprendizaje automático para la clasificación de datos Jorge de la Calleja, Pilar Pérez Conde, Ignacio Huitzil, Eric Olmedo, Antonio Benitez, Ma. Auxilio Medina Generación de calor por inducción magnética Vicente Chapuli Cuetlach, María Luisa Sánchez Collantes Obed Cortés Aburto, Isaías Zagoya Mellado Robótica reactiva a través de una herramienta gráfica de simulación Antonio Benitez, Rodolfo Vasconcelos López, Ma. Concepción de la Cruz Gómez Ma. Auxilio Medina, Jorge de la Calleja Galilei, el gran rebelde Susana Sánchez Sánchez A Hombros de Gigantes Vicente Soriano Tlachi Badillo RojaS, Obed INDICE 28 2 30 3 11 17 21

Upload: juan-antonio-rosales-fuentes

Post on 25-Jul-2015

217 views

Category:

Documents


1 download

DESCRIPTION

Revista de la Universidad Politecnica de Puebla

TRANSCRIPT

Page 1: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

1

Editorial

Cultura sobre seguridad, un enfoque a partir de la comprensión de los sistemas adaptativos complejos- propiedades y comportamiento Juan A. , Rafael Cortés

Comparación de algoritmos de aprendizaje automático para la clasificación de datosJorge de la Calleja, Pilar Pérez Conde, Ignacio Huitzil, Eric Olmedo, Antonio Benitez, Ma. Auxilio Medina

Generación de calor por inducción magnética

Vicente Chapuli Cuetlach, María Luisa Sánchez Collantes Obed Cortés Aburto, Isaías Zagoya Mellado

Robótica reactiva a través de una herramienta gráfica de simulaciónAntonio Benitez, Rodolfo Vasconcelos López, Ma. Concepción de la Cruz Gómez Ma. Auxilio Medina, Jorge de la Calleja

Galilei, el gran rebeldeSusana Sánchez Sánchez

A Hombros de Gigantes Vicente Soriano Tlachi

Badillo RojaS, Obed

INDICE

28

2

30

3

11

17

21

Page 2: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

2

La edición del número 2-2011 de la revista Visión Politécnica presenta algunos trabajos de desarrollo tecnológico en el que además de participar profesores de tiempo completo de nuestra

Institución, participan estudiantes y profesores de otras instituciones del país. Además, se inicia la colaboración de algunos de los alumnos de los programas de maestría de nuestra Universidad en proyectos de investigación.

Este número inicia describiendo un trabajo que abordada desde la óptica de los sistemas adaptativos complejos la cultura de seguridad. Esta visión compleja de los fenómenos delincuenciales permite al lector observar de manera diferente a la tradicional estos fenómenos y decidir actuaciones de prevención apropiadas. Este trabajo se titula “Cultura sobre seguridad, un enfoque a partir de la comprensión de los sistemas adaptativos complejos- propiedades y comportamiento”.

Posteriormente, se presenta un estudio experimental sobre la clasificación de datos usando diferentes algoritmos de aprendizaje automático. Este trabajo es titulado “Comparación de algoritmos de aprendizaje automático para la clasificación de datos” y comenta los resultados de comparar el desempeño de varios algoritmos de clasificación.

Por otro lado,el trabajo titulado “Generación de calor por inducción magnética”. En este proyecto propone la aplicación de la ley de Joule a través de un prototipo funcional desarrollado por estudiantes de ingeniería en mecatrónica.

Por último, se presenta el artículo titulado “Robótica reactiva a través de una herramienta gráfica de simulación”,presenta los elementos básicos necesarios para simular de manera gráfica un robot móvil tipo diferencial. Esta simulación incluye el diseño del robot, los elementos algebraicos para la solución del problema cinemático, la interfaz de usuario para mover a este robot y las aplicaciones desarrolladas a partir de los movimientos básicos.

Ponemos a su consideración este número con el deseo, de quienes contribuimos a formarla, de que motive la lectura y el interés por temas de ciencia y tecnología y enriquezca su conocimiento acerca de los desarrollos tecnológicos de nuestra Institución, la Universidad Politécnica de Puebla.

Dr. Antonio Benitez Ruiz

Editorial

Page 3: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

3

Cultura sobre seguridad, un enfoque a partir de la comprensión de los sistemas adaptativos complejos- Propiedades y

comportamiento.

Badillo T. Juan A., Rojas R. Rafael, Cortés A. Obed. Universidad Politécnica de Puebla. UPP

E-mail: [email protected], [email protected], [email protected].

Resumen

La cultura de seguridad es abordada desde la óptica de los sistemas adaptativos complejos. Sistemas que además de la complejidad de componentes, relaciones entre estos componentes y su entorno, poseen la capacidad de adecuar su comportamiento de acuerdo al entorno que los rodea. Propiedades y comportamientos básicos como la agregación, el marbeteado o etiquetado, la no linealidad, flujos, la diversidad, modelos internos y bloques de construcción le caracterizan. La visión compleja de los fenómenos delincuenciales permite al lector observar de manera diferente a la tradicional estos fenómenos y decidir actuaciones de prevención apropiadas. Palabras clave: Sistemas adaptativos complejos (CAS), no linealidad, adaptación. 1. Introducción

La teoría de los sistemas complejos ha permitido el desarrollo de nuevos modos de discutir asuntos relacionados con la administración y las organizaciones, en general ha dado origen a un movimiento creciente de revisión y de renovación de la administración. El uso de conceptos de la teoría de la complejidad puede cambiar la forma en como los administradores piensan con relación a los problemas que enfrentan. En el entorno social en el que nos desenvolvemos, existen, hoy en día y con mayor fuerza, tensiones y relaciones con grupos que generan inseguridad y propician miedo, desconfianza e incredibilidad hacia la sociedad misma. Estos grupos delincuenciales han sido tratados con una óptica lineal, mecanicista, en este trabajo se estudian bajo otra óptica, una que, sin asegurar una explicación de cómo realmente se comportan estos grupos delincuenciales, al menos explica aspectos que las teorías tradicionales no hacen y por ello han perdido credibilidad. A principios del siglo XX aparecen nuevas ramas de la ciencia que no se enmarcan dentro de la visión

de la mecánica clásica. Hoy en día, se desarrolla investigación sobre la complejidad, las redes y la autoemergencia de estados ordenados. Los conceptos asociados con la nueva ciencia de la complejidad van entonces más allá de las viejas concepciones mecanicistas que dominaron el concepto moderno de ciencia a partir del siglo XVII. [1] Esta nueva visión de la ciencia puede proporcionar nuevas perspectivas para la discusión de preguntas fundamentales en todos los campos, incluyendo a las ciencias sociales, además de que rompe los límites de las viejas disciplinas académicas y sugiere nuevas aplicaciones a las dinámicas de sistemas de todo tipo. Los enfoques y las concepciones tradicionales acerca de las organizaciones están siendo cuestionados por un cierto número de descubrimientos científicos en las diferentes ramas académicas, incluidas las ciencias sociales, estimulando un nuevo modo de ver los fenómenos sociales que puede desembocar en un proceso de construcción teórica independiente. [2] Se habla ya de la emergencia de un nuevo paradigma: el paradigma de la complejidad, el cual no puede dejar de tener impacto en las concepciones de la realidad social, y por ende, en la manera en cómo se conciben las organizaciones. [3] 2. Acerca de los sistemas

La teoría general de sistemas describe un nivel de construcción teórico de modelos que se sitúa entre las construcciones altamente generalizadas y las teorías específicas de las disciplinas especializadas y que, en estos últimos años ha hecho sentir la necesidad de un cuerpo sistemático de construcciones teóricas que pueda discutir, analizar y explicar las relaciones generales del mundo empírico. [4] Contar con una teoría para comprender los CAS es el mejor recurso que puede emplearse. Sin embargo, no es tarea sencilla debido a que su comportamiento es más complejo que la suma simple de los comportamientos de sus partes y de que hay abundancia de no linealidades, lo cual significa que las herramientas más útiles,

Page 4: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

4

generalmente usadas, para generalizar las observaciones y convertirlas en una teoría quedarán parcialmente o en su totalidad embotadas. Una manera de compensar esta pérdida, es hacer comparaciones interdisciplinarias del CAS y convertir esas características comunes en bloques de edificación para construir una teoría general. Las comparaciones cruzadas proporcionan otra ventaja: las características que son sutiles y difíciles de extraer de un sistema, pueden ser conspicuas y fáciles de examinar en otro [5]. Esto último será aplicado para observar y explicar a los grupos delincuenciales. Un CAS está compuesto de numerosos componentes que interaccionan mutuamente. En general, el comportamiento de estos componentes es simple, local y bien definido. Sin embargo, el comportamiento global o emergente del sistema en su conjunto puede ser muy complejo y aparentar inteligencia o habilidad para adaptarse o reaccionar ante cambios en su entorno. Ejemplos de sistemas adaptativos complejos abundan en el mundo natural y en el sintético, e incluyen cerebros, sistemas inmunológicos, ecosistemas, economías, sociedades. [6] En realidad, la complejidad no es más que una medida del número de posibilidades de interacción de los agentes de un sistema. Los sistemas complejos son no lineales clasificándose en aquellos que sus elementos no tienen un fin o propósito (sistemas caóticos) y aquellos que sus elementos sí tienen un fin. Esta finalidad o adaptación es el resultado de los ajustes continuos de sus elementos entre sí y con su entorno más íntimo (sistemas complejos adaptativos). Pero para que estos ajustes se lleven a cabo con un carácter finalista es necesario la existencia de una jerarquía y unos procesos de comunicación y de control. [7] Los CAS están constituidos, sin excepción, por gran número de elementos activos que son diversos tanto en formas como en habilidades (agentes). Un agente, es un elemento activo que interacciona con otros para formar un agregado. La conducta dependerá de las interacciones de los componentes en la red. Los agentes agregados pueden agregarse nuevamente para añadir nuevos niveles jerárquicos. [5] Los CAS son considerados como sistemas compuestos por agentes interactuantes y descritos en términos de reglas. Estos agentes se adaptan cambiando sus reglas cuando acumulan experiencias. En los CAS la mayor parte del medio ambiente de cualquier agente adaptable está constituido por otros agentes adaptables, de manera que una porción de los esfuerzos de adaptación de cualquier agente es utilizada para adaptarse a otros. Este rasgo constituye

un fundamento importante de los patrones temporales complejos que generan los CAS. [5] Se han encontrado cuatro propiedades y tres mecanismos básicos que son comunes a todos los CAS, las demás propiedades son derivaciones resultado de las combinaciones de estos siete básicos:

1. Marbeteado o etiquetado (mecanismo). 2. Agregación (propiedad). 3. No linealidad (propiedad). 4. Flujos (propiedad). 5. Diversidad (propiedad). 6. Modelos Internos (mecanismo). 7. Bloques de construcción (mecanismo).

3. Marbeteado en el fenómeno de los

grupos delincuenciales

El marbeteado es un mecanismo de los CAS que facilita consistentemente la formación de agregados, constituye un mecanismo de supervivencia para la agregación y la formación de fronteras en los CAS. El mecanismo de marbeteado es usado por los CAS para manipular simetrías, esto es, permite observar y actuar sobre las propiedades que previamente estaban ocultas; además, facilitan la interacción selectiva y permiten a los agentes seleccionar a otros agentes u objetos que de otra manera serían indistinguibles. [5] El marbete “actitud proclive de enriquecimiento ilícito”, en los CAS como la burocracia corrupta de los cuerpos de seguridad y también los narcomenudistas, facilita la interacción selectiva y permite a los agentes seleccionar a otros agentes, que de otra manera serían indistinguibles. Las interacciones bien establecidas basadas en marbetes proporcionan una base firme para la discriminación, la especialización y la cooperación. Esto a su vez, conduce a la emergencia (aparición) de meta-agentes y de organizaciones que persisten incluso si sus componentes están cambiando continuamente. 4. Agregación en el fenómeno de los

grupos delincuenciales

La agregación en el estudio de los CAS tiene dos sentidos. El primero se relaciona con el procedimiento para su modelación. Se hace agregando cosas similares en categorías como: delitos de corrupción, sistemas administrativos endebles, áreas críticas, normas jurídicas relacionadas con hechos delincuenciales, disturbios delincuenciales; tratándose después como equivalentes. Se clasifican, en una sola categoría,

Page 5: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

5

cosas que difieren sólo en los detalles excluidos, se decide qué detalles son irrelevantes para las cuestiones que interesan y se procede a ignorarlos. Así, la categoría se convierte en un bloque de construcción para la elaboración de un modelo. El segundo sentido de la agregación concierne a la emergencia o aparición de comportamientos complejos a partir de interacciones agregadas de agentes menos complejos. Un grupo de malos policías o de burócratas corruptos es un ejemplo de esto. Cada burócrata, en este caso corrupto, tiene un comportamiento estereotipado. Cuando el ambiente administrativo no se lo permite, éste sucumbe, es descubierto, es excluido. Sin embargo, cuando varios burócratas corruptos se agregan, el grupo es adaptable y sobrevive frente a una amplia gama de restricciones administrativas, regulaciones, controles o medidas preventivas. Es como un organismo inteligente constituido con partes poco inteligentes. [5] Los agregados así formados pueden a su vez actuar como agentes a un nivel superior, constituyendo meta-agentes y éstos agregarse para formar meta-meta-agentes. Este fenómeno ocurre con grupos delincuenciales con características emergentes que no poseen los agregados inferiores. Con frecuencia se puede describir mejor la interacción de esos meta-agentes en términos de sus propiedades como agregados (primer sentido): en el caso de corrupción de los cuerpos de seguridad, los grupos de burócratas corruptos tienen como propiedad emergente el “debilitamiento de la gobernabilidad”, en el caso de los grupos de delincuencia organizada tienen como propiedad emergente el “poder socioeconómico y político ilegítimo”. ¿Qué clase de fronteras delimitan estos agregados adaptables? ¿Cómo son dirigidas y condicionadas las interacciones del agente dentro de estas fronteras? ¿Cómo generan estas interacciones? Son preguntas que deben ser respondidas más adelante para resolver los enigmas de la corrupción en los cuerpos de seguridad y de los grupos delincuenciales, desde el punto de vista de los CAS. 5. La no-linealidad en el fenómeno de

los grupos delincuenciales

Una función es lineal si su valor, para cualquier conjunto de valores asignados a sus elementos, es simplemente una suma ponderada (con coeficientes asociados) de esos valores [5]. Para el caso de corrupción administrativa el cálculo no lineal del número de usuarios de un servicio, en una oficina de gobierno, que se involucran en actos de corrupción

se presenta el siguiente ejemplo: Sea C el número de empleados en un determinado sector de áreas críticas y con predisposición, por su perfil, a cometer actos de corrupción, y U el número de usuarios (promedio) que acude a ese sector de áreas críticas para hacer un trámite e I el número de interacciones por unidad de tiempo (día), I puede calcularse mediante la ecuación (1).

eCUI = (1)

en donde e representa la eficiencia o habilidad del empleado para ofrecer trámites corruptos, medido en términos del ritmo promedio en que el empleado realiza trámites en procesos administrativos calificados como endebles. Sustituyendo valores en (1) con e = 0.5, C = 100 y U = 500, obtenemos: I = 2500; ahora si C y U se duplican entonces: I = 100,000, por lo que los encuentros entre empleado y usuario aumentarían 40 veces; como es posible observar esta relación no se comporta linealmente ya que en lugar de duplicar las interacciones, estas aumentan cuarenta veces. Ahora bien, como el número de empleados y de usuarios cambian con el pasar del tiempo introduciremos los siguientes conceptos:

• C(t) es el número de empleados en el tiempo t.

• U(t) es el número de usuarios en el tiempo t. Si se introduce el concepto de tasa de contratación (nuevos empleados) b para los empleados de nuevo ingreso, el número de nuevos empleados en el tiempo t sería bC(t). Las bajas del personal pueden manejarse de manera similar utilizando una tasa de bajas d de empleados en el tiempo t y obtener dC(t). Entonces el tamaño o número de empleados, después de que ha transcurrido una unidad de tiempo, es el número de empleados en el tiempo t menos las bajas, más las nuevas contrataciones, es decir:

)()()()1( tbCtdCtCtPc +−== (2)

Es importante mencionar que la ecuación (2) no considera hechos relacionados con capacitación, incorporación de códigos de ética y otros más. De manera análoga para el comportamiento de los usuarios se puede utilizar b’ y d’ para obtener:

)(')(')()1( tUbtUdtUtPu +−== (3)

En donde b’ representa la tasa de nuevos usuarios que acuden a una oficina y d’ la tasa de los que dejar de ir.

Page 6: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

6

En las ecuaciones (2) y (3) no se han incluido las interacciones, si se introduce la constante r para representar la eficacia en la transformación de usuarios involucrados en trámites corruptos, en nuevos empleados que se suman en estas actividades ilícitas, pues más interacciones de este tipo significan más lucro e invitación a otros burócratas proclives a la corrupción, entonces utilizando la tasa de interacción:

)()( tUteCI = (4)

Tendríamos:

)]()([ tUteCrI = (5)

Que sería el incremento en los nuevos empleados involucrados en actos de corrupción que provoca la interacción empleados C - usuarios U. Los cambios en el número de empleados corruptos sería entonces:

( ) )]([)()()()1( tUteCrtbCtdCtCtC ++−=+ (6)

Para los usuarios U, el número de involucramientos con resultados insatisfactorios incrementa el número de abandonos a la oficina por parte de estos. Utilizando r’ para indicar la vulnerabilidad del usuario frente al involucramiento inducido por el empleado y el abandono de la oficina de atención durante las interacciones, tendríamos:

)(')]()([')(')()1( tUbtUteCrtUdtUtU +−−=+ (7)

Las ecuaciones (6) y (7) para C(t+1) y U(t+1) son una versión del famoso modelo Lotka-Volterra. Las interacciones no lineales casi siempre provocan que el comportamiento de un agregado sea más complicado de lo que habíamos previsto por medio de sumatorias o promediaciones. [5] 6. Los flujos en el fenómeno de los

grupos delincuenciales

En el lenguaje cotidiano es comprensible la idea de flujo, sin embargo, en el estudio de los CAS se extiende esa idea a la de redes, estos es, nodos, conectores y recursos. En nuestro caso las redes pueden componerse de nodos como “usuarios-empleados”, en las oficinas, los conectores pueden bien ser los “procesos administrativos” para dar un servicio al público en materia de seguridad, y los recursos, pueden ser los mismos servicios públicos,

información y/o valor del servicio, que transitan a través de diversas rutas y procesos administrativos. En términos generales, los nodos son procesadores –agentes-, mientras que los conectores determinan las posibles interacciones. Los flujos a través de estas redes varían con el paso del tiempo; además, las redes y los conectores pueden aparecer y desaparecer, dependiendo de si los agentes tienen éxito o no en sus esfuerzos por adaptarse. [5] Así, en nuestro caso, los nodos usuario-servidor aparecen y desaparecen en la medida en que los marbetes surten su efecto delimitando las conexiones principales dado que los agentes con marbetes útiles se propagan mientras que los agentes con marbetes anómalos dejan de existir. Lo mismo pasa con los conectores “procesos viciados”, como una detención indebida, ya que tienen ocurrencia en la medida en que los agentes tienen éxito o no, en los casos de corrupción. Los flujos tienen dos propiedades principales: el efecto multiplicador y el efecto reciclante. [5] El efecto multiplicador ocurre si se inyecta un recurso adicional a algún nodo. Este recurso pasa de nodo a nodo y se va transformando a lo largo de la red produciendo un efecto multiplicador. Por ejemplo en el caso de las drogas, el precio en el lugar de la plantación es x, pero en la medida en que pasa de nodo a nodo, esto es, al introductor, al traficante, y finalmente al consumidor su precio puede multiplicarse por cien, en relación al de origen. Imaginemos un nodo (usuario-servidor) con un pago adicional para la contratación de un servicio, digamos la custodia de bienes. La custodia de bienes por realizarse es viciada y tiene por objeto (mediante un pago adicional al custodio) aparentar el robo del bien en custodia. Se paga al custodio, quien a su vez paga a sus empleados, maleantes que harán los arreglos para el robo. Estos maleantes pagan a su vez a otros en una cadena de transacciones ilícitas. Para ejemplificar de manera simple esta operación supongamos que en cada etapa de esos intercambios se hace una retención (ahorro-ganancia) de la mitad de los ingresos obtenidos y la otra mitad es gastada en la siguiente etapa. Así por cada peso que se paga inicialmente, 50 centavos son pagados por el custodio a sus empleados, quienes a su vez gastan 50 centavos y así sucesivamente. En términos generales, una fracción r pasa a la siguiente etapa. Así tendríamos que en la etapa 2 sólo está disponible una fracción r de la cantidad original. En la etapa 3 sólo quedará una fracción r de la fracción r, esto es, r2, este proceso continuará indefinidamente después de la etapa 3. Para calcular el efecto total, se infiere que:

Page 7: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

7

)1(1....1 32

rrrrr n−=+++++ (8)

Sustituyendo en (8) el valor de 0.5 analizado anteriormente obtenemos:

2211

)5.01(1 ==− (9)

Así, el efecto de la acción inicial (que se haya pagado a un custodio una cantidad adicional para que haga un ilícito), al final se multiplica por dos, después de que dicho efecto multiplicador ha pasado a través de la red de transacciones ilícitas. La segunda propiedad del flujo es el efecto reciclante, esto es, el efecto de los ciclos en las redes, mostrado en la Figura 1.

Figura 1. Modelo de flujo con efecto reciclante.

En la Figura 1 se observa un ciclo en el que se refuerza la acción de violación de un proceso en la administración de seguridad, incrementándose cada vez más debido a la estimación, que se hace por quien lo viola, de un alto valor económico en la comisión de un acto de corrupción, luego, al hacer esta estimación, se viola de manera creciente el proceso, luego se incrementa el valor, en la comisión de ese acto y así sucesivamente. El hecho de que el reciclaje pueda incrementar la corrupción no es particularmente sorprendente, pero el efecto total, en una red con muchos ciclos puede resultar muy fuerte. 7. La diversidad en el fenómeno de los

grupos delincuenciales

La burocracia en cualquier organismo gubernamental contiene miles de distintos tipos de agentes, con diferentes funciones y en su caso, miles de posibles formas de interacción ilícita que dan origen a semejante número de actos de corrupción. Pensemos en primer lugar en apenas cinco tipos de interacción:

a1 Eventual no organizada. a2 Eventual más organizada.

a3 Sistemática menos organizada. a4 Sistemática más organizada. a5 Sistemática organizada en forma de mafia.

Ahora asociemos estos tipos de interacción a los nueve tipos penales de corrupción siguientes:

b1 Peculado. b2 Peculado impropio. b3 Concusión. b4 Cohecho. b5 Enriquecimiento ilícito. b6 Colusión. b7 Defraudación fiscal y aduanera. b8 Usurpación de funciones. b9 Abuso de autoridad.

Y por último pensemos en los diez tipos de procesos administrativos siguientes:

c1 Producción, acopio, venta y distribución de bienes.

c2 Distribución de recompensas. c3 Prestación de servicios de seguridad. c4 Contratación y pago de adquisiciones de

bienes, servicios y arrendamiento. c5 Contratación y pago de obras. c6 Contratación y pago de servicios personales. c7 Contratación de créditos. c8 Venta de activos. c9 Venta de datos y archivos de inteligencia. c10 Transferencia de programas.

La combinación de cinco, por nueve, por diez elementos, nos permite ver cuatrocientos cincuenta diferentes formas de actos de corrupción que pueden ser cometidos por s número indeterminado de agentes en una burocracia administrativa de cuerpos de seguridad. Esta diversidad no es aleatoria ni accidental, más bien depende del contexto proporcionado por otros agentes, esto se puede explicar de la siguiente forma: “En un CAS, un patrón de interacciones perturbado por la extinción de algunos agentes con frecuencia se regenera a sí mismo por la aparición de nuevos agentes, que pueden ser en detalle diferentes de los agentes extintos.” [5] Imaginemos a un agregado de agentes corruptos en una oficina de atención al público en materia de seguridad; estos agentes llenan un nicho que es definido por las interacciones que se centran sobre ellos. Si se removiera, por cualquier razón, legal o administrativa, a este grupo de agentes dentro del sistema, creando un “agujero”, el sistema, con toda seguridad responderá con múltiples acciones de adaptación, y el resultado será la creación de otros agentes corruptos que llenarán el hueco y que ocuparán el nicho desocupado por los agentes removidos. Finalmente éstos proporcionarán al sistema, en una nueva adaptación, las interrelaciones faltantes.

VIOLACIÓN DEL

PROCESO

ESTIMACIÓN DE ALTO VALOR ECONÓMICO DEL PROCESO EN LA COMISIÓN DE UN ACTO DE CORRUPCIÓN

Page 8: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

8

Las interacciones, en un sistema corrupto, pueden ser recreadas en otro sistema, aunque los agentes sean totalmente diferentes. [5] Imaginemos dos grupos de agentes, cada uno con características distintas, situados en dependencias de seguridad del gobierno también distintas. El primero de ellos posee tanta información sobre violación de los procesos administrativos que durante largo tiempo ha realizado con impunidad transacciones ilícitas, luego, después de cierto tiempo, dejan de servir al gobierno para establecer negocios privados. El otro grupo de agentes, burócratas comunes y corrientes, en interacciones fortuitas con los primeros, aprenden a lo largo del tiempo, de alguna manera (como mimetismo), el patrón de interacciones ilícitas del primer grupo o agregado, creando un nuevo nicho y fortaleciéndolo a través de flujos de recursos dirigidos por los agentes del primer grupo de referencia. Esta última circunstancia, también conduce al incremento de la diversidad a través del incremento del reciclaje. 8. Los modelos internos en el fenómeno

de los grupos delincuenciales

El aprendizaje del segundo agregado, aludido en el párrafo anterior conduce a hacer una pregunta ineludible: ¿Cómo aprendieron? Esta pregunta ampliada para incluir a todos los CAS, nos lleva a otra marca distintiva de ellos: su habilidad para anticiparse. El mecanismo de la anticipación es un mecanismo complejo: un modelo interno. La maniobra básica para construir modelos consiste en eliminar los detalles, de forma tal que sean privilegiados los patrones seleccionados y, cómo los modelos que estamos tratando son anteriores al agente, éste debe seleccionar los patrones de entre el gran cúmulo de información que le provee el ambiente y adaptarse, esto es, convertir esos patrones en cambios de su estructura interna. Finalmente los cambios en la estructura –el modelo- deben permitir al agente anticiparse a las consecuencias que se generan cuando el mismo patrón (u otro similar) vuelve a ser encontrado. [5] En la Figura 2 se ilustra el proceso antes mencionado. El caso específico para la creación de modelos internos por parte de agentes delincuenciales se ilustra en la Figura 3, en donde se obtiene información sobre el valor económico que representa cometer un acto delincuencial y tiene memoria de experiencias propias y ajenas respecto al proceso mismo, continuando con lo descrito para el caso del modelo de la figura 2

Figura 2. Ciclo para la creación de modelos internos. Figura 3 Ciclo para la creación de modelos internos

por parte de agentes delincuenciales Ahora bien, ¿Cómo puede un agente “destilar” experiencias para convertirlas en un modelo interno? ¿Cómo puede un agente desplegar las consecuencias temporales del modelo para anticipar eventos futuros? En los llamados mamíferos superiores observamos que los modelos dependen más directamente de la experiencia sensorial del agente. Dentro del marco de la ciencia clásica no se percibe problema alguno para entender las conexiones temporales que ligan los fenómenos. El conocimiento combinado de una ley invariable y de unas condiciones iniciales, que sí pueden variar, es lo que hace precisa la predicción exacta de un fenómeno en el tiempo. La conexión del pasado con el presente, en dependencia estrecha de las condiciones iniciales, debe extenderse lógicamente hasta el comienzo mismo del flujo temporal: las condiciones iniciales de cualquier proceso pueden entenderse como efectos de otras causas anteriores que, a su vez, son efectos de causas más antiguas todavía.

Disposición del mecanismo de anticipación.

Cambios en la estructura interna.

Proceso de adaptación.

Selección de patrones.

Gran cúmulo de información

proveniente del entorno.

Información sobre el valor

económico de un acto

delincuencial y memoria de experiencias.

Cambio en la estructura interna.

Disposición a la anticipación.

Comisión del acto delincuencial.

Selección del patrón.

Estimación de alto valor económico en la comisión de un acto delincuencial.

Page 9: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

9

Así pues, debe existir una cadena causal ininterrumpida que se extiende hasta el hipotético instante inicial en que el universo se puso en marcha. Y dado que las leyes del movimiento se consideran invariables tanto espacialmente como a lo largo del tiempo, se llega a la conclusión de que las condiciones iniciales reinantes en el hipotético “instante cero” han debido predeterminar todo lo que ha ocurrido desde entonces, empero la ciencia actual reconoce otras formas de conexión temporal distintas de los nexos causales de tipo determinista. El concepto esencial es el de memoria. Si un evento se relaciona con otro saltando a través del tiempo, entonces es como si el más reciente “recordara” en alguna medida al más antiguo, nos hallamos aquí, en presencia de la clase de memoria asociada con los hologramas, cuyas propiedades de almacenamiento de información sugieren que las conexiones espaciotemporales que existen en la naturaleza tienen que ver, muy probablemente, con algún tipo de proceso de carácter holográfico. [8] Se pueden distinguir dos clases de modelos internos: los tácitos y los manifiestos. El tácito describe una acción actual motivada por la predicción implícita de algún estado futuro deseado, como es el caso de un delincuente que se desplaza en la compleja maraña social (otros delincuentes, autoridades corruptas) en búsqueda de riqueza ilícita. En cambio, un manifiesto se utiliza como base para exploraciones explícitas de alternativas, como es el caso de prever las respuestas y acciones de otras personas y de las autoridades, controles, etc., anticipándose a ellos, antes de cometer un acto delincuencial. Los modelos internos se pueden distinguir de otras piezas de la estructura interna que no tienen que ver nada con la modelación, se tiene que empezar por describir la característica más importante de un modelo: permitirnos inferir algo acerca del objeto que estamos modelando. Podríamos decir que sólo podemos estar seguros de que una estructura de un agente es un modelo interno si podemos inferir algo del medio ambiente de dicho agente con sólo inspeccionar esa estructura. 9. Los bloques de construcción en el

fenómeno de los grupos delincuenciales

Este último mecanismo se describe explicando que cuando se trata de situaciones reales, un modelo interno debe estar basado en muestras limitadas de un contexto siempre cambiante; pero que el modelo sólo es útil si existe una especie de repetición de esas situaciones modeladas. Y de aquí surge una pregunta ¿cómo se puede resolver esa paradoja? Para nuestro

caso, ¿Cómo es posible modelar una situación delictiva en los CS, esto es, representar esa situación, esperando que se repita, si el contexto o ambiente cambia constantemente? Es mediante una capacidad que casi todos los seres humanos poseen: la capacidad para descomponer en partes una escena compleja. Cuando hacemos esto, podemos reagrupar las partes componentes de una gran variedad de combinaciones. [5] De hecho es evidente que comúnmente nosotros analizamos una escena compleja de corrupción, por ejemplo, cuando buscamos elementos reutilizables, que son susceptibles de repetirse y que ya han sido probados por el aprendizaje e intentamos ver de qué manera podemos obtener una repetición mientras nos confrontamos con escenas siempre nuevas. De esta forma ganamos experiencia. [5] Si quisiéramos modelar un caso de corrupción bastaría con identificar, para este ejemplo, tres bloques de construcción:

A. Marbetes B. Flujos C. Instituciones y/o oficinas públicas

Cada uno de estos bloques pueden descomponerse en diversos componentes, por ejemplo el bloque A: marbete puede descomponerse en:

a1 Ostentación de influencia con los superiores.

a2 Proclividad a la riqueza. a3 Presunción de poder.

El bloque B: flujos puede descomponerse, por ejemplo en los componentes:

b1 Nodos. b2 Conectores. b3 Recursos.

Estos componentes aun pueden tener subcomponentes, tomemos el caso de b1: nodos

b1.1 Usuario frecuente. b1.2 Usuario por una ocasión. b1.3 Empleado de ventanilla única. b1.4 Empleado eventual.

Pensemos en el componente b2: conectores que puede tener los siguientes subcomponentes:

b2.1 Producción, acopio, venta y distribución de bienes.

b2.2 Distribución de recompensas. b2.3 Prestación de servicios de seguridad. b2.4 Contratación y pago de adquisiciones de

bienes, servicios y arrendamientos. El bloque C: oficina pública puede tener los siguientes componentes:

C1 Oficina de quejas y denuncias. C2 Oficina de trámite de licencias para policía

auxiliar.

Page 10: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

10

Para construir un modelo de corrupción se utiliza, de cada bloque de construcción, un componente o subcomponente, por ejemplo seleccionando: Presunción de poder, empleado de ventanilla única, prestación de servicios de seguridad, oficina de trámite de licencias para policía auxiliar. Los bloques pueden ser muchos y los componentes más, pero lo importante es que con tan solo los bloques, componentes y subcomponentes puestos como ejemplo podemos construir noventa y seis modelos diferentes, el número de modelos resulta de la multiplicación de los componentes de cada bloque por el número de componentes de cada uno de los demás bloques. 10. Conclusiones

Los métodos tradicionales de modelado de sistemas han quedado rebasados, sobre todo en los sistemas sociales, de tal manera que no es posible utilizar simples sumatorias o promediaciones para describir el comportamiento de los mismos. Por tal motivo en el presente trabajo se propone utilizar la teoría de los sistemas adaptativos complejos a fin de modelar dicho comportamiento. Debido a que el comportamiento humano no es lineal y mucho menos estático, siempre se mantendrá en movimiento buscando la adaptación al medio ambiente que lo rodea, con el objetivo de lograr el mayor beneficio. Los cuerpos delincuenciales utilizarán las cuatro propiedades y los tres mecanismos, así como las combinaciones entre ellos, con la finalidad de subsistir e ir permeando en la sociedad buscando cotos de poder y beneficios económicos. Se presentó una primera aproximación para la aplicación de la teoría de CAS en la caracterización de los cuerpos delincuenciales, a fin de mostrar alguna de sus múltiples formas de comportamiento. 11. Bibliografía

[1] Sorman, Guy. Los verdaderos pensadores del siglo XX. Barcelona : Seix Barral, 1991. [2] Mayntz, Renate. Modelos científicos, teoría sociológica y el problema macro-micro. Frankfurt : REIS, 1991. [3] Toffler, Alvin. La Nación. [En línea] 27 de Noviembre de 1986. www.lanación.com. [4] Johansen Bertoglio, Oscar. Introducción a la teoría general de sistemas. México : Limusa Noriega Editores, 2002.

[5] Holland, John. El orden oculto. De cómo la adaptación crea la complejidad. México : Fondo de cultura económica, 2004. [6] Sharman, Ken C. Sistemas adaptativos complejos . Valencia : Universidad Politécnica de Valencia. [7] Stacey, R.D. The science of complexity: An alternative perspective for strategic change processes. 16, s.l. : Strategic Management Journal, 1995. [8] Laszlo, Ervin. El Cosmos Creativo. Hacia una ciencia unificada de la materia, la vida y la mente. Barcelona : Cairos, 1997.

Page 11: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

11

Comparación de algoritmos de aprendizaje automático para la clasificación de datos

Jorge de la Calleja1, Pilar Pérez Conde2, Ignacio Huitzil2, Eric Olmedo2,

Antonio Benitez2, Ma. Auxilio Medina1 1 Ingeniería en Informática, Universidad Politécnica de Puebla

{jdelacalleja,abenitez,mauxmedina}@uppuebla.edu.mx 2 Maestría en Ingeniería en Sistemas y Cómputo Inteligente,

Universidad Politécnica de Puebla

Resumen

En este artículo se presenta un estudio experimental sobre la clasificación de datos usando algoritmos de aprendizaje automático. Los algoritmos usados fueron redes neuronales artificiales, el clasificador Naive Bayes, support vector machines, árboles de decisión y métodos basados en instancias. Los conjuntos de datos fueron de diversos dominios y obtenidos del UCI Machine Learning Repository de la Universidad de California en Irvine. De acuerdo con los resultados experimentales, el algoritmo que mejor se desempeñó fue el de redes neuronales artificiales con un promedio de exactitud del 84.09%, mientras que support vector machines, usando un kernel de función de base radial, obtuvo en promedio los peores resultados con un 65.19% de exactitud. 1. Introducción El aprendizaje automático es una disciplina que integra a la inteligencia artificial cuyo principal objetivo es desarrollar programas de computadora que puedan “aprender” a realizar alguna automáticamente y que por medio de la experiencia mejoren su desempeño. Por ejemplo, suponga que la tarea por aprender es que una computadora conduzca un vehículo de manera autónoma por una carretera, entonces se esperaría que fuera capaz de, no solo guiar al vehículo correctamente, sino que además incorporara la información obtenida por medio de algún sensor y de esta manera mejore su conducción. Algunas aplicaciones exitosas que han involucrado al aprendizaje automático son: el reconocimiento de rostros, el reconocimiento de voz, algunas detecciones

de enfermedades, detección de fraudes de tarjetas de crédito, clasificación de objetos astronómicos, reconocimiento de secuencias de ADN, reconocimiento de patrones, análisis del mercado de valores, aplicaciones en videojuegos, en robótica, entre muchas otras más [5]. En el presente trabajo se muestra una comparación del desempeño de algunos de los algoritmos más utilizados en el área de aprendizaje automatico, de acuerdo con la literatura, para hacer clasificación de datos. Para ejecutar los experimentos se usó la herramienta de Weka, que implementa una gran diversidad de algoritmos de aprendizaje automatico, tanto para hacer clasificación como para realizar regresión. El resto del artículo está organizado de la siguiente manera: en la sección 2 se presentan conceptos básicos sobre aprendizaje automático, así como de los algoritmos usados en este trabajo. En la sección 3 se presenta la metodología seguida para evaluar a los algoritmos, describiendo cada una de las etapas. En la sección 4 los resultados experimentales son mostrados y analizados. Finalmente algunas conclusiones derivadas de este estudio experimental son presentadas en la sección 5.

2. Aprendizaje automático

Aprender, es probablemente el rasgo más distintivo que tenemos los seres humanos. Esto incluye, la adquisición de información para transformarla en conocimientos, el desarrollo de habilidades, el descubrimiento de nuevos hechos, entre muchos otros procesos [5]. El aprendizaje automático (Machine

Page 12: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

12

learning) intenta imitar estos procesos al estudiarlos y modelarlos de manera computacional [1].

El aprendizaje automático no es una disciplina aislada, sino que se relaciona con una gran diversidad de áreas como son la teoría de control, la teoría de información, la neurobiología, la estadística, la teoría de la complejidad computacional, entre otras; con el propósito de comprender mejor los procesos del aprendizaje humano, y así desarrollar algoritmos que puedan realizar diversas tareas [1]. Generalmente, el aprendizaje automático se divide en dos grupos: el supervisado y el no supervisado [5]. Para el primer tipo, a los algoritmos se les proporciona un conjunto de datos con la clase de la tarea por aprender. Mientras que en el segundo grupo éstas clases no son proporcionadas y se deja que el algoritmo identifique patrones para agrupar a los datos con características comunes.

Para este trabajo de experimentación se utilizó el aprendizaje supervisado, y a continuación se describen las etapas básicas que éste involucra (Figura 1):

1. Definir la tarea u objetivo por realizar. Para este ejemplo la tarea será reconocer a la letra B.

2. Seleccionar un conjunto de datos que será utilizado para entrenar al algoritmo de aprendizaje automático y éste pueda “aprenderse” la tarea. A este conjunto de datos se le llama conjunto de ejemplos de entrenamiento.

3. Seleccionar un conjunto de datos (diferente al de entrenamiento) que servirá para probar el desempeño del algoritmo de aprendizaje automático sobre la tarea aprendida. A este conjunto de datos se le conoce como conjunto de ejemplos de prueba.

4. Al final se tendrá un algoritmo entrenado que pueda clasificar conjuntos de datos nuevos sobre la tarea especificada.

Figura 1. Proceso para aprender la tarea de reconocer la letra B.

Idealmente se espera que los algoritmos de aprendizaje automático puedan desempeñar la tarea para la cual fue entrenado con una exactitud del 100%. Sin embargo, en la práctica es poco probable que esto ocurra debido a muchos factores, que por el momento no serán tratados en este artículo. 2.1 Algoritmos de aprendizaje automático En esta sección se da una muy breve descripción de los métodos usados, por lo que se recomienda al lector revise las referencias. 2.1.1 Redes neuronales artificiales Las redes neuronales artificiales (artificial neural networks) han sido inspiradas por la observación de los sistemas biológicos neuronales, los cuales están formados por conjuntos de unidades llamadas neuronas que se encuentran densamente interconectadas.

Computacionalmente hablando, existen varias topologías para crear redes neuronales, sin embargo, las más comunes son las redes feed forward y las recurrent networks. El primer tipo tiene los nodos (neuronas) organizados en una serie de capas llamadas de entrada, ocultas y de salida. En el segundo tipo de red se pueden formar topologías arbitrarias.

Una red neuronal funciona de la siguiente manera: cada nodo produce un valor de salida, que resulta de combinar los valores de entrada de los nodos que le anteceden, de esta forma se alimenta a los siguientes nodos de las capas siguientes hasta producir un valor final en la capa de salida.

Independientemente de la topología de una red neuronal, el primer paso es su entrenamiento, donde los pesos (valores) de los nodos son determinados. Uno de los algoritmos más utilizados para realizar esta etapa de entrenamiento es el llamado algoritmo de retro-propagación (backpropagation) [5].

2.1.2 Métodos basados en instancias Este tipo de métodos simplemente almacenan todos los datos de entrenamiento disponibles, y cuando se requiere clasificar un dato nuevo, se buscan los datos más parecidos a éste para asignarle el valor (clase) correspondiente. Entre los algoritmos más usados en este tipo de aprendizaje, se encuentran k-vecinos más cercanos (k-

Page 13: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

13

nearest neighbours) y regresión lineal localmente ponderada (locally weigthed linear regression).

2.1.3 Clasificador de Bayes El clasificador de Bayes es un algoritmo probabilístico que se basa en la suposición de que todos los valores de los atributos del conjunto de datos son condicionalmente independientes para los valores objetivo. El clasificador de Bayes se utiliza en tareas de aprendizaje en donde cada dato puede ser descrito como una tupla de valores-atributo y la función objetivo puede tomar cualquier valor de un conjunto finito de valores. Para clasificar un dato nuevo, este algoritmo le asigna la probabilidad más alta de acuerdo con la función objetivo [5]. 2.1.4 Árboles de decisión Un árbol de decisión se puede definir como una estructura de datos con la información necesaria para tomar decisiones de alguna tarea u objetivo específico. Este algoritmo es uno de los más simples y utilizados por ser prácticos y fáciles de comprender. Algunos algoritmos que forman parte de la familia de árboles de decisión son ID3, ASSISTAN y C4.5 [1].

Los árboles de decisión están compuestos por nodos internos que son las pruebas o preguntas para cada valor de los atributos, las ramas son los posibles valores que pueden tomar los atributos, mientras que los nodos hoja son el valor final de la prueba realizada desde la raíz.

2.1.5 Máquinas de vectores de soporte Las máquinas de vectores de soporte (support vector machines) pertenecen a la familia de métodos basados en funciones de kernel, que se encargan de mapear un conjunto de datos a un espacio de alta dimensionalidad, donde cada coordenada corresponde a una caracterísca, transformándolo a un conjunto de puntos en un espacio ecuclidiano. Uno de los métodos más utilizados es precisamente el de support vector machines, que calculan el hiperplano óptimo que separa a un conjunto de datos, resolviendo un problema restringido de optimizatión cuadrático, cuya solución es obtenida en términos de un subconjunto de patrones de entrenamiento que recaen en la línea de separación. A estos patrones se les llama vectores de soporte, y llevan información relevante sobre el problema de clasificación.

2.2 Weka Weka (Waikato Environment for Knowledge Analysis) es un paquete de software de distribución libre desarrollado por la universidad de Waikato Hamilton, Nueva Zelanda [4]. Este paquete contiene herramientas para hacer pre-procesamiento, clasificación, regresión, agrupamiento y visualiación de datos; todas éstas se encuentran agrupadas en cuatro módulos (Figura 2): simple CLI, Explorer, Experimenter y KnowledgeFlow.

Figura 2. Módulos que integran a Weka.

Para este trabajo se utilizó el módulo de Explorer (Figura 3), que permite abrir un archivo, experimentar con diversos algoritmos de aprendizaje, visualizar la distribución del conjunto de datos, entre otras funcionalidades.

Figura 3. El módulo de Explorer, que incorpora varias funcionalidades para experimentar con datos.

Weka puede leer distintos formatos para los conjuntos de datos, sin embargo, el que usa por omisión es el .arff (atribute-relation file format). Este tipo de archivo utiliza texto ASCII que describe una lista de ejemplos con sus respectivos atributos.

Page 14: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

14

3. Metodología Para realizar la clasificación de los diferentes conjuntos de datos, se realizaron tres etapas: 1) Selección del conjunto de datos, 2) Creación de archivos .arff para los conjuntos, y 3) Clasificación de datos con Weka. A continuación se describe con más detalles cada una de las etapas mencionadas. 3.1 Selección de datos Los conjuntos de datos se obtuvieron del UCI Machine Learning Repository de la Universidad de California en Irvine, y disponibles en http://archive.ics.uci.edu.ml. Estos datos se encuentran organizados en dos grupos: datos para clasificación y datos para regresión. En este trabajo se usaron aquellos de la sección de clasificación. Los conjuntos se eligieron al azar, sin embargo, se prefirieron aquellos que no les faltaran atributos. Así, en la Tabla 1 se muestran los conjuntos elegidos y se dan algunas características de los mismos.

Tabla 1. Conjuntos de datos usados en los experimentos.

3.2 Creación de archivos .arff Una vez obtenidos los conjuntos de datos, éstos se deben convertir al formato que reconoce Weka para poder procesarlos [2]. En la figura 4 se muestran las partes que componen un archivo .arff. La primera de ellas es el nombre del conjunto de datos (@relation), para nuestro ejemplo se llama heart-disease-

simplified. Enseguida se listan todos los atributos que tiene el cojunto de datos (@attribute), así como sus tipos; en este caso se tienen cinco, y uno más que corresponde a la clase. Por último se listan todos los ejemplos del conjunto de datos (@data), donde cada renglón corresponde a cada uno de ellos, considerando el orden de los atributos descritos anterioremente. Por ejemplo, el primer renglón estaría describiendo a un ejemplo con las carácterísticas de age=62, sex=male, chest_pain_type=typ_angina, cholesterol=233 y exercise_induced_angina=no. Y su clasificación para este ejemplo sería not_present. @relation heart-disease-simplified @attribute age numeric @attribute sex {female, male} @attribute chest_pain_type {typ_angina, sympt, non_anginal, atyp_angina} @attribute cholesterol numeric @attribute exercise_induced_angina { no, yes} @attribute class { present, not_present} @data 63,male,typ_angina,233,no,not_present 67,male,asympt,286,yes,present 67,male,asympt,229,yes,present 38,female,non_anginal,?,no,not_present ...

Figura 4. Estructra de un archivo .arff. 3.1 Clasificación de datos con Weka Como anteriormente se ha mencionado, el módulo de Explorer es el que servirá para ejecutar la clasificación de los datos. Para ello, los siguientes pasos deben llevarse a cabo:

1. Elegir la pestaña de Preprocess y enseguida seleccionar Open file… para abrir el archivo que contiene el conjunto de datos por clasificar.

2. Elegir la pestaña de Classify y luego la opción de Choose para seleccionar el algoritmo de aprendizaje automático. Dependiendo del algoritmo seleccionado, varios parámetros pueden modificarse.

3. Por último, ejecutar el algoritmo sobre el conjunto de datos para clasificarlos seleccionando Start.

Nombre del conjunto

No. de ejemplos

No. de atributos

No. de clases

Car 1728 6 4 Heart 270 14 2 Glass 214 10 7 CPU 209 8 8 Lenses 24 4 3 Mammographic 961 6 2 Diabetes 768 8 2 Tic tac toe 958 9 2 Blood 748 5 2 Vowel 528 10 10 Credit 690 15 2 Statlog 946 19 4 Hayes-Roth 160 5 3 Breast cancer Wisconsin 699 10 2

Haberman’s Survival 306 3 2

Breast Tissue 106 10 6 Acute inflammations 120 6 2

Balance scale 625 7 3 Teaching assistant evaluation 151 8 3

Ionosphere 351 7 2

Page 15: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

15

Como resultado de la ejecución del algoritmo se mostrará información sobre el número de ejemplos usados, el porcentaje de ejemplos correctamente clasificados, el porcentaje de ejemplos incorrectamente clasificados, una matriz de confusión, y otras métricas de evaluación (Ver Figura 5).

Figura 5. Una vez ejecutado el algoritmo de clasificación, se mostrarán los resultados obtenidos.

4. Resultados Para realizar los experimentos se usó la técnica de validación cruzada (cross-validation), en particular se usó 10-fold cross-validation. Esta técnica consiste en dividir el conjunto de datos original en diez partes iguales, de las cuales nueve partes son tomadas como conjunto de entrenamiento y una parte como conjunto de prueba. Así, cada experimento se repite diez veces de tal manera que todo el conjunto de datos es utilizado como entrenamiento y prueba. Para que Weka ejecuté esta técnica de experimentación se le debe indicar en la opción correspondiente dentro de la pestaña de Classify. Los resultados que a continuación se presentan corresponden al promedio de realizar diez ejecuciones de 10-fold cross-validation para cada algoritmo, teniendo cuidado de generar diferentes semillas para cada experimento. Las implementaciones de los algoritmos usados tienen los siguientes nombres en Weka: multilayerPerceptron (redes neuronales), J48 (árboles de decisión), IBL/LWL (métodos basados en instancias), naive Bayes (clasificador de Bayes) y SMO (máquinas de vectores de soporte).

Algunos parámetros fueron modificados para los algoritmos. Para el caso de las máquinas de vectores de soporte se usaron kernels polinomiales de grado 2 y 3, así como una función de base radial. Para los métodos basados en instancias, en el caso de vecinos más cercanos (IBL) se usaron 3 y 5 vecinos más cercanos; mientras que para regresión lineal (LWL) se consideraron todos los puntos para hacer la aproximación, y en ambos casos se consideró la distancia Euclidiana sin ponderación. Para los métodos de redes neuronales, árboles de decisión y Bayes, se dejaron los parámetros que se presentaban por omisión. La Tabla 2 muestra la exactitud obtenida por cada algoritmo, la cual esta simplemente definida como el número de ejemplos correctamente clasificados entre el total de los mismos. Cabe mencionar que existen otras métricas que proporcionan una mejor información sobre el desempeño de los clasificadores, sin embargo, por el momento es suficiente con los resultados mostrados por ésta métrica para tener una idea de cómo se desempeñan los algoritmos utilizados. Como se puede observar, los algoritmos que mejores resultados obtuvieron fueron redes neuronales y support vector machines para polinomios de grado 2 y 3; con 84.09%, 82.88% y 80.66% en promedio de exactitud, respectivamente. Sin embargo, los árboles de decisión obtienen en promedio resultados por encima del 80%, esto es, muy cercanos a los mejores. En contraste, el algoritmo que peor se desempeñó fue support vector machines usando una función de base radial como kernel, obteniendo en promedio una exactitud del 65.19%; y además obteniendo el peor resultado de todos los algoritmos con un 23.70% para el conjunto de Breast cancer Wisconsin. Analizando los resultados por conjunto de datos, se puede observar que Acute inflammations fue el mejor clasificado con un promedio de 97.62%, y obteniendo hasta un 100%. Por otro lado el conjunto de Teaching assistant evaluation fue en promedio el peor clasificado con un 49.43%. En el caso del conjunto de Vowel, que tiene más clases, se obtuvo un promedio de clasificación del 76.58%, aunque support vector machines con un polinomio de tercer grado logró clasificarlo en un 99.28%. En cuanto al número de atributos, Statlog fue el que más tenía con 19, y en promedio fue clasificado con un 59.77% de exactitud.

Page 16: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

16

Tabla 2. Exactitud obtenida por los algoritmos sobre los diferentes conjuntos de datos. Se muestra también el promedio de la exactitud obtenida

por algoritmo y por conjunto de datos.

5. Conclusiones Se ha presentado un estudio experimental sobre el desempeño de cinco algoritmos de aprendizaje automático para clasificar veinte conjuntos distintos de datos. De acuerdo con los resultados obtenidos se puede concluir que el algoritmo de redes neuronales artificiales fue el que mejor desempeño mostró. Por el contrario, el algoritmo de support vector machines, usando una función de base radial como kernel, fue el que peores resultados obtuvo. Tres conjuntos de datos fueron clasificados en promedio por arriba del 90%, Car, Breast Tissue y Acute inflammations. Se puede también comentar que el algoritmo de k-vecinos más cercanos obtiene resultados no muy lejanos a los obtenidos por support vector machines, y prácticamente es un algoritmo mucho más sencillo de comprender e implementar. Agradecimientos La experimentación para este trabajo fue realizada por alumnos de la maestría de Ingeniería en Sistemas y Cómputo Inteligente de esta Universidad durante el curso de aprendizaje automático. Referencias

[1] E. Alpaydin, Introduction to Machine Learning.

Cambridge, Massachuset: The MIT Press, 2004.

[2] E. F. Remco R. Bouckaert, R. K. Mark Hall, A. S. Peter

Reutemann, and D. Scuse, WEKA Manual for version 3-7-3. University of Waikato, Hamilton, New Zealand, December 2010.

[3] F. R. Bach, G. R. G. Lanckriet, and M. I. Jordan, “Multiple kernel learning, conic duality, and the smo algorithm,” in Proceedings of the twenty first international conference on Machine learning, ICML ’04, (New York, NY, USA), ACM, 2004.

[4] Herramienta de software Weka. Universidad de Waikato, Nueva Zelanda. 2011. http://www.cs.waikato.ac.nz/ml/weka/

[5] Mitchell, T. Machine Learning. McGraw Hill, 1997.

[6] The UCI Machine Learning Repository. Universidad de California en Irvine. 2011. http://archive.ics.uci.edu/ml/

Algoritmos

Datos J48 Multilayer Perceptron

IBL LWL

SMO Naive Bayes Promedio 3 vecinos 5 vecinos Polinomo

grado 2 Polinomio

grado 3 RBF

Car 92.46 99.32 93.24 93.08 70.00 99.24 99.94 84.36 85.42 90.78

Heart 78.00 79.92 78.66 79.80 70.74 79.64 75.06 82.38 83.56 78.64

Glass 97.60 95.62 90.94 88.42 80.80 91.42 94.00 35.50 82.98 84.14

CPU 89.76 86.02 88.70 90.04 73.30 68.98 68.04 64.60 81.36 78.97

Lenses 83.30 77.52 77.50 75.00 71.68 77.52 69.16 62.50 74.16 74.26

Mammographic 82.22 79.72 77.28 79.96 81.80 79.56 79.22 77.94 83.16 80.09

Diabetes 74.08 75.52 73.24 73.90 71.86 77.24 77.20 65.10 75.32 73.71

Tic tac toe 85.64 97.26 98.72 98.72 69.90 99.80 99.82 75.42 70.12 88.37

Blood 77.86 78.58 74.60 77.02 76.20 76.54 76.52 76.20 75.22 76.52

Vowel 80.06 92.10 97.12 93.14 35.72 97.42 99.28 31.54 62.88 76.58

Credit 85.56 82.44 84.96 86.74 85.50 84.92 82.14 87.90 83.10 84.80

Statlog 69.36 69.98 58.94 61.26 57.64 74.24 68.48 26.38 51.70 59.77

Hayes-Roth 71.38 84.08 60.46 60.00 80.92 83.48 81.22 51.08 79.54 72.46

Breast cancer Wisconsin 64.90 64.70 65.90 67.20 42.50 58.80 53.40 23.70 68.70 56.64

Haberman’s Survival 71.46 74.14 69.82 70.08 71.96 73.20 73.32 73.50 74.48 72.44

Breast Tissue 94.78 95.28 96.76 97.04 91.74 96.36 95.72 96.06 96.12 95.54

Acute inflammations 100 100 100 100 100 100 100 83.00 95.66 97.62

Balance scale 64.64 98.48 84.90 85.28 79.58 94.14 73.78 91.40 91.22 84.82

Teaching assistant evaluation 50.44 60.40 33.26 33.26 63.18 54.30 59.62 39.34 51.12 49.43

Ionosphere 89.30 90.78 54.88 53.44 86.60 90.82 87.46 76.02 82.40 79.07

Promedio 80.14 84.09 77.99 78.16 73.08 82.88 80.66 65.19 77.41

Page 17: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

17

Generación de calor por inducción magnética

Vicente Chapuli Cuetlach, María Luisa Sánchez Collantes Obed Cortés Aburto, Isaías Zagoya Mellado

(1)Universidad Politécnica de Puebla, Juan C. Bonilla, Puebla, México [email protected], [email protected], [email protected], [email protected]

Abstract

The induction heating source is based on the Joule effect, which is that a driver will induce an electrical current, producing the motion of electrons due to the kinetic energy stored in these, resulting in heat shock that experience between them. The high-frequency electromagnetic waves are manipulated by a PWM is to generate a pulse train that varies its width. Our input power is 1000 watts, with a voltage of 110V and a current of 9.09A. We also use copper tube of 0.003 m for the coil surrounding the material to be heated 1. Introducción

El calentamiento por inducción es un proceso de calentamiento sin contacto, que utiliza ondas electromagnéticas de alta frecuencia para calentar los materiales ferromagnéticos que conduzcan electricidad. Porque el contacto no es requerido, el proceso de calentamiento no contamina el material que se calienta. También es muy eficiente ya que el calor se genera desde el interior de la pieza.

Existen otros métodos de calentamiento, donde el calor se genera por medio de flama o elementos calientes, los cuales se aplican a la pieza metálica, como lo son el uso de resistencias, láser o arco eléctrico, fusión con electrodo o autógena entre otros. Por estas y otras razones el calentamiento por inducción nos brinda algunas aplicaciones únicas en la industria.  

2. Principio de inducción magnética

Fue descubierto por Michael Faraday y Joseph Henry en 1831. La ley de Faraday de la inducción magnética, que relaciona el flujo de voltaje y el flujo magnético en un circuito, establece lo siguiente. [12] 1. - Si el flujo eslabonado de un lazo (o espira) varía con el tiempo, se induce un voltaje entre sus terminales. 2. - El valor del voltaje inducido es proporcional al índice o capacidad de cambio de flujo. El calentamiento por inducción magnética es usado para unir, endurecer o ablandar materiales ferromagnéticos, en los procesos industriales modernos, utiliza por la velocidad y el ahorro de material. Algunas aplicaciones del calentamiento inductivo, se han empleado desde 1940, durante la segunda guerra mundial, para el desarrollo rápido de armas para la guerra y el endurecimiento de partes metálicas. 3. Efecto Joule Este fenómeno es cuando a un conductor se le induce una corriente eléctrica produciendo así el movimiento de los electrones debido a la energía cinética almacenada en estos, traduciéndose en calor por el choque que sufren entre ellos, de esta manera elevando la temperatura del conductor. Figura 1. [4]

Page 18: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

18

Figura 1. Efecto Joule. 4. Componentes del calentamiento por inducción magnética Para el calentamiento por inducción magnética es necesario conocer los componentes que son: Figura 2.

1) Fuente de potencia. 2) Estación de Calentamiento. 3) Espiral del conductor. 4) Pieza del material a calentar.

Figura 2. Componentes del sistema

La fuente de potencia utiliza una corriente alterna, que es recitada y regulada, y ésta alimenta al conversor de frecuencia, que es la que genera el campo magnético en la espira. La estación de calentamiento posee una serie de capacitores de resonancia con la finalidad de ajustar las frecuencias o el voltaje de operación, sabiendo el material a calentar.

Las espirales son tubos de cobre con un diámetro de 0.003m y la forma depende del material a calentar como se muestra en la Figura 3.

Figura 3. Diferentes formas de espiras.

La pieza a calentar debe de ser de un material

ferromagnéticos. [11]

5. Metodología

Para el desarrollo de nuestro prototipo, consideramos la solución del problema, de acuerdo con los parámetros de la necesidad, tales como los recursos eléctricos y electrónicos disponibles con los que

contamos, además de los conocimientos obtenidos en los antecedentes y en el marco teórico.

Para el diseño del sistema consideramos los cálculos obtenidos del flujo de calor y de campo magnético, tomando en cuenta la potencia suministrada desde la fuente de potencia hacia nuestro circuito de control y el de potencia hacia el circuito de resonancia. El diseño y construcción se dividió en tres etapas las cuales son:

§ El circuito de control que utiliza un PWM para el control de las frecuencias altas, para la generación de calor en la pieza.

§ El análisis de transferencia de calor con los datos obtenidos del campo magnético generado por la espira en nuestra pieza.

§ Dentro de la construcción y validación del prototipo, se comprobó el funcionamiento de éste, con una fuente de potencia de 60W dando así una frecuencia de resonancia en la espira de 500 kHz y un voltaje de salida 30Vpp.

6. Diseño y construcción del prototipo

De manera general se tiene una fuente de alimentación que es utilizada para el abastecimiento de energía en la entrada del circuito de control y de potencia. [5]

§ El circuito de control se encarga de modular la frecuencia por un PWM.

§ El circuito de potencia, convierte el voltaje de salida del circuito de control de 12 VCD a 30 Vpp, por medio de MOSFET.

§ El circuito de resonancia está conformado por capacitores en paralelo hasta la espira de cobre, alimentado a 30 Vpp en sus dos terminales.

§ El circuito de realimentación se encarga de enviar las frecuencias dadas en el circuito de potencia al de control. Figura 4.

1 4

3

2

Page 19: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

19

Figura 4.Diagrama a bloques del prototipo.

7. Análisis Termomagnético

§ Campo magnético La excitación magnética (también fuerza o campo

magnetizante), relacionado con el movimiento de cargas libres y en los polos magnéticos, fórmula 1.

NIHL

= (1)

H = Campo magnético en amperio-vuelta/metro

(Av/m). N = Número de vueltas de la espira. I = Corriente en Amper (A). L = Longitud de la bobina en metros (m). Obtenemos al sustituir:

3.384 AvHm

=

§ Trabajo magnético

Es la potencia que se genera dentro del circuito resonante, fórmula 2.

*W Iφ= (2)

W = Potencia (Joule). φ = Flujo magnético (Weber). I = Corriente (Amper). Sustituyendo:

121.3290 10W x J−=

§ Flujo de calor en la pieza Es la cantidad de calor que puede producir una corriente eléctrica en cierto tiempo en la pieza, por medio de la Ley de Joule, que relaciona la potencia eléctrica con las calorías, fórmula 3.

0.24* *Q W t= (3) Q = Cantidad de calor obtenida. V = Voltaje. I = Corriente t = Tiempo. Obtenemos:

318.78Q cal=

§ Temperatura en la pieza Para obtener la diferencia de temperatura de la pieza con respecto al calor aplicado, se utiliza la fórmula 4.

e

QTmC

Δ = (4)

Q = Calor en calorías m = Masa en gramos

eC =Calor específico en calorías sobre gramos sobre grado. TΔ =Variación de la temperatura en grados

centígrados, que es a su vez temperatura final menos temperatura inicial. Dando como resultado:

19.299ºT CΔ = Despejando ésta fórmula (5), obtenemos:

final inicialT T T= Δ + (5) Donde la temperature final de la pieza es:

19.299 22 41.299ºfinalT C= + = Considerando un sistema ideal sin perdidas por el medio ambiente. 8. Prueba física del diseño Como resultado de estas pruebas obtuvimos que la pieza a calentar, elevó su temperatura alrededor de los 12ºC, con una temperatura inicial de 22ºC y una temperatura alcanzada alrededor de los 34ºC, en un tiempo estimado de 4 minutos, como se puede ver en la figura 5.

Page 20: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

20

Figura 5. Temperatura obtenida en la prueba física.

9. Conclusiones

Para obtener una temperatura deseada o de mayor proporción se puede considerar utilizar una fuente de potencia mayor o simplemente hacer un estudio de frecuencia, considerando que entre mayor sea la frecuencia, mayor será la resonancia que tendrá la pieza ferromagnéticas.

Para el calentamiento de una pieza ferromagnética,

es necesario conocer las propiedades del material y la temperatura deseada.

10. Referencias

[1] Bastian, P. (1996). Electronica. Madrid: AKAL.

[2] circuitos rectificadores. (2003).

[3] distorciones armonicas. (2003).

[4] EFECTO JOULE. (2003).

[5] Electrónica de Potencia Teoría y Aplicaciones. Alfaomega.

[6] electrónico/circuitos. (2011). http://members.fortunecity.es/electronico/circuitos/modulador/modulador.html.

[7] http://members.fortunecity.es/electronico/circuitos/modulador/modulador.html.

[8] factor de calidad . (2011).

[9] García, J. M. (1998). Electrónica de Potencia -Teoría y Aplicaciones . México: Alfaomega.

[10] García, J. M. (1996). Electrónica de Potencia-Teoría y Aplicaciones . México: Alfaomega.

[11] Gonzalez, G. (2005). Microsoft Word - Inducci.n.doc.

[12] Harper, E. (2006). Máquinas electricas. México: Limusa, S.A de C.V.

Page 21: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

21

Robótica reactiva a través de una herramienta gráfica de simulación

Antonio Benitez1, Rodolfo Vasconcelos López3, Ma. Concepción de la Cruz Gómez3 Ma. Auxilio Medina2, Jorge de la Calleja2

1Maestría en Ingeniería, 2Ingeniería en Informática, Universidad Politécnica de Puebla 3Licenciatura en Sistemas Computacionales, Universidad Juárez Autónoma de Tabasco

{antonio.benitezruiz, mauxmedina, jorgedelacalleja}@gmail.com

Resumen

La robótica es una área de desarrollo interesante

pero desafiante. Un problema de interés en esta área es la robótica móvil, aquella en donde se busca el desarrollo de algoritmos capaces de mover a un vehículo sujeto a restricciones. Este tipo de proyectos puede resultar costosos, por lo que una alternativa es proponer una solución desde la simulación por computadora. Este documento describe los elementos básicos necesarios para simular de manera gráfica un robot móvil tipo diferencial. Esta simulación incluye el diseño del robot, los elementos algebraicos para la solución del problema cinemático, la interfaz de usuario para mover a este robot y las aplicaciones desarrolladas a partir de los movimientos básicos. 1. Introducción Hoy en día la graficación por computadora juega un papel importante en el desarrollo de las tecnologías y en la perfección de las mismas. La graficación por computadora tiene un gran campo de aplicación, por mencionar algunas: la representación de ambientes mediante gráficos, en la producción de videos musicales, anuncios de televisión, en películas, en el análisis de datos, claro sin dejar de mencionar la importancia de los simuladores virtuales en 2D y 3D, estos últimos teniendo gran impacto por el realismo que reproducen. Una de las áreas más interesantes de la robótica es la relacionada con los robots móviles. Estos cuentan con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores.

Sin embargo, realizar pruebas de comportamiento con robots móviles de manera física implica gastos económicos elevados y posiblemente la mala utilización de éstos dispositivos. Por esta razón, el presente trabajo propone el desarrollo de un ambiente gráfico de simulación para representar un robot móvil con características similares a las que ofrece el Robot comercial Pololu 3Pi [2]. Así, este simulador podrá utilizarse para reproducir el mismo tipo de comportamientos que pueden implementarse sobre la plataforma Pololu 3 Pi. La propuesta de este simulador se soporta en un ambiente gráfico desarrollado con anterioridad. Por otro lado, esta propuesta puede utilizarse como una herramienta de soporte didáctico para explicar conceptos de cinemática de cuerpos rígidos en el área de la robótica y elementos básicos del área de graficación por computadora. Así, simulación por computadora se convierte en una alternativa importante. Este artículo esta organizado de la siguiente manera. En la sección 2, se describe el diseño de la herramienta de simulación. Los elementos matemáticos necesarios para el control cinemático del robot se presentan en la sección 3. En la sección 4, se describe el desarrollo de la interfaz de usuario propuesta para el envió de comandos al robot. En la sección 5. Se presentan los resultados obtenidos de dos aplicaciones desarrolladas para este robot, y finalmente se concluye el trabajo propuesto.

2. Desarrollo del Ambiente Gráfico Los ambientes gráficos de simulación requieren de un diseño que vaya de acuerdo a su aplicación. Este proyecto se soporta en un ambiente gráfico llamado

Page 22: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

22

GEMPA (Graphic Environment for Motion Planning Algorithm) [1]. 2.1 Ambiente gráfico de soporte GEMPA es una herramienta gráfica creada para simular entornos virtuales tridimensionales. GEMPA fue desarrollado para simular el comportamiento de algoritmos de planificación de movimientos de cuerpos rígidos. Para ello, esta herramienta incluye; la representación de objetos utilizando distintos tipos de archivos; la animación de la ruta libre de colisión de un problema de planificación de movimientos, y el desarrollo de una interfaz gráfica de usuario para navegar a través del entorno virtual [1]. El presente proyecto se soporta el IDE de Dev C++ y Librerías de OpenGL, ya que son las herramientas de desarrollo de GEMPA. OpenGL es una especificación estándar que define una API multilenguaje y multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D [5].

2.2 Características del robot a simular El Pololu 3pi [4] es un pequeño robot móvil autónomo de alto rendimiento, diseñado para competencias de seguimiento de líneas, resolución de laberintos y detección de obstáculos. El robot tiene una arquitectura diferencial (ver Figura 1.) y algunas aplicaciones interesantes sobre esta plataforma pueden verse en [2]. Por la simplicidad y versatilidad de la plataforma asociada al Pololu 3pi, se selecciono a este robot como el primer candidato a ser simulado a través del ambiente gráfico.

Figura. 1. Robot Pololu 3Pi utilizado para la simulación. Para la simulación del robot es necesario asociarle una malla de triángulos a cada uno de los elementos que lo conforman, por ejemplo, las llantas, el cuerpo del robot, los sensores, etc. Estas mallas son

procesadas por un módulo de pintado (vértice por vértice) que posee el GEMPA. Estas mallas tienen una estructura bien definida [1]. En la Figura 2. Se muestra la forma en la que se proporciona la información necesaria para la estructura del robot al simulador. En esta estructura se pueden diferenciar elementos como las mallas de triángulos asociadas a cada una de sus partes, así como los parámetros necesarios de posición, orientación, escala y color. El concepto de configuración se asocia a un cuerpo rígido en un espacio tridimensional. Esta configuración esta formada por tres parámetros (dos de ellos determinan posición y uno de ellos determina orientación). Así, una configuración puede ser presentada como (x, y, alfa).

Figura. 2. Archivo de datos con las especificaciones

necesarias para que el ambiente gráfico pinte cada una de las partes que integran al robot.

Esta configuración nos permite especificar de manera completa la localización del robot dentro del ambiente. Para ello, se utiliza un sistema de referencia global, así el robot simulado puede verse dentro del ambiente como se muestra en la Figura 3. 2.3 Dimensiones y estructura del Ambiente La dimensión del ambiente en el que el robot se desplaza es finita, por esta razón se proponen tres dimensiones diferentes, una de tamaño reducido, una de tamaño regular y una más de gran tamaño. Así, se dibuja un piso sobre el cual trabaja el robot. El tamaño del ambiente esta determinado por el número de cuadros de tamaño finito que lo componen. Se sugiere que cada cuadro no sea mayor a las dimensiones

Posición Escala Rotación Color Nombre de malla

Page 23: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

23

asociadas al robot, de esta manera el robot avanzará o retrocederá distancias no mayores a su dimensión. Es importante decir que esta es una primera versión del ambiente, en el que la locomoción del robot se hace en términos distancias fijas, por lo que una secuencia de distancias fijas provocaran un desplazamiento mayor para el robot.

Figura. 3. Simulación del Robot Pololu 3Pi.

Así, las dimensiones propuestas para esta primera versión del ambiente son, piso de 4 x 4 cuadros, piso de 8 x 8 cuadros y piso de 12 x 12 cuadros. La Figura 4. muestra un ejemplo de ambiente de dimensión 8x8.

Figura. 4. Vista de ambiente gráfico de dimensiones 8x8.

3. Locomoción del Robot El Robot en el ambiente es capaz de realizar cuatro movimientos básicos para navegar dentro de él. Sin embargo, aunque se propone una interfaz que le permite al usuario de manera muy sencilla enviar estos comandos hacia el robot, es necesario implementar estos movimientos a través del concepto de cinemática de un cuerpo rígido. 3.1 Movimientos propuestos

1.- Avanzar: Consiste en desplazar el robot hacia adelante el número de cuadros que se le indique. 2.- Retroceder: Consiste en desplazar el robot hacia atrás el número de cuadros que se le indique. 3.- Vuelta a la Izquierda: Consiste en dar un giro de 90 grados en sentido contrario a las manecillas del reloj. 4.- Vuelta a la Derecha: Consiste en dar un giro de 90 grados en sentido de las manecillas del reloj. Los cuatro movimientos propuestos se resuelven de manera finita y discreta. Por esta razón el piso en el que se desplaza el robot es cuadriculado, ya que para los movimientos de avanzar y retroceder se resuelven de manera reducida para un solo cuadro en el ambiente. En el caso de los movimientos de vuelta a la izquierda y a la derecha solo se gira en un rango de 90 grados. El esquema de la Figura 5. muestra las direcciones hacia las que el robot se puede desplazar sobre el plano XZ.

Figura. 5. Vista superior del ambiente y plano XZ sobre el que se desplaza el robot.

Para resolver los problemas asociados con los movimientos de avanzar y retroceder se hace la discretización de una recta entre las coordenadas del centro de dos cuadros adyacentes dentro del ambiente. El proceso consiste en trazar un segmento de recta dirigido y dividirlo en un número finito de partes, en donde cada una de estas partes se convertirá en la configuración en donde se pintará al robot para generar la simulación gráfica deseada. La Figura 6. muestra la idea de este proceso de discretización en donde el número de partes en el que se divide la línea recta es de 17. Es importante mencionar que el grado de discretización, es decir el número de partes en las que el segmento de recta será dividido puede ser

Page 24: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

24

proporcionado por el usuario, sin embargo hay que considerar que mientras más fina sea la discretización la animación será mas costosa (tiempo de procesamiento y velocidad a la que la simulación es presentada). Los movimientos vuelta a la derecha y vuelta a la izquierda, los cuales están acotados a vueltas de 90 grados consisten en la discretización del ángulo dado en radianes. Para esto, se divide π/2 en sentido contrario a las manecillas del reloj; de esta manera tenemos un movimiento de 90 grados que se fracciona en tantas partes como se desee (con las mimas restricciones que la discretización de la línea recta). Esto puede verse en la Figura 7.

Figura. 6. Discretización de un segmento de recta dirigido

para la animación del robot en las operaciones de avanzar y retroceder.

Figura. 7. Discretización de un ángulo dado en radianes para

la animación del robot en las operaciones de vuelta a la derecha y vuelta a la izquierda.

3.2 Matrices de Transformación La graficación por computadora tiene como base para su desarrollo las operaciones matriciales de traslación, rotación y escala de objetos en dos y en tres dimensiones. Estas transformaciones permiten el desarrollo de herramientas de animación por computadora que se propagan en los ambientes de simulación gráfica. Las operaciones matriciales de traslación, rotación y escala se utilizan para calcular la posición y/o el tamaño de los objetos, con respecto a los sistemas de referencia, son también llamadas transformaciones

lineales. Estas operaciones de transformación son siempre matriciales, pueden descomponerse en sumas y multiplicaciones, y por tanto caen dentro de la categoría de operaciones lineales que podemos incluir de forma eficiente en el procesamiento gráfico de los vértices que definen a los objetos [3]. Estas transformaciones deben aplicarse a cada uno de los vértices de los objetos que se desea manipular y es importante que cada vez que un objeto se mueve, rota o se escala, los vértices asociados al objeto deberán recalcularse. A continuación se describe brevemente cada una de las transformaciones utilizadas. Traslación La transformación de traslación consiste en mover una cierta distancia un objeto en una dirección determinada, como consecuencia el objeto se encontrará en una nueva posición. La expresión (1) muestra a transformación necesaria para realizar dicha operación (Tx, Ty, Tz representan el vector de traslación). (1) Rotación Para realizar una rotación o giro de los objetos en 3D, el usuario debe establecer un eje de rotación, así como el ángulo y el sentido de giro alrededor de dicho eje. Según sea la naturaleza del ángulo, los giros podrán ser relativos, o bien absolutos. Así, cuando se deba rotar el objeto un ángulo θ sobre un eje dado, partiendo de la posición actual del objeto, el giro será relativo. En cambio, si el objeto se ha de girar un ángulo θ a partir del estado cero entonces se tratará de un giro absoluto. En las rotaciones, es especialmente importante el sentido en el que giran los objetos y esta es la razón por la cual se trata de seguir una convención para que no se produzcan ambigüedades. En general, las medidas de ángulos de rotación positiva generan giros en sentido anti horario (cuando se mira hacia el origen, desde una posición con coordenadas positivas). La expresión (2) permite rotar un objeto con respecto al eje Z un ángulo θ. Los valores de XR, YR y ZR, corresponden a un punto dentro del objeto, mismo que

Page 25: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

25

será considerado como un punto fijo [3]. De esta manera la transformación esta formada por una traslación del objeto hacia el origen de sistema, posteriormente se aplica una rotación respecto al eje Z y finalmente se regresa el objeto a su posición inicial con una transformación de traslación.

(2) Escala Dentro de un espacio de referencia los objetos pueden modificar su tamaño relativo en uno, dos, o los tres ejes. Para ello se utiliza la matriz de escala. Si no se toman precauciones, los cambios de escala (como los de rotación), además de suponer una variación en las proporciones de los objetos, también implican una traslación de los mismos, un efecto colateral no deseado en muchas ocasiones. Para evitar este efecto no deseado, la escala se realiza con respecto a un punto fijo, esta técnica consiste en escalar un objeto, sin que éste se vea afectado por un cambio de posición, respecto a un punto establecido. Para llevar a cabo un escalamiento respecto a un punto fijo, se procede multiplicando una matriz de traslación para llevar el punto fijo al origen, después se multiplica por una matriz de escalamiento y posteriormente por otra de traslación para llevar al punto fijo a su posición original. La expresión (3) presenta la transformación mencionada, en donde los valores de XF, YF y ZF, representan un punto dentro del objeto (punto fijo) y los valores de Sx, Sy y Sz representan los factores de escala con respecto a cada uno de los ejes [3].

(3)

4. Funcionalidades e Interfaz Uno de los objetivos iniciales del proyecto es implementar locomoción para un robot móvil. Por ello, es necesario que estas funcionalidades se presenten al usuario a través de una interfaz básica que le permita mover el robot dentro del ambiente. Sin embargo, fue necesario incorporar otras funcionalidades con el objetivo de enriquecer la herramienta de simulación gráfica para ofrecer al usuario mayor flexibilidad. 4.1 Interfaz En la Figura 8. se presenta la interfaz de usuario, misma que permite enviar comandos al robot, enviando parámetros a través de botones que permiten la manipulación directa con el robot para realizar los movimientos deseados. Es importante decir que existe un estado inicial para el robot, en este estado el robot se coloca en una posición inicial con una orientación específica, lo que determina una configuración inicial. A partir de esta configuración, después de la ejecución de un comando de movimiento cualesquiera, la configuración del robot cambia. El usuario puede enviar el número de comandos que desee y todos estos comandos son almacenados como un histórico para que cuando el usuario lo solicite pueda ejecutar de una sola vez toda la secuencia solicitada.

Figura. 8. Interfaz de usuario que permite el envió de

comandos para la locomoción del robot. Además de permitir la manipulación del robot a través de la interfaz, esta aplicación también ofrece al usuario las siguientes operaciones:

• Guardar secuencia de movimientos ejecutados en un archivo. Esta funcionalidad permite al usuario almacenar la secuencia de

Page 26: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

26

movimientos que ejecuto sobre el robot para que pueda volver a utilizarla cuando lo requiera, recuperándola desde el mismo archivo.

• Recuperar desde un archivo la secuencia de

movimientos a ejecutar. Esta opción le permite al usuario recuperar desde un archivo de texto, una secuencia de comandos específica para el robot, sin importar que la secuencia de comando sea grande.

• Ejecutar nuevamente la secuencia de

movimientos solicitada. Esta tarea permite al usuario ejecutar nuevamente la secuencia de comandos cargada o actual. Tomando en cuenta que la secuencia actual es aquella que el usuario fue construyendo con cada comando solicitado o bien una secuencia recuperada desde un archivo.

• Reiniciar al robot para ejecutar una nueva

secuencia de movimientos. Esta funcionalidad permite restaurar las condiciones iniciales para el robot, borrando la secuencia de movimientos que exista e inicializa su configuración inicial.

4.2 Navegación Aleatoria Esta opción no requiere que el usuario envíe ningún comando al robot, ya que automáticamente y de manera aleatoria se genera el comando a ejecutarse y en su caso (para comandos de avanza y retrocede) el número de cuadros sobre el que se aplica dicho comando. Esto permite que el robot se desplace dentro del ambiente de manera continua y de forma aleatoria. Esta operación se ejecuta hasta que el usuario lo desee, ya que para detener dicha operación deberá hacerlo de manera manual a través de la interfaz. Como consecuencia de esta navegación aleatoria, se propuso simular a través del uso de una estructura de datos, un sensor de proximidad. Este sensor tiene la tarea de generar un evento cada vez que el robot se acerque a un obstáculo. Así, se integra la opción de navegación aleatoria junto con la evasión de obstáculos. Para ello, el usuario puede generar de manera aleatoria la posición de los obstáculos dentro del ambiente. En esta primera versión del proyecto, las dimensiones de los obstáculos serán idénticas a la dimensión de un cuadro dentro del ambiente.

El número de obstáculos a generar lo proporciona el usuario y este número se valida contra el número de cuadros que forman el ambiente activo. La Figura 9. muestra la simulación dentro del ambiente gráfico del robot desempeñando las dos tareas a la vez, por una lado la generación aleatoria de comandos y por otro la evasión de obstáculos a través de la simulación de un sensor de proximidad. Es importante señalar que todas estas funcionalidades ya han sido desarrolladas sobre la plataforma real del Pololu 3Pi [2], por lo que es posible inicialmente comparar el comportamiento de los robots en ambos ambientes. Un ejemplo de la navegación aleatoria evitando obstáculos desde el ambiente gráfico y desde un ambiente real puede verse en la Figura 10. 5. Resultados Conclusiones y Trabajo Futuro Este proyecto logró la implementación satisfactoria de la simulación del robot en un ambiente gráfico, la adecuación de una plataforma gráfica para robots móviles y establecimiento de varias dimensiones para el ambiente de trabajo. Por otro lado, se implementó y probó las funcionalidades que permiten al robot desplazarse dentro del ambiente, esto es; moverse hacia adelante, hacia atrás, dar vuelta a la derecha o hacia la izquierda. Estas funcionalidades se proponen operar a través de una interfaz gráfica de usuario, facilitando el envió o recuperación de comandos hacia el robot. Con estas funcionalidades se propusieron tareas más complejas como la navegación aleatoria y la navegación evitando obstáculos.

Figura. 9. Simulación de navegación aleatoria evitando obstáculos, simulando un sensor de proximidad.

Page 27: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

27

Con la implementación de este proyecto se cumplen todas las expectativas propuestas dado que el objetivo principal es implementar los movimientos básicos del Pololu 3Pi (rotación derecha-izquierda, avanzar y retroceder), así como la conformación de su estructura dentro del ambiente donde pueda ejecutar diferentes secuencias de movimiento. Este proyecto tiene la posibilidad de continuar con nuevas propuestas de simulación. Por ejemplo; la programación de un sigue líneas a través de la simulación de sensores infrarrojos; la programación de algoritmo de sigue muros utilizando los sensores de proximidad; mejorar la simulación de los sensores de proximidad; incrementar el realismo dentro del ambiente incorporando elementos de iluminación y texturas. Este proyecto se ha realizado con el propósito de hacer nuevas aportaciones a la herramienta GEMPA, con lo que se permite la simulación de un robot Pololu 3Pi en un ambiente en 3D. 6. Reconocimientos Este proyecto se lleva a cabo con la colaboración de el cuerpo académico de Sistemas y Cómputo Inteligente de la Univeridad Politécnica de Puebla y el Cuepro Académico de Sistemas Inteligentes de la Universidad Juárez Autónoma de Tabasco (UJAT). De manera particular se agradece la colaboración de los alumnos Rodolfo Vasconcelos López y María Concepción de la Cruz Gómez, estudiantes de la licenciatura en Sistemas Computacionales de la UJAT, ya que el trabajo presentado aquí es parte de su tesis de licenciatura.

7. Referencias [1] Antonio Benitez and Alejandro Mugarte. “GEMPA: Graphic Environment for Motion Planning algorithm”, In Research in Computer Science and Engineering. Volumen 42, pag. 225-236., Mayo 2009. [2] Antonio Benitez et al. Programación de Vehículos móviles bajo Plataforma Pololu 3Pi., en Revista Visión Politécnica. Año 6/Núm. 1. Pag. 23-27. Junio del 2011. [3] Informática Gráfica, “Manipulación del espacio: Trasformaciones y proyecciones”, Universidad de Salamanca Facultad de Ciencias Ingeniería en Informática, Disponible: < http://gsii.usal.es/~igrafica/> Recuperado el día 15 de enero de 2011. [4] Pololu Corporation. (2009). Pololu 3pi Robot Users Guide. Robot Pololu 3pi Guía de usuario (pp. 1-48). Con dirección electrónica en: <http://www.pololu.com/docs>. [5] Wright Haemel, Sellers Lipchak, OPpenGL Superbible, Fifth Edition. 2011.

Figura 10. Navegación aleatoria evitando obstáculos en un ambiente real (lado izq.) y en el ambiente virtual (lado der.)

Page 28: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

28

Sin título de médico, pero hábil para las matemáticas y curioso acérrimo, Galilei empezó a dudar sobre el precepto de que la Tierra era el centro de todo –como lo proponía la teoría aristótelica-tolemaico, originada en la cultura griega (en el siglo IV a.C.)– y se inclinaba más por la idea de que el Sol era el centro, y la Tierra (como el resto de

los planetas) giraba alrededor de él, tal y como ya lo había planteado Nicolás Copérnico, sólo que hacía falta probarlo. ¡Galileo lo hizo!

En los términos de este siglo XXI, Galilei era “ñoño” y “matado”; pero para su tiempo, siglo XVII, cuando la Santa Inquisición estaba en auge: estudiar, investigar y, sobre todo, romper con paradigmas era sinónimo de herejía. Doña Guilia Ammannati era la primera en oponerse a las prácticas de su hijo, quien además no iba a misa, lo que la llevó a actuar contra él en el Santo Oficio (de Florencia), cuando la edad del joven oscilaba entre los 18 y 25 años. La demanda no tuvo repercusiones; Galileo Galilei siguió con sus investigaciones, de tal suerte que en 1589 consiguió la cátedra de Matemáticas de la Universidad de Pisa y, en 1592, la de Padua (en la que se mantuvo hasta 1610). No obstante, su progenitora seguía al acecho, ahora a través de Silvestro Pagnoni, quien fungía como ayudante de Galilei en la producción de copias científicas para los alumnos y, de paso, informaba a la señora Ammannati del comportamiento de su hijo. Pagnoni, en 1604, en el Santo Oficio (de Padua) denuncia a Galileo: “(…) le he visto hacer horóscopos en su habitación (…) he estado 18 meses en su casa y no lo he visto ir nunca misa (…) He sabido por su madre que nunca se confiesa ni comulga: ella a veces hacía que averiguara si en las fiestas iba a misa y yo, al seguirlo, vi que en lugar de ir a misa iba a casa de Marina [Gamboa], su puta veneciana (…)” [1] –quien fue la madre de los tres hijos (dos mujeres y un varón) de Galileo. Aunque la relación entre madre e hijo ya no era muy buena, Galileo se hizo cargo de su familia a la muerte de su padre (en 1591). En cuestión de dineros, el joven se enfrentaba a una situación difícil, pues tenía que pagar la dote de sus dos hermanas, mantener a su hermano músico y a su mamá. Las cátedras de matemáticas le aligeraban la carga, pero no era suficiente. Por ello vendía compases geométricos para hacer cálculos, hospedaba a alumnos y daba clases particulares [2].

Consciente de su situación económica, Galileo supo que debía trabajar más en sus contactos con el poder, si deseaba adquirir prestigio. El mecenazgo fue una institución social

Galilei, el gran rebeldeSusana Sánchez Sánchez

Academia de Desarrollo Humano, Universidad Politécnica de Puebla J. C. Bonilla, Puebla, México

En busca de un mejor futuro económico para su hijo, Vicencio Galilei, profesor de música y comerciante de la baja nobleza florentina –casado con Guilia Ammannati– sacó a su

vástago del Monasterio Camaldolese de Vallombrosa para que estudiara Medicina. Así, en 1581 y con 17 años de edad, el joven Galileo Galilei entra a la Universidad de Pisa. Tras cuatro años de estudio, no cumple con los deseos de su padre; prefirió las Matemáticas y la Filosofía Natural (Física); dejó trunca la carrera impuesta, no así la elegida por

vocación.

Page 29: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

29

generalizada en Europa. Aquellos que no tenían mecenas no tenían movilidad social ni la posibilidad de una carrera profesional. Fue gracias a sus relaciones sociales que Galileo obtuvo la cátedra de matemáticas en ambas universidades. Empero requería de alguien muy poderoso en términos sociales, políticos y económicos, y ya lo tenía en la mira desde hace tiempo: Cósimo, uno de sus alumnos, era parte de la Corte y, en 1609, lo coronaron, justo cuando Galileo desarrollaba con mayor precisión sus estudios astronómicos. Así, en 1610, a sus 46 años de edad, el científico renunció a la cátedra y se transformó en el filósofo y matemático del gran duque de Toscana; llegó a obtener el título de Molto Ilustre [3] –equivalente a un grado de postdoctorado en nuestro tiempo.

En ese periodo, la popularidad de Galileo se extendió rápidamente con la publicación de su libro Sidereus Nuncius (Mensajero Sideral), cuyos ejemplares se vendieron como pan caliente, pues en ellos se planteaba una teoría heliocéntrica que, por supuesto, desbancaba la idea geocéntrica de la Tierra, según doctrinas de la Iglesia. En ese tratado, el científico mencionó que a través de la invención del telescopio pudo ver que: “la Luna no es lisa, sino que mostraba montañas y valles; muchas y nuevas estrellas aparecían en donde antes sólo había oscuridad, la Vía Láctea no era una mancha lechosa sino un conjunto casi infinito de pequeños puntos luminosos y el planeta Júpiter ya no estaba solo, sino acompañado por cuatro pequeños puntos que giran a su alrededor” [4]. Su sapiencia, aunada ahora a una buena posición, hicieron famoso a Galileo en toda Europa. Ya no tenía que buscar mecenazgos, pues las cortes más importante de ese continente se peleaban por tenerlo entre sus miembros, lo que lo convirtió en un científico independiente. La popularidad era tal que incluso Kepler –uno de los investigadores más importantes del momento– lo felicitó y entabló comunicación con él a través de cartas; en Roma –donde en principio no se aceptaba el descubrimiento de Galileo–, Ceci, un joven de la nobleza romana, invitó al italiano a formar parte de la Academia de los Linceos. El rápido avance, no obstante, también le sumó opositores, la Iglesia y su Santa Inquisición, fueron los más atroces. El clero no estaba de acuerdo con las ideas copernicanas –ni con los seguidores de éstas–, por su oposición a las Sagradas Escrituras, lo que era tildado de herejía. Si bien Galilei –respaldado por algunas cortes y científicos– defendió los resultados de sus investigaciones, tuvo que abjurar de éstas en 1633 [5], cuando se enfrentó al Santo Oficio. (Se dice que al final del juicio espetó: y sin embargo se mueve). La Santa Inquisición no lo mató, pero lo desterró en su casa de Arcetri, cerca de Florencia, donde murió en 1642, a los 78 años.

Referencias bibliográficas:[1] Beltrán Marí, Antonio. Talento y poder. Historias de las relaciones entre Galileo y la Iglesia católica, Unión Europea: Laetoli, 2006, pp. 16.[2] Biro, Susana. La mirada de Galileo, México: Fondo de Cultura Económica, 2009.[3] Biagioli, Mario. Galileo cortesano. La práctica de la ciencia en la cultura del absolutismo, Madrid: Katz, 2008.[4] Esteban Piñeiro, Mariano. “Galileo, los precursores españoles del genio”, La aventura de la Historia, Vol. 11, No. 126, 2009, pp. 18-23.[5] Finocchiaro, Maurice A. “The Church and Galileo”. Catholic Historical Review. Vol. 94. No. 2, 2008, pp. 260-282. [artículo disponible en: www.bibliotecas.buap.mx]

Page 30: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

30

Las matemáticas, como todo quehacer humano, requieren de su historia para entender su desarrollo. La historia de la ciencia es, sin lugar a dudas, su respuesta. Sobre todo hoy día, cuando se nos ocurre decir que vivimos en la era de la ciencia y la tecnología. Difícil es encontrar ya algún aspecto de nuestra vida personal o social

que no se encuentre condicionado o determinado en buena medida por el desarrollo científico y tecnológico. Sin embargo, parece costarnos más apreciar que vivimos en el futuro del pasado, o que nuestro presente tecnológico no es más que la culminación de un sueño–o una pesadilla– esbozado por filósofos griegos, muchos de ellos, conocidos como presocráticos y, después, cómo grandes herederos del pensamiento pitagórico. Entender, no obstante, nuestro presente, quiénes somos y qué podemos llegar a ser requiere de una reflexión sobre nuestra historia científica. Bien mirado, nosotros somos el resultado del proceso histórico que la ciencia ha vivido desde su nacimiento, en especial las ciencias que tienen como piedra angular a las matemáticas. Sin embargo, es necesario que sepamos cómo se dio tal surgimiento.

La concepción del mundo, desde el punto de vista físico, cosmológico y astronómico, transmitida por la universidad medieval a partir de su fundación no es otra que la heredada fundamentalmente de Ptolomeo de Alejandría (s. II d. C.), por un lado, y de Aristóteles (s. IV a. C.), por otro. Es bien conocido que en el siglo V d. C., tras la disolución de la parte occidental del Imperio romano (que no incluía ni Grecia ni Egipto), el saber griego quedó fuera del alcance de los cristianos occidentales y no comenzó a recuperarse hasta el siglo XII gracias a los musulmanes (como Abu Abdallah MuhammadibnMūsā al-Jwārizmī. quien fuera la portada, por años del libro de cabecera para cualquier estudiante de matemáticas, el Baldor de Algebra). Así, la gran obra astronómica de Ptolomeo, “Almagesto”, fue vertida al latín en la segunda mitad del mencionado siglo en Sicilia primero y en Toledo después. El mismo traductor de dicha

obra del árabe al latín, Gerardo de Cremona, puso en esta lengua obras de Aristóteles como la “Physica” y el “De Caelo”.

Las incipientes facultades de artes de las universidades medievales, en las que se estudiaba tanto matemáticas como filosofía natural, serían las responsables de la difusión en Europea de la ciencia griega junto con las aportaciones a la misma de tratadistas árabes de la categoría de Alfarabi, Alhazén, Averroes o Alpetragius, entre otros. Como resultado puede afirmarse que tanto la descripción del cosmos como los principios explicativos del mismo que podía barajar un cristiano de la Baja Edad Media no diferían en extremo de lo que se sabía en el contexto helenístico a finales del siglo II d. C. Más aún, lo que Copérnico pudo aprender de astronomía en las universidades de Cracovia o de Bolonia no se apartaba excesivamente de lo que era conocido en el Museo de Alejandría trece siglos antes.

Para adentrarnos en ese saber griego acerca del cosmos del que arranca la ciencia occidental, lo primero a subrayar es una dualidad de enfoques u objetivos, no siempre compatibles entre sí, que tenían como máximos representantes dos nombres propios citados con anterioridad: Aristóteles y Ptolomeo. En efecto, desde los tiempos de Eudoxo de Cnido, geómetra de la Academia platónica, y de Aristóteles fue esbozándose lo que de modo algo anacrónico podemos denominar el punto de vista del astrónomo-geómetra, por un lado, y del físico-cosmólogo, por otro. En Copérnico hallamos la decidida voluntad de

A hombros de gigantesVicente Soriano Tlachi

Editorial: CRITICALengua: CASTELLANOISBN: 9788484324355

Año edición: 2003Plaza de edición: BARCELONA

Page 31: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

31

aunar ambos planteamientos en un modelo de universo respetuoso con la tradición (aun cuando habitualmente se hable de la revolución copernicana, nada puede convenir menos a este personaje que el término “revolución” aplicado a su vida o a su pensamiento), pero capaz de sintetizar astronomía y cosmología sin perder el rigor y la exactitud en los cálculos de los movimientos planetarios. A cambio, por esta y otras razones, se mostraba dispuesto a pagar un alto precio: arrojar a la Tierra del centro del mundo y obligarla a describir un triple movimiento alrededor del Sol.

Que quede claro: la física heredada de los griegos es ajena a cualquier tipo de matematización, todo lo contrario sucede con la astronomía, estrechamente emparentada con la geometría. Ahora bien, mientras que el físico (entiéndase como filósofo de la naturaleza) y filósofo peripatético (el que está sumido en la reflexión y meditación) pretende decir cómo es el mundo, qué forma tiene, de qué están hechos los astros, etc., el geómetra y astrónomo ptolemaico da cuenta de sus movimientos actuales y futuros con un rigor y una precisión fuera por completo del alcance del físico, sirviéndose para ello de cuantas herramientas de cálculo (esto es, del conjunto de círculos epicíclicos, deferentes, etc.) estime oportunas sin importar si ha de concedérseles o no realidad física. Si a esta dualidad de planteamientos sobre un mismo objeto, el cielo, añadimos la implícita o explícita incompatiblidad existente entre ellos, se comprende que el conflicto teórico entre disciplinas y la disputa entre los cultivadores de una u otra está servido.

¿Qué tiene de especial el sistema copernicano? En un contexto de franco divorcio entre astronomía y cosmología, el autor del “De Revolutionibus”, según nos dice en el Prefacio dedicado a Pablo III, manifiesta que entre las razones que le han movido a suponer una Tierra en movimiento se encuentra tanto la necesidad de fijar la duración constante de la revolución anual [del Sol]” (o sea, el año trópico), como el hecho de que los astrónomos no hayan logrado encontrar la forma exacta del mundo y la simetría de sus partes. Dicho de otra manera, se trataba de aunar predicción astronómica y explicación cosmológica, poniendo fin al divorcio institucional que otorgaba al filósofo el derecho exclusivo a pronunciarse sobre cuestiones cosmológicas, en tanto que toda aportación a la astronomía estaba reservada al geómetra. Descripción astronómica y explicación cosmológica habían de ser compatibles. Pero para ello el astrónomo debería nada menos que abandonar el sistema ptolemaico vigente desde la Antigüedad griega (a excepción del largo paréntesis de la Alta Edad Media, al menos en el occidente cristiano) y adentrarse por caminos muy poco explorados. Copérnico emprende así una tarea a la que dedicará buena parte de su vida, si bien uno piensa que, dada la magnitud del desafío, quizá podría haber servido de ocupación para muchas más.

¿Qué es la astronomía heliocéntrica? Si limitamos la tarea astronómica a lo que podríamos denominar un reducido sistema solar con los planetas y satélites que pueden observarse sin telescopio, contamos con seis planetas (Mercurio, Venus, la Tierra, Marte, Júpiter y Saturno) y un sólo satélite, la Luna. En cuanto a los cometas, para los griegos, su aparición era considerada como un suceso sublunar de carácter meteorológico que, como tal, no era incumbencia del astrónomo. Puesto que se trata de dar cuenta de los movimientos de los cuerpos celestes a fin de poderlos calcular y predecir, si partimos de la descripción heliocéntrica a la que todo lector está habituado, se convendrá fácilmente en que los movimientos más obvios son los orbitales de los planetas alrededor del Sol, además del de la Luna en torno a la Tierra. Así, en función de su distancia a ese astro, los planetas recorrerán órbitas de desigual tamaño desde el más próximo, Mercurio, hasta el más alejado, Saturno, y les corresponderá asimismo periodos orbitales diferentes que oscilan, según los cálculos de Copérnico, desde los ochenta días de aquél a los treinta años de este último.

Ahora bien, éstos son los que podríamos denominar movimientos reales de los planetas. Pero los movimientos aparentes se dan en mayor número. En efecto, es incuestionable que el doble movimiento de la Tierra no es directamente perceptible para nosotros sus habitantes, mientras que sí parece, en cambio, serlo el del Sol hacia el este y el del conjunto de la bóveda celeste hacia el oeste que arrastra con ella a estrellas y planetas. Y lo cierto es que, desde un punto de vista meramente empírico, tanto da que rote el conjunto de lo observado en un sentido o el observador en sentido contrario. En pura teoría es posible pues elegir entre el reposo del observador y el giro diario de los cielos hacia el oeste, o el movimiento de rotación de la Tierra hacia el este responsable de la ilusión óptica de que todo gira en sentido contrario. En el primer caso nos habremos instalado en un tipo de descripción geocéntrica, mientras que en el segundo habremos optado por una descripción heliocéntrica.

Recapitulando lo dicho, se advierte que mientras en el marco de una astronomía heliocéntrica los movimientos reales a describir y predecir, además del de la Luna, son únicamente los de los cinco antiguos planetas, a los que ahora

En Copérnico hallamos la decidida voluntad de aunar ambos planteamientos en un modelo de universo respetuoso

con la tradición

Page 32: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

32

hay que añadir la rotación y la traslación de la Tierra, una astronomía geocéntrica ha de dar además razón de ciertos movimientos aparentes como son el movimiento diurno de estrellas, planetas, Sol y Luna hacia el oeste (explicable en términos heliocéntricos por el de rotación de la Tierra), el movimiento anual del Sol hacia el este (responsable de las estaciones y que una astronomía heliocéntrica lo sustituye por el de traslación de la Tierra) y el movimiento de retrogradación de los planetas con respecto a su movimiento orbital a lo largo de la eclíptica (justificable por la combinación de dicho movimiento orbital junto con el de traslación de la Tierra). Si a esta profusión de movimientos añadimos el hecho de que, salvo el diurno, los restantes son aparentemente no uniformes, puede dar la impresión de que los griegos aceptaron un complejo, desordenado e irregular comportamiento del mundo celeste, incapaz de ser sometido a orden, regularidad, simetría, en definitiva, a ley. Sin embargo, nada más lejos de la realidad. La tradición ha plasmado en una expresión la decidida voluntad emanada de la Academia de Platón de ordenar racionalmente los cielos. Se trata del llamado problema de Platón, también denominado (por el propio Copérnico, por ejemplo) principio del movimiento perfecto. En virtud de dicho principio, todos los movimientos celestes, los percibamos así o no, han de ser descritos en términos de movimientos perfectamente circulares, uniformes y regulares (la regularidad se entiende en cuanto ausencia de inversiones de sentido) o combinación de dichos movimientos. En consecuencia, el problema de Platón no es otro que el de dar razón de los movimientos aparentemente no circulares, con variaciones de velocidad e inversiones de sentido mediante movimientos que se atengan rigurosamente al principio mencionado. Tras esta prescripción se esconde el modo de conocimiento que caracterizará a la ciencia posterior. En efecto, el conocimiento científico es algo más que la mera acumulación de fenómenos empíricos (astronómicos, ópticos, eléctricos, etc.); supone un modo de ordenación de dichos fenómenos estrechamente ligado a la noción de ley y expresable en términos matemáticos. Hacer ciencia es formular matemáticamente leyes de la máxima generalidad posible, las cuales no siempre se muestran espontáneamente a la observación Cuanto más sofisticada es una disciplina científica, más lejos se halla de la experiencia inmediata, lo que por supuesto no implica negar el fundamental papel de la contrastación empírica.

En ese sentido, hay que reconocer la admiración y el asombro que produce la astronomía geométrica griega, sin la cual no puede comprenderse la historia de la ciencia posterior. Desde los tiempos de Eudoxo en el siglo IV a. C., la tarea del astrónomo griego no fue otra que la construcción de modelos geométricos aptos para describir los movimientos celestes conforme al principio del movimiento perfecto, tomando para ello como base esferas en rotación con un único centro (Eudoxo, Polemarco, Calipo) o círculos móviles concéntricos o excéntricos y con diferentes centros (Apolonio de Perga, Hiparco de Rodas, Ptolomeo de Alejandría).Copérnico, por su parte, hizo íntegramente suyos los preceptos que, desde Platón, habían presidido el desarrollo de la astronomía planetaria. Así, por ejemplo, en el capítulo 4º del Libro I de su “De Revolutionibus” afirma lo siguiente: “el movimiento de los cuerpos celestes es regular, circular y perpetuo, o compuesto por movimientos circulares”. Y en la página siguiente añade que la mera posibilidad de que un cuerpo celeste recorra su órbita con movimiento no uniforme “repugna a la inteligencia”, o sea, es completamente irracional.

Partiendo de estas premisas perfectamente ancladas en la tradición, el astrónomo polaco se propuso construir una nueva astronomía que no adoleciera de los mismos problemas que las de sus antecesores. La teoría de esferas homocéntricas, pese a que había tenido algunos partidarios en la Edad Media, en modo alguno podía equipararse a la de los ptolemaicos en cuanto a rigor y exactitud se refiere. De hecho, ya los griegos desde finales del siglo IV a. C. habían comprendido que resultaba extremadamente difícil poder dar razón de las apariencias celestes con la sola combinación de esferas concéntricas en rotación. Otra cosa era cuando se trataba de describir cosmológicamente la forma del mundo. Entonces, tanto en la Antigüedad griega como en la Edad Media se acudió a una representación simplificada de las esferas, que incluso permitía a los cristianos medievales ubicar espacialmente el Paraíso, el Purgatorio y el Infierno, tal como Dante nos muestra en su Divina Comedia.

Los astrónomos ptolemaicos, por su parte, habían construido un tipo de geometría enteramente diferente basada en la utilización de decenas de círculos, pero sin pretender que todos ellos fueran compatibles entre sí o tuvieran realidad física, según ha sido dicho ya. Este planteamiento es el que iba a experimentar un giro inesperado por

Se trata del llamado problema de Platón, también denominado (por el propio Copérnico, por ejemplo) principio del

movimiento perfecto

Page 33: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

33

obra y gracia de Copérnico. En efecto, la atribución a la Tierra del doble movimiento de traslación y rotación traería consigo una simplificación del número de movimientos celestes, lo que permitiría aunar ambos planteamientos bajo la presencia dominante (aunque no exclusiva) de las esfera.

Resumiendo, con Copérnico reencontramos la teoría de las esferas homocéntricas también desde la perspectiva astronómica, si bien en el centro común a todas ellas está el Sol, y no la Tierra. Pese a los esfuerzos de muchos filósofos e historiadores de la ciencia por presentarnos la contribución de este astrónomo como el primer capítulo de la astronomía moderna, a la vista de lo expuesto más bien habría que concluir que nos hallamos ante los epígonos del cosmos alumbrado por los griegos y presidido por la armonía de orbes celestes en rotación.

¿Qué pasa después de la llamada Revolución Copernicana? En el lenguaje coloquial se emplea la expresión “giro copernicano” para aludir a una transformación muy radical. En efecto, Copérnico imprimió una profunda modificación a la astronomía al desplazar al observador del lugar reservado para la pesada Tierra, el centro de la esfera estelar, y situarla en la posición que antes ocupaba el Sol (entre Venus y Marte). La Tierra había pasado a estar suspendida de los cielos. Ahora bien, ¿acaso no constatamos empíricamente que una cosa es la plataforma que pisamos y otra muy distinta la semibóveda que se alza sobre nuestras cabezas? Además, si la Tierra se moviera velozmente ¿no debería ese movimiento ser perceptible para nosotros sus habitantes? Estos y otros interrogantes convertían la hipótesis copernicana en una novedad muy difícil de asumir por sus contemporáneos, incluso al margen de las disputas bíblicas.

Pero la proeza del astrónomo polaco no habría sido tal si su propuesta cosmológica no hubiera venido acompañada de la construcción de una nueva astronomía geométrica, no menos predictiva que la anterior. Por primera vez se ponía a disposición de los expertos una descripción cuantitativa, rigurosa y precisa (o al menos tan precisa como la ptolemaica) del comportamiento de los cuerpos celestes tomando como referencia el Sol y no la Tierra. Luego, el movimiento de la Tierra era al menos posible. Argumentos no sólo astronómicos sino también físicos (mecánicos) inclinarán posteriormente la balanza en favor de esta hipótesis que culminará en la teoría de la gravitación universal de Newton. A lo largo de los 144 años que separan la publicación de la obra de Copérnico, “De RevolutionibusOrbiumCoelestium” (1543), de los “PhilosophiaeNaturalisPrincipia Mathematica” (1687) de Newton, la concepción del universo experimentará una profunda transformación que definitivamente llevará a abandonar el tipo de cosmos heredado de los griegos en el que aún se desenvolvía el pensamiento copernicano.

Desde finales del siglo XVI y a lo largo del siglo XVII gradualmente la esfera de las estrellas, que en un mundo heliocéntrico ya no cumplía papel mecánico alguno (puesto que no gira ella sino el observador), comenzó a ser cuestionada hasta desaparecer y permitir que las estrellas se diseminaran en un espacio vacío infinito, tal como lo concibió (no por primera vez) Newton. La misma suerte corrieron las antiguas esferas cristalinas, todavía mantenidas por Copérnico, que transportaban a los planetas en su cara interna. Así, las órbitas planetarias pasaron a ser la trayectoria descrita en el espacio por un cuerpo celeste, en vez de asociarse a cuerpos sólidos físicamente existentes.

Por otro lado, desde principios del siglo XVII el telescopio permitió aumentar el número de satélites, evitando la situación de excepcionalidad que la Luna tenía en Copérnico (único cuerpo que no giraba alrededor del Sol). En cuanto a los cometas, dejaron de ser fenómenos meteorológicos que acontecen entra la Luna y la Tierra para convertirse en los más viajeros integrantes del sistema solar, capaces de rebasar sus límites y describir gigantescas órbitas comparadas con las de los planetas. También el Sol modificó su estatuto puesto que se transformó en algo que nunca antes había sido en la astronomía ptolemaica ni en el propio Copérnico: una estrella entre otras muchísimas, alrededor de la cual giran los planetas. ¿Había otros mundos como el nuestro? ¿Podrían estar habitados? En este punto barrocos e ilustrados dieron rienda suelta a una imaginación que durante muchos siglos no había sido estimulada debido a la convicción antigua y medieval de que existía una sola Tierra alrededor de la cual giraban los cinco únicos planetas existentes, además del Sol, la Luna y una infinidad de estrellas equidistantes de ella que en ningún caso eran concebidas como otros soles en torno a los cuales girasen desconocidos planetas.

En resumen, mucho habrían de variar las cosas tras la publicación del De Revoltionibus desde el punto de vista astronómico, cosmológico y físico. Concretamente en astronomía, en la medida en que Copérnico seguía concibiendo órbitas circulares y movimientos angulares uniformes, no fue fácil lograr un grado de precisión mucho

La teoría de esferas homocéntricas, pese a que había tenido algunos partidarios en la Edad Media, en modo alguno podía equipararse a la de los

ptolemaicos en cuanto a rigor y exactitud se refiere.

Page 34: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

34

mayor que el ya alcanzado por sus antecesores, y ello gracias al recurso a herramientas de cómputo ptolemaicas (círculos epicíclicos, deferentes, etc.) a las que este autor se vio obligado aún a recurrir pese a su decidida opción por las esféricas concéntricas al Sol. De hecho, hasta la formulación por Kepler de lo que conocemos como primera y segunda ley de los movimientos planetarios, esas herramientas geométricas no desaparecieron por completo de la astronomía. En cosmología ya se ha aludido a algunas de las modificaciones por venir. Finalmente, la física aristotélica definitivamente resultó incompatible con una Tierra móvil. Nuevos planteamientos deberán abrirse camino en la obra de Johanes Kepler (quien vivió de una forma desaforada, acosado por la pobreza, por el conflicto católico-protestante, que hizo que su obra no tuviera el respaldo económico como con el que contó Copérnico, pero gracias a él, se cambió el punto de vista copernicano en torno a las órbitas celestes, todavía circulares, por las elípticas); de Galileo (quien presentó una firme defensa de la ciencia ante la Inquisición, obligándolo a callar y morir en el silencio, pero que nos dejó como legado y norma que la ciencia sin experimentación, no se le puede llamar como tal), en la primera mitad del siglo XVII, hasta desembocar en los “PhilosophiaeNaturalis Principia Mathematica” de Newton de la segunda mitad del mencionado siglo.

Nicolás Copérnico, Johanes Kepler, Galileo Galilei, Isaac Newton, pueden y deben ser definidos como uno de los gigantes de la ciencia. Los que hemos seguido sus pasos en la aventura matemática en pro de la ciencia y tecnología, vamos mirando el mundo desde sus hombros, es decir, desde sus aportes. A ellos, hay que agregar a Albert Einstein (quien, de ser un don nadie, o sea, un humilde oficinista en Alemania, pasaría a ser la referencia obligada a partir de 1915, cuando se demuestra que la luz del sol, tuerce la luz de las estrellas, Einstein afirmaba el tiempo y espacio estaban inextricablemente interconectados).

Finalmente, debemos decir que A hombros de gigantes, es un libro que bien podríamos llamar como una pieza única, dado su contenido y por quien lo ha compilado. En efecto, el gran científico Stephen Hawking ha reunido en él, por primera vez en la historia de la edición, las cinco obras que a su juicio representan el canon de la cultura universal en el campo de la Física y la Astronomía y ha escrito una introducción a cada una, explicando lo que han significado para la ciencia, vinculándolas entre sí y ofreciéndonos cinco soberbios retratos de los genios que las escribieron:

Nicolás Copérnico, Sobre las revoluciones de las esferas celestiales•Galileo Galilei, Diálogos sobre las dos ciencias•Johannes Kepler, Armonía del mundo•Isaac Newton, Principia•Albert Einstein, El principio de la relatividad•

En su conjunto, estas obras, escritas por los mayores pensadores de la historia de la Humanidad, constituyen un tesoro de conocimientos científicos que nadie puede ignorar. Son las piedras miliares de la ciencia moderna que nos enseñan cómo cada uno de los grandes hombres que las escribieron construyó sus teorías a partir de las contribuciones geniales de sus predecesores, en una cadena de gigantes de la inteligencia que llega hasta nuestros días con el propio Stephen Hawking, el gran físico teórico inglés autor de los best-sellers mundiales “Historia del tiempo” y “El Universo en una cáscara de nuez”.

Nicolás Copérnico, Johanes Kepler, Galileo Galilei, Isaac Newton, pueden y deben ser definidos como uno de los gigantes de la ciencia.

Page 35: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011 Visión Politécnica

35

El Espacio Común de la Educación Superior Tecnológica (ECEST), conformado porlos tres Subsistemas de Educación Superior Tecnológica (los Institutos Tecnológicos, las Universidades Politécnicas y las Universidades Tecnológicas), tiene como objetivo establecer un espacio integrado que permita el intercambio y la cooperación, para elevar la calidad de la educación en beneficio de la comunidad estudiantil y académica.

A través de la Comisión de Mejoramiento del Profesorado del ECEST se desarrollan y consolidan actividades académicas que, entre otros aspectos, promueven los estudios de posgrado, como la Maestría en Enseñanza de las Ciencias. Este Programa se ha desarrollado en modalidad mixta (presencial y en línea) con una duración de seis cuatrimestres y está enfocado al estudio de una de las áreas temáticas del Proceso Enseñanza – Aprendizaje de Física, Química, Matemáticas o Biología.

Estos estudios permitirán: planear y diseñar ambientes de aprendizaje desde una perspectiva interdisciplinar para desarrollar un pensamiento integrador y creativo en los educandos; promover la realización de experimentos de alto impacto didáctico, capaces de atraer la atención del alumno como punto departida para el aprendizaje, con recursos materiales de fácil adquisición e incorporar las nuevas tecnologías de información y comunicación en la enseñanza de las ciencias.

Objetivo general:Formar profesores competentes en el diseño e implementación de ambientes de aprendizaje científico-tecnológico que permitan el desarrollo de las competencias establecidas en las asignaturas de las áreas de Matemáticas, Biología, Física y Química, utilizando metodologías de investigación educativa.

Perfil de Ingreso:Ÿ Profesor adscrito a los subsistemas participantes, con

interés en las áreas de Matemáticas, Física, Química o Biología.

Ÿ Manejo de las nuevas tecnologías de información y comunicación.

Ÿ Interés en la docencia e investigación educativa.Ÿ Utilizar técnicas autodidactas que le permitan aprender a

aprender.Ÿ Habilidades para el estudio independiente, autogestión y

trabajo colaborativo.Ÿ Uso y manejo de herramientas ofimáticas (paquetería de

Word, Excel,PowerPoint, correo electrónico e internet).

Perfil de Egreso:El maestro en enseñanza de las ciencias será capaz de: Ÿ Aplicar las estrategias de enseñanza- aprendizaje para el

desarrollo de su labor docente incorporando el uso de nuevas tecnologías para la educación.

Ÿ Diseñar experiencias de aprendizaje significativo, dentro y fuera del aula, que faciliten la generación de conocimiento.

Ÿ Aplicar las metodologías de investigación educativa para identificar e implementar las actividades docentes que mejoren el desempeño académico.

Los aspirantes deberán sujetarse al siguiente procedimiento:

1. Entregar documentos de pre-registroŸ Copia simple del Título y Cédula Profesional de

licenciatura afín al programa.Ÿ Currículum vitae.Ÿ Carta de exposición de motivos para el ingreso al

posgrado.Ÿ Carta de postulación firmada por el titular de la

institución de origen.Ÿ Carta compromiso del alumno para dedicación al

programa.Ÿ Demás documentos y requisitos que solicite la

institución sede.

2. Cursar el propedéuticoEl curso propedéutico se desarrollará bajo la modalidad en línea y tendrá una duración de 60 horas distribuidas en seis semanas, el cual permitirá la elaboración de un protocolo de investigación educativa en el área de Matemáticas, Física, Química o Biología.

Page 36: Revista Vision Politecnica

Año 6/ Núm. 2 Julio-Diciembre 2011Visión Politécnica

36

Al finalizar el curso el aspirante dispondrá de una semana adicional para entregar el protocolo al que hace referencia el párrafo anterior.

Fecha de inicio: del 16 de enero al 24 de febrero.

3. Cumplir con los requisitos de IngresoŸ Aprobar el curso propedéutico.Ÿ Realizar entrevista con los miembros del Comité de

Ingreso correspondiente.Ÿ Presentar la documentación correspondiente en original.

Interesados registrarse del 14 al 30 de Noviembre de 2011.}Periodo de evaluación y entrevistas a aspirantes: del 5 al 30 de marzo de 2012.Publicación de resultados: 2 de abril de 2012.Inscripciones: 03 al 13 de abril.Inicio del primer cuatrimestre: 30 de abril al 10 de agosto.

Posibilidad de beca de movilidad del ECEST, en la categoría de alumno.Para mayor información visite la página http://www.ecest.gob.mx/ o comuníquese con los contactos de las sedes:

Instituto Tecnológico de Ciudad Guzmán.Dr. Guillermo De Anda Rodríguez.Sub Director Acadé[email protected]

Universidad Politécnica de Aguascalientes.Dr. Marco Paz Ramos.Encargado de Investigación y [email protected]

Universidad Politécnica de Baja California.Dr. Abelardo Mercado Herrera.Secretario Acadé[email protected]

Universidad Politécnica de Pachuca.Dr. Marco Flores González.Encargado de Investigación y [email protected]

Universidad Politécnica de Puebla.Dr. Miguel Ángel Celis Flores.Secretario Acadé[email protected]. Antonio Benítez.Encargado de [email protected]

Universidad Politécnica de Sinaloa.Mtro. José Isidro Osuna López.Secretario Acadé[email protected]

Universidad Politécnica de Tulancingo.Mtra. Amparo Nidia Castillo Santos.Directora de Generación de Aplicación del [email protected]

Universidad Politécnica del Estado de MorelosMtra. Silvia Melbi [email protected]

Universidad Tecnológica de AguascalientesMtro. Pablo de Jesús Medina Llamas, Secretario Acadé[email protected]

Universidad Tecnológica de la Riviera MayaMtro. Gustavo Silva MendozaCoordinador Académico de la UT de la Riviera [email protected]

Universidad Tecnológica de TabascoMtro. Juan Ismael Ledesma [email protected]