revista del mundo de la ingenierÍa y la … · biela7.65 revista del mundo de la ... biela 7.65 no...

82
El puerto como nodo intermodal en la cadena logística. ANÁLISIS BIOMÉTRICO La extracción de parámetros geométricos a partir de una imagen. Biela 7.65 REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN AÑO 2 NÚMERO 6 MARZO 2015 ISSN 2386-639X 06 9 772386 639006

Upload: vantram

Post on 07-Oct-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

El puerto como nodo intermodalen la cadena logística.

ANÁLISISBIOMÉTRICOLa extracción de parámetrosgeométricos a partir de unaimagen.

Biela7.65REVISTA DEL MUNDO DE LA INGENIERÍA Y LA CONSTRUCCIÓN

AÑO 2NÚMERO 6

MARZO 2015

ISSN 2386-639X06

9 772386 639006

CONTENIDO

El puerto como nodo en la cadena logística

Runsafer para la preven-ción de lesiones

Página 10

Página 4

Desagües profundos en pre-sas, fondo y medio fondo

Motores de combustión interna alternativos

Página 18

Página 12

Limitación y control de po-tencia en aerogeneradores

Ventanas Electrocrómicas

Página 32

Página 24

Reactores nucleares de IV generación

Análisis biométricos.

Página 42.

Página 36

2 Nº6.Marzo de 2015

3 Nº6.Marzo de 2015

Biela 7.65 es el órgano de expresión del Centro de Formación IAE. [email protected] Edita el Centro de Formación IAE. Dirección: L.T. de Garnez Consejo de Redacción: Alejandro Gómez, Antonio Muñoz, Borja Gavila, Andrés Gómez, Daniel Merchán, David Rubio, Daniel Mazón, Enrique Gil, Ezequiel Morales, Fernando Gómez, Miguel Silva, Felipe García, Alejandro Alonso, Juan Fernández, Antonio Mompó, Luis Muñoz, Marta Sanz, Marcos Vizoso, Nazaret Ruiz, Oscar Escudero, Rafael Castro, Raquel Blazquez, Roberto Cañizares, Rafael Domínguez, Rocío B. Higueras, Daniel Aznar, Fernando Martel, Francisco Sánchez, Rubén Fdez de la Riva, Fernando Abad, Javier M. Cuevas, Jose M. Apio, Roberto Chorén, Carlos Sotodosos, Jorge R. Tena, David Pascual, Carlos Mollá, Cristo Santana, Josué Cabrera, Javier Campos, Rebecca Renuncio, Alejandro Manzano, Hugo Martín, José L. Balderas Secretaría del Consejo de Redacción: Félix-Álvaro Pajares. Paseo de las Delicias. Madrid Imprime: Centro de Impresión DaBe Biela 7.65 no comparte necesariamente las opiniones vertidas ni se responsabiliza de la autoría de la imágenes incluidas en los artículos firmados por su Consejo de Redacción.

CONTENIDO

Robots de SOLDADURA, presente y futuro

EUROTUNEL

página 50.

página 46.

Entramados de pórticos en edificios de gran altura.

Recalces superficiales.

página 60.

página 54.

WIFI y WIMAX

Turboglorietas

página 70.

página 64.

Riesgos biológicos en construcción:

Animales e Insectos III.

página 76.

4 Nº6.Marzo de 2015

EL PUERTO COMO NODO INTERMODAL EN LA CADENA LOGÍSTICA

compra, fabricación, almacenaje y distribución de los productos, creando sistemas de información y control para lograr un flujo continuo de productos al menor

coste posible, evitando así plazos amplios de entrega al cliente y stocks excesivos.

En la actualidad, los puertos se constituyen como verdade-ros nodos de distribución de las mercancías y puntos de conexión de la intermodali-dad del transporte. Los puer-tos, al actuar como nodos de la cadena logística, cumplen principalmente una función económica, es decir, buscan

favorecer el beneficio tanto de los productores originales de las exportaciones, como de los consumidores finales de las importaciones que pasan a través del mismo. Este objeti-vo se consigue mediante una reducción del coste generali-zado del transporte necesario para trasladar las mercancías, y que consiste en costes mo-netarios, tiempo y riesgos relacionados con pérdidas, daños, disfuncionamiento y retrasos.

Entre los principales objetivos de un puerto, al convertirse en nodo de la cadena logística,

está el de minimizar el tiempo de estancia tanto de los barcos y vehículos, como el de las propias mercancías, reduciendo así costes y ganando competitividad. Tam-bién busca maximizar la integración de los distintos

Los puertos hoy en día, no son simples construcciones de ingeniería que acogen, protegen y dan salida a los buques. Y es que desde un punto de vista logístico, los puertos ocupan una posi-ción estratégica en el siste-ma actual de producción, comercio y transporte inter-nacional. Son los puntos de partida y llegada del trans-porte marítimo que es el que mayores volúmenes mueve con diferencia. Los puertos constituyen la ma-yor y más importante inter-faz entre los diferentes mo-dos de transporte y son im-portantes centros de infor-mación. Un puerto eficiente genera mejoras en la econo-mía de toda la región, inclu-yendo la propia ciudad.

Se hace evidente que ante la evolución de los mercados y de las empresas, junto con las nuevas tendencias en la economía y en el desarrollo de los sistemas productivos, han llevado a la necesidad de implantar sistemas integra-dos de logística en el campo del transporte y las teleco-municaciones. En un mundo cada vez más globalizado y competitivo, y con unos con-sumidores cada vez más exigentes en sus demandas de productos y servicios, la logística juega un papel capital para obtener buenos resultados en la gestión de las em-presas. La logística se relaciona de forma directa con todas las actividades que conforman los procesos de

ANTONIO MOMPÓ GUERRA. INGENIERO DE CAMINOS, CANALES Y PUERTOS.

Imagen 1. El Puerto de Rotterdam, el mayor e Europa con más de 50 terminales, por el que pasan más de 7 millones de contenedores al año . Ref: dutcharbitrationassociation.nl

Imagen 2. Terminal de contenedores del Puerto de Valencia, líder en el tráfico de contenedores a nivel nacional y del mediterráneo occidental. Ref: www.cadenadesuministro.es

5 Nº6.Marzo de 2015

rarse como puntos de concentra-ción de tráficos, donde la inevitable ruptura de carga entre los lados ma-rítimo y terrestre, permite realizar un número cada vez mayor de acti-vidades de valor añadido. Y es que el incluir actividades de valor añadi-do permite por un lado, la fideliza-ción de los tráficos actuales, y por otro la generación y fijación de acti-vidad económica inductora de nue-vos tráficos futuros. Los puertos deben posicionarse como puntos clave de las cadenas de transporte optimizando la función de nodo de transferencia. A pesar de ser punto de ruptura de carga, los puertos han de procurar como estrategia básica, que el flujo de mercancías portua-rias sea lo más rápido y eficaz posi-ble. Para ello, han de buscar la opti-

mización tanto del flujo físico de la

mercancía como del flujo de infor-mación que la acompaña, así como la armonización entre los distintos eslabones de la cadena portuaria, es decir, manipulación, transporte y almacenamiento. También juega un papel capital la regulación de la acti-vidad de los agentes implicados con el fomento de la competitividad empresarial y la integración efectiva entre los distintos agentes de la co-munidad portuaria.

A parte de promover a la fluidez en el paso de la mercancía por el puer-to, los puertos como nodos logísti-cos, deben incidir en el desarrollo de actividades logísticas que incre-menten su competitividad. Esto pasa por la ordenación de espacios e infraestructuras portuarias desde el punto de vista de su uso logístico, como son la reserva y localización de espacios diferenciados para el desarrollo de Zonas de Actividad Logística. También el puerto debe asumir como objetivos la potencia-ción del puerto como un nodo críti-co para la gestión del conocimiento, liderando los procesos de creación de portales de contratación de car-gas, o la participación activa de los agentes especializados en el aprove-chamiento del espacio e instalacio-nes portuarias como áreas de activi-dad logística, es decir transitarios, operadores logísticos, etc.

modos de transporte que actúan en el puerto, fomentando al máximo la intermodalidad en la actividad del puerto.

El puerto moderno se integra en la cadena logística, la cual va desde la producción hasta el consumo. No es solo una cadena de transporte, pues a lo largo de esa cadena, los productos se transforman de mate-rias primas o productos intermedios en productos acabados. Se trata de una cadena logística. Para racionali-zar todas las actividades que inter-vienen en esa cadena hace falta un enfoque logístico: se trata de decidir cuándo y dónde ha de realizarse cada actividad.

Los puertos ya no son considerados como nodos aislados de transferen-

cia de carga, ahora pasan a configu-

Imagen 4. La ZAL de Barcelona, la primera plata-forma logística portuaria establecida en España . Ref: www.interempresas.net

6 Nº6 .Marzo de 2015

mite mejorar las ratios de beneficio. También se consigue un ahorro en la manipulación de productos: los costes de manipulación son impor-tantes en todos los procesos pro-

ductivos, por lo que evitar su trasla-do primeramente a almacén, y des-pués al departamento de pedidos conlleva economías apreciables. Esta estrategia supone el paso de un proceso “push”, en que cada proce-so en la secuencia de la producción pasa su “output” al proceso siguien-te, independientemente de que sea o no requerido, a un sistema “pull”, en el que cada fase tira de la ante-rior para satisfacer sus requerimien-tos, evitándose así la acumulación de inventarios y los excesos de pro-ducción. Por otro lado, la ausencia de stocks hace imprescindible ase-gurar la puntualidad y precisión de los repartos, ya que pueden poner en peligro la continuidad del proce-so productivo.

La vertiente del consumidor final, se refiere a la distribución física que se desarrolla una vez los productos han sido producidos para que lle-guen al consumidor, o pasen al si-

guiente escalón en la cadena de pro-ducción. Estas actividades incluyen la manipulación de productos, su almacenamiento, el empaquetado y unitización de la carga, y el trans-porte de mercancías en cualquier modo. Se incluyen también activida-des como la planificación de rutas y el mantenimiento de los vehículos. El objetivo es, por tanto, minimizar el coste total de distribución como estrategia para mejorar la posición competitiva de las empresas.

Para incrementar la competitividad del puerto como nodo logístico, hay que conseguir su inserción en un sistema de trasporte integrado y eficaz como una condición básica. La disponibilidad de servicios com-petitivos y fiables, permite ofrecer un nodo de tránsito en las condicio-nes más favorables. La eficacia del sistema de transporte integrado, que incluye el puerto, se compone de 3 factores principales: coste, tiempo de transporte y servicio. Los “Mainports” se han convertido en nodos materiales de consolidación de flujos físicos y nodos inmateria-les de manejo e intercambio de in-formación. Con la transformación del puerto de centro de transporte a centro logístico, se incrementa nota-blemente el flujo de información entre agentes económicos.

Los principales puertos europeos, con el fin de ampliar la captación de

En las estrategias logísticas pueden identificarse dos vertientes: la pro-ductiva, orientada a la gestión de las cadenas de alimentación de los pro-cesos productivos, y la del consumi-

dor final, que conlleva la puesta a disposición del consumidor final de los productos demandados.

La vertiente productiva incorpora estrategias como la “just in time”, mediante la cual los diferentes pro-veedores del proceso productivo aportan a éste, los materiales y pro-ductos necesarios en el momento exacto en que son requeridos, con la calidad demandada. Esta estrate-gia busca los importantes ahorros derivados de la eliminación de sto-cks. De esta manera consigue aho-rro en inventarios de materias pri-mas y componentes. La reducción de volúmenes almacenados de ma-terias utilizadas en el proceso pro-ductivo, supone minimizar el capital requerido en el proceso, lo que per-

Imagen 5. Esquema de la cadena logística en el transporte de mercancías entre diferentes países. Ref: www.ssbint.com

“Un puerto eficiente genera mejoras en la economía de toda la región, incluyendo la propia ciudad”-

7 Nº6.Marzo de 2015

ma integrada al menos dos modos de transporte diferentes para com-pletar una cadena de transporte puerta a puerta. El transporte inter-modal permite, mediante un plan-teamiento global, una utilización más racional de la capacidad de transporte disponible.

El transporte intermodal, ante todo, se basa en una mayor cooperación entre todos los diferentes modos de transporte, siendo de vital impor-tancia para la mejora de costes en la cadena logística e influyendo en el precio final de las mercancías en los mercados de destino. La intermoda-

lidad no pretende imponer una op-ción modal, por el contrario permi-te utilizar mejor las vías navegables, el ferrocarril, y el transporte maríti-mo, que por sí solos no permiten el transporte puerta a puerta. La inter-modalidad es complementaria a otras políticas de transporte desa-rrolladas por la Unión Europea, como el desarrollo de las Redes Transeuropeas (RTE), la liberaliza-ción de los mercados de transporte, el fomento de una tarificación equi-tativa y eficaz, o la realización de la

sociedad de la información en el sector del transporte.

La logística del intercambio modal marítimo-terrestre está encaminada a optimizar la operación portuaria para, de este modo, obtener la má-xima economía del proceso de transbordo. El buque obtiene sus mayores beneficios cuanto mayor es el tiempo que pasa navegando, res-pecto al total de su ruta programa-da, es decir, cuanto más tiempo esté en puerto, menor será su beneficio. Por lo tanto, es fundamental que dicho tiempo sea el justo y necesa-rio para completar la operación.

Para conseguirlo, es evidente que dicha operación ha de programarse con la antelación suficiente que per-mita la disposición de atraque, equi-pos y medios necesarios para evitar así, cualquier tipo de demora al bu-que. Todo ello exige una planifica-ción conjunta perfectamente estruc-turada, con base en una gestión in-formatizada y una ordenación ópti-ma del espacio portuario. En la ma-yor parte de los puertos, a lo largo de los últimos años, se ha distribui-do el espacio en terminales

tráficos, están llevando a cabo un importante esfuerzo de mejora de las conexiones intermodales, tanto desde el punto de vista de los servi-cios como de infraestructura. Tanto es así, que las estrategias de impulso de las conexiones terrestres, en es-pecial las ferroviarias, se han con-vertido en prioritarias.

El transporte intermodal, como in-tegrador de los modos de transpor-te marítimo y terrestre, a la vez que racionaliza la cadena logística del transporte, reduce el consumo de energía. Además, promueve el uso adecuado y racional de las infraes-tructuras y medios de transporte, disminuyendo así el impacto me-dioambiental. El transporte inter-modal aprovecha la gran capacidad del buque y del ferrocarril para aba-ratar costes, junto con la flexibili-dad de la carretera, que permite el transporte puerta a puerta. El ele-mento esencial en el desarrollo del sistema intermodal es la unidad de carga. En este sentido las técnicas intermodales están basadas esencial-mente en el semirremolque o tráiler, la caja móvil y, muy especialmente,

el contenedor.

En el transporte de mercancías se tiende a un desequilibrio creciente en la utilización de los distintos mo-dos de transporte y a una intensifi-cación del tráfico, con un aumento de la parte correspondiente al trans-porte por carretera y una reducción de la parte correspondiente al trans-porte ferroviario. La intermodali-dad, definida como una característi-ca de un sistema de transportes, en virtud de la cual, se utilizan de for-

“La eficiencia y eficacia del transporte intermodal pasa por la integración y armonización de los distintos modos de transporte a todos los niveles ”-

Imagen 6. Características generales de los distintos modos de transporte de mercancías.

8 Nº6.Marzo de 2015

dad de los grandes centros de pro-ducción y consumo y deben estar dotados de conexión ferroviaria y carretera. Este último modo sólo utilizable como red capilar de distri-bución y/o recogida de mercancía, que debe llegar o salir del puerto marítimo o del puerto seco, según los casos, por ferrocarril vía directa mediante trenes bloque. Debe dis-poner de control aduanero, consti-tuyéndose así en una prolongación del puerto marítimo, al que comple-menta y es su razón de ser. De ahí y por su situación interior, la denomi-nación de “puerto seco”.

El contenedor será la unidad de carga básica a manipular en el puer-

to seco, pues es un elemento clave para el desarrollo del tráfico inter-modal, y la unidad que mayores exi-gencias de equipamiento y espacio supone. La universalización del uso del contenedor en el transporte de mercancías, tanto por tierra como por mar, hace necesarios unos pun-tos interiores especializados en la manipulación y tratamiento, tanto de los propios contenedores y co-mo de sus mercancías.

La eficacia y eficiencia del puerto seco se incrementan si éste se en-cuentra conectado a una red de transporte combinado, pues permi-te alcanzar mercados más distantes e incluso establecer entre puertos marítimos lejanos, puentes terres-tres como enlaces alternativos. To-do ello supone para el puerto marí-timo una ventaja competitiva que, en ciertos casos, puede llegar a ser especialmente significativa.

En la actualidad, el transporte inter-modal de mercancías debe enfren-tarse a una serie de problemas y obstáculos. Y es que en un trayecto de mercancías, un cambio de modo de transporte equivale más a un cambio de sistema que a un mero transbordo técnico. Los costes de fricción resultantes repercuten so-bre la competitividad del transporte intermodal y se traducen en precios más elevados, trayectos más largos, más retrasos y plazos menos fiables, restricciones del tipo de mercancías y menor disponibilidad de servicios de calidad, un mayor riesgo de da-ños en la carga, o procedimientos administrativos más complejos.

Se debe trabajar en la integración a nivel de servicios, reglamentación, infraestructuras y material de trans-porte, pues la inexistencia de redes coherentes y de interconexiones impone a los operadores costes de

especializadas, de acuerdo con las necesidades operativas de los dife-rentes tipos de carga a manipular. Esto ha modificado muy favorable-mente la gestión del puerto y ha permitido una simplificación y agili-zación de las operaciones mediante el uso del equipo más adecuado en cada caso, lo que, por otra parte, ha supuesto mejorar la seguridad de la manipulación y evitar daños a la mercancía.

Los puertos secos pueden definirse como áreas interiores de recepción y expedición de mercancías que tie-nen como origen o destino los puertos marítimos. Se encuentran situados, en general, en la proximi-

Imagen 7. El Puerto Seco de Villafría. Ref: www.elcorreodeburgos.com

9 Nº6.Marzo de 2015

temas de información de predic-ción, son inaccesibles de forma in-termodal. Además, los distintos mo-dos de transporte tienen niveles dispares de rendimiento y de calidad de servicios, por lo que las informa-ciones y prácticas comerciales no siempre están coordinadas entre los diferentes modos de transporte de mercancías.

En lo relativo a los servicios y las reglamentaciones orientados a los distintos modos, podemos destacar como uno de los principales obs-táculos, la falta de sistemas armoni-zados para la comunicación electró-nica entre los diferentes eslabones de la cadena intermodal, lo que im-pide una planificación adecuada y eficiente de las operaciones. Igual-mente preocupante, es que en caso de que la carga se estropee, es difícil determinar la responsabilidad, pues está regulada por diferentes conve-nios internacionales en función del modo de transporte de que se trate. Se hace evidente que hay estrangu-lamientos de carácter administrati-vo, que afectan negativamente a la competitividad del transporte inter-

modal.

La eficiencia y eficacia del transpor-te intermodal de mercancías, pasa por la integración y armonización de los distintos modos de transpor-te a todos los niveles.

transferencia. Además, el sistema actual se financia y administra de forma independiente para cada mo-do de transporte, por lo que es difí-cil determinar quién es responsable del refuerzo de los vínculos entre los diversos modos de transporte. La falta de interoperabilidad entre los modos también supone un pro-blema, como por ejemplo los dife-rentes sistemas de señalización fe-rroviaria o el hecho de que las di-mensiones de las unidades de carga a través de los distintos modos de transporte no estén armonizadas.

En cuanto a las operaciones y la utilización de la infraestructura, en particular de las terminales, los prin-cipales problemas tienen que ver con que los horarios de los diferen-tes modos de transporte no están armonizados, pues las terminales no siempre pueden adaptarse a los ho-rarios de trenes y buques que ope-ran 24 horas al día y la jornada labo-ral de los conductores y equipos no siempre se adapta a operaciones intermodales. A esto hay que añadir que algunos servicios, como la iden-tificación de los vehículos o los sis-

REFERENCIAS Y BIBLIOGRAFÍA:

- Logística e intermodalidad. Nivel 1. Puertos del Estado.

- Logística e intermodalidad. Nivel 2. Puertos del Estado.

- Guía para el desarrollo de zonas de actividades logísticas portuarias. Puertos del Estado(2002).

- Cadenas integradas de transporte. Camarero Orive, Alberto y González Cancelas, Nicoletta (2006).

- Gestión del transporte. Mira, Jaime.

- http://www.puertos.es

Imagen 8. Sistema de almacenamiento de contenedores en la Terminal TCB del puerto de Barcelona. Ref: www.cadenadesuministro.es

10 Nº6.Marzo de 2015

RUNSAFER: DISPOSITIVO ELECTRÓNICO DESARROLLADO EN ESPAÑA PARA PREVENIR LESIONES BORJA GAVILÁ GARCÍA. Ingeniero Químico y Técnico

recomendaciones al corredor para mejorar su rendimiento y evitar la aparición de lesiones. Además, esta web incluirá las funcionalidades

propias de las redes sociales on line, que permiten al usuario estar en contacto con corredores de todo el mundo y compartir otros conteni-dos como rutas para correr o infor-mación del calzado más idóneo.

La gran novedad del nuevo sistema frente a los sistemas actuales de medición y entrenamiento para co-rredores es que será el primer dis-positivo del mercado que caracteri-ce la técnica de carrera a partir de parámetros biomecánicos y facilite recomendaciones al usuario en tiempo real para evitar la aparición de lesiones y para mejorar su rendi-miento.

El proyecto RUNSAFER es una iniciativa europea del VII Programa Marco de la Comisión Europea, financiada a través del programa de Investigación para pymes.

El Instituto de Biomecánica ha aco-gido recientemente la reunión de lanzamiento de este proyecto en el que participan los centros tecnoló-

gicos IPMS-Fraunhofer y EII, ade-más de las empresas KELME, BKOOL, DUKOSI y NUROME-DIA.

80 millones de corredores en Eu-ropa

El número actual de corredores en Europa supera los 80 millones; aproximadamente el 36% de la po-blación europea entre 15 y 65 años.

Correr se ha convertido en uno de los deportes más populares y con mayor número de adeptos en los últimos años. Sin embargo, la prác-tica de este deporte lleva asociada la

El Instituto de Biomecánica (IBV) y KELME trabajan en el diseño de unas zapatillas de correr que lleva-rán integrado un dispositivo que permita a los deportistas planificar mejor su entrenamiento y evitar posibles lesiones durante la práctica deportiva.

El dispositivo consiste en un siste-ma de medición microelectrónico que es capaz de registrar paráme-tros biomecánicos que caracterizan la técnica del corredor durante la carrera. Esta información se trans-mitirá de forma inalámbrica al telé-fono móvil del corredor mientras practica deporte, donde una aplica-ción le informará en tiempo real de la actividad planificada y el nivel de rendimiento.

La aplicación móvil también podrá integrar información adicional pro-porcionada por otros dispositivos comerciales empleados habitual-mente por los corredores como el pulsómetro ó la localización GPS proporcionada por el propio telé-fono. .

El deportista también podrá descar-gar toda la información generada en un portal web que contará con una aplicación especializada de planifi-cación del entrenamiento. Esta apli-cación on line generará planes de entrenamiento personalizados a partir del análisis de la biomecánica de la carrera, permitirá realizar el seguimiento del plan de entrena-miento una vez iniciado y ofrecerá

Imagen 1. Representación del grafeno. Fuente: TheGuardian.co.uk

PONER AQUÍ IMAGEN

11 Nº6.Marzo de 2015

rredores es muy alta. Un 38% de los corredores europeos sufre o ha su-frido alguna vez una lesión asociada a la práctica deportiva y entre un 37 y un 56% de los corredores se lesio-na al menos una vez al año.

El desarrollo del sistema RUNS-

AFER está dirigido en general a todos los corredores europeos, pero en particular a todos aquellos que han sufrido lesiones en el último año, lo que supone un total de más de 37 millones de potenciales con-sumidores.

aparición de lesiones que obligan al corredor a parar la actividad y per-der el nivel de forma conseguido hasta su recuperación o incluso en algunos casos, abandonar la prácti-ca.

La incidencia de las lesiones en co-

Imagen 2 Esquema del funcionamiento del sistema electrónico de medida. Fuente: IBV (Instituto de biomecánica de Valencia)

¿Cómo funciona ?

tiempo real (información sobre el rendimiento, suge-rencias en cambios en la ca-rrera o la señal de parada en caso de detectar alto riesgo de lesión).

3) Tras realizar la actividad, el corredor es capaz de descar-

gar toda la información gene-rada, generándose planes de entrenamientos específicos para mejorar el rendimiento.

1) El sistema electrónico de me-dida recolecta y mide los principales datos biomecáni-cos durante la carrea.

2) La información es transmiti-da de manera inalámbrica al dispositivo móvil , facilitando un sistema de feedback en

12 Nº6.Marzo de 2015

DESAGÜES PROFUNDOS EN PRESAS. FONDO Y MEDIO FONDO.

hora del vaciado total del embalse en caso de ser necesario. Salvo en presas de categoría C, los desagües de fondo deben ser dobles, parale-los e iguales en cuanto a capacidad. La posición de dicho desagüe en el embalse suele localizarse en función de los dos siguientes condicionan-tes:

- Tener por encima del mismo, en el llamado embalse “útil”, el volumen de agua necesaria para la regulación requerida en su explotación.

- Disponer por debajo del mismo

una altura sobre el lecho del embal-se suficiente para que se acumulen, en el llamado embalse “muerto”, los sedimentos arrastrados por la co-rriente sin interferir en su funciona-miento.

A veces van acompañadas de otros desagües del mismo tipo pero situa-dos a menor profundidad, los lla-mados desagües intermedios o de medio fondo. La utilización de este tipo de desagües depende sobreto-do de los siguientes tres condicio-nantes:

- La altura de la presa. Si la presa es muy alta el desagüe de fondo estará sometido a una gran presión lo que supone mayores esfuerzos mecáni-cos de funcionamiento y por lo tan-to mayores riesgos de avería. Al disponer de un desagüe intermedio disminuirá la presión, por lo que quedará dividida entre dos, y este se encargará de desaguar hasta el nivel de su cota. Mientras que el desagüe de fondo la hará desde la cota del desagüe intermedio hasta la suya.

- El caudal del río o ríos que vierten en el embalse.

- La conveniencia en la colabora-ción de los aliviaderos de superficie con los desagües profundos en la laminación de avenidas.

En este artículo únicamente nos centraremos en aquellos desagües que vierten directamente el agua al río desde una cierta profundidad,

En cualquier tipo de presa, ya sea de materiales sueltos, de fábrica e incluso mixta, suelen ir acompaña-das de desagües situados a diferen-tes alturas. Normalmente las presas suelen estar constituidas por varios aliviaderos, diferentes tomas (dedicadas principalmente a la ex-plotación del embalse), etcétera, mientras que solo suelen tener dos o incluso hasta tres desagües a gran profundidad, los llamados desagües de fondo. Su utilización es de carác-ter obligatorio ya que su singular posición le hace insustituible a la

CARLOS SOTODOSOS MARTINSANZ. INGENIERO TÉCNICO OBRAS PÚBLICAS.

Imagen 1. Esquema de la disposición de los desagües de fondo y medio fondo en una presa de fábrica. Fuente: ftp://ceres.udc.es

13 Nº6.Marzo de 2015

ese momento.

2. Reducir las filtraciones. Con la disminución de la altura del agua se puede proceder a la inspección de la presa en busca de las filtraciones y, en caso de ser necesario, realizar los trabajos e inyecciones que permitan sellarlas.

3. Crear un volumen preventivo para el almacenaje del agua en pre-visión de la llegada de grandes ave-nidas y la consiguiente crecida del nivel de agua almacenada en el em-balse. Normalmente suele hacerse con los aliviaderos de superficie pero en caso de no ser suficiente puede auxiliarse de los desagües profundos, especialmente con los desagües de medio fondo o inter-medios en caso de tenerlos.

4. Este último apartado es una ex-cepción y suele darse en casos muy raros. Se trata de que el desagüe de fondo actúa como hilo conductor ininterrumpido entre la parte de aguas arriba y aguas abajo de la pre-sa en caso de sequía extrema. De esta forma se permite un “caudal continuo” que garantiza las condi-ciones higiénicas y ecológicas nece-sarias, en la medida de lo posible, en todo el tramo del río. Quedando únicamente en el embalse el “volumen muerto”, este volumen es el que quedaría por debajo del desa-

güe de fondo y no se puede extraer sin ser bombeado.

- Función limpiadora de los sedi-mentos acumulados en el fondo del embalse.

La importancia de esta actividad depende básicamente de la cantidad de material en suspensión que lleva la corriente de agua en ese río. Si las aguas van muy cargadas de material en suspensión el desagüe tiene esta función como actividad principal, mientras que si por el contrario, las aguas van muy limpias no requeri-rán de dicho uso.

Esta actividad de limpieza es exclu-siva de los desagües de fondo. La limpieza se lleva a cabo por erosión y arrastre de partículas, por lo que es necesario una velocidad mínima del agua para que se lleve a cabo. Además también dependerá de la dimensión de los granos de las par-tículas, su cohesión y su grado de consolidación.

Es recomendable hacer funcionar el desagüe de fondo a plena apertura porque las líneas de corriente son más rígidas, la velocidad más eleva-do y por lo tanto la capacidad de arrastre, que es lo que buscamos, será mayor. Normalmente se espera a que haya sobrantes de agua en el embalse, si el ritmo de sedimenta-ción lo permite, para hacerlo fun-

sin tener en cuanta su servicio y dejando al margen las derivaciones y tomas para su explotación.

FUNCIONES DE LOS DESAGÜES PROFUNDOS.

Las funciones principales y desglo-sadas en orden de importancia y de uso son las siguientes:

- Control de nivel y vaciado.

Todos los embalses suelen jugar con las entradas y salidas de cauda-les de agua en función de su plan de explotación en condiciones nor-males. Pero en situaciones anorma-les puede ser necesaria e incluso obligatoria una disminución del ni-vel del agua como en los siguientes casos:

1. Para disminuir el empuje hidros-tático ante un comportamiento anó-malo de la presa, pudiendo actuar sobre ella y evitando de esa manera los posibles riegos sobrevenidos por dicho empuje. Este tipo de control suele ser muy útil durante la primera fase de llenado del embalse y su “puesta en carga” una vez conclui-da su construcción. De esta forma se podrá desaguar el nivel de agua del embalse hasta la cota del desa-güe profundo, independientemente del nivel de agua que tengamos en

Imagen 2. Foto de la Presa Tablachaca, Tayacaja (Perú). Fuente: www.panoramio.com Imagen 3 y 4. Modelo hidráulico a escala 1:25 sin agua (3) y con agua (4) de la Presa Tablachaca que muestra la forma en que afecta la sedimentación a la presa y la necesidad de tomar medidas para rectificarla. Fuente: www.scielo.com

14 Nº6.Marzo de 2015

to mayores riesgos de avería. Al disponer de un desagüe intermedio disminuirá la presión, por lo que quedará dividida entre dos, y este se encargará de desaguar hasta el nivel de su cota. Mientras que el desagüe de fondo la hará desde la cota del desagüe intermedio hasta la suya.

- El caudal del río o ríos que vierten en el embalse.

- La conveniencia en la colabora-ción de los aliviaderos de superficie con los desagües profundos en la laminación de avenidas.

En este artículo únicamente nos centraremos en aquellos desagües que vierten directamente el agua al río desde una cierta profundidad, sin tener en cuanta su servicio y dejando al margen las derivaciones y tomas para su explotación.

FUNCIONES DE LOS DESAGÜES PROFUNDOS.

Las funciones principales y desglo-sadas en orden de importancia y de uso son las siguientes:

- Control de nivel y vaciado.

Todos los embalses suelen jugar con las entradas y salidas de cauda-les de agua en función de su plan de explotación en condiciones nor-males. Pero en situaciones anorma-les puede ser necesaria e incluso obligatoria una disminución del ni-vel del agua como en los siguientes casos:

1. Para disminuir el empuje hidros-tático ante un comportamiento anó-malo de la presa, pudiendo actuar sobre ella y evitando de esa manera los posibles riegos sobrevenidos por dicho empuje. Este tipo de control suele ser muy útil durante la primera fase de llenado del embalse y su “puesta en carga” una vez conclui-da su construcción. De esta forma se podrá desaguar el nivel de agua del embalse hasta la cota del desa-güe profundo, independientemente del nivel de agua que tengamos en ese momento.

2. Reducir las filtraciones. Con la disminución de la altura del agua se puede proceder a la inspección de la presa en busca de las filtraciones y, en caso de ser necesario, realizar los

En cualquier tipo de presa, ya sea de materiales sueltos, de fábrica e incluso mixta, suelen ir acompaña-das de desagües situados a diferen-tes alturas. Normalmente las presas suelen estar constituidas por varios aliviaderos, diferentes tomas (dedicadas principalmente a la ex-plotación del embalse), etcétera, mientras que solo suelen tener dos o incluso hasta tres desagües a gran profundidad, los llamados desagües de fondo. Su utilización es de carác-ter obligatorio ya que su singular posición le hace insustituible a la hora del vaciado total del embalse en caso de ser necesario. Salvo en presas de categoría C, los desagües de fondo deben ser dobles, parale-los e iguales en cuanto a capacidad. La posición de dicho desagüe en el embalse suele localizarse en función de los dos siguientes condicionan-tes:

- Tener por encima del mismo, en el llamado embalse “útil”, el volumen de agua necesaria para la regulación requerida en su explotación.

- Disponer por debajo del mismo una altura sobre el lecho del embal-se suficiente para que se acumulen, en el llamado embalse “muerto”, los sedimentos arrastrados por la co-rriente sin interferir en su funciona-miento.

A veces van acompañadas de otros desagües del mismo tipo pero situa-dos a menor profundidad, los lla-mados desagües intermedios o de medio fondo. La utilización de este tipo de desagües depende sobreto-do de los siguientes tres condicio-nantes:

- La altura de la presa. Si la presa es muy alta el desagüe de fondo estará sometido a una gran presión lo que supone mayores esfuerzos mecáni-cos de funcionamiento y por lo tan-

Imagen 4. Esquema de las diferentes disposiciones de los elementos de cierre en un desagüe profundo. Fuente: ftp://ceres.udc.es

15 Nº6.Marzo de 2015

y arrastre de partículas, por lo que es necesario una velocidad mínima del agua para que se lleve a cabo. Además también dependerá de la dimensión de los granos de las par-tículas, su cohesión y su grado de consolidación.

Es recomendable hacer funcionar el desagüe de fondo a plena apertura porque las líneas de corriente son más rígidas, la velocidad más eleva-do y por lo tanto la capacidad de arrastre, que es lo que buscamos, será mayor. Normalmente se espera a que haya sobrantes de agua en el embalse, si el ritmo de sedimenta-ción lo permite, para hacerlo fun-cionar aunque hay embalses que los tienen en limitadas ocasiones.

La situación del desagüe de fondo, como hemos comentado, siempre tiene que estar por encima del lecho del embalse con la intención de:

1. Dejar un margen inicial de depó-sito de las partículas sólidas de tal forma que evite que tenga que fun-cionar de manera inmediata.

2. Tomar como base una superficie horizontal y más grande para que de esa forma sea más lenta la progre-

sión del depósito de las partículas sólidas.

3. Aliviar las cargas sobre los ele-mentos de cierre del propio desa-güe.

Al dejar este pequeño margen en su implantación siempre quedará un espesor de sedimentos sin posibili-dad de ser vaciados de manera auto-mática por el desagüe, con otros medios como con las dragas si se podría hacer pero este posible pro-ceso queda al margen de la infraes-tructura que es lo que tratamos en este artículo. Últimamente se ha puesto de moda la utilización de inyectores de agua a presión que levanta los sedimentos de su lugar de reposo facilitando su flotabilidad y la facilidad de ser arrastrados por el desagüe.

- Colaboración en el cierre del desvío del río.

Al igual que la anterior función, esta también es exclusiva de los desa-gües de fondo. Dicha colaboración del desagüe es puntual, breve y ex-clusivamente circunstancial durante

trabajos e inyecciones que permitan sellarlas.

3. Crear un volumen preventivo para el almacenaje del agua en pre-visión de la llegada de grandes ave-nidas y la consiguiente crecida del nivel de agua almacenada en el em-balse. Normalmente suele hacerse con los aliviaderos de superficie pero en caso de no ser suficiente puede auxiliarse de los desagües profundos, especialmente con los desagües de medio fondo o inter-medios en caso de tenerlos.

4. Este último apartado es una ex-cepción y suele darse en casos muy raros. Se trata de que el desagüe de fondo actúa como hilo conductor ininterrumpido entre la parte de aguas arriba y aguas abajo de la pre-sa en caso de sequía extrema. De esta forma se permite un “caudal continuo” que garantiza las condi-ciones higiénicas y ecológicas nece-sarias, en la medida de lo posible, en todo el tramo del río. Quedando únicamente en el embalse el “volumen muerto”, este volumen es el que quedaría por debajo del desa-güe de fondo y no se puede extraer sin ser bombeado.

- Función limpiadora de los sedi-mentos acumulados en el fondo del embalse.

La importancia de esta actividad depende básicamente de la cantidad de material en suspensión que lleva la corriente de agua en ese río. Si las aguas van muy cargadas de material en suspensión el desagüe tiene esta función como actividad principal, mientras que si por el contrario, las aguas van muy limpias no requeri-rán de dicho uso.

Esta actividad de limpieza es exclu-siva de los desagües de fondo. La limpieza se lleva a cabo por erosión

Imagen 5. Válvula de compuerta deslizante o Burreau. Fuente: www.rosni.com

Imagen 4. Válvulas de chorro hueco o Howell-Bunger en la Presa El Cenajo, Murcia. Fuente: www.panoramio.com

16 Nº6.Marzo de 2015

esta forma permite un funciona-miento suave y una distribución más uniforme del caudal. Por ello y al igual que las anteriores válvulas también suele ser más utilizada en tomas de explotación.

- Compuertas. Al contrario que las válvulas, las compuertas son ex-teriores al conducto de presión y se introducen en él para cerrarlo. Se utilizan con grandes dimensiones que las válvulas no son capaces de cubrir. Generalmente en desagües de presas se utilizan de los dos tipos siguientes:

1. Compuertas de segmento. Este tipo de compuertas son cada vez más utilizadas por sus múltiples ventajas. Entre ellas se encuentran un menor peso que el resto de com-puertas para un mismo rendimien-to, la ausencia de ranuras-guía que evitan problemas de cavitación y además ejerce menores esfuerzos de elevación al estar concentrado el empuje en el eje de giro.

Cuando se encuentra la compuerta en el interior de la presa necesitará un lugar para alojarse cuando se

encuentre en posición abierta o se-miabierta. En caso de situarse al aire libre no necesitaría dicho espacio a imagen y semejanza de las com-puertas superficiales.

2. Compuertas verticales. Este tipo de compuertas consisten en una placa móvil, plana o curva, que al levantarse permite graduar la altura del orificio que se va descubriendo y a la vez controla la descarga pro-ducida. El orificio, generalmente, se abre entre el suelo del conducto de presión y el borde inferior de la compuerta. Al tener un mayor em-puje hidrostático que las compuer-tas de superficie necesitarán un bue-na zona de rodamiento. Puede ser de tipo “vagón” cuando el sistema de rodadura está formado por rodi-llos, cuyos ejes, fijos en los laterales de cada compuerta, están separados y esparcidos uniformemente. O también pueden ser de tipo “Stoney” cuando el deslizamiento uniforme se consigue mediante la instalación de un tren de rodillos que se sitúan entre el perfil de apo-yo de la compuerta y el carril de rodadura de las guías. De esta for-ma se evita el rozamiento en los ejes

sección circular de eje transversal a la corriente llamada mariposa. La posición de máxima apertura de la válvula se da con la mariposa en posición horizontal. Se suelen utili-zar cada vez menos por el esfuerzo mecánico que se requiere para man-tenerla abierta. Suele utilizarse más en tomas de explotación.

4. Válvula de aguja. Este tipo de válvulas esta constituido por un huso interior unido a una aguja mó-vil, en función del movimiento de dicha aguja puede obturar más o menos el orificio circular de salida y permitir con ello mayores o meno-res caudales de salida de agua. De

Imagen 6. Antigua válvula de mariposa de la Presa de Canelles, Lérida. Fuente: www.embalses.net

Imagen 7. Válvula de aguja. Fuente: www.valvulasross.com

Imagen 8. Esquema de la sección de una compuerta de segmento sumergida interior. Fuente: ftp://ceres.udc.es

17 Nº6.Marzo de 2015

se suelen disponer unas rejas en el paramento de aguas arriba a la en-trada del conducto de presión evi-tando la entrada de elementos que puedan obstruirlas. Por ello la sepa-ración entre sus barrotes tendrá que se de un menor tamaño que la parte más estrecha de la sección de la vál-vula. Con velocidades pequeñas las rejas son eficaces, pero con veloci-dades altas se producen grandes vibraciones en ellas debida a los empujes. Por ello la tendencia actual es a suprimirlas compensando su ausencia con conductos de des-aguado amplios y diáfanos aunque no siempre es posible.

REFERENCIAS Y BIBLIOGRAFÍA:

Textos:

- Apuntes de proyectos y construcción de presas. Tomo V. Aliviaderos, desagües y tomas. Alfonso Álvarez.

- Tratado básico de presas. Tomo I. Generalidades. Presas de hormigón y de materiales sueltos. Aliviaderos. Eugenio Vallarino.

- Guía Técnica de Seguridad. Número 5. Aliviaderos y desagües. C.E.G.P.

- Informe final sobre la investigación en modelo hidráulico físico de la Presa de Tablachaca. Universidad de Piura .

Imágenes:

ftp://ceres.udc.es

www.scielo.org

www.panoramio.com

www.embalses.net

www.valvulasross.com

Imagen 9. Esquema de la sección de una compuerta vertical sumergida interior. Elevado por un cilindro oleohidraúlico. Fuente: ftp://ceres.udc.es

Imagen 10. Rejas de los desagües de fondo parale-los en la Presa Alto Lindoso , Portugal. Fuente: ftp://ceres.udc.es

de las ruedas que tienen los de “vagón” y la rodadura de los “Stoney” se hace por lo tanto más suave.

Las combinaciones entre compuer-tas son muy variadas dependiendo de cada caso, por ejemplo, las si-guientes distribuciones son bastante comunes a veces acompañadas de ataguías en la zona del paramento de aguas arriba.

- Dos compuertas de segmento.

- Una compuerta vertical para segu-ridad y una compuerta de segmento para control.

- Una compuerta de segmento para seguridad y dos o más válvulas de chorro hueco para regular el caudal de descarga.

- Rejas. Para proteger las válvulas

18 Nº6.Marzo de 2015

MOTORES DE COMBUSTIÓN INTERNA ALTERNATIVOS. MEP Y MEC

una demanda objetiva por parte de la sociedad que requiere plantas de potencia que, entre otras exigencias, sean fiables, eficientes, respetuosas con el medio ambiente, fáciles de mantener y poco costosas.

Este articulo va a tratar de explicar el funcionamiento de este tipo de motores, además de mostrar sus elementos constructivos más im-

portantes y, finalmente, se tratará de comparar las características de los motores de encendido por compre-sión y los de encendido provocado.

Introducción

Un MCIA es una máquina que me-diante el desplazamiento lineal de un émbolo permite obtener energía mecánica a partir de energía térmica almacenada en un fluido y liberada por un proceso de combustión in-terna.

Según el ciclo de trabajo se pueden clasificar en motores de 2 tiempos o motores de 4 tiempos y según la mezcla de aire combustible se clasi-fican en MEC Y MEP.

Los motores de 2T se emplean bási-camente en motores MEP peque-ños y baratos debido a su sencillez constructiva. Este tipo de motores presenta una elevada carga térmica del motor, además de tener un mal rendimiento debido al cortocircuito,

Los motores de combustión interna alternativos (MCIA) equipan prácti-camente a todos los vehículos de transporte por carretera de mercan-cías y pasajeros, y además tienen implantación en el sector naval, ae-ronáutico, industrial y de sistemas auxiliares. Tanto para los motores de encendido provocado (MEP) como para los motores de encendi-do por compresión (MEC) existe

DAVID RUBIO BARBA. INGENIERO TÉCNICO INDUSTRIAL ESP. MECÁNICA

Imagen 1. Motor de combustión interna alternativo Fuente: www.mecanicaymotores.com

19 Nº6.Marzo de 2015

sión, el pistón sube y comprime la mezcla de aire/combustible.

- 3er tiempo: carrera de expansión. Se enciende la mezcla comprimida y el calor generado por la combustión expande los gases que ejercen pre-sión sobre el pistón.

- 4to tiempo: carrera de escape. Se abre la válvula de escape, el pistón se desplaza hacia el punto muerto superior, expulsando los gases que-mados.

Los ciclos mostrados son teóricos, de manera que, en un ciclo real, hay diferentes tipos de pérdidas de calor que modifican el rendimiento del motor.

El ciclo es abierto, es decir, se inter-cambia masa con el exterior durante los procesos de admisión y escape. Además, el fluido operante es reac-

tivo y modifica sus propiedades al producirse la combustión.

Durante el proceso de compresión hay pequeñas fugas de gas y se pro-duce intercambio de calor entre el fluido y la pared del cilindro y, por tanto, el proceso no es adiabático.

En cuanto al proceso de combus-tión hay pérdidas de calor hacia el fluido refrigerante, la combustión no es completa debido a las imper-fecciones en la formación de la mezcla y la velocidad media del pis-tón y la del frente de llama son del mismo orden, lo que impide que la combustión ocurra instantáneamen-te en el PMS.

Por último, durante el proceso de expansión hay un elevado gradiente de temperatura entre el fluido y la pared del cilindro, el proceso no es adiabático y ocurren grandes pérdi-das de calor. Además, la apertura de la válvula de escape antes del PMI, provoca pérdidas de calor en los gases enviados al exterior.

De esta manera, el balance térmico en un motor típico queda del orden del 30% en potencia efectiva, calor cedido al refrigerante y flujo entálpi-co de los gases de escape respecti-vamente. El 10% se pierde por ac-cionamiento de accesorios, combus-tión incompleta y la convección con el ambiente,

fenómeno que ocurre durante el proceso de barrido y representa el paso directo de mezcla fresca desde la admisión al escape.

En MEC se utilizan en grandes mo-tores como plantas de cogeneración o grandes embarcaciones, debido a que en este caso si que presentan un buen rendimiento. No obstante, precisan de una gran complejidad en el diseño y deben tener bombas de barrido y válvulas independientes lo que no los hacen viables para generalizar su utilización.

Puesto que los motores de 4 tiem-pos están mucho más generalizados en la actualidad, se explicará el fun-cionamiento de éstos y se compara-rán las diferencias entre los motores MEC Y MEP con este ciclo de tra-bajo.

Principio de funcionamiento

El motor de 4 tiempos funciona según el ciclo Otto en MEP y según el ciclo diesel en MEC (Imagen 3), siguiendo esta serie de fases:

- 1er tiempo: carrera de admisión. Se abre la válvula de admisión, el pistón baja y el cilindro se llena de aire mezclado con combustible. - 2do tiempo: carrera de compre-sión. Se cierra la válvula de admi-

Imagen 3. Ciclo diesel (izquierda) y ciclo Otto (derecha)

Imagen 2. Fases del motor de 4 tiempos. Fuente: www.enciclopedia.us.es

20 Nº6.Marzo de 2015

Elementos constructivos

El MCIA está formado por un con-junto de sistemas estructurales que permiten su correcto funcionamien-to:

- Estructura soporte: compuesta por el bloque de cilindros (donde se apoyan las demás partes del motor), que debe poseer conductos interio-res para llevar el aceite a presión a los diferentes cojinetes que sopor-tan el cigüeñal, así como conductos para llevar el aceite a la culata que, a su vez, tiene conductos para llevar el aceite al árbol de levas o de ba-lancines.

También cuenta con la culata, la pieza del motor de diseño más complejo por la cantidad de funcio-nes y requerimientos que debe cum-plir. Por lo general tiene alojados elementos como conductos de ad-misión y de escape (empalman con los colectores de admisión y esca-pe), asientos de válvula, guías de válvulas (pieza sobre la cual desliza la válvula), circuitos de refrigera-ción, y la junta de culata que sirve para evitar las fugas en la unión en-tre cilindro y culata, también sirve de junta en las uniones de los con-ductos de agua y aceite entre bloque y culata.

Por último cuneta con el cárter, el elemento que cierra el bloque, de forma estanca, por la parte inferior,

y que cumple adicionalmente con la función de actuar como depósito para el aceite del motor. Simultá-neamente, este aceite se refrigera al ceder el calor exterior.

- Mecanismo pistón-biela-manivela: compuesto por el pistón, que trans-mite la fuerza de los gases a la biela, siendo lo más estanco posible al paso de gases de combustión al cár-ter y de aceite del cárter a la cámara de combustión, para ello leva a su alrededor unos aros metálicos que se ajustan al cilindro (segmentos). El cigüeñal y la biela se encargan de transformar el movimiento alterna-tivo en rotativo, que suministre un par útil.

- Mecanismo de distribución de ga-ses: lo forman las válvulas, que son las encargadas de controlar el paso de fluido por la cámara de combus-tión durante el proceso de admisión de aire y de permitir la salida de los gases de escape hacia el exterior para que se renueve la carga. El sis-tema de distribución agrupa a todos los elementos mecánicos que pro-vocan la apertura y cierre de las vál-vulas, debe estar sincronizado con el movimiento del cigüeñal y com-pleta un ciclo de funcionamiento cada dos vueltas del motor (el árbol de levas gira a la mitad de revolucio-nes que el cigüeñal).

Continuando con su funcionamien-to, mediante el proceso de la com-bustión desarrollado en el cilindro, la energía química contenida en el combustible es transformada prime-ro en energía calorífica, parte de la cual se transforma en energía cinéti-ca (movimiento), la que a su vez se convierte en trabajo útil aplicable a las ruedas propulsoras; la otra parte se disipa dela forma que se ha expli-cado anteriormente.

El movimiento del pistón es trans-mitido por medio de la biela al eje principal del motor o cigüeñal, don-de se convierte en movimiento rota-tivo, el cual se transmite a los meca-nismos de transmisión de potencia (caja de velocidades, ejes, diferen-cial, etc.) y finalmente al elemento que se desea accionar como las rue-das de un vehículo en el caso de la automoción o accionamiento de sierras mecánicas, bombas, genera-dores etc., en el caso de régimen estacionario.

Imagen 4. Estructura soporte. Fuente: Departamento de motores térmicos de la UPV.

Imagen 5. Mecanismo pistón-biela-manivela. Fuente: www.aficionadosalamecanica.com

21 Nº6.Marzo de 2015

beo, rozamientos, etc. De esta manera se puede cal-cular como:

- Potencia efectiva: Es el trabajo efectivo por unidad de tiempo:

Donde z es el número de cilindros, n es el régimen de giro en vueltas/s e i es el número de ciclos por

vuelta, que en el caso de 4T será de 0.5, ya que es una carrera de trabajo por cada dos vueltas de cigüeñal.

- Rendimiento efectivo: Es la rela-ción entre la potencia efectiva y la potencia térmica consumida:

Donde mf es el gasto de combusti-ble y Hc es el poder calorífico del mismo.

- Presión media indicada y efectiva: La presión media es la presión

constante que produce un trabajo durante una carrera. La pmi tendrá en cuenta el trabajo indicado y la pme el efectivo o real por lo que quedará expresada:

Donde Vd es el volumen de un ci-lindro.

- Par efectivo: Es el par mecánico obtenido por el eje motor, propor-cional a la cilindrada y la pme y, por lo tanto, al trabajo efectivo.

Puesto que Vd·z sería igual al volu-men total o cilindrada (VT)

- Dosado y dosado relativo: El do-sado (F) es la relación entre la masa de combustible y la masa de aire para realizar la mezcla:

El dosado relativo es la relación entre el dosado y el dosado este-quiométrico que es un tipo de do-sado con unos valores de mezcla ya establecidos para cada tipo de com-bustible que se emplee.

- Rendimiento volumétrico: Es el indicador de llenado del cilindro:

Donde mref es el gasto másico de referencia asociado al volumen total desplazado por el motor en unas condiciones de referencia (ambiente o entrada al colector de admisión) y queda expresado como:

Donde ref es la densidad en dichas condiciones.

Uniendo todas estas ecuaciones, la potencia puede quedar expresada en función de todos sus parámetros:

Además de los sistemas estructura-les, también cuenta con los sistemas auxiliares como el de lubricación (utilización de aceite para reducir la fricción de las piezas móviles), de refrigeración( enfría el motor que se sobrecalienta debido a las altas tem-peraturas producidas por la com-bustión), el sistema de alimentación de combustible, el de renovación de la carga (del que se hablará poste-riormente) y el de encendido( sólo en MEP puesto que el encendido es provocado).

Parámetros de funcionamiento

A continuación se expondrán una serie de elementos de los cuales de-pende en funcionamiento del motor para así poder conocer mejor los parámetros que lo caracterizan.

- Trabajo indicado y efectivo: El trabajo indicado es el que se realiza en el ciclo ideal, mientras que el efectivo es el que tiene en cuenta todas las pérdidas, como el bom-

La potencia de un motor depende principalmente del régimen de giro, del rendimiento efectivo y del llenado del

Imagen 6. Sistema de distribución. Fuente: Departa-mento de motores térmicos de la UPV.

pie WWW

niWzN ee

cf

ee Hm

N

pmppmipme

d

e

V

Wpme

22

iVpme

n

N

w

NM Tee

e

ma

mfF

eR F

FF

mref

mav

niVrefmref T

cTeRvee HVrefFFniN ·

22 Nº6.Marzo de 2015

dientes de presión, con aparición de ondas de presión a menudo audi-bles, hablándose entonces de deto-nación o picado de bielas, fenó-meno muy peligroso, ya que las vi-braciones inducen mayor transmi-sión de calor a través de las paredes, pudiendo destruir el motor si el fe-nómeno es intenso y se mantiene de manera prolongada. Por tanto, es necesario evitar este tipo de com-bustión en MEP.

En este tipo de combustión se pro-ducen agentes contaminantes como el CO, que depende del dosado y es muy tóxico, además de hidrocarbu-ros sin quemar debido a combustio-nes incompletas o apagado de la llama por mezclas pobres.

Combustión en MEC

A diferencia del MEP, en este caso el motor admite aire sin combusti-ble inyectándose este al final de la carrera de compresión. De esta ma-nera, la mezcla se autoinflama como consecuencia de la propia compre-sión. En este caso, siempre trabajan con mezclas con exceso de aire.

Tan pronto como se inyecta el com-bustible, se forman las primeras gotas que se evaporan y mezclan con el aire, y debido a las altas P y T empiezan las prerreacciones quími-cas que van a dar lugar después de un cierto tiempo (llamado tiempo

de retraso) a la aparición de llama por autoinflamación.

La localización del punto donde se inicia la combustión es aleatoria, no dependiendo la inflamación de la mezcla de un aporte exterior de ca-lor como ocurría en MEP, sino que se trata de un fenómeno de autoin-flamación que es consecuencia del elevado estado térmico (P,T) que existe en la cámara en las cercanías del PMS (punto muerto superior).

La llama suele aparecer cuando la distribución del aire y combustible no es todavía homogénea, por lo que coexisten los procesos de for-mación de la mezcla y de combus-tión. La duración de la combustión es mayor en MEC que en MEP.

El diseño de la cámara de combus-tión en MEC tiene una gran impor-tancia, ya que además de favorecer la correcta combustión, tiene tam-bién la misión de propiciar la for-mación de una mezcla adecuada. Se distinguen dos tipos fundamentales de cámaras:

· Cámara abierta (inyección directa): el combustible se inyecta directa-mente en el volumen entre culata y pistón.

· Cámara dividida (inyección indi-recta): el combustible se inyecta en una precámara independiente al volumen entre culata y pistón.

En cuanto a la contaminación, a demás de producir hidrocarburos sin quemar, en MEC se producen NOx, ya que se forma a elevadas temperaturas y presiones en mez-clas pobres. Al mezclarse con el aire se transforma en NO2, que es un agente muy venenoso. Tanto para MEC como para MEC, se han de buscar soluciones para reducir la contaminación, como mejorar los procesos del ciclo de trabajo,

Combustión en MEP

Habitualmente, la formación de la mezcla se realiza fuera del cilindro. Una vez introducida en la cámara, la combustión se inicia por una causa externa, como el salto de una chis-pa. La relación aire-combustible utilizada está en el entorno de la estequiométrica.

En MEP se habla de combustión homogénea o premezclada ya que la mezcla que se encuentra en el cilin-dro es homogénea: posee en cual-quier punto el mismo dosado.

La combustión normal tiene lugar en el frente de llama que es la su-perficie que separa la zona fresca de la zona quemada: la zona quemada trasmite calor al frente de llama, entonces la mezcla que integra el frente se inflama, pasando a engro-sar la zona quemada, provocando que avance el frente de manera sua-ve y comprimiendo la mezcla fresca.

Si la mezcla fresca se inflama por sí misma por estar sometida a altas presiones y temperaturas que son ocasionadas como consecuencia de la compresión sufrida, se hablará de una combustión por autoinflama-ción. Es una combustión brusca y descontrolada, casi instantánea, mu-cho más rápida que la combustión normal, provocando elevados gra-

Imagen 7. Cámaras de combustión MEC (izquierda y centro) y MEP (derecha) Fuente :www.tallerdemecanica.com y www.geocities.ws

23 Nº6.Marzo de 2015

pérdidas a levantamien-tos parciales, el rendi-miento volumétrico es menor que 1.

De esta manera, el tra-bajo que caracteriza el coste del PRC es el tra-bajo de bombeo (Wb), que tiene en cuenta to-das las pérdidas ocasio-nadas en este proceso.

Por tanto, cuando se diseña un motor, ha de tenerse en cuenta la optimización del dia-

grama de distribución, que define la apertura y cierre de válvulas de ma-nera que mejore el llenado y reduz-ca el Wb. También se mejora el dise-ño y tamaño de las válvulas, o inclu-so el número de éstas (culatas multi-válvulas) además de optimizar el diseño del colector de admisión y escape para aprovechar la dinámica de ondas y así mejorar el llenado el motor y por tanto, el rendimiento volumétrico.

La sobrealimen-tación es otra manera de au-mentar la poten-cia del motor y consiste básica-mente en incre-mentar la canti-dad de aire aspi-rado.

Al colocar un compresor antes del colector de admisión, se consi-gue una mayor masa de aire en el mismo volumen lo que provoca un aumento considerable de la poten-cia. Esto también aumenta la tem-peratura del ciclo, lo que hace el motor más adiabático, aumentando así el rendimiento efectivo.

No obstante, este aumento de pre-sión aumenta las cargas mecánicas en el interior del cilindro, y el au-mento de temperatura provoca un incremento del número de agentes contaminantes del tipo NOx .

Para evitar esto, se utiliza un inter-cooler entre el compresor y el mo-tor, que consiste en un intercambia-dor de calor que enfría el aire a alta presión que ha sido comprimido.

Esta técnica está generalizada en MEC pues prácticamente todos los aspectos que presenta son ventajas. No obstante, la sobrealimentación en MEP aumenta el riesgo de pica-do de la biela, ya que a tan alta pre-sión, el riesgo de autoinflamación es mayor, por lo que la utilización de la sobrealimentación en este tipo de motores no es muy popular.

Comparación MEP Y MEC

Para finalizar, se mostrará una tabla con las diferencias principales entre MEC Y MEP:

utilización de combustibles de bue-na calidad, uso de catalizadores, etc.

Renovación de la carga y sobre-alimentación

El proceso de renovación de la car-ga (PRC) es la sustitución de los productos quemados por mezcla sin quemar (aire en los MEC), con el fin de repetir los procesos termodi-námicos que tienen lugar en el cilin-dro. Mejorando la eficiencia de este proceso se puede aumentar la po-tencia del motor puesto que el PRC depende el rendimiento volumétri-co y la potencia depende de éste a su vez.

Debido a los fenómenos de inercia en el movimiento de los gases, al calentamiento del aire por contacto con las paredes del colector de ad-misión y las paredes del cilindro que se encuentran a alta T, a la pérdida de presión (pérdida de carga) entre la atmósfera y el cilindro por fric-ción fluido-pared y turbulencia en colector admisión y válvulas y a que éstas válvulas no abren y cierran instantáneamente en los puntos muertos del pistón, introduciendo

Imagen 8. Esquema de un motor sobrealimentado. Fuente: www.automovilismo.wikia.com

REFERENCIAS Y BIBLIOGRAFÍA:

- Apuntes y transparencias del departamento de motores térmicos de la UPV.

- www.aficionadosalamecánica.com

24 Nº6.Marzo de 2015

cia, basados en mecanismos que permiten variar el án-gulo de paso de las palas. Inicialmente se diseña el siste-ma de control y se lleva a cabo un estudio implemen-tando sistemas de regulación clásicos, analizando su respuesta y robustez ante diferentes entradas. Una vez que se han analizado éstos, se propone y se investiga sobre otros modelos de control más actuales basados en control borroso y control neuronal.

Sistemas de Regulación y Control

Los sistemas de regulación desempeñan hoy en día un papel fundamental en la práctica totalidad de los proce-sos industriales. La precisión y complejidad de los mo-vimientos, el tiempo de respuesta, el esfuerzo de con-centración necesario y la exactitud que debe alcanzarse en los valores de las magnitudes físicas y químicas que intervienen en los distintos puntos de los procesos in-dustriales y máquinas, hace que no puedan gobernarse manualmente y obliga a dotarlos de elementos inteligen-tes que hagan viable su conducción automática.

El regulador constituye el elemento fundamental en un sistema de control, pues determina el comportamiento del bucle, ya que condiciona la acción del elemento ac-tuador en función del error obtenido. Gran parte de los controladores elaboran la señal de mando del acciona-dor a través de un tratamiento de la señal de error.

Introducción

La energía eólica se ha consolidado como una de las principales fuentes de energía renovable a nivel mundial y se ha convertido en los últimos años en una excelente apuesta para rentabilizar las inversiones en desarrollo sostenible, sustituyendo a las fuentes de energía conven-cionales por una energía mucho más limpia, segura y respetable con el medio ambiente.

Su evolución ha sido claramente notable a lo largo de las décadas y en la actualidad la energía eólica está expe-rimentando una gran expansión a nivel mundial, en par-ticular en Europa, donde Alemania, España y Dinamar-ca se encuentran a la cabeza en potencia instalada. Toda esta evolución se ha traducido en continuos progresos tecnológicos, optimizando el rendimiento aerodinámico de las palas, que permite mayor generación eléctrica con la misma superficie de rotor, mejoras en lo relativo a la aplicación de electrónica de potencia, que brinda a las máquinas una conexión más eficiente, un progreso sus-tancial en los sistemas de control y la incorporación de nuevos tipos de generadores. A este respecto, si bien los primeros parques emplearon turbinas de velocidad fija con generadores asíncronos con rotor cortocircuitado, en los últimos años la tendencia dominante ha sido la de instalación de turbinas de velocidad variable, bien con generadores asíncronos doblemente alimentados o bien con generadores síncronos acoplados a la red mediante convertidores electrónicos en el estator. También se han logrado nuevos desarrollos para el control de po-tencia y para evitar sobrecargas mecánicas y eléctricas en el caso de vientos fuertes, utilizando sistemas de re-gulación por cambio de ángulo de paso "pitch control" y por pérdidas aerodinámicas "stall control".

El presente trabajo tiene como objetivo realizar un estudio de los sistemas de regulación empleados para el control de potencia de los aerogeneradores, centrándose en los sistemas activos de limitación y control de poten-

SISTEMAS ACTIVOS DE LIMITACIÓN Y CONTROL

DE POTENCIA EN AEROGENERADORES

FERNANDO ABAD BARRAL. INGENIERO EN ELECTRÓNICA

Imagen 1. Controlador de acción proporcional, integral y derivativo. Fuente: Departamento Automática. UAH.

25 Nº6.Marzo de 2015

posible gobernar la potencia modificando el régimen de giro de la turbina.

Desde un punto de vista de control de potencia es mu-cho más efectivo modificar el ángulo de ataque de la velocidad del viento sobre los perfiles. Este efecto se puede conseguir de forma pasiva, es decir, por diseño aerodinámico es posible que a partir de una determina-da velocidad del viento se produzca la pérdida aerodiná-mica y la potencia desarrollada por la turbina se reduzca considerablemente. El control de potencia se puede realizar también de forma activa. Este tipo de control consiste en girar la pala en la dirección del viento inci-dente, reduciendo el ángulo de ataque y de igual manera las fuerzas de sustentación. Si el giro se produce en sen-tido contrario, en dirección opuesta a la velocidad del viento incidente, se consigue la entrada en pérdida aero-dinámica, pero en este caso de una forma controlada (fenómeno de pérdida aerodinámica activa).

Por lo general, cada generador dispone de un sistema de control basado en microprocesador que realiza dife-rentes funciones. Por un lado, se encarga del control y regulación de las variables de funcionamiento del aero-generador, actuando sobre los sistemas de freno del rotor y del bastidor, de cambio de paso de las palas, de orientación y sobre el generador eléctrico, incluyendo la comprobación y diagnóstico de la máquina antes de la puesta en marcha y durante su funcionamiento y super-visando las actuaciones de parada y arranque de la má-quina en función de las condiciones del viento y de las variables de funcionamiento. Por otro lado, también juega un papel fundamental en el registro de las inciden-cias producidas y de sus causas y de llevar a cabo la co-municación con el sistema de control central.

Este tratamiento consiste en una amplificación del error, su integración con respecto al tiempo o su deriva-da con respecto al tiempo, dando lugar, respectivamen-te, a las siguientes acciones básicas de control:

Acción proporcional (P). Acción integral (I). Acción diferencial o derivativa (D).

Sistemas Aerodinámicos de Control en Aerogeneradores La distribución de fuerzas aerodinámicas a lo largo de la envergadura de una pala depende del módulo y direc-ción de la velocidad del viento resultante en cada perfil. Esta velocidad relativa es función, a su vez, de la veloci-dad de giro de la máquina y de la geometría de la pala. La contribución de todas estas fuerzas produce un par mecánico y una fuerza de empuje sobre el rotor eólico cuya dependencia es cuadrática con la velocidad del viento incidente a la altura del buje de la máquina. Tan-to el par como la fuerza de empujen dependen también de la densidad del aire φ, del área barrida por las palas cuyo diámetro es D y del coeficiente de par, Cq, y de empuje, CT, respectivamente

Si no se toma medida alguna, puede suceder que para velocidades del viento elevadas, el par y el empuje to-men valores que superen la potencia eléctrica asignada al generador eléctrico o las cargas admisibles sobre los elementos mecánicos del aerogenerador. Además, los distintos componentes de cada aerogenerador están di-señados para alcanzar la potencia nominal del aerogene-rador, que es la máxima potencia que éste puede apro-vechar para una determinada velocidad del viento deno-minada velocidad nominal y por tanto, para velocidades del viento superiores a la nominal, es necesario limitar la potencia que capta la aeroturbina. Por todas estas razo-nes, es necesario controlar las fuerzas aerodinámicas.

Básicamente, las fuerzas aerodinámicas se pueden re-ducir disminuyendo el ángulo de ataque de la velocidad del viento sobre el perfil, o haciendo que se produzca un desprendimiento de las líneas de corriente aumen-tando el ángulo de ataque por encima de un valor deter-minado (fenómeno de entrada en pérdida). También es

Imagen 2. Distribución de las cargas a lo largo de la pala. Fuente: “www.cubasolar.cu”.

)1(42

1 22

VD

CF T

)2(82

1 23

VD

CT q

26 Nº6.Marzo de 2015

o que se presenten problemas de inestabilidades.

El sistema de control de paso de pala también se utili-za durante el arranque y la parada del sistema. Así, cuan-do el aerogenerador arranca, la actuación sobre el paso de pala permite conseguir una determinada aceleración durante el proceso de arranque, aumentando el par si la velocidad del viento es pequeña y limitándolo si la velo-cidad del viento es alta, de forma que el aumento del grado de carga durante la conexión se haga de forma progresiva.

El principal inconveniente de este tipo de sistemas es el coste del mecanismo de variación del ángulo de cala-do y la mayor complejidad del sistema, lo que redunda en una mayor fiabilidad. Por contra, su principal ventaja frente a los sistemas de paso fijo es que permiten una mayor captura energética, ya que por encima de la velo-cidad del viento nominal la potencia se mantiene cons-tante, incluso en el caso de que en las palas aparezcan agentes externos como hielo o suciedad.

Diseño de un Controlador Clásico para la Regulación del Ángulo de Paso

El diseño de sistemas de regulación conlleva el exhaus-tivo estudio del sistema y en el caso de un aerogenera-dor, exige que este sistema de control deba responder con la exactitud, estabilidad y rapidez necesaria ante la variabilidad y aleatoriedad del viento. Matlab y a través de su entorno Simulink representan una importante he-rramienta en la que se pueden realizar diseños físicos de sistemas y diseñar controladores para dichos sistemas, llevando a cabo simulaciones en las que poder interpre-tar la respuesta obtenida.

El sistema que se pretende controlar es la pala del ae-rogenerador y ésta modifica su ángulo de paso a través de un actuador mecánico. Este actuador es gobernado por un controlador, el cuál le indica la fuerza con la que tiene que incidir sobre la pala para conseguir el ángulo de paso deseado.

Sistemas Activos de Control de Potencia

Las turbinas eólicas de paso de pala variable utilizan un sistema activo de giro de las palas para controlar las actuaciones de la máquina de la siguiente forma: duran-te el funcionamiento a carga parcial, se mantiene el án-gulo de calado del perfil en un valor que hace máxima la potencia desarrollada por la turbina, siendo β aproxima-damente nula. Para velocidades del viento elevadas, el sistema de control del ángulo de paso de pala aumenta el ángulo de calado (esto es, disminuye el ángulo de ata-que) para mantener la potencia constante y reducir las fuerzas de empuje sobre el rotor eólico. La variación del ángulo de paso β de las palas hace que varíe en una mis-ma cantidad el ángulo de calado de todas las secciones de la pala, θ´= θ + β, lo que produce una variación del ángulo de ataque en todas ellas y, por tanto, de la poten-cia. En la figura 3 se muestra como están relacionados el ángulo de calado θ, el ángulo de incidencia φ y el án-gulo de ataque α.

El control de paso puede girar la totalidad o una parte de la pala. Los sistemas con control de paso en la totali-dad de la pala tienen la ventaja, con respecto a los que sólo permiten girar parte de ella, de ser aerodinámica-mente más eficaces, ya que ante una misma variación del ángulo girado las reducciones de la potencia son mayores. Debido a ello, los sistemas con control de pa-so en parte de la pala necesitan incrementar en mayor medida el ángulo de paso para obtener las mismas pres-taciones, esto hace que sea más probable que aparezcan sobre el rotor eólico regímenes de pérdida aerodinámica

Imagen 5. Sistema de control de estudio. Fuente: Matlab software.

Imagen 3. Ángulos de incidencia φ, de ataque α y de calado θ. Fuente: Energía Eólica; Fundamentos y Tecnología

Imagen 4. Variación del ángulo de paso. Fuente: Energía Eólica; Fundamentos y Tecnología.

27 Nº6.Marzo de 2015

recibida del controlador y generar una señal de salida, la cual se aplica sobre el elemento mecánico final.

Por último, el controlador es el encargado de propor-cionar la señal de fuerza que se dirige al actuador. Esta señal de fuerza se genera en función de varios paráme-tros de entrada como son la velocidad de extensión y la extensión que tiene la pala y el ángulo de paso que se desea conseguir.

Las tres señales de entrada se procesan y se tratan, comparándolas en el bloque comparador y llevando la salida de éste a la entrada del controlador PI. Este con-trolador esta formado por una acción integral y una

La pala del aerogenerador ha sido diseñada a través de la herramienta SinMechanics. Para modelar y simular un sistema mecánico, primero, es necesario especificar las propiedades de los cuerpos tales como la masa, la iner-cia y los ejes de coordenadas sobre los cuales actuarán los cuerpos. Posteriormente se colocan los sensores que miden las fuerzas y movimientos de los cuerpos, así como actuadores y elementos de fuerza que generan el movimiento del sistema. El modelado de sistemas me-cánicos se realiza por medio de los bloques que se en-cuentran en las diferentes bibliotecas en las que está organizado SimMechanics.

El diseño de la imagen 6 da lugar al componente me-cánico de la imagen 7. El objetivo es realizar un sistema de control que permita variar el ángulo de paso de la pala al girar sobre su eje longitudinal. La pala del aero-generador ha sido diseñada a partir del bloque Body de-nominado Pala, y en él se definen sus propiedades. La pala tiene una masa de 6600 kg y una inercia de 27461 kg.m2 y se define su Center of Gravity (CG) y varios Coor-dinate Systems (CS) para generar los puntos que dan for-man y tamaño al cuerpo. El resultado es un pala de 40m de longitud.

Una vez diseñada la pala del aerogenerador, se aborda el diseño del actuador. La finalidad del actuador es la de generar una fuerza que se aplica sobre la pala para que ésta modifique su ángulo de paso. El actuador recibe la orden del controlador y proporciona una salida, necesa-ria para activar el elemento final de control.

El esquema del diseño del actuador se muestra en la imagen 8. Se trata de un diseño sencillo, en el que su principal función es la de adaptar la señal de entrada

Imagen 7. Representación 3D de la pala del aerogenerador en SimMechanics. Fuente: Matlab Software.

Imagen 6. Diseño de la pala de aerogenerador mediante SimMechanics. Fuente: Matlab Software. Imagen 8. Diseño del actuador.

Fuente: Matlab Software.

Imagen 9. Diseño del controlador. Fuente: Matlab Software.

28 Nº6.Marzo de 2015

Diseño de un Controlador Borroso para la Regulación del Ángulo de Paso

El control difuso es considerado como la aplicación más importante de la teoría de lógica difusa. La lógica difusa es una técnica diseñada para imitar el comporta-miento humano y fue concebida para capturar informa-ción vaga e imprecisa.

Los controles difusos son típicamente utilizados cuan-do el proceso a controlar es muy complejo, no-lineal y su modelo matemático no es fácil de obtener. Por lo que se hace uso de la información o experiencia dispo-nible acerca de la planta a controlar, dicha experiencia se puede poner de manifiesto mediante un conjunto de reglas de control, las cuales expresen la información de forma resumida.

Entre las ventajas de los controles difusos, radica en que son menos sensibles a cambios de parámetros o perturbaciones, esto es, comparando con los controla-dores convencionales con el control borroso se encuen-tra que es más robusto que el tradicional PID.

La estructura general de un controlador borroso está formada por una base de conocimiento, una fase de codificación (fuzzficación), un sistema de inferencia y una fase de decodificación (defuzzificación).

El sistema de control va a ser similar al de la imagen 5, y prevalecen los elementos principales: controlador, planta y actuador. Sin embargo, lo que en este apartado se plantea es utilizar otro modelo de control que aporta otro punto de vista de afrontar el control de un sistema físico. En este nuevo esquema, el controlador clásico ha sido sustituido por un controlador borroso. En este nuevo diseño el controlador borroso tiene como entra-da el ángulo de paso de referencia y el ángulo de paso que tiene la pala del aerogenerador. Por lo tanto se sim-plifica el sistema, utilizando un menor número de varia-bles de entrada.

acción proporcional, cuya finalidad es obtener una señal de fuerza que modifique el ángulo de paso de la pala según el ángulo de paso de referencia.

En el diseño de este controlador se ha tenido en cuen-ta que el tiempo integral regula la velocidad de acción de control, mientras que una modificación de la cons-tante proporcional afecta tanto a la parte integral como a la parte proporcional de la acción de control. La sinto-nización del controlador se basa en la selección adecua-da de sus parámetros, tal que el sistema de control tenga un comportamiento adecuado y una robustez aceptable. Tras estudiar el sistema de control y realizar varias si-mulaciones, se obtuvieron los parámetros de ganancia Kp y KI.

Finalmente, una vez que se han explicado todos los bloques que intervienen en el sistema de control (controlador, actuador y planta), se procede a su simula-ción en el entorno de Simulink y al estudio de la res-puesta obtenida. Para ello se visualiza el ángulo de refe-rencia que se desea obtener y como varía el ángulo de paso de la pala del aerogenerador para obtener dicho valor de referencia.

Imagen 12. Estructural general de un controlador difuso. Fuente: “www.depeca.uah.es”

Imagen 11. Variación del ángulo de paso de la pala del aerogenerador. Fuente: Matlab software.

Imagen 10. Diseño del controlador PI. Fuente: Matlab Software

29 Nº6.Marzo de 2015

yAlto} haciendo referencia a los posibles valores que puede tomar el ángulo en un rango comprendido entre -5º y 30º, como se había definido inicialmente para el primer controlador. Para la variable de salida Fuerza se han utilizado los siguiente términos lingüísticos: {NegAlto, NegBajo, Zero, PosBajo y PosAlto}. Estos términos hacen referencia a los diferentes valores que puede tomar la variable fuerza.

Se editan las reglas que sirven de base de conocimien-to para el controlador y que son de la forma "si Z es Ai entonces Y es Bj" compuestas por un antecedente y un consecuente y empleando el correspondiente conector borroso (and, or, not, etc).

Finalmente se realiza la simulación del sistema anali-zando la respuesta que se obtiene.

Por lo tanto, se puede concluir que el controlador bo-rroso realiza un control robusto frente a cambios en el sistema, tiene una gran capacidad de manejar informa-

El controlador borroso se ha desarrollado a partir de Matlab y su entorno Fuzzy Logic Toolbox. Se trata de una herramienta que permite simular el funcionamiento de un controlador difuso mediante un Fuzzy Inference Sys-tem, FIS, o sistema difuso de inferencia.

Existen diferentes métodos de inferencia dentro de la literatura de control difuso, entre los más comúnmente usados están los de Mamdani, Lusing Larson y Takagi-Sugeno-Kang. El método que se emplea para la inferen-cia es el de Mamdani, dada la facilidad que presenta para su implementación y que es conocido como el método de "mínimo-máximo".

Como ya se ha detallado, el controlador tiene dos en-tradas y una salida. Las entradas ángulo de referencia y ángulo de paso de pala tienen como términos lingüísti-cos {Neg, Bajo, MedioB, Medio, MedioA, Alto y Mu-

Imagen 13. Sistema de control utilizando un controlador borroso. Fuente: Matlab software.

Imagen 14. Interfaz gráfico Fuzzy Logic Toolbox. Fuente: Matlab software. Imagen 16. Superficie de control del FLC .

Fuente: Matlab software.

Imagen 15. Funciones de pertenencia utilizadas para la variable de entrada. Fuente: Matlab software.

Imagen 17. Simulación realizado con controlador borroso . Fuente: Matlab software.

30 Nº6.Marzo de 2015

o niveles y poseen un alto grado de conectividad entre ellas, conectividad que es ponderada por los pesos. A través de un algoritmo de aprendizaje supervisado o no supervisado, las Redes Neuronales Artificiales ajustan su arquitectura y parámetros de manera que puedan minimizar alguna función de error que indique el grado de ajuste a los datos y la capacidad de generalización de las Redes Neuronales.

El modelo está compuesto por un vector de pesos w= (w1,..., wn) T equivalente a las conexiones sinápticas en una neurona real, w0 es el umbral de acción o activa-ción, el vector ‘x’ es la entrada y el escalar ‘y’ la salida de la unidad. La actividad consiste en generar una única salida y a partir de la aplicación de la función de activa-ción f(y) a la suma ponderada entre el vector de entrada x = (x1,..., xn) y el vector de pesos w= (w1,..., wn) más un offset w0, obteniéndose la siguiente expresión:

donde f(y) es una función no-lineal. Existen diferentes tipos de funciones de transferencia f(y), como escalón, sigmoidal, gaussianas, etc.

El sistema de control que se pretende diseñar para controlar el ángulo de paso de la pala va a ser similar a los anteriores, pero en este caso el controlador es susti-tuido por uno neuronal.

El controlador neuronal proporciona la fuerza necesa-ria que aplicará el actuador sobre la pala del aerogenera-dor, tal y como se realiza en los sistemas de regulación previamente planteados. Es necesario utilizar ganancias tanto a la entrada como a la salida del controlador, ya que las funciones de activación que emplea la red neu-ronal están tabuladas entre 0 y 1 o -1 y 1, dependiendo de la función que se emplee. Para que el controlador neuronal pueda generar una salida determinada, es nece-sario llevar a cabo una fase de aprendizaje en la que la red es entrenada y en la que se ajustan sus pesos.

ción que contiene gran incertidumbre, sencillez para desarrollar controladores gracias al formato de las reglas y relaciona entradas y salidas sin tener que tener un co-nocimiento extenso de todas las variables, permitiendo que el sistema pueda ser más confiable y estable que uno con un sistema de control convencional.

Por otro lado, el control difuso también tiene sus des-ventajas. Es importante señalar, que los sistemas basa-dos en la Lógica Difusa requieren mayor simulación y una excelente depuración y prueba antes de pasar a ser operacionales. Además, en algunos casos es difícil poder programar las reglas de la base de conocimiento y deter-minar el uso de la función de inferencia más idónea sin la participación de un experto en control. Por último, también tiene como desventaja la dificultad de interpre-tación de valores difusos.

Diseño de un Controlador Neuronal para la Regulación del Ángulo de Paso

Las Redes de Neuronas Artificiales (RNA) se han he-cho muy populares debido a la facilidad en su uso e im-plementación y la habilidad para aproximar cualquier función matemática. Las RNA´s, con su marcada habili-dad para obtener resultados de datos complicados e imprecisos, pueden utilizarse para extraer patrones y detectar tramas que son muy difíciles de apreciar por humanos u otras técnicas computacionales.

En general, se puede encontrar que una Red de Neu-ronas Artificiales se suele caracterizar por tres partes fundamentales: la topología de la red, la regla de apren-dizaje y el tipo de entrenamiento.

La unidad de una red neuronal artificial es un procesa-dor elemental llamado neurona que posee la capacidad limitada de calcular, en general, una suma ponderada de sus entradas y luego le aplica una función de activación para obtener una señal que será transmitida a la próxima neurona. Estas neuronas artificiales se agrupan en capas

Imagen 19. Sistema de control utilizando un controlador neuronal. Fuente: Matlab software.

Imagen 18. Estructura básica de una neurona artificial. Fuente: “www.depeca.uah.es”

)3()(1

0

m

tii wxwyfy

31 Nº6.Marzo de 2015

tanto, la red queda entrenada y sus pesos ajustados se-gún los requerimientos establecidos.

Finalmente, tras trabajar con el controlador off-line y entrenar la red neuronal, éste se incluye en el esquema de sistema de control y se realizan diferentes simulacio-nes, analizando la respuesta obtenida.

Utilizar un controlador neuronal pone de manifiesto la multitud de ventajas que ofrece este tipo de control. La red neuronal artificial tienen la habilidad de aprender mediante una etapa denominada etapa de aprendizaje, por lo que se garantiza que se puede obtener una re-puesta medianamente aceptable. Además las redes neu-ronales tienen una gran flexibilidad, ya que pueden ma-nejar información de entrada que tenga cambios no muy importantes, como pueda ser ruido. También tie-nen como ventaja la obtención de un modelo neuronal directo de la planta, que permite la realización de expe-rimentos y simulaciones reemplazando el modelo mate-mático si este no está disponible.

Una vez que ha sido entrenada podrá proporcionar a su salida la señal de fuerza que es necesario aplicar so-bre la pala.

Inicialmente se realiza una simulación previa y se alma-cenan las variables de entrada y salida en el entorno de trabajo de Matlab. Esta simulación y los valores que arroje van a servir para entrenar la red neuronal. El ob-jetivo es que ante otras entradas la red neuronal, me-diante un entrenamiento previo, pueda generar la salida adecuada según el aprendizaje al que ha sido sometido.

El controlador neuronal se ha desarrollado a partir de Matlab y su entorno Neural Network Toolbox. Se trata de una herramienta que permite crear una red neuronal según unos parámetros, seleccionando la función de transferencia y realizando un entrenamiento de la mis-ma, para finalmente generar la red neuronal que se em-plea en el controlador.

Matlab ofrece la posibilidad de analizar el entrena-miento y comprobar si se ha realizado según los pará-metros indicados. En la imagen 21 se muestra la gráfica que relaciona el error y el numero de iteraciones. Como se puede comprobar, inicialmente el error es elevado y a medida que aumenta el número de iteraciones, el error va disminuyendo hasta lograr el valor requerido. Por

REFERENCIAS Y BIBLIOGRAFÍA:

- Sistemas eólicos de producción de energía eléctrica. J.L. Rodríguez Amenedo, J.C. Burgos Díaz.. Editorial Rueda.

- S. Haykin. Neural Networks: A comprehensive Foundation. Prentice Hall. 2008 .

- www.mathworks.com Matlab.

- www.eusflat.org European Society for Fuzzy Logic and Technology.

Imagen 20. Proceso de entrenamiento de la red neuronal. Fuente: Matlab software.

Imagen 21. Resultado del entrenamiento de la red neuronal. Fuente: Matlab software.

32 Nº6.Marzo de 2015

VENTANAS ELECTROCRÓMICAS, UN AHORRO ENERGETICO

FERNANDO GÓMEZ ESTRADA. INGENIERO INDUSTRIAL

un confort visual para el usuario.

Para que se produzca una re-ducción de consumo energético y de los costes de instalación, se de-ben utilizar soluciones constructivas adecuadas, tanto los materiales y la disposición de ellos den lugar a una envolvente del edificio totalmente aislante, tanto térmica como acústi-camente, sin perder un confort vi-sual para el usuario. Se intenta bus-car pues, nuevas soluciones o nue-vos materiales que reduzcan y con-trolen las pérdidas o ganancias de calor, y obtener una mejora en el ahorro energético. Una familia de materiales con estas características, son los materiales electrocrómicos.

Los materiales electrocrómicos tienen la capacidad de cambiar con-tinua y reversiblemente su color por medio de una reacción electroquí-mica, debido a la composición quí-mica de sus materiales.

En edificación existen diferen-tes composiciones de ventanas y clases de vidrios que mejoran el ais-lamiento térmico, acústico y confort visual, y a su vez mejoran la eficien-cia de la edificación aunque nuevas aplicaciones como los materiales electrocrómicos mejoran el rendi-miento notablemente.

Este tipo dispositivo tam-bién es de aplicación en diferentes tipos de pantallas como espejos re-trovisores o viseras para evitar des-lumbramientos, aunque en este ar-tículo, el estudio se centra en la im-

Cada día se intenta conseguir que los edificios sean lo más efi-cientes posible, es decir, que consu-man el mínimo de energía. Para ello, se buscan soluciones, tanto pasivas o constructivas como acti-vas para que el edificio sea lo más sostenible posible.

El edificio es un tipo de cons-trucción que las personas utilizan para su vida diaria, siendo éstos de distintos tipos: viviendas, oficinas y de uso público (servicios docentes, administración, etc.), entre otros. Este uso conlleva un consumo de energía, provocado por las necesi-dades de los usuarios ya sea en cale-facción, iluminación, refrigeración, etc. Todo este consumo requiere energía, suponiendo este, en edifica-ción de un 20% de la energía total producida aunque cada vez más se va incrementando.

Uno de los puntos clave es conseguir un aislamiento completo de la envolvente del edificio de ma-nera térmica, acústica y buscando

1. El cristal electrocrómico es un material fascinante, un vidrio que se oscurece con el toque de un interruptor, lo que elimina la necesidad de usar persianas y maximizar la luz natural. Ref: www.arquitecturayempresa.es

2. Consumo de energía en edificios residenciales Ref: IDAE (Instituto de Diversificación y Ahorro de Energía

Un estudio previo estima que el uso de las ventanas e l e c t r o c r ó m i c a s e n edificios podría representar un ahorro energético entre 30 - 40 % en refrigeración

33 Nº6.Marzo de 2015

cos son dispositivos capaces de controlar mediante una o varias reacciones electroquímicas reversi-bles la cantidad de luz que pasa a través de él en diferentes rangos de longitudes de onda. Mediante el control de la cantidad de luz que entra a la vivienda en verano, es posible disminuir el consumo ener-gético en refrigeración.

El electrocromismo está defini-do como la capacidad de un mate-rial para cambiar reversiblemente su color mediante una reacción elec-troquímica de oxidación o reduc-ción provocada por la aplicación de una corriente eléctrica. La aplicación de esta corriente eléctrica aplicada al material provoca en el dispositivo la extracción o inserción de electrones (oxidación o reducción), modifican-do la estructura electrónica del ma-terial y produciendo nuevos niveles energéticos electrónicos desocupa-dos u ocupados. La aparición o desaparición de nuevos niveles energéticos permite distintas transi-

ciones electrónicas, así como absor-ción a diferentes longitudes de onda modificando por tanto el color del material.

Existe una gran variedad de mate-riales utilizados para el diseño de dispositivos electrocrómicos, estos están compuestos y divididos por 7 capas de diferentes materiales. Las dos más exteriores son las encarga-das de de proporcionar resistencia al material, así como las de un aisla-miento térmico y acústico. Las dos capas siguientes están hechas de un material transparente conductor, las cuales están conectadas a la corrien-te eléctrica. Seguidamente y entre estas dos capas conductoras, se en-cuentran las tres capas centrales que hacen oscurecer al cristal, una de estas capas está formada por un ma-terial electrocrómico, en donde el trióxido de wolframio suele ser el más utilizado. Otra capa de las tres centrales es el contraelectrodo, compuesto por un material capaz de almacenar iones, este contraelectro-

En edificación existen diferen-tes composiciones de ventanas y clases de vidrios que mejoran el ais-lamiento térmico, acústico y confort visual, y a su vez mejoran la eficien-cia de la edificación aunque nuevas aplicaciones como los materiales electrocrómicos mejoran el rendi-miento notablemente.

Este tipo dispositivo tam-bién es de aplicación en diferentes tipos de pantallas como espejos re-trovisores o viseras para evitar des-lumbramientos, aunque en este ar-tículo, el estudio se centra en la im-plantación en la edificación y como mejora la eficiencia energética en una vivienda.

Los dispositivos electrocrómi-

5. Ya está siendo habitual la implantación de espejos electrocrómicos en vehículos , así como en viseras para evitar deslumbramientos. Ref: noticias.coches.com

4. Esquema de las diferentes capas que componen los dispositivos electrocrómicos. Ref: www.debocontarque.blogspot.com

Los dispositivos electrónicos también son utilizados para evitar deslumbramientos

3. Además de ventanas exteriores, los dispositivos electrocrómicos también pueden instalarse en interiores, ya sea en oficinas o baños. Ref: www.controlart.net

34 Nº6.Marzo de 2015

Las ventanas electrocrómicas están formadas por los materiales de una ventana convencional y por el dispositivo electrocrómico. Este tipo de ventana tiene la característi-ca de que puede aumentar o dismi-nuir su transparencia continua y reversiblemente cuando se aplica una corriente eléctrica al dispositi-vo. Es posible por tanto ajustar el grado de transparencia hasta el nivel deseado.

En los últimos años ha crecido el interés por reducir el consumo energético de los edificios buscando nuevas estrategias y soluciones que hagan que los edificios sean más sostenibles.. Varios estudios han demostrado que el uso de ventanas conmutables podría reducir el con-sumo energético de los edificios. La función principal de las ventanas es proporcionar luz del día y contacto visual con el mundo exterior, por lo que se necesita una alta transmi-tancia visible. Desde el punto de vista energético, siempre es mejor

tener las ventanas en un estado bajo de transparencia cada vez que haya necesidades de refrigeración, pero dependiendo de la luz del día y del contacto visual. Por ello, es necesa-rio un sistema de control que sea utilizado por el usuario, modifican-do la característica de luminosidad y confort visual en función del con-fort del usuario, siendo necesaria la utilización de ventanas electrocró-micas.

Las aportaciones de dispositi-vos electrocrómicos en edificación provienen del ahorro energético que generan y de la capacidad que tie-nen en cuanto al control en ilumina-ción de los habitáculos.

Un estudio previo estima que el uso de las ventanas electrocrómi-cas en edificios podría representar un ahorro energético entre 30 – 40 % en refrigeración. La aplicación de dispositivos electrocrómicos en ventanas de gran superficie se espe-ra que mejore significativamente la eficiencia energética de los edificios, así como el confort térmico y visual, ya que permite el control de los flu-jos de energía solar radiante que entra en un edificio a través de las ventanas.

Los dispositivos electrocrómi-cos poseen la cualidad de variar el color, de claro a oscuro y viceversa, permitiendo la variación de la tem-peratura del local debido a la reduc-ción de la ganancia solar cuando el dispositivo está coloreado. Un efec-to indeseado añadido es que al vol-verse más oscuro, la temperatura radiante aumenta porque absorbe mayor cantidad de luz.

Esta tecnología se aplica, nor-malmente, en edificios en los que se quiera mejorar los gastos energéti-cos derivados de los sistemas de

do, compuesto por un material ca-paz de almacenar iones, este con-traelectrodo puede ser un polímero conductor u oxido metálico como el óxido de níquel o de estaño. La capa más central de todas, también conductora puede ser una disolu-ción electrolítica o un electrolito sólido.

El conjunto de materiales que lo componen hace que se produzca un cambio en la estructura de los polímeros cuando se aplica una co-rriente eléctrica. Muchos materiales han sido probados a lo largo de los años, mejorando las propiedades físicas y químicas del dispositivo, como el color o la velocidad de co-loración, como pueden ser los polí-meros conductores, los cuales per-miten la conductividad eléctrica de-bido a que su estructura se caracte-riza por enlaces de carbono, (carbonos simples y dobles).

Características de los dispo-sitivos electrocrómicos

6. Funcionamiento de un cristal electrocrómico según el grado de opacidad que se quiera. Ref: www.arquitecturayempresa.es

35 Nº6.Marzo de 2015

durabilidad, el color de la ventana no ser el deseado o tiempo de cam-bio del color elevado.

Por tanto, los acristalamientos electrocrómicos ofrecen un control dinámico y sensible de las propieda-des térmicas y ópticas de la fachada del edificio. Esta función se puede utilizar para maximizar el confort de los ocupantes y el rendimiento mientras minimiza el consumo de energía anual y la demanda eléctrica pico. Se espera que produzca mayo-res beneficios en los edificios de la carga de refrigeración, como edifi-cios comerciales ubicados en climas templados y calientes, donde la ges-

tión de la carga eléctrica es conside-rable. Las ventanas electrocrómicas también pueden ser beneficiosas para compensar la necesidad de ca-lefacción en climas fríos si se con-trola las ganancias solares térmicas. Además de la reducción de deslum-bramientos.

En cuanto a las características térmicas de las ventanas electrocró-micas, mencionar que son parecidas a las ventanas convencionales, ya que su composición va a depender de lo que el usuario quiera aislar térmicamente.

refrigeración, ya que pueden reducir el consumo de esta instalación. Sin embargo, existen unos ciertos in-convenientes en el uso de este dis-positivo como por ejemplo, el coste,

7. En todo momento las ventanas electrocrómicas pueden modificarse, dejando atravesar mas o menos luz. Ref: www.dossierdecor.com

REFERENCIAS Y BIBLIOGRAFÍA:

- Eficiencia y ahorro energético en iluminación natural y artificial. Juan Bisquert. 2006.

- Soluciones de acristalamiento y cerramiento acristalado. Guía técnica para la rehabilitación de la envolvente térmica de los

edificios. IDAE.

- Caracterización y optimización electroquímica de dispositivos electrocrómicos duales basados en polímeros conductores.

Javier Padilla Martínez.

- Thermal performance of an electrochromic smart window tested in an environmental test cell. A. Piccolo. Department of

Civil Engineering, University of Messina, Contrada di Dio – 98166 S. Agata (Messina), Italy.

36 Nº6.Marzo de 2015

Fernando Martel Aranda. Ingeniero industrial.

Los reactores de IV generación surgen por la necesidad de mejorar los reactores de II y III generación, atenderán las exigencias siguientes.

REACTORES NUCLEARES DE IV GENERACIÓN

Seguridad natural inherente del sistema, independiente de la falla de equipo o falla humana en la opera-ción, exclusión de accidentes severos como liberación de radiación que requiere evacuación de la pobla-ción u operaciones de emergencia.

Provisión ilimitada de suministro de combustible a través del uso de uranio natural o uranio empobreci-do, de preferencia.

Uso efectivo del combustible, usándose el 80% del potencial energético en lugar del 5% actual. Minimi-zar y gestionar los residuos radiactivos (eliminando los residuos radiactivos en los reactores, usando to-rio).

Ausencia de desechos de larga duración a través de su quemado o reciclaje interno, sin daños al medio ambiente y a su equilibrio natural.

Competitividad económica. El riesgo es equiparable al de otros proyectos energéticos. Costes de inversión bajos, sin reducir la seguridad, ya que son reactores modulares.

Exigencias para los nuevos proyectos:

Desechos nucleares que duran unos pocos siglos en vez de milenios. 100-300 veces más de rendimiento de energía para la misma cantidad de combustible nuclear. La habilidad de consumir los desechos nucleares existentes para la producción de electricidad. Mejorada seguridad de operación.

Ventajas:

37 Nº6.Marzo de 2015

El concepto del Reactor de Temperatura Muy Alta usa un núcleo moderado por grafi-to con un ciclo de combustible de uranio de una sola pasada, usando helio o sal fundida como el refrigerante. Este diseño de reactor prevé una temperatura de salida de 1.000 °C. El núcleo del reactor puede ser ya sea un bloque prismático o un diseño de reactor de lecho de bolas. Las altas temperaturas permi-ten aplicaciones tales como calor de proceso o producción de hidrógeno vía el proceso termoquímico de azufre-yodo. También sería seguro pasivamente.

TIPOS DE REACTORES DE IV GENERACIÓN

Térmicos

Reactores Rápidos

1. VHTR: reactor de muy alta temperatura.

2. SCWR: reactor supercrítico enfriado por agua.

3. MSR: reactor enfriado por sal fundida.

4. GFR: reactor rápido enfriado por gas.

5. SFR: reactor rápido enfriado por sodio.

6. LFR: reactor rápido enfriado por plomo.

1. VHTR

Las centrales nucleares comerciales de hoy son principalmente reactores “térmicos” que pueden incluir o no el re-procesamiento del combustible.

El término “térmico” describe lo que sucede en el núcleo del reactor. En todos los tipos de reactores, la fisión o reacción en la cadena, que genera calor, se mantiene mediante la colisión energética de neutrones con el combusti-ble. En un reactor térmico, la velocidad de los neutrones se reduce a “baja energía” mediante un moderador, como el grafito o el agua.

Al reprocesar y volver a utilizar el combustible en los reactores térmicos, como se hace en algunos países, se podría aumentar la energía total generada entre el 15% y el 20%. Si se utilizara el torio como combustible, además del ura-nio natural, se podría como máximo duplicar la posible contribución de la opción nuclear.

Térmicos

38 Nº6.Marzo de 2015

El reactor de agua supercrítica es un concepto que usa agua supercrítica como el fluido de operación. Los SCWR son básicamente reactores de agua ligera (LWR) operando a mayores presiones y temperaturas con un ciclo directo de una sola pasada. Como se concibe más comúnmente, ope-raría en un ciclo directo, muy parecido a un Reactor de Agua en Ebullición (BWR), pero dado que usa agua super-crítica (no confundir con masa crítica) como el fluido de operación, sólo tendría una fase presente, tal como el Reac-tor de Agua Presurizada (PWR). Podría operar a temperatu-ras mucho más altas de los actuales PWR y BWR.

Los reactores enfriados por agua supercrítica son sistemas nucleares avanzados muy prometedores debido a su alta eficiencia termal (aproximadamente 45% contra los aproxi-madamente 33% de eficiencia para los actuales LWR) y considerable simplificación de la planta.

La principal misión del SCWR es la generación de electricidad a bajo costo. Está basado en dos tecnologías proba-das, los LWR, que son los reactores de generación de energía más comúnmente desplegados en el mundo, y las cal-deras alimentadas por combustible fósil supercríticas, un gran número de las cuales también usadas alrededor del mundo. El concepto del SCWR está siendo investigado por 32 organizaciones en 13 países.

2. SCWR

Un reactor de sal fundida (MSR) es un tipo de reactor nuclear donde el refrigerante es una sal fundida. Han existido muchos diseños que han usado este concepto y se han construido unos pocos prototipos. Los primeros conceptos y mu-chos de los actuales se basan en un combustible nuclear disuelto en un sal de fluoruro fundida tal como el tetrafluoruro de uranio (UF4) o tetra-fluoruro de torio (ThF4), el fluido alcanzaría cri-ticidad al fluir en un núcleo de grafito que tam-bién serviría como el moderador. Muchos de los actuales conceptos se basan en un combustible que está disperso en una matriz de grafito donde la sal fundida proporciona enfriamiento de baja presión y alta temperatura.

3. MSR

39 Nº6.Marzo de 2015

Reactores Rápidos

Por razones relacionadas con la proliferación y por otros motivos, el diseño de reactores de fisión rápida represen-tan la opción más prometedora, estos reactores quemarían solo uranio 238 y, por tanto, permitirían eliminar el enri-quecimiento del uranio y la separación del plutonio apto para armamentos nucleares. A diferencia de los reactores anteriores, estos reactores rápidos no dispondrían de capa fértil en la que se pudiera producir plutonio apto para armamentos. Los reactores rápidos ofrecen la posibilidad de quemar actínidos para reducir aún más los desechos y ser capaces de generar más combustible del que ellos consumen. Estos sistemas ofrecen significativos avances en sustentabilidad, seguridad y confiabilidad, economía y protección física.

El sistema de un reactor rápido enfriado por gas (GFR) se caracteriza por tener un espectro de neutrones rápidos y un ciclo de combustible cerrado para una eficiente con-versión de uranio fértil y la administración de los actínidos. El reactor es refrigerado por helio, con una temperatura de salida de 850 °C y usando un turbina de gas de ciclo Brayton directo para una alta eficiencia ter-mal. Varias formas de combustible están siendo consideradas por su potencial para operar a temperaturas muy altas y para ase-gurar una excelente retención de los pro-ductos de la fisión: combustible de cerámica compuesta, partículas de combustible avan-zadas, o elementos de revestimiento cerámi-co de compuestos actínidos. Las configura-ciones del núcleo que están siendo conside-radas están basadas en ensambles de com-bustible basados en pin- o placas o bloques prismáticos.

4. GFR

40 Nº6.Marzo de 2015

El concepto del reactor SFR es refrige-rado por sodio líquido y alimentado por un combustible de una aleación metáli-ca de uranio y plutonio. El combustible está contenido en acero revestido con sodio líquido rellenando el espacio entre los elementos de revestimiento que componente la estructura de ensambla-do del combustible

Un gran número de reactores rápidos experimentales refrigerados por sodio ya fueron construidos, así como cerca de 12 prototipos y reactores de gran tamaño, lo que permite afirmar que el uso del sodio como refrigerante es hoy una tecnología conocida y madura, ha-ciendo que el riesgo de introducción de nuevas tecnologías tenga grandes oportunidades de éxito. El gran desafió hoy es probar la competitividad económica del mismo.

5. SFR

Se caracteriza por usar un reactor en-friado por metal líquido de espectro de neutrones rápidos de plomo o plomo/bismuto eutéctico con un ciclo de combustible cerrado.

Beneficios:

-No tiene coeficiente de vacíos positivo.

-No es reactivo en aire y agua.

-Posibilidad de alcanzar alta temperatu-ra en la salida, que podría ser utilizada en la producción de hidrógeno.

Desventajas:

-Potencial de corrosión relativamente alto;

-Altísima densidad

-Las limitaciones en cuanto al tamaño del reactor son previstas, con dificultades asociadas al soporte estructural y ductos, debido al peso del plomo;

-Necesita de potencia elevada de bombeo.

6. LFR

41 Nº6.Marzo de 2015

Los reactores de IV generación se basan en cuatro mejoras respecto a los reactores de II y III generación, atenderán las exigencias de seguridad inherente, ecológicamente aceptables, económicamente competitivos y evitar la proliferación de armas nucleares debido al menor uso del plutonio para fines armamentísticos al ser consumido por estas centrales.

REFERENCIAS http://es.wikipedia.org/wiki/Reactor_nuclear_de_IV_generaci%C3%B3n

http://www.consumer.es/web/es/medio_ambiente/energia_y_ciencia/2008/10/29/181062.php

http://espanol.cri.cn/782/2013/01/06/1s267367.htm

http://www.diariodeleon.es/noticias/revista/reactores-nucleares-mas-seguros-eficientes-menos-residuos_439911.html

http://almadeherrero.blogspot.com.es/2010/09/reactores-nucleares-de-cuarta.html

http://carolusdixit.wordpress.com/2011/06/13/centrales-nucleares-de-cuarta-generacion/

http://www.aniu.org.uy/docs/Joubanoba2009-05-21.pdf

http://www.cnea.gov.ar/pdfs/revista_cnea/39/reactores%20nucleares.pdf

CONCLUSIONES

42 Nº6.Marzo de 2015

ANÁLISIS BIOMÉTRICO. LA EXTRACCIÓN DE PARÁMETROS GEOMÉTRICOS A PARTIR DE UNA IMAGEN. JOSUÉ CABRERA FALCÓN, INGENIERO TÉCNICO DE TELECOMUNICACIONES ESP. SISTEMAS ELECTRÓNICOS MIGUEL A. GUTIERREZ RAMOS, INGENIERO TÉCNICO DE TELECOMUNICACIONES ESP. TELEMÁTICA

detección y clasificación de granos de polen, estudios biométricos de clasificación de especies arácnidas a partir de las telas que tejen, etc. Se hará referencia a aquellos parámetros que aportan información geomé-trica de los sujetos a estudiar. En este caso, dicha infor-mación se obtendrá a partir de imágenes que han de ser previamente preprocesadas para trabajar con una imagen binaria que facilite los posteriores cálculos.

Se entiende por imagen binaria, aquella imagen en la que todos sus pixeles tienen valor ‘1’ o valor ‘0’, creando una imagen visual que solo dispone de dos tonos de color, el blanco absoluto y el negro absoluto.

2 Parámetros geométricos

Los parámetros geométricos, son todos aque-llos parámetros que aportan información acerca de ciertas propiedades físicas de los sujetos a estudiar, ta-les como el tamaño (Área), centro (centroide), alto, ancho, etc.

Para la explicación de dichos parámetros se ha optado por la representación grafica de una figura sim-ple y la matriz equivalente de los pixeles que la compo-nen .

A continuación se explican los 15 parámetros que este artículo recoge, desde su significado hasta su forma de cálculo.

Área: Hace referencia a la cantidad de píxeles a nivel ‘1’ que se encuentran en la imagen binaria. En la figura 2 se muestra un ejemplo donde el Area=5 píxe-les.

1 Introducción

Cada vez son más los sistemas computaciona-les que hacen uso de un análisis biométrico para estu-diar determinados fenómenos. Procesos de clasifica-ción y/o reconocimiento de diferentes sujetos biológi-cos hacen necesaria la extracción de ciertos parámetros que ayuden a los sistemas a diferenciar unos de otros y actuar conforme a ello.

Sistemas de seguridad basados en reconoci-miento facial, reconocimiento de la huella dactilar, el iris del ojo, etc. Análisis biológicos que hacen uso de métodos computacionales para realizar detecciones y clasificaciones de sujetos vivos. Todos ellos necesitan para los procesos de identificación, este tipo de pará-metros que ayuden en el trabajo a los sistemas clasifica-dores.

El presente artículo se enfocará a la extracción de parámetros más ligada a estudios biológicos como pueden ser estudios de recuento sanguíneo, estudios de

Figura 1. Ejemplo de parametrización en una huella dactilar. biologia-test.blogspot.com

Figura 2. Ejemplo de cálculo del Área.

43 Nº6.Marzo de 2015

viene dado por el vector v=(3,3).

Longitud del eje mayor: Se trata de una medida que especifi-ca la longitud (en píxeles) del eje mayor de la elipse que tiene el mis-mo momento central normalizado de segundo orden que la región. La siguiente figura muestra un ejemplo para el cual la longitud del eje ma-yor tiene un valor: LEMY=3.9441 píxeles.

Longitud del eje menor: Se trata de una medida que especifi-ca la longitud (en píxeles) del eje menor de la elipse que tiene el mis-

mo momento central normalizado de segundo orden que la región. En este caso y si se vuelve a estudiar la figura 6, la longitud del eje mayor tiene un valor: LEMN=2.5820 píxe-les.

Área Convexa: Es una me-dia en píxeles, que indica el área de la imagen convexa. La imagen con-vexa es una imagen que trata de eliminar zonas cóncavas de la mis-ma mediante el trazo de una línea recta entre dos puntos salientes consecutivos, rellenando esa zona con píxeles a nivel alto. En la figura 8 se muestra la diferencia entre la imagen convexa y la imagen normal. Dicha figura está representada en una matriz de 50x50 siguiendo la misma forma vista en la imagen de la figura 6 para poder ver el cambio de manera más visual.

En este caso y atendiendo a una matriz de 50x50 píxeles, ten-dríamos como resultado un valor para el Área = 500 píxeles y un va-lor para el Área Convexa = 742 pí-xeles.

Cuadro delimitador: Es el rectángulo menor capaz de encerrar a todo el objeto. De este parámetro se puede obtener un vector con 4 valores, los 2 primeros hacen refe-rencia a la fila y la columna desde la que empieza el cuadro delimitador y los 2 siguientes indican cuantos pí-xeles se desplaza la imagen hacia la derecha y hacia abajo (incluyendo el píxel actual) para cerrar el rectángu-lo. Un ejemplo se puede ver en la siguiente figura donde el cuadro delimitador vendría dado por el vector v=(2,2,3,3):

Centroide: Hace referencia al centro de masas de la región. Este parámetro está formado por un vec-tor con 2 valores, el primero de ellos correspondiente con la colum-na y el segundo correspondiente a la fila en la que se encuentra dicho centroide. La siguiente figura mues-tra un ejemplo donde el centroide

Figura 7. Imagen de tela de araña utilizada en un sistema de clasificación que usa, entre otros, parámetros que recoge este articulo.

PONER AQUÍ IMAGEN

Figura 4. Fotografía de grano de polen coloreada tomada con un microscopio electrónico de barrido. http://blogueiros.axena.org/2010/05/11/microfotografias-de-granos-de-polen/

Figura 3. Ejemplo de cálculo del Cua-dro delimitador.

Figura 5. Ejemplo del calculo del cen-troide.

Figura 6. Ejemplo de cálculo de la longitud el eje mayor.

Figura 8.. Ejemplo de cálculo del área convexa.

44 Nº6.Marzo de 2015

Excentricidad: Valor que especifica la excentricidad de la elip-se que tiene el mismo momento central normalizado de segundo orden que la región. La excentrici-dad es la relación existente entre la distancia de los focos de la elipse y la longitud del eje principal. El valor estará comprendido entre 0 y 1. (donde 0 y 1 son los casos degene-rados, una elipse cuya excentricidad es 0 es en realidad un círculo, mien-tras que una elipse cuya excentrici-dad es 1 es un segmento.)

Forma: Hace referencia a como de circular es el objeto que se

está estudiando. Sus valores se com-prenden entre 0 y 1, siendo para un resultado igual a 1 una circunferen-cia perfecta. La forma del objeto se calcula como:

Espesor: Indica cuantas veces es necesaria aplicarle una ero-sión con un filtro cuadrado de MxN píxeles a la imagen, hasta que ésta queda totalmente negra. La opera-ción de erosión implementa una reducción del objeto al que se le está aplicando. En la figura siguien-te se muestra una imagen procesada paso a paso, a la que ha sido necesa-rio aplicarle 5 veces una erosión (espesor=5) aplicando un filtro cua-drado de 3x3 píxeles, hasta dejarla totalmente negra.

Alto: Aporta un valor refe-rente a la cantidad de píxeles que es necesario recorrer para llegar desde el extremo situado a 270º de la ima-gen hasta el extremo situado a 90º. Para poder determinar la altura de las imágenes, es necesaria una nor-malización de las mismas antes de realizar el cálculo. Dicha normaliza-ción consiste en la rotación del con-torno de la imagen, para dejar la distancia más larga desde el centroi-de hasta dicho contorno en el eje de abscisas. Para poder implementar esta rotación se han de seguir los siguientes pasos:

En primer lugar, de la ima-gen binarizada, se debe extraer el contorno para poder rotarlo. Un ejemplo de dicha extracción se pue-de observar en la figura 12.

Diámetro equivalente: Es el diámetro equivalente del círculo que tenga la misma área que el obje-to de la imagen. Se calcula como:

Solidez: Se trata de una medida que especifica el porcentaje de los píxeles de la envolvente con-vexa que también se encuentran en la región. Su cálculo se realiza de la siguiente forma:

Perímetro: Indica la distan-cia en píxeles que existe alrededor del límite de la región. Para la pri-

mera imagen de la figura 8 el perí-metro vendría dado por la siguiente figura, donde el perímetro a sido coloreado en rojo:

En este caso, el valor del perímetro es P=121 píxeles.

Grado: Parámetro que indi-ca la proporción de píxeles de la región con respecto al total de píxe-les que forman el cuadro delimita-dor. Dicho parámetro se calcula como:

La extracción de parámetros característicos se basa en la obtención de la información necesaria para que sistemas de clasificación y/o reconocimiento puedan realizar su función

Figura 9. Ejemplo de cálculo del perí-metro

Figura 10. Ejemplo del calculo del espesor de una imagen.

45 Nº6.Marzo de 2015

del vector y el que se encuentre a 270º. Una vez trasformado, solo es necesario sumar los módulos de los elementos del vector que se encuen-tran en los ángulos citados anterior-mente para obtener el valor de la altura.

Ancho: De forma similar al cálculo del alto, en este caso, una vez obtenidas las coordenadas del borde y transformadas de cartesia-nas a polares, bastará con sumar los módulos de los elementos del vec-tor que se encuentran en los ángu-los de 0º y 180 para obtener el valor del ancho.

El motivo por el cual es necesaria una normalización con respecto a la posición de las de las imágenes queda evidente en la si-guiente figura.

Como se puede observar en la figura anterior, si no se realizase la normalización con respecto a la posición, estas dos imágenes po-

drían darnos valores muy distintos con respecto a su altura y ancho, pudiendo confundir a los sistemas encargados de su estudio.

3 Conclusiones

Son muchos los parámetros geométricos que se pueden obtener a partir del estudio de una imagen binaria. Los vistos en el presente artículo representan aquellos que se pueden obtener de forma más intui-tiva y que componen la información a grandes rasgos de los objetos a estudiar.

El campo de la biometría hace un uso elevado de este tipo de parámetros y en muchas ocasiones se ve complementado con paráme-tros de textura, colorimetría, etc. No obstante, gran parte de la infor-mación que se puede obtener de un sujeto de estudio en este campo, esta enormemente ligada a los pará-metros geométricos del mismo.

Una vez obtenida la imagen del perímetro se procederá con el cálculo de las coordenadas del mis-mo. Dicho cálculo se devuelve en un vector con las coordenadas de cada píxel en la imagen.

Hay que tener en cuenta que dichas coordenadas vendrán con el punto de referencia situado en la esquina superior izquierda de la imagen. Nuestro objetivo es si-tuar ese punto en el centro de la imagen, para posteriormente saber cuál es la distancia máxima entre el centro y el contorno. Para ello basta con restarle a cada coordenada del vector el valor del centroide de la imagen.

El siguiente paso será el de calcular el valor máximo de ese vec-tor y una vez encontrado, rotar to-do el vector hasta dejar ese valor en la posición 0 del mismo. En este momento, se tiene el contorno de la imagen vectorizada y normalizada con la medida más grande situada al comienzo del mismo.

Solo queda transformar esas coordenadas cartesianas a polares para poder obtener en el ángulo que se estime oportuno, en este caso, para calcular la altura, se selecciona-rá en el ángulo que se encuentre a 90º desde la posición de comienzo

Figura 12. Ejemplo de la extracción de un contorno a partir de una imagen binaria.

Figura 13. Representación grafica de la normalización de una imagen.

REFERENCIAS Y BIBLIOGRAFÍA:

[1] María Rodríguez-Damián, Eva Cernadas, Arno Formella, Manuel Fernández-Delgado, Pilar De Sá-Otero. Automatic Detection and Classification of Grains of Pollen Based on Shape and Texture. IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART C: APPLICATIONS AND REVIEWS, VOL. 36, NO. 4, JULY 2006. PAG 531

[2] Documentación de Matlab R2011a – Mathworks. Http://www.mathworks.com, (última visita a 04/02/2015).

46 Nº6.Marzo de 2015

ROBOTS DE SOLDADURA, PRESENTE Y FUTURO

soldadura. En un principio, el creci-miento quedó limitado por el eleva-do coste del equipamiento, resultan-do una restringida aplicación en la producción a gran escala. Los robots de soldadura consisten en el uso de herramientas progra-mables mecanizadas, con las que se lleva a cabo un proceso de soldadu-ra completamente automático, tanto en la operación de soldeo como sosteniendo la pieza. Procesos co-mo la soldadura GMAW (Gas Me-tal Arc Welding), a menudo auto-matizadas, no son necesariamente equivalentes a la soldadura robotiza-da, ya que el operador humano a

veces prepara los materiales a sol-dar. Los robots de soldadura pueden ser relativamente costosos, por lo que algunas industrias han tirado de agudeza y muchos robots básicos están siendo empleados para hacer también de soldadores.

También podemos optimizar las soldaduras debido a un proceso conocido como la firma de procesa-miento de imágenes en la que se recogen los datos que proporcionan los robots en tiempo real, se anali-zan y posteriormente se utilizan para crear mejores sistemas de sol-dadura.

La soldadura robotizada es una apli-cación relativamente nueva de la robótica, aunque los robots se in-trodujeron por primera vez en la industria estadounidense en la déca-da de 1960. El uso de robots en soldadura no despuntó hasta la dé-cada de 1980, cuando la industria del automóvil comenzó a usar ro-bots masivamente para la soldadura por puntos. Desde entonces, tanto la cantidad de robots empleados en la industria como la variedad de sus aplicaciones ha crecido en gran me-dida. A partir de 2005, más de 120.000 robots se usan en la indus-tria norteamericana, de los que en torno al 50% tienen que ver con la

Jesús Rosado Robles. Ingeniero Técnico Industrial y Graduado en Ingeniería Mecánica.

Imagen 1. Robots de soldadura en una línea de fabricación de vehículos. Ref: http//www.idasa..com

47 Nº6.Marzo de 2015

Tipos de soldaduras robotizadas

Generalmente, la soldadura roboti-zada se usa para la soldadura por puntos y la soldadura por arco. Pero en la actualidad, la mejora en nuevas tecnologías provoca que también se esté instaurando en los sistemas de fabricación la soldadura por rayo láser y la soldadura por ultrasoni-dos.

• Soldadura por puntos: como el término lo sugiere, la soldadura por puntos es un proceso en el que dos piezas de metal sé sueldan en pun-tos localizados al hacer pasar una gran corriente eléctrica a través de las piezas donde se efectúa la solda-dura. Como en la unión de los mis-mos la resistencia es mayor que en el resto de sus cuerpos, se generará el aumento de temperatura en la junta debido al efecto Joule. Apro-vechando esta energía y con un po-co de presión se logra la unión.

• Soldadura por arco: es un proceso de soldadura continua en oposición a la soldadura por puntos que po-dría considerarse un proceso dis-continuo. La soldadura de arco con-tinua se utiliza para obtener uniones largas o grandes uniones soldadas en las cuales se necesita una cierre hermético entre las dos piezas de

metal que se van a unir. El proceso utiliza un electrodo en forma de barra o alambre de metal para sumi-nistrar la alta corriente eléctrica que varía entre los 100 y 300 amperios.

La soldadura robotizada al arco ha empezado a crecer con rapidez y ya domina en torno al 20% de las apli-caciones industriales con robots. Los principales componentes de los robots de soldadura al arco son: a) el manipulador o la unidad mecá-nica: es lo que hace que el robot se mueva.

b) el controlador: actúa como cere-bro del robot.

El diseño de estos sistemas puede catalogarse en varias clases, tales como el Scara y el robot de coorde-nadas cartesianas, que usan diversos sistemas de coordenadas para dirigir los brazos de la máquina. Por últi-mo, hay que añadir que este tipo de soldadura se aplica en producción a gran escala como por ejemplo la

industria del automóvil.

En la imagen 5 se puede apreciar cómo se ejerce presión para que se produzca la soldadura.

Tipos de robots de soldadura industriales

Existen básicamente dos tipos de robots industriales:

1. Robots rectilíneos: tienen forma de caja y se mueven en torno a tres ejes. Tienen una "muñeca" al final de su brazo de desplazamiento que les permite mover el brazo en rota-ción. Son los que pueden ser más comunes a simple vista.

2. Robots articulados: se mueven de forma irregular. Tienen brazos y articulaciones que realizan movi-mientos giratorios. En este tipo de robots, el brazo se mueve de mane-ra similar al funcionamiento de un brazo humano. También tienen la "muñeca" que gira en el extremo del brazo, al igual que los rectilí-neos. Imagen 4. Robot aplicando soldadura por puntos

en una viga Ref: http://www.ekroboter.com

Imagen 5. Robot aplicando soldadura por arco Ref: http://www.ekroboter.com

Imagen 2. Croquis de un robot rectilíneo Ref: http//:www.community.fortunecity.com

Imagen 3. Croquis de un robot articulado Ref: http//www.tecnoficio.com

48 Nº6.Marzo de 2015

láser se transmite directamente y sin pérdidas al material a soldar.

La aportación de un gas inerte co-mo argón o helio en el proceso de soldadura evita la formación de bur-bujas de oxígeno durante la fase líquida del material, atenuando así la porosidad en la soldadura. De ésta manera, gracias a la soldadura por rayo láser se consigue un cordón homogéneo dirigido a un pequeño área de la pieza, con lo que se redu-cen así las posibilidades de alterar propiedades químicas y físicas del material soldado.

Mediante la utilización de otros ti-pos de espejos focalizadores como

el espejo de doble foco es posible controlar en cierta medida tanto la profundidad de penetración como la anchura del cordón de soldadura.

• Soldadura por ultrasonidos: el tér-mino ultrasonidos es debido a que la vibración similar a las ondas so-noras se produce a una frecuencia próxima a los 20 kHz (vibra unas 20.000 veces por segundo), frecuen-cia que está en el rango de los ultra-sonidos. Esta frecuencia es dema-siado elevada para ser percibida por el oído humano, que registra un máximo de percepción de unos 16 kHz.

En la soldadura por ultrasonidos se colocan los materiales entre el yun-que y el sonotrodo, uno encima de otro y después se baja la punta de la máquina. Ésta emite una onda ultra-sónica que mueve las moléculas de ambos materiales provocando que se fundan. Los parámetros deben de ser ajustados cada vez que se altera el espesor de la pared de los materiales a fundir.

• Soldadura por rayo láser: es un proceso de soldadura por fusión que utiliza la energía aportada por un haz láser para fundir y recristali-zar el material o los materiales a unir, obteniéndose la correspon-diente unión entre los elementos involucrados. En la soldadura láser no existe aportación de ningún ma-terial externo y la soldadura se reali-za por el calentamiento de la zona a soldar y la posterior aplicación de presión entre estos puntos.

Mediante espejos se focaliza toda la energía del láser en una zona reduci-da del material. Gracias a la gran energía aportada incluso después de que el material llegue a la tempera-tura de fusión, se produce la ioniza-ción de la mezcla del material fundi-do con los vapores generados en el proceso (formación de plasma).

La capacidad de absorción energéti-ca del plasma es mayor incluso que la del material fundido, por lo que prácticamente toda la energía del

Imagen 6. Detalle de la aplicación de una solda-dura por rayo láser Ref: http://www.trumpf.com

Imagen 7. Esquema explicativo del funcionamiento de la soldadura por rayo láser

49 Nº6.Marzo de 2015

Imagen 6. Esquema explicativo del funcionamiento de la soldadura por rayo láser

- Flexibilidad: posibilidad de soldar diferentes familias de piezas simul-táneamente.

- Productividad: ahorros de tiempo de ciclo de hasta del 70%.

- Calidad: alta calidad de soldadura, mínimas proyecciones y homoge-neidad de las piezas.

- Rentabilidad: precios más compe-titivos en el mercado.

- Mayor precisión: se evitan las fal-tas de precisión humanas provoca-das por el cansancio.

- No hay “sindicatos de robots”, pueden trabajar sin descanso duran-te el tiempo requerido.

- Tareas peligrosas: pueden realizar trabajos en lugares con atmosferas nocivas para la salud humana.

Inconvenientes

- Pueden ser peligrosos: deben aco-tarse las áreas de trabajo de los ro-bots dentro de las fábricas con el fin de evitar posibles accidentes.

- Desplazamiento de mano de obra humana: la implantación de robots en los sistemas de fabricación está provocando un incremento de des-empleo.

A continuación y ya para finalizar, podemos ver un gráfico donde se muestra la tasa de desempleo según la ONU debido a la puesta en mar-cha de robots en las fábricas.

Ventajas

En cuanto a las principales ventajas que proporcionan los robots de sol-dadura industriales podemos citar las siguientes:

- Polivalencia: capacidad para soldar diversas gamas de piezas, siempre en series largas.

“Introducir aquí alguna frase del artículo que capte el interés del lector”-

Imagen 8. Robot encargado de realizar soldaduras por ultrasonidos Ref.: http://www.interempresas.net

REFERENCIAS Y BIBLIOGRAFÍA:

Automatismos industriales

Autor: Juan Carlos Martín y Maria Pilar García

Editorial: Editex

- http://www.inser-robotica.com

- http://www.advice-business.com

- http://www.eina.es

- http://www.ifer.es

50 Nº6.Marzo de 2015

tos para realizar este proyecto, pero sin éxito. En 1881 había dos pro-yectos competidores por realizar el túnel, que tras comenzar las obras se suspendieron por motivos de defensa militar. A partir de este mo-mento y hasta 1950 el Parlamento Británico rechazaría hasta diez pro-yectos de Ley del Canal de la Man-cha, la mayoría por razones de segu-ridad nacional. Otro intento se lle-varía a cabo en 1922 pero también fue abandonado.

En 1966 los gobiernos británico y

francés anunciaban que perforarían los túneles con un costo estimado de 365 millones de libras, pero fi-nalmente este proyecto tampoco se llevaría a cabo debido a la incons-tante política británica de principios de la década de 1970. Por lo que las

obras se paralizaron en enero de 1975 después de haber cavado dos túneles de acceso de casi un kilóme-tro de longitud.

Sería después del 21 de Julio de 1987 cuando el túnel empezase a ser una realidad, al ser firmado un acuerdo entre la primer ministra británica Margaret Thatcher y el presidente francés François Mitte-rrand para construir el túnel con un presupuesto inicial de 4500 millones de euros procedentes de financia-ción privada.

En Diciembre de 1987 se comien-zan las excavaciones a ambos lados del canal. En la parte británica, ha-bía una plantilla de 4000 hombres con experiencia previa en la cons-trucción de túneles, y en la parte francesa otros 4000 hombres que habían recibido preparación pero con menos expertos en la materia. Ambas compañías contaban a su vez con sendas tuneladoras de 200 metros aproximadamente, pero con características diferentes, en el lado británico la tuneladora era más rápi-da, pero sin sellado al agua, caracte-rística que si tenía su homóloga francesa aunque un 25% más lenta. Todos estos factores jugarían su papel a lo largo de la construcción del túnel, ya que en los dos extre-mos no solo querían ser los prime-ros en llegar al punto medio, sino que de no serlo afectaría al orgullo nacional por ambas partes, por lo que el reto era doble.

Un mes después del comienzo del túnel y debido a que el terreno esta-ba seco las tuneladoras británicas empezaban a sacar ventaja, pero en esta carrera no solo era importante la velocidad, seguir la trayectoria proyectada y encontrarse en el pun-to medio bajo el Canal de la Man-cha con un margen de error de 2,5

El eurotunel es una gran obra de ingeniería moderna utilizado hoy en día para el transporte de pasajeros y de mercancías entre el Reino Unido y el continente europeo a través de Francia.

Aunque históricamente Inglaterra y Francia fuesen enemigos bélicos durante cientos de años hasta el siglo XIX, la necesidad de intercam-bio comercial y de comunicación entre ambos países fueron los in-centivos para la construcción de este túnel.

La idea de construcción de un túnel fue sugerida por primera vez en 1802 por el ingeniero de minas Al-bert Mathieu-Favier de nacionalidad francesa. Desde entonces se lleva-ron a cabo varios proyectos e inten-

EL EUROTUNEL. LUCHA POR UNA

EUROPA MÁS UNIDA.

LUIS MUÑOZ IZQUIERDO. INGENIERO AERONÁUTICO.

“A lo largo de los últimos 200 años, ha habido varias propuestas para construir un túnel que uniese Inglaterra

con Europa”

51 Nº6.Marzo de 2015

contaba con un equipo de geólogos. El primer objetivo fue obtener la trayectoria a seguir, para esto recu-rrieron a la geología, buscando un estrato con unas características ade-cuadas para la perforación del túnel. Este estrato debía ser esencialmente impermeable para evitar las inunda-ciones y lo suficientemente compac-to para no desmoronarse durante la perforación. Estas características las reunía la arcilla calcárea presente bajo el canal. Una vez identificado el tipo de roca apropiada quedaba

por definir algo más complicado, la trayectoria de su estrato. Para esta tarea se taladraron doce agujeros en el lecho marino para medir los cam-bios de velocidad de las ondas emi-tidas por un sensor, a medida que este atravesaba distintos estratos del fondo marino. La idea, en teoría, es sencilla pero llevarla a cabo fue compleja debido a que el Canal de la Mancha es zona de encuentro de dos mares, por lo que es una zona de aguas turbulentas y con gran trá-fico de barcos, además este procedi-miento obtenía medidas discretas a lo largo del canal, por lo que entre dos puntos de medida se debía in-terpolar la trayectoria del estrato, teniendo así una cierta incertidum-

bre, además estos estudios basados en ondas de sonido solo dan el cur-so del estrato, no la calidad del mis-mo.

En la primavera de 1988, las perfo-raciones iban según lo proyectado y los plazos se iban cumpliendo se-gún lo previsto hasta que sucedió algo que era probable e indeseable a la vez. En el túnel de servicio del lado británico aparecieron filtracio-nes de agua salada de hasta 300 li-tros por minuto, lo que indicaba que había filtraciones del mar hacia

el túnel. Esto implicó la parada par-cial de la obra en el lado británico para dar solución al problema que estaba poniendo en peligro la conti-nuidad del proyecto y la vida de los obreros británicos. La solución con-sistió en taponar las grietas y susti-tuir las vigas de hormigón por otras de hierro forjado, pero seguirían encontrándose con fracturas del estrato de tiza azul, tal y como se ve en el figura 2, resultando en filtra-ciones de agua y desprendimientos de roca, lo que dificultaba el trabajo. Además las tuneladoras británicas no poseían impermeabilización al-guna, por lo que los cortocircuitos en la maquinaria y las averías de esta hacían que se empezasen a tener

metros era esencial, de lo contrario habría que introducir correcciones de última hora con la consecuente aparición de curvas bruscas, algo inadmisible cuando los trenes circu-lan a alta velocidad. Además de es-to, otra razón por la cual era impor-tante seguir la trayectoria proyecta-da era debida a la necesidad de se-guir el estrato de tiza azul (o arcilla calcárea), que se puede ver en la figura 1, por el cual discurriría el túnel, ya que este estrato era im-permeable y lo suficientemente

compacto como para soportar las altas presiones de las paredes y un desvío podría provocar tanto la apa-rición de filtraciones de agua al tú-nel como el colapso del mismo. To-dos estos requerimientos más los inherentes a la perforación de un túnel, en el que además éste consta de 34 kilómetros, hicieron que el trabajo de los topógrafos fuese tan importante en el proyecto.

En Agosto de 1986, 18 meses antes de comenzar las perforaciones, se llevó a cabo el estudio topográfico sin precedentes, que obtendría la trayectoria del túnel y la mantendría según lo estimado a lo largo de las obras. Al mando de esta tarea esta-ba el topógrafo Erick Tracfilt que

Figura 1. Sección longitudinal del túnel del Canal, donde se aprecian los estratos de roca, la profundidad del lecho marino y la del túnel.

52 Nº6.Marzo de 2015

una zona de almacenaje de los bloques de hormigón pre-fabricado, pero contaban con el inconveniente de los acantila-dos de la costa británica, que no les permitía el almacena-

miento de estos, a diferencia del lado francés que contaban con cos-tas llanas. Este contratiem-po fue resuelto audazmen-te ganándole terreno al mar, vertiendo a este las 36000 toneladas de roca que las tuneladoras ex-traían cada día, aumentan-do la superficie británica en unas 36 hectáreas al finalizado de las obras. El aspecto aéreo es el de la figura 3, donde finalizadas las obras se construyó un parque, el Samphire Hoe Park. También se aprecia el recorrido de los dos túneles principales bajo tierra y bajo el canal.

Serían los británicos los que final-

mente alcanzasen en primer lugar el punto de encuentro. El 1 de Di-ciembre de 1990 se producía final-mente el encuentro entre ambos lados bajo el canal. Graham Fagg en el lado inglés y Philippe Cozette en el lado francés unían sus manos en señal de unión, figura 4. Por prime-ra vez tras la Edad de Hielo, hace 13000 años, Inglaterra volvía a que-dar conectada por vía terrestre a Europa tras tres años de perforacio-nes. También fue destacable la pre-cisión con la que ambos lados del

túnel se encontraron, unos escasos 30 centímetros que premiaban el gran trabajo realizado por los topó-grafos.

Tras el encuentro de los dos extre-mos del túnel había que continuar con el proyecto. Se debían construir las terminales, instalar las vías fé-rreas, instalar el sistema de refrige-ración para extraer el calor genera-do por el tránsito de los trenes, también había que construir los tre-nes para el transporte de camiones, coches y pasajeros a través del ca-nal. La complejidad del proyecto y la acumulación de retrasos hizo que se pasase de un presupuesto inicial de 1900 a 3000 millones de euros.

contratiempos. Sin embargo, en el lado francés habían sido advertidos por los geólogos de la presencia de fracturas del estrato de tiza azul en su lado del túnel, por lo que la utili-zación de tuneladoras más lentas, pero impermeabilizadas, empezaba a dar sus frutos.

En enero de 1989, tras unos duros 9 meses los británicos llegan a una zona más seca, por lo que, en teoría, volvían a disponer de su ventaja inicial de tener unas tuneladoras un 30% más rápidas que las francesas. Pero para conservar esta ventaja y volver al liderato de la carrera de-bían mantener el suministro de blo-ques de hormigón para el reforzado de las paredes del túnel a medida que avanzaban las tuneladoras. Para proveer este suministro, necesitaban

Figura 2. Recreación de las fracturas del estrato de tiza azul, a través de las cuales se construye el túnel.

Figura 3. Rodeado en rojo, el Samphire Hoe Park a los pies de los acantilados de la costa británi-ca, construido y utilizado durante la perforación del eurotunel. También se puede ver en la ima-gen el recorrido de los dos túneles principales bajo tierra y mar. Fuente: Google Maps.

Figura 4. Momento en el que los trabajadores del túnel Graham Fagg y Philippe Cozette estrechan sus manos.

53 Nº6.Marzo de 2015

disponen dos túneles principales, de 7,6 metros de diámetro, para el tránsito de los trenes, un túnel para cada sentido. Entre los dos túneles principales hay un túnel de servicio, de unos 4,8 metros de diámetro, conectado a estos cada 375 metros, para llevar a cabo las labores de mantenimiento, o la evacuación en caso de emergencia, además este túnel de servicio mantiene una pre-sión del aire superior a los túneles principales para evitar la entrada de

humo en caso de incendio. Los dos túneles principales también están conectados entre sí por conductos de 2 metros de diámetro cada 250 metros, con el objetivo de igualar las diferencias de presión provoca-das por el tránsito de los trenes a alta velocidad. Estos túneles son utilizados por tres tipos de trenes, según se trate de pasajeros, automó-viles o camiones.

La Sociedad Norteamericana de Ingenieros civiles considera el euro-túnel como una de las Siete Maravi-

llas del Mundo Moderno, conectan-do Inglaterra con el resto de Euro-pa como nunca antes. A día de hoy es posible ir de Londres a París en dos horas y cuarto, la mitad de tiempo que se necesitaba antes de la construcción del túnel, cruzando el canal en unos 35 minutos, a diferen-cia del ferri que emplea una hora y cuarto.

Un túnel submarino para unir dos naciones con diferencias a lo largo de la historia parecía un proyecto

imposible, pero el eurotúnel es hoy una realidad, que ha superado el escepticismo, las deudas, un incen-dio, y las inundaciones durante su perforación.

Finalmente el 6 de Mayo de 1994 la reina de Inglaterra y el presidente francés inauguran el túnel del canal con un año de retraso. Los retrasos y los intereses habían elevado el coste total del proyecto a los 15000 millones de euros. Pero además de esto, aumentó la competencia entre las empresas de ferris y las compa-ñías aéreas, lo que no favoreció el uso del túnel y provocó un endeu-damiento aún mayor de este. Un incendio el 18 de Noviembre de

1996 en un tren que transportaba camiones, sin víctimas mortales gra-cias al sistema de emergencia del que disponen los túneles, dañó la imagen del túnel tras llevar abierto un año y medio. Pero con el tiem-po, el uso del túnel fue en aumento, y tras 10 años desde su puesta en funcionamiento más de 150 millo-nes de personas han cruzado el ca-nal a través del túnel, más del doble de la población del Reino Unido.

En la figura 5 se aprecia en detalle la constitución de los túneles. Se

REFERENCIAS:

- www.fierasdelaingenieria.com

- www.wikipedia.com

- National Geographic Channel, “El túnel del canal”.

Figura 5. Representación de dos secciones transversales y una longitudinal del eurotunel.

54 Nº6.Marzo de 2015

LIMITACIONES ESTRUCTURALES DE ENTRAMADOS DE PÓRTICOS EN EDIFICIOS DE

GRAN ALTURA

De hecho una de las primeras soluciones de la oficina de arquitectos SOM, cuyo trabajo resulta básico en el desarrollo de la tipología de edificios en altura, es un salto de escala del sistema de entramado. Esta propues-

ta idea de Myron Goldsmith, ingeniero de la firma y su es-quema lo podemos ver en la figura 3.2.

Se trata de una superestructu-ra de grandes pórticos forma-dos por dinteles Vierendel que ocupan toda una planta y grandes pilares de forma que cinco grandes marcos acogen las estructura menuda que soportan los forjados, los pila-res de esta subestructura des-cansando cuelgan de las vigas Vierendel cada cierto número de plantas. El proyecto se desarrolla para ochenta plan-tas y esbeltez mínima 5. Si bien no llegó a plasmarse en ninguna solución en esta pri-mera época la idea de super subestructura permaneció y está en la base de otros siste-mas. Una ventaja adicional de soluciones de este tipo se de-be a la mayor capacidad de resistir momentos de vuelco; la retícula que propone el en-

tramado tiende a distribuir uniformemente las cargas en planta mientras que la propuesta de Goldsmith la concentra en la periferia consiguiendo mayor brazo de palanca y pilares exteriores mas cargados verticalmente.

Entramados de pórticos:

Los entramados de pórticos metálicos son el sistema básico del rascacielos neoyorquino que define el tipo de la primera generación de edificios en altura. Hoy en día su uso se restringe a las veinte plantas recomendadas para pórticos de hormigón y a las treinta para pórticos metálicos. Sin embargo hay que anotar los más de tres-cientos metros de altura del Empire State y el Chrysler Building conseguidos con el sistema porticado si bien ayu-dado en plantas bajas con el arriostramiento mediante acodalamientos metálicos.

A partir de estos datos es evi-dente que el dimensionado del dintel es mucho mayor que el necesario para cargas verticales y que se intenta siempre una igualdad de rigi-deces entre pilar y viga de modo que el grado de empo-tramiento entre ambos sea elevado y por lo tanto la rigi-dez del marco de cada planta frente a la distorsión por cor-tante sea alta.

La eficiencia del sistema dis-minuye cuando el dintel se dimensiona para cada planta desde la carga lateral en vez de las verticales. El problema está en la superposi-ción de plantas que fuerza a tomar una unidad excesi-vamente pequeña para la escala total del edificio.

Es decir la unidad de planta estructura con dificultad los edificios en altura a partir de las 30-40 plantas.

OSCAR ESCUDERO CUBILLO. ARQUITECTO TÉCNICO E INGENIERO DE EDIFICACIÓN.

Nº 1. Fig. 3.1. Empire State y Chrysler Building Ref: . Structural tipologies for tall buildings. Editor: Félix Scrig.

PONER AQUÍ IMAGEN

Nº 2. Fig. 3.2. Superestructura de Myron GodSmith Refl. Structural tipologies for tall buildings. Editor: Félix Scrig.

PONER AQUÍ IMAGEN

55 Nº6.Marzo de 2015

tas, quizá sea su propuesta de rasca-cielos lenticular para Cap Le Marina la que mas influencia tuvo (v/figura 3.3) En este caso estamos ante plan-tas rectangulares que adoptan la forma lenticular para alojar los nú-cleos de comunicaciones y que en desarrollos posteriores se adaptará a sistemas con pantallas en la direc-ción mas corta.

Estas propuestas que nos pueden servir para analizar las siguientes cuestiones:

La eficiencia del tipo bajo la óptica racionalista de ambos maestros.

La dicotomía acero/hormigón que representan ambos arqui-tectos perfectamente

Los grados de libertad que tiene la solución arquitectónica res-pecto a la estructural.

Geométricamente la retícula que ambos proponen se basa en un mó-dulo que esta entres 6.25 metros en Cap Le Marine y 8 metros en el Sea-gram. Respecto a la solución de la primera generación el módulo se ha ampliado ligeramente, la altura de

planta se reduce 3.1 metros en el caso de Corbusier y 2.70 en el caso miesiano, también se reduce la altu-ra total propuesta, 172 metros en Cap Le Marine y 155 metros en el Seagram si bien la esbeltez sigue siendo próxima a cuatro. Con estos datos geométricos se pretende un dimensionado mas reducido, esbel-teces de un décimo de la luz para dinteles por ejemplo, es decir pare-cido al necesario para cargas verti-cales. Hay que decir que en ninguno de los dos casos se consiguió, el Seagram necesitó pantallas y las ver-siones lenticulares de Nervi, basadas en Cap Le Marine fueron pensadas desde el principio con sistemas de pantallas en la dirección más corta.

La retícula la emplean ambos de modo diferente, en el caso de Mies el atado de forma a dicha retícula es completo y la lleva mediante sub-módulos a diseñar la fachada, que expresa de alguna forma la estructu-ra.

Cap Le Marine es un diseño mucho más libre si bien construida con el mismo material que la estructura, el hormigón, la fachada está libre de ataduras estructurales. Pero esto no es la cuestión básica.

La retícula estructural:

Los sistemas de entramado de la primera generación sirvieron de base a las propuestas de arquitectos como Mies y Le Corbusier. Ambos van a simplificar no solo la decora-ción externa sino también la forma del edificio. Se abandona la torre escalonada y se opta por el prisma mas o menos rectangular en planta, el rascacielos no rellena una manza-na completa sino que se sitúa como objeto dentro de ella. El resultado es una disminución de las alturas posibles, debido a las limitaciones del sistema de pórticos, mantenién-dose en el mismo campo de esbelte-ces, entre tres o cuatro.

Del primero es fácil escoger un ejemplo el edificio Seagram (v/figura 3.4) dada su influencia es característico. En este caso estamos ante un diseño de fachada que dará lugar a una solución estructural: El Tubo exterior. Del segundo resulta algo más difícil dado que la mayor parte de sus propuestas de edificios en altura se basan en desarrollos más horizontales que verticales aun-que tuvieran gran número de plan-

Nº 4. Fig. 3.4. Edificio Seagram. Mies Van der Rohe. El rascacielos en acero. Ref: Structural tipologies for tall buildings. Editor: Félix Scrig.

Nº 3. Fig. 3.3. Rascacielos de hormigón. Le Corbusier. Cap le Marine Ref: Structural tipologies for tall buildings. Editor: Félix Scrig.

56 Nº6.Marzo de 2015

del acero mientras que Le Corbusier plantea el rascacielos de hormigón seguido por muchos ingenieros eu-ropeos siendo el mas importante Nervi por su capacidad de aunar

estética y estructura. La compara-ción entre ambos materiales es complicada si queremos destacar una determinada superioridad. Si bien hay que partir del dato del ma-yor número de plantas aceptados de forma eficiente por el acero.

Enumerando algunas características podemos comenzar observando que el acero es, para una deforma-ción unitaria, siete y ocho veces mas rígido, haciendo una comparación aproximada entre los módulos de elasticidad. Sin embargo también es mucho mas resistente y por lo tanto las inercias necesarias menores que en hormigón. El resultado es que la masa estructural es menor en el ace-ro por lo que los períodos son ma-yores. Entre un 10 y un 15 por cien-

to para pórticos, resultando los pór-ticos metálicos más flexibles.

A este dato hay que añadir la mayor capacidad de amortiguación que tienen las estructuras de hormigón,

debido a la capacidad de disipar energía por fisuración. Otro campo de comparación es el del comporta-miento no lineal, el acero tiene una razón entre desplazamientos anelás-ticos y elásticos mayor que el hor-migón, sin embargo las secciones propias del hormigón tienen mejor comportamiento plástico que las del acero. Es decir una sección rectan-gular tiene una relación entre mo-mento plástico y momento de servi-cio mayor que un perfil en I por lo que desde el punto de vista de la ductilidad ambos materiales se con-sideran normalmente en pie de igualdad. En este tema de la ductili-dad resulta mas importante el dise-ño de la estructura y el tipo estruc-tural de pórticos, que dado su hiper-estatismo y por lo tanto su capaci-dad de formar rotulas plásticas es el único que la norma sísmica admite que se diseñe con ductilidad muy alta.

El planteamiento de la estructura de pórticos con cargas horizontales importantes, es inverso respecto al de cargas verticales. Para la acción vertical el nudo rígido hace que el pilar coaccione el giro de la viga y reduzca su flecha.

Con cargas laterales, es la viga la que coarta el desplazamiento del pilar provocando un punto de infle-xión

El aspecto exterior en este caso puede tener muchísimas variantes que podemos calificar de ornamen-tales. Más importante es que la retí-cula ata la forma perimetral en plan-

ta y en este sentido los sistemas de pantallas o tubos interiores dan ma-yor libertad a la forma perimetral. Dicha forma está ligada al rectángu-lo y al cuadrado. Una planta trian-gular o circular que es muy posible para torres no acepta bien un siste-ma que desarrolla sus capacidades frente a cargas laterales en dos di-recciones perpendiculares. En una solución radial la capacidad de cada pórtico varia con la dirección y si acoplamos la retícula al circulo va-mos a tener que los pórticos tienen rigideces diferentes. A cambio la retícula da una gran libertad de dis-tribución interior sin ataduras que fijen las posibilidades de la planta.

En cuanto al material Mies perma-nece ligado a la tradición americana

Nº 5. Empire State Building. Estructura porticada en construcción. Ref: www.historynyc.com

PONER AQUÍ IMAGEN

A cambio de las grandes limitaciones del número de plantas soportado, la retícula da una gran libertad de distribución interior sin ataduras que fijen las posibilidades de la planta.

57 Nº6.Marzo de 2015

bido por el dintel. El diagrama de flectores de los dinteles tiene el mis-mo valor en cada nivel. El esquema de cortantes en dinteles tienen el mismo valor en todas las plantas.

Sin embargo la suposición de parti-

da es incorrecta en las plantas bajas y lleva a errores del lado de la inse-guridad. En algunos casos los pila-res de plantas bajas no llegan a te-ner punto de inflexión y se compor-tan como ménsulas. Los manuales usuales sobre resistencia de materia-les suelen dar información sobre

métodos correctores.

El comportamiento real supone que al mismo tiempo que sube el punto de momento nulo en pilares el in-cremento en cada planta es mayor debido a que la flexión en cabeza del pilar es menor que en la base. Del mismo modo el esquema de flectores en dinteles aumenta de valor en cada planta de arriba abajo. El diagrama de cortantes en dinteles aumenta también de arriba abajo en correspondencia con el aumento del

axil en pilares planta a planta debido al incremento del momento de vuelco de arriba abajo (v/figura 3.5). El resultado es que la deforma-ción del pórtico es de tipo cortante en un 90% y por axil en pilares de un 10%. La deformación por corte se reparte entre pilares y vigas sien-do mayor el cortante en dinteles y los flectores en pilares para las pro-porciones usuales.

La limitación de los desplazamien-tos elásticos en cabeza del pórtico usual en las normas se debe a la magnificación del momento del vuelco que provocan estos despla-zamientos. (v/figura 3.6).

Cuando los desplazamientos hori-zontales son grandes, los axiles en los pilares provocan nuevos mo-mentos de vuelco en un proceso no lineal de tipo geométrico.

El análisis que se suele hacer es de tipo iterativo. Si en el proceso de cálculo de los sucesivos desplaza-mientos la serie converge el edificio es estable si no es así se produce el pandeo global. Este análisis que se puede simplificar utilizando dos

iteraciones.

Desde un punto de vista global se puede analizar en el ámbito del dise-ño el factor de magnificación del momento inicial en función de la altura, el peso total y el giro inicial resultante del primer cálculo.

Existe una cuestión adicional del mismo tipo pero al nivel de planta. El desplazamiento relativo entre cabeza y pie de un pilar se limita, pues se puede producir el pandeo

en su deformada si la relación de rigideces entre viga y pilar es sufi-ciente. Cuando los momentos que el pilar transmite a la viga por ac-ción lateral superan a los que el dintel tiene por acción vertical esta-mos en un caso claro de predomi-nancia a la acción lateral.

Quiere esto decir que la relación de rigideces es muy importante. Si el dintel es muy rígido podemos con-siderar la rigidez de planta igual a la rigidez simple a cortante. (v/figura3.5). En general podemos definir un factor de empotramiento que reduce este máximo en función de las rigideces relativas.

La consecuencia en diseño es que las esbelteces de viga y pilar no de-ben estar muy alejadas para conse-guir un efectivo comportamiento frente a la distorsión de cada planta. Por ejemplo las proporciones de pilares y vigas en estos casos son similares en los pórticos de carga y en los pórticos de atado.

Para obtener un predimensionado rápido es posible utilizar el método del portal basado en que el punto

de inflexión y por lo tanto de mo-mento nulo se supone situado en un punto medio del pilar. En este pun-to solo tendremos cortantes y axiles y es inmediato la obtención de los esfuerzos de forma aproximada. (v/figura 3.5).

En este método los momentos flec-tores incrementan su valor en cada planta, puesto que en cada una se incrementa su inclinación debido al aumento de cortante. El valor del incremento no equilibrado es absor-

Cuando los desplazamientos horizontales son grandes, los axiles en los pilares provocan nuevos momentos de vuelco en un proceso no lineal de tipo geométrico

Nº 6. Fig. 3.5. Predimensionado de pórticos frente a acciones horizontales. Ref: Structural tipologies for tall buildings.

58 Nº6.Marzo de 2015

adopta el método general de la nor-ma, pueden analizar estructuras que no cumplen las limitaciones geomé-tricas del método simplificado.

En cualquier caso siempre es posi-ble acudir a un cálculo dinámico basado en la concentración de las masas en los nudos y en la subsi-guiente definición de la matriz diná-mica de masas. Este tipo de cálculo será necesario siempre que el forja-do no sea rígido en su plano.

Para análisis previo podemos acudir a métodos de cálculo del periodo y la frecuencia simplificados.

El sistemas de pórticos planos re-sulta estable por la combinación de pórticos de carga y de atado en di-recciones preferentemente perpen-diculares. Frente a la acción lateral se produce un reparto de ésta entre los pórticos en cada dirección.

Este reparto depende de la flexibili-dad del forjado en su plano. Y en general es preferible que el forjado sea un plano rígido que iguale los desplazamientos de cada pórtico. Esta igualdad será posible si la es-tructura es simétrica, es decir si el

centro de masas del forjado y el centro de giro que definen los pórti-cos coincide, en caso contrario ten-dremos rotación del forjado. Esta rotación también se produce por acción dinámica de viento en casos de plantas simétricas al combinarse las acciones dinámicas longitudinal y transversal del viento.

En el caso de simetría el reparto se produce en función de la relación entre la rigidez de cada pórtico y la rigidez total.

En el segundo caso la resultante de acciones horizontales, que pasa por el centro de masas, producirá un par torsor respecto al centro de gi-ro. Este par se repartirá en función de la relación entre rigidez al giro de cada pórtico y la rigidez total. Es decir el reparto es proporcional a la rigidez del pórtico y a su distancia al centro de giro.

La estructura de entramado no es adecuada para momentos torsores fuertes, debido a su distribución homogénea en planta, en estos ca-sos resulta mas adecuada las estruc-turas que se sitúan en la periferia, o bien los tubos interiores de hormi-gón.

Hemos propuesto como notas cla-ves para el diseño de pórticos en edificios altos, la rigidez del forjado en su plano, el reparto bidireccional de las cargas laterales, una adecuada relación entre rigidez de viga y rigi-dez de pilar y una limitación de des-plazamientos horizontales para evi-tar el pandeo global, la planta es la unidad estructural.

Dinámicamente la rigidez del forja-do implica una reducción de los grados de libertad a 3 por planta, dos traslacionales y uno rotacional ,

local del pilar.

Cuando el desplazamiento relativo es importante se produce el cizalla-miento del pilar por cortante. La limitación se establece limitando la relación entre el momento de vuel-co de planta al momento producido por los axiles respecto a la base del pilar. (v/figura 3.6).

En cualquiera de los dos casos esta-mos ante una limitación importante de la flexibilidad de la estructura que parte pues de una rigidez míni-ma para el estudio dinámico.

El cálculo dinámico de pórticos es un problema complejo que se puede atacar con diferentes grados de sim-plificación.

La norma NSCE establece el mode-lo de cortantes en su método sim-plificado y general. Ambos basados en el método de superposición mo-dal.

El modelo de cortantes reduce los grados de libertad a tres por planta, dos traslacionales y uno rotacional. Los programas de cálculo de estruc-turas para edificación actuales llevan un módulo de cálculo dinámico que

Nº 7. Fig. 3.6. Estabilidad de pórticos Ref: Structural tipologies for tall buildings. Editor: Félix Scrig.

59 Nº6.Marzo de 2015

pues no funciona el modelo de cor-tantes y es necesario introducir en la matriz de masa los efectos inerciales de las masas distribuidas, siendo los grados de libertad definidos por el número de nudos y por los grados de libertad de ellos. Es decir no vi-bran solo los pilares sino que los dinteles también tienen vibración vertical.

La cuestión del uso posible que en el sistema de pórticos por plantas está muy ligado al módulo de la retí-cula. Se puede resolver en el sistema porticado a gran escala pues el mó-dulo de la subestructura es suscepti-ble de variación en cada grupo de plantas cambiando el diseño de montantes en las grandes vigas, de este modo es posible que la estruc-tura de entramado responda a las necesidades de las torres multifun-cionales.

Como solución a las limitaciones que planteaba la estructura portica-da más adelante se abordó una tipo-logía básica: la pantalla, que permite a partir de soluciones simples en ménsula, el sistema estructural se

puede ir haciendo más complejo alcanzando mayores cotas de rigi-dez. Para ello la pantalla se une al pórtico, o forma núcleos. El resulta-do de esta implementación estructu-ral es que la solución con base en pantallas o núcleos es totalmente actual como lo demuestran los ejemplos de Rogers y Foster; la pantalla tiene mas posibilidades: diseñarlas con grandes pilares con-tinuos en los externos de modo que exista una colaboración entre el tra-bajo de axiles y el de cortantes.

cuyo cálculo se puede hacer me-diante la simplificación del modelo de cortantes.

El sistema se muestra eficiente en el entorno de las veinte plantas para hormigón y treinta para acero, a partir de ahí la planta cono unidad estructural de funcionar al hacerse insostenible la necesaria proporción dintel/pilar. Asimismo el periodo de la estructura comienza a ser de-masiado amplio, la masa estructural aumenta sin los proporcionales au-mentos de rigidez y por lo tanto la frecuencia baja.

La solución de megapórtico de Goldsmith resuelve el problema escalar al abandonar la unidad de planta y resuelve el reparto de car-gas en cimentación evitando las tracciones al concentrar las cargas en la periferia. La masa estructural disminuye para la misma rigidez, no solo por la concentración estructu-ral y aumento de inercia sino tam-bién por las posibilidades que ofre-ce de disminuir la masa de los forja-dos que ya no necesitan tanta rigi-dez (v/figura 3.7).

El cálculo dinámico se complica

REFERENCIAS Y BIBLIOGRAFÍA:

Star structural arquitecture. Structural tipologies for tall buildings. Editor: Félix Scrig.

www.historynyc.com

Nº 8. Fig. 3.7. Los pórticos como superestructura. Ref: Structural tipologies for tall buildings. Editor: Félix Scrig.

60 Nº6.Marzo de 2015

mentación completamente nueva, donde se suprimirá, o no se tendrá en cuenta la cimentación existente.

Se comentaran a continua-ción alguno de los recalces más uti-lizados actualmente en edificación.

1. REFUERZO MEDIANTE IN-YECCIÓN

La inyección a presión de lechada o mortero de cemento pue-de ser una buena solución para me-jorar cimentaciones de baja calidad.

La inyección necesita espa-cios comunicados para poder pro-gresar, por lo que sólo es posible en macizos de cimentación, frecuentes en edificios antiguos, constituidos por mampostería en seco, gravas o incluso cascote, que como mucho puedan tener un aglomerante muy bajo en dosificación y, en conse-cuencia, degradado. Algunos hormi-gones excesivamente pobres y de

mala granulometría pueden estar también degradados y son en reali-dad un árido con profusión de hue-cos, apto también para la inyección.

La inyección consiste en rellenar con lechada o mortero de cemento, mediante la presión pro-porcionada por un compresor, los huecos existentes en la cimentación, la cual, junto con el material que lo constituye, formará al fraguar un hormigón de mayor resistencia.

Tiene la inyección la ventaja de que la puesta en carga está asegu-rada en la misma operación. El ma-yor inconveniente estriba en la in-certidumbre, al tratarse de una ope-ración ciega, de que no haya sido correctamente inyectada toda la ma-sa, por lo que habrá que llegar, en caso de duda, a la extracción de tes-tigos convenientemente situados para la comprobación de este extre-mo.

Esta técnica de refuerzo ne-cesita, no sólo un cuidadoso reco-nocimiento del cimiento, sino tam-bién del terreno que lo rodea, ya que si éste es permeable a la inyec-ción, puede ésta perderse en zonas innecesarias y no producirse donde interesa. Para evitar este accidente, la inyección debe empezarse por el fondo y contorno, esperar su fra-guado para conseguir una franja impermeable y terminar después la operación de abajo a arriba, contro-lándose debidamente el volumen de lechada consumida. Por todo ello la inyección debe ser realizada por casa especializada, con operarios expertos en esta técnica.

INTRODUCCIÓN

Hay tres tipos o grupos de actuaciones según sea la constitu-ción de la cimentación o la calidad del firme. La primera es el refuerzo, solución empleada cuando el área de apoyo es suficiente pero la ci-mentación es deficiente por mala ejecución o deterioro. Cuando la cimentación es correcta y está en buen estado de conservación, pero tiene un área de apoyo insuficiente, bien por haberse sobrevalorado en su momento la calidad del firme o porque se prevé un aumento de las cargas, es necesaria la ampliación de la cimentación para conseguir la superficie de apoyo conveniente.

Por último, cuando la repa-ración o ampliación de la cimenta-ción no es viable por el grave dete-rioro que presenta unida a dificulta-des para su refuerzo, habrá que op-tar por la sustitución, proporcionan-do al elemento estructural una ci-

RECALCES SUPERFICIALES

RUBÉN DE LA RIVA FERNÁNDEZ. ARQUITECTO TÉCNICO

61 Nº6.Marzo de 2015

Imagen 2 - Ampliación del cimiento mediante tablestacas. “www.generadordeprecios.info”.

De esta manera, con un control del volumen del fluido in-yectado, quedará asegurado el re-fuerzo del macizo. Esta solución evita excavaciones y las tablestacas pueden ser recuperadas en la mayo-ría de los casos.

3. REFUERZO MEDIANTE IN-YECCIÓN CONFINADA EN-TRE MURETES

También se puede atajar el escape lateral de la inyección me-diante la construcción previa de muretes de fábrica de ladrillo o de hormigón.

La solución es efectiva y necesita menos medios que la de tablestacas, pero tiene el inconve-niente de la necesidad de excavar previamente los laterales del macizo para la construcción de los muros, operación que tiene el peligro de desmoronamiento del macizo de-

gradado, con el peligro que este ac-cidente conlleva. También se inyec-ta en el terreno por debajo del maci-zo, aplicable también a los casos anteriores, solución siempre conve-niente, aunque no sea necesaria la ampliación del área de apoyo.

4. REFUERZO MEDIANTE LA INTRODUCCIÓN DE ARMA-DURAS

Caso poco frecuente es el de la existencia de un hormigón de calidad suficiente en zapatas, pero con armado insuficiente por error de proyecto o de ejecución. El re-fuerzo consiste en introducir arma-duras adicionales taladrando el hor-migón. Es operación delicada y en-gorrosa, pues los taladros deben tener gran precisión de ejecución. La armadura introducida deberá ser puesta en tensión y posteriormente inyectada.

2. REFUERZO MEDIANTE IN-YECCIÓN CONFINADA EN BARRENA DE TABLESTACAS

En macizos de mayor en-vergadura y responsabilidad, nor-malmente en zapatas aisladas, es solución efectiva, aunque cara, la hinca de tablestacas que rodean el cimiento para evitar el escape lateral de la inyección, cuando el terreno es altamente permeable a la misma.

Imagen 1 - Refuerzo mediante inyección. “www.generadordeprecios.info”

62 Nº6.Marzo de 2015

vuelo, a no ser que los hormigones viejo y nuevo sean de excepcional calidad.

Es fundamental que el hor-migón nuevo y el viejo queden to-talmente adheridos para que formen un solo macizo. El hormigón nuevo tendrá una resistencia característica igual o ligeramente superior a la del existente, de nada sirve que sea muy superior.

La unión de hormigones, para que el conjunto funcione como una sola pieza, se consigue con una cuidadosa preparación de la superfi-cie de contacto, picando la zapata antigua y limpiándola debidamente, y también por disposición geométri-ca. La adherencia puede obtenerse también, con gran garantía de efec-tividad, impregnando la superficie de contacto del hormigón viejo con una formulación de resinas epoxi antes del hormigonado.

En las zapatas aisladas, la retracción del hormigón beneficia a la adherencia por el efecto de zun-

chado que proporciona el hormigón nuevo al fraguar. Esto no ocurre, sin embargo, en las zapatas corridas, por tratarse de dos añadidos aisla-dos.

Con estas soluciones la pues-ta en carga no está asegurada y tam-poco es posible llevarla a cabo. Ten-drá que producirse un cedimiento para que la zona ampliada funcione a pleno rendimiento. Por tanto, an-tes de adoptar esta solución, habrá que valorar si las consecuencias de estos asientos son admisibles o no. Tiene esta solución, por otro lado, la ventaja no desdeñable de la segu-ridad en la ejecución, puesto que la zapata no es descalzada en ningún momento.

6. AMPLIACIÓN DE LA CI-MENTACIÓN ACTUANDO POR DEBAJO

Consiste en construir una zapata debajo de la existente con las dimensiones suficientes para la car-ga real actuante o la que se prevé

Se trata realmente de un pretensado de la zapata. Esta solu-ción es aplicable solamente cuando la anomalía ha sido detectada a tiempo, es decir, antes de la rotura de la zapata (sólo con pequeñas fi-suras como máximo desperfecto podría llevarse a cabo la operación). Si la zapata presenta clara rotura, la solución no sirve y habrá que ir al recalce o sustitución del cimiento.

5. AMPLIACIÓN DE LA CI-MENTACIÓN ACTUANDO EN EL CONTORNO

En la ampliación de cimen-taciones, en las que se aumenta la superficie de las mismas actuando exclusivamente en el contorno, la nueva zapata va a tener el mismo canto que la existente.

En este caso será necesario que dicho canto sea sobrado en la zapata antigua (supuesto por otro lado poco frecuente) para que la nueva disponga de un canto sufi-ciente y proporcionado. En caso contrario se impone el aumento del canto por encima de la zapata y en-sanchar, siempre que ello sea posi-ble, ya que sería poco recomendable que la nueva zapata tuviera un canto excesivamente reducido para su

Imagen 3 - Zapata con anclajes para su refuerzo. “www.2pe.biz”

Imagen 4 - Refuerzo del terreno bajo la cimentación. “www.genovatek.es”

63 Nº6.Marzo de 2015

ra imprecisa, o utilizar gatos hidráu-licos, normales o planos, para con-seguir una puesta en carga controla-da.

7. AMPLIACIÓN DE LA CI-MENTACIÓN MEJORANDO EL TERRENO

Este método consiste en convertir el terreno existente debajo del cimiento en un material más resistente y de mayor dimensión en planta, con lo que se consigue inter-poner entre el cimiento y el terreno un elemento estructural que aguante la presión de la cimentación existen-te y la reparta en un área mayor.

Se trata pues de mejorar el terreno bajo el cimiento, lo que se puede conseguir actuando desde el exterior mediante la inyección a presión de fluidos que se esparcen por un determinado entorno y que posteriormente fraguan formando con el suelo un material más com-pacto y resistente. Para que la pene-trabilidad de la inyección sea posi-ble, es necesaria la presencia de hue-cos en el suelo, como ocurre en las gravas y arenas, por ejemplo.

El fluido más empleado en la inyección es la lechada de cemen-to con dosificación de cemento y presión de inyección variables según el tipo de trabajo y constitución del terreno. Es normal aplicar presiones distintas en un mismo macizo: ma-yor en la parte profunda, menor cerca de la superficie y en el períme-tro. La efectividad de la inyección nunca está totalmente asegurada, ya

que ésta puede concentrarse en zo-nas de mayor permeabilidad no pre-vistas y faltar allí donde es impres-cindible. Bien es verdad que al te-rreno inyectado no se le puede pe-dir una gran capacidad portante, que tampoco necesita.

También se puede realizar la inyección con mortero de cemen-to, pero este fluido tiene un empleo mucho más restringido, ya que su penetrabilidad es mucho menor y necesita por consiguiente una pre-sión de inyección mucho más alta, por lo que es normal que la inyec-ción desplace el terreno en vez de re- llenarlo. Aquí está precisamente su aplicación más generalizada: la

compactación de suelos con la apli-cación de una presión elevada.

Recordemos también que la inyección del terreno lleva incluida en la ejecución la puesta en carga del nuevo macizo, particularidad que supone la mayor ventaja de es-tos métodos, empleándose por este motivo en algunas ocasiones para corrección de asientos.

Es una solución muy efecti-va y no precisa adherencia entre hormigones ni engorrosos taladros. Sin embargo, la operación obliga a minar la zapata, por supuesto en fases sucesivas, por lo que es nece-sario descargar mediante apeos la cimentación existente.

Su realización es más senci-lla y segura en zapatas corridas que en zapatas aisladas. En estas solu-ciones la puesta en carga debe defi-nirse claramente en el estudio, pues, según el grado de insuficiencia de las cimentaciones existentes, la en-trada en servicio del nuevo macizo deberá llevarse a cabo con mecanis-mos de mayor o menor precisión. Así, el recalce de la cimentación de un pilar necesita mayor cuidado en su puesta en carga que el del ci-miento de un muro.

Y no es lo mismo ampliar la cimentación de un edificio (o parte de él) cuyas cargas aumentan por el motivo que sea, pero que durante la ejecución de la obra no son las má-ximas previstas, que intervenir en el cimiento de un inmueble que acusa asientos por insuficiencia de su ci-mentación.

Habrá edificios que admitan algún asiento sin mayores proble-mas; aquí puede llegarse en algunos casos a no realizarse ninguna opera-ción de puesta en carga. Pero lo correcto será, en la mayoría de los casos, emplear morteros expansivos en la junta horizontal entre los ma-cizos nuevo y viejo para su puesta en carga, cuya efectividad sabemos que sólo se puede evaluar de mane-

“Se podrán añadir armaduras adicionales a una cimentación ya en uso, por ser insuficientes aquellas de las que dispone, debido a un mal diseño o ejecución”-

Imagen 5 - Cimentación objeto de recalce debido a su hundimiento parcial. “www.geosec.es”

64 Nº6.Marzo de 2015

Siempre será necesaria la descarga mediante apeos, pero en la zapata aislada el apuntalamiento deberá ser total y de toda garantía.

En el cimiento de muros la sustitución es relativamente sencilla, procediéndose por puntos, y no será necesaria la descarga total si el muro se halla en buenas condicio-nes y no tiene profusión de huecos. Así, la forma de proceder, será empezando por los puntos me-dios situados con una cierta separa-ción y contrapeados, continuando con el mismo cierre y en el mismo orden con el que se empezó y ter-minando con la sustitución, que normalmente podrá hacerse de una vez.

9. SUSTITUCIÓN DE ZAPATAS AISLADAS

La cimentación de pila-res de fábrica (ladrillo, mampostería o bloques) que tienen un área de apoyo sobre el cimiento relativa-mente amplio, aunque se trata de zapatas aisladas, puede ser sustituida por puntos en la mayoría de los ca-sos, con las ventajas que comporta el no tener totalmente suprimido el apoyo durante la operación.

El proceso se realiza en cuatro etapas. Se comienza por los puntos, dispuestos en dos esquinas diametralmente opuestas, y se ter-mina con los dos restantes. La pues-ta en carga debe hacerse en los ca-sos descritos, si ésta es necesaria, después de la construcción de cada punto, si se utiliza un mortero ex-pansivo; si se utilizan gatos, se lleva-rá a cabo con la cimentación total-mente terminada.

La sustitución de la ci-mentación de pilares de acero u hormigón deberá hacerse de una sola vez, dada la escasa sección del apoyo (en hormigón es la propia sección del pilar), y por consiguien-te el apeo deberá ser total, incluido el peso propio del pilar desde su arranque. El apeo supone la opera-ción más delicada del trabajo, pues-to que, una vez realizado a satisfac-ción, la sustitución es sencilla:

8. SUSTITUCIÓN DE ZAPATAS CORRIDAS

En multitud de ocasiones no es viable el refuerzo o recalce de cimentaciones, por ello lo mejor será la construcción de una nueva que la sustituya, conservando o no la cimentación existente y no con-tando nunca con su colaboración.

Como es lógico, la sustitu-ción de una zapata aislada es mucho más comprometida que la de una zapata corrida, puesto que en esta última se puede actuar por puntos, mientras que en la aislada se hace casi siempre necesaria la demolición completa de la zapata existente an-tes de la ejecución de la nueva. S

Imagen 6 - Refuerzo de cimentación antigua mediante la introducción de nuevas armaduras. “www.bombarelyedificacion.com

REFERENCIAS Y BIBLIOGRAFÍA:

Curso de postgrado del Instituto Agustín de Bethencourt. Recalces. “Núñez Olías, Julián”

Curso sobre recalces en la rehabilitación de edificios. “Ortuño Abad, Luis”

Curso de rehabilitación. La cimentación. Colegio oficial de Arquitectos de Madrid. “Rodríguez Ortiz, J.M.”

Curso sobre pilotajes y cimentaciones especiales. “Herrador Menéndez, José María”

65 Nº6.Marzo de 2015

Consiste en construir la nueva cimentación en los laterales o perímetro de la existente y dirigir las cargas de la pieza a la nueva cimen-tación mediante puentes de acero u hormigón armado, donde en ningún caso se tendrá en cuenta la colabo-ración del cimiento antiguo. Se trata de un procedimiento más caro que los anteriores, pues añade al mate-rial empleado unas fuertes piezas trabajando a flexión cuya flecha de cálculo deberá ser muy estricta. Sin embargo es una solución más segu-

ra, puesto que la cimentación exis-tente se mantiene durante la ejecu-ción. Se empieza por la construc-ción de los macizos laterales, donde se podría demoler parte del cimien-to primitivo, para que la luz del puente sea lo menor posible,.

Una vez fraguados los nue-vos macizos, se abren unos mechi-nales en el muro para dejar paso a los puentes, en este caso metálicos, compuestos de 2 IPN.

Deberá recubrirse la cara inferior del mechinal con mortero rico de cemento con la ayuda de un pequeño encofrado para que ofrez-ca una superficie de apoyo horizon-tal, homogéneo y resistente .

A continuación se procederá a la puesta en carga de conjunto actuando mediante cuñas metálicas.

CONCLUSIÓN

En la practica para la selec-ción de un tipo u otro de actuación, se tendrán en cuenta las condicio-

nes del lugar y la obra , y se estudia-ra cada caso en particular ya que las distintas opciones pueden sufrir modificaciones.

Muy importante será no lle-var acabo recalces que puedan indu-cir vibraciones que acaben afectan-do a cimentaciones de edificios co-lindantes.

demoler el viejo cimiento y cons-truir el nuevo. No obstante, la de-molición debe ser cuidadosa para no dañar al pilar y poder dejar sin deterioro las armaduras existentes en espera, reforzándolas si es preci-so.

La puesta en carga para este caso no es posible, pues la cimenta-ción debe quedar desde el primer momento solidariamente unida al pilar. Hay, por supuesto, otras for-mas de actuación más complejas para poder realizar la operación, pero, en la mayoría de los casos, la sustitución funcionará si se propor-ciona al apuntalamiento un enérgico pero medido acuñado para contra-rrestar la ausencia de la puesta en carga final.

En la sustitución de cimenta-ciones de pilares metálicos, la pues-ta en carga sí es posible actuando en la junta existente entre la placa de asiento del pilar y la nueva cimenta-ción. Se puede realizar utilizando un mortero expansivo o cuñas metáli-cas, cuidando de dejar la holgura

necesaria para una u otra solución. Para poder proceder así, las barras de anclaje de la placa de asiento del pilar se dejarán libres, pasando por un taladro con holgura para su libre movimiento y, una vez realizada la puesta en carga, dichas barras se soldarán a la placa.

10. SUSTITUCIÓN MEDIANTE PUENTEADO

“La elección de uno u otro sistema dependerá en gran medida de la experiencia de los profesionales que realicen el diseño y ejecución del recalce”-

Imagen 7 - Esquema de zapata corrida reforzada con estructura metálica. “www.facingyconst.com”

66 Nº6.Marzo de 2015

WIFI Y WIMAX, ¿AMIGOS O ENEMIGOS?

del siglo veintiuno hemos sufrido una revolución en cuanto a la cone-xión a internet. Recordemos cuando internet estaba al alcance solo de unos pocos, y cuando para poder conectarnos a internet interrumpía-mos la conexión telefónica con aquellos molestos pitidos que hacía el modem cuando conectaba, o algo más cercano pero a la vez tan anti-guo como es las conexiones inferio-res a un megabytes por segundo. Y es que el mundo de las telecomuni-caciones ha evolucionado de una manera vertiginosa debido a que nuestra sociedad gira entorno a la red. La situación actual política, fi-nanciera y social no podrían funcio-nar si no supiésemos información que sólo podríamos transmitir de manare instantánea utilizando inter-net. Existen numerosos lugares donde el acceso a internet aún no existe, ya sea por la orografía del terreno , por el bajo índice de po-blación o porque simplemente para

las compañías operadoras no es via-blemente económico llegar con ca-ble o fibra óptica. Para dar solución a este problema hace tiempo que se invento una tecnología llamada WiMax, esta permite llevar internet a aquellos puntos donde en princi-pio no se llega y todo de una mane-ra muy económica. Pero el desco-nocimiento de esta tecnología y la similitud en el nombre, hace que la gente confunda la tecnología WiMax con la tecnología Wifi, sien-do tecnología diferentes. A diferen-cia de la redes Wifi, las redes WiMax trabajan a velocidades más altas, a más distancia y con un nú-mero mayor de usuarios.

Las siglas WiMax, significan Worldwide Interoperability for Mi-crowave Access o Interoperabilidad para el Accesso a Microondas y consiste en una forma de transmi-sión de datos usando microondas de radio. Esta tecnología es usada

Como ya sabemos, la tecnología avanza cada día, y cada día vemos nuevos avances, principalmente en el mundo de las telecomunicacio-nes. Centrando nos en este campo hemos visto como en la última dé-cada del siglo veinte y el comienzo

RAFAEL CASTRO REYES. ARQUITECTO TÉCNICO.

Nº 1. Paneles WIMAX. Ref: Google

67 Nº6.Marzo de 2015

Una conexión no orientada a vista, es aquella en la que con una peque-ña antena en tu ordenador se co-necta a la torre. En este modo, WiMax usa un rango de frecuencias bajo (de 2 GHz a 11 GHz). Las transmisiones no se pierden fácil-mente, sorteando obstáculos bas-tante bien.

En las conexiónes de tipo visto, una antena receptora apunta directa-mente a la torre WiMax desde un sitio alto con visión directa. Este tipo de conexión es más potente y estable, por lo que es capaz de en-viar muchos datos con pocos erro-res. Se basa en frecuencias altas, las cuales pueden alcanzar hasta los 66 GHz. Hay más ancho de banda y menos interferencias. Por medio de estas antenas, las estaciones transmisoras de WiMax pueden en-viar datos a ordenadores con WiMax habilitado o routers confi-gurados dentro del radio de cober-tura.

Las redes WiMax utilizan anchos de canal entre 1,5 y 20 MHz. Las mo-dulaciones que utilizan son OFDM

(Orthogonal Frequency Division M u l t i p l e x i n g ) y O F D M A (Orthogonal Frequency Division Multiple Access) con 256 y 2048 portadoras respectivamente, que permiten altas velocidades de trans-ferencia incluso en condiciones po-co favorables. Incorporan soportes para tecnologías “smart antenas” que mejoran la eficiencia y la cober-tura. También incluyen mecanismos de modulación adaptativa, mediante los cuales la estación base y el equi-po de usuario se conectan utilizan-do la mejor de las modulaciones posibles, en función de las caracte-rísticas del radio enlace. Estas redes soportan varios cientos de usuarios por canal, con un gran ancho de banda y son adecuadas tanto para tráfico continuo como a ráfagas, siendo independiente de protocolo; así, transporta IP, Ethernet, ATM etc. y soporta múltiples servicios simultáneamente ofreciendo Cali-dad de Servicio (QoS) en 802.16e, por lo cual resulta adecuado para voz sobre IP (VoIP), datos y vídeo. También es posible formar redes malladas (mesh networks) para que

comúnmente para Internet inalám-brica de banda ancha dentro de un área geográfica determinada. El protocolo que caracteriza a esta tec-nología es el 802.16. Un sistema WiMax esta formado por dos par-tes, una torreta emisora y otra re-ceptora. La torreta emisora funcio-na igual que una de telefonía móvil. Estas antenas emisoras dependien-do de sus características, pueden dar cobertura a un área de gran exten-sión. Por otro lado las antenas re-ceptoras pueden ser de diversos tipos, antenas, repetidores, peque-ños cajetines o tarjetas PCMCIA que se pueden integrar en un portá-til.

El funcionamiento es sencillo, la antena emisora es la que tiene acce-so a una conexión a internet, ya sea por cable o fibra óptica, y ésta le envía la señal a través de microon-das a la antena receptora, con la ventaja que una torre única puede cubrir un área de hasta 8.000 m2 con que puede cubrir aquellas zonas ciegas a las que no se llega con otro medio. Al existir distintos tipos de antenas receptoras, se pueden reali-zar distintos tipos de conexiones, conexiones no orientadas a vista y conexiones orientadas a vista.

Nº 2. Antenas receptoras WiMax. Ref: www.ubiquiti.com

Nº 3. Funcionamiento de una red WiMax Ref: Google

68 Nº6.Marzo de 2015

estado de la estandarización de cara a mejoras futuras.

Existen dos tipologías de redes Wifi, las redes sin in-fraestructura, y las redes en modo infraestructura. Las redes Wi-Fi sin infraestruc-tura no necesitan un siste-ma fijo que interconecte algunos elementos de la arquitectura. Son redes que no han tenido un importan-te éxito comercial. Los ejemplos más habituales que podemos encontrar son las redes ad hoc, (o Peer-to-Peer) y las redes MESH. Las primeras con-sisten en un grupo de terminales que se comunican cada uno directa-mente con los otros a través de las señales de radio sin utilizar ninguno punto de acceso. Los terminales de esta red Wi-Fi que quieran comuni-carse entre sí tienen que utilizar el mismo canal radio y configurar un identificador específico de Wi-Fi (nombrado ESSI) en modo ad hoc. Las configuraciones ad hoc son co-municaciones de tipo punto a pun-to. Un ejemplo de red ad hoc sería la comunicación directa entre dos ordenadores mediante señales de radio. En cambio, las redes tipos MESH utilizan puntos de acceso

que trabajan con

diferentes canales de frecuencia. Por una parte, ofrecen cobertura a los terminales portátiles, y para la otra, se comunican entre sí forman-do una red MESH que les permite cubrir grandes superficies sin nece-sidad de un cableado previo. Por otro lado las redes en modo infraes-

tructura trabajan utilizando puntos de acceso. Presenta una eficiencia superior a la red ad hoc, ya que este modo gestiona y transporta cada paquete de información en su des-tino, mejorando la velocidad del conjunto. En este modo de funcio-namiento, la tarjeta de red se confi-gura automáticamente para utilizar el mismo canal radio que utiliza el punto de acceso más próximo de la red. En una red en modo infraes-tructura, los puntos de acceso pue-den trabajar como interconexión entre dos redes. En esta topología se encontrarían dos posibilidades: la primera consiste a que el punto de acceso actúe como interconexión

entre la red Wi-Fi y otra red sobre cables, como una red de área local, un acceso ADSL, etc. El segundo

escenario consiste que el punto de acceso actúe como interconexión entre dos puntos de acceso que dan acceso Wi-Fi a usuarios ubicados en zonas diferentes. Un ejemplo de red en modo infraestructura sería una

os distintos usuarios se puedan co-municar entres sí, sin necesidad de tener visión directa entre ellos. En la seguridad tienen medidas de au-tentificación de usuarios y en la encriptación de datos utilizan algo-ritmos triple DES y RSA, por lo que son redes más seguras que las redes Wifi.

Por otro lado las redes Wifi son más antiguas y las que todos los usuarios conocemos debido a que es la que las compañías operadoras colocan en nuestros hogares para conectar los distintos dispositivos a internet. Podríamos definir una red Wifi, también llamada wireless, WLAN o simplemente red inalám-brica, como un medio de transmi-sión de datos designado para dar acceso entre sí a ordenadores utili-zando ondas de radio en lugar de cables. Para ello, con dichas ondas de radio se mantienen canales de comunicación entre computadoras. Las características generales de fun-cionamiento de una red Wi-Fi son las mismas que las de una red con cableado. Los componentes básicos de una red Wi-Fi son: el punto de acceso, antenas conectadas al punto de acceso y el dispositivo receptor. El punto de acceso (AP) es la unión entre las redes con cableado y la red

Wifi, o entre diversas zonas cubier-tas por redes Wi-Fi, que actúa en-tonces como repetidor de la señal entre estas zonas. Los dispositivos receptores son portátiles, teléfonos móviles, tablets, etc.. Los aspectos más importantes a tener en cuenta en este tipo de redes son el alcance y el rendimiento, la calidad de servi-cio, la seguridad, la movilidad y el

“Wifi y WiMax son tecnologías que se complementan”-

Nº 4. Esquema red Wifi Ref: Google

69 Nº6.Marzo de 2015

el acceso a una red local, lo que ha-ce que su alcance sea más limitado. Otra diferencia es que Wifi a pesar de ser el hermano pequeño de WiMax, es el más conocido por los usuarios ya que es el que ellos tienen a su alcance. Una de las grandes diferencias que exis-ten entre ambas plataforma reside en el hecho de que Wifi se ejecuta a través del protocolo Media Access Control's CSMA/CA, mientras que WiMax se ejecuta a través de una conexión orienta-da a MAC. Por otra parte, WiMax y Wifi poseen una calidad de mecanismos de servicios muy diferente, ya que por un lado WiMax utiliza un mecanismo de QoS basado en las conexiones que se establecen entre la estación base y el dispositivo del usuario. Cada una de las conexiones establecidas se basan en algoritmos de programación específico. Por su parte, Wi-Fi utiliza afirmación de acceso, esto puede llegar a interrumpir la conexión, de acuerdo al rendimiento que ofrezca la red utilizada. Los dos estándares con los que trabajan las dos tecnologías definen el tipo de red Peer-to-Peer (P2P) y redes ad hoc en las que se trabaja, permitiendo que un usuario pueda comunicarse con otros

usuarios o con los servidores de otra red de área local a través de su punto de acceso. Es importante destacar que aun-que Wifi y WiMax son tecnologías que han sido diseñadas para ser aplicadas en situaciones diferentes, lo cierto es que pueden ser utilizadas también de forma complementaria.

En definitiva podemos entender que WiMax es el gran tiburón y Wifi los pe-cecillos, utilizando el primero para cone-xiones a gran escala y el segundo y más conocido para abastecer por norma ge-neral a los usuarios finales, por lo tanto se puede considerar que ambos son

red municipal que cubriera el núcleo urbano para dar conexión a la Intra-net del ayuntamiento.

Uno de los problemas a los cuales se enfrenta actualmente la tecnolo-gía Wifi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las conexio-nes de larga distancia (mayor de 100 metros). En realidad el estándar Wifi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias. `

Por lo tanto como hemos visto Wifi y WiMax, son tecnología que se complementan. Existen numerosas diferencias entre ellas. WiMax es un sistema de largo alcance, el cual permi-te cubrir una gran cantidad de kiló-metros, ya que utiliza el espectro tanto libre como propietario, es de-cir con licencia o sin ella, para ofre-cer conexión a una red, en la mayo-ría de los casos de Internet. Por el contrario, Wifi utiliza sólo el espec-tro sin licencia con el fin de facilitar

REFERENCIAS Y BIBLIOGRAFÍA:

www.adslzone.com

Www.wikipedia.com

Www.bandaancha.eu

Nº 5. Esquema de una red compuesta por Wifi y WiMax Ref: Google

70 Nº6.Marzo de 2015

TURBOGLORIETA, UNA NUEVA INTERSECCIÓN VIAL NO CONVENCIONAL.

problemas de las glorietas tradicionales, es que la circu-lación eficiente, desde el punto de vista de la capacidad,

no coincide con las prefe-rencias entre vehículos que establece el actual código de circulación. Esta circunstan-cia provoca que los conduc-tores más experimentados, los cuales tienden a adoptar las trayectorias dentro de la glorieta más próximas a la solución eficiente, entren en conflicto con aquellos con-ductores más precavidos que adoptan trayectorias más fáciles de resolver. Además, una glorieta supone la pérdi-da de prioridad de todos los accesos que en ella conflu-yen, lo que provoca la pérdi-da de la jerarquía viaria, im-pone demoras a todos los usuarios, y presenta ciertos problemas relacionados con los peatones y el transporte colectivo.

En cuanto a la seguridad de circulación por glorieta in-tervienen diversos aspectos de su trazado, desgraciada-mente no siempre compati-bles, por lo que hay que llegar a un compromiso en-tre objetivos contrapuestos, consiguiendo que los vehículos cambien de tramo en condiciones de seguridad y con poca demora. El logro

de este compromiso se ve dificultado por intensidades

Las glorietas tradicionales son un tipo especial de inter-sección, caracterizada porque los tramos que en ella confluyen se comunican a través de un anillo o cal-zada aproximadamente circular, en el que se esta-blece una circulación ro-tatoria alrededor de una isleta central. Las glorietas tradicionales, tal y como se vienen implantando hasta la fecha, dan una solución eficiente, auto-rregulada y segura a la hora de resolver una in-tersección de diversas vías. Especialmente en los casos en los que su dimensionamiento es am-plio, no se han dispuesto barreras a la circulación como pasos peatonales demasiado cercanos a la misma o una semaforiza-ción innecesaria y los ni-veles de tráfico no están próximos a la congestión.

Sin embargo, nos encon-tramos con cierta proble-mática asociada a este tipo de intersección y que necesita de un análisis más profundo y detalla-do, siempre con el objeti-vo de mejorar las condi-ciones de circulación de los vehículos, de manera muy especial en lo relativo a la seguridad. Probablemente uno de los principales

ANTONIO MOMPÓ GUERRA. INGENIERO DE CAMINOS, CANALES Y PUERTOS.

Imagen 1. Glorieta tradicional a la que llegan cinco vías. Ref: www.blogdelaautoescuela.com

Imagen 2. Intersección de cuatro vías solventada mediante turboglorieta. Ref: www.coet.es

71 Nº6.Marzo de 2015

considerarse un reflejo incipiente de la solución de la turboglorieta o glo-rieta espiral.

Las turboglorietas o glorietas espira-les son un concepto de intersección novedoso presentado inicialmente por Fortuijn y Harte (1997). Más adelante se ha ido desarrollando e implantando en distintos lugares de Europa. Y es que hasta la fecha, su

diseño ha sido aceptado especial-mente bien en Holanda y Bélgica, y en menor medida en Alemania y Francia. España no ha comenzado, hasta hace relativamente poco, a introducir este tipo de intersección en las vías públicas, por lo que a día de hoy es una novedad en materia de Ingeniería de Tráfico en nuestro país y se presenta como una evolu-ción o variante del diseño de la glo-rieta tradicional.

Si las glorietas tradicionales ya redu-cen el número y la gravedad de los accidentes al no permitir la realiza-ción de giros hacia la izquierda, los cuales son los causantes de los acci-dentes más graves, las glorietas o glorietas espirales van aún más allá, al separar completamente los distin-tos flujos de tráfico. De esta mane-ra, se llega a eliminar la posibilidad de que se produz-can alcances laterales entre dos vehículos que circulan en su interior y, por otro lado, el radio de curva-tura obliga a reducir la veloci-dad consiguiendo una mayor seguri-dad y mejorando la fluidez del tráfi

o velocidades elevadas y por limita-ciones de espacio; estas últimas son a menudo el factor determinante al acondicionar una intersección exis-tente, especialmente en zona urba-na.

Tras lo expuesto y ante la imposibi-lidad de inculcar las prácticas efi-cientes a todos los conductores, y si tenemos en cuenta que la normativa sobre la circulación en glorietas no favorece este tipo de circulación, es cuando se comienzan a diseñar y adoptar medidas como la modifica-ción de las líneas discontinuas, co-mo por ejemplo ocurre con las glo-rietas de la Avenida de la Ilustra-ción, en Zaragoza. Aplicando esta solución se da prioridad a los vehículos que continúan recto fren-te a los que intentan girar a la iz-quierda por el carril exterior, mejo-rando de esta manera la capacidad de la glorieta. Aunque es cierto que esta medida apenas tiene repercu-sión sobre la seguridad, pues lo úni-co que hace es cambiar la prioridad en caso de conflicto en la intersec-ción, pero no elimina dicho conflic-to. Este tipo de medidas podrían

Imagen 3. Esquema de glorieta espiral o turboglorieta. Ref: es.slideshare.net/eduardovelez/turboglorietas

PONER AQUÍ IMAGEN

Imagen 4. Turboglorieta compleja, con gran número de accesos, carriles y salidas. Ref: www.maps.google.es

72 Nº6.Marzo de 2015

tersección tienen prioridad sobre los que acceden a la misma y las vías que conectan a ella lo hacen de manera radial, esta definición es la de una glorieta genérica. Además de esto, como una de las principales

diferencias respecto de la glorieta habitual, el trazado de los carriles debe de ser tal que conduzca a los vehículos del interior al exterior de la glorieta paulatinamente y sin ne-cesidad de realizar ningún cambio de carril, reduciendo así los puntos de conflicto.

Otra de las diferencias entre turbo-glorietas y glorietas tradicionales radica en que la decisión sobre el destino debe tomarse necesariamen-te antes de entrar en la intersección, ya que una vez en el interior de la misma las posibles salidas quedan limitadas por la geometría. Por últi-mo y aunque no sea estrictamente necesario, la separación entre carri-

les en el interior de la intersección debe ser física y no solo mediante señalización horizontal, ya que en caso contrario el efecto sobre la seguridad se ve limitado sensible-mente. Las turboglorietas no están

diseñadas para ser cruzadas por peatones, por lo que dispone los pasos para peatones fuera del anillo y en función de la calzada algo dis-tanciados, para así favorecer la visi-bilidad y la seguridad de los mis-mos, al estar los vehículos obligados a reducir su velocidad debido al efecto del diseño de la turboglorie-ta.

El diseño de una intersección con las características mencionadas tiene diversos efectos significativos. El primero que podemos destacar es la reducción de los puntos de conflic-to, como ya se había comentado. Esto se consigue debido a que los carriles exteriores, en las salidas más

co, sin afectar a la capacidad de la intersección.

Algo básico, primordial y que se hace necesario a la hora de hablar de las glorietas espirales o turboglo-rietas es tratar de definir, de la ma-

nera más precisa posible, el concep-to que se esconde tras este nombre. El diseño original, que se muestra en la Imagen número 3, ha ido su-frido múltiples variantes a las que en mayor o menor medida también se las ha designado como turboglo-rietas.

Partiendo de dicho diseño original, y de cara al objeto de este artículo, podríamos definir una intersección como turboglorieta cuando cumpla una serie de requisitos como el de ser una intersección en un único nivel, donde el tráfico sea gestiona-do mediante una calzada de flujo circular en torno a una isleta, donde los vehículos en el interior de la in-

Imagen 5. Glorietas en la Avenida de la Ilustración, Zaragoza. Ref: www.maps.google.es

“Las turboglorietas proporcionan una mayor capacidad que la glorieta tradicional y un incremento en la seguridad debido a la reducción de los puntos de conflicto”-

73 Nº6.Marzo de 2015

de ambas intersecciones resultan muy similares. Y por otro lado se demuestra que, cuando la glorieta normal está próxima a la saturación, la turboglorieta puede incrementar aún su capacidad entre un 20 y 40 % antes de saturarse.

Las principales ventajas que presen-tan las turboglorietas son las que ya han sido comentadas anteriormente: proporcionan una mayor capacidad

que la glorieta tradicional y un incremento en la seguri-dad debido a la reducción de los puntos de conflicto. Simplemente con estas dos ventajas queda justificado el uso de este nuevo tipo de intersección en muchos puntos de la red. Además hay que tener en cuenta que según donde se ubique la intersección, se puede pro-ducir una reducción del tiempo de cruce, debido a que la geometría de la tur-boglorieta favorece una ve-locidad media mayor. Esto es una ventaja cuando la disposición de la glorieta se realiza en un entorno periur-bano o interurbano, mien-tras que en un entorno pu-ramente urbano podría lle-gar a considerarse como un inconveniente.

Sin embargo se debe tener en cuenta ciertos inconve-nientes que presentan las turboglorietas en compara-ción con la glorieta tradicio-nal, pues como toda nove-dad, tiene sus pegas en la

experiencia de usuario, además su configuración hace que no sean po-cos los conductores que encuentran confusa la circulación por las tur-borglorietas o glorietas espirales. Existen dudas sobre qué carril usar y cómo entrar. Además, cuando se desconoce la zona, si la separación es exclusivamente señalización hori-zontal entre carriles, se pueden pro-ducir cambios inesperados en los mismos. Siguiendo con ciertos in

utilizadas, obligan forzosa-mente al vehículo a tomar la misma eliminando ade-más el carril por el que cir-cula. El carril eliminado no se repone hasta la siguiente entrada al interior de la in-tersección. En este proceso de cambio de carril, de ex-terior a interior, el radio de giro se va incrementando paulatinamente, de manera que los carriles que se van incorporando en el interior de la isleta siempre tienen el mismo radio. Otra destaca-ble mejora que aporta la turboglorieta es el incre-mento de la capacidad con la consecuente reducción de las colas en los accesos a la intersección.

Ya se han realizado multi-tud de comparaciones por diferentes autores sobre las turboglorietas en progra-mas de macro y microsimu-lación, pero si nos centra-mos en los que han genera-do programas informáticos que realizan el estudio de la intersección desde un pun-

to de vista más analítico haciendo la comparación en base a la estructura de la misma, sin considerar otros factores como la dimensión o el modo de conducción, obteniendo un análisis similar al realizado para las redes informáticas de datos, ob-tenemos que en primer lugar, en régimen de funcionamiento normal, es decir, lejos de las intensidades de saturación de la intersección, las prestaciones en términos capacidad,

“varias investigaciones demuestran que los accidentes de tráfico se reducen en un 72 % en las turboglorietas en comparación con las glorietas tradicionales”-

Imagen 6. Señalización vertical, próxima a la turboglorieta de La Cruz en Grado, Asturias. Ref: www.lne.es

Imagen 7. Señalización Horizontal en la N-470, Holanda. Ref: www.lne.es

74 Nº6.Marzo de 2015

destino.

Otro inconveniente que presenta la turboglorieta es la dificultad para gestionar los cambios de sentido. Se da el caso de que esta maniobra es muy habitual en entornos urbanos y el diseño de este tipo de interseccio-nes hace imposible ciertos movi-mientos o, en caso de conservarlos, es a costa de incrementar los puntos de conflicto.

Por último, conviene aclarar que la solución de la turboglorieta presen-ta un buen funcionamiento cuando el tráfico no es uniforme entre las diferentes direcciones, es decir, cuando existen unos flujos principa-les y otros secundarios. En el caso de tráficos uniformes en todas las direcciones la complejidad de este tipo de intersección se ve incremen-tada. Es por todo esto, por lo que el estudio para la implantación de una turboglorieta requiere cierta profun-didad y una justificación muy preci-sa.

A la vista de todo lo que se ha veni-do exponiendo a lo largo del pre-sente artículo, y a pesar de que va-

rias investigaciones demuestran que los accidentes de tráfico se reducen en un 72 % en las turboglorietas en comparación con las glorietas tradi-cionales, parece claro que la inter-sección mediante turboglorieta no es una solución universal y válida para todo tipo de intersecciones y circunstancias, a pesar de que varias investigaciones demuestran que los accidentes de tráfico se reducen en un 72 % en las turboglorietas en comparación con las glorietas tradi-cionales

No parece recomendable, por ejem-plo y como ya hemos comentado, emplearla como sustitución de una glorieta tradicional en entornos ur-banos, a no ser que esta solución suponga la eliminación de un punto de congestión de la red y una clara mejoría de los niveles de servicio del entorno. Por sus características y condiciones geométricas, las turboglorietas necesitan mucho espacio y no suele ser algo que so-bre dentro de las ciudades, por lo que si se construyen en zonas urba-nas, muchas veces será a costa de una anchura de carriles más bien escasa, menor a la que suelen estar

convenientes que presentan las tur-boglorietas cabe decir que, en con-traposición con la glorieta tradicio-nal, requiere la toma de decisión sobre el destino a seguir antes de entrar en la intersección obligatoria-mente. Para evitar que esta circuns-tancia genere problemas, se hace necesario instalar una señalización clara y visible y con suficiente ante-lación y prestar especial atención a su mantenimiento. Parece que es insuficiente la señalización mediante marcas viales en la calzada, y en cualquier caso requiere de un siste-ma característico para evitar la con-fusión con otro tipo de interseccio-nes, especialmente con la glorieta tradicional.

Esta antelación requerida en la to-ma de decisión sobre el destino o salida, implica también que ésta de-be ser más rápida, lo que puede lle-var a aquellos usuarios que no están prevenidos sobre la existencia y ti-pología de la intersección a no dis-poner del tiempo suficiente para reaccionar. Esto puede apreciarse de manera habitual en las glorietas, cuando los usuarios la recorren en busca de la señal indicadora de su

Imagen 8. Comparativa de los puntos de conflicto entre glorietas tradicionales y turboglorietas. Ref: www.turboroundabout.com

75 Nº6.Marzo de 2015

tersección, es decir, con suficiente antelación y claridad para ser perci-bidos por el usuario.

En este tipo de situaciones sería recomendable recurrir a configura-ciones intermedias entre la turbo-glorieta y la glorieta tradicional, de manera que se ajustase a las caracte-rísticas particulares de la intersec-ción urbana estudiada en cada caso.

Por último, hay que recordar que circular cumpliendo las normas nos beneficia a todos los usuarios de la vía. Un uso responsable de los vehículos y la infraestructura, com-binado con profundo un conoci-miento de las normas de circula-ción, y el respeto a los demás usua-rios de la vía, harán mejor y más seguras nuestras calles y carreteras. Cumple las normas.

habituados los conductores, y que dificultará la circulación de vehícu-los de grandes dimensiones como pueden ser los autobuses del trans-porte colectivo. En entornos urba-nos, es decir, en el interior de las ciudades la velocidad es más reduci-da generalmente, por lo que la mag-nitud de los accidentes es menor y, sin embargo, la turboglorieta com-prometería la versatilidad y la capa-cidad de estructuración del tráfico. No hay que descuidar las necesida-des de señalización que requiere la turboglorieta, las cuales resultan de difícil implantación en una vía urba-na, la cual ya suele estar saturada de información, y las limitaciones de espacio y distancia impedirían ubi-car los elementos indicativos de la forma que requiere este tipo de in-

REFERENCIAS Y BIBLIOGRAFÍA:

- Eduardo Vélez Vallejo (2010). Anális is Comparativo entre Glorietas Tradicionales y Glorietas Espirales o “Turbo Glorietas”. Ventajas e Inconvenientes . Capacidad y Ubicación.

- www.turboroundabout.com

- www.coet.es

- www.clubmoto1.com

Imagen 9. Separación del tráfico en las turboglorietas. Ref: urbanismoytransporte.com

76 Nº6.Marzo de 2015

ANÁLISIS DE LOS RIESGOS BIOLOGICOS EN LA EDIFICACIÓN: ANIMALES E INSECTOS III

su mordedura. El veneno actúa lo-calmente en la zona de la mordedu-ra, desencadenando una inflamación intensa que puede llegar incluso a la necrosis.

La Loxosceles rufescens no pue-de ser considerada una araña do-méstica. Habita normalmente en las zonas cálidas de la península ibérica, ya que necesita al menos una tem-peratura ambiente de 15 ºC para poder vivir a la intemperie. Por otra parte, no es inusual encontrarla en viviendas buscando el calor necesa-rio en los meses de más frío, ade-más, suele habitar en lugares estre-chos, como falsos techos, detrás de cuadros, huecos de carpintería, de-bajo de mobiliario, etc.

Los trabajos expuestos al riesgo de la araña reclusa son Trabajos de restauración y rehabilitación en inte-riores, por lo que generalmente, la forma más eficaz de controlar su población es la del uso de trampas pegajosas en lugares estrechos u oscuros y por donde se crea que puedan circular éstas arañas.

En el caso de que se produzca el accidente, debemos considerar que Si la picadura es muy grave, se reco-mienda reposo en la zona de la pi-cadura, con asepsia del punto de inoculación, analgesia según dolor, toxoide antitetánico si el trabajador no está vacunado, antihistamínicos, y antibióticos en caso de infección.

Por último en lo referente al con-trol de exposición o las proteccio-

En el artículo que se presenta, se pretende completar la lista de los animales más perjudiciales para la salud de los trabajadores en el ámbi-to de la construcción y restauración, además de las medidas preventivas a llevar a cabo.

ARAÑAS

Las arañas más peligrosas en el territorio nacional son las Loxosceles rufescens. O arañas reclusas del medi-terráneo son pequeñas, de 10 a 15 mm, color marrón y una mancha característica en el cefalotórax en forma de violín. La Loxosceles rufes-cens es la única que puede encontrar-se en España, aunque es originaria de Sudamérica. Es una araña poco agresiva, aunque si puede llegar a morder si se la provoca. Son de há-bitos nocturnos y se esconden en sitios oscuros.

El peligro de la Loxosceles rufescens radica en el veneno inyectado por

DANIEL MERCHÁN GUERRERO. INGENIERO DE EDIFICACION.

Imagen 1. Loxosceles rufescens. o araña reclusa en u n a p a r e d d e u n a h a b i t a c i ó n . http://www.biodiversidadvirtual.org/

Imagen 2. Necrosis producida por picadura de Loxosceles rufescens. o araña reclusa . http://www.lucianoschiazza.it/

77 Nº6.Marzo de 2015

tos tienen lugar mayoritariamente entre la segunda quincena de junio y la primera de julio y la lactancia se extiende hasta mediados de agosto. Tiene una o dos crías por parto. Es bastante común en toda España. Se han adaptado perfectamente a los resquicios que existen en todo tipo de construcciones humanas de ma-nera que en la actualidad la mayor parte de los refugios conocidos se encuentran en juntas de dilatación, cajas de persianas, y cualquier otro espacio similar. Apenas hay infor-mación sobre los refugios utilizados durante la hibernación en España.

En último lugar se presenta al murciélago ratonero grande: Es el mayor Myotis de Europa. Las hem-bras algo mayores que los machos. Pelo corto y denso, de base oscura, con dorso castaño a pardo grisáceo y vientre casi blanco; los jóvenes gris cenicientos. Piel pardo rojiza. Hocico ancho y con abultamientos glandulares. Tiene una longitud que oscila de 56,5 a 62,3 cm y un peso de 21 a 35 g. Forman parideras a finales de marzo, con partos de una sola cría entre abril y junio. En siete u ocho semanas los jóvenes ya vue-lan fuera del refugio, siendo inde-pendientes a mediados de agosto. En el valle del Guadalquivir y Sierra Morena se han encontrado también pequeñas poblaciones de hembras que tienen partos durante el in-vierno. En el sureste ibérico evita medios semiáridos. Refugios en ca-vidades subterráneas, desvanes cáli-dos y sótanos. Mientras en la región Mediterránea suele criar en cavida-des, en Centroeuropa elige sobre todo desvanes.

El riesgo que producen los mur-ciélagos sobre la salud de los traba-jadores radica en numerosos facto-res, aunque lo mas importante son

las enfermedades: La enfermedad más importante que transmiten los murciélagos es la rabia. El hombre recibe al virus a través del contacto con la saliva del animal enfermo y no necesariamente debe ser mordi-do, el virus puede ingresar por una herida, rasguño y/o quemadura. También puede transmitir la histo-plasmosis a través de sus heces, alergias, encefalitis y shigelosis.

Para evaluar e inspeccionar una edificación se deben de tener en cuenta los siguientes factores, como son los posibles puntos de entrada y de salida, deficiencias estructurales en los edificios, los lugares del edifi-cio donde habitan, el tamaño de la colonia y la especie de murciélago.

Para conseguir ésta información, de debe realizar una inspección al anochecer, cuando los murciélagos salen en busca de alimentos y a con-tinuación, una segunda inspección pero durante el día, para determinar las áreas del edificio donde se refu-gian y además la forma de acceder.

La inspección nocturna debe ha-cerse desde media hora antes del anochecer y continuar hasta 1 hora después de que salga el primer mur-ciélago, así se podrá determinar el punto de salida y el tamaño de la colonia.

nes individuales, debemos de tener en cuenta que no existe un manual específico de prevención, pero si se han encontrado algunas recomenda-ciones, como son el realizar un aseo de las zonas transitadas, usando guantes de cualquier tipo y como medida final, realizar inspecciones de los lugares oscuros y solitarios.

MURCIELAGOS

En el territorio nacional existen tres razas de murciélagos que po-drían ser perjudiciales para la salud de los trabajadores por diferentes motivos. A continuación se presen-tan los tres tipos de murciélagos:

En primer lugar está el Murciéla-go común, el cual Es uno de los murciélagos más pequeños, con una longitud de oscila de 3 a 5 cm de envergadura y un peso de 3 a 8,5 g. Posee una coloración dorsal de ma-rrón-rojizo a gris-verdoso, con indi-viduos negruzcos. Pelaje ventral más claro. Constituyen colonias de cría formadas fundamentalmente por hembras, desde pocos indivi-duos hasta más de un millar. Partos entre fines de mayo y junio. El des-tete se prolonga hasta mediados de agosto, momento en que las hem-bras abandonan la colonia. En Es-paña se encuentra en todo el territo-rio (excepto en las Islas Canarias), aunque parece más frecuente en la mitad septentrional. Su área de dis-tribución se solapa en gran parte con la del murciélago de Cabrera.

Por otro lado convive con el murciélago común en murciélago hortelano. Es Murciélago de talla grande. Pelo monocolor, a veces con la punta lustrosa. Dorso pardo oscuro con vientre más claro. Tiene una longitud que oscila de 30 a 38 cm y un peso de 17 a 28 g. Los par-

Imagen 3: Murciélago ratonero grande comparado con el tamaño de una mano. http://www.sierradebaza.org/

78 Nº6.Marzo de 2015

primavera. El apareamiento se lleva a cabo a finales de verano o prime-ros de otoño, formando cada ma-cho un harén de 10 hembras. Paren a mitad de junio, una o dos crías, que volarán al mes de vida.

Para detectar los restos biológi-cos que delaten su presencia, debe-mos buscar sus excrementos, los cuales Suelen aparecer en gran nú-mero y debajo de la zona que usan para dormir. El principal problema radica en lo poco que difieren del excremento de las ratas. Una forma de distinguirlos es que el excremen-to de las ratas suele aparecer en rin-cones y zonas cercanas a la pared. En cambio, el de los murciélagos aparece de forma masiva por lo ge-neral fuera de recovecos y a lo largo de un área que se proyecta hacia el techo en el lugar donde se agarra para dormir.

Partiendo de éstos datos y anali-zando las costumbres de éste animal se pueden delimitar como trabajos expuestos los realizados en obras de rehabilitación en edificios con pla-gas de murciélagos. Si se diera el caso, se debe de tener en cuenta que la mejor forma de acabar con los murciélagos es taponar la aber-

tura de entrada al edificio durante la noche, ya que es cuando han salido. Una vez determinada la especie, es importante saber la época de cría (normalmente de mayo a finales de agosto), ya que podemos taponar la guarida y dejar a las crías dentro, provocando con ello su muerte y los consiguientes malos olores. Por último se debe de tener en cuenta que Durante la inspección detallada en el punto anterior, usar ropa pro-tectora, y equipo compuesto por máscara, guantes, casco y linterna.

RATAS

El último agente a estudiar se trata de una de las mayores plagas que hay hoy en día en nuestras ma-sificadas ciudades y que está muy lejos de ser erradicada. Principal-mente son dos las especies de ratas que se consideran un riesgo para la salud: la rata dde alcantarilla y la rata negra.

Las especies del género Rattus son unas de las más conocidas y comunes del reino animal. Tienen un peso que no pasa de 300 g y no sobrepasan los 30 cm. Están ligadas a las actividades humanas, coloni-zando por ello todo el mundo y llegando a ser una verdadera plaga.

Mucho mayor que la Rattus rattus, la Rattus norvegicus presenta un hoci-co redondeado, ojos relativamente más pequeños y orejas que al ser estiradas nunca alcanzan el borde del ojo. Presentan una coloración homogénea gris oscura, mientras que los adultos son algo más claro.

En lo referido al estudio de los ambientes y condiciones propicios para su crecimiento hay que tener en cuenta debido a su pequeña morfología y fácil desplazamiento que todos los edificios son suscepti-bles a una infestación de murciéla-gos, pero ciertos factores parecen propiciar el desarrollo de las condi-ciones para una colonia. Los mur-ciélagos frecuentemente seleccionan los edificios que se encuentran cerca del agua (piscinas, arroyos, canales fluviales, estanques de agua, etc.) y del alimento, esto es, donde se en-cuentran insectos en número ade-cuado, es por esta razón que en las casas y parques que se fumigan pe-riódicamente hay menos posibilida-des de que aparezcan murciélagos.

Otra razón por la que son atraí-dos es por los olores de infestacio-nes pasadas. Las temperaturas cons-tantes debido a la calefacción que ofrecen algunas casas las hacen lu-gares perfectos para la reproducción y crecimiento de las crías. Obvia-mente, una casa debe proveer orifi-cios o aberturas, ya que los murcié-lagos no hacen huecos por sí mis-mos. Por último, la hibernación se produce desde noviembre hasta la

Imagen 4:. Plaga de murciélagos infestando un edificio de madera antiguo propenso a su restauración. http://www.naturephoto-cz.com/

79 Nº6.Marzo de 2015

nes y en general cualquier hueco bajo el suelo. Existen también po-blaciones silvestres, pero siempre ligadas a la presencia de aguas, co-mo cultivos de regadío, marismas y arrozales.

Se encuentra desde el nivel del mar hasta los 1000m de altitud.

Debido a que habitan en casi cualquier parte, es lógico determinar que las rats son un riesgo potencial en los trabajos de restauración o reforma en interiores, trabajos de

nueva planta y de desbroce del te-rreno.

Es importante conocer y recono-cer los restos biológicos que delatan la presencia de estos animales para tomar las convenientes medidas de seguridad. Un claro ejemplo de res-to biológico son sus excrementos, Los cuales pueden encontrarse a lo largo de los "caminos" utilizados, en

las áreas de alimentación o cerca de los refugios o madrigueras. Son de forma cilíndrica y de 1-2 cm de lar-go y 0,5 cm de diámetro. Por otro lado está la orina, aunque es un ras-tro complicado de detectar, ya que es difícil de visualizar. El hecho de que emita fluorescencia al ser ilumi-nada con luz ultravioleta (negra) a determinada longitud de onda pue-de ayudar, pero hay otros elementos comunes en el ambiente que tam-bién fluorescente por lo que el diag-nóstico sería poco preciso. En oca-siones (fotografía) la orina es visible como manchas en plaquetas de fal-so techos. Los materiales contami-nados deben ser siempre desecha-dos, nunca reutilizados.

Además de restos biológicos co-mo son las heces y la orina, hay otro tipo de rastros como son las roedu-ras, que son las marcas de los dien-tes al roer pueden ser visibles en puertas, salientes, esquinas, materia-les almacenados y otras superficies. Restos frescos de viruta de madera, papel, sacos de cemento y otros materiales roídos, indican una infes-tación activa de roedores. También nos podemos guiar por las huellas o rastros, que incluyen incluyen las huellas de las patas (pisadas) y las

marcas de la cola, que pueden ob-servarse en superficies polvorientas o barrosas. Cuando existen sospe-chas sobre la presencia de ratas en un ambiente, puede determinarse dicha presencia a través de espolvo-rear el piso con harina, en una pe-queña superficie y por la noche. Si los hubiera, al día siguiente podrán observarse las pisadas marcadas en la harina.

Por otra parte, la Rattus rattus, presenta una coloración más oscura casi negra y se diferencia claramente de la Rattus norvegicus porque po-see una cola más larga que el cuer-po.

Los efectos sobre la salud que pueden producir las ratas sobre los trabajadores son muchos, siendo los principales: Es un vector de graves enfermedades como el tifus. Se le considera reservorio y transmisor de ciertas leptospirosis, salmonelo-sis y taxoplasmosis que pueden afectar al hombre y otros mamífe-ros. Es portador de diferentes ecto-parásitos, como sifonápteros, maló-fagos y ácaros, y de endoparásitos como cestodos y nematodos.

Las vías de transmisión son di-versas: desde el contacto con las heces contaminadas (transmite sal-monelosis), mordeduras de la mis-ma rata (ocasionando fiebres debido a los microorganismos que habitan en su boca), contacto con los flui-dos corporales de los roedores in-fectados y por último por picadura de los parásitos que porta.

Debido a la omnipresencia de la rata en las áreas urbanas, no existen medidas de censo poblacional a ni-

vel local (por ejemplo, un edificio concreto) por lo tanto, no se aplica-rán medidas de control poblacional, ya que con gran seguridad todos los sistemas de alcantarillado tienen presencia de ratas.

Son roedores comensales, cuyo hábitat principal se encuentra en los medios urbanos y rurales, donde es frecuente encontrarla en basureros, cloacas, alcantarillas, sótanos, desva-

“La rata es un vector de graves enfermedades como el tifus”

Imagen 5: Las ratas se han convertido en una plaga incontrolable en la mayoría de ciudades. http://www.devotomagazine.com.ar/

80 Nº6.Marzo de 2015

buscan evitar la entrada y multipli-cación de roedores; por tanto, son básicamente preventivos. Incluyen el cierre hermético de contenedores de residuos, instalación de rejillas en conductos de aireación, cierre de madrigueras, etc. Por el contrario están las estrategias activas, que in-cluye métodos dirigidos al control de poblaciones de roedores preexis-tentes, como la esterilización de hembras. Además de las estrategias pasivas y activas, se pueden tomar medidas basadas en métodos mecá-nicos, siendo las clásicas trampas, generalmente consistentes en un cebo y un mecanismo que apresa al animal sus mayores ejemplos.

Por último se puede optar por métodos químicos o físicos, consis-tiendo en venenos y sustancias ro-denticias, repelentes, fumigantes altamente tóxicos y raticidas para el primer método y uso de ultrasoni-dos para alejar a los animales para el segundo método.

En lo referido a primeros auxilios ante un ataque, hay que tener en cuenta que el único daño directo que puede producir una rata es su

mordedura. En caso de mordedura a un trabajador, acudir directamente a los servicios sanitarios, ya que los síntomas no son visibles a corto plazo, pero si a largo plazo en for-ma de contagio de enfermedades.

Por último y para terminar con este riesgo biológico, se debe de proteger a los trabajadores con pro-tecciones individuales y controlando su exposición, mediante la limpieza del lugar de trabajo, la prohibición de tocar sus restos biológicos con las manos denudas, además de lla-mar a un profesional de control de plagas para la total eliminación de éste animal. Por último eliminar los restos de comida y basuras para no atraerlos además de eliminar todos los materiales que sirvan de refugio para estos animales.

Junto a roeduras y las huellas hay otras pistas como son las marcas de grasa, debido a que las ratas viven en ambientes sucios como las alcan-tarillas, por lo que su pelaje se im-pregna de suciedad. Adicionalmen-te, las glándulas sebáceas de su piel secretan sustancias aceitosas que los protegen de la humedad y del frío. También exhiben un marcado com-portamiento tigmotáxico que les lleva a moverse siempre pegados a paredes, siguiendo la unión suelo-pared. Teniendo en cuenta éstos datos, la observación de éstas mar-cas delatan la presencia de ratas en el edificio. Para terminar con los rastros, nos centraremos en sus ma-drigueras, las cuales son Comunes de observar en el caso de las ratas, pueden encontrarse adyacentes a paredes, cercas y edificios o bajo arbustos y escombros. Las ratas memorizan los senderos y habitual-mente usan las mismas "rutas".

Una vez detectadas, se deben de tener en cuenta una serie de medi-das para su total eliminación: En primer lugar están las estrategias pasivas: Se trata de estrategias que

Imagen 7: heces de ratas medidas para su perfecta identificación. http://www.sierradebaza.org/

REFERENCIAS Y BIBLIOGRAFÍA:

-http://www.rentokil.es/guias-de-plagas/insectos-y-aranas/aranas-y-escorpiones/index.html

- http://www.madridsalud.es/

-http://www.interplagas.com.ar/animales/murcielagos.htm

- Frutos García García, José. Biología y control de plagas urbanas. Edit INTERAMERICANA McGAW-HILL.1994.

Imagen7: Métodos mecánicos anti ratas: las trampas se han convertido a lo largo de la historia junto con los venenos en los métodos más usados. http://www.extertronic.com/

81 Nº6.Marzo de 2015

Y EL MES QUE VIENE...

Proceso de escape en los MCIA

Red tranviaria de la ciu-dad de Alicante

Vehículo táctico de super-vivencia en combate . SCTV

Conectividad pluvial

Tratamiento y transmisión de señales ECG

Craneocorpografía

B B 7 7 ISSN 2386-639X

06

9 772386 639006