revista uni-ieeendo esfuerzos 4edición

46
Grupo de Prensa y Redacción de la UNIVERSIDAD NACIONAL DE INGENIERÍA UNI-IEEEndo Esfuerzos La Revista de la Rama Estudiantil IEEE de la UNI 400 000 Miembros Eficiencia Energética Paper Rama Estudiantil de la UNI Rama Estudiantil IEEE de la UNI. Pabellón Q1, 2° Piso, Oficinas 218-220. [email protected] reieee.uni.edu.pe / reieeeuni.blogspot.com 04 Año 2011 Membrecía IEEE Rompe Records. En promedio, las membrecías totales han estado creciendo cerca de 2% anualmente en los últimos siete años. El Capítulo de Potencia y Energía PES-UNI, presenta el “I Concurso de Aplicación en Eficiencia Energética” con el patrocinio de ABB. Jorge Llantoy nos presenta su paper titulado “Preliminary Internetworking Simulation of the QB50 Cubesat Constellation” presentado en el Latincom.

Upload: reieee-uni

Post on 22-Mar-2016

223 views

Category:

Documents


3 download

DESCRIPTION

La Rama Estudiantil de la UNI presenta la cuarta edición de su revista UNI-IEEEndo Esfuerzos

TRANSCRIPT

Page 1: Revista UNI-IEEEndo Esfuerzos 4edición

Grupo de Prensa y Redacción de la

UNIVERSIDADNACIONAL DEINGENIERÍA

UNI-IEEEndo Esfuerzos

La Revista de la Rama Estudiantil IEEE de la UNI

400 000 Miembros Eficiencia Energética Paper

Rama Estudiantil de la UNI

Rama Estudiantil IEEE de la UNI.Pabellón Q1, 2° Piso, Oficinas [email protected] / reieeeuni.blogspot.com

04

Año

2011

Membrecía IEEE Rompe Records.En promedio, las membrecías totales han estado creciendo cerca de 2% anualmente en los últimos siete años.

El Capítulo de Potencia y Energía PES-UNI, presenta el “I Concurso de Aplicación en Eficiencia Energética” con el patrocinio de ABB.

Jorge Llantoy nos presenta su paper titulado “Preliminary Internetworking Simulation of the QB50 Cubesat Constellation” presentado en el Latincom.

Page 2: Revista UNI-IEEEndo Esfuerzos 4edición

GRUPO DE PRENSA Y REDACCIÓN DEL IEEE UNI

UNI-IEEEndo Esfuerzos Esta iniciativa surgió a raíz de la necesidad de contar con la

información en nuestro idioma de nuestra famosa y

reconocida revista del IEEE Spectrum, así como también

incluir recursos para nuestros miembros y voluntarios.

REDACTORES & TRADUCTORES

Luis M. Farfán Salazar.,

Miembro IEEE

Estudiante de Pregrado de Ingeniería de Eléctrica, Ha participado

activamente desde los inicios en el Comité Organizador IEEE

INTERCON 2011

UNI, ha participado en la Delegación hacia el

INTERCON 2010 en Puno y en la Reunión Regional de Ramas,

actualmente es el Presidente de la Rama Estudiantil IEEE de la UNI.

Paul Dremyn Gomez Ch.,

Miembro IEEE

Estudiante de Pregrado de Ingeniería de Telecomunicaciones,

Ha

participado como Directiva del ComSoc UNI, ha participado

como

asesor en Capacitaciones, se dedica actualmente a la Plataforma Web

de la Rama y Como Asesor del Comité de Organizador

para el

INTERCON 2011.

M. Joaquin Fuentes Z.,

Miembro IEEE

Estudiante de

Pregrado de Ingeniería de Telecomunicaciones,

actualmente se encuentra desempeñando el cargo de Vicepresidente

del Consejo Estudiantil de Gerencia de Tecnología, TMC UNI, también

es el Responsable del Comité de Registro e Inscripciones de

INTERCON 2011.

Pamela

R.

Crisóstomo Yance., Miembro IEEE

Estudiante de Pregrado de Ingeniería de Telecomunicaciones,

actualmente se encuentra desempeñando el cargo de Tesorera

del

Consejo Estudiantil de Gerencia de Tecnología, TMC UNI, también es

el Responsable del Comité de Call for Papers y Visitas Técnicas

de

INTERCON 2011.

INVITADOS ESPECIALES

Portada: Juan Carlos Quispe.

COORDINADOR GENERAL DEL GRUPO

M. Joaquin Fuentes Z., [email protected]

COMPILACIÓN

Y

ESTRUCTURA

M. Joaquin Fuentes Z., [email protected]

REVISIÓN Y CONTROL DE CALIDAD

Paul Dremyn Gomez Ch.., [email protected]

DIRECTVA

PRESIDENTE

Luis M. Farfán Salazar., [email protected]

VICEPRESIDENTE

Jesús J. Briceño A., [email protected]

SECRETARIO

Jorge L. M. Cabrera Ch., [email protected]

TESORERA

Lizeth

I. Castillo Ch., [email protected]

VOCAL

Sabrina P. Reynaga A, [email protected]

CAS

PRESIDENTE

Samy N.

Mori Cubas.,

[email protected]

VICEPRESIDENTE

Diego

Gomero Gomero., [email protected]

SECRETARIO

Pier Santy Cabrera., [email protected]

TESORERO

Aldair Llapo Hernandez., [email protected]

VOCAL

German Mendoza Reyes. [email protected]

ComSoc

PRESIDENTE

VICEPRESIDENTEJulio A. Quispe R., [email protected]

SECRETARIO

TESORERO

PES

PRESIDENTE

H. Ivan. Espinoza C., [email protected]

VICEPRESIDENTE

Renzo A. Vargas P., [email protected]

SECRETARIO

Cesar R. Canchero M., [email protected]

TESORERO

Juan C. Quispe H., [email protected]

RAS

PRESIDENTE

Mishell Sanchez G., [email protected]

VICEPRESIDENTE

Martin Capcha P., [email protected]

SECRETARIO

Hector Sandoval ., [email protected]

TESORERO

David Lagos Huamaní.,

[email protected]

TMC

PRESIDENTE

Frank A. Moreno Vera.,

[email protected]

VICEPRESIDENTE

M. Joaquin Fuentes Z., [email protected]

SECRETARIO

Miguel Hurtado Garrafa, [email protected]

TESORERA

Pamela

Pamela

R.

R.

C. Y

C. Y

.,

.,

[email protected]

[email protected]

COMITÉ DE PUBLICIDAD

Carlos F. Romero A.,

[email protected]

COMITÉ DE INFORMÁTICA

Y WEB

M. Joaquin Fuentes Z., [email protected]

Paul Dremyn Gomez Ch.., [email protected]

Rama Estudiantil de la UNI

Michael B. Díaz, [email protected]

Celso García Q., [email protected]

Magister Julio Salvador Jácome, Ingeniero Mecánico Electricista de la Universidad

Nacional de Ingeniería (UNI), Magister en Ingeniería de Sistemas en la UNI, Magister

en Administración de Negocios en ESAN, Doctor en Administración y Dirección de

Empresas en ESAN/ESADE. Actualmente es Profesor Principal de la Facultad de

Ingeniería Eléctrica y Electrónica de la UNI.

Graduado en Ing. de Telecomunicaciones, fue presidente del Capítulo de

Comunicaciones, IEEE ComSoc UNI, así mismo participó en el Proyecto Chasqui I

en el Área de Comunicaciones Satelitales, del Centro de Tecnologías de Información

y Comunicaciones, CTIC-UNI, actualmente se encuentra trabajando el Alcatel-Lucent

del Perú.

Jorge L. Llantoy P., Miembro IEEE.

Estudiante de Pregrado de ingeniería electrónica, actualmente desempeña el cargo

de tesorera de la Rama Estudiantil IEEE de la UNI. Además, participa activamente

del capítulo de robótica y automatización de la REIEEE UNI .También es la

responsable del Comité del V Concurso Nacional de Robótica desarrollado durante

el INTERCON 2011.

Estudiante de Pregrado de ingeniería electrónica,actualmente desempeña el cargo

de vicepresidente del capítulo de Robótica y Automatización de la Rama Estudiantil

IEEE de la UNI. También es el responsable del Comité de Conferencias en el

área de del INTERCON 2011.Robótica y Automatización

Martín Capcha Presentación: Miembro IEEE

Lizeth Castillo Chincha: Miembro IEEE

Page 3: Revista UNI-IEEEndo Esfuerzos 4edición

PRESENTACIÓN

El presente mes de agosto será recordado por mucho tiempo en

la memoria de los voluntarios de la Rama Estudiantil IEEE de la

UNI, pues del 8 al 12 de agosto se desarrolló el IEEE INTERCON

2011, organización que se viene trabajando desde setiembre

del 2009. Recuerdo que en ese tiempo aún no participaba de la Rama

Estudiantil y me invitaron a participar de un comité para postular a ser

sede de tan importante Congreso. El reto fue grande y ambicioso, se

obtuvo la sede de tan importante Congreso y una joven nueva generación

empezó a tomar las riendas de la Rama Estudiantil de la UNI. Eso conllevó

a una serie de experiencias a lo largo del tiempo que nos permitieron

solidificarnos como organización, desarrollar más actividades como eventos

y proyectos.

El mes de agosto también será recordado pues se obtuvo el primer puesto

de Rama Ejemplar, el segundo puesto en el Concurso de Páginas de WEB

y el tercer lugar en el concurso Casos de Éxitos (Revista UNI-IEEEndo

Esfuerzos) en la Reunión Regional de Ramas de Región 9 desarrollada en

Lima, estos premios se obtuvieron por las ganas, motivación y dedicación

que le ponen los voluntarios IEEE de la UNI. Estos premios nos motivan

para seguir trabajando y aportando al IEEE y a la UNI, instituciones que

nos respaldan y apoyan.

Esta IV Edición de UNI-IEEEndo Esfuerzos nos trae artículos novedosos

relacionados a la Energía en el Perú, las redes sociales en internet, los más

de 400000 miembros del IEEE, imágenes del INTERCON 2011 entre otros

artículos interesantes.

Para la quinta edición de UNI-IEEEndo Esfuerzos se publicaran los

resultados que nos dejó el INTERCON 2011, pero más allá de las

estadísticas y números puedo afirmar que el INTERCON 2011 nos dejó un

gran grupo humano, formando muchos líderes los cuales aprendieron en el

camino a serlos; y eso cumplió con uno de los objetivos con los cuales

nace el INTERCON, la formación de líderes.

Esperando que la IV Edición de UNI-IEEEndo Esfuerzos sea de su agrado y

enviándoles saludos a nombre de la Rama Estudiantil IEEE de la

Universidad Nacional de Ingeniería, me despido.

Page 4: Revista UNI-IEEEndo Esfuerzos 4edición

Membrecía IEEE Rompe Records (400 000 y contando)

El IEEE había logrado un par de importantes hitos en membrecías al final del año pasado. Por primera vez en

su historia, tiene más de 400 000 miembros, y sólo la membrecía estudiantil alcanzó el número de 100 000. En promedio, las membrecías

totales han estado creciendo cerca de 2% anualmente en los últimos siete años. Y después de muchos años de declinación, las membrecías totales de las sociedades se

incrementaron el año pasado, con las sociedades de Communications, Computer, y Power & Energy liderando el camino. Ha habido crecimiento

alrededor del mundo, particularmente en Canadá, India, Japón, Reino Unido, y Estados Unidos. Y a pesar del agrio entorno económico,

desde 2008 hasta 2010, el total de membrecías IEEE se incrementó 7% y las membrecías estudiantiles, un 21%. Éstas aumentaron mayormente en Australia,

Canadá, China, Reino Unido, y Estados Unidos.

Por qué ellos se unen La publicación The Institute IEEE preguntó a los miembros a que nos digan por qué ellos se unen al IEEE

y por qué se mantienen. El miembro estudiantil graduado Dody Ismoyo listó varias razones por las cuales registrarse: los muchos seminarios y webinarios

IEEE, programas de entrenamiento continuo, y libros web, así como la oportunidad que él tiene de conocer ingenieros principales de la industria.

Dody se convirtió en un miembro estudiantil en Universiti Teknologi Petronas, Malasia, donde obtuvo el grado de bachiller en ingeniería de sistemas de

potencia. Después de un año, sin embargo, él dejó su membrecía porque, en sus propias palabras, él “falló en ver los beneficios”. Pero él se volvió a afiliar el último año

cuando el comenzó a conseguir su grado de maestría en ingeniería de potencia en la Universidad de Sydney, Australia, y él está contento de haberlo hecho.

“Afiliarme a la IEEE ha cambiado mi vida tanto, especialmente en mi vida post universitaria”, él dice. “He encontrado gente que realmente entiende qué

estoy hablando, ya que generalmente tenemos el mismo entorno de educación en ingeniería.. Él también fue presentado en

Engineers Australia, una institución que mantiene actividades conjuntas con el IEEE, incluyendo seminarios y presentaciones técnicas, muchas de las cuales Dody

asiste. “Muchos compañeros de clase preguntan cómo tengo conocimiento de muchos

eventos relacionados a la ingeniería y yo les respondo „Porque soy un miembro IEEE,‟ él dice. “¡Renovaré mi membrecía tanto como

pueda!” Mohammed Al-Donbok se convirtió en un miembro estudiantil porque él “quería familiarizarse con los estándares IEEE y tener

acceso a los artículos técnicos (papers)” menciona. “IEEE también me dio la oportunidad de tomar cursos de educación continua.” Al-Donbok es un estudiante de

ingeniería eléctrica en An-Najah National University, en Israel, y es un miembro estudiantil de las sociedades Communications y Power & Energy. También dice que él

ha tenido muchas gratas experiencias con su rama estudiantil. “Espero crear cambios en el sistema de comunicaciones de mi país e IEEE me

ayudará llevar a cabo mi visión.” menciona. “Para mí, IEEE significa ser un miembro trabajador, ambicioso y conocedor.” Wilber Hernández se unió

porque su profesor de tesis de pregrado se lo recomendó. Hernández está buscando el título de graduado en gestión de tecnología en el Stevens

Institute of Technology, en New York. “Desde el primer momento tuve acceso a la librería digital IEEE Xplore en mi instituto, no he sido capaz

dejar de lado sus publicaciones, con sus profusas historias, artículos de investigación y referencias.”, afirma. “Se ha convertido en una gran

fuente de ideas para mí.” El miembro estudiantil Suyong Vyawahare aprendió del IEEE en secundaria

Page 5: Revista UNI-IEEEndo Esfuerzos 4edición

después de leer un artículo de la revista IEEE Spectrum acerca de energía. Después, Vyawahare comenzó a explorar los magazines

técnicos, los cuáles le expusieron los estándares IEEE. Cuando ingresó al Atharva College of Engineering, en Mumbai, India, se unió a la rama

estudiantil IEEE y se involucró en sus actividades. Él ha servido como el secretario asistente de la rama y su coordinador de eventos. “Mientras aprendo

más acerca de los programas y ofrecimientos del IEEE, estoy aún más orgulloso de ser un miembro”, nos dice. “Yo también quiero continuar mi membrecía porque el IEEE

ofrece programas de educación continua y programas de certificación profesional.” Muchas otras razones

Encuesta tras encuesta llevada a cabo a lo largo de los años por la IEEE han mostrado que las personas se unen, y se quedan porque ellos quieren permanecer al

corriente técnicamente, obtener acceso a las publicaciones e impulsar sus oportunidades de carrera. Muchos miembros, quienes respondieron directamente a

The Institute IEEE, confirmaron aquellas razones y se hizo eco de los hallazgos de otras encuestas, tal como el valor de las oportunidades

en publicaciones y redes de contactos, descuentos en el registro de conferencias, y un seguro de vida ofrecido a través del programa de descuentos de miembros

IEEE, formalmente conocido como el Programa de Ventajas Financieras del IEEE. Paul DeAndrea de New

York, ha sido miembro desde que él era un estudiante de pregrado en 1974. Ahora él pertenece a las sociedades IEEE de Power & Energy e

Industry Applications. “Artículos publicados acerca de las reuniones de sociedades han ayudado a expandir mi entendimiento de estas áreas y me han

mantenido al corriente,” afirma DeAndrea. “Las publicaciones IEEE fueron fuentes excelentes después en mi carrera hacia mi exitosa búsqueda de mi título

de graduado en ingeniería eléctrica. También me he contactado con otros practicantes de ingeniería y tuve la suerte de tener coautoría en un artículo

publicado en el IEEE Transactions on Industry Applications.” Peter Tobias, un miembro de Minnesota, Estados Unidos, dice que él se mantiene “para

apoyar al IEEE como mi organización profesional por las muchas cosas que ello hace.” Él hizo una lista de la publicación de revistas científicas y técnicas,

relacionados con el trabajo de asistencia, capítulos locales y la representación de los intereses de política pública de los miembros IEEE-USA. “El patrón

consistente del crecimiento de membrecías que el IEEE ha experimentado últimamente es una prueba de cuán valiosas son

nuestras publicaciones, servicios y beneficios, para el desarrollo de las carreras de actuales y futuros profesionales técnicos,” nos dice Howard Michel,

vicepresidente de IEEE Member and Geographic Activities. “Mientras nuestras

membrecías crezcan”, menciona Michel, “nuestra red de pares se expande también, brindándonos más alcance y profundidad a

nuestra ya muy diversa membrecía. Yo espero este crecimiento para acelerar el mundo así como el IEEE continúa desarrollando nuevos productos y servicios

y como nuestros miembros continúan corriendo la voz entre sus colegas.”

Elaborado por: KATHY

KOWALENKO

Traducido por: MARTIN

CAPCHA

Page 6: Revista UNI-IEEEndo Esfuerzos 4edición

Debajo del capó de Google y Facebook

Una mirada a los datacenters, servidores y software que nos

mantienen con la sensación de estar siempre conectados.

Archivos aislados: los racks de los servidores de archivos se encuentran perfectamente alineados en su último datacenter construido en Prineville, Ore.

Era 1999, y los fundadores de Google,

Larry Page y Sergey Brin, recién estrenados de haber constituido la

empresa de extraño nombre,

necesitaban servidores – cantidades de

ellos. Fue entonces cuando compraron placas madres de computadoras,

discos duros y fuentes de poder. No

hace mucho que los jóvenes ya habían experimentado problemas económicos

mientras estaban en la universidad,

fue así que ahorraron dinero, lo que

hicieron a continuación fue unir cuatro placas madres a una sola fuente

de poder, montándolos increíblemente

sobre cajas de galletas, claro está correctamente alineados y teniendo

cuidado de que no se produjeran

cortos circuitos entre las placas.

Finalmente tuvieron listo un feo pero funcional servidor con todos los

cables de red colgando por las

paredes.

Todo esto apunta a que no se puede

negar que la infraestructura técnica de

Gogle ha mejorado muchísimo desde sus primeros días, pero aún así

Google se resiste a develar los detalles

del trasfondo de toda su infraestructura. En entrevista con la

Revista Spectrum, los ingenieros de la

compañía a menudo ofrecían algunas respuestas vagas sobre este asunto,

tales como “No queremos conversar

sobre algo específico” o “No podemos

hablar mucho de eso”. Google incluso ha intentado mantener en secreto la

ubicación de varias de sus cerca de 3

docenas de Datacenters, la cual incluye 20 que se encuentran

Page 7: Revista UNI-IEEEndo Esfuerzos 4edición

repartidos por los Estados Unidos. Por supuesto que es sumamente absurdo

que de una empresa multimillonaria

no se tenga registrada esta

información con los agentes federales e incluso aprobado por los inspectores

del Gobierno y construido siguiendo

planos. Información considerable acerca de la Infraestructura de datos

de Google, puede ser encontrada en

… Bueno, simplemente buscando en Google.

Facebook, también, rápidamente se

catapultó de ser un proyecto estudiantil hacia un juego para

dominar la Web, y vaya que los

Ingenieros de Facebbok han tenido que pedalear muy duro para

mantenerse en la creciente ola de

popularidad. De hecho estas dos empresas tienen mucho en común, es

más se puede decir que llevan unas

vidas paralelas - cada uno de ellos

abrió su datacenter en su séptimo año de operación, por ejemplo. Pero

Google y Facebook se

diferencian en

algunas cosas

fundamentales, particularmente

en la forma en

la que cada empresa

produce el

software que crea las cosas

que ellos hacen

y que nos

mantienen a la expectativa, y

también del

punto de apertura en el

que se

encuentran cuando son

consultados por

operaciones

técnicas.

Por supuesto, estas operaciones son del tamaño tal como la demanda se lo

ido solicitando, ahora, en un día

cualquiera, Google en el campo de

Ingeniería de búsquedas tiene cerca de un millón de peticiones, y cerca de ¼

de millón de personas visitan la

página de Facebook. Ambas compañías han tenido una fuerte

demanda por Ingenieros en el

esfuerzo por mantener todo el tráfico,

y el resultado

de todo este trabajo de

hecho se nota.

El Data Center de Google en The Dalles, Ore. Fue completamente

terminado en el 2006, y es uno de los

primeros que la compañía construyó en vez de alquilar uno. Por ese

entonces Google trataba de mantener

lo más seguro la información acerca

Page 8: Revista UNI-IEEEndo Esfuerzos 4edición

de su infraestructura que los acuerdos con las autoridades incluían

confidencialidad de tal manera que no

se filtre siquiera a la prensa. Google

afortunadamente ahora es lo suficientemente abierta como para dar

algunos vistazos de su nueva sede, en

las riberas del Río Columbia, visto sólo desde Google Earth y con sólo

pocos ángulos de visión general antes

de comenzar su construcción.

La actitud de Google para con sus

Datacenter no es a la de matar- si es

posible, sin embargo, por ejemplo en el 2009, Google organizó un

encuentro sobre Eficiencia Energética

en Datacenters, en la cual se reveló muchas de sus operaciones, días

después una visita con video relatado

de uno de sus datacenters, en la cual la Compañía sólo se refirió a la misma

como el Datacente A, apareció en

Youtube, es decir por la propia gente

de Google. Esta disposición de mantener más de 45000 servidores

montados en 45 contenedores gigantes

como de entrega de carga, dando la impresión de una estructura

construida de forma cavernosa y

temporal, como si a Google en algún

momento se le ocurriría tomar sus servidores y moverse de lugar.

Esta forma modular no es única de Google, pero no es un estándar

conocido en l práctica. Google

también marcó sus distancias con los

tradicionales datacenters en los cuales se daba una manera específica de

establecer cortes de energía, Los

generadores de respaldo funcioan

cuando la red eléctrica falla, pero no responden instantáneamente por lo

que se requiere un sistema de

alimentación eléctrico ininterrumpido, para que los servidores aún se

encuentren en funcionamiento luego

de los 10 primeros segundos en los que las luces comienzan a parpadear.

Frescos proceadores: Datacenter de Facebbok en Prineville, Ore, usa un sistema muy curioso en base a la expulsión de aire fresco que al salir de las tuberías caen directamente sobre

los servidores.

Muchos Datacenter utilizan

ampliamente UPS centralizados para

manejar este tipo de cortos intervalos, sin embargo estos equipos

Page 9: Revista UNI-IEEEndo Esfuerzos 4edición

actualmente se encuentras desaprovechados, esto quizás debido a

que cada uno de estos equipos

convierte el voltaje de alimentación a

DC y nuevamente lo regresa a AC, las cuales se envían a distintas unidades

de distribución energética y luego

finalmente a los servidores. este desperdicio corresponden a los picos

de tensión que corresponden a un 10%

de la electricidad que va hacia los equipos informáticos. para evitar estas

pérdidas Google asigna un pequeño

UPS a cada servidor.

Otra medida de conservación de

Energía que muestra Google en su

paseo por los servidores de Youtube son las técnicas de enfriamiento

conocida como Economización a base

de Agua. Esto es importante porque sólo apenas unos cuantos años de

utilización de este sistema de

enfriamiento representan el 40% del

recibo de luz para un típico Datacenter. La Economización a base

de Agua disminuye los costos por que

usa – como lo puedes adivinar – agua, que gotea en los intercambiadores

hacia a fuera del edificio. Un lazo

cerrado de enfriamiento que pasa a

través de los servidores apilados en los montacargas absorbe la

temperatura caliente emitida por los

servidores, a medida que el agua cae y gotea sobre los servidores se evapora,

llevándose consigo mucho del calor a

disipar. Esta técnica combinada con

una buena configuración del clima mantiene a los servidores lo

suficientemente fríos como de

costumbre y los refrigerantes se

pueden encender en los casos que fuesen necesarios. Los Datacenters de

Google usan más eficientemente la

electricidad que cualquier Datacenter típico. Los expertos de los datacenters

calibran sus estadísticas, denominada

Eficacia del Uso de la Energía (PUE, por sus siglas en inglés), que se

calcula dividiendo toda la potencia

eléctrica entregada a un contenedor

por la potencia entregada sólo a los ordenadores y los equipos

relacionados a la Red. Par finales del

2010, los datacenters de Google alcanzaron un PUE de a.113 – lo cual

es impresionantemente cercano al

valor ideal de 1.0, esta es una importante mejora durante los últimos

5 años. Cuando se tomó una muestra

de 22 de los datacenter, se obtuvo un

PUE de 2.0, lo que significa que por cada vatio utilizado para el cálculo y

tareas de Red, otro vatio se malgasta

en refrigeración, luces, ventilación, bombas, equipos de oficina, y

probablemente una máquina

expendedora.

Aunque otros Datacenters puedan

presumir de eficiencias que rivalizan

con las que Google ha informado, las cifras PUE de Google, probablemente

se arrastren mucho más abajo en

comparación con otros centros de

Page 10: Revista UNI-IEEEndo Esfuerzos 4edición

Eficiencia Energética puestas en marcha. La firma ahora está

trabajando en un Datecenter en

Finlandia, en la cual también enfriarán

los servidores en base a aguade mar que se bombea desde el mar Báltico

por ejemplo, Pero no creo que los

Ingenieros de Google sean los únicos que sepan como contruir e

implementar un Centro de Datos

Super-Eficinete.

Los Ingenieros de Facebook ahora

están en plena marcha a velocidad, de

tal forma que han estado dispuestos a mostrar sus resultados, por la prensa

circula la información de que se está

expandiendo la infraestructura de Facebook, acerca de la nueva

cnstrucción de Centro de datos,

localizado en lo que fue hasta hace poco un pedazo de bosque al este de

las montañas Blue-Ridge, estoy

impresionado por la enorme escala del

proyecto: 34000 metros cuadrados (370000 pies cuadrados), o lo que es

lo mismo una estructura de 340

metros de punta a punta frente a nosotros, imagine un Super Centro

Comercial Walmart y aún así no

estuviéramos pensando en algo lo

suficientemente grande, es más puede que Facebook ocupe el lugar de

alguno de estos grandes centro

comerciales, aún más impresionante que su tamaño es la velocidad con la

que el contratista DPR/Fortis puso

todo el material de contrucción y el

acero en el lugar, y abriéndose camino en tan solo algunos meses.

Esto me sorprende, dijo Tom Furlong,

quien dirige el Sitio de Operaciones del Centro de Datos de Facebook. En

una reunión que tuvimos en referencia

aun Remolque de Construcción, en un lugar del condado de Rutherford en

Carolina del Norte, Furlong comenta

que en los primeros años de Facebook se solía hacer instalaciones en

Condominios aprovechando la

Infraestructuras sobre todo para

utilizar sus servidores empresariales, luego ya la compañía creció y

finalmente comenzó a comprar sus

propios centros de datos.

Pero esta situación cambió en el 2008,

donde gran parte de las Economías mundiales se desaceleraron, en ese

momento la mayor parte de los

servidores de Facebook fueron

alquilados en el Centro de datos de la Bahía de San Francisco, donde hasta

la fecha se siguen utilizando 8

instalaciones aisladas y unidas por enlaces de datos de alta velocidad,

también comenzó con el alquiler de

otro centro de datos al norte de

Virginia, para lograr formar una red de Centros de Datos.

Page 11: Revista UNI-IEEEndo Esfuerzos 4edición

Baterías Incluídas: Los Servidores de Google tienen una alimentación de potencia

ininterrumpida.

Sin embargo cuando se decidieron

iniciar su búsqueda de más espacio,

comenta Furlong, descubrió que

muchos Proyectos de Centros de datos fueron dejados de lado por las

Víctimas que aparecieron ante la

Crisis Financiera. Por último la búsqueda se tornó tan frustante que a

principios del 2009, Facebook decidió

construir su propio Centro de datos., ya por Agosto Furlong y sus

compañeros se habían asentado

en Prineville, Oregon, a sólo

150 kilómetros del centro de Google en The Dalles. Antes de que el centro

de Prineville incluso fuera terminado,

la compañía anunció planes para construir un segundo en Carolina del

Norte. Como si quisiera

demostrar mesura, el CEO de

Facebook, Mark Zuckerberg, dijo que la apertura es una norma social nueva,

los ingenieros de Facebook han

lanzado muchas de las especificaciones técnicas para el

estdo-del-arte de la técnica de datos,

de lo que ellos creen que tienen valores PUE de 1,07 o menos. Ellos

llaman a esta participación “El

Proyecto de Computación Abierta”.

No es exactamente el código

abierto de su hardware para que

cualquiera pueda duplicar, pero las descripciones que ofrece

es sorprendentemente detallada.

El centro de Prineville, que

oficialmente entró en funcionamiento

en abril, se aleja notablemente del

enfoque que favorece a Google. "Se puede ahorrar algo de dinero con la

modularidad, pero te limita en muchas

maneras diferentes", dice Furlong. Así las zonas de sus servidores de

Facebook se colocan directamente en

el suelo del centro de datos, donde se enfría por el flujo de aire que sopla

desde el lado. Jay Park,

Director de diseño de centros de

datos y de la construcción de Facebook, Explica que el uso de la

"Refrigeración por evaporación

directa." Unafina niebla enfría el aire, que a su vez enfría los

servidores. "Es un gran sistema de

riego Honkin ", dice Park.

El enfriamiento por

evaporación directa encaja bien con

la filosofía general que los Ingenieros de Facebook del centro de

datos siempre han tenido: la

simplicidad. "Nosotros filtramos el

Page 12: Revista UNI-IEEEndo Esfuerzos 4edición

aire, pasa a través del sistema de riego, a continuación llega al centro

de datos. Si el aire exterior

es demasiado frío, vamos

a recircular parte de ella. Si no, vamos a volcarla hacia fuera." Park

cuenta que el diseño mecánico es tan

sencillo que no requiere cálculo computacional para sus conductos, y

su dinámica de fluidos muestra que

todavía hace su trabajo. En las instalaciones de Facebook de Carolina

del Norte serán configurados de

manera similar, si bien

se incluyen sistemas de respaldo de aire acondicionado para

complementar el sistema de

riego durante los periodos de calor.

Los Centros de Datos de Facebook, al

igual que los de Google, prescinden

de UPS centralizadas. En su

lugar, una fase de las tres fase, de

480 voltios AC derivada de la

centralita principal es

enviado directamente a los servidores,

que contienen suministros de energía

personaliza, dos de ellas utilizan lo

que equivale a un avance de 277-

voltios de corriente alterna.

Durante un corte de

energía, los suministros también pued

e salirse de la DC de 48

voltios procedentes de los

gabinetes de diseño especial de

UPS instalado al lado de los

bastidores del servidor.

Ese acuerdo permite ahorrar vatios, y

también simplifica el

mantenimiento, porque hay muchas

menos piezas de equipo para

mantener. "En los centros de

datos tradicionales, con los UPS más

arriba en la cadena alimentaria,

tiene una gran cantidad

de interruptores y conexiones

adicionales para eludir",

dice Furlong. "Moviendo los primeros

planos en el servidor le da la

flexibilidad de no tener todas esas

cosas con cables adicionales."

Los Gigante centros de datos –

incluyendo la eficiencia energética-no

son, por supuesto, nada sin los

servidores adecuados. Facebook

puebla sus localidades de Oregón y

Carolina del Norte con diseño

personalizado en sus servidores, al

igual que Google lo ha hecho desde

hace mucho tiempo.

Amir Michael , director de diseño de

hardware de Facebook, explica que

cuando la empresa decidió

construir sus propias instalaciones,

"tuvimos un borrón y cuenta nueva",

lo que permitió que él y sus

colegas puedan optimizar los diseños

Page 13: Revista UNI-IEEEndo Esfuerzos 4edición

de sus centros y los servidores en

conjunto para la máxima eficiencia

energética . El resultado fue

un servidor en el que "se le ven los

huesos al descubierto. Yo lo

llamo diseño de una" vanidad-libre

"sólo porque no me gusta que la gente

lo llama feo", dice Michael. "No

tiene marcos delanteros. No

tiene pintura. No tiene logos o

etiquetas adhesivas sobre el

mismo. Realmente solo tiene lo que se

requiere."

Foto: David Schneider [arriba] Michael Lloyd / El Oregonian / Landov [abajo], Grandes Cajas: las

próxima sede del Centro de Datos de Facebook de Carolina del Norte [arriba] es casi el doble del

tamaño de las instalaciones de Google en The Dalles, Oregon [abajo].

Google también mantiene el

servidor bajo coste a un mínimo. Al

igual que Facebook, que

compra materias primas a nivel de

hardware y sólo compra las muchas

piezas que se rompen, en lugar de la

compra de sistemas de gama alta que

son menos propensos a las fallas, pero

también mucho más caro. La

economía, si no otra cosa, llevó a los

ingenieros de ambas compañías a

conclusiones similares aquí. Ajuste y

el acabado podría contar si vas a

comprar un servidor o incluso cien,

Page 14: Revista UNI-IEEEndo Esfuerzos 4edición

pero no cuando va a

comprar decenas de miles de

personas a la vez. Y luchar por una

alta fiabilidad es un poco inútil a esta

escala, donde el fracaso no es sólo una

opción, es un hecho cotidiano de la

vida.

Michael explica que él ayudó a

diseñar tres tipos básicos

de servidores para el funcionamiento

de la aplicación de Facebook. La capa

superior del hardware, conectado

directamente con la mayoría de

los usuarios de Facebook, se compone

de servidores Web exteriores. Ellos no

requieren mucho espacio en disco, lo

suficiente para el sistema

operativo(Linux), la base de servidor

Web de software (que hasta hace

poco era Apache), el código necesario

para montar las páginas de

Facebook (escrito en PHP, un

lenguaje de script), algunos archivos

de registro, y unos pocos

bits y otras piezas. Esas

máquinas están conectadas a una capa

más profunda de los servidores

de relleno de los discos duros basados

en memoria flash y unidades de

estado sólido, que proporcionan

almacenamiento persistente para el

gigante de las bases de

datos MySQL que tienen fotos de los

usuarios de Facebook,

videos, comentarios, y listas de

amigos, entre otras cosas . En el

medio está la RAM,

pesados servidores que ejecutan un

sistema de cacheo de memorias para

proporcionar un rápido acceso a los

contenidos de uso más frecuente.

Los Geeks Alphas reconocen

que estas piezas de software Linux,

Apache, PHP,

MySQL, “memcached”, todos

provienen de la comunidad de código

abierto. Los programadores de

Facebook han modificado estos y

otros paquetes de código abierto para

satisfacer sus necesidades, pero en

el nivel más básico, están

haciendo exactamente lo que los

desarrolladores de web han hecho: la

construcción de su sitio en una

base de código abierto.

No es así en Google. Los

programadores han escrito la mayoría

del software de su

empresa impresionante desde cero,

con la excepción de la ejecución de

Linux en sus servidores. Las más

destacadas son el Google File

System (GFS o, del sistema de

archivos distribuido a gran

escala), Bigtable (una base de

Page 15: Revista UNI-IEEEndo Esfuerzos 4edición

datos de baja

sobrecarga), y MapReduce (que

proporciona un mecanismo para llevar

a cabo varios tipos de cálculos de

forma masiva en paralelo). Es

más, los programadores de Google

han reescrito el código de la

compañía principal de búsqueda en

más de una vez.

Hablando hace dos años en la

Segunda Conferencia de ACM

Internacional sobre la Web de

búsqueda de datos, JeffDean,

miembro Google que trabaja en el

grupo del sistema de infraestructura

de la empresa, dijo que en los últimos

años su compañía ha realizado

siete revisiones significativas en la

forma en que implementa la

búsqueda web. Sin embargo, los

extranjeros no se dan cuenta de

que, debido a, como explicó "se puede

sustituir la parte de atrás todo sin que

nadie se diera cuenta."

¿Cómo hemos de interpretar la

diferencia entre Google y las

culturas de ingeniería de Facebook en

relación con el uso de código

abierto? Parte de la

respuesta sólo puede ser que Google,

después de haber empezado antes, no

tenía más opción que desarrollar su

propio software, ya que alternativas

de código abierto aún no estaban

disponibles. Sin embargo, Steve Lacy,

quien trabajó como ingeniero de

software de Google desde 2005 a

2010, piensa lo contrario. sostiene

que Google sólo sufre de un grave

caso de no inventado

aquí síndrome. Muchos paquetes de

código abierto "Google pone la

infraestructura a la vergüenza cuando

se trata de la facilidad de uso y el

enfoque del

producto," escribe Lacy."[Sin

embargo los de Google]

Los ingenieros desalientan el uso de

estos sistemas, hasta el punto en que

son castigados por siquiera pensar

en utilizar otra cosa

que Bigtable / Llave y GFS /Colossus

para sus productos."

Google o la infraestructura de

Facebook todavía podrían agrietarse

en su creciente carga? Bases de

usuarios regulares de Facebook ha

crecido a más de quinientos millones

de personas, y continúa

añadiendo más de 20 millones de

usuarios al mes. Y Google ha de

dedicar grandes recursos de

computación para mantenerse al día

con las 34 000 búsquedas que

realiza cada segundo, durante la

Page 16: Revista UNI-IEEEndo Esfuerzos 4edición

ejecución de las subastas de

anuncios, la traducción

de idiomas, manejar el tráfico de

Gmail, recibiendo los vídeos de

YouTube y mucho más. ¿Puede todo

esto caber en un vaivén sin fin?

Parece que sí. Mientras que los

costos son enormes, estas

empresas parecen ser el manejo de

la carga de computación con relativa

facilidad. Pero quizás eso no debe

sorprender. Después de todo, si no

tiene potencia suficiente, siempre se

puede retrasar la introducción de

cualquier uso intensivo de recursos de

servicios que están

trabajando y que tanto despliegue

de estas características con suficiente

regularidad.

Tomando Google Instant, una

función de búsqueda instantánea de

que la empresa presentó en

septiembre pasado. "El objetivo

era aumentar el factor de alegría",

dice Ben Gomes, quien encabezó el

equipo de Google

Instant. Instantánea se ve a las

primeras letras que lleva una consulta

de búsqueda y ofrece una página de

resultados sobre la base de lo que se

anticipa que la intención de

escribir. Por lo tanto, incluso para una

simple consulta, búsquedas

múltiples ahora debe ir en paralelo, y

los cálculos deben llevarse

a cabo para elegir que los resultados

para mostrar. Google se ha hecho un

cambio, si sus ingenieros tenían

alguna duda sobre la capacidad de sus

sistemas para tomar el castigo?

Del mismo modo, Facebook sin

duda puede controlar en gran

medida a sus usuarios de su

sistema fiscal. Desde el año pasado,

Page 17: Revista UNI-IEEEndo Esfuerzos 4edición

En la RRR 2011,

desarrollada en la ciudad

de Lima-Perú, nuestra

revista alcanzó el 3er

puesto como caso de

éxito a nivel

latinoamericano.

Muchas gracias a todas las personas que hicieron

esto posible.

por ejemplo, los usuarios de

Facebook habían subido50 mil

millones de imágenes del sitio. Y, sin

embargo, a pesar de la enorme

cantidad de ancho de banda y espacio

de almacenamiento consumido

por todas esas fotos,

Facebook haaumentado periódicament

e la resolución de las imágenes los

usuarios pueden guardar. ¿Qué

habrían hecho si sus ingenieros de

operaciones sentían que

su infraestructura informática estaba

en peligro de colapso?

Mi punto es que ni Google

ni Facebook es probable

que contemplen la ampliación de sus

sistemas para satisfacer la demanda.

Claro, habrá problemas técnicos

y retrasos de tiempo en tiempo. Sin

embargo, parece poco probable

que cualquiera de estas

sociedades vayan a sufrir de una

falta a largo plazo de empuje de

computación, ya que siguen dando

forma a la manera en que manejamos

nuestras vidas en línea. La rapidez

con que tendrán que construir nuevos

centros de datos, y qué

tipo de nueva tecnología de ahorro de

energía a los centros

contendrán, nadie lo

sabe. Pero una cosa es segura: sus

servidores siempre será feos.

Traducido por:

Paul Dremyn Gomez Ch.,

[email protected]

Artículo Original de: David Schneider.

Page 18: Revista UNI-IEEEndo Esfuerzos 4edición

China's Godson Gamble

La apuesta del Ahijado de China

Estructura de malla coloca al procesador de supercomputadora lejos de la competencia

La supercomputadora Dawning 6000, que los investigadores chinos esperan dar a conocer en el tercer trimestre del 2011, tendrá algo muy diferente bajo su cubierta. A diferencia de sus precursores, que emplearon chips originarios de Estados Unidos, esta máquina aprovechará un procesador de gama alta propio del país, el Godson-3B. Con una frecuencia pico de 1.05 Gigahertz, el Godson es más lento que los productos de sus competidores, al menos uno de ellos opera a más de 5 GHz, pero el chip aún impresiona con su eficiencia energética sin precedentes. Puede ejecutar 128 mil millones de operaciones punto flotante por segundo usando solo 40 watts - el doble o más de rendimiento por watts que sus competidores. El Godson tiene una estructura interconectada excéntrica - para la transmisión de mensajes entre los múltiples núcleos del procesador - que también ha ganado atención. Mientras Intel e IBM están comercializando chips que lanzarán comunicaciones entre núcleos al estilo carrusel en una "interconexión tipo anillo", el Godson conecta núcleos usando una versión modificada del sistema de interconexión tipo rejilla llamada red de malla. Los diseñadores del procesador, liderados por Weiwu Hu en la Academia China de Ciencias, en Beijing, parecen apostar por un nuevo tipo de disposición para futuros procesadores de computadora de gama alta.

Un diseño de malla va mano a mano con el ahorro de energía, dice Matthew Mattina, arquitecto jefe en el San José, California - basado en Tilera Corp. un fabricante de chips ahora montando procesadores de 36 y 64 núcleos usando interconexiones tipo malla en el chip. Imagine una interconexión tipo anillo como un flujo en carrusel. Llegar a alguna salida le exige trasladarse alrededor de casi todo el círculo. Viajando lejos de tu destino antes de llegar a él, dice Martina, requiere más conmutaciones de transistores y por lo tanto consume más energía. Una red de malla es más como las calles entrecruzadas de una ciudad. "En una malla, tú siempre atraviesas la cantidad mínima de cables - tú nunca irás por un camino erróneo", dice. En el chip Godson de 8 núcleos, cuatro núcleos forman una unidad estrechamente conectada - cada núcleo se asienta en una esquina de un cuadrado de interconexiones, como en una malla usual. Los investigadores del Godson también han conectado cada esquina a su opuesto, usando un par de interconexiones diagonales en forma de X a través del centro del cuadrado. Una interconexión de travesaño luego sirve como un paso a desnivel, conectando esta vecindad de cuatro núcleos a una configuración de cuatro núcleos cercana. Los desarrolladores del Godson creen que la escalabilidad de su malla modificada proveerá una ventaja clave, como los diseñadores de chips aumenten el número de núcleos en futuros chips. Yunji Chen, un arquitecto del Godson, dice que las interconexiones tipo anillo de sus competidores podrían tener problemas trabajando con más de 32 núcleos. En realidad, uno de los beneficios del anillo podría proveer su futuro riesgo. Conectando nuevos núcleos para un anillo es bastante fácil, dice K. C. Smith, un profesor emérito de Ingeniería Eléctrica y de Computación en la Universidad de Toronto. Después de todo, hay solo un camino para enviar información - o dos en un anillo bidireccional. Pero compartiendo un camino de comunicación común además significa que cada núcleo adicional aumentado a la extensión del cable que envíe un mensaje debe viajar e incrementar la demanda para ese camino. Con un gran número de núcleos, "la sincronización alrededor de este anillo se sale de control", dice Smith. "Tú no puedes obtener el servicio cuando lo necesitas".

Anillo de 8 núcleos: En muchos microprocesadores, la información circula alrededor de una interconexión con forma de anillo para llegar a los núcleos del procesador.

Malla de 9 núcleos: Algunos nuevos procesadores de gama alta usa una red de malla. Éstos pueden ser más complejos pero también más eficientes en energía.

Godson de 8 núcleos: El procesador chino se basa en una red de malla modificada que contiene conexiones directas extras para mover datos eficientemente.

Page 19: Revista UNI-IEEEndo Esfuerzos 4edición

Por supuesto, aumentando más núcleos en una malla también fuerza al sistema. Incluso si tú tienes una rejilla de caminos proveyendo múltiples canales de comunicación, más núcleos aumentan la demanda para la red, y más demandas hacen los viajes de larga distancia más difíciles: Trata de manejar a través de Nueva York en hora punta. Aún así, la escala del ancho de banda de una interconexión tipo rejilla es superior a la de una tipo anillo, dice Mattina de Tilera. Él nota que el ancho de banda total disponible con una interconexión tipo malla aumenta tanto como los núcleos, pero con una interconexión tipo anillo, el ancho de banda total permanece constante incluso cuando la cantidad de núcleos se incrementa. El estado latente - el tiempo que toma para llevar un mensaje de un núcleo a otro - es además más favorable en un diseño de malla, dice Chen. En una interconexión tipo anillo, el estado latente se incrementa linealmente con el número de núcleos, dice, mientras en un diseño tipo malla se incrementa con la raíz cuadrada del número de núcleos. Reid Riedlinger, un ingeniero principal en Intel, indica que una interconexión tipo anillo tiene sus propios beneficios de escalabilidad. Recientemente Intel dio a conocer el diseño Poulson de 8 núcleos que emplea un anillo no solo para aumentar más núcleos sino también para aumentar la memoria en chip de fácil acceso, o caché. Siempre que el chip tenga la potencia y el espacio, dice Riedlinger, un anillo hace más fácil aumentar cada núcleo y caché como un módulo – un movimiento que exigiría estudios de validez y modificación lógica más complicados en una malla. “Aumentando una interrupción de anillo adicional tiene un muy pequeño impacto en estado latente, y la capacidad de caché adicional proveerá beneficios de rendimiento para muchas aplicaciones”, dice. Para aquellos quienes no estén construyendo una supercomputadora nacional, Riedlinger también apunta que una configuración tipo anillo es más fácilmente escalable en una dirección diferente. “Podrías comenzar con un diseño de 8 núcleos”, dice, “y luego, para adaptarlo a diferentes segmentos del mercado, podrías conseguir 4 núcleos de la mitad y venderlo como un producto diferente”.

Elaborado por: JOSEPH CALAMIA

Traducido por: LIZETH CASTILLO

Page 20: Revista UNI-IEEEndo Esfuerzos 4edición

Julio Salvador Já[email protected]

1. Introducción

El concepto del acceso universal en los servicios públicos tiene sus primeras citas en la

industria de las telecomunicaciones con la Ley de Telecomunicaciones de Estados

Unidos de 1934, en la que se describía el concepto de accesibilidad de los servicios

telefónicos, así como el de su disponibilidad universal en favor de los hogares que

deseaban utilizar tales servicios. Este concepto luego ha sido trasladado a otros

ámbitos y en especial a la energía, así las Naciones Unidas en su publicación Energy for

a Sustainable Future (UN, 2010) considera el acceso universal a la energía como uno

de los pilares para la lucha contra la pobreza. En el mismo sentido hay quienes

consideran que el Acceso Universal a la Energía es un derecho (Lumbreras, Et.Al,

2007). En este marco es relevante destacar que el concepto del Acceso Universal a la

Energía, ha sido incorporado en la reciente declaración de la Política Energética del

Perú1, como uno de sus objetivos de política. El concepto como tal es muy ambicioso,

como debe ser todo objetivo, y siendo así obliga a tomar decisiones y rumbos de

acción diferentes a los que se han venido tomando en el sector, pues el énfasis

sectorial se amplía y sus consecuencias también; lo cual debiera significar un cambio

en las estrategias del sector y del Estado en general, pues trasciende el marco

sectorial.

El acceso a la energía se define objetivamente en la posibilidad económica que tienen

los ciudadanos para adquirir la energía, por lo que el análisis se realiza desde la

perspectiva micro, antes que al nivel agregado y de las grandes magnitudes,

analizándose los condicionantes que enfrentan los usuarios finales en el momento de

optar por las diferentes opciones energéticas que el mercado ofrece.

Con el nivel de desarrollo económico existente y las tecnologías disponibles resulta

contradictorio saber que 1.400 millones de personas en el mundo no tienen acceso a

la electricidad (según la IEA, 2010), de los cuales el 85% está en las zonas rurales.

Asimismo, se señala que si no se desarrollan políticas especialmente dedicadas a este

fin, en el año 2030, la cifra será de 1.200 millones. En el mismo sentido, el número de

personas que viene utilizando la biomasa tradicional (leña, bosta, etc.) es de 2.700

millones y de no hacer nada drástico, en el 2030 el número se incrementará a 2.800

millones de personas.

En el país se ha logrado hasta el año 2010 un coeficiente de electrificación del 82%, lo

cual significa que hay cerca de 6 millones de peruanos para quienes todavía la energía

eléctrica no está disponible. En el mismo sentido, en el balance nacional de energía del

1 Decreto Supremo N° 064‐2010‐EM “Aprueban la Política Energética Nacional del Perú 2010 – 2040”.

Acceso Universal a la Energía en el PerúReto y Realidad

Page 21: Revista UNI-IEEEndo Esfuerzos 4edición

año 2009, el 50% de la energía que consume el bloque residencial–comercial tiene

como fuente la biomasa.

Se ha evidenciado que existe una estrecha relación entre el consumo energético y el

nivel de desarrollo de los países, por ello es que conjuntamente con las políticas de

erradicación de la pobreza se tiene que adoptar medidas para facilitar el acceso tanto

a la electricidad como a las energías limpias para la cocción de sus alimentos a los

ciudadanos de las zonas económicamente deprimidas (IEA, 2010). En ese sentido, lo

que se reclama es la participación de los Estados (WEC, 2006) para lograrlo; sin

embargo, y a pesar de los grandes esfuerzos que éstos realizan para dotarles de redes

eléctricas, resulta irónico comprobar que los pobladores de muchas de estas zonas no

puedan acceder a ellas por su falta de capacidad de pago para conectarse, con lo cual

la efectividad de estos esfuerzos se minimiza, deviniendo en insostenibles en el

mediano y largo plazo.

2. Acceso a la energía

¿Cuándo puede afirmarse que se tiene acceso universal a la energía?

Responder a esta interrogante pasa en primer lugar por entender los conceptos de

Disponibilidad y Accesibilidad (Oestmann & Dymond, 2009):

a. Disponibilidad. Se relaciona con la oferta de los diferentes tipos de energía

que el usuario tiene a su alcance.

b. Accesibilidad. Es la capacidad del ciudadano para adquirir y hacer uso de la

energía que tiene al alcance.

Para poner el contexto económico de los conceptos antes indicados, en el año 2010,

“el sector más pobre, compuesto por casi 3 millones de peruanos en pobreza extrema,

tiene ingresos de apenas 72 soles mensuales” (Francke, 2010; INEI, 2010); por tanto la

capacidad de los ciudadanos en pobreza para acceder a cualquier tipo de energía es

muy limitada y como tal esfuerzos muy loables como el de la electrificación rural, lo

que garantizan es la disponibilidad de la red eléctrica: “que pase por la puerta de la

casa” mas no su acceso o uso efectivo.

En consecuencia, se puede afirmar que se tiene acceso universal a la energía cuando

se tiene la capacidad de adquisición y la disponibilidad del servicio, y ambos tienen que

ser simultáneos, pues de otro modo no se logra concretar el objetivo.

3.

La matriz energética desde la perspectiva del usuario

En el Gráfico N° 01 se muestra la matriz energética elaborada por el MINEM en el año

2009, donde se puede observar que en el Perú los usuarios finales han accedido a las

siguientes formas de energía.

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 22: Revista UNI-IEEEndo Esfuerzos 4edición

Grafico N° 01

Fuente: (MINEM, 2010)

Un hecho relevante es la importancia que tiene la biomasa a nivel del sector

residencial y comercial, pues como se aprecia en términos oficiales se expresa que el

50% de los consumos energéticos proviene de la biomasa, 27% de la electricidad, el

22% de los hidrocarburos líquidos y el 1% del gas natural.

El usuario final utiliza aquel servicio o bien que tenga disponible y la que sus

posibilidades económicas le permitan adquirirlo. Considerando la capacidad

adquisitiva de los ciudadanos de las zonas rurales, su alternativa económicamente

viable es recurrir a la naturaleza (medio ambiente) derribar un árbol, cortarlo, secarlo

y usarlo. ¿Energía sin costo? Esta conducta asociada a la capacidad de acceso, colisiona

fuertemente con el tema de la conservación y protección ambiental. Se reconoce por

esta vía que la pobreza es uno de los principales factores que contribuye en la

degradación ambiental (Tolmos, R. 2004).

4.

El Costo de la Accesibilidad y Disponibilidad a la Energía

Se conoce que a nivel nacional una casa consume en promedio 1 balón de GLP (10 kg)

al mes, a partir de ello si se realiza la evaluación económica de adquirir la misma

cantidad de energía a partir de distintos combustibles alternativos, se obtiene el

Gráfico N° 02, en el cual se enfatiza que el título biomasa, alude a la capacidad de

recolección de fuentes naturales de energía disponibles, incluida la leña.

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 23: Revista UNI-IEEEndo Esfuerzos 4edición

El ejercicio que se realiza con relación al gráfico indicado, considera la pregunta ¿Qué

haría el usuario final si deseara adquirir uno de los tipos de energía disponibles? Para

este caso considérese solamente lo valores finales de los energéticos disponibles. Para

un ciudadano rural (sin capacidad adquisitiva), las únicas opciones viables son la

biomasa, la naturaleza aún no cobra y el uso es local. Asimismo, dispone del GLP, pues

este energético no requiere de redes físicas y puede ser transportado a lugares muy

alejados, es portátil. Como puede notarse dispone de dos energéticos pero el acceso

mayoritariamente es al de menor costo (biomasa).

Para un ciudadano no rural, descartada la biomasa, su primera elección desde la

perspectiva económica sería el gas natural; sin embargo, el acceso a dicho energético

(costo de conexión y ductos internos) está alrededor de US$ 400. Su segunda mejor

opción es la electricidad con tarifa que diferencia las horas de punta, su costo de

acceso en este caso está alrededor de US$ 150 (costo de conexión y medidor especial).

La tercera mejor opción es la electricidad vía la conexión normal que cualquier casa

tiene y cuyo costo de acceso es US$ 90 (costo de conexión y medidor normal).

Finalmente, tiene como opción el GLP que siendo el energético más caro tiene el

menor costo de acceso US$ 20 (costo del cilindro vacío no requiere nada más).

Grafico N° 02

El costo del Acceso

A partir de estas verificaciones se puede apreciar los dos anillos conceptuales de

acceso a la energía anteriormente definidos. El primer anillo corresponde a los costos

de la disponibilidad energética, cuyos costos en el sentido de las agujas del reloj se va

Electricidad1

GLP

Gas natural

400$

20$

90$BT5A

S/.10

S/.35

150$BT5B

S/. 26

S/. 13

Biomasa

0$

S/.0

Electricidad

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 24: Revista UNI-IEEEndo Esfuerzos 4edición

incrementando, y otro el de los costos accesibilidad que van descendiendo en el

sentido de las agujas del reloj. Ver el Gráfico N° 03: mientras uno crece el otro decrece.

Gráfico N° 03

Los Costos de Disponibilidad y Accesibilidad

Ciclos contrapuestos que determinan cómo se consume la energía en el país y en los

países en general, pues la economía no hace diferencias, dependiendo de los costos

relativos de disponibilidad y accesibilidad. En este sentido es necesario los mecanismos

Electricidad

GLP

Gas natural

400$

20$

90$BT5A

S/.10

S/.35

150$BT5B

S/. 26

S/. 13

Biomasa

0$

S/.0

Electricidad

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 25: Revista UNI-IEEEndo Esfuerzos 4edición

de actuación del Estado como el colombiano para acceder al energético que se desea

promover, pues de otro modo se dispone del energético mas no se puede acceder a él.

5.

El Acceso Universal a la Energía

Cuando se habla en el nivel micro y cuando la economía ajusta, se busca la solución

accesible, que no necesariamente es la más económica.

De allí que si se revisa el gráfico N° 04, se puede afirmar que a pesar que la electricidad

tiene en el país cerca de 150 años, su grado de penetración calculada es sólo del 82%,

cuando en los últimos 15 años el GLP ha ascendido en los mismos términos

comparativos del 37% al 64%. Nótese que no hay un programa de ampliación de

frontera de GLP, como si lo hay en el caso de la electricidad, su consumo creció por la

accesibilidad y de la mano de la disponibilidad de dicho energético.

Gráfico N° 04

En la parte inferior del gráfico N° 04 se muestra la penetración del gas natural, es

tan baja que no se distingue en el gráfico, tiene el costo de acceso más alto. Las

velocidades de crecimiento indican que el GLP va a ritmo alto y sostenido

soportado por su alta accesibilidad, mientras que en el caso eléctrico los costos de

ampliar la frontera sólo pueden aumentar, pues cada vez será más caro hacer

accesible la red de electricidad a los ciudadanos rurales, por lo menos con la

tecnología actual de redes que se viene impulsando.

61.6% 63.1%64.8%

67.2% 68.5% 69.8% 70.2% 70.8% 71.1%72.8% 73.4% 74.1%

76.8%78.5%

82.0%

34.4%36.1%

41.2%

45.3% 46.1%43.4% 44.0%

45.9% 47.0%

51.9%54.7%

60.8%

64.9% 65.7%67.9%

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010

COEFICIENTES DE ELECTRIFICACION, GLPIZACION Y GNIZACION

ELECTRIFICACION GLPIZACION GNIZACION

5.1.

Eficiencia técnico económica

¿Cómo la electricidad que tiene como principal insumo el gas natural termina

siendo competitiva con el gas natural visto desde la perspectiva del usuario final?

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 26: Revista UNI-IEEEndo Esfuerzos 4edición

Energéticamente no es lo mismo quemar el gas natural para convertirlo en

electricidad o quemarlo directamente en la hornilla de la cocina; en el primer caso

en el proceso de conversión de energía térmica en eléctrica se pierde por lo menos

el 65% de la energía primaria; a ello hay que añadir las pérdidas de

transformación, transporte y distribución eléctricos, lo cual lleva en términos

prácticos a que sólo aproximadamente el 30% de la energía primaria llegue hasta

la cocina eléctrica. En el segundo caso, quemar directamente el gas natural en las

cocinas significa que energéticamente se pierda sólo el 30% de la energía primaria

que llega a las hornillas. Diferencias sustanciales en términos energéticos, sin

embargo muy parecidos en términos económicos, ¿la razón? El precio del gas

natural. Los precios del gas natural tienen valores definidos, que no los definió el

mercado sino el contrato, y están definidos de tal manera que el gas natural para

las cocinas es más caro que para generar electricidad.

En resumen, si bien del punto de vista del usuario, los costos finales de la

electricidad y el gas natural son semejantes, la eficiencia en el uso del recurso

primario es muy baja.

Gráfico N° 05

Evolución de la Matriz Energética en el país, 2000‐2010

4% 4% 5% 5% 5% 5% 4% 5% 4% 4% 3%

15% 15% 15% 15% 15% 15% 15% 15%12% 12% 12%

4% 4% 4% 5% 4% 3% 3% 3%3% 3% 4%

62% 60% 59% 57% 58%53%

51% 48%49% 51% 50%

3%3% 3% 4% 6%

11%12% 17% 20% 19% 21%

13% 14% 14% 15% 13% 13% 14% 13% 12% 11% 10%

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010

Hidroenergía Gas Natural Petróleo Bosta/Bagazo/Otros Leña Carbón/Coque

Las políticas energéticas pueden ser implícitas, como fue hasta hace poco en el

país, lo cual no significa que no existan; las acciones gubernamentales terminan

apoyando políticas que determinan el tipo de energético que el usuario final

decidirá utilizar, es cuestión de determinar y diseñar el acceso a los mismos. Así,

se aprecia el gráfico N° 5, se puede notar cómo a nivel agregado se ha impulsado

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 27: Revista UNI-IEEEndo Esfuerzos 4edición

fuertemente el uso del gas natural a partir de fijar los precios del gas natural, y

todo parece indicar que cada vez el país se hará más dependiente de este

energético.

Todos los demás energéticos retroceden a la incursión del gas natural, inclusive el

hídrico.

5.2. Viabilidad del acceso a la energía

Retomando el concepto del ciudadano usuario, y en especial del servicio eléctrico,

se ha publicado recientemente los avances que se ha tenido sobre los proyectos

electrificación rural, cuyos datos se muestran en el Cuadro N° 01, en el cual se da

cuenta de los proyectos desarrollados, la inversión realizada y la población

beneficiada.

Dado que éste es un proceso de “ampliación de frontera eléctrica”, los poblados

con mayor cantidad de habitantes se van atendiendo prioritariamente, siendo que

van quedando los de menor cantidad de población y en consecuencia el esfuerzo

por llegar en términos económicos favorables será cada vez mayor.

Así, si se realiza la evaluación del valor global que el Estado realiza (Gobierno

central y gobiernos regionales) para que los ciudadanos rurales tengan

disponibilidad a la electricidad, se puede determinar que el costo en que ha

incurrido el Estado por cada posible conexión tiene un valor mínimo de 782 US$ y

un valor máximo de 4,628 US$, a juzgar por los datos publicados y calculados en el

Cuadro N° 01.

En este punto la reflexión es que, existe una política del Estado para promover el

acceso a la electricidad; sin embargo, para ser coherente con el tercer objetivo del

la Política Energética Nacional recientemente aprobada: “acceso universal al

suministro energético”, el esfuerzo debiera encaminarse por la mejor forma de

otorgar acceso a la energía como un todo y no sólo a un tipo de energético.

Objetivamente la política hasta ahora ha sido de acceso universal a la electricidad,

tal es así que se ha definido el indicador “coeficiente de electrificación” mediante

el cual el Estado evalúa en forma permanente ese objetivo.

En cumplimiento con este objetivo, se tiene el caso del departamento de Cerro de

Pasco, donde el año 2010 se tuvo una mayor inversión por conexión emprendida

por el Estado. Pasco es uno de los departamentos que está ubicado

geográficamente en uno de los lugares más altos del país, convendría preguntarse

¿no sería mejor “abrigarlos” con energía, antes que realizar campañas, igualmente

loables, de recolección de ropa y campañas periódicas?

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 28: Revista UNI-IEEEndo Esfuerzos 4edición

Cuadro N° 01

Proyectos de Electrificación Rural ‐ 2010

Departamento InversiónPoblaciónbeneficiada N° hogares US$/conex

Amazonas 13375130 11941 2388 2000

Ancash 44717495 21242 4248 3759

Apurímac 7823795 11387 2277 1227

Arequipa 141133 316 63 798

Ayacucho 67199600 58170 11634 2063

Cajamarca 64501909 69969 13994 1646

Cusco 38159214 43848 8770 1554

Huancavelica 8007558 6872 1374 2081

Huánuco 75020200 80899 16180 1656

Junín 10439424 10649 2130 1751

La Libertad 47366225 56915 11383 1486

Lambayeque 24839072 20475 4095 2166

Lima 4533748 4910 982 1649

Loreto 49778827 82272 16454 1080

Madre de Dios 8182165 12835 2567 1138

Moquegua 1172139 1855 371 1128

Pasco 3402669 1313 263 4628

Piura 73459628 83930 16786 1563

Puno 32473209 33747 6749 1718

San Martín 19855836 32777 6555 1082

Tacna 10776675 24609 4922 782

Tumbes 2089227 1218 244 3063

Ucayali 17506340 26200 5240 1193

Total 624821218 698349 139670

Sólo para efectos de hacer números: si esos US$ 4.628 de poner a disposición de la

familia beneficiada una red de electricidad, a la que en adición debe abonar un

monto por la conexión y un monto mensual por el consumo, el monto indicado en

términos del energía proveniente de GLP, cuyo costo es de US$ 12 por balón,

alcanzaría para disponer de un balón mensual durante 32 años, sin mayor costo.

Pero si la idea es darles electricidad, es necesario evaluar el límite de la tecnología

de las redes eléctricas y ver las otras alternativas de provisión de electricidad.

El sector dispone por los menos de dos fondos y mecanismos impositivos que

viene administrando con relación al acceso a la energía, no necesariamente

universal, el fondo de compensación de combustibles, el fondo de electrificación

rural y tasas impositivas diferenciadas para los combustibles, si el énfasis es del

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 29: Revista UNI-IEEEndo Esfuerzos 4edición

acceso universal, el fondo debería considerarse como un único fondo, para una

estrategia común.

6.

La matriz Energética Alternativa

a. Visión Continuista

¿Lograr que el coeficiente de electrificación sea el 100%? ¿Es ésa la meta? Si se

trata de ello pues quedan cerca de dos millones de viviendas por darles la

disponibilidad del servicio eléctrico, tomando el valor promedio de lo invertido

por el Estado en el año 2010, que asciende a 2000 US$/vivienda, el monto

necesario estaría por los 4,000 Millones de US$, para lograr ese propósito. No

debe olvidarse que cuando más se avanza, los costos se van incrementando y

como tal este valor sería como un valor mínimo. Quedaría sin embargo lograr

que esas viviendas puedan acceder al servicio de electricidad, haciendo que

cada una de ellas pague US$ 80 para la conexión y luego los pagos mensuales

por el consumo. Nótese que no es la más económica de todas las opciones

disponibles.

b. Visión alternativa

Un modelo de visión sostenible sectorial y alineada con el objetivo nacional de

erradicar la extrema pobreza, tiene que ver con dos líneas de acción

claramente definidas y propuestas por (IEA, 2010) acceso universal a la

electricidad y acceso universal a formas limpias de cocción.

En tal sentido y adecuando los términos de la propuesta referida, se muestra

el Cuadro N° 02, en el cual se traza la visión del 2030 y el reto que se cumpliría

antes de esa fecha.

La visión tradicional de querer llegar a todos los lugares sólo con un

energético, debe ser superada para dar lugar a enfoques integrales, así de una

adaptación de la terminología y del objetivo formulado en (IEA, 2010) el

acceso universal podría formularse en los términos indicados en el Cuadro N°

2.

Cuadro N° 02

Objetivo 2030

Rural Urbano

Acceso a la electricidad 100% de acceso‐ 30% conectado a la redinterconectada nacional.‐ 70% conectado a

‐ 75% PSE‐ 25% Aislados

100% acceso a la redinterconectada

Acceso a la fuentes decocción limpias

100% acceso‐ 30% cocinas con GLP‐ 15% cocinas a biogas‐ 55% cocinas mejoradas

100% acceso a la redde gas

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 30: Revista UNI-IEEEndo Esfuerzos 4edición

Fuente: IEA (2010)

Atención especial merecen las cocinas con biogas, dado que éstas pueden

incluirse en un programa mucho más ambicioso en el cual se integre la energía

como un subproducto de proyectos con biodigestores, en los cuales el insumo

por lo general son las excretas de los animales y residuos vegetales, cuyos

productos son gas natural y fertilizantes. En este segundo caso son insumos

muy ricos para abonar las plantas que consumirán los animales y el ciclo se

podría cerrar. Éste se presenta como un caso donde el esfuerzo por dar

energía transciende el sector, pues el proyecto cuya factibilidad técnica en

piloto se dispone en el país, puede dar lugar a la generación de proteínas,

energía y fertilizantes, el reto es hacerlos sostenibles.

5. Conclusiones

‐ El objetivo de política energética del Perú de dar acceso universal a la energía,

cambia radicalmente la forma de conceptualizar e implementar los planes del

Estado para atender las necesidades de energía de los ciudadanos de las zonas

aisladas, rurales y urbano‐marginales.

‐ No es suficiente garantizar la disponibilidad de energía, es necesario garantizar la

accesibilidad para usar dicha energía, buscando en adición que esta sea sostenible

mediante mecanismos sostenibles. Actualmente los costos de accesibilidad están

determinando e impulsando el consumo de los energéticos más caros.

‐ Los indicadores sectoriales, tales como “coeficiente de electrificación”, tienen que

incluir bajo la nueva política las demás opciones energéticas.

‐ A la fecha, los tres grandes protagonistas energéticos con alto valor de mercado

(electricidad, gas natural y GLP) tienen diferentes costos de acceso para el usuario

y ello determina que las energías más caras que son las que tienen menores costos

de acceso, sean las más frecuentemente utilizadas. Así, en orden ascendente de

costos está el gas natural, la electricidad y el GLP.

‐ El objetivo de lograr el acceso universal a la energía conlleva un objetivo mayor

que es el de erradicación de pobreza y generar el desarrollo de los pueblos, la

forma cómo el sector contribuye puede considerar, tal como ha sido señalado (IEA,

2010), en dos vías el acceso universal a la electricidad y el acceso a formas limpias

de cocción.

‐ Finalmente los costos de accesibilidad y disponibilidad de los energéticos

determinan el balance nacional, por tanto, si el objetivo es el acceso universal a la

energía los Fondos y Recursos deben tener una orientación distinta a impulsar un

energético en particular y promover el mix de ofertas energéticas para hacer del

reto del acceso universal de la energía una realidad. En esta línea de pensamiento

el esfuerzo por dar acceso universal a la energía debe considerar una mayor

coordinación intersectorial.

‐ La energía, no ha sido declarado como un derecho, sin embargo sin ella no se

pueden asegurar se brinden los servicios que si han sido considerados como tales.

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 31: Revista UNI-IEEEndo Esfuerzos 4edición

6.

Bibliografía

Francke, P. (2010) Disponible en: http://www.larepublica.pe/actualidad‐economica‐

pedro‐francke/13/06/2010/distribucion‐la‐verdad‐incomoda

IEA, (2010). Energy Poverty. How to make modern energy Access universal?.

UNDP/UNIDO. OECD. September 2010.

INEI (2010). Perú. Incidencia de la pobreza extrema 2001‐2010. Encuesta Nacional de

Hogares 2001‐2010.

Lumbreras, J. Et. Al. (2007). Derechos humanos y acceso universal a la energía.

Ecosostenible. N° 25‐Marzo 2007. Cámara Valencia. España.

MINEM, (2010). Balance Nacional de Energía 2009. Ministerio de Energía y Minas.

Perú. 2010.

Oestmann, S. & Dymond, A. (2009) Acceso y Servicio Universal (ASU). Modulo 4.

Conjunto de herramientas para la reglamentación de las TIC. Information for

Development (Info DEV) & International Telecommunication Union (ITU).

Tolmos, R. (2004). Desafíos y propuestas para la implementación más efectiva de

instrumentos económicos en la gestión ambiental de América Latina y el Caribe: El

Caso de Perú. CEPAL. Santiago de Chile.

UN (2010) Energy for a sustainable future. The secretary – general´s advisory group on

energy and climate change (AGECC) – Summary report and recommendations. April.

2010. New York.

WEC (2006). América Latina. Pobreza energética – Alternativas de alivio. Informe.

Abril. 2006.

Acceso Universal a la Energía en el Perú por: Julio Salvador Jácome

Page 32: Revista UNI-IEEEndo Esfuerzos 4edición

EFICIENCIA ENERGÉTICALa creciente preocupación mundial acerca del futuro energético de nuestro planeta ha establecido un cuestionamiento de

los patrones de producción, transmisión, distribución y consumo de la energía. Existe hoy día la certeza de la urgente

necesidad de garantizar la seguridad energética, controlar la contaminación actual que se está dando por algunas fuentes

de energía, presentar alternativas de solución al cambio climático.

Cada día dañamos nuestro clima utilizando combustibles fósiles (petróleo, carbón y gas) para electricidad, transporte e

industria. La generación de energía a partir de estos combustibles genera mundialmente efectos como el invernadero.

Page 33: Revista UNI-IEEEndo Esfuerzos 4edición

El cambio climático ya está afectando nuestras vidas y se

prevé que destruirá el medio ambiente de diversos países

así como numerosos ecosistemas y especies en los

próximos años. Por esta razón nosotros como ingenieros

que somos debemos desarrollar proyectos que cambien

los patrones en producción y consumo de energía y esto

debe comenzar cuanto antes.

Necesitamos una transformación completa de la forma

de generar, distribuir y consumir la energía. Este gran

cambio debe efectuarse contemplando el uso de las

energías renovables existentes y la adopción de nuevas

medidas de eficiencia energética.

Por este motivo la Universidad Nacional de Ingeniería,

a través del Capítulo de Energía y Potencia (PES) de la

Rama Estudiantil IEEE, propone como primer paso “I

Concurso de Aplicación en Eficiencia Energética”, en

el marco del III Simposium de Ingeniería Eléctrica.

Gracias al patrocinio de la empresa ABB, líder global de

tecnologías de energía y automatización.

Objetivo: Impulsar y difundir los avances tecnológicos

que presentan los proyectos sobre el uso eficiente de

energía, para la aplicación y resolución de problemas

industriales, ecológicos, sociales entre otros de nuestra

realidad nacional.

Podrán participar estudiantes y egresados de las escuelas

profesionales de Ingeniería Eléctrica, Electrónica,

Mecánica, y ramas afines.

Proyectos son recibidos desde el día lunes 4 de julio

hasta el viernes 30 de septiembre del 2011.

Premios: visita guiada a una planta de fabricación

de ABB en Brasil, prácticas pre-profesionales en

ABB en el Perú, equipamiento para el laboratorio

eléctrico de la universidad o institución educativa a

la cual los ganadores representen y entrenamiento

gratuito en el “ABB Training Center”

Se han establecido dos categorías para la participación:

Categoría Pre-grado, conformada por estudiantes de las

universidades del Perú de las escuelas profesionales de

Ingeniería Mecánica, Ingeniería Eléctrica e Ingeniería

Electrónica y ramas afines. Y la Categoría Egresados, en

la que podrán participar los profesionales de empresas

del sector eléctrico (generación y distribución) e

industrial (industria minera, de hidrocarburos,

cementera, etc.)

Cabe destacar que la participación de La Rama

Estudiantil IEEE en conjunto ABB se extiende también

al ciclo de conferencias en universidades, con el tema

“Eficiencia Energética: Una alternativa frente al cambio

climático”, que estuvo a cargo de Lourdes Cárdenas,

Coordinadora de Sistemas de Gestión Ambiental - ABB.

Se realizaron conferencias en las principales

universidades del Perú: Universidad Nacional de

Ingeniería, Pontificia Universidad Católica del Perú,

Universidad Nacional del Callao, Universidad Nacional

Mayor de San Marcos, capacitando a más de 150

alumnos, en general.

El I Concurso de Aplicación en Eficiencia

Energética, ha sido incluido desde el año 2011 en el

III Simposium de Ingeniería Eléctrica, evento

organizado por la Rama Estudiantil IEEE de la

Universidad Nacional de Ingeniería a través del

Capítulo Estudiantil de Energía y Potencia (PES)

Cabe señalar que el Simposium de Ingeniería

Eléctrica reúne anualmente a más de 200

participantes de distintas universidades y consiste de

seis conferencias magistrales y visitas técnicas a las

instalaciones de compañías del sector eléctrico.

Los perfiles de proyectos son recibidos desde el

lunes 4 de julio hasta el viernes 30 de septiembre, en

la siguiente dirección: [email protected]

Page 34: Revista UNI-IEEEndo Esfuerzos 4edición

Día 1: 8 de Agosto

Rama Estudiantil de la UNI

UNIVERSIDADNACIONAL DE

INGENIERIAreieee.uni.edu.pe

Page 35: Revista UNI-IEEEndo Esfuerzos 4edición

Día 2: 9 de Agosto

Rama Estudiantil de la UNI

UNIVERSIDADNACIONAL DE

INGENIERIAreieee.uni.edu.pe

Page 36: Revista UNI-IEEEndo Esfuerzos 4edición

Feria Tecnológica

Rama Estudiantil de la UNI

UNIVERSIDADNACIONAL DE

INGENIERIAreieee.uni.edu.pe

Page 37: Revista UNI-IEEEndo Esfuerzos 4edición

Día 3: 10 de Agosto

Rama Estudiantil de la UNI

UNIVERSIDADNACIONAL DE

INGENIERIAreieee.uni.edu.pe

Page 38: Revista UNI-IEEEndo Esfuerzos 4edición

Día 4: 11 de Agosto

Rama Estudiantil de la UNI

UNIVERSIDADNACIONAL DE

INGENIERIAreieee.uni.edu.pe

Page 39: Revista UNI-IEEEndo Esfuerzos 4edición

Día 5: 12 de Agosto

Rama Estudiantil de la UNI

UNIVERSIDADNACIONAL DE

INGENIERIAreieee.uni.edu.pe

Page 40: Revista UNI-IEEEndo Esfuerzos 4edición

REALIDAD VIRTUAL

El tonto sentido del olfato y el sentido del gusto Lo que miras y hueles, es lo que pruebas. Video, sonido y las recientes experiencias haciendo uso del tacto son comúnmente empleadas para crear y mejorar las experiencias de realidad virtual. Sin embargo, el sentido del olfato es raramente un factor. Un pequeño grupo de investigadores de la Universidad de Tokio están trabajando para cambiar eso mediante la integración del sentido del olfato y de la vista de manera que alteren el sentido del gusto de una persona. Sus sistemas de Realidad Virtual fueron capaces de confundir a las personas que estaban comiendo una simple galleta haciéndolas sentir que estaban degustando el sabor que ellos habían elegido. El grupo está haciendo uso del hecho que el gusto es afectado por lo que vemos, escuchamos, olemos, entre otros. “Nosotros estamos usando las influencias de estas modalidades sensoriales para crear un seudodegustador pantalla”, dijo TakujiNarumi, un profesor asistente en la Universidad de Tokio. “El objetivo es tener experienciasdiferentes en tema de gustos a través de la realidad aumentada con solo cambiar el estímulo visual y olfativo que reciben”.

Click para

ver el video

Para hacer esto, el equipo de Tokio creó un sistema denominado el Meta Cookie, en el cual una simple galleta fue estampada con un marcador editable que permitía a la máquina de visión de software rastrearla fácilmente. El experimento también usó una computadora controladora olfativa con pantalla sobre la cabeza, o HMD, el cual incorpora un sistema de imágenes superpuestas en la galleta y un marcador de la unidad de detección. La unidad olfativa emplea siete botellas plásticas llenas de aroma equipadas con bombas de aire y tubos que entregan aromas individuales a la nariz de las personas. Una bomba de aire adicional es usada para diluir la cantidad de aromas que el sujeto recibe. Las personas que participaron en el experimento fueron consultadas para elegir el sabor de la galleta

pero solo se les dio una simple galleta y se les indicó que la observaran antes de comerla. Una cámara web en el marcador de la unidad de detección tomó el modelo de la galleta y calculó su posición y orientación, es así como se obtuvo la distancia entre la galleta y la nariz de la persona. Esta información fue usada para ajustar la imagen de la galleta, que ya había sido cubierta con una imagen del sabor elegido. Una segunda cámara web se posicionó cerca de la nariz de la persona, apuntando hacia abajo, detectó el punto en el que la galleta se acercó a la boca de la persona y señaló la unidad olfativa para liberar el olor. Mediante la mezcla de aire con el aroma, el sistema pudo ajustar la fuerza del olor a 127 diferentes niveles y hacer que el olor se incremente conforme la galleta se acercaba a la boca. En los últimos ensayos, 43 participantes fueron consultados para comer una o dos galletas y luego escribir acerca de sus experiencias gustativas. “En 72.6 por ciento de los ensayos, los participantes sintieron que ellos degustaron el tipo de galleta que ellos habían elegido”, dijo Narumi. Ahora, los investigadores están trabajando en hacer el HMD olfativo más pequeño mediante el reemplazo de las botellas de plástico con aroma por tecnología inkjet. Ellos también están promoviendo la calidad de superposición de imágenes y buscando adherir una sensación de textura a través del uso de sonido. En cuanto a aplicaciones prácticas, Narumi ve la tecnología siendo usada para reforzar programas dietéticos, por ejemplo el consumo de alimentos blandos que parecen comida más sabrosa, especialmente para pacientes hospitalizados. Él dijo que esto podría pasar en aproximadamente 5 años. Mucho más allá en el futuro, él nos menciona que esta tecnología podría ser usada para el entretenimiento en casa “para aumentar el placer de mirar televisión o cuando se jueguen videojuegos”.

Elaborado por: JOHN VOID Traducido por: PAMELA CRISÓSTOMO

CÓMETELO: Trucos gráficos y una computadora-controlador

olfativa hace que una simple galleta sepa como almendra,

fresa o limón.

Page 41: Revista UNI-IEEEndo Esfuerzos 4edición

978-1-4244-7173-7/10/$26.00 ©2010 IEEE

Preliminary Internetworking Simulation of the QB50 Cubesat Constellation

Hector Bedon, Carlos Negron, Jorge Llantoy, Center for Information and Communications Technologies (CTIC-UNI)

National University of Engineering (UNI), Lima, Peru

Carlos Miguel Nieto Telematics Engineering Department

Technical University of Madrid (UPM), Madrid, Spain

Cem Ozan Asma von Karman Institute, Rhode-St-Genèse, Belgium

Abstract—Constellations of small satellites now become a great alternative for scientific missions to study Earth. As a result, they should be considered appropriate communication mechanisms to retrieve the data collected. This article studies the possibility to implement TCP and UDP over IP through the use of intersatellite links and distributed ground stations, such as Genso project. We evaluate parameters like delay end-to-end and throughput for different configurations of the QB50 constellation proposed by von Karman Institute for Fluids Dynamics (VKI).

Cubesats; satellite network; cubesat constellation; space technology; wireless sensor networks.

I. INTRODUCTION Since the idea of CubeSat developments made mainly by

the universities of Stanford and California Technical University in 2000 [1], in recent years, the number of projects involving the development of low-cost small satellites that make use of commercial products (COTS) has increased [2]. Particularly, in the Latin American region we have the experience of Libertad I [3] and Chasqui I [4,5]; the first one was launched and operated successfully and the latter is currently at the production phase. Hence, the chances of raising projects involving constellations of satellites are becoming more affordable, as is the case of the QB50 [6], an initiative of the von Karman Institute for Fluids Dynamics (VKI). On the other hand the use of communication mechanisms similar to those used by the Internet has been experimenting in space through some successful projects such as the CLEO project [7]. Within the efficient transport mechanisms are being evaluated include those based on Delay Tolerant Networks (DTN) [8] one of which is Saratoga [9] which is a lightweight transport protocol based on User Datagram Protocol (UDP / IP ) and those seeking improvements to the transport protocol TCP [10], but all of these transmission mechanisms are oriented to commercial satellites (commercial broadband satellites) but are not designed for satellite communication with few limitations such as CubeSats. Hence our objective is to evaluate the communication mechanisms that exist on the Internet for a constellation of satellites that have reduced communication

capabilities such as the constellation of satellites QB50. Our contribution is focused on generating and simulating two scenarios of this constellation to assess throughput and delay parameters as a function of link bandwidth intersatelital and thus provide a better understanding of the communication aspects of the constellation referred.

The paper is organized as follows. Section 2 describes the advantages of CubeSat networks and major initiatives; in Section 3 defines the project QB50 objectives and Section 4 performs an analysis of the transport mechanisms TCP / UDP over satellite links. Section 5 describes the simulation environment used in the simulation. In section 6 we discuss the results and finally in section 7 we show the conclusions of this paper.

II. CUBESAT NETWORKS A single CubeSat is simply too small to also carry payloads

or sensors for significant scientific research. Hence, for the universities the main objective of developing, launching and operating a CubeSat is educational. However, when combining a large number of CubeSats with identical sensors into a network, in addition to the educational value, fundamental scientific questions can be addressed which are inaccessible otherwise. A double (10x10x20 cm3) or triple (10x10x30 cm3) unit CubeSat can include more sophisticated payloads and higher power budget that can be considered as a powerful probe to perform in-situ measurements. Networks of CubeSats have been under discussion in the CubeSat community for several years, but so far no university, institution or space agency has taken the initiative to set up and coordinate such a powerful network.

Space agencies are not pursuing a multi-spacecraft network for in-situ measurements in the thermosphere at 100 - 400 km altitude because the cost of a network of 30 - 50 satellites built to the usual industrial standards would be extremely high (over a billion Euros) and not justifiable in view of the limited orbital lifetime. A network of satellites for in-situ measurements in the thermosphere can only be realised by using very low-cost

Page 42: Revista UNI-IEEEndo Esfuerzos 4edición

satellites, and for this purpose, CubeSats are by far the best (if not the only) candidates. The following networks have been suggested as the most interesting (in the order of increasing distance from Earth):

• Upper atmosphere and re-entry research at the lowest possible orbital altitude with the aim to assure a CubeSat nominal lifetime of three months minimum.

• Continuous Earth observation at lower altitudes for homeland security and early warning purposes

• Alternative communication networks or technology demonstration.

• Continuous environmental monitoring (e.g. wildfires, oil spills) by a network of about 30 CubeSats in low-Earth orbits.

• Plasma physics in the magnetosphere (next generation Cluster), a network of about 30 CubeSats with a mother spacecraft for communication purposes.

III. THE QB50 PROJECT QB50 is the first project that considers a network of

CubeSats to be launched to the upper atmosphere. QB50 has the scientific objective to study in-situ the temporal and spatial variations of a number of key parameters in the lower thermosphere (between 330 and 90 km of altitude) with a network of 50 CubeSats, separated by a few hundred kilometers and carrying identical sensors. It will also study the re-entry process by measuring a number of key parameters during re-entry and by comparing predicted and actual CubeSat trajectories and orbital lifetimes. Space agencies are not pursuing a multi-spacecraft network for in-situ measurements in the lower thermosphere because the cost of a network of 50 satellites built to industrial standards would be extremely high and not justifiable in view of the limited orbital lifetime. No atmospheric network mission for in-situ measurements has been carried out in the past or is planned for the future. A network of satellites for in-situ measurements in the lower thermosphere can only be realized by using very low cost satellites, and CubeSats are the only realistic option.

For the QB50 network, double CubeSats (10x10x20 cm3) are foreseen, with one half providing the usual satellite functions and the other half accommodating a set of identical sensors for lower thermosphere and re-entry research. Compared with other CubeSat networks that are under discussion (continuous environmental monitoring, space weather and plasma physics in the magnetosphere) QB50 has the following advantages:

• The lifetime of a CubeSat in the envisaged low-Earth orbit will only be three months, i.e. much less than the 25 years stipulated by international requirements related to space debris.

• A low-Earth orbit allows high data rates because of the small communication distances involved.

• In their low-Earth orbits the CubeSats will be below the Earth’s radiation belts, which is very important

because CubeSats use low-cost commercial off the shelf (COTS) components.

IV. TCP/UDP OVER CONSTELLATIONS Small satellites communications for the QB50 constellation

face several problems due to the intrinsic characteristics of satellite links, like the low ISL and GSL transmission bitrate, the high and variable value of the RTT (Round-Trip Time) and the significant error introduced in the link. The error rate will depend on the communication system features (e.g. the link distance, coding and modulation) and the operational conditions (like rain or humidity). These aspects greatly limit the performance of the data transport (transport layer).

In the standard versions of the TCP protocols the RTT allows to measure the satellite channel, evaluating the congestion and influencing in the variation of the congestion window. Packet loss due to congestion or channel errors would imply packet retransmission. The increment of the congestion window size is rather slow, because ACK's should arrive first for this to be possible. First, that increment performs in an exponential way depending of the number of received ACK's (this behavior is called "Slow Start") until reaching a certain threshold level, when it begins a linear and more quiet increment (called "Fast Recovery"), thus avoiding congestion.

TCP Westwood [11] was introduced with the purpose of limiting the consequences of the losses introduced by a wireless channel. It establishes the threshold level (sstresh) as a measurement of the available bandwidth, using the arrival rate of the ACK's, this way optimizing the variation of the Slow Start and Fast Recovery (called "Faster Recovery" for Westwood version), resulting in a better efficiency. There is a performance modification for all TCP standards, called "NewReno" Modification, which optimizes even more the Faster Recovery. TCP Westwood with NewReno features exists and is analyzed in this document.

In contrast to TCP (which is always requesting receipt acknowledgements), UDP is a connectionless protocol and doesn't guarantee any reliability for the packets delivery. Also, the lack of use of ACK's doesn't allow the protocol to sense the efficiency, so the data transmission rate is never modified.

UDP and TCP Westwood with NewReno features are compared in this document.

V. SIMULATION ENVIRONMENT AND TOPOLOGY Two different network topologies for the QB50

constellation are evaluated in this document. The first scenary is a ring of 50 equally spaced CubeSats. In the second scenary, we analyze a 10000 km long CubeSat string. The criteria for the selection of these scenarios are based on the preliminary studies being held recently by the QB50 project researchers [12,13].

For the preparation of this paper the Tcl-based ns-2 network simulator [14] (with an add-on called NS-Sat-Plot and created by Lloyd Wood) and SaVi (Satellite Visualization software, based on Linux OS) were used.The first allowed for the simulation of the proposed environments. The latter helped for the visualization and animation of the proposed satellite

Page 43: Revista UNI-IEEEndo Esfuerzos 4edición

constellations. For the simulation of the aforementioned environments the design of Tcl scripts for ns-2 was needed. These scripts were based on the following facts:

1. The constellation is composed of only one polar plane. The orbit height will be of 300 km and the inclinationof 79 degrees.

2. Nine ground stations distributed over the Earth. Most of them are from GENSO Project [15] and one is being currently implemented at UNI and it is part of the Peruvian Satellite Network (PSN) [16].

3. Both uplink and downlink bitrates are of 9600 bps. 4. The ISL (inter-satellite links) bitrate will take the

following differ ent values in the simulations: 0.5 kbps, 1 kbps, 3 kbps, 6 kbps, 8 kbps and 10 kbps.

5. Two transport protocols will be evaluated: First, UDP; then, TCP Westwood with New Reno features (Westwood-NR).

6. The traffic will be "CBR" (Constant Bit Rate), composed of packets of 210 bytes sent at one-second intervals. When inserted in a transport protocol, these packets are still of 210 bytes at UDP. When TCP, the length is 1040 bytes.

7. Link Layer Protocol used is a basic one for NS, with no special features and neither FEC nor ARQ models implemented. An random error model is introduced too. The error probability for each interface is 10 -3; i.e. 0.1%. This means that in each interface, there is a probability of 0.1% in receiving a corrupted packet (this, in our analysis, would become a loss packet because there are no error recovery mechanisms after the packet is received).

8. The queue has a limit of 50 packets and the queuing policy is TailDrop (if the queue is full, packets arriving are discarded).

9. The traffic consists in five CBR flows originating in satellites numbered 1, 10, 20, 30 and 40, and destined to Lima. For TCP, Lima sends standard acknowledgements (ACK's). A TCP Westwood-NR ns-2 package of algorithms created and edited by University of California, L.A. (UCLA) is used in the simulation [17]. The instants of beginning of the flows are shown in Table I, and are different for both scenarios.

TABLE I. BEGINNING MOMENTS FOR TRAFFIC FLOWS

Source Satellite Constellation

First scenario time Second scenario time

Satellite 1 1s 1s

Satellite 2 200s 100s

Satellite 3 400s 200s

Satellite 4 800s 400s

Satellite 5 1000s 500s

Satellite 1 is placed in the middle of the topology always, and it's near Lima at the beginning of the simulation. In those seconds, satellites 10 and 20 are northwards; and 30 a 40 are southwards. It will happen that packets will travel across the ISL until they find a satellite as close to Lima as possible and this will strongly influence in the results.

The different topologies can be observed in Fig. 1 and Fig. 2, generated with SaVi.

Figure 1. First satellite topology to be analyzed.

Figure 2. Second satellite topology to be analyzed, a 10000 km long satellite

string

In this document, three parameters are measured: a) Throughput arriving to Lima ground station (total number of bytes received by Lima for a time). b) Delay of the packets for the flow from Satellite 1 until they are received in Lima. c) Packet Loss rate (due to channel errors or congestion only), showing also the total analyzed packets, received packets and lost packets. For UDP protocol case, throughput is measured with an algorithm that measures the total bytes received with a time basis of every 40 seconds for UDP and 200 (for Topology 1) and 140 (for Topology 2) seconds for TCP. The total simulation time will be of 1500 seconds for the first topology and 700 seconds for the latter (this is because after 700 seconds the satellites lose line of sight with any ground station for several seconds). Losses due to lack of line of sight for Topology 2 are not considered in the packet loss rate.

VI. SIMULATION RESULTS 1) First scenario (50 Cubesats equally spaced around the

Earth): First of all, let's analyze the results for UDP in this first network topology. When varying the ISL bitrate, it results in different throughput curves, being shown in Fig. 3. Some remarks should be done here.

Page 44: Revista UNI-IEEEndo Esfuerzos 4edición

It can be observed that new traffic flows (first at 200, then 400, 800, and finally 1000 seconds) give staggered rises to each throughput curve in the graph. It must also be commented that, when observing the ns-2 trace files, as soon as packets are produced by the CBR sources, they are sent. In addition, the throughput doesn't make any significant change when incrementing the ISL bitrate capacity from 6 kbps to 10 kbps; because the 6 kbps capacity is large enough to carry the traffic. The average traffic flow bitrate per source will be of 1680 bps, or 1.68 kbps. Given that there are five flows, the total downlink rate should be 8.4 kbps. A capacity of 6 kbps in the ISL bitrate, as commented, is large enough to achieve this, because it should carry as much as thrice the value of 1.68 kbps, i.e. 5.04 kbps (just thrice because flows are distributed through the shortest paths and the downlink satellite receives three flows at one side and two at the opposite). Finally, let’s focus just on the first ISL bitrate values (0.5, 1 and 3 kbps). For these values there are peaks observed between 1000 and 1200 seconds in the simulation. This is because the current downlink satellite is a traffic source satellite. Thus, the ISL maximum rate can’t limit the additional 1.68 kbps originated by the downlink satellite. Thus, the throughput is added 1.68 kbps for this period of time.

When analyzing the Delay from Satellite 1 to Lima vs. Packet ID, the result is shown in Fig. 4. When observing the graphs it can be commented. For the latter three values, the graph shows a subtle variation in the delay. Also, The increase in the delay becomes more subtle as time goes by, and it relies on the fact that first, the satellite 1 (which is evaluated in this graph and according to the ns-2 trace files), sends its packets to its neighbor, satellite 50, which is the first downlink satellite (one hop). After some seconds, the downlink satellite is 49 (two hops), then satellite 48 and so on. For the total simulation time considered, it should finally be remarked that 10 kbps is the best ISL rate for addressing delay issues.

Figure 3: Throughput vs. Time for UDP in Topology 1.

Figure 4: Delay from Satellite 1 to Lima vs. Time for UDP in Topology 1.

Finally, the results for the packet loss are stated below. Due to the lack of retransmissions and congestion mechanisms when using UDP, error channels and congestion can seriously affect the communications. Also, for a satellite being a source of traffic, it may discard some packets from its queue depending on the amount of bits incoming from the ISL links. It can be seen that the packet loss is greatly reduced since ISL bitrate limit is 6 kbps, because it doesn’t limit the traffic between satellites anymore. Thus, 6, 8 or 10 kbps are enough for an adequate performance of UDP in this first scenario.

TABLE II. PACKET STATISTICS FOR UDP ON TOPOLOGY 1

ISL bitrate limit (kbps)

Packet Statistics Total

Packets Received Lost Packet Loss (%)

0.5 4770 754 4016 84.1929 1 4771 1444 3327 69.7338 3 4875 3868 1007 20.6564 6 5077 5069 8 0.1576 8 5081 5073 8 0.1574

10 5084 5076 8 0.1574

When performing the TCP analysis, the throughput graph, shown in Fig. 5, looks a bit odder than the one for UDP.

In TCP there are some peaks in the graph because of the congestion window mechanism, which varies the time and amount of sent packets depending on the traffic it perceives from measuring the acknowledgements return rate. It can be seen that the throughput increases to 8 kbps since the beginning, this is because the packets sent are much bigger and the TCP mechanisms try to optimize the use of the available bandwidth. In the beginning, according to the ns-2 trace files, TCP send packets of 40 bytes, in order to set up a connection with Lima. This way, first CBR data is buffered by TCP mechanisms and, as soon as the connection is established, it begins sending the data in the 1040 bytes long information packets.

The TCP delay results are shown in Fig. 6. Here, the delay for ISL values of 500 bps and 1 kbps isn’t entirely shown in order to emphasize the results for 3 kbps, 6 kbps and so on. The delay is remarkably different to the one in UDP. It’s much bigger for many of the sent packets, because the congestion mechanisms buffer the delayed 1040 bytes long packets. The TCP thus demonstrates to yield long packet delays due to the

Page 45: Revista UNI-IEEEndo Esfuerzos 4edición

packet length and bits overhead. Nevertheless, the packet loss is always greatly reduced, this being a TCP intrinsic feature.

Figure 5: Throughput vs. Time for TCP in Topology 1.

Figure 6: Delay from Satellite 1 to Lima vs. Time for TCP in Topology 1.

2) Second scenario (A Cubesat string 10000 km long): As a first glance for this topology, the variation in UDP throughput as a result of changing the ISL bitrate limit is shown in Fig. 7. As for the first scenario, the throughput increases in a staggered way, due to new traffic flows in other satellites. Each step in the graph relies in an increment of the traffic amount increase of 1.68 kbps. Also, the augment in the ISL value greatly raises the throughput, till 6 kbps. From this value on, the throughput doesn't show any significant variation anymore, for the same reasons than the first topology. Nevertheless, the performance begins to fall at approximately 540 seconds, given that the topology is a string and the information is sent towards one of the ends, being this end the only part of the constellation to be in the ground station's line of sight. This reduction causes saturation in the ISL links if these don't have enough capacity. Only the 10 kbps ISL link is able to cope with this fact.

The delay results are displayed in Fig. 8. The gradual increment in the ISL bitrate value provokes a significant reduction in the delay for 500 bps to 3 kbps, which is not shown in the graph for the same reasons as topology 1. For the greater ISL values, the delay is even more reduced, reaching 5 seconds as the maximum delay. It can be observed too that the delay for lower ISL values is considerably great, which coincide with the throughput graph, where these ISL values don't exceed the total traffic produced when all this traffic is sent, in one direction, towards the downlink satellite.

Figure 7: Throughput vs. Time for UDP in Topology 2.

Figure 8: Delay from Satellite 1 to Lima vs. Time for UDP in Topology 2.

By the way, as stated in Table III, it's worth remarking again that a large ISL rate causes less packet losses, just as in the first topology. For low ISL values, a lot of packets are lost, especially for 500 bps and 1 kbps. Also, when a satellite is a traffic source, it may drop packets due to its saturated queue, because it receives packets from ISL links apart from producing them, as for the first scenario. Finally, channel loss influences in the packet loss rate too.

TABLE III. PACKET STATISTICS FOR TOPOLOGY 2

ISL bitrate limit (kbps)

Packet Statistics Total

Packets Received Lost Packet Loss (%)

0.5 1943 207 1736 89.3464 1 1928 412 1516 78.6307 3 1966 1101 865 43.998 6 1976 1770 206 10.4251 8 1965 1916 49 2.49364

10 1984 1982 2 0.100806 In order to prove reliability for data transmission, now a

TCP analysis for this topology is done. Results for throughput are shown in Figure 9. Here, each curve tries to keep a constant and great bitrate. The same way, when observing the ns-2 trace files, the same for the other topology, many packets aren't sent automatically, but they are buffered instead in order to send them later. Also, the network performance is affected, reducing the throughput, provided that of the topology is a string, for both UDP and TCP protocols.

Page 46: Revista UNI-IEEEndo Esfuerzos 4edición

Finally, the delay results are shown in Fig. 10. The delay rises with the packet ID (thus, throughout time). This is a result of new traffic flows, as for the aforementioned cases, which increase the amount of sent data (this brings more acknowledgements for each traffic flow to be delayed). In contrast, the increment in the ISL again reduces the delay, greatly at first, and slightly for the greater ISL values. As for topology 1, delay for TCP is greater than for UDP, thus making this aspect a disadvantage. Nevertheless, the insignificant packet loss makes up for this issue.

Figure 9: Throughput vs. Time for TCP in Topology 2.

Figure 10: Delay from Satellite 1 to Lima vs. Time for TCP in Topology 2.

VII. CONCLUSIONS In this paper, we have been able to explore the impact of

ISL links within both proposed topologies for the QB50 constellation, observing an enhancement in throughput and a reduction in the delay, as the ISL maximum rate is increased. It can also be appreciated that, when analyzing the TCP protocol in both topologies, the throughput saturation level is limited by the downlink bandwidth. It has been demostrated that TCP performs a more optimum throughput management throughout the simulation time (unlike UDP). Nevertheless, the delay is greater than for UDP; although the low packet loss, characteristic of TCP, compensates that issue. It was observed too that the topology proposed for the first scenario offers a better traffic distribution due to the great simetry level of that 50 Cubesat ring, in contrast to the second scenario. As to which protocol performs better, we can state that TCP

should be the choice when looking for reliability in data error free communication and throughput optimization; and UDP would be the ideal election for quick data transmission, together with a proper error correction mechanism. Finally, it must be concluded that ISL values should be selected depending on the traffic to be generated, otherwise long delays and low throughput values will be observed.

ACKNOWLEDGMENTS The results of this investigation were achieved with support

from the Spanish Agency for International Development Cooperation (AECID) and the National Institute for Research and Training in Telecommunications from the National University of Engineering (INICTEL-UNI).

REFERENCES [1] H. Heidt, J. Puig-Suari, A. S. Moore, S. Nakasuka, R. J. Twiggs

“CubeSat: A new Generation of Picosatellite for Education and Industry Low-Cost Space Experimentation” 14th Annual/ USU conference on small satellites, 2000.

[2] http://www.amsat.org.uk/iaru/finished.asp [3] http://www.usergioarboleda.edu.co/proyecto_espacial/ [4] Canales R, J.M.; Bedon, H.; Estela, J.; , "First steps to establish a small

satellite program in Peru," Aerospace Conference, 2010 IEEE , vol., no., pp.1-14, 6-13 March 2010.

[5] http://www.chasqui.uni.edu.pe [6] Muylaert, J., et al.,. (2009). QB50: An International Network of 50

Cubesats for Multi-Point, In-Situ Measurements in the Lower Thermosphere and for Re-Entry Research. ESA Atmospheric Science Conference, Barcelona, Spain.

[7] Lloyd Wood, Will Ivancic, Wes Eddy, Dave Stewart, James Northam, Chris Jackson, "Investigating operation of the Internet in orbit: Five years of collaboration around CLEO", IEEE Communications Society Satellite and Space Communications Technical Committee newsletter, vol. 18 no. 2, pp. 10-11, November 2008.

[8] V. Cerf, S. Burleigh et al., "Delay Tolerant Network Architecture", IETF RFC 4838, April,2007.

[9] Wood, L.; Eddy, W.M.; Ivancic, W.; McKim, J.; Jackson, C.; , "Saratoga: a Delay-Tolerant Networking convergence layer with efficient link utilization," Satellite and Space Communications, 2007. IWSSC '07. International Workshop on , vol., no., pp.168-172, 13-14 Sept. 2007.

[10] Caini, C.; Cornice, P.; Firrincieli, R.; Livini, M.; Lacamera, D.; , "TCP, PEP and DTN performance on disruptive satellite channels," Satellite and Space Communications, 2009. IWSSC 2009. International Workshop on , vol., no., pp.371-375, 9-11 Sept. 2009.

[11] Casetti C, Gerla M, Mascolo S, Sanadidi MY, Wang R. TCP Westwood: end-to-end congestion control for wired/wireless networks. Wireless Networks Journal 2002; 8(4):467-479.

[12] Muylaert, J., et al.,. (2010) QB50: An International Network of 50 Cubesats for Multi-Point in Situ Measurements in the Lower Thermosphere and Re-Entry Research. Pestana Conference Centre – Funchal, Madeira - Portugal, 31 May – 4 June 2010

[13] Sundaramoorthy P.P. et al., “Preliminary Orbit Analysis of the QB50 Satellite Cluster”. 4th International Conference on Astrodynamics Tools and Techniques-4th ICATT 2010 Eurpean Space Astronomy Centre (ESA/ESAC), Madrid, Spain, 3-6 May 2010.

[14] Fall, Kevin; Varadhan, Kannan. (2009). "The ns Manual". The VINT Project, UC Berkeley.

[15] http://www.genso.org/ [16] Canales, J.M.; Rodriguez, G.; Estela, J.; Krishnamurthy, N.; , "Design of

a Peruvian small satellite network," Aerospace Conference, 2010 IEEE , vol., no., pp.1-8, 6-13 March 2010.

[17] http://www.cs.ucla.edu/NRL/hpi/tcpw/tcpw_ns2/tcp-westwood-ns2.html#TCPW-NR