clustering

29
Clustering Definición Termino común para identificar el mecanismo de distribuir un servicio sobre un numero de servidores para incrementar la tolerancia a fallas y soportar mayores cargas que las que podría soportar un servidor simple. Es usado para aplicaciones de gran escala y de misión critica donde no puede haber tiempos muertos. Un cluster contiene los servidores que comparten el estado en un cierto nivel, tal como estado del HTTP, el estado de EJB o estado del contexto de aplicación. El acceso del cliente a estos servidores es manejado normalmente por los balanceadores de la carga » Orión http :// www.orionserver.com Un cluster no es un supercomputador pero si es necesario obtener un rendimiento parecido, estos satisfacen todos los requerimientos

Upload: raul-solis

Post on 16-Jul-2016

216 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Clustering

Clustering Definición• Termino común para identificar el mecanismo de distribuir un servicio sobre un numero de servidores para incrementar la tolerancia a fallas y soportar mayores cargas que las que podría soportar un servidor simple.

• Es usado para aplicaciones de gran escala y de misión critica donde no puede haber tiempos muertos. Un cluster contiene los servidores que comparten el estado en un cierto nivel, tal como estado del HTTP, el estado de EJB o estado del contexto de aplicación. El acceso del cliente a estos servidores es manejado normalmente por los balanceadores de la carga

» Orión http://www.orionserver.com

• Un cluster no es un supercomputador pero si es necesario obtener un rendimiento parecido, estos satisfacen todos los requerimientos

Page 2: Clustering

Porque clusters x86?

Un ejemplo de las ventajas del procesamiento paralelo

Page 3: Clustering

Clustering

Los servicios de cluster ofrecidos con una aplicación Orion Application Server incluye: Balanceo de carga, Replicación del Contexto de estado de Aplicación, Replicación de estado HTTP y Replicación de estado EJBUna versión gratuita puede bajarse de:

http://www.orionserver.com/mirrordownload.jsp?file=orion2.0.2.zip

Page 4: Clustering

Cluster de Datos - Ejemplo

Solución para garantizar la disponibilidad de los datos en entornos empresariales clave Ofrece una disponibilidad de datos superior al 99,99%,

Funciones VentajasRecuperación tras fallo automática con notificación

Proporciona disponibilidad de datos continuada para un servidor de almacenamiento no disponible y notifica al administrador la recuperación tras fallos

Recuperación y restauración manual

Permite llevar a cabo el mantenimiento planificado de un servidor dedicado a almacenamiento sin que repercuta en la disponibilidad de datos.

Recuperación transparente tras fallos

Los usuarios finales no se ven afectados por la recuperación tras fallos, ya que, una vez realizada, continúan accediendo a los datos.

Configuración activa / activa

Ambos servidores dedicados a almacenamiento en cluster están funcionando.

Cluster de larga distancia

Los administradores disponen de una gran flexibilidad con respecto a la ubicación física de los servidores dedicados a almacenamiento en cluster.

Page 5: Clustering

Cluster Aplicaciones y Datos - EjemploLa solución de cluster para aplicaciones y datos ofrece un nivel de tiempo total de actividad muy alto.Hasta 48 Tb de datos y tarjetas de red: Gb Eth, FEth, Quad FEth, OC-3. OC12

Page 6: Clustering

Porque cluster?

Necesidades actuales de cálculos intensivos:• Predicción del tiempo• Diseño de productos avanzados• Almacenamiento masivo de datos• Procesamiento de imágenesRequieren de recursos de gran capacidad para • resolver los problemas más rápido

Page 7: Clustering

Cluster con WIN2000• Microsoft Cluster Server (MSCS) para sistemas Windows NT, se puede llegar a conseguir una disponibilidad de hasta 99.999%.

• Implica una preparación, implementación y mantenimiento más especializados que la gestión de dos servidores independientes.

• MSCS es un componente de NT Server Enterprise Edition (NTS/E), que también se incluye en Windows 2000 Advanced Server y en W2000 Datacenter Server

Hardware

• La arquitectura de almacenamiento para cluster puede ser con SCSI o Fibre Channel (mas caro pero mas fiable).

• Cada componente constituyente del sistema debe ser tan fiable como sea posible.

• Es recomendable redundar la fuente, de alimentación, ventiladores o tarjetas de red, y proteger el almacenamiento local del servidor mediante duplicación, como una controladora RAID o la función de duplicación de disco de NT.

• La utilización de almacenamiento por disco compartido en el cluster crea un único punto de fallo: si el almacenamiento del cluster queda inaccesible, lo mismo le ocurrirá al almacenamiento del sistema. Se sugiere implementar las controladoras de disco como parejas redundantes que actúen conjuntamente

Page 8: Clustering

Clustering Win 2000 – La actualidadWindows 2000 incluye un poderoso soporte de Clustering

MSCS: Microsoft Cluster Service

Windows 2000 Advanced ServerWindows 2000 Datacenter Server

Opciones:2 Nodos W2000 Advanced Server

3 Nodos W2000 Datacenter Server4 Nodos W2000 Datacenter Server

Page 9: Clustering

Clustering Win 2000 – La actualidad2 Nodos - El Cluster más simple

Activo / ActivoActivo / Pasivo

Conceptos similares se aplican a Clusters de 3 y 4 nodos

Page 10: Clustering

Nodo A Nodo B

Array de discos compartido

Clustering – ¿Cómo funciona el Cluster?

LAN

Heartbeat

SQL 2000 Virtual Server - MSCS SQL 2000 Virtual Server - MSCS

LAN

Page 11: Clustering

Clustering Win 2000 – La actualidad

Server Virtual• Se le asigna un nombre• Se le asigna una IP• Para el cliente, es indistinto y transparente el nodo

que le brinda servicio

Page 12: Clustering

Clustering Win 2000 – La actualidad

Pros del Clustering• Reduce al mínimo los tiempos

de un server caído• Tiene respuesta automática

ante la caída de un nodo• No se necesita renombrar los

servidores• La recuperación es rápida: tan

pronto se arregle el server

Contras• Costo mayor que un Stand by

server• Precisa más tiempo en la

instalación• Requiere un mantenimiento

mayor• Requiere administradores de

red y DBA’s con más experiencia

Page 13: Clustering

Clustering Win 2000 – La actualidad

Software necesario para un Cluster de 2 nodos• 2 Windows 2000 Advanced Server• 1 SQL Server 7 Ent. ó 1 SQL 2000 Ent. para un cluster Act / Pas• 2 SQL Server 7 Ent. ó 2 SQL 2000 Ent. para un cluster Act / Act

Software necesario para un Cluster de 3 o 4 nodos• 3 ó 4 Windows 2000 Datacenter Server• 3 ó 4 SQL Server 7 Enterprise Edition ó SQL 2000 E.E.

• Aplicar el último Service Pack para Windows y SQL Server

Page 14: Clustering

En el mundo Linux/UnixLa Historia de Beowulf• A fines de 1993 Donald Becker y Thomas Sterling comenzaron a bosquejar el entorno de

un sistema basado en un cluster diseñado como alternativa rentable a los superordenadores grandes

• El proyecto Beowulf arranco a inicios de 1994, trabajando con CESDIS bajo el patrocinio del proyecto ESS, de NASA

• El prototipo inicial fue concebido con un cluster formado por 16 PC’s 486 DX4 conectados por Ethernet de 10 Mb usándolo como canal asegurado. La máquina fue un éxito inmediato y su idea de proporcionar sistemas de bajo costo fue adoptado por la NASA y las comunidades de investigación.

• Este primer sistema requirió el rediseño de los drivers Ethernet para usarlo como canal, subdividiendo el trafico para que curse por mas de un Ethernet

• En 1997 el cluster de 140 nodos de la Universidad de Caltech ejecutó un problema (N-Body) a una tasa de 10 GFlops/sec

Page 15: Clustering

Beowulf - Como funciona?• Básicamente, un sistema de Beowulf consiste en uno o más nodos principales, que son sistemas completos con

sus dispositivos de I/O, y muchos nodos auxiliares (slaves), que son generalmente placas base o PC’s sin monitor, teclado y con un mínimo disco o ninguno.

• Es una tecnología para agrupar computadores basados en el sistema operativo Linux para formar un supercomputador virtual paralelo, a partir de hardware común, sistema operativo Linux y software abierto (open source)

• El nodo principal divide el problema y empaqueta los pedazos hacia los nodos auxiliares; después consigue los resultados y no requiere ningún proceso adicional para combinar los resultados. También vigila las tareas domesticas y otras faenas

• La comunicación entre él y sus esclavos es por pase de mensajes

• Debido a que los nodos no están estrechamente acoplados y no comparten la memoria, pueden ser heterogéneos•

• Por convención, los sistemas de Beowulf están divididos en clases de máquinas I y II.•

• Las del tipo I no contienen otra cosa que componentes estándares que pueden comprarse en por lo menos tres diversas fuentes

• Un sistema de la clase II utiliza componentes modificados para requisitos particulares de algún trabajo

Page 16: Clustering
Page 17: Clustering
Page 18: Clustering

DiseñoHacer que el cluster se comporte como una sola maquina• Los usuarios deben ser conocidos en todos los nodos (NIS) u

otro mecanismo para mantener consistentes los /etc/passwd• Las aplicaciones deben estar presentes en todos los nodos:

– compartir el /usr/localConclusiones

– La escalabilidad en un punto significativo – Los cluster Linux constituyen una plataforma adecuada para muchas

aplicaciones – Alta disponibilidad

Limitaciones– redes con alto nivel de latencia

Page 19: Clustering

Beowulf - Ventajas

• Bajo costo inicial• Fácil de mantener• Tecnología familiar• Escalable• Software gratis: Linux, PVM (Paralell Virtual Machine), MPI (Message

Passing Interface)Escalabilidad• Permite agregar nuevos componentes para aumentar el nivel de

prestaciones sin necesidad de eliminar los elementos ya existentesDisponibilidad• Existe redundancia natural, cada nodo posee sus propios componentes:

bus, memoria, procesador.• Se puede implementar políticas para el reemplazo rápido en caso de falla

del servidor maestro

Page 20: Clustering

Uno de los proyectos .. La Universidad de Kentucky

• 16 computadoras Pentium de 700 Hz

• Por un costo inferior a $10,000

• Con fines de ser usados en video-games por Internet

• Puede ser construido a partir de las maquinas que otros dejan de usar, a partir de 486

Page 21: Clustering

En el proyecto del genoma humano, se utilizó un cluster de 1000 nodoswww.genetic.programing.com

Page 22: Clustering

Supercomputador Stone

• Cluster heterogéneo formado por maquinas de diferente hardware

• Creció lentamente hasta 126 nodos• Cada nodo tiene por lo menos MB

20 de la memoria, por lo menos MB 400 de la espacio de disco y está conectado con una red Ethernet de 10 Mb/s para las comunicaciones internas del nodo

• Si una maquina se deteriora, se utiliza como “donador” sus partes son aprovechadas para alargar la vida de los demas integrantesdel cluster

El equipo del laboratorio nacional de Los Alamos construyó Avalon, el 25° superordenador más rápido del mundo por $152.000 (abril 2000), un equipo similar hubiera costado cerca de $1 millón

Page 23: Clustering

•5,120 (640 nodos de 8-vias) 500 MHz NEC CPUs •8 GFLOPS por CPU (41 TFLOPS total) •2 GB (4 512 MB FPLRAM modules) por CPU (10 TB total) • Memoria compartida dentro del nodo •640 × 640 Switch crossbar entre los nodos •16 GB/s ancho de banda inter-nodo •20 KVA de consumo de energía por nodo = 12,800 KVA

Eart Symulator CenterYokohama NEC Sx

Los 5 Supercomputadores más grandes

•13.88 TFLOPS•3,072 AlphaServer ES45s HP •12,288 EV-68 1.25-GHz CPUs con 16-MB cache •33 Terabytes (TB) memory •Gigabit fiber-channel disk drives con 664 TB •Dual controller accessible 72 GB drives arranged in 1536 5+1 RAID5 storage arrays, interconectados a traves deswitchs fiber-channel a 384 nodos file server

ASCI QLos Alamos National Laboratory (LANL)

Page 24: Clustering

•10.28 TFLOPS •1,100 sistemas Apple G5 teniendo cada uno dos procesadores IBM PowerPC 970 de 2 GHz. •Cada nodo tiene 4GB de memoria principal y 160GB de almacenamiento Serial ATA. •176TB total almacenamiento secundario. •4 nodos principales para compilaciones/job startup. •1 nodo de administración

Virginia Tech Sx

Los 5 Supercomputadores más grandes

•9.82 TFLOPS•1,450 procesadores dual Dell PowerEdge •1750 servidores corriendo Linux Red Hat, •1 Switch Myrinet 2000 high-speed interconnect fabric, •1 SubCluster I/O con mas de 120 TB Almacenamiento DataDirect

Tungsten NCSA's Urbana Campaign, USA

Page 25: Clustering

•980 nodes HP/Linux Itanium 2 ("Madison") 1.5 GHz •1,960 procesadores Quadrics Elan 3 interconectados •11 TERAFLOPS de performance pico teórico•7 Tb de RAM •142 Tb de espacio en disco •53 TB de espacio global en disco scratch

Los 5 Supercomputadores más grandes

Page 26: Clustering

Escala de procesamiento

Page 28: Clustering

Lista de soluciones comerciales con tecnología Beowulf - Hardware

• Accelerated Servers • HP • Custom Fit, Inc. • Turbotek • Open Clustering UK • Penguin Computing • Paralogic • PSSC Labs • Northrop Grumman • Sybrandt • Paralline • ParTec • Linux NetworX • Great Lakes Computer • California Digital • RackSaver

• Eversys Corporation • azure • Western Scientific • IntegrityLinux Systems • Pioneer Technology • Atipa • massiveparallel.com • Alineos • Linvision • Linux Labs • Aspen Systems, Inc. • Microway, Inc. • AETHIA • Advanced Clustering Technologies, Inc. • Artabel

Page 29: Clustering

DocumentaciónManual de instalación• http://www.cecalc.ula.ve/documentacion/tutoriales/beowulf • http://www.cecalc.ula.ve/documentacion/tutoriales/beowulf.pdf

Página recomendada

• http://www.beowulf.org