optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los...

50
Ingeniamos el futuro” CAMPUS OF INTERNATIONAL EXCELLENCE Eficiencia Energética más allá del PUE: Explotando el Conocimiento de la Aplicación y los Recursos José M. Moya <[email protected]> Laboratorio de Sistemas Integrados Dpto. Ingeniería Electrónica Universidad Politécnica de Madrid José M.Moya | Madrid, 15 de octubre de 2013 1

Upload: greenlsi-team-lsi-upm

Post on 25-Jun-2015

108 views

Category:

Documents


0 download

DESCRIPTION

Talk “Advances in Electronic Systems Engineering” seminar, within the M.Sc. in Electronic Systems Engineering (MISE), to present the session on Energy Optimization in Data Centers. Speech title: Energy efficiency beyond PUE: exploiting knowledge about application and resources Abstract: The current techniques for data center energy optimization, based on efficiency metrics like PUE, pPUE, ERE, DCcE, etc., do not take into account the static and dynamic characteristics of the applications and resources (computing and cooling). However, the knowledge about the current state of the data center, the past history, the resource characteristics, and the characteristics of the jobs to be executed can be used very effectively to guide decision-making at all levels in the datacenter in order to minimize energy needs. For example, the allocation of jobs on the available machines, if done taking into account the most appropriate architecture for each job from the energetic point of view, and taking into account the type of jobs that will come later, can reduce energy needs by 30%. Moreover, to achieve significant reductions in energy consumption of state-of-the-art data centers (low PUE) is becoming increasingly important a comprehensive and multi-level approach, ie, acting on different abstraction levels (scheduling and resource allocation, application, operating system, compilers and virtual machines, architecture, and technology), and at different scopes (chip, server, rack, room, and multi-room). Date and Time: Tuesday, October 15, 2013, 16:00, room B-221

TRANSCRIPT

Page 1: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Eficiencia Energética más allá del PUE: Explotando el Conocimiento de la

Aplicación y los Recursos

José%M.%Moya%<[email protected]>%Laboratorio%de%Sistemas%Integrados%

Dpto.%Ingeniería%Electrónica%Universidad%Politécnica%de%Madrid%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 1%

Page 2: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Contenido

•  MoLvación%•  Enfoque%actual%•  Nuestro%enfoque%–  Planificación%y%gesLón%de%recursos%

–  OpLmización%de%máquinas%virtuales%

–  GesLón%de%modos%de%bajo%consumo%

–  Diseño%de%procesadores%•  Conclusiones%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 2%

Page 3: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Motivación

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 3%

•  Consumo%energéLco%en%data%centers%– 1.3%%de%la%producción%energéLca%mundial%en%2010%– USA:%80%mill%MWh/año%en%2011%=%1,5%x%NYC%– 1%datacenter%medio%=%25%000%casas%

•  Más%de%43%Millones%de%Toneladas%de%CO2%/%año%(2%%mundial)%

•  Más%agua%que%la%industria%del%papel,%automóvil,%petróleo,%%madera%o%plásLco%

%%%%%%%%%%Jonathan%Koomey.%2011.%Growth%in%Data%center%electricity%use%2005%to%2010%

Page 4: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Motivación

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 4%

•  Se%espera%que%la%electricidad%total%uLlizada%por%los%data%centers%en%2015%exceda%los%400%GWh/año.%

•  El%consumo%de%energía%de%la%refrigeración%conLnuará%teniendo%una%importancia%similar%o%superior%al%consumo%de%la%computación%

•  La%opLmización%energéLca%de%los%data%centers%del%futuro%requerirá%un%enfoque%global%y%mulLfdisciplinar.%

0%

5000%

10000%

15000%

20000%

25000%

30000%

35000%

2000% 2005% 2010%

World%se

rver%installed%ba

se%

(tho

usan

ds)%

Highfend%servers%

Midfrange%servers%

Volume%servers%

0%

50%

100%

150%

200%

250%

300%

2000% 2005% 2010%

Electricity

%use%%

(billion%kW

h/year)% Infrastructure%

CommunicaLons%

Storage%

Highfend%servers%

Midfrange%servers%

Volume%servers%

5,75%Millones%de%servidores%nuevos%/%año%10%%de%servidores%sin%uLlizar%(CO2%de%6,5%millones%de%coches)%

Page 5: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Problemas de fiabilidad que dependen de la temperatura

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 5%

Timefdependent%dielectricf

breakdown%(TDDB)%

ElectromigraLon%(EM)%

Stress%migraLon%(SM)%

Thermal%cycling%(TC)%

✔% ✖%

✖%✖%

Page 6: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Refrigeración de un data center

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 6%

Page 7: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

•  Virtualización%%%

f%27%%•  Servidores%conforme%a%Energy%Star%

%%

=%6.500%

•  Mejor%planificación%de%capacidad%

%2.500%

Mejoras en servidores

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 7%

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

25%

Servidores

Refrigeración

Infraestructura

Servidores

Refrigeración

Infraestructura

5,75 millones de nuevos servido-

res se instalan cada año para

mantenerse al ritmo de creci-

miento de los servicios on-line, y

todavía aproximadamente el 10%

de los servidores instalados no

se utilizan debido a sobrestima-

ciones conservadoras a la hora

de planificar las necesidades de

almacenamiento.

La energía utilizada para

los servidores en desuso

podría compensar

las emisiones de 6,5

millones de coches.

Los centros de datos son grandes

Cada año, los nuevos servidores requieren

más espacio. Los centros de datos están incre-

mentando su tamaño a una tasa del 10% anual.

De entre estos, los de mayor tamaño ocupan más

de cien mil metros cuadrados, suficiente como

para albergar 14 campos de fútbol. Estos centros

consumen más de 100 veces la energía de un

edificio de tamaño similar.

Esto equivale a las emisiones con-

taminantes de conducir desde la

Tierra a Marte y vuelta unas 700

veces. A una velocidad media

de 100 kilómetros/hora esto

supondría 308.000 años.

Las baterías de mantenimiento

en modo descanso, los micro-

chips y muchos otros compo-

nentes dentro de los equipos

informáticos funcionan con co-

rriente continua. Dado que hoy

en día los centros de datos

funcionan en corriente alterna

(como cualquier oficina u

hogar) la energía tiene que ser

convertida de un tipo a otro

hasta 5 veces dentro de cada

centro de datos.

Es posible conseguir importantes ahorros de

energía mediante mejoras en el diseño y gestión

de los servidores.

En un centro de datos convencional, algunas de

estas mejoras pueden reducir su impacto en las

siguientes cifras:

Mejorar la gestión de los flujos de aire mediante va-

riadores de velocidad para los ventiladores de refri-

geración, y mantener los centros de datos a unos

rangos de temperatura ligeramente más

amplios, pero igualmente seguros, puede reducir

el consumo de energía en un 25%. Para al-

gunos centros de datos, esta cantidad equivale

a la energía de 25.000 hogares de EEUU.

La inversión de incluir medidas de

eficiencia energética en los siste-

mas de refrigeración de los cen-

tros de datos se recupera gene-

ralmente en menos de dos años.

Refrigerar estos equipos

supone el 30% de la energía

utilizada en un centro de

datos medio. Esto significa

que 281 millones de dólares

se escapan por la ventana.

Una parte importante de los

presupuestos en IT de las

organizaciones se destinan

a los centros de datos.

(excluyendo el software)

$ $ $ $

Impacto de los centros de datos Oportunidades para la eficiencia

A menudo los servidores se sobredimensionan

para afrontar picos de demanda, lo que significa

que como media suelen funcionar sólo al 20%

de su capacidad.

281 millones

2.500

Los equipos informáticos generan grandes

cantidades de calor

6,5 millones

= 6.500

El equivalente a retirar 6.500

coches de las carreteras, me-

diante la utilización de servidores

acordes a Energy Star, lo que re-

duciría el consumo eléctrico de

los centros de datos en 82.000

megavatios-hora.

Consumo de energía por m2

5CA CC

X1CA CC

X

Tierra

Marte

10% no se utilizan

US

2 años 2013

Utilizar un diseño en corriente continua para

los centros de datos, puede eliminar equipos

innecesarios y reducir las pérdidas de conversión

de la energía en un 20%.

Si los centros de datos del

mundo migrasen a las nuevas

tecnologías disponibles para

el suministro eléctrico en

corriente continua, que tiene

una eficiencia de hasta el

97%, el ahorro de energía

anual sería suficiente para

cargar un iPad durante un

periodo de tiempo muy muy

largo:

Asimismo, un centro de datos convencional puede

ahorrar hasta 47 millones de dólares en gastos in-

mobiliarios eliminando el espacio que necesitan

los equipos de conversión de corriente alterna.Oficina

Centro de datos

para el retorno

700X

70millones de años

27%Reducir un 27% el consumo

energético mediante la virtuali-

zación, lo que reduce la capaci-

dad productiva no empleada.

El equivalente a la energía consumida por 2.500

hogares en EEUU, mediante una mejor planifica-

ción de la capacidad.

Las infraestructuras en co-

rriente continua permiten

además una mejor

integración con energías

renovables como la solar

fotovoltaica, que generan

energía en este tipo de co-

rriente.

Esto significa que el 20% de la energía se desperdicia

en la infraestructura de los centros de datos.

Energía para internetCada vez que cargas un video en internet, compartes una foto, envías un correo electrónico o revisas tus cuentas bancarias, tu dispositivo de acceso a la red se pone en contacto con un centro de datos. Hileras de servidores que almacenan billones de megabytes de información se concentran en enormes centros de datos que consumen grandes cantidades de energía y que alimentan la web.

Los centros de datos son los responsables del 2% de las emisiones globales de dióxido de carbono y utilizan anualmente 80 millones de megavatios-hora de electricidad, casi lo mismo que 1,5 veces la cantidad de electricidad utilizada por la ciudad de Nueva York.

En 2020, al ritmo de crecimiento actual y sin mejoras en eficiencia energética, los centros de datos producirán:

Los centros de datos

El impacto energético de los centros de datos

25.000 casas de EEUU1 centro de datos =

48%359 mil toneladas de coches en EEUU=

1,5 x NYC=de consumo eléctrico

C

M

Y

CM

MY

CY

CMY

K

ESABB_DataCenter_infographic_50x200cm.ai 1 01/02/12 12:44ESABB_DataCenter_infographic_50x200cm.ai 1 01/02/12 12:44

UN%SOLO%CENTRO%DE%DATOS%

Page 8: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Mejoras en refrigeración

•  Mejoras%en%gesLón%de%flujos%de%aire%y%rangos%de%temperatura%ligeramente%más%amplios%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 8%

Reducción%del%consumo%

hasta%un%25%% 25.000%Recuperación%de%la%inversión%%

en%solo%2%años%%

UN%SOLO%CENTRO%DE%DATOS%

Page 9: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

CA%!%CC%– 20%%reducción%de%pérdidas%de%conversión%– 47%millones%de%dólares%de%gastos%inmobiliarios%por%data%center%– Mayor%eficiencia,%ahorro%de%energía%suficiente%para%

cargar%un%iPad%durante %70%millones%de%años%

Mejoras en infraestructura

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 9%

Page 10: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

����� ����������������

�������������� ��

���

Mejores prácticas de eficiencia energética

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 10%

Page 11: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Potencial de mejora con mejores prácticas

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 11%

To appear in Computer Networks, Special Issue on Virtualized Data Centers. All rights reserved.

C o l dA i s l e

c o l d a i r f r o m f l o o r

R a c k sR a c k sHot Aisle Hot Aisle

h e a tr e c i r c u l a t i o n

Fig. 2. Demonstration of heat recirculation: heated air in the hot aisleloops around the equipment to enter the air inlets.

0

200

400

600

800

1000

1200

1400

0 20 40 60 80 100

Pow

er (K

W)

job size relative to data center capacity (%)

Total power (computing and cooling) for various scheduling approaches

savings by minimizing computing powersavings by minimizing the recirculation’s effect

savings by turning off idle machinesunaddressed heat recirculation cost

basic (unavoidable) cost

max computing power, worst thermal placementmin computing power, worst thermal placemenit

optimal computing+coolingoptimal computing+cooling, shut off idles

optimal computing+cooling, shut off idles, no recirculation

Fig. 3. Data center operation cost (in kilowatts) for various “savingsmodes”. Savings are based on heat recirculation data obtained byFloVENT simulation of the ASU Fulton HPCI data center.

to cost savings, some research has included economical models to computing schedules [18]. Most of the schedulers

implement the first fit policy in job placement, mainly for reasons of low overhead.

In data centers, the majority of energy ine⇥ciency is attributed to idle running servers and to heat recirculation [2]

(Figure 2). Solutions such as low-voltage ICs [10], ensemble-level power management [11] and energy-e⇥cient de-

sign of data centers [12] which try to address these causes of ine⇥ciency by reducing the inherent heat generation.

Power control schemes, such as Freon-EC (an extension to the Freon power-aware management software which adds

power control [4, 5]), or using energy-proportional systems [16] can help in addressing the energy ine⇥ciency due

to idle servers. To address heat recirculation, energy-e�cient thermal-aware spatial scheduling algorithms have been

proposed, such as MinHR and XInt [1–3]. Spatial scheduling can avoid or even prevent excessive heat conditions, while

it can greatly reduce the cooling costs, which account for a large portion (about one third) of a data center’s utility.

To demonstrate the magnitude of savings achieved by thermal-aware placement, and the thermal-aware placement’s

complementary relation to power control schemes, we provide Figure 3, which was produced using XInt and numer-

ical results from previous spatial scheduling work on thermal-aware placement [3]: the top two lines in the figure

represent the most energy-consuming schedules, and they were produced using a variant of XInt that maximizes the

thermal ine⇥ciency of the data center; the third line is the XInt curve as obtained in the previous work [3]; the fourth

line represents the combined use of XInt and turning o� idle servers, and it was obtained by removing the power

consumption of all un-assigned servers from the XInt line; the bottom line represents the power consumption without

heat recirculation. The figure shows that explicit power control and thermal-aware job placement are mutually com-

plementary, with the former showing the most savings at low data center utilization rates and the latter at moderate to

high (but not full) data center utilization rates. The figure also shows that power-aware yet heat-oblivious approaches

that minimize only the computing power (second line from the top) do not save as much as thermal-aware approaches

do.

The aforementioned thermal-aware job scheduling algorithms try to optimize the spatial scheduling (i.e. placement)

6

Page 12: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

PUE Power Usage Effectiveness

•  Estado%del%arte:%%PUE%≈%1,2%–  La%parte%importante%es%el%consumo%de%computación%–  El%trabajo%en%eficiencia%energéLca%en%DC%está%centrado%en%la%reducción%del%PUE%

–  Reducir%PIT$$no%reduce%el%PUE,%pero%se%nota%en%la%factura%de%la%luz%

•  %¿Cómo%se%puede%reducir%PIT$?%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 12%

!"# = 1!"#$ =

!!"!#$!!" = !!"#$%&!'( + !!"#!$%"!&'$() + !!"#$

!!"#$% !

Page 13: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Ahorro energético según el nivel de abstracción

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 13%

Page 14: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Nuestro enfoque

•  Estrategia%global%para%permiLr%la%uLlización%de%múlLples%fuentes%de%información%y%para%coordinar%las%decisiones%con%el%fin%de%reducir%el%consumo%total%

•  ULlización%del%conocimiento%de%las%caracterísLcas%de%demanda%energéDca%de%las%aplicaciones%y%las%caracterísDcas%de%los%recursos%de%computación%y%refrigeración%para%aplicar%técnicas%proacDvas%de%opLmización%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 14%

Page 15: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Optimización proactiva

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 15%

Datacenter%

Model%OpLmizaLon%

Page 16: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Optimización proactiva

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 16%

Datacenter

Workload Model

Sensors

Actuators

Sensor configuration

Visualization

Power Model

Energy Model

Thermal Model

Dynamic Cooling Opt.

Resource Alloc. Opt.

Global DVFS

VM Opt.

Anomaly Detection

and Reputation System

s

Communication network

Sensor network

Workload

Page 17: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Sensores

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 17%

Page 18: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Enfoque holístico

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 18%

Chip% Server% Rack% Room% MulDJroom%

Sched%&%alloc% 2% 1%

app%

OS/middleware%

Compiler/VM% 3% 3%

architecture% 4% 4%

technology% 5%

Page 19: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

1. Gestión de recursos en la sala

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 19%

Chip% Server% Rack% Room% MulDJroom%

Sched%&%alloc% 2% 1

app%

OS/middleware%

Compiler/VM% 3% 3%

architecture% 4% 4%

technology% 5%

Page 20: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Aprovechando la heterogeneidad

•  ULlización%de%la%heterogeneidad%para%minimizar%el%consumo%energéLco%desde%un%punto%de%vista%estáLco/dinámico%–  EstáDco:%Encontrar%el%mejor%setfup%del%datacenter,%dado%un%número%heterogéneo%de%máquinas%

– Dinámico:%OpLmización%de%la%asignación%de%tareas%en%el%Resource%Manager%

•  Demostramos%que%la%mejor%solución%se%encuentra%en%un%datacenter%heterogéneo%– Muchos%datacenters%son%heterogéneos%(diversas%generaciones%de%máquinas)%

20%

CCGrid 2012

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

M.%Zapater,%J.M.%Moya,%J.L.%Ayala.%Leveraging%Heterogeneity%for%Energy%MinimizaLon%in%Data%Centers,%CCGrid%2012%

Page 21: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Escenario actual

21%

WORKLOAD% Scheduler% Resource%%Manager%

ExecuDon%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 22: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la refrigeración

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 22%

To appear in Computer Networks, Special Issue on Virtualized Data Centers. All rights reserved.

0

50

100

150

200

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers on

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr3.4 ms 6.9 ms 213 ms 23 min 40 min

0% 6.2% 8.6% 8.7% 10.2%

cooling energycomputing energy

(a)

0

5

10

15

20

25

30

35

40

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers off

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr3.4 ms 6.9 ms 213 ms 23 min 43 min

0% 11.8% 54.7% 21.8% 60.5%

cooling energycomputing energy

(b)

0

50

100

150

200

250

300

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr170 ms 186 ms 397 ms 40.8 min 88.6 min

0% 1.7% 4.1% 3.6% 4.7%

cooling energycomputing energy

(c)

0

5

10

15

20

25

30

35

40

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr171 ms 186 ms 397 ms 42 min 100 min

0% 4.0% 14.6% 14.2% 15.1%

cooling energycomputing energy

(d)

0

50

100

150

200

250

300

350

400

450

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr173 ms 196 ms 346 ms 20 min 142 min

0% 2.5% 5.9% 9.4% 12.5%

cooling energycomputing energy

(e)

0

20

40

60

80

100

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr173 ms 191 ms 346 ms 21 min 147 min0.0% 7.5% 17.3% 25.7% 41.4%

cooling energycomputing energy

(f)

Fig. 8. Energy comparison of the simulated schemes for the three scenarios. The plots correspond in respective positions to the plots of Figure 7.

policy used in the data center, which enables job execution as soon as they arrive if the queue is empty and the data

center is lightly loaded. In the “idle-on” case (Figure 8a), the total energy consumption using SCINT, EDF-LRH,

FCFS-Backfill-FF, FCFS-Backfill-LRH and XInt placement is 131.3 GJ, 133.9 GJ, 146.2 GJ, 139.3 GJ and 139.3 GJ,

respectively. However, in the “idle-o�” case, the energy consumption reduces to 10.3,GJ, 11.8 GJ, 26.1 GJ, 24.4 GJ,

and 24.6 GJ, respectively. Notice that the savings exceed 80% for any approach. The savings is achieved by: (i) the

22

To appear in Computer Networks, Special Issue on Virtualized Data Centers. All rights reserved.

0

50

100

150

200

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers on

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr3.4 ms 6.9 ms 213 ms 23 min 40 min

0% 6.2% 8.6% 8.7% 10.2%

cooling energycomputing energy

(a)

0

5

10

15

20

25

30

35

40

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers off

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr3.4 ms 6.9 ms 213 ms 23 min 43 min

0% 11.8% 54.7% 21.8% 60.5%

cooling energycomputing energy

(b)

0

50

100

150

200

250

300

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr170 ms 186 ms 397 ms 40.8 min 88.6 min

0% 1.7% 4.1% 3.6% 4.7%

cooling energycomputing energy

(c)

0

5

10

15

20

25

30

35

40

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr171 ms 186 ms 397 ms 42 min 100 min

0% 4.0% 14.6% 14.2% 15.1%

cooling energycomputing energy

(d)

0

50

100

150

200

250

300

350

400

450

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr173 ms 196 ms 346 ms 20 min 142 min

0% 2.5% 5.9% 9.4% 12.5%

cooling energycomputing energy

(e)

0

20

40

60

80

100

FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT

ener

gy c

onsu

med

(GJ)

Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off

ThroughputTurnaround timeAlg. runtimeEnergy savings

0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr173 ms 191 ms 346 ms 21 min 147 min0.0% 7.5% 17.3% 25.7% 41.4%

cooling energycomputing energy

(f)

Fig. 8. Energy comparison of the simulated schemes for the three scenarios. The plots correspond in respective positions to the plots of Figure 7.

policy used in the data center, which enables job execution as soon as they arrive if the queue is empty and the data

center is lightly loaded. In the “idle-on” case (Figure 8a), the total energy consumption using SCINT, EDF-LRH,

FCFS-Backfill-FF, FCFS-Backfill-LRH and XInt placement is 131.3 GJ, 133.9 GJ, 146.2 GJ, 139.3 GJ and 139.3 GJ,

respectively. However, in the “idle-o�” case, the energy consumption reduces to 10.3,GJ, 11.8 GJ, 26.1 GJ, 24.4 GJ,

and 24.6 GJ, respectively. Notice that the savings exceed 80% for any approach. The savings is achieved by: (i) the

22

iMPACT Lab (Arizona State U)

Page 23: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

23%

LSI-UPM

WORKLOAD%

Resource%%Manager%(SLURM)%

ExecuDon%

Profiling%and%ClassificaDon%

Energy%%OpDmizaDon%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 24: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

•  Workload:%–  12%tareas%del%benchmark%SpecCPU%2006%– Workload%aleatorio%de%2000%tareas,%dividido%en%job%sets%–  Tiempo%de%llegada%aleatorio%entre%job%sets%

•  Servidores:%

24%

Escenario

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 25: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

25%

Profiling de energía

WORKLOAD%

Resource%%Manager%(SLURM)%

ExecuDon%

Profiling%and%ClassificaDon%

Energy%%OpDmizaDon%

Energy%profiling%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 26: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Caracterización de la carga de trabajo

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 26%

Page 27: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Trabajo realizado

27%

Optimizaciones

WORKLOAD%

Resource%%Manager%(SLURM)%

ExecuDon%

Profiling%and%ClassificaDon%

Energy%%OpDmizaDon%

Energy%MinimizaDon:%• %MinimizaDon%subjected%to%constraints%• %MILP%problem%(solved%with%CPLEX)%• %StaDc%and%Dynamic%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 28: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

28%

Optimización estática

•  Definición%del%datacenter%ópLmo%–  Dado%un%pool%de%100%máquinas%de%cada%–  1%job%set%del%workload%–  El%opLmizador%escoge%los%mejores%servidores%–  Constraints%de%presupuesto%y%espacio%

Mejor%solución:%• %40%Sparc%• %27%AMD%%Ahorros:%• %5%a%22%%en%energía%• %30%%Dempo%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 29: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

29%

Optimización dinámica

•  Asignación%ópLma%del%workload%–  Uso%del%workload%completo%(2000%tareas)%–  El%algoritmo%encuentra%una%buena%asignación%(no%la%mejor)%en%términos%de%energía%

–  Ejecución%del%algoritmo%en%runLme%

Ahorros%del%24%%al%47%%en%energía%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 30: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

•  Primera%prueba%de%concepto%en%cuanto%a%ahorros%energéLcos%gracias%a%heterogeneidad%

•  Solución%automáLca%•  La%solución%automáLca%de%procesadores%ofrece%notables%ahorros%energéLcos.%

•  La%solución%puede%ser%fácilmente%implementable%en%un%entorno%real%–  Uso%del%Resource%Manager%SLURM%– Workloads%y%servidores%más%realistas%

30%

Conclusiones

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

Page 31: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

2. Gestión de recursos en el servidor

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 31%

Chip% Server% Rack% Room% MulDJroom%

Sched%&%alloc% 2 1%

app%

OS/middleware%

Compiler/VM% 3% 3%

architecture% 4% 4%

technology% 5%

Page 32: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Políticas de planificación y asignación de recursos en MPSoCs

A.%Coskun%,%T.%Rosing%,%K.%Whisnant%and%K.%Gross%%"StaLc%and%dynamic%temperaturefaware%scheduling%for%mulLprocessor%SoCs",%%IEEE%Trans.%Very%Large%Scale%Integr.%Syst.,%%vol.%16,%%no.%9,%%pp.1127%f1140%2008%%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 32%

1136 IEEE TRANSACTIONS ON VERY LARGE SCALE INTEGRATION (VLSI) SYSTEMS, VOL. 16, NO. 9, SEPTEMBER 2008

TABLE VISUMMARY OF EXPERIMENTAL RESULTS

Fig. 3. Distribution of thermal hot spots, with DPM (ILP).

A. Static Scheduling Techniques

We next provide an extensive comparison of the ILP basedtechniques. We refer to our static approach as Min-Th&Sp.As discussed in Section III, we implemented the ILP for min-imizing thermal hot spots (Min-Th), energy balancing (Bal-En), and energy minimization (Min-En) to compare againstour approach. To the best of our knowledge, this is the first timein the literature static MPSoC scheduling techniques are com-pared extensively to evaluate their thermal behavior.

We first show average results over all the benchmarks. Fig. 3demonstrates the percentage of time spent at certain temperatureintervals for the case with DPM. The figure shows that Min-Th&Sp achieves a higher reduction of hot spots in comparisonto the other energy and temperature-based ILPs. The reason forthis is that, avoiding clustering of workload in neighbor coresreduces the heating on the die, resulting in lower temperatures.

Fig. 4 shows the distribution of spatial gradients for the av-erage case with DPM. In this plot, we can observe how Min-Thincreases the percentage of high differentials while reducing

Fig. 4. Distribution of spatial gradients, with DPM (ILP).

hot spots. While Min-Th reduces the high spatial differentialsabove 15 C, we observe a substantial increase in the spatialgradients above 10 C. In contrast, our method achieves lowerand more balanced temperature distribution in the die.

In Fig. 5, we show how the magnitudes of thermal cycles varywith the scheduling method. We demonstrate the average per-centage of time the cores experience temporal variations of cer-tain magnitudes. As can be observed in Fig. 5, Min-Th&Spreduces the thermal cycles of magnitude 20 C and higher sig-nificantly. The temporal fluctuations above 15 C are reducedin comparison to other static techniques, except for Min-En.The cycles above 15 C (total) occur 17.3% and 19.2% of thetime for Min-Th&Sp and Min-En, respectively. Our formu-lation targets reducing the frequency of highest magnitude ofhot spots and temperature variations, therefore, such slight in-creases with respect to Min-En are possible.

In the plots discussed before and also in Table VI, we ob-serve that the Min-Th&Sp technique successfully reduces hotspots as well as the spatial and temporal fluctuations. Power

1136 IEEE TRANSACTIONS ON VERY LARGE SCALE INTEGRATION (VLSI) SYSTEMS, VOL. 16, NO. 9, SEPTEMBER 2008

TABLE VISUMMARY OF EXPERIMENTAL RESULTS

Fig. 3. Distribution of thermal hot spots, with DPM (ILP).

A. Static Scheduling Techniques

We next provide an extensive comparison of the ILP basedtechniques. We refer to our static approach as Min-Th&Sp.As discussed in Section III, we implemented the ILP for min-imizing thermal hot spots (Min-Th), energy balancing (Bal-En), and energy minimization (Min-En) to compare againstour approach. To the best of our knowledge, this is the first timein the literature static MPSoC scheduling techniques are com-pared extensively to evaluate their thermal behavior.

We first show average results over all the benchmarks. Fig. 3demonstrates the percentage of time spent at certain temperatureintervals for the case with DPM. The figure shows that Min-Th&Sp achieves a higher reduction of hot spots in comparisonto the other energy and temperature-based ILPs. The reason forthis is that, avoiding clustering of workload in neighbor coresreduces the heating on the die, resulting in lower temperatures.

Fig. 4 shows the distribution of spatial gradients for the av-erage case with DPM. In this plot, we can observe how Min-Thincreases the percentage of high differentials while reducing

Fig. 4. Distribution of spatial gradients, with DPM (ILP).

hot spots. While Min-Th reduces the high spatial differentialsabove 15 C, we observe a substantial increase in the spatialgradients above 10 C. In contrast, our method achieves lowerand more balanced temperature distribution in the die.

In Fig. 5, we show how the magnitudes of thermal cycles varywith the scheduling method. We demonstrate the average per-centage of time the cores experience temporal variations of cer-tain magnitudes. As can be observed in Fig. 5, Min-Th&Spreduces the thermal cycles of magnitude 20 C and higher sig-nificantly. The temporal fluctuations above 15 C are reducedin comparison to other static techniques, except for Min-En.The cycles above 15 C (total) occur 17.3% and 19.2% of thetime for Min-Th&Sp and Min-En, respectively. Our formu-lation targets reducing the frequency of highest magnitude ofhot spots and temperature variations, therefore, such slight in-creases with respect to Min-En are possible.

In the plots discussed before and also in Table VI, we ob-serve that the Min-Th&Sp technique successfully reduces hotspots as well as the spatial and temporal fluctuations. Power

UCSD – System Energy Efficiency Lab

Page 33: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Planificación y asignación de recursos consciente de la aplicación

•  La%caracterización%energéLca%de%las%aplicaciones%permite%la%definición%de%políLcas%proacLvas%de%planificación%y%asignación%de%recursos%que%minimizan%los%hotspots&

•  La%reducción%de%hotspots%permite%aumentar%la%temperatura%del%aire%de%los%sistemas%de%refrigeración%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 33%

Page 34: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

3. Máquina virtual consciente de la aplicación y los recursos

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 34%

Chip% Server% Rack% Room% MulDJroom%

Sched%&%alloc% 2% 1%

app%

OS/middleware%

Compiler/VM% 3 3

architecture% 4% 4%

technology% 5%

Page 35: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Compilación JIT en máquinas virtuales

•  La%máquina%virtual%compila%(JIT)%la%aplicación%a%código%naLvo%por%eficiencia%

•  El%opLmizador%es%genérico%y%orientado%a%la%opDmización%de%rendimiento%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 35%

Page 36: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Backfend%

Compilación JIT para reducción de energía

•  Compilador%consciente%de%la%aplicación%–  Caracterización%de%aplicaciones%y%transformaciones%– OpLmizador%dependiente%de%la%aplicación%–  Visión%global%de%la%carga%de%trabajo%del%data%center%

•  OpLmizador%de%energía%–  En%la%actualidad,%los%compiladores%para%procesadores%de%altas%prestaciones%solo%opLmizan%rendimiento%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 36%

Frontfend% OpLmizador%Generador%de%

código%

Page 37: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Potencial de ahorro desde el compilador (MPSoCs)

T.%Simunic,%G.%de%Micheli,%L.%Benini,%and%M.%Hans.%“Source%code%opLmizaLon%and%profiling%of%energy%consumpLon%in%embedded%systems,”%InternaLonal%Symposium%on%System%Synthesis,%pages%193%–%199,%Sept.%2000%

– Reducción%de%un%77%%%de%energía%en%un%decodificador%MP3%

FEI,%Y.,%RAVI,%S.,%RAGHUNATHAN,%A.,%AND%JHA,%N.%K.%2004.%EnergyfopLmizing%source%code%transformaLons%for%OSfdriven%embedded%so{ware.%In%Proceedings%of%the%InternaLonal%Conference%VLSI%Design.%261–266.%

– Hasta%el%37,9%%(media%23,8%)%de%ahorro%energéLco%en%programas%mulLproceso%sobre%Linux%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 37%

Page 38: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

4. Gestión automática de frecuencia a nivel global

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 38%

Chip% Server% Rack% Room% MulDJroom%

Sched%&%alloc% 2% 1%

app%

OS/middleware%

Compiler/VM% 3% 3%

architecture% 4 4

technology% 5%

Page 39: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

DVFS – Dynamic Voltage and Frequency Scaling

•  Al%decrementar%la%tensión%de%alimentación,%la%potencia%se%reduce%cuadráLcamente%(a%frecuencia%constante)%

•  El%retardo%se%incrementa%solo%linealmente%•  La%frecuencia%máxima%también%se%decrementa%linealmente%

•  Actualmente%los%modos%de%bajo%consumo%se%acLvan%por%inacLvidad%del%sistema%operaLvo%de%un%servidor%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 39%

Page 40: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

DVFS a nivel de sala

•  Para%minimizar%el%consumo%hay%que%minimizar%los%cambios%de%modo%

•  Existen%algoritmos%ópLmos%para%un%conjunto%conocido%de%tareas%(YDS)%

•  El%conocimiento%de%la%carga%de%trabajo%permite%planificar%los%modos%de%bajo%consumo%a%nivel%global%sin%pérdida%de%rendimiento%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 40%

Page 41: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Paralelismo para ahorrar energía

Use of ParallelismUse of Parallelism

Vdd Vdd/2 Vdd/2f f /2 f /2fmax fmax/2 fmax/2

9-17Swiss FederalInstitute of Technology

Computer Engineeringand Networks Laboratory

Use of PipeliningUse of Pipelining

Vdd/2f f /2Vdd

V /2

fmax fmax/2

Vdd/2fmax/2

9-18Swiss FederalInstitute of Technology

Computer Engineeringand Networks Laboratory

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 41%

Page 42: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Resultados de simulación

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 42%

Page 43: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

5. Emplazamiento de cores consciente de la temperatura

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 43%

Chip% Server% Rack% Room% MulDJroom%

Sched%&%alloc% 2% 1%

app%

OS/middleware%

Compiler/VM% 3%

architecture% 4% 4%

technology% 5

Page 44: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Floorplanning consciente de la temperatura

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 44%

Page 45: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Potencial de ahorro energético por floorplaning

–  Reducciones%de%temperatura%máxima%de%hasta%21oC%– Media:%f12oC%en%temperatura%máxima%– Mayor%reducción%en%los%casos%más%críLcos%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 45%

Temperature Reductions

Average MaxTemp reduction: 12 oCLarger temperature reductions for benchmarks with higher maximum temperatureFor many benchmarks, temperature reducions are larger than 20 oC

Maximum Temperature

0

20

40

60

80

100

120

140

amm

p

appl

u

apsi art

bzip

2

craf

ty

eon

equa

ke

face

rec

fma3

d

gap

gcc

gzip

luca

s

mcf

mes

a

mgr

id

pars

er

perlb

mk

swim

twol

f

vorte

x

vpr

wup

wise avg

original modified

Y.%Han,%I.%Koren,%and%C.%A.%Moritz.%Temperature%Aware%Floorplanning.%In%Proc.%of%the%%Second%Workshop%on%TemperaturefAware%Computer%Systems,%June%2005%

Page 46: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Floorplanning consciente de la temperatura en chips 3D

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 46%

•  El%circuito%integrado%3D%está%recibiendo%atención:%–  ↑%↑% %Escalado:%reduce%área%2D%equivalente%–  ↑%↑% %Rendimiento:%menor%longitud%de%comunicaciones%

–  ↑ %Fiabilidad:%menor%cableado%%•  Desventaja:%

–  Aumentan$drás3camente$los$picos$de$temperatura$con$respecto$a$los$diseños$2D$equivalentes$

Page 47: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Floorplanning consciente de la temperatura

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 47%

•  Reducción%de%hasta%30oC%por%capa%en%un%chip%3D%de%4%capas%y%48%cores%

Page 48: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Y todavía hay más

•  Smart%Grids%– Consumir%cuando%nadie%consume%– Reducir%el%consumo%cuando%todo%el%mundo%consume%

•  Reducción%de%la%factura%de%luz%– Coste%dependiente%del%horario%– Coeficiente%de%energía%reacLva%– Picos%de%consumo%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 48%

Page 49: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Conclusiones

•  Reducir%el%PUE%no%es%lo%mismo%que%reducir%el%consumo%–  El%consumo%de%computación%es%dominante%en%data%centers%modernos%

•  El%conocimiento%de%la%aplicación%y%de%los%recursos%puede%ser%uLlizado%para%establecer%políDcas%proacDvas%para%reducir%la%energía%total%–  A%todos%los%niveles%–  En%todos%los%ámbitos%–  Considerando%simultáneamente%computación%y%refrigeración%

•  La%gesLón%adecuada%del%conocimiento%del%comportamiento%térmico%del%data%center%permite%reducir%los%problemas%de%fiabilidad%

•  Reducir%el%consumo%total%no%es%lo%mismo%que%reducir%la%factura%de%la%luz%

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 49%

Page 50: Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

“Ingeniamos el futuro”!

CAMPUS OF INTERNATIONAL EXCELLENCE

Contacto

José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 50%

José M. Moya Laboratorio de Sistemas Integrados +34%607%082%892%[email protected]%%

Gracias:%