optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los...
DESCRIPTION
Talk “Advances in Electronic Systems Engineering” seminar, within the M.Sc. in Electronic Systems Engineering (MISE), to present the session on Energy Optimization in Data Centers. Speech title: Energy efficiency beyond PUE: exploiting knowledge about application and resources Abstract: The current techniques for data center energy optimization, based on efficiency metrics like PUE, pPUE, ERE, DCcE, etc., do not take into account the static and dynamic characteristics of the applications and resources (computing and cooling). However, the knowledge about the current state of the data center, the past history, the resource characteristics, and the characteristics of the jobs to be executed can be used very effectively to guide decision-making at all levels in the datacenter in order to minimize energy needs. For example, the allocation of jobs on the available machines, if done taking into account the most appropriate architecture for each job from the energetic point of view, and taking into account the type of jobs that will come later, can reduce energy needs by 30%. Moreover, to achieve significant reductions in energy consumption of state-of-the-art data centers (low PUE) is becoming increasingly important a comprehensive and multi-level approach, ie, acting on different abstraction levels (scheduling and resource allocation, application, operating system, compilers and virtual machines, architecture, and technology), and at different scopes (chip, server, rack, room, and multi-room). Date and Time: Tuesday, October 15, 2013, 16:00, room B-221TRANSCRIPT
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Eficiencia Energética más allá del PUE: Explotando el Conocimiento de la
Aplicación y los Recursos
José%M.%Moya%<[email protected]>%Laboratorio%de%Sistemas%Integrados%
Dpto.%Ingeniería%Electrónica%Universidad%Politécnica%de%Madrid%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 1%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Contenido
• MoLvación%• Enfoque%actual%• Nuestro%enfoque%– Planificación%y%gesLón%de%recursos%
– OpLmización%de%máquinas%virtuales%
– GesLón%de%modos%de%bajo%consumo%
– Diseño%de%procesadores%• Conclusiones%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 2%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Motivación
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 3%
• Consumo%energéLco%en%data%centers%– 1.3%%de%la%producción%energéLca%mundial%en%2010%– USA:%80%mill%MWh/año%en%2011%=%1,5%x%NYC%– 1%datacenter%medio%=%25%000%casas%
• Más%de%43%Millones%de%Toneladas%de%CO2%/%año%(2%%mundial)%
• Más%agua%que%la%industria%del%papel,%automóvil,%petróleo,%%madera%o%plásLco%
%%%%%%%%%%Jonathan%Koomey.%2011.%Growth%in%Data%center%electricity%use%2005%to%2010%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Motivación
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 4%
• Se%espera%que%la%electricidad%total%uLlizada%por%los%data%centers%en%2015%exceda%los%400%GWh/año.%
• El%consumo%de%energía%de%la%refrigeración%conLnuará%teniendo%una%importancia%similar%o%superior%al%consumo%de%la%computación%
• La%opLmización%energéLca%de%los%data%centers%del%futuro%requerirá%un%enfoque%global%y%mulLfdisciplinar.%
0%
5000%
10000%
15000%
20000%
25000%
30000%
35000%
2000% 2005% 2010%
World%se
rver%installed%ba
se%
(tho
usan
ds)%
Highfend%servers%
Midfrange%servers%
Volume%servers%
0%
50%
100%
150%
200%
250%
300%
2000% 2005% 2010%
Electricity
%use%%
(billion%kW
h/year)% Infrastructure%
CommunicaLons%
Storage%
Highfend%servers%
Midfrange%servers%
Volume%servers%
5,75%Millones%de%servidores%nuevos%/%año%10%%de%servidores%sin%uLlizar%(CO2%de%6,5%millones%de%coches)%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Problemas de fiabilidad que dependen de la temperatura
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 5%
Timefdependent%dielectricf
breakdown%(TDDB)%
ElectromigraLon%(EM)%
Stress%migraLon%(SM)%
Thermal%cycling%(TC)%
✔% ✖%
✖%✖%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Refrigeración de un data center
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 6%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
• Virtualización%%%
f%27%%• Servidores%conforme%a%Energy%Star%
%%
=%6.500%
• Mejor%planificación%de%capacidad%
%2.500%
Mejoras en servidores
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 7%
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
25%
Servidores
Refrigeración
Infraestructura
Servidores
Refrigeración
Infraestructura
5,75 millones de nuevos servido-
res se instalan cada año para
mantenerse al ritmo de creci-
miento de los servicios on-line, y
todavía aproximadamente el 10%
de los servidores instalados no
se utilizan debido a sobrestima-
ciones conservadoras a la hora
de planificar las necesidades de
almacenamiento.
La energía utilizada para
los servidores en desuso
podría compensar
las emisiones de 6,5
millones de coches.
Los centros de datos son grandes
Cada año, los nuevos servidores requieren
más espacio. Los centros de datos están incre-
mentando su tamaño a una tasa del 10% anual.
De entre estos, los de mayor tamaño ocupan más
de cien mil metros cuadrados, suficiente como
para albergar 14 campos de fútbol. Estos centros
consumen más de 100 veces la energía de un
edificio de tamaño similar.
Esto equivale a las emisiones con-
taminantes de conducir desde la
Tierra a Marte y vuelta unas 700
veces. A una velocidad media
de 100 kilómetros/hora esto
supondría 308.000 años.
Las baterías de mantenimiento
en modo descanso, los micro-
chips y muchos otros compo-
nentes dentro de los equipos
informáticos funcionan con co-
rriente continua. Dado que hoy
en día los centros de datos
funcionan en corriente alterna
(como cualquier oficina u
hogar) la energía tiene que ser
convertida de un tipo a otro
hasta 5 veces dentro de cada
centro de datos.
Es posible conseguir importantes ahorros de
energía mediante mejoras en el diseño y gestión
de los servidores.
En un centro de datos convencional, algunas de
estas mejoras pueden reducir su impacto en las
siguientes cifras:
Mejorar la gestión de los flujos de aire mediante va-
riadores de velocidad para los ventiladores de refri-
geración, y mantener los centros de datos a unos
rangos de temperatura ligeramente más
amplios, pero igualmente seguros, puede reducir
el consumo de energía en un 25%. Para al-
gunos centros de datos, esta cantidad equivale
a la energía de 25.000 hogares de EEUU.
La inversión de incluir medidas de
eficiencia energética en los siste-
mas de refrigeración de los cen-
tros de datos se recupera gene-
ralmente en menos de dos años.
Refrigerar estos equipos
supone el 30% de la energía
utilizada en un centro de
datos medio. Esto significa
que 281 millones de dólares
se escapan por la ventana.
Una parte importante de los
presupuestos en IT de las
organizaciones se destinan
a los centros de datos.
(excluyendo el software)
$ $ $ $
Impacto de los centros de datos Oportunidades para la eficiencia
A menudo los servidores se sobredimensionan
para afrontar picos de demanda, lo que significa
que como media suelen funcionar sólo al 20%
de su capacidad.
281 millones
2.500
Los equipos informáticos generan grandes
cantidades de calor
6,5 millones
= 6.500
El equivalente a retirar 6.500
coches de las carreteras, me-
diante la utilización de servidores
acordes a Energy Star, lo que re-
duciría el consumo eléctrico de
los centros de datos en 82.000
megavatios-hora.
Consumo de energía por m2
5CA CC
X1CA CC
X
Tierra
Marte
10% no se utilizan
US
2 años 2013
Utilizar un diseño en corriente continua para
los centros de datos, puede eliminar equipos
innecesarios y reducir las pérdidas de conversión
de la energía en un 20%.
Si los centros de datos del
mundo migrasen a las nuevas
tecnologías disponibles para
el suministro eléctrico en
corriente continua, que tiene
una eficiencia de hasta el
97%, el ahorro de energía
anual sería suficiente para
cargar un iPad durante un
periodo de tiempo muy muy
largo:
Asimismo, un centro de datos convencional puede
ahorrar hasta 47 millones de dólares en gastos in-
mobiliarios eliminando el espacio que necesitan
los equipos de conversión de corriente alterna.Oficina
Centro de datos
para el retorno
700X
70millones de años
27%Reducir un 27% el consumo
energético mediante la virtuali-
zación, lo que reduce la capaci-
dad productiva no empleada.
El equivalente a la energía consumida por 2.500
hogares en EEUU, mediante una mejor planifica-
ción de la capacidad.
Las infraestructuras en co-
rriente continua permiten
además una mejor
integración con energías
renovables como la solar
fotovoltaica, que generan
energía en este tipo de co-
rriente.
Esto significa que el 20% de la energía se desperdicia
en la infraestructura de los centros de datos.
Energía para internetCada vez que cargas un video en internet, compartes una foto, envías un correo electrónico o revisas tus cuentas bancarias, tu dispositivo de acceso a la red se pone en contacto con un centro de datos. Hileras de servidores que almacenan billones de megabytes de información se concentran en enormes centros de datos que consumen grandes cantidades de energía y que alimentan la web.
Los centros de datos son los responsables del 2% de las emisiones globales de dióxido de carbono y utilizan anualmente 80 millones de megavatios-hora de electricidad, casi lo mismo que 1,5 veces la cantidad de electricidad utilizada por la ciudad de Nueva York.
En 2020, al ritmo de crecimiento actual y sin mejoras en eficiencia energética, los centros de datos producirán:
Los centros de datos
El impacto energético de los centros de datos
25.000 casas de EEUU1 centro de datos =
48%359 mil toneladas de coches en EEUU=
1,5 x NYC=de consumo eléctrico
C
M
Y
CM
MY
CY
CMY
K
ESABB_DataCenter_infographic_50x200cm.ai 1 01/02/12 12:44ESABB_DataCenter_infographic_50x200cm.ai 1 01/02/12 12:44
UN%SOLO%CENTRO%DE%DATOS%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Mejoras en refrigeración
• Mejoras%en%gesLón%de%flujos%de%aire%y%rangos%de%temperatura%ligeramente%más%amplios%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 8%
Reducción%del%consumo%
hasta%un%25%% 25.000%Recuperación%de%la%inversión%%
en%solo%2%años%%
UN%SOLO%CENTRO%DE%DATOS%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
CA%!%CC%– 20%%reducción%de%pérdidas%de%conversión%– 47%millones%de%dólares%de%gastos%inmobiliarios%por%data%center%– Mayor%eficiencia,%ahorro%de%energía%suficiente%para%
cargar%un%iPad%durante %70%millones%de%años%
Mejoras en infraestructura
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 9%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
�
����� ����������������
�������������� ��
���
Mejores prácticas de eficiencia energética
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 10%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Potencial de mejora con mejores prácticas
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 11%
To appear in Computer Networks, Special Issue on Virtualized Data Centers. All rights reserved.
C o l dA i s l e
c o l d a i r f r o m f l o o r
R a c k sR a c k sHot Aisle Hot Aisle
h e a tr e c i r c u l a t i o n
Fig. 2. Demonstration of heat recirculation: heated air in the hot aisleloops around the equipment to enter the air inlets.
0
200
400
600
800
1000
1200
1400
0 20 40 60 80 100
Pow
er (K
W)
job size relative to data center capacity (%)
Total power (computing and cooling) for various scheduling approaches
savings by minimizing computing powersavings by minimizing the recirculation’s effect
savings by turning off idle machinesunaddressed heat recirculation cost
basic (unavoidable) cost
max computing power, worst thermal placementmin computing power, worst thermal placemenit
optimal computing+coolingoptimal computing+cooling, shut off idles
optimal computing+cooling, shut off idles, no recirculation
Fig. 3. Data center operation cost (in kilowatts) for various “savingsmodes”. Savings are based on heat recirculation data obtained byFloVENT simulation of the ASU Fulton HPCI data center.
to cost savings, some research has included economical models to computing schedules [18]. Most of the schedulers
implement the first fit policy in job placement, mainly for reasons of low overhead.
In data centers, the majority of energy ine⇥ciency is attributed to idle running servers and to heat recirculation [2]
(Figure 2). Solutions such as low-voltage ICs [10], ensemble-level power management [11] and energy-e⇥cient de-
sign of data centers [12] which try to address these causes of ine⇥ciency by reducing the inherent heat generation.
Power control schemes, such as Freon-EC (an extension to the Freon power-aware management software which adds
power control [4, 5]), or using energy-proportional systems [16] can help in addressing the energy ine⇥ciency due
to idle servers. To address heat recirculation, energy-e�cient thermal-aware spatial scheduling algorithms have been
proposed, such as MinHR and XInt [1–3]. Spatial scheduling can avoid or even prevent excessive heat conditions, while
it can greatly reduce the cooling costs, which account for a large portion (about one third) of a data center’s utility.
To demonstrate the magnitude of savings achieved by thermal-aware placement, and the thermal-aware placement’s
complementary relation to power control schemes, we provide Figure 3, which was produced using XInt and numer-
ical results from previous spatial scheduling work on thermal-aware placement [3]: the top two lines in the figure
represent the most energy-consuming schedules, and they were produced using a variant of XInt that maximizes the
thermal ine⇥ciency of the data center; the third line is the XInt curve as obtained in the previous work [3]; the fourth
line represents the combined use of XInt and turning o� idle servers, and it was obtained by removing the power
consumption of all un-assigned servers from the XInt line; the bottom line represents the power consumption without
heat recirculation. The figure shows that explicit power control and thermal-aware job placement are mutually com-
plementary, with the former showing the most savings at low data center utilization rates and the latter at moderate to
high (but not full) data center utilization rates. The figure also shows that power-aware yet heat-oblivious approaches
that minimize only the computing power (second line from the top) do not save as much as thermal-aware approaches
do.
The aforementioned thermal-aware job scheduling algorithms try to optimize the spatial scheduling (i.e. placement)
6
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
PUE Power Usage Effectiveness
• Estado%del%arte:%%PUE%≈%1,2%– La%parte%importante%es%el%consumo%de%computación%– El%trabajo%en%eficiencia%energéLca%en%DC%está%centrado%en%la%reducción%del%PUE%
– Reducir%PIT$$no%reduce%el%PUE,%pero%se%nota%en%la%factura%de%la%luz%
• %¿Cómo%se%puede%reducir%PIT$?%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 12%
!"# = 1!"#$ =
!!"!#$!!" = !!"#$%&!'( + !!"#!$%"!&'$() + !!"#$
!!"#$% !
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Ahorro energético según el nivel de abstracción
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 13%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Nuestro enfoque
• Estrategia%global%para%permiLr%la%uLlización%de%múlLples%fuentes%de%información%y%para%coordinar%las%decisiones%con%el%fin%de%reducir%el%consumo%total%
• ULlización%del%conocimiento%de%las%caracterísLcas%de%demanda%energéDca%de%las%aplicaciones%y%las%caracterísDcas%de%los%recursos%de%computación%y%refrigeración%para%aplicar%técnicas%proacDvas%de%opLmización%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 14%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Optimización proactiva
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 15%
Datacenter%
Model%OpLmizaLon%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Optimización proactiva
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 16%
Datacenter
Workload Model
Sensors
Actuators
Sensor configuration
Visualization
Power Model
Energy Model
Thermal Model
Dynamic Cooling Opt.
Resource Alloc. Opt.
Global DVFS
VM Opt.
Anomaly Detection
and Reputation System
s
Communication network
Sensor network
Workload
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Sensores
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 17%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Enfoque holístico
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 18%
Chip% Server% Rack% Room% MulDJroom%
Sched%&%alloc% 2% 1%
app%
OS/middleware%
Compiler/VM% 3% 3%
architecture% 4% 4%
technology% 5%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
1. Gestión de recursos en la sala
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 19%
Chip% Server% Rack% Room% MulDJroom%
Sched%&%alloc% 2% 1
app%
OS/middleware%
Compiler/VM% 3% 3%
architecture% 4% 4%
technology% 5%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Aprovechando la heterogeneidad
• ULlización%de%la%heterogeneidad%para%minimizar%el%consumo%energéLco%desde%un%punto%de%vista%estáLco/dinámico%– EstáDco:%Encontrar%el%mejor%setfup%del%datacenter,%dado%un%número%heterogéneo%de%máquinas%
– Dinámico:%OpLmización%de%la%asignación%de%tareas%en%el%Resource%Manager%
• Demostramos%que%la%mejor%solución%se%encuentra%en%un%datacenter%heterogéneo%– Muchos%datacenters%son%heterogéneos%(diversas%generaciones%de%máquinas)%
20%
CCGrid 2012
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
M.%Zapater,%J.M.%Moya,%J.L.%Ayala.%Leveraging%Heterogeneity%for%Energy%MinimizaLon%in%Data%Centers,%CCGrid%2012%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Escenario actual
21%
WORKLOAD% Scheduler% Resource%%Manager%
ExecuDon%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la refrigeración
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 22%
To appear in Computer Networks, Special Issue on Virtualized Data Centers. All rights reserved.
0
50
100
150
200
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers on
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr3.4 ms 6.9 ms 213 ms 23 min 40 min
0% 6.2% 8.6% 8.7% 10.2%
cooling energycomputing energy
(a)
0
5
10
15
20
25
30
35
40
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers off
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr3.4 ms 6.9 ms 213 ms 23 min 43 min
0% 11.8% 54.7% 21.8% 60.5%
cooling energycomputing energy
(b)
0
50
100
150
200
250
300
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr170 ms 186 ms 397 ms 40.8 min 88.6 min
0% 1.7% 4.1% 3.6% 4.7%
cooling energycomputing energy
(c)
0
5
10
15
20
25
30
35
40
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr171 ms 186 ms 397 ms 42 min 100 min
0% 4.0% 14.6% 14.2% 15.1%
cooling energycomputing energy
(d)
0
50
100
150
200
250
300
350
400
450
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr173 ms 196 ms 346 ms 20 min 142 min
0% 2.5% 5.9% 9.4% 12.5%
cooling energycomputing energy
(e)
0
20
40
60
80
100
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr173 ms 191 ms 346 ms 21 min 147 min0.0% 7.5% 17.3% 25.7% 41.4%
cooling energycomputing energy
(f)
Fig. 8. Energy comparison of the simulated schemes for the three scenarios. The plots correspond in respective positions to the plots of Figure 7.
policy used in the data center, which enables job execution as soon as they arrive if the queue is empty and the data
center is lightly loaded. In the “idle-on” case (Figure 8a), the total energy consumption using SCINT, EDF-LRH,
FCFS-Backfill-FF, FCFS-Backfill-LRH and XInt placement is 131.3 GJ, 133.9 GJ, 146.2 GJ, 139.3 GJ and 139.3 GJ,
respectively. However, in the “idle-o�” case, the energy consumption reduces to 10.3,GJ, 11.8 GJ, 26.1 GJ, 24.4 GJ,
and 24.6 GJ, respectively. Notice that the savings exceed 80% for any approach. The savings is achieved by: (i) the
22
To appear in Computer Networks, Special Issue on Virtualized Data Centers. All rights reserved.
0
50
100
150
200
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers on
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr3.4 ms 6.9 ms 213 ms 23 min 40 min
0% 6.2% 8.6% 8.7% 10.2%
cooling energycomputing energy
(a)
0
5
10
15
20
25
30
35
40
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers off
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr3.4 ms 6.9 ms 213 ms 23 min 43 min
0% 11.8% 54.7% 21.8% 60.5%
cooling energycomputing energy
(b)
0
50
100
150
200
250
300
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr170 ms 186 ms 397 ms 40.8 min 88.6 min
0% 1.7% 4.1% 3.6% 4.7%
cooling energycomputing energy
(c)
0
5
10
15
20
25
30
35
40
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr171 ms 186 ms 397 ms 42 min 100 min
0% 4.0% 14.6% 14.2% 15.1%
cooling energycomputing energy
(d)
0
50
100
150
200
250
300
350
400
450
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr173 ms 196 ms 346 ms 20 min 142 min
0% 2.5% 5.9% 9.4% 12.5%
cooling energycomputing energy
(e)
0
20
40
60
80
100
FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
ener
gy c
onsu
med
(GJ)
Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off
ThroughputTurnaround timeAlg. runtimeEnergy savings
0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr173 ms 191 ms 346 ms 21 min 147 min0.0% 7.5% 17.3% 25.7% 41.4%
cooling energycomputing energy
(f)
Fig. 8. Energy comparison of the simulated schemes for the three scenarios. The plots correspond in respective positions to the plots of Figure 7.
policy used in the data center, which enables job execution as soon as they arrive if the queue is empty and the data
center is lightly loaded. In the “idle-on” case (Figure 8a), the total energy consumption using SCINT, EDF-LRH,
FCFS-Backfill-FF, FCFS-Backfill-LRH and XInt placement is 131.3 GJ, 133.9 GJ, 146.2 GJ, 139.3 GJ and 139.3 GJ,
respectively. However, in the “idle-o�” case, the energy consumption reduces to 10.3,GJ, 11.8 GJ, 26.1 GJ, 24.4 GJ,
and 24.6 GJ, respectively. Notice that the savings exceed 80% for any approach. The savings is achieved by: (i) the
22
iMPACT Lab (Arizona State U)
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
23%
LSI-UPM
WORKLOAD%
Resource%%Manager%(SLURM)%
ExecuDon%
Profiling%and%ClassificaDon%
Energy%%OpDmizaDon%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
• Workload:%– 12%tareas%del%benchmark%SpecCPU%2006%– Workload%aleatorio%de%2000%tareas,%dividido%en%job%sets%– Tiempo%de%llegada%aleatorio%entre%job%sets%
• Servidores:%
24%
Escenario
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
25%
Profiling de energía
WORKLOAD%
Resource%%Manager%(SLURM)%
ExecuDon%
Profiling%and%ClassificaDon%
Energy%%OpDmizaDon%
Energy%profiling%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Caracterización de la carga de trabajo
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 26%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Trabajo realizado
27%
Optimizaciones
WORKLOAD%
Resource%%Manager%(SLURM)%
ExecuDon%
Profiling%and%ClassificaDon%
Energy%%OpDmizaDon%
Energy%MinimizaDon:%• %MinimizaDon%subjected%to%constraints%• %MILP%problem%(solved%with%CPLEX)%• %StaDc%and%Dynamic%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
28%
Optimización estática
• Definición%del%datacenter%ópLmo%– Dado%un%pool%de%100%máquinas%de%cada%– 1%job%set%del%workload%– El%opLmizador%escoge%los%mejores%servidores%– Constraints%de%presupuesto%y%espacio%
Mejor%solución:%• %40%Sparc%• %27%AMD%%Ahorros:%• %5%a%22%%en%energía%• %30%%Dempo%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
29%
Optimización dinámica
• Asignación%ópLma%del%workload%– Uso%del%workload%completo%(2000%tareas)%– El%algoritmo%encuentra%una%buena%asignación%(no%la%mejor)%en%términos%de%energía%
– Ejecución%del%algoritmo%en%runLme%
Ahorros%del%24%%al%47%%en%energía%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
• Primera%prueba%de%concepto%en%cuanto%a%ahorros%energéLcos%gracias%a%heterogeneidad%
• Solución%automáLca%• La%solución%automáLca%de%procesadores%ofrece%notables%ahorros%energéLcos.%
• La%solución%puede%ser%fácilmente%implementable%en%un%entorno%real%– Uso%del%Resource%Manager%SLURM%– Workloads%y%servidores%más%realistas%
30%
Conclusiones
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
2. Gestión de recursos en el servidor
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 31%
Chip% Server% Rack% Room% MulDJroom%
Sched%&%alloc% 2 1%
app%
OS/middleware%
Compiler/VM% 3% 3%
architecture% 4% 4%
technology% 5%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Políticas de planificación y asignación de recursos en MPSoCs
A.%Coskun%,%T.%Rosing%,%K.%Whisnant%and%K.%Gross%%"StaLc%and%dynamic%temperaturefaware%scheduling%for%mulLprocessor%SoCs",%%IEEE%Trans.%Very%Large%Scale%Integr.%Syst.,%%vol.%16,%%no.%9,%%pp.1127%f1140%2008%%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 32%
1136 IEEE TRANSACTIONS ON VERY LARGE SCALE INTEGRATION (VLSI) SYSTEMS, VOL. 16, NO. 9, SEPTEMBER 2008
TABLE VISUMMARY OF EXPERIMENTAL RESULTS
Fig. 3. Distribution of thermal hot spots, with DPM (ILP).
A. Static Scheduling Techniques
We next provide an extensive comparison of the ILP basedtechniques. We refer to our static approach as Min-Th&Sp.As discussed in Section III, we implemented the ILP for min-imizing thermal hot spots (Min-Th), energy balancing (Bal-En), and energy minimization (Min-En) to compare againstour approach. To the best of our knowledge, this is the first timein the literature static MPSoC scheduling techniques are com-pared extensively to evaluate their thermal behavior.
We first show average results over all the benchmarks. Fig. 3demonstrates the percentage of time spent at certain temperatureintervals for the case with DPM. The figure shows that Min-Th&Sp achieves a higher reduction of hot spots in comparisonto the other energy and temperature-based ILPs. The reason forthis is that, avoiding clustering of workload in neighbor coresreduces the heating on the die, resulting in lower temperatures.
Fig. 4 shows the distribution of spatial gradients for the av-erage case with DPM. In this plot, we can observe how Min-Thincreases the percentage of high differentials while reducing
Fig. 4. Distribution of spatial gradients, with DPM (ILP).
hot spots. While Min-Th reduces the high spatial differentialsabove 15 C, we observe a substantial increase in the spatialgradients above 10 C. In contrast, our method achieves lowerand more balanced temperature distribution in the die.
In Fig. 5, we show how the magnitudes of thermal cycles varywith the scheduling method. We demonstrate the average per-centage of time the cores experience temporal variations of cer-tain magnitudes. As can be observed in Fig. 5, Min-Th&Spreduces the thermal cycles of magnitude 20 C and higher sig-nificantly. The temporal fluctuations above 15 C are reducedin comparison to other static techniques, except for Min-En.The cycles above 15 C (total) occur 17.3% and 19.2% of thetime for Min-Th&Sp and Min-En, respectively. Our formu-lation targets reducing the frequency of highest magnitude ofhot spots and temperature variations, therefore, such slight in-creases with respect to Min-En are possible.
In the plots discussed before and also in Table VI, we ob-serve that the Min-Th&Sp technique successfully reduces hotspots as well as the spatial and temporal fluctuations. Power
1136 IEEE TRANSACTIONS ON VERY LARGE SCALE INTEGRATION (VLSI) SYSTEMS, VOL. 16, NO. 9, SEPTEMBER 2008
TABLE VISUMMARY OF EXPERIMENTAL RESULTS
Fig. 3. Distribution of thermal hot spots, with DPM (ILP).
A. Static Scheduling Techniques
We next provide an extensive comparison of the ILP basedtechniques. We refer to our static approach as Min-Th&Sp.As discussed in Section III, we implemented the ILP for min-imizing thermal hot spots (Min-Th), energy balancing (Bal-En), and energy minimization (Min-En) to compare againstour approach. To the best of our knowledge, this is the first timein the literature static MPSoC scheduling techniques are com-pared extensively to evaluate their thermal behavior.
We first show average results over all the benchmarks. Fig. 3demonstrates the percentage of time spent at certain temperatureintervals for the case with DPM. The figure shows that Min-Th&Sp achieves a higher reduction of hot spots in comparisonto the other energy and temperature-based ILPs. The reason forthis is that, avoiding clustering of workload in neighbor coresreduces the heating on the die, resulting in lower temperatures.
Fig. 4 shows the distribution of spatial gradients for the av-erage case with DPM. In this plot, we can observe how Min-Thincreases the percentage of high differentials while reducing
Fig. 4. Distribution of spatial gradients, with DPM (ILP).
hot spots. While Min-Th reduces the high spatial differentialsabove 15 C, we observe a substantial increase in the spatialgradients above 10 C. In contrast, our method achieves lowerand more balanced temperature distribution in the die.
In Fig. 5, we show how the magnitudes of thermal cycles varywith the scheduling method. We demonstrate the average per-centage of time the cores experience temporal variations of cer-tain magnitudes. As can be observed in Fig. 5, Min-Th&Spreduces the thermal cycles of magnitude 20 C and higher sig-nificantly. The temporal fluctuations above 15 C are reducedin comparison to other static techniques, except for Min-En.The cycles above 15 C (total) occur 17.3% and 19.2% of thetime for Min-Th&Sp and Min-En, respectively. Our formu-lation targets reducing the frequency of highest magnitude ofhot spots and temperature variations, therefore, such slight in-creases with respect to Min-En are possible.
In the plots discussed before and also in Table VI, we ob-serve that the Min-Th&Sp technique successfully reduces hotspots as well as the spatial and temporal fluctuations. Power
UCSD – System Energy Efficiency Lab
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Planificación y asignación de recursos consciente de la aplicación
• La%caracterización%energéLca%de%las%aplicaciones%permite%la%definición%de%políLcas%proacLvas%de%planificación%y%asignación%de%recursos%que%minimizan%los%hotspots&
• La%reducción%de%hotspots%permite%aumentar%la%temperatura%del%aire%de%los%sistemas%de%refrigeración%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 33%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
3. Máquina virtual consciente de la aplicación y los recursos
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 34%
Chip% Server% Rack% Room% MulDJroom%
Sched%&%alloc% 2% 1%
app%
OS/middleware%
Compiler/VM% 3 3
architecture% 4% 4%
technology% 5%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Compilación JIT en máquinas virtuales
• La%máquina%virtual%compila%(JIT)%la%aplicación%a%código%naLvo%por%eficiencia%
• El%opLmizador%es%genérico%y%orientado%a%la%opDmización%de%rendimiento%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 35%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Backfend%
Compilación JIT para reducción de energía
• Compilador%consciente%de%la%aplicación%– Caracterización%de%aplicaciones%y%transformaciones%– OpLmizador%dependiente%de%la%aplicación%– Visión%global%de%la%carga%de%trabajo%del%data%center%
• OpLmizador%de%energía%– En%la%actualidad,%los%compiladores%para%procesadores%de%altas%prestaciones%solo%opLmizan%rendimiento%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 36%
Frontfend% OpLmizador%Generador%de%
código%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Potencial de ahorro desde el compilador (MPSoCs)
T.%Simunic,%G.%de%Micheli,%L.%Benini,%and%M.%Hans.%“Source%code%opLmizaLon%and%profiling%of%energy%consumpLon%in%embedded%systems,”%InternaLonal%Symposium%on%System%Synthesis,%pages%193%–%199,%Sept.%2000%
– Reducción%de%un%77%%%de%energía%en%un%decodificador%MP3%
FEI,%Y.,%RAVI,%S.,%RAGHUNATHAN,%A.,%AND%JHA,%N.%K.%2004.%EnergyfopLmizing%source%code%transformaLons%for%OSfdriven%embedded%so{ware.%In%Proceedings%of%the%InternaLonal%Conference%VLSI%Design.%261–266.%
– Hasta%el%37,9%%(media%23,8%)%de%ahorro%energéLco%en%programas%mulLproceso%sobre%Linux%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 37%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
4. Gestión automática de frecuencia a nivel global
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 38%
Chip% Server% Rack% Room% MulDJroom%
Sched%&%alloc% 2% 1%
app%
OS/middleware%
Compiler/VM% 3% 3%
architecture% 4 4
technology% 5%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
DVFS – Dynamic Voltage and Frequency Scaling
• Al%decrementar%la%tensión%de%alimentación,%la%potencia%se%reduce%cuadráLcamente%(a%frecuencia%constante)%
• El%retardo%se%incrementa%solo%linealmente%• La%frecuencia%máxima%también%se%decrementa%linealmente%
• Actualmente%los%modos%de%bajo%consumo%se%acLvan%por%inacLvidad%del%sistema%operaLvo%de%un%servidor%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 39%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
DVFS a nivel de sala
• Para%minimizar%el%consumo%hay%que%minimizar%los%cambios%de%modo%
• Existen%algoritmos%ópLmos%para%un%conjunto%conocido%de%tareas%(YDS)%
• El%conocimiento%de%la%carga%de%trabajo%permite%planificar%los%modos%de%bajo%consumo%a%nivel%global%sin%pérdida%de%rendimiento%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 40%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Paralelismo para ahorrar energía
Use of ParallelismUse of Parallelism
Vdd Vdd/2 Vdd/2f f /2 f /2fmax fmax/2 fmax/2
9-17Swiss FederalInstitute of Technology
Computer Engineeringand Networks Laboratory
Use of PipeliningUse of Pipelining
Vdd/2f f /2Vdd
V /2
fmax fmax/2
Vdd/2fmax/2
9-18Swiss FederalInstitute of Technology
Computer Engineeringand Networks Laboratory
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 41%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Resultados de simulación
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 42%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
5. Emplazamiento de cores consciente de la temperatura
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 43%
Chip% Server% Rack% Room% MulDJroom%
Sched%&%alloc% 2% 1%
app%
OS/middleware%
Compiler/VM% 3%
architecture% 4% 4%
technology% 5
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Floorplanning consciente de la temperatura
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 44%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Potencial de ahorro energético por floorplaning
– Reducciones%de%temperatura%máxima%de%hasta%21oC%– Media:%f12oC%en%temperatura%máxima%– Mayor%reducción%en%los%casos%más%críLcos%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 45%
Temperature Reductions
Average MaxTemp reduction: 12 oCLarger temperature reductions for benchmarks with higher maximum temperatureFor many benchmarks, temperature reducions are larger than 20 oC
Maximum Temperature
0
20
40
60
80
100
120
140
amm
p
appl
u
apsi art
bzip
2
craf
ty
eon
equa
ke
face
rec
fma3
d
gap
gcc
gzip
luca
s
mcf
mes
a
mgr
id
pars
er
perlb
mk
swim
twol
f
vorte
x
vpr
wup
wise avg
original modified
Y.%Han,%I.%Koren,%and%C.%A.%Moritz.%Temperature%Aware%Floorplanning.%In%Proc.%of%the%%Second%Workshop%on%TemperaturefAware%Computer%Systems,%June%2005%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Floorplanning consciente de la temperatura en chips 3D
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 46%
• El%circuito%integrado%3D%está%recibiendo%atención:%– ↑%↑% %Escalado:%reduce%área%2D%equivalente%– ↑%↑% %Rendimiento:%menor%longitud%de%comunicaciones%
– ↑ %Fiabilidad:%menor%cableado%%• Desventaja:%
– Aumentan$drás3camente$los$picos$de$temperatura$con$respecto$a$los$diseños$2D$equivalentes$
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Floorplanning consciente de la temperatura
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 47%
• Reducción%de%hasta%30oC%por%capa%en%un%chip%3D%de%4%capas%y%48%cores%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Y todavía hay más
• Smart%Grids%– Consumir%cuando%nadie%consume%– Reducir%el%consumo%cuando%todo%el%mundo%consume%
• Reducción%de%la%factura%de%luz%– Coste%dependiente%del%horario%– Coeficiente%de%energía%reacLva%– Picos%de%consumo%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 48%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Conclusiones
• Reducir%el%PUE%no%es%lo%mismo%que%reducir%el%consumo%– El%consumo%de%computación%es%dominante%en%data%centers%modernos%
• El%conocimiento%de%la%aplicación%y%de%los%recursos%puede%ser%uLlizado%para%establecer%políDcas%proacDvas%para%reducir%la%energía%total%– A%todos%los%niveles%– En%todos%los%ámbitos%– Considerando%simultáneamente%computación%y%refrigeración%
• La%gesLón%adecuada%del%conocimiento%del%comportamiento%térmico%del%data%center%permite%reducir%los%problemas%de%fiabilidad%
• Reducir%el%consumo%total%no%es%lo%mismo%que%reducir%la%factura%de%la%luz%
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 49%
“Ingeniamos el futuro”!
CAMPUS OF INTERNATIONAL EXCELLENCE
Contacto
José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 50%
José M. Moya Laboratorio de Sistemas Integrados +34%607%082%892%[email protected]%%
Gracias:%