perspectivas. ahora a peticiÓn con intel® deep … · perspectivas. ahora a peticiÓn con intel®...

2
PERSPECTIVAS. AHORA A PETICIÓN CON INTEL® DEEP LEARNING BOOST. Las empresas que buscan monetizar la IA necesitan una infraestructura de hardware potente que ofrezca perspectivas oportunas y precisas. Los procesadores escalables Intel® Xeon® de 2da generación con la nueva tecnología Intel® Deep Learning Boost (Intel® DL Boost) están mejorados específicamente para ejecutar aplicaciones de IA de alto desempeño junto con cargas de trabajo de nube y centros de datos existentes. Palabras clave: inferencia, aprendizaje profundo, reconocimiento de imágenes, detección de objetos, sistemas de recomendación, reconocimiento de voz, redes neuronales profundas, redes neuronales convolucionales CUÁNDO RECOMENDAR Hable sobre los procesadores escalables Intel Xeon con Intel DL Boost con los clientes que deseen un desempeño de IA excepcional con menores requisitos de memoria para que puedan hacer más con su hardware. DESAFÍOS DE LOS DE CLIENTES Los cuellos de botella en los centros de datos obstruyen la inteligencia en tiempo real Cuando la capacidad informática es un problema, como en las redes neuronales convolucionales (CNN) y las profundas (DNN) Cuando se necesitan soluciones de hardware de baja latencia y potencia para impulsar la inferencia a escala IDEAL PARA Reconocimiento de imágenes Detección de objetos Sistemas de recomendación Reconocimiento de voz POR QUÉ ACTUALIZAR PERCEPCIONES ACELERADAS Inferencia hasta 2 veces más rápida con las nuevas instrucciones int8 en comparación con generaciones anteriores¹ Desempeño de aprendizaje profundo mejorado hasta 30 veces en comparación con generaciones anteriores¹ DIGA ESTO A SUS CLIENTES “La plataforma escalable Intel Xeon ofrece una plataforma común para IA con alto rendimiento tanto para inferencia como para capacitación, lo que le permite hacer las dos cosas sin adquirir una GPU.²” “Intel se está asociando con desarrolladores para seguir optimizando marcos y bibliotecas populares con el objetivo de acelerar aún más el desempeño de inferencia.” “Intel DL Boost permite obtener perspectivas al optimizar los sistemas para una automatización impactante. Imagine la eficiencia que puede darle a su negocio al dejar de tener que adquirir hardware dedicado para descubrir los datos que necesita.” “Intel DL Boost funciona al ampliar el conjunto de instrucciones Intel® AVX-512 para poder hacer con una instrucción lo que requería tres instrucciones en los procesadores de generaciones anteriores. ¿Cómo se beneficiaría su organización de esos drásticos aumentos de eficiencia?” MARCOS Y BIBLIOTECAS OPTIMIZADAS INTEL® MKL-DNN * Otros nombres y marcas podrían ser reclamados como propiedad de terceros.

Upload: others

Post on 27-May-2020

10 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: PERSPECTIVAS. AHORA A PETICIÓN CON INTEL® DEEP … · PERSPECTIVAS. AHORA A PETICIÓN CON INTEL® DEEP LEARNING BOOST. Las empresas que buscan monetizar la IA necesitan una infraestructura

PERSPECTIVAS. AHORA A PETICIÓN CON INTEL® DEEP LEARNING BOOST. Las empresas que buscan monetizar la IA necesitan una infraestructura de hardware potente que ofrezca perspectivas oportunas y precisas. Los procesadores escalables Intel® Xeon® de 2da generación con la nueva tecnología Intel® Deep Learning Boost (Intel® DL Boost) están mejorados específicamente para ejecutar aplicaciones de IA de alto desempeño junto con cargas de trabajo de nube y centros de datos existentes.

Palabras clave: inferencia, aprendizaje profundo, reconocimiento de imágenes, detección de objetos, sistemas de recomendación, reconocimiento de voz, redes neuronales profundas, redes neuronales convolucionales

CUÁNDO RECOMENDAR Hable sobre los procesadores escalables Intel Xeon con Intel DL Boost con los clientes que deseen un desempeño de IA excepcional con menores requisitos de memoria para que puedan hacer más con su hardware.

DESAFÍOS DE LOS DE CLIENTES • Los cuellos de botella en los centros de datos

obstruyen la inteligencia en tiempo real

• Cuando la capacidad informática es un problema,como en las redes neuronales convolucionales(CNN) y las profundas (DNN)

• Cuando se necesitan soluciones de hardware debaja latencia y potencia para impulsar lainferencia a escala

IDEAL PARA • Reconocimiento de imágenes

• Detección de objetos

• Sistemas de recomendación

• Reconocimiento de voz

POR QUÉ ACTUALIZAR

PERCEPCIONES ACELERADAS • Inferencia hasta 2 veces más rápida

con las nuevas instrucciones int8en comparación con generacionesanteriores¹

• Desempeño de aprendizaje profundomejorado hasta 30 veces en comparacióncon generaciones anteriores¹

DIGA ESTO A SUS CLIENTES“La plataforma escalable Intel Xeon ofrece una plataforma común para IA con alto rendimiento tanto para inferencia como para capacitación, lo que le permite hacer las dos cosas sin adquirir una GPU.²”

“Intel se está asociando con desarrolladores para seguir optimizando marcos y bibliotecas populares con el objetivo de acelerar aún más el desempeño de inferencia.”

“Intel DL Boost permite obtener perspectivas al optimizar los sistemas para una automatización impactante. Imagine la eficiencia que puede darle a su negocio al dejar de tener que adquirir hardware dedicado para descubrir los datos que necesita.”

“Intel DL Boost funciona al ampliar el conjunto de instrucciones Intel® AVX-512 para poder hacer con una instrucción lo que requería tres instrucciones en los procesadores de generaciones anteriores. ¿Cómo se beneficiaría su organización de esos drásticos aumentos de eficiencia?”

MARCOS Y BIBLIOTECAS OPTIMIZADAS

INTEL® MKL-DNN* Otros nombres y marcas podrían ser reclamados como propiedad de terceros.

Page 2: PERSPECTIVAS. AHORA A PETICIÓN CON INTEL® DEEP … · PERSPECTIVAS. AHORA A PETICIÓN CON INTEL® DEEP LEARNING BOOST. Las empresas que buscan monetizar la IA necesitan una infraestructura

INNOVACIÓN DE HARDWARE Y ALMACENAMIENTODESEMPEÑO DE INFERENCIA ACELERADO

PROCESADOR INTEL XEON PLATINUM SERIE 9200 DE 2DA GENERACIÓN

con Intel DL Boost

Desempeño de inferencia

mejorado hasta

Rendimiento de inferencia

mejorado hasta 30 VECES 14 VECES

PROCESADOR INTEL XEON PLATINUM SERIE 8200 DE 2DA GENERACIÓN

con Intel DL Boost

VALOR AÑADIDO PARA APRENDIZAJE PROFUNDO CON TECNOLOGÍA INTEL® OPTANE™ Junto con el procesador escalable Intel Xeon con Intel DL Boost, la tecnología Intel Optane puede mejorar tanto la capacitación como la inferencia en el aprendizaje profundo.

MEMORIA PERSISTENTE INTEL OPTANE DC Con una latencia más baja y mayor memoria más cerca de la CPU se pueden tener conjuntos de datos de trabajo en memoria de mayor tamaño y persistencia en todos los ciclos de energía.

UNIDADES DE ESTADO SÓLIDO INTEL OPTANE Los conjuntos de datos más asequibles y de mayor tamaño y la aceleración de aplicaciones ayudan a las empresas a aprovechar perspectivas de nivel superior.

BENEFICIOS PARA CAPACITACIÓN Gracias a los conjuntos de datos de mayor tamaño y la capacitación por lotes, las soluciones de IA pueden volverse más inteligentes y rápidas.

PARA INFERENCIA Los conjuntos de datos de mayor tamaño permiten la ampliación por lotes en tiempo real de las cargas de trabajo de inferencia.

Ayuda a las empresas a ofrecer una buena disponibilidad de IA en todo el centro de datos con procesadores escalables Intel Xeon con Intel Deep Learning Boost. Comuníquese con su Distribuidor Autorizado Intel® o visite ai.intel.com.

Es posible que las cargas de trabajo y el software utilizados en las pruebas de desempeño se hayan optimizado para ejecutarse solo con microprocesadores Intel. Las pruebas de desempeño, como SYSmark* y MobileMark*, se miden utilizando sistemas de computación, componentes, software, operaciones y funciones específicos. Cualquier cambio en alguno de esos factores podría generar una variación en los resultados. Se recomienda consultar otra información y pruebas de desempeño que le ayuden a evaluar plenamente las compras consideradas, incluido el desempeño de ese producto al combinarse con otros. Para obtener más información, visite intel.la/benchmarks. Intel® Advanced Vector Extensions (Intel® AVX) ofrece un mayor rendimiento para ciertas operaciones de procesador. Debido a la gran variedad de características energéticas que ofrecen los procesadores, el uso de las instrucciones AVX puede provocar que: a) algunos componentes funcionen por debajo de la frecuencia nominal, y que b) algunos componentes con tecnología Intel® Turbo Boost 2.0 no alcancen algunas o todas las frecuencias turbo máximas. El desempeño varía en función del hardware, el software y la configuración del sistema. Puede obtener más información en intel.com/go/turbo. Las características y los beneficios de las tecnologías Intel dependen de la configuración del sistema, y podrían requerir la utilización de hardware y software habilitados o la activación del servicio. El desempeño varía según la configuración del sistema. 1. Configuración de (1) “Mejora de rendimiento de inferencia hasta 2 veces más en procesadores Intel® Xeon® Platinum 9282 con Intel® DL Boost” + (2) “Desempeño de IA mejorado hasta 30 veces con Intel® DL Boost en comparación con el procesador Intel® Xeon® Platinum 8180” (julio de 2017). Evaluado por Intel al 26/2/2019. Plataforma: Dragon

rock, 2 zócalos, Intel® Xeon® Platinum 9282 (56 núcleos por zócalo), HT activado, Turbo activado, memoria total de 768 GB (24 ranuras/32 GB/ 2933 MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, Kernel CentOs* 7 3.10.0-957.5.1.el7.x86_64, Marco de aprendizaje profundo: Optimización de Intel® for Caffe* versión: github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN Versión: v0.17 (commit hash: 830A10059A018CD-2634D94195140cf2d8790a75a), modelo: github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototx, BS=64, Sin syntheticData de capa de datos : 3x224x224, 56 instancias/2 zócalos, Tipo de datos: INT8 vs. prueba realizada por Intel el 11/7/2017: CPU 2S Intel® Xeon® Platinum 8180 @ 2,50 GHz (28 núcleos), HT desactivado, turbo desactivado, regulador de escala establecido en “desempeño” a través del controlador intel_pstate, RAM DDR4-2666 ECC de 384 GB. CentOS Linux versión 7.3.1611 (Core), Linux kernel 3.10.0-514.10.2.el7.x86_64. SSD: Intel® SSD DC serie S3700 (800 GB, 2,5 pulgadas, SATA de 6 Gb/s, 25 nm, MLC) Desempeño medido con: variables del entorno: KMP_AFFINITY=’granularity=fine, compact‘, OMP_NUM_THREADS=56, frecuencia de la CPU establecida con configuración de frecuencia de energía de cpu de desempeño -d 2,5 G -u 3,8 G -g. Caffe: (Github.com/intel/caffe), revisión f96b759f71b2281835f690af267158b82b150b5c. Inferencia medida con el comando “caffe time --forward_only”, capacitación medida con el comando “caffe time”. En el caso de las topologías "ConvNet", se utilizó el conjunto de datos sintético. Para otras topologías, se almacenaron los datos en el almacenamiento local y en la memoria caché antes de la capacitación. Especificaciones de topología de github.com/intel/caffe/tree/master/models/intel_optimized_models (ResNet-50). Compilador Intel C++ versión 17.0.2 20170213, bibliotecas pequeñas de Intel MKL versión 2018.0.20170425. Caffe ejecutado con “numactl -l“.

2. “Resumen de productos: Procesadores escalables Intel® Xeon® de 2da generación”. Intel, 2019. intel.la/content/www/xl/es/products/docs/processors/xeon/2nd-gen-xeon-scalable-processors-brief. 3. Configuraciones para un “desempeño mejorado de IA de hasta 14 veces con Intel® DL Boost en comparación con el procesador Intel® Xeon® Platinum 8180” (julio de 2017). Evaluado por Intel al 20/2/2019. Procesador Intel® Xeon® Platinum 8280 de 2 zócalos, 28 núcleos, HT activado, Turbo activado, memoria total de 384 GB (12

ranuras/32 GB/2933 MHz), BIOS: SE5C620.86B.0D.01.0271.120720180605 (ucode: 0x200004d), Ubuntu 18.04.1 LTS, kernel 4.15.0-45-generic, SSD 1x sda INTEL SSDSC2BA80 SSD de 745,2 GB, nvme1n1 INTEL SSDPE2KX040T7 SSD de 3,7 TB, marco de aprendizaje profundo: optimización de Intel® for Caffe* versión: 1.1.3 (hash de commit: 7010334f159da247db3fe3a9d96a3116ca06b09a), ICC versión 18.0.1, MKL DNN versión: v0.17 (hash de commit: 830a10059a018cd2634d94195140cf2d8790a75a, modelo github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, DummyData, 4 instancias/2 zócalos, tipo de datos: INT8 en comparación con pruebas realizadas por Intel al 11/7/2017: CPU Intel® Xeon® Platinum 8180 2S a 2,50 GHz (28 núcleos), HT desactivado, Turbo desactivado, controlador de escalabilidad establecido en "desempeño" a través del controlador intel_pstate, RAM ECC DDR4-2666 de 384 GB. CentOS Linux versión 7.3.1611 (Core), Linux kernel 3.10.0-514.10.2.el7.x86_64. SSD: Intel® SSD DC serie S3700 (800 GB, 2,5 pulgadas, SATA de 6 Gb/s, 25 nm, MLC) Desempeño medido con: variables del entorno: KMP_AFFINITY=’granularity=fine, compact‘, OMP_NUM_THREADS=56, frecuencia de la CPU establecida con configuración de frecuencia de energía de cpu de desempeño -d 2,5 G -u 3,8 G -g. Caffe: (Github.com/intel/caffe), revisión f96b759f71b2281835f690af267158b82b150b5c. Inferencia medida con el comando “caffe time --forward_only”, capacitación medida con el comando “caffe time”. Para topologías “ConvNet” se utilizó una serie de datos ficticia. Para otras topologías, se almacenaron los datos en el almacenamiento local y en la memoria caché antes de la capacitación. Especificaciones de topología de github.com/intel/caffe/tree/master/models/intel_optimized_models (ResNet-50). Compilador Intel C++ versión 17.0.2 20170213, bibliotecas pequeñas de Intel MKL versión 2018.0.20170425. Caffe ejecutado con “numactl -l“.

Copyright © 2019 Intel Corporation. Intel, el logotipo de Intel, el logotipo de Intel Inside, Intel Optane y Xeon son marcas comerciales de Intel Corporation o de sus filiales en Estados Unidos o en otros países. * Otros nombres y marcas podrían ser reclamados como propiedad de terceros.

en la clasificación de imágenes en comparación con procesadores de la competencia¹

en comparación con la tecnología de generaciones anteriores³