sg40-bigdata2

60
   w    w    w  .    s    g  .    c    o    m  .    m    x    |    S   o    f    t   w   a   r   e    G   u   r   u Visualización de datos con 3D.js Pag. 34 Métricas de calidad de software Pag. 38 Gestión de requerimientos Pag. 40 NO. 40 www.sg.com.mx CONOCIMIENTO EN PRÁCTICA Mayo-Julio 2013 Emprendendo Captal de Resgo en Méxco DESCUBRE INFORMACIÓN VALIOSA CON BIG DATA México, $65. 00 Especial Segurdad Inormátca

Upload: farick-jassier-mena-rivera

Post on 14-Apr-2018

219 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 1/60

Visualización de datos con 3D.jsPag. 34

Métricas de calidad de softwarePag. 38

Gestión de requerimientosPag. 40 NO.4

www.sg.com.mx

CONOCIMIENTO EN PRÁCTICAMayo-Julio 2013

Emprendendo

Captal de Resgo

en Méxco

DESCUBREINFORMACIÓN VALIOSA CON BIG DATA

México, $65.00

EspecialSegurdadInormátca

Page 2: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 2/60

Page 3: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 3/60

Page 4: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 4/60

 Especial: Seguridad 

Haca una Cultura de la Segurdad 12Por Yur Gonzáez

Crptograía de Caja Blanca 14Por Maurco Hernández

Cbercrmen y Cómputo Forense:Avances y tendencas 15Por Andrés Veasquez

¿Segurdad Inormátca oSegurdad de Inormacón? 16Por Caros Kornhauser

¿Por qué es Imposble la Segurdad Total?Y por qué eso es bueno 17

Por Edmundo Reyes

 En Portada

Descubre Inormacón valosa con Bg Data 20La era de Peta-byte ha egado y con eo grandes retos ya que para

poder transormar una enorme cantdad de datos en conocmento

quepermta una toma de decsones que ogren mantener a compet-

tvdad a corto pazo e nnovar a argo pazo.

Columnas

Tejendo nuestra red 06Por Hanna Oktaba

 

Tendencas en Sotware 09Por Lus Dane Soto

Mejora contnua 10Por Lus Cuear

Columna Invtada:Apuntando los nuevos retos de TI 18Por Caros Love

 

Columna Invtada: M Bg Data personal 30Por Rubén García Díaz

Columna Invtada:Moble - Una herramenta para el uturo 32Por Gastón Mano

Tecnológco 42Por Maurco Anguo

Programar es un modo de vda 44Por Gunnar Wo

Códgo Innovare 46Por Banca Hda Vázquez Gómez

.CONTENIDO

40CONOCIMIENTO EN PRÁCTICA

02

Mayo-Juo 2013 | www.sg.com.mx PÁG.

20

Page 5: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 5/60

 Prácticas

Programacón 34Vsuazacón de Datos con D3.js

Por Hector Cuesta-Arvzu

 

Prueba de Sotware 36Automatzacón de Pruebas

Por Federco Kreush

 

Caldad 38Caso de Estudo: Mdendo a Cadad de Sotware

Por Francsco Vadez Souto

Requermentos 40Juntas de Requermentos ¿Cómo ograr que reamente sean eectvas?

Por Manue Garca Sanchez

TalentoPeriles destacados 48

Grandes mundos para crear sotware 49

.CONTENIDO

 Herramientas y Novedades

Lo que vene 08 

 Fundamentos

 ¿Qué es sotware lbre? 52Por Aberto Ramírez Martne

 En Cada Número

Edtoral 04 Notcas 05

Gadgets 50

CarreraUn asunto muy pecular:La relacón nterna entrelos proesonales de lanormátca y el resto deproesonales de una empresa 56Por José Ramón Jménez de Garnca

y Banca Jménex Anabtarte

 Emprendiendo

Captal de Resgo en Méxco -“A Lttle Less Talk and a Lttle More Acton” 11Por Andy Kefer

PÁG.

11

03

Page 6: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 6/6004

.EDITORIALBIENVENIDA

.Olas gigantescas y la pasión del saber Todos los días navegamos entre olas de datos. Las dificultades no solo son las mareas que se van cruzando entre sí a 

cada momento, sino también nuestro hábitos de consumo de información. En dichos hábitos la tecnología y lasredes sociales están jugando un papel vital desde hace tiempo, y con ello los profesionistas de TI nos estamos convirtiendoen expertos que ayudan a los clientes a surfear ágil e inteligentemente las olas por más grandes y caóticas que éstas sean.

Claro está que la acumulación de datos no es lo mismo que adquirir conocimiento. Por más datos, noticias,libros, informes que nos bombardeen, nada tendrá efecto sin la pasión del saber y por nuestra profesión. Y sonestas pasiones las que nos mueven a buscar medios que nos permitan surfear esas olas de información efectivamen-te y lograr que no solo sean datos sino lograr adquirir conocimiento y capitalizarlo en nuestra vida profesional.

Para todos los apasionados, SG tiene muchas formas de obtener conocimiento valioso: La revista que tienes entus manos, los cursos en línea en vivo de SG Campus, las noticias de nuestro portal y nuestros congresos. Nuestro

próximo congreso será el 4 y 5 de Julio en la Ciudad de México. Es un gran esfuerzo el que hacemos por llevar para todos nuestros seguidores las conferencias, talleres, paneles y expo, lo hacemos porque el crecimiento profesionalno funciona siendo solitarios ¡Tenemos que reunirnos!

Te invitamos a surfear las olas de las máximas tendencias y disfrutar mareas de conocimiento dentro de SGConference & Expo 2013.

››Equipo Editorial SOFTWARE GURU

“La acumulacónde datos noes lo msmoque adqurrconocmento.”

DIRECTORIO SGDreccón Edtoral Pedro Gaván / Dreccón de Operacones Mara Ruvacaba

Coordnacón Edtoral Vanessa Amaya / Arte y Dseño Oscar Sámano / Suscrpcones Karna Saad

Consejo Edtoral Jorge Vadés - PMI / Lus Cuéar - Sottek / Lus D. Soto - Mcrosot / Hanna Oktaba - UNAM / Emo Osoro - Sstemas Humanos / LusVnco León - e-Quaty / Gora Quntana

Colaboradores  Aberto Ramírez Martne, Andrés Veásquez, Andy Kefer, Berence Ruz Eguno, Banca Jménez Anabtarte, Caros Kornhouser, Caros Love, Ceeste North, Edmun-

do Reyes Cuear, Ernesto Cebaos, Esther Rvero, Federco Kreush, Francsco Vadez Souto, Gabre Ameda, Gestor Mano, Gunnar Wo, Hector Cuesta, JanetAmezcua Roge, Javer Soano Vázquez, Jorge Aejandro Hernández, José Ramón Jménez de Garnca, Manue Garca Sanchez, Masa K Maeda, Maurco Anguo,

Maurco Hernández, Mgue Chanona Carmona, Rado Kotorov, Rcardo Barranco Fragoso, Rubén García Díaz Ssa García y Yur Adrán Gonzáez Robes

Ventas Cauda Perea / Alanzas Dane Veazquez / Webmaster Karen Rodríguez - Lus SánchezSGCampus Ana Karen Rosaes

Contacto [email protected]

SG Sotware Guru es una pubcacón trmestra edtada por Branworx, S.A. de C.V., San Francsco 238 Atos. Co. De Vae. Los contendos de esta pubcacón son propedad nteectua de osautores y están cencados bajo Creatve Commons Atrbucón-No comerca 2.5 Méxco. Todos os artícuos son responsabdad de sus propos autores y no necesaramente relejan e punto de

vsta de a edtora. Reserva de Derechos a Uso Excusvo: En trámte. ISSN: 1870-0888. Regstro Posta: PP15-5106. Dstrbudo por Sepomex. Se mprmó en juno de 2013 en Edamsa.

Page 7: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 7/6005

.NOTICIAS

Para mayor normacón, notcas a día y actuazacones de a ndustra vsta: www.sg.com.mx

.IBM BusinessConnect 2013En el marco del encuentro IBM Business Connect 2013 que se llevó a cabo el 28 de mayo en l a Ciudad de México, se presentaron las tendenciasy retos de TI con mayor impacto hacia los próximos años, tales como mo-vilidad, analítica y big data. Pedro Galván, Director de SG, dio apertura a este evento en el que participaron ejecutivos locales e internacionales deIBM. Como invitado especial participó Chris Anderson, ex editor en jefede la revista Wired y ahora CEO de 3D Robotics, quien nos hizo ver queestamos en el nacimiento de una nueva revolución tecnológica.

.Microsoft Solutions SymposiumEl 15 y 16 de Mayo se llevó a cabo el Microsoft Solutions Symposium enlas instalaciones de Microsoft México. El evento estuvo dirigido a CIOsy ejecutivos de negocio interesados en soluciones estratégicas de TI para impulsar el crecimiento de sus negocios. La agenda fue dominada portemas relacionados a la toma de decisiones de inversión en TI, ya quees una necesidad de las estrategias inteligentes el estar informadas para lograr ROI generosos y aprovechar las TIs para impulsar el crecimientode los negocios.

.Apptualizate 3En el marco del World Innovation Expo, del 24 al 26 de mayo se llevó a cabo en el World Trade Center de la Ciudad de México la tercera versiónde Apptualízate, un hackathon orientado a conectar a desarrolladoresde aplicaciones móviles con clientes corporativos. A lo largo de 48 ho-ras los participantes trabajaron en proyectos para construir aplicacionesmóviles para empresas como Alsea y Scotiabank. Destacó también la participación de conferencistas como Divya Narendra, Ben Obear, IanBernestein y Morten Primdahl.

. International Space Apps ChallengeEl International Space Apps Challenge es un hac-kathon con el fin de desarrollar proyectos orienta-dos a la exploración del espacio. Se realizó el pa-sado 20 y 21 de abril de manera simultánea en 83ciudades del mundo. América Latina se hizo pre-sente con más de 15 sedes, 4 de ellas en México.SG, en conjunto con Social TIC organizó la sedeen Ciudad de México. Manuel Rabade fue el gana-dor en Ciudad de México, y quedó como finalista a nivel global obteniendo mención honorable.

Google Analytics User Conference

La práctica de la analítica web ha despegado sig-nificativamente en nuestra región, y prueba deello es el interés que generó el Google Analytics

User Conference, realizado el pasado 13 y 14 deMayo en Ciudad de México. El congreso presen-tó un espacio para entender los cambios en elanálisis digital, más centrado en el usuario, re-saltando la importancia de medir la usabilidad deforma cuantitativa. Los asistentes también obtu-vieron tips y recomendaciones sobre cómo defi-nir métricas efectivas y monitorearlas utilizandodistintas herramientas.

Page 8: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 8/6006

 Festejemos a SG Y ORGANICEMOS A LA INDUSTRIA Y SUS PROFESIONALES

El número anterior de Software Gurú lo leí decabo a rabo. Es verdad que el número estaba de-

dicado a mi tema favorito —certificaciones—, perome di cuenta de que no era la única razón. Tambiénencontré cosas interesantes sobre el uso de métodos

ágiles, pruebas, casos de uso, tendencias tecnológicasy una conmovedora historia del suicidio de un jovengenio comprometido con la sociedad.

SG durante más de ocho años ha logrado unir ensu publicación de revista varios elementos: temas deinterés, autores y columnistas muy variados —gentede la industria, consultores y académicos, que escri-ben en forma sencilla y no aburrida, además involu-cran cada vez más a los participantes latinoamerica-nos. Ni hablar de la calidad grá fica de la revista que ha sido su distintivo desde el inicio.

El esfuerzo que han hecho de iniciar una encues-ta de salarios en la industria de software mexicana es

invaluable. Ya tenemos evidencia objetiva de que enMéxico en esta industria se gana bien y cuáles perfilesson los más cotizados. Para los nuevos aspirantes delas carreras de TI es un incentivo y, para los que ya están trabajando, es un parámetro de referencia de a qué sueldo pueden aspirar. Tal vez esta informaciónno siempre les conviene a los empleadores.

Pero la revista es apenas una punta del “iceberg”.Mara y Pedro, esta pareja de incansables entusiastas einnovadores, nos asombran constantemente: eventospresenciales y virtuales con gurús internacionales y nacionales, eventos para jóvenes emprendedores, SG

Campus con webinars gratuitos y cursos en línea, la bolsa de trabajo SG Talento y un sitio web con mucha información útil. Por si fuera poco, todo lo tratan dehacer de manera muy profesional pero a la vez lúdi-ca. Sus eventos siempre tienen partes divertidas para 

atraer a los jóvenes y lo están logrando.En mi opinión, SG es ahora el mayor aglutinadorde los profesionales de la industria de software. El tra-bajo que están haciendo con tan pocos recursos es titá-nico. Necesitan apoyo o más bien una contraparte quereconozca su papel y colabore seriamente con ellos.

¿En que estoy pensando como contraparte? Nosfalta la organización como industria de software para aprovechar la oportunidad del avance que tenemos y apuntalar a los esfuerzos como el de SG.

El primer punto importante es el de reconocimien-to de la industria de software como tal. El problema es que todo mundo utiliza los productos de nuestra 

industria pero nadie los reconoce como importantes,por ser intangibles. Todos pagan por un teléfono ce-lular (hardware) pero muy pocos están conscientes deque a la vez compran el software. Parece que este es dea gratis por su “levedad de ser”.

Para tener un reconocimiento social de la industria desoftware se requiere de una labor que organice a la indus-tria como tal. Respeto a todas las organizaciones existentesde TI, pero vuelvo a insistir, como lo dije hace más de10 años en Querétaro, que ninguna de las existentes re-presenta específicamente a los intereses de la industria desoftware. Por lo que aplaudo el esfuerzo iniciado desde Ta-

.COLUMNATEJIENDO

NUESTRA RED

La Dra. HannaOktaba es proe-sora de a UNAM,membro de IPRC,y drectora técncade [email protected]

Page 9: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 9/60

maulipas de crear una Cámara de la Indus-tria de Software e invito a todos los empresa-rios a que la conozcan y que se sumen a ella.

Una Cámara de la Industria de Softwarepuede abogar por sus intereses en las instan-cias políticas, pero su voz va a ser más fuertesi cuenta con un respaldo de profesionistasreconocidos. Por eso creo, que es igual deimportante la organización de un gremio delos propios Ingenieros de Software. El papelde este gremio sería definir los criterios, y eventualmente los famosos certificados, para asegurar la calidad de sus servicios profesio-nales. Creo que ya es el momento de que en-tendemos que el impacto en el bienestar de la sociedad de un ingeniero de software es com-parable al de un médico o un ingeniero civil.

La Cámara de la Industria de Soft-

ware, la asociación de los Ingenieros deSoftware, las carreras que ya tenemos enla academia mexicana y SG podrían serla mancuerna de colaboración que nece-sitamos para fortalecer a la industria desoftware mexicana. ¿Y usted qué opina?dígame a @hannaoktaba 

Para finalizar, les comparto una noticia …

 KUALI-BEH y ESSENCE El 20 de marzo de 2013 en la reunión deOMG en Reston, se aprobó la adopción

de ESSENCE con KUALI-BEH integra-do como el estándar (ver SG #39). Segúnel procedimiento de OMG, a finales deabril se publicará la propuesta como ver-sión beta para su prueba y crítica por la comunidad. La versión retroalimentada sepublicará como versión 1.0 en marzo de2014. Para más detalles consultar http:// sg.com.mx/buzz/essence-beh-es-aprobado-

 por-omg y http://www.kuali-kaans.mx 

>> Por Hanna Oktaba 

››”NOS FALTA LA ORGANIZACIÓN 

COMO INDUSTRIA DE SOFTWARE 

PARA APROVECHAR LA OPORTUNI-

DAD  DEL AVANCE QUE TENEMOS.”

Page 10: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 10/6008

.HERRAMIENTAS Y TECNOLOGÍASLO QUE

VIENE

 Xamarin, empresa proveedora de herramientas para desarrollo de aplicaciones móviles , recientementepresentó el Xamarin Test Cloud, un servicio basado en la nube para pruebas automatizadas de apli-caciones móviles. Este servicio brinda acceso a un laboratorio con una gran variedad de dispositivosmóviles reales, que son hospedados por Xamarin y accesibles por medio de la nube. Los desarrolladoressimplemente suben su aplicación desde su IDE, seleccionan la lista de dispositivos donde quieren quesea probada su aplicación, y entonces el servicio se encarga de probar la aplicación recorriendo sistemá-ticamente todas las pantallas y acciones posibles en todos los dispositivos seleccionados. Al finalizar laspruebas se presentan los resultados de éstas, donde el desarrollador puede ver cuáles pasaron y cuálesfallaron a través de los distintos dispositivos, pudiendo consultar el detalle en cada uno y detectar cualfue el problema. Xamarin Test Cloud utiliza el framework Calabash para pruebas automatizadas deaplicaciones móviles, creado por la empresa LessPainful que recientemente fue adquirida por Xamarin.

 Xamarin Test Cloud actualmente se encuentra como beta con disponibilidad limitada, y se espera quedurante el tercer trimestre del año se abra al público en general.

Más información en http://xamarin.com/test-cloud 

XamarinTest Cloud

 Pruebas tus apps encientos de dispositivos

Conforme el concepto de DevOps comienza a ser aceptado y ganarse su lugar en las organizaciones desoftware, está surgiendo una nueva categoría de herramientas: las plataformas DevOps. Las platafor-

mas DevOps vienen a proveer un flujo de trabajo integrado para la construcción, prueba y desplieguede aplicaciones de software. Aunque desde hace tiempo existen diversos IDEs y herramientas que ofre-cen la capacidad de construcción de proyectos, las plataformas DevOps están diseñadas para operar encontextos modernos que involucran características tales como: infraestructura en la nube (IaaS y PaaS),integración continua (CI), programación colaborativa, control de versiones distribuido, pruebas au-tomatizadas, ambientes de prueba virtualizados creados de forma dinámica, entre otras. Al ser una categoría nueva, hay poca claridad sobre qué proveedores se establecerán como líderes. Sin embargo,tres que nos llaman la atención son: CloudMunch (www.cloudmunch.com), App Factory (http://wso2.

com/cloud/app-factory ) y Urban Code (http://www.urbancode.com). Buscaremos publicar algún artículosobre alguna de ellas en el futuro, mientras tanto los invitamos a explorarlas.

PlataformasDevOps

 La nueva olade herramientas

FoundationDB es un nuevo motor de base de datos que pretende traernos lo mejor de dos mundos: la velocidad y escalabilidad de las bases de datos NoSQL combinada con la consistencia de datos de lasbases de datos tradicionales. En términos técnicos, FoundationDB es un almacén de tipo llave-valor(key-value) que soporta transacciones ACID multillave. Como ustedes saben, los almacenes NoSQLtienden a conformarse con lo que llaman “consistencia eventual”, es decir que los cambios a los datosno se aplican inmediatamente en todos los nodos, sino que “eventualmente” se propagan. Este periodode tiempo típicamente es menor a un segundo, así que si estamos hablando de algo como Facebook,entonces no hay mayor problema si un servidor de mensajes está fuera de sincronía durante un segun-do. Pero en otros escenarios, como transacciones financieras, esto puede causar problemas graves. A diferencia de la mayoría de las bases de datos que se han popularizado en los últimos años, Founda-

tionDB no es software libre. Existe una versión de uso gratuito, pero no es libre. Será interesante verqué tanto esto limita o no su adopción. Más información en http://foundationdb.com

FoundationDB ¿Lo mejor dedos mundos? 

La versión 4.0 de la especificación de OData fue aceptada por OASIS y actualmente se encuentreen periodo de revisión. Se espera que antes de que termine el año sea aceptado como estándar.OData es un protocolo diseñado para permitir realizar operaciones CRUD (Create, Read, Upda-te, Delete) en fuentes de datos accesibles vía web por medio de llamadas tipo REST. Microsoftha dirigido hasta ahora el desarrollo de OData. Otros patrocinadores de la iniciativa incluyen a empresas como SAP, IBM, Progress Software y Citrix. La iniciativa competidora es GData, creada por Google.Más información en http://www.odata.org 

OData 4.0 Próximo a ser estándar OASIS 

Page 11: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 11/6009

.COLUMNATENDENCIAS EN 

SOFTWARE

Lus Danel SotoMaldonado (@lusdans) abora ena dvsón de nego-co de servdoresy herramentas deMcrosot Corp.

El término “la Internet de las cosas” se refiere a diversas tecno-logías y dispositivos que permiten conectar cualquier objeto a 

la nube. Seguramente este será un tema central en este siglo. LG ha estimado que para el año 2020 habrá 8 mil millones de dispositivosconectados a la red; Cisco es mucho más agresivo en su proyección,estimando que serán 50 mil millones y que para el 2050 cada hogarcontará con al menos 50 dispositivos conectados.

Entre esas “cosas” se encuentran las chapas de las puertas, mo-nitores personales de salud, medicinas, sensores de movimiento en

el hogar, sistemas de aire acondicionado, automóviles, personas y mascotas. En los comercios cada objeto tendrá sensores: las repisaspodrán visualizarse en zonas de mayor o menor actividad. Virtual-mente cada escalón registrará cuántas veces ha sido pisado, es decir,todo se podrá medir.

OrigenFue en el MIT a fines de los noventas cuando dio inicio la conversa-ción. En un principio se consideró la tecnología de radiofrecuencia (RFID) pero posteriormente WiFi, celular, Bluetooth y broadbandcomo opciones en módulos tan pequeños como 1 mm cuadrado. Elcómputo en la nube es el complemento perfecto para dar una espina dorsal a la administración de aplicaciones y dispositivos.

Una encuesta realizada por Accenture en el 2010, reflejó queya desde entonces el 76% de los consumidores “esperaban” que losdispositivos que adquieren se puedan conectar a Internet. Algunosgobiernos han anunciado programas de estímulo de enrejados digi-tales. Los operadores de redes desean establecer nuevas unidades denegocio basadas en este modelo.

La “Internet de las cosas” traerá muchos posibles beneficios. Enel ámbito personal, ayudará a brindar salud preventiva a menorescostos, ahorro de energía en el hogar, conducción más segura y másformas de interactuar con la familia. Colectivamente ayudará alambiente, mejorará el servicio al cliente y aumentará la seguridaden varias dimensiones.

 RetosLa privacidad es siempre tema de debate. Los lectores de RFID a distancia han limitado la capacidad de obtener datos e interactuarcon la información. Es necesario asegurar al usuario que sus datos seencontrarán resguardados.

Otro reto fundamental es la conectividad. Aunque hay grandesavances de enlace, muchos lugares todavía no cuentan con acceso a Internet generalizado entre la población. Hay que considerar tam-bién diversos tipos de redes: pequeñas, celulares y fijas alambradas.

El problema cíclico de lectores versus señales primero. Si el go-bierno desea usar sensores para recolección de tarifas, la mayor partede la población deberá utilizarlo.

La interacción entre dispositivos dedicados y dispositivos de pro-pósito específico. Muchos sistemas pueden “ejecutar cualquier pro-grama” y por tanto “ser cualquier cosa”. M2M se refiere a la comuni-cación “máquina a máquina” a diferencia del actual uso de Internetque es primariamente de personas.

Hace 5 años la diferencia entre vendedores de cómputo empre-sarial y dispositivos especializados (embedded system makers) era clara. Hoy en día las fronteras no son tan claras.

Conclusiones

 Alrededor del 2008 cruzamos la barrera endonde hay más dispositivos que humanos co-nectados a Internet. Estamos progresando rápi-damente al “Internet de las cosas” y nos llevará al menos una década alcanzar el auge. La visiónunifica tecnologías, filosofías de diseño, expec-tativas sociales y regulaciones gubernamentales.Esto resultará en nuevos modelos de negocio y un nuevo ecosistema digital.

››Por Luis Daniel Soto

 La Internet de las Cosas›› “EL CÓMPUTO EN LA NUBE ES EL 

COMPLEMENTO PERFECTO PARA DAR UNA 

ESPINA DORSAL A LA ADMINISTRACIÓN DE 

APLICACIONES Y DISPOSITIVOS.”

Page 12: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 12/6010

.COLUMNAMEJORA

CONTINUA

 La Leyenda del Patito Feo

 A  lo largo de los años he estudiado diversos modelos de calidad, y en todosse insiste en crear un área de calidad para auditar los proyectos de la 

organización. Sin embargo, en las organizaciones de software el área de calidadacostumbra ser de las menos apreciadas. A todos nos molesta que aparezca unauditor a criticar nuestro trabajo y reportar problemas a nuestros jefes. Aunqueestoy seguro que en parte se debe al carácter humano, me parece que tambiénestá relacionado con un cambio de paradigma al que no estamos acostumbrados.

Como saben, uno de los objetivos esenciales de todo modelo de calidad estener un servicio confiable y eficiente, a través de predecir desde el principio elresultado a obtener y reducir la variación con respecto a este resultado. En unproyecto, la variación se reduce a través de pre-establecer una serie de acuerdossobre cómo vamos a resolver los problemas que se nos presenten, a estos acuer-dos les llamamos comúnmente procesos. Dichos procesos definen de antemanocómo vamos a coordinar el proyecto y cómo vamos a interactuar entre nosotrospara asegurar la mayor eficiencia, rapidez y exactitud, aplicando todo lo que he-mos aprendido como organización sobre cómo operar. Dado que todo esto seplanea previamente, el éxito del proyecto depende de qué tan bien adaptamoslos procesos al problema actual, qué tan bien ejecutamos esos procesos y quétan bien se van administrando los riesgos que van surgiendo, lo que podríanafectar nuestro plan y los incidentes que ya afectaron nuestro plan.

Esta filosofía de confiar en el proceso, sabiendo que representa el aprendi-zaje acumulado de la organización, es un cambio de paradigma importante, y es independiente de si usamos una metodología en cascada, ágil, un proyecto

de desarrollo o un servicio de pruebas. Este es uno de los principales puntosde entrada de la función de auditoría; contrario a lo que se cree, el principalobjetivo de la auditoría no es detectar desviaciones sino prevenir riesgos, siendouno de los principales riesgos en un proyecto el no seguir los acuerdos prees-tablecidos. Esto no quiere decir que el proyecto va a fracasar debido a esto,simplemente la probabilidad de que fracase aumenta considerablemente.

En organizaciones de poca madurez, lo que normalmente se tiene son gru-pos de “apaga-fuegos” que se dedican a resolver los problemas que van saliendo.El resultado de los proyectos depende de la efectividad y heroísmo de éstos. Encompañías de alta madurez, el objetivo es reducir riesgos en forma proactiva,

por eso se definen una serie de acuerdos que se adaptan alproblema en mano. Seguir estos acuerdos es crítico.

Es común pensar que los riesgos que una auditoría 

descubre en un proyecto son culpa del líder, y por ello ellíder se siente atacado en la auditoría: ésta lo expone antela organización y su grupo de influencia, pero esto nue-vamente es un cambio de paradigma. Otro de los puntosen los que todo modelo de calidad es enfático es en quesiempre existe más de una razón para un problema; enpocas palabras, si hay un problema es porque los procesosno están funcionando adecuadamente, no por decisionesindividuales del líder. En la organización existe una seriede procesos que se llevaron a cabo para el arranque, segui-miento y conclusión de un proyecto, los cuales culminanprecisamente en el momento presente. El proceso de en-

trenamiento no se aseguró que el líder o los participantesestuvieran entrenados, el proceso de ventas o inicio deproyecto no le explicó al cliente claramente qué esperar,o el cliente no está convencido, faltaron recursos al iniciarel proyecto o los recursos no llegaron en los tiempos esta-blecidos y ahora están sobrecargados con otros trabajos,etc. Precisamente la auditoría pretende dar visibilidad a un problema, los riesgos que conlleva e identifica entre losdiferentes responsables aquellos que son los más apropia-dos para entender las implicaciones y entre todos buscaruna solución.

Finalmente unos de los principales ataques que veocontra las auditorías es el reproche del líder de que “la auditoría no me viene a ayudar, solamente me da más tra-bajo; mejor que se arremanguen y se pongan a trabajar”.

Este puede parecer un punto válido, pero en realidad esun reflejo de lo que mencionábamos anteriormente: enorganizaciones de baja madurez, lo que necesitamos sonapaga-fuegos. Aún más profundo que esto podemos verotro cambio de paradigma: en una organización madura no es posible que una sola persona sea el único responsablede que todo funcione correctamente en un proyecto, la idea de notificar a un nivel superior sobre un problema detectado en la auditoría no es para que le exija al lídercorregirlos, sino para que nos involucremos y entre todosnos aseguramos que tanto éste, como todos y los proyectosde la organización sean un éxito.

Sé que difícilmente mis palabras los harán fieles cre-

yentes de las auditorías. Adicionalmente, estoy conscien-te de que existen equipos de auditoría que no tienen lascapacidades de comunicación, negociación o los conoci-mientos básicos para llevar a cabo correctamente su tra-bajo. Pero al menos, espero haberlos convencido de que sisienten que su área de auditorías no genera ningún valor,una posible explicación es que su empresa no está lo sufi-cientemente madura para encontrarle un valor.

>> Por Luis Cuellar 

››“EL PRINCIPAL OBJETIVO DE LA 

AUDITORÍA NO ES DETECTAR DES-

VIACIONES SINO PREVENIR RIESGOS”

Lus R. Cuellar esdrector de cadada nve munda deSottek. Es reco-nocdo por a ASQcomo CertiedQuaty Manager,Certied SotwareEngneer y SxSgma Back Bet.@lcuellar

Page 13: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 13/60

E

s un momento emocionante para ser un empresario de Internet

en México. Las narcoguerras parecen estar enfriándose; los indi-cadores macroeconómicos de México se ven bien; y si hemos de creer a la prensa mundial, México se prepara para un período de crecimientoestable y agresivo. Esta es la oportunidad dorada de México para posi-cionarse como un motor para la innovación tecnológica. Hay muchoen juego y hay un montón de maneras de equivocarse; pero si se mane-

 ja bien, las empresas respaldadas por capital de riesgo podrían mejorarla economía mexicana dramáticamente —a un nivel más prósperoglobalmente y con el control en las manos de la clase media emergente.

Sin embargo, México tiene un largo camino por recorrer. Si com-paramos el sector de capital de riesgo (VC) en México con el deEE.UU., las diferencias son impresionantes. EE.UU. cuenta con 923empresas de capital de riesgo registradas, que en el año 2012 realiza-ron 3,752 inversiones por un total de 29 mil 100 millones de dólares.Por su parte, en México existen 14 organizaciones de este tipo, queen el 2012 realizaron 19 inversiones por 200 millones de dólares.

 Así que México está empezando desde abajo, muy abajo. Paradójica-mente, esto puede funcionar a su favor. Sabemos que México sigue fiely rápidamente las tendencias de negocios y cultura que se establecen enSan Francisco y EE.UU. Al revisar las tendencias de crecimiento año trasaño aquí (la penetración de Internet, el crecimiento de smartphones, eluso de los redes sociales, etc.), los números están por las nubes. Cuandomiramos a México desde el punto de vista del entorno de capital de ries-go en el Silicon Valley, México representa una oportunidad que parececasi demasiado buena para ser verdad. En Silicon Valley, las valoracio-

nes de las startups están por las nubes; es un caso de demasiado dinerodisponible, persiguiendo a empresas con ideas de calidad inferior; losempresarios se esfuerzan por crear nuevas necesidades a satisfacer ya quetodas las necesidades obvias están cubiertas. Mientras tanto, en México,existen necesidades reales por todo el país. Muchos de los servicios enlínea, como el e-commerce, publicidad, sitios de opinión (ej. yelp.com)todavía no son tan populares aquí. ¡Las oportunidades abundan!

Hasta ahora, México parece estar intentando importar directamen-te el modelo de riesgo de EE.UU. tal como existe hoy en día en SanFrancisco, pero, ¿funciona esto? ¿Podemos saltarnos 40 años de historia tecnológica y empezar a la par? Difícilmente. Nos hacen falta elementosfundamentales como: contratos, instrumentos financieros, infraestructu-ra técnica y, sobre todo, la experiencia compartida. El concepto mismo

de inversión de capital de riesgo parece fuera de lugar aquí.Por un lado, tenemos a inversionistas que no están acostumbrados a 

hacer inversión de riesgo en empresas de base tecnológica. Ellos piensan:“¿Por qué debo invertir en este chico de 27 años que no conozco, para cons-

truir una aplicación web que no entiendo? Además, ni el niño ni el modelo

de negocio tienen un historial de éxito aquí. Y sin un mercado público con

bastante dinero ni empresas de tecnología para comprarlos, no hay ningún

camino claramente definido para un éxito financiero. ¡¿Están locos?!” Por su parte, los emprendedores estarán pensando cosas como:

“¿Qué se supone que debo hacer? ¿Qué indicadores son importantes? ¿Cómo

es el proceso de financiación? ¿Qué es la deuda convertible? ¿Qué condicio-

nes debo aceptar? ¿Qué preferencias de liquidación debo elegir? ¡Ayuda! “ 

El resultado es obvio. Todo el mundo quiere ser un inversionis-

ta o emprendedor —porque está de moda y hay la promesa de dine-ro— pero nadie sabe realmente cómo empezar. Así que cada lado,inversionista y empresario, se rodean uno al otro, una y otra vez.Hay reuniones, conversaciones, más reuniones, llamadas, y luego...nada. Mucho hablar pero muy poca acción. Entonces, ¿cómo sali-mos de este ciclo? He aquí una idea … empecemos. Dejemos dehablar y empecemos a programar.

 A los emprendedores: ¿Tienes una gran idea? Qué bueno, perote informo que las ideas prácticamente no valen nada. La ejecuciónes todo; sobre todo aquí y ahora. Pero no te desanimes, hay buenasnoticias: no necesitas el permiso ni el financiamiento para empezar.Sólo tienes que decidir lo que quieres hacer, enfócate en el compo-nente más crítico y central de tu modelo de negocio y ejecuta. Dedica algunos fines de semana y algunas noches para construirlo y lanzarlo.Decide cuáles son las métricas más importantes —las que te indica-rán si tu idea funciona o no— y dales seguimiento.

 A los inversionistas: Invierte basándote en la tracción. Reúnetecon los emprendedores lo antes posible y ayúdalos a determinar quémétricas significarían un éxito y luego ayúdales a llegar allí. Negocía los términos antes de participar, por ejemplo: “Si se pueden atraer unnúmero X de clientes o Y de pesos dentro del plazo Z, invertiremos

 A pesos a una valoración B en días C”. Mantén un espacio de tiempobreve (2-3 meses) y posiciónate como inversionista semilla al mostrarque puedes agregar valor a emprendimientos en sus primeras etapas.

Imaginemos el siguiente escenario: un emprendedor y su equi-

po se reúnen con un inversionista y describen lo que quieren ha-cer. Juntos trazan sus metas para los siguientes 90 días (50 clientesnuevos y 1000 pesos semanales). El inversionista está de acuerdoque si alcanzan sus objetivos, invertirá $500 mil pesos por el 20%de la compañía dentro de los 14 días siguientes a haber logrado susmetas. Ahora sí no hay excusas, ambas partes se suben las mangasy se ponen a trabajar. Al final de los 90 días, ambos lados saben sila idea es factible y tienen una muy buena idea si la otra parte escompetente y si disfrutan trabajando juntos.

Conclusión Al financiar sólo después de que los objetivos pragmáticos comparti-dos se consiguen, se elimina una parte significativa del riesgo, es un

trato más fácil de hacer. El emprendedor sabe cuáles son los objetivosy, por tanto, qué hacer, mientras que el inversionista tiene una com-prensión clara de lo que él/ella está invirtiendo.

Los puntos principales de este artículo están disponibles comouna presentación que puedes consultar en http://bit.ly/agavelab

Capital de Riesgo en México“A Little Less Talk and a Little More Action” 

››Por Andy Kieffer 

.BIO

Andy Kefer es undador de Agave Lab, una aceeradora de productosubcada en Guadaajara y San Francsco. Antes de mudarse a Méxcoen 2008, estuvo a cargo de Dev Bus para un arranque en red KenerPerkns, a red soca (Vsbe Path) y ayudó a crecer una startup de 10personas a +1000 empeados y varos mes de mones de dóares devaor de mercado (Kana).

11

.EMPRESASEMPRENDIENDO

Page 14: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 14/6012

Hacia una Cultura de Seguridad››Por Yuri González 

La Internet, entendida en su conjunto como un ecosistema confor-mado por estándares, protocolos, tecnologías y servicios, no sólo

se ha consolidado en pocos años como una pieza fundamental en losmodelos de negocio; es también ya una parte vital en el desarrollo y crecimiento socio-económico de las naciones y es un recurso crítico delentramado que conforma y da soporte a los gobiernos en todo el mundo.

De acuerdo al reporte que la UIT publica anualmente, en 2011un tercio de la población mundial total ya es parte de este gran ecosis-

tema. Esto representa más de 2,000 millones de clientes potencialesa los que los negocios ofrecen sus productos y servicios a través demedios de comunicación electrónicos. También representa más de2,000 millones de ciudadanos que son beneficiarios de las llamadasiniciativas de gobierno electrónico.

En el artículo “La Internet de las Cosas: cómo la siguiente evoluciónde Internet está cambiando todo” [1], Dave Evans anticipa que en menosde una década la Internet alcanzará al 60% de la población mundial. Eneste escenario, para el año 2022 estarán interconectados más de 50,000millones de dispositivos y objetos físicos. De ser acertadas estas prediccio-nes, en la próxima década la Internet alterará para siempre y de manera irremediable el estatus quo en materia social, política y económica.

En este contexto tecnológico, cada vez más complejo y permanen-

temente cambiante, se hace patentela necesidad de establecer un entornode trabajo propicio para garantizarque aquellos requerimientos no fun-cionales tales como la modularidad,la escalabilidad y la seguridad, seanincorporados de manera sistemática durante las etapas de diseño, desarro-llo, pruebas y despliegue de cualquiersistema o servicio informático.

El presente artículo aborda breve-mente una de las aristas de este pro-

blema: el aspecto de la seguridad durante el desarrollo de los sistemas. Y dentro del universo de la seguridad, en el presente artículo sólamente meabocaré al análisis de riesgos y establecimiento de escenarios de amenazas.

 El cristal con el que se miraBruce Schneier comenta en su ensayo “La psicología de la seguridad”[2], que la seguridad es tanto una realidad como una percepción. La decisión de implementar o no una salvaguarda se basa en un sistema 

de criterios que nos lleva a tomar de decisiones en materia de seguri-dad y que se ve fuertemente influenciados por la naturaleza humana.De manera inconsciente, tomamos decisiones en materia de se-

guridad todo el tiempo. Por ejemplo: decidimos cuál es la ruta mássegura para llegar al trabajo, hacemos uso del bastón inmovilizadordel volante al estacionar el automóvil en una zona que no nos esfamiliar y optamos por no usar un ascensor que tiene una aspectoviejo y descuidado. La evolución ha dotado a nuestro cerebro con loscircuitos necesarios para que no tengamos que hacer un gran esfuerzopara ponderar el riesgo y elegir entre todas estas opciones. Sin embar-go, la zona en donde reside este firmware orgánico es una región delcerebro muy primitiva y desafortunadamente es inútil en muchas delas situaciones que nos presenta la modernidad.

 Modelado de amenazasPrácticamente todos los estándares y buenas prácticas en materia de se-guridad de la información establecen que cualquier iniciativa para for-talecimiento de la seguridad da inicio con la identificación, evaluación y tratamiento de los riesgos asociados a un sistema o servicio informático.

La organización Software Assurance Forum for Excellence inCode (SAFECode, por sus siglas) en su publicación “FundamentalPractices for Secure Software Development” [3] reporta que la prác-tica más comúnmente utilizada es el modelado de amenazas. Esta ac-tividad consiste en llevar a cabo un ejercicio durante la fase de diseñodel proyecto, en donde el flujo de datos es analizado por un equipo

.BIO

Yur Adrán González Robles ac-tuamente trabaja como Subdrectorde Tecnoogía y Segurdad Inormá-tca de a Undad de Servcos deInormátca (IFE). Sus prncpaestareas comprenden proponer, con-sodar y estabecer os procesos ypráctcas que permtan mantener encrementar a segurdad y vgencatecnoógca de os servcos ysstemas normátcos de InsttutoFedera Eectora www.e.org.mx

Page 15: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 15/60

.ESPECIAL

de personas con el objetivo de identificar lospuntos débiles del sistema y establecer los es-cenarios en los que estos puntos pudieran serexplotados por un potencial atacante.

 A continuación explico algunas de las técni-cas más utilizadas para el modelado de amenazas.

STRIDEEsta técnica consiste en revisar uno por unocada componente del sistema y determinar sies vulnerable a una amenaza de alguno de es-tos grupos: Spoofing (suplantación de iden-tidad), Tampering (modificación maliciosa de datos), Repudiation (no reconocimientode una acción), Information disclosure (re-velación de información), Denial of service(negación de servicio), Elevation of privilege(elevación de privilegios). Como se podrándar cuenta, las siglas STRIDE se forman conla primer letra del nombre de cada grupo.

Por ejemplo, consideremos un sistema ficticio en el que se hace uso de firma elec-trónica para autorización de pagos. Despuésde que el grupo encargado de realizar el aná-lisis STRIDE ha revisado los casos de uso delsistema, identificó lo siguiente:

 Amenaza #1: El sstema es vulnerable a Repu-

daton, ya que un usuaro con acceso legít-

mo al sstema puede negar que autorzó unatransaccón, ya que las btácoras que genera

el sstema sólo consderan el ID de la sesón

 y no se almacena el denticador del usuaro.

Casos de mal usoEsta metodología ayuda a entender cómo losatacantes podrían vulnerar el sistema. Estos ca-sos se derivan de los requerimientos del sistema y los casos de uso asociados, y muestran cómoun potencial atacante puede evadir o inhabili-tar las medidas de protección existentes.

Mientras que un caso de uso describe tí-

picamente cierta funcionalidad que debe rea-lizarse a través del sistema, mediante el casode mal-uso se define una secuencia de accio-nes que deben ser completadas para provocardaño al sistema.

La figura 1 muestra un diagrama UMLque ejemplifica un caso de mal-uso. [4]

La desventaja de esta metodología esque requiere que el grupo de desarrollocuente con la asesoría de un experto enmateria de seguridad; dicho experto ge-neralmente toma el rol de moderador y 

facilitador, guiando lasdiscusiones para opti-mizar los tiempos y lasactividades. Otra con-

secuencia es que esta metodología tambiénsuele requerir un tiem-po y esfuerzo conside-rable ya que requiere la participación de otrosinvolucrados además delequipo de desarrollo.

No obstante, al apli-car este tipo de metodolo-gía se garantiza que los re-sultados obtenidos serán:

• Susceptibles a ser comparados en una 

nueva versión del proyecto,• Reproducidos en otro punto del proyec-to, aún cuando los miembros del equipooriginal hayan cambiado,• Incluidos en una construcción de soft-ware que esté orientado a procesos.

No siempre contamos con todos losrecursos necesarios para aplicar metodo-logías con toda la formalidad requerida;entonces podemos echar mano de las si-

guientes herramientas:

Lluva de deasEn el caso de organizaciones que no tenganrecursos o experiencia en el modelado deamenazas, se recomienda por lo menos te-ner una sesión de lluvia de ideas donde losmiembros del equipo de desarrollo que estána cargo de la arquitectura y diseño comenteny evalúen las potenciales vulnerabilidadesque presenta el sistema.

Es importante hacer notar que los re-sultados de esta dinámica no pueden con-

siderarse exhaustivos, por carecer de una identificación sistemática de las amenazas,principales activos y riesgos asociados. Tam-poco es una actividad cuyos resultados seanrepetibles, porque depende en gran parte dela experiencia de los miembros del equipoque se integren a la reunión.

Catálogo de amenazasContar con un diccionario o catálogo deamenazas es bastante útil, especialmentepara que las personas que no son exper-

tas en seguridad puedan entender mejorel tipo de vulnerabilidades a las que pue-den estar sujetas sus aplicaciones. Algunosdiccionarios de este tipo disponibles pú-blicamente son CWE [5], OWASP [6] y CAPEC [7]. Haciendo uso de estos recur-sos, podemos aprovechar el conocimientogenerado por la comunidad y la industria en materia de seguridad.

ConclusiónEn este artículo he listado algunas de lastécnicas más comunes para modelar ame-

nazas y así reconocer las vulnerabilidadesque pueden tener nuestros sistemas, demanera que podamos actuar para evitarlaso resolverlas. Espero que esta informaciónles sea de utilidad para desarrollar sistemasmás seguros.

Referencias 

[1] D. Evans. “The Internet of Things: How the Next 

Evolution of the Internet is Changing Everything”.

http://swgu.ru/sg40r4

[2] B. Schneier. “The Psychology of Security”.

http://swgu.ru/sg40r5 

[3] Autores varios. “Fundamental Practices for 

Secure Software Development”. SAFECode, 2011.

http://swgu.ru/sg40r6 

[4] “Misuse case”. Wikipedia. http://swgu.ru/ 

 sg40r7 

[5] CWE - Common Weakness Enumeration. http:// 

cwe.mitre.org

[6] OWASP - The Web Application Security Project.

https://www.owasp.org

[7] CAPEC - Common Attack Pattern Enumeration

and Classification. http://capec.mitre.org

13

Figura 1. Diagrama UML de un caso de mal uso.

Page 16: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 16/6014

.ESPECIAL

Criptografía de Caja Blanca››Por Mauricio Hernández 

La criptografía es la práctica y estudio de técnicas para comu-nicación segura en presencia de terceros. Esta práctica ha ido

evolucionando y haciéndose más compleja a lo largo de la historia:en un inicio consistió en el reemplazo de letras o palabras en basea patrones sencillos; posteriormente en la 2da Guerra Mundial sedesarrolló significativamente este campo y se comenzaron a utilizarmáquinas electromecánicas, como la Enigma. Hoy en día, que vivi-mos en un mundo basado en información, el uso de criptografía está ampliamente extendido y para ello se utilizan diversos métodos.

 A pesar de la evolución que ha tenido la criptografía, los métodos con-vencionales no son capaces de ofrecer una solución blindada que contem-ple por completo los distintos escenarios de diferentes ataques que intentanexplotar las vulnerabilidades inherentes en la criptografía. En las imple-

mentaciones de DRM (Gestión de derechos digitales) típicas, los algorit-mos criptográficos forman parte de la solución de seguridad y emplean unalgoritmo conocido y potente al mismo tiempo, confían en el secretismode la clave criptográfica. El problema con dicha estrategia es que las pla-taformas en las que estas aplicaciones pueden ejecutarse quedan sujetas alcontrol de usuarios finales potencialmente hostiles.

El supuesto convencional de la criptografía es una configuración detipo Black-box (caja negra) donde se asume que el atacante no tiene ac-ceso a la clave de cifrado, es decir, que solo tiene acceso al resultado (textocifrado). Durante mucho tiempo se ha dado por supuesto que esto escierto también para los dispositivos de hardware como las tarjetas inteli-gentes, pero los ataques maliciosos que explotan la información “filtrada”de un Black-box (como los ataques de análisis de potencial diferencial,

también conocidos como DPS) se han desarrollado permitiendo a losatacantes obtener las claves secretas de cifrado utilizadas por la supuesta caja negra. Es así que lo que tenemos no son realmente cajas negras, sinoen todo caso grises. Los mecanismos de cifrado más populares, como

 AES, no han sido diseñados para ope-rar en entornos donde su ejecuciónpuede ser observada; dichos modelosasumen que los tokens de protecciónen los puntos finales —como PCs oreproductores digitales— son de con-fianza. Si estos puntos finales residenen un entorno potencialmente hostil,

entonces las claves criptográficas pueden ser visibles directamente para los atacantes que monitoreen la ejecución de la aplicación mientras in-tentan extraer las claves que están adjuntas o son generadas por la aplica-ción desde la memoria. Este es un problema común en las aplicacionesbasadas en software que se ejecutan en PCs, decodificadores digitalesIPTV y otros dispositivos que consumen datos al intentar aplicar DRM.

 Al supervisar de forma activa las API criptográficas estándar o los volca-dos de memoria, un atacante puede extraer las claves cuando se usan. Porejemplo, el programa BackupHDDVD utiliza este mecanismo para lo-grar copiar el contenido de un DVD protegido, eliminando así el DRM.

La idea de mantener información valiosa como las licencias y otrossecretos empresariales ocultos a la vez que se opera en un entorno com-pletamente transparente plantea diversos dilemas: ¿cómo podemos cifrar y 

descifrar contenido sin revelar directamente ninguna parte de la clave o losdatos?, ¿cómo implementamos un mecanismo de cifrado sólido sabiendoque un atacante puede observar y alterar el código durante la ejecución?Este es el contexto de lo que se conoce como criptografía White-box (caja blanca). Las técnicas de criptografía White-box tienen como objetivo pro-teger las implementaciones de software de algoritmos criptográficos contra la recuperación de claves, incluso si el atacante tiene un control absolutosobre la máquina que realiza el cifrado; esto es especialmente útil en elcampo de DRM. La criptografía White-box utiliza técnicas que permi-ten realizar cifrado de manera que un atacante no pueda acceder la clave,incluso aunque sea capaz de observar libremente la ejecución del códigodinámico y conocer los detalles de los algoritmos utilizados.

ConclusiónLos algoritmos creados para los modelos de Black y Grey-box no son prác-ticos de cara a funcionar en equipos que no sean de confianza; los atacanteshan reconocido la vulnerabilidad de la criptografía clásica en el entorno dePC abierto. La criptografía White-box, en cambio, ha sido diseñada para operar en este contexto.

Resulta implícito que la protección del software debe recibir una aten-ción específica, a lo largo de las fases de diseño e implementación ademásde ajustarse como parte del ciclo de vida del producto y en el lanzamientode nuevas versiones. Además de la criptografía White-box, deberían em-plearse medidas de seguridad complementarias adicionales para reforzaraún más el plan de protección general.

.BIO

Maurco Hernández es especastaen soucones de proteccón enSaeNet, empresa proveedora desoucones DRM, para a proteccóny e cencamento de [email protected]

“La crptograíade caja bancaasume que eatacante tenee contro de

dspostvo ina”.

Page 17: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 17/60

Cibercrimen y Cómputo ForenseAVANCES Y TENDENCIAS

››Por Andrés Velasquez 

 Si bien los delitos informáticos aparecieron prácticamente desdela invención de las computadoras, en los últimos años se ha 

visto un aumento del cibercrimen orientado a infectar computadorascomo objetivo final, enmarcados en ataques ciberterroristas, hackti-vistas o de crimen organizado.

Según el reporte de cibercrimen 2012 de Norton [1], se estima que enese año tan sólo en México más de 14.8 millones de personas fueron vícti-mas de delitos informáticos que ocasionaron pérdidas financieras directaspor un monto de 2.2 miles de millones de dólares.

Estas cifras son evidencia de una gran fragilidad y falta de pre-vención frente a los delitos informáticos de parte de los usuarios,especialmente, en el ámbito corporativo. De acuerdo con un estu-dio realizado por Kapersky Lab [2], el 48% de las compañías tiene

una protección insuficiente contra el robo de propiedad intelectual y otros ilícitos realizados en línea. Esta situación se agrava a causa de la falta de despliegue de políticas de seguridad y la falta de concientiza-ción de los empleados, lo que facilita a los ciberdelincuentes encon-trar nuevas formas de beneficiarse de las corporaciones y, al mismotiempo, lograr la profesionalización del ejercicio delictivo en la red.

Entre los delitos más frecuentes, especialmente en nivel empresarial,tenemos el robo de información. El 80% de los delitos de este tipo provie-nen del interior de la misma corporación, es decir, los empleados, inclusolos que generan mucha confianza pueden ser la mente maestra detrás delrobo de información valiosa para la empresa.

Tal es el caso, por ejemplo, de la industria automotriz: al desarrollar susoperaciones en ambientes abiertos, este tipo de corporaciones son procli-

ves a padecer algún tipo de delito cibernético de manera deliberada o pordescuido de sus colaboradores. En ese sentido es importante que cualquieragencia, por pequeña que ésta sea, tome las medidas mínimas en seguridadcomo el de impulsar una cultura de las Cartas de Asignación de equipos decómputo en la empresa, lo que ayudará a individualizar responsabilidades.

Otro de los delitos de mayor frecuencia son los ciberataques en redessociales y teléfonos móviles. En lo que respecta a los ataques en redes socia-les, el robo de identidad es uno de los métodos más usados para obtenerinformación de una persona con el fin de perjudicarla u obtener algún be-neficio. De acuerdo al último Reporte de Cibercrimen de Norton, tan soloen Facebook durante el 2012 hubo casi seis millones de fraudes manualesy cerca de 600 mil falsas ofertas y encuestas.

 Análisis forense en la nubePara contrarrestar este panorama del alto crecimiento delictivo, esnecesaria una mayor profesionalización en el rubro del análisis fo-rense digital para disminuir la amenaza de delitos informáticos.

Entre las últimas tendencias del análisis forense digital que permi-tirán mejorar esta situación, encontramos la reducción del tiempo deprocesamiento de las pruebas del delito. Para ello es necesario pasarpor una nueva arquitectura de análisis forense digital que se base enlos principios del cloud computing. Esto permitirá el procesamientoparalelo y simultáneo de pruebas digitales, evitando la duplicación dedatos y esfuerzos, y sobre todo reduciendo drásticamente los tiemposde proceso de la información.

Esta nueva arquitectura debe considerar cómo acelerar el análisis de las

pruebas digitales e incluir la capacidad de almacenamiento de pruebas, losservicios de aplicaciones y los principios de integridad y de confidenciali-dad de los datos digitales, así como disponer de un software de administra-ción de casos y toda una gama de servicios adicionales.

Otra de las estrategias a seguir es la de evitar ingresar en enlaces en-viados por correos externos, Facebook o por Twitter, sean promociones,avisos bancarios o tarjetas de felicitación; evitar enviar información con-fidencial o acceder a cuentas bancarias online usando redes inalámbricaspúblicas abiertas; tener contraseñas fuertes en todos los dispositivos y para todas nuestras cuentas, que combinen letras, números y signos; y capacitar a las personas en la empresa en políticas de seguridad.

Sólo empleando la última tecnología de la mano de la implementa-ción de sólidas medidas de seguridad y de la aplicación de los principios

de las últimas tendencias en arquitectura, las empresas y los usuarios finalesy hasta el mismo gobierno podrán luchar en igualdad de condiciones conlos ciberdelincuentes y garantizar una rápida respuesta contra los delitos.

Referencias 

[1] ”CyberCrime Report 2012 -

Mexico Fact Sheet”, Norton.

http://swgu.ru/sg40r9

[2] “Global IT Security Risks 2012”,

Kaspersky Labs. http://swgu.ru/sg40r10

15

.BIO

Andrés Velasquez (@cbercrmen) es presdente y undador de Mat-tca. Es especasta en segurdadnormátca y cómputo orense conmás de 11 años de experenca. Haresueto casos para organzaconesprvadas y entdades como Interpo,ONU y agencas gubernamentaesen Latnoamérca. www.mattca.com

.ESPECIAL

Page 18: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 18/6016

.ESPECIAL

¿Seguridad Informática o Seguridad de Información?››Por Carlos Kornhauser 

Cada vez con mayor frecuencia escuchamos noticias relativas a fraudes, robos e incidentes relativos a la información. Es un he-

cho que la información se utiliza de mil formas, ya que a través de ella se define por ejemplo nuestra personalidad, nuestro estatus patrimo-nial, nuestro círculo social; basta ver como ejemplo el crecimiento delas redes sociales. Si lo revisamos desde una perspectiva organizacionalse convierte todavía en algo más importante, ya que se traduce en nues-tros secretos industriales, ventajas competitivas, situación financiera entre otros. Esto nos lleva a poder concluir que la información es unode los activos más importantes de cualquier persona u organización.

 Aunado a esto comienzan a tomar mayor fuerza una serie de regu-

laciones y requerimientos con respecto a la seguridad de la información.En México, por ejemplo, con el cumplimiento de la Ley Federal de Pro-tección de Datos Personales en Posesión de Particulares que nos obliga a establecer mecanismos y procesos para proteger información.

La pregunta entonces es ¿por qué nos preocupamos tanto por la se-guridad informática en lugar de la seguridad de la información? Me ex-plico, cuando vamos a una organización y preguntamos por su seguridadsiempre nos hablan de los firewalls que se tienen implementados, de losdetectores de intrusos de última generación, de los 5 antivirus en paraleloy cualquier cantidad de controles físicos y lógicos que se puedan nom-brar, pero cuando preguntamos por los procesos de negocio que se estánprotegiendo, de cuál es el impacto que un incidente podría ocasionar, decuáles son las principales amenazas existentes, de cuáles son los objetivos

estratégicos de la organización, de qué motivadores existen para sufrir unataque, es entonces cuando las respues-tas comienzan a escasear y a no tener la precisión adecuada. Más preocupanteaún, es cuando comenzamos a revisaren donde se encuentran las vulnerabi-lidades realmente y nos damos cuenta de que no es en los “fierros” (servidores,aplicaciones, bases de datos, etc). Noestoy diciendo que estos controles nosean importantes —de hecho son muy importantes considerando que la ma-

yor parte de la información que hoy manejamos se encuentra en formatodigital— pero no son los únicos. Todos conocemos la expresión de queuna cadena se rompe por el eslabón más débil. Preguntémonos entonces:¿cuál es el eslabón más débil en la cadena que representa la seguridad?, ¿será la plataforma tecnológica (es decir lo que está cubierto por la seguridad in-formática)? En la gran mayoría de los casos, la respuesta es NO; el eslabónmás débil somos las personas.

Por naturaleza somos confiados y con frecuencia no tenemos el nivelde conciencia suficiente para identificar los impactos en caso de un malmanejo de la información que divulgamos o utilizamos. Si a esto le agrega-mos que no siempre existen los procesos, políticas y componentes legales

que definan cual es el adecuado uso de la información, entonces tendre-mos un muy buen sistema de seguridad informática y un muy mal sistema de seguridad de información. De poco sirve contar con el mejor detectorde intrusos y el mejor firewall, cuando estadísticamente está demostradoque el 70% de los problemas de seguridad son causados por personas inter-nas; y la mayor parte de estos ni siquiera son con dolo o afán de causar undaño, sino debido a la falta de un marco adecuado de seguridad. Les pro-pongo un experimento, revisen los botes de basura de sus organizaciones ode sus vecinos, se van a sorprender de la cantidad de información que está ahí, disponible para el que quiera utilizarla. Otro experimento, entren a unbaño de una organización y quédense dentro de un cubículo escuchandolo que las personas comentan, igual se van a sorprender de la cantidad deinformación sensitiva que se divulga.

En resumen, tenemos que construir y contar con un sistema que nosgarantice, dentro de lo posible, la seguridad de la información, el cual de-biera de contar con los siguientes elementos mínimos:

• Un entendimiento claro, preciso y priorizado de qué es lo que se va a 

proteger a nivel organizacional y cuáles son los riesgos existentes.• Un marco normativo que contenga las políticas y procesos que los

usuarios de la información deberán de seguir y cumplir.• Un plan de capacitación y concientización para los usuarios y 

administradores de la información.• Por supuesto, los controles tecnológicos y físicos que protejan

la información.

.BIOCarlos Kornhauser (@ckornhauser) es Drector de GRC (Governance,Rsk and Compance) para PnkEephant Méxco. Cuenta con más de20 años de experenca en práctcasde Goberno de TI, Segurdad deInormacón, Contnudad Tecnoóg-ca y Cumpmento Reguatoro. En2003 ue reconocdo por Mcrosotpor dseñar a mejor soucón de se-gurdad en Latnoamérca y una deas cnco mejores a nve munda.

“E esabón másdéb somos as

personas.”

Page 19: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 19/6017

¿Por qué es Imposible

la Seguridad Total?Y POR QUÉ ESO ES BUENO››Por Edmundo Reyes 

Cada que escucho a un proveedor hablar sobre seguridad, suexposición típicamente tiene la siguiente estructura: primero

genera terror en nuestros corazones demostrando las amenazas quenos acechan, y posteriormente nos explica como su bala de plata nosprotegerá. En algunos casos se mencionan otros puntos como alinear la bala de plata a nuestra tecnología y negocio, y capacitar al personal. Asíque parecería que lo único que necesitamos para vivir tranquilos es apli-car tecnología, implementar una serie de procesos, capacitar al personalen la herramienta y someternos al rigor de auditorías anuales.

Listo, sano y salvo. ¿Dónde firmo para obtener seguridad total?

Un momento ... ¿en verdad se puede? Tenemos los ejemplos de grandesempresas, con el músculo tanto tecnológico como financiero para poderimplementar cuanta defensa pueda ser implementada y sin embargo tam-bién son víctimas. ¿Cómo no ser escéptico si ellos no pudieron lograrlo?

No estoy solo en mi escepticismo. El escritor y consultor en segu-ridad Glenn S. Phillips [1] menciona 4 puntos por los que la seguri-dad total de información es imposible:

1. Existe gente involucrada. No existe seguridad absoluta simple-mente porque la gente forma la mayor parte del área de riesgo. Ya sea que tenga malas intenciones, o que tenga buenas intencionespero cometa errores.2. El cambio es constante. Aunque el día de hoy logremos aseguraralgo, mañana habrá nuevos riesgos. Cambio de gente, tecnología y forma de hacer negocios. El parche que instalé hoy protege contra los riesgos de ayer, no contra los de mañana.3. Seguridad es un concepto, no una definición. Se puede definir“entorno seguro” para una situación particular pero no se puede

generalizar. Pasar la auditoria únicamente demuestra que se revisólo que creemos revisable. Esto no cubre riesgos particulares de ne-gocio y riesgos nuevos.4. La tecnología es una herramienta, no una solución completa. Dema-siados líderes asumen que la seguridad es un problema de tecnología. Ci-tando a Zygmunt Bauman: “las cerraduras pueden ayudarnos a soslayarel problema o a olvidarlo, pero no pueden obligarlo a dejar de existir.”

Consideremos la analogía de un candado contra una ganzúa: elcandado tiene que cubrir amenazas generales, la ganzúa solo tieneque romper una debilidad particular; la ganzúa necesita el éxito una vez, el candado necesita ser exitoso siempre.

 Busquemos el balanceIntentar la seguridad total es costoso y con pocas posibilidades deéxito. Saber esto es bueno.

Olvidemos el “total”, mejor busquemos el balance entre ser osa-do sin ser imprudente; entendamos profundamente la naturaleza denuestro negocio y el riesgo que éste implica. Los autos comercialesno tienen jaulas contra volcaduras, de la misma manera que los autosde carreras no tiene bolsas de aire. El diseño en ambos es una mezcla entre lo que se espera de ellos y el riesgo que se corre.

Entender ésto es profundamente liberador. Si no hay hombres lobo,no necesitamos desperdiciar la plata en balas, ni imponer políticas basa-das en quimeras. Mejor nos enfocamos tener un comportamiento ade-cuado a los riesgos que estamos dispuestos a tomar para realizar negocio.

Seguridad no es esconderse bajo una roca y perderse del mundo. No esencerrarse tras de murallas impenetrables y ver el mundo a la distancia. Elcandado total, el que es imposible de abrir, está sellado y esto lo convierte

en un candado inútil. Lo que se busca es que lo abra la llave adecuada y que lo que protege no sea de mayor valor que el candado. No hacemos ne-gocios para estar seguros, la implantación de seguridad es uno de los costosque debemos asumir para hacer negocios. Y como cualquier otro costotiene que estar en balance con el tipo y la ganancia del negocio.

La seguridad que deberíamos buscar debe permitir un flujo sanode información con un control aceptable de los riesgos que se estántomando. Debe de tener medidas para que cuando lo inevitable pase—es decir que quede comprometida la seguridad—, no haya conse-cuencias desastrosas. Debe de girar en la confianza en nuestra gentey en el sentido de protección que debe de prevalecer entre ellos. Esdecir, la seguridad tiene una perspectiva social que a veces olvidamosen nuestra búsqueda tecnológica de la misma.

Los mejores líderes ahorran tiempo y dinero entendiendo quela seguridad significa procesos, noentregables. Estos procesos cambiancontinuamente porque la gente, losriesgos y la tecnología están en uncambio continuo.

Referencias 

[1] G. Phillips. “Mission Impossible:

4 Reasons Compliance Is Impossible”.

http://swgu.ru/sg40r8

.BIO

Edmundo Reyes Cuellar tene 17años de experenca en e área desstemas y ha trabajado desarro-ando arqutecturas de BusnessIntegence y Enterprse ContentManagement. Es apasonado dea arqutecturas de sstemas y osmétodos áges. Le gusta programaren Ruby y Python aunque de vez encuando todavía extraña a C.http://cuellared.wordpress.com

.ESPECIAL

Page 20: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 20/6018

.COLUMNACOLUMNA INVITADA

Enfrentar un ambiente con altas demandas de información, lascuáles se consumen por diferentes dispositivos, implicó en los

últimos años un cambio de paradigma en las reglas, formas de entre-gar y consumir las TI en las organizaciones.

El impacto de la evolución de tecnologías de virtualización y nube en las áreas de TI ha crecido a pasos titánicos. Actualmente, el40% de las cargas de trabajo en servidores están virtualizadas, y para el 2020 se espera que esta cifra llegue al 80%. Para este mismo año la industria habrá derrochado 241 mil millones de dólares en serviciosrelacionados con la nube.

 Ante esto, las empresas han adoptado soluciones que lejos deser competitivas, son complejas y monolíticas; esto dificulta suescalabilidad para hacer frente al manejo de información hacia los próximos años.

Por otro lado, las organizaciones han tenido que escoger en-

tre soluciones con bajo costo de operación pero alta inversióninicial, o baja inversión inicial pero costos de operación muchomayores a largo plazo.

Las empresas deben dejar estos modelos a un lado para cambiar a soluciones que brinden mayor agilidad y confiabilidad; que sean es-calables y con niveles significativos de eficiencia y rendimiento. Estassoluciones también deben contribuir tanto a bajar los gastos de inver-

sión como de operación, abriendo paso a que las or-ganizaciones enfoquen sus esfuerzos a la innovacióny la competencia.

Como ejemplo del abanico de retos que enfren-tan actualmente las organizaciones de TI, veamos elcaso de la infraestructura de cómputo. La virtuali-

zación ha tenido un gran impacto en esta área, ya que eleva el uso de los servidores por medio de má-quinas virtuales y por lo tanto permite consolidarel hardware. Sin embargo, estos beneficios acarreannuevos retos ya que ahora se requieren administrar y monitorear las máquinas virtuales. Adicionalmente,la falta de estandarización de hardware y softwaredificulta la consolidación. En sí, la virtualizaciónprovocó una reacción en cadena ya que aumentaronlos requerimientos de memoria, redes, aplicacionesy mejores mecanismos para la administración de TI,además que debe existir una integración de ellos.

 Siguientes pasosUna vez superados estos retos, lo siguiente es lograr que las TI seanla máquina que impulse a la organización por medio de niveles altosde eficiencia, agilidad y gestión de costos.

• Infraestructura convergente. Se refiere a evolucionar de una simple virtualización a una infraestructura convergente con servi-dores, almacenamiento, aplicaciones y networking que sean cen-tralizadas y simplificadas.

• Movilidad. Otro requerimiento para ser competitivo es habili-tar una fuerza de trabajo móvil y siempre conectada: en cualquier

momento, en cualquier lugar y cualquier dispositivo de acceso. La organización de TI no solo debe ser capaz de habilitar esto, sinode controlarlo.

• Almacenamiento. No basta con ser capaz de almacenar gran-des cantidades de datos; se deben crear estrategias que organicen y administren los datos adecuadamente, además de hacerlos dispo-nibles hacia los sistemas y dispositivos requeridos, todo ello guar-dando las políticas de seguridad de información requeridas.

• Servicios administrados en la nube. El modelo de la adminis-tración de hardware y software en virtualización cambia y se enca-mina a un modelo más eficiente donde se manejan servicios en la 

nube o como un híbrido en tecnologías de la nube y virtualización.

ConclusiónExiste una conciencia de que la tecnología tiene que evolucionar.Por ejemplo, un 70% de los altos directivos espera un cambiosignificativo en su departamento de TI. Los altos directivos queinvolucran a los directores de sistemas en la estrategia del negocioreconocen el valor de los mismos, así como los beneficios finan-cieros de implementar una estrategia de negocio vinculada a lastecnologías de información.

››Por Carlos Love 

Carlos Love es Gerente deMarketng Sr. enDe para a regónde Latnoamérca,y conerencs-ta en e centroejecutvo de Deen Austn. En sucarrera proesonaha desempeñadoderentes pos-cones ejecutvasa nve munda yLatnoamérca endversas organ-zacones de TI enespeca e área deventas, consuto-ría y marketng.Caros tene unaMaestría en Ad-mnstracón conespecadad enMercadotecna porparte de ITESM. 

Apuntando os

 Nuevos Retos de TI ›› “LAS EMPRESAS DEBEN CAMBIAR 

A SOLUCIONES QUE BRINDEN MAYOR 

AGILIDAD Y CONFIABILIDAD”

Page 21: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 21/6019

Para McAfee, hablar de las fuerzas que impactan en la seguridad in-formática es sin duda alguna mencionar una multitud de elementos

que convergen en un mismo frente. Hoy en día podemos ver que las or-ganizaciones están enfocadas en redefinir su Data Center con una notabletendencia a la virtualización en donde es importante no sólo considerarcubrir los cambios de seguridad sino también las regulaciones legales.

 Ya no es suficiente presentar un reporte anual, mensual o inclusodiario de la situación de la seguridad en nuestras organizaciones, re-querimos saber qué sucede segundo a segundo ante la rapidez de la 

información. ¿Cómo sumar teléfonos móviles y tablets a los ambienteslaborales? ¿Cómo habilitar a nuestros colaboradores en ese mundo di-gital? o ¿Cómo evitar las soluciones parciales en el complejo ambienteempresarial? son preguntas constantes que para McAfee se englobanuna misma solución: la necesidad de una plataforma de seguridad.

La protección contra nuevas generaciones de malware desde el sili-cio hasta la nube, la seguridad por segmento y origen dentro de la or-ganización así como la anticipación frente a amenazas persistentes, sudescubrimiento y eliminación inmediata centran, sin duda alguna, losnuevos foros de discusión que impactan la seguridad y las tendencias delcomplejo escenario en donde una estrategia informática se vuelve vital.

La nueva era nos lleva a redefinir conceptos como la protección delEndpoint, integrando dispositivos móviles o servicios en la nube donde es

necesario proteger efectivamente inclusive nuestra propiedad intelectual. Aunado a ello, cada empresa enfrenta el desafío del manejo optimizadodel presupuesto operativo sin sacrificar la adaptación de dichas medidas.

En McAfee sabemos que los cambios que se enfrentan en la seguridadno responden a una cuestión básica de “poder”, no cuestionamos el po-der bloquear, poder eliminar, poder encontrar o incluso poder proteger,la pregunta trascendental es cómo las organizaciones deberán hacerlo,cómo manejar esta nueva complejidad con los recursos disponibles.

La misión no es ser una solución reactiva, sino mantener un estadooptimizado de la seguridad. Cubrir con los requerimientos legales y formales donde se acorten las brechas, se maneje procesos eficientes y se defina aún más el destino de los datos.

McAfee ha planteado una nueva y exclusiva postura frente a la optimización, una postura de seguridad definida, con mayor gober-nabilidad y tecnología sin sacrificar la reducción de costos.

El valor relacionado con el término Security Connected Platform de McAfee está basado en su arquitectura de la integración y agudeza de las soluciones. Integrar se traduce en convertir los distintos frentesde seguridad en uno solo más eficiente, lo que sumado a solucioneseficaces que comparten información a través del Endpoint, la red y los sistemas de inteligencia de amenazas proveen al cliente de una 

poderosa defensa ante los múltiples ataques a su información.Tener visibilidad en tiempo real permite un mayor entendimiento delproblema y por ende una mejor respuesta. Sin lugar a dudas, el liderazgode McAfee y su visión sobre Security Connected lo posicionan hoy comola mejor opción en la búsqueda de una seguridad mayormente integrada y lista para enfrentar cualquier reto que se presente en esta nueva era digital.

Mantener el liderazgo en los principales productos de seguridaden el mundo nos da hoy como compañía una posición obligada deresponsabilidad frente a los nuevos retos de protección. En McAfee asumimos el compromiso de conectar todas las soluciones para llevara la industria de la seguridad a un siguiente nivel.

Carlos G. Gonzalez 

Director Senior de

Operaciones Tecnológicas

Contáctenos:

 [email protected]

.PUBLIRREPORTAJE

LA SEGURIDAD EN LA NUEVA ERA DIGITAL.

Page 22: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 22/60

Uno de los principales retos a los que se enfrentan las organi-zaciones actualmente es la administración de una gran cantidad deinformación estructurada y no estructurada, por lo que es impor-tante contar con herramientas que les ayuden a procesar de manera rápida y eficiente grandes volúmenes de datos a fin de tener una toma de decisiones oportuna garantizando operaciones exitosas; a grandesrasgos, este es el reto que conocemos como Big Data.

En la actualidad, las empresas requieren un acceso garantizado einstantáneo a sus datos y aplicaciones empresariales, a costos razona-bles, para tomar decisiones de forma eficiente e inmediata.

Existen soluciones móviles que permiten el dinamismo de losprocesos de negocio y de la información en las principales indus-trias, como productos de consumo, energía, servicios financieros,

telecomunicaciones, manufactura, gobierno o retail, entre otras.Las soluciones móviles integradas a la plataforma de herramientasde gestión empresarial, permiten la movilización de los procesos denegocio y de la información ya que este software permite manejaruna gran cantidad de información y realizar búsquedas ad hoc decientos de usuarios al mismo tiempo reduciendo los costos admi-nistrativos en un 75%.

Para hacer aún más ágiles los procesos y obtener resultados enun menor tiempo es posible combinar la solución de movilidad enuna plataforma de cómputo in-memory y así analizar grandes volú-menes de datos de operaciones para obtener respuestas inmediatas.Con esto, los usuarios de negocio pueden instantáneamente explorary examinar la totalidad de sus transacciones y analizar datos desdeprácticamente cualquier fuente de datos en tiempo real.

Las organizaciones necesitan de herramientas que les permitansaber en tiempo real lo que está sucediendo al interior de sus procesospara así ajustarlos de manera inmediata y responder a los riesgos o a las oportunidades que se van generando día a día, además de realizaranálisis predictivos para una mejor toma de decisiones. Un aspectoimportante que ayuda a tener una respuesta casi inmediata es que

ya no solamente se tienen los datos en los servidores internos de lasempresas, sino que ahora, es posible tenerlos en la nube y así consul-tarlos desde cualquier dispositivo móvil.

Hacer que las empresas grandes o pequeñas y de diversos sectores seanmás asertivas en su toma de decisiones y en sus procesos internos y externoses un gran reto, sin embargo esto será posible al contar con un aliado denegocios que le brinde las herramientas y soluciones necesarias.

¿Cómo

DescubrimosInformación Valiosa?

— Por Esther Riveroll

BIO:Esther Rveroll es Vcepresdente de Innovacón en SAP Méxco y Centroamérca http://www.sap.com/mexco

“Las organizaciones necesitan de herramientas

que les permitan saber en tiempo real lo que

está sucediendo.”

20

Page 23: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 23/60

BIO:Sslla García Ramírez es consutora senor en SAS Latnoamérca Norte. Cuenta con dez años de experenca en gestón de datos para dversas

ndustras. Actuamente es a consutora experta en temas de Vsua Anaytcs, Busness Integence y Busness Anaytcs en SAS.

“Lo importante es ir

más allá del Business

Intelligence.”

En épocas del Big Data —es decir del crecimiento exponencialde los datos—, es importante democratizar la información dentro denuestras organizaciones.

En una reciente encuesta realizada por Source Media y SAS entremás de 300 ejecutivos de TI globalmente, destaca que sólo el 12 porciento de las empresas ya están utilizando Big Data; esto significa que la gran mayoría está en vías de desarrollo para implementar suestrategia de altos volúmenes de información.

Inmersos en un mercado de TI que constantemente habla delBig Data como un reto actual que enfrenta el mundo empresarial, esinteresante cómo esta encuesta revela la razón de las organizacionespor no estar de esta ola de información:

• 21% no sabe lo suciente sobre Big Data.• 15% no entiende los benecios.

• 9% carecen de soporte en el tema.

• 9% no tienen calidad de datos en sistemas existentes.

Pareciera crítico, sin embargo es una gran oportunidad para to-mar una posición competitiva en nuestros nichos de negocio. Y es aquícuando las soluciones de visualización de datos toman mayor fuerza.

De hecho, la misma encuesta mencionada previamente arrojóque el análisis de datos es una prioridad en dichas áreas de nego-cio, siendo así que las soluciones de visualización de datos tomanrelevancia con un 73 por ciento, seguido de un 53 por ciento para el perfilado de datos y un 44 por ciento para soluciones de SaaS

(Software as a Service).La visualización de datos nos permite acceder a nuestra infor-

mación para elaborar modelos de regresiones o correlaciones dedatos. En el mercado existen diversas opciones, aunque al consi-derar que tenemos grandes volúmenes de información y una diná-mica acelerada del negocio, es importante inclinarse por aquellas

que nos ofrecen acceso rápido, sencillo, fácil y completo a toda la información de nuestro sistema.

 Actualmente, muchas de las empresas acceden a su informaciónmediante aplicaciones de Office, portales web y muy pocas a travésde dispositivos móviles. Hoy la visualización de datos basada en ana-lítica avanzada permite acceder a la información vía web, en sitio y a través de tabletas móviles.

Lo importante es ir más allá del Business Intelligence, es decirdel simple reporte de la información de nuestras áreas de negocios.Hoy, es necesario dar inteligencia al negocio democratizando la re-cepción de datos. La visualización de datos nos permite de manera gráfica representar los escenarios de negocio, reportar lo que hacemos

bien y mal, así como explorar los datos y, dependiendo los roles deejecutivos, preparar los datos en reportes ejecutivos vía web o móvil. Además entre las funcionalidades de la visualización de datos ba-

sada en analítica avanzada está el alto desempeño, manejo de millo-nes de registros, así como la exploración, descubrimiento, informa-ción, distribución de los datos sin importar el giro, industria o nichodel negocio. En otras palabras, la visualización de datos permite tener

 jerarquías predefinidas para navegar en nuestra propia información, y sin importar el volumen, acceder a todos los datos de manera rápida.

Conclusión Actualmente existen soluciones de visualización de datos basados enanalítica avanzada sencilla que permiten obtener información clave

de manera más rápida y diseñada para todas las áreas del negocio.Esto significa que hoy es posible tener una vista holística de nues-

tra información y democratizarla de manera gráfica en tiempo real y a los niveles ejecutivos adecuados. Sin duda, esta es una manera an-ticipada y preventiva para alinear las estrategias analíticas en tiemposdel big data.

Democraticesu Información

— Por Sislila García 

21

Page 24: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 24/60

¿Te has preguntado alguna vez cuántos datos se generan al realizartus actividades diarias? Desde cuántos litros de agua usas en la ducha,la cantidad de gas utilizada para el desayuno, el consumo de combusti-ble de tu auto para desplazarte, las calorías quemadas en el gimnasio, elnúmero de interacciones en tu perfil de Facebook, tus patrones de com-pras al ir al supermercado, hasta el número de páginas leídas en un libroelectrónico antes de dormir; todo lo que hacemos, genera información.

En todas las empresas y organizaciones, cada vez se generan más da-tos provenientes de sistemas operacionales, puntos de venta, dispositivosmóviles e incluso sensores y sistemas de geo-referenciación (GPS). Esteocéano de datos es lo que conocemos como Big Data. Las organizacio-nes han aprendido a reconocer la riqueza de información que existe de

manera inherente en estos volúmenes de datos, algunas han sabido ex-plotarla, otras no saben cómo abordarla y mucho menos encontrar las“perlas valiosas de información” dentro de ese océano.

El análisis big data se ha convertido rápidamente en la nueva frontera de diferenciación competitiva. No importando el rubro o vertical de ne-gocio, para ser exitosas, las organizaciones deben aprender a manejar estosgrandes volúmenes de información de manera eficiente para una toma dedecisiones que les permita ser mejores y diferenciarse de su competencia.

¿Cómo manejar tanta información?Para lidiar con los grandes volúmenes de datos generados por los medioselectrónicos mencionados anteriormente, es necesario utilizar sistemasno solamente potentes, sino también inteligentes: es decir, hardware no

solamente con alta capacidad de almacenamiento sino también de pro-cesamiento. El fenómeno big data ha impulsado la incursión de nuevos

 jugadores y tecnologías basadas en el procesamiento paralelo. El proyectoHadoop —un framework open source para el procesamiento masivo dedatos— ha expuesto las bondades de la tecnología MapReduce, la cualconsiste en el procesamiento en paralelo de tareas diseminadas en sub-tareas más pequeñas en un clúster de servidores.

Indudablemente, el primer paso para controlar este océano de in-formación es considerar una plataforma de almacenamiento robusta y orientada a altos volúmenes de datos. Dependiendo de las necesi-dades y contexto, esto se puede hacer ya sea con hardware propio entu data center, en la nube, o en un esquema híbrido.

Trabajando con datos heterogéneosPocas veces la información se encuentra condensada en una sola pla-taforma; en realidad se encuentra dentro de un ecosistema de fuentesrelacionales, multi-dimensionales, Web services o incluso en la nube,tales como datos en SalesForce o redes sociales. Las plataformas deBusiness Intelligence y Business Analytics nacieron como respuesta a estas necesidades donde no sólo es suficiente consolidar las fuentes dedatos, sino contar con una serie de características que proporcionenvistas rápidas de la información optimizando al máximo los recursosde almacenamiento disponibles.

Las capacidades Push-down analytics para fuentes VLDB (Very Large Database) de estas plataformas BI, permiten generar consultas

optimizadas dependiendo de la fuente de información, delegando la mayor carga posible a la base de datos (BD).Otra característica cada vez más común en las plataformas moder-

nas de BI es la capacidad de almacenar Cubos en memoria. Como sunombre lo indica, esto consiste en crear cubos para responder las con-sultas más predecibles/frecuentes y que estos se almacenen en memoria RAM para agilizar al máximo su tiempo de respuesta; digamos que escomo un cache para análisis de datos. La figura 1 ilustra este concepto.

Figura 1. Almacenamiento y consulta en cubos de memoria.

 Anteriormente, este tipo de capacidades como tener cubos enmemoria eran impensables o requerían hardware muy caro. Sin em-bargo, hoy en día es perfectamente posible y accesible.

¿Explorando el

Océano de Datos— Por Jorge A. Hernández y Ernesto Ceballos

22

Page 25: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 25/60

Hasta este punto hemos hablado sobre cómo lograr que la in-formación esté agregada y lista para ser accedida de forma rápida y eficiente. Adicional a esto, las herramientas de Business Intelligencemodernas proporcionan una navegación de los datos en cualquierdirección (drill-down/up/anywhere) y con algoritmos de minería dedatos que habilitan la capacidad de predecir comportamientos futu-ros y/o descubrir patrones en estos altos volúmenes de información.

Descubriendo información valiosaUna vez teniendo una plataforma de base de datos optimizada para altosvolúmenes de datos y un software de Business Intelligence, la incógnita es ¿cómo encontramos las “valiosas perlas” en ese océano de información?

Se ha acuñado un nuevo término para esta necesidad: “Data Dis-covery” (descubrimiento de datos).

Las herramientas BI cuentan con extensas librerías de visualiza-ciones que permiten la rápida interpretación y análisis de altos vo-lúmenes de datos. En tan sólo unos cuantos clicks permiten crearsemáforos personalizados, por ejemplo; encontrar en un mapa losdiez puntos de venta más rentables, resaltándolos en color verde so-bre miles de puntos en otro color representando el resto. Muchasde las visualizaciones disponibles extienden las capacidades gráficastradicionales (gráficas de barras, gráficas de líneas, etc.) y son reem-plazadas por nuevos tipos de gráficas que facilitan la visualización de

varias dimensiones de datos, así como la relación entre estas. Ejem-plos de estos son: burbujas interactivas, mapas de densidad, redes deasociación, etcétera. Las figuras 2 muestra un ejemplo de un mapa dedensidad, en este caso refleja el volumen de ventas de cierto produc-to, mapeado geográficamente.

Figura 2. Ejemplo de un mapa de densidad.

 Además de las bondades mencionadas, el data discovery le brinda al usuario final el auto-servicio necesario para responder rápidamentea sus preguntas de análisis sin tener que esperar a la creación de re-portes por parte de TI.

Una vez encontradas las “valiosas perlas” durante la fase de visua-lización y exploración, ¿cómo las convertimos en recursos activos denegocio? Las plataformas de BI pueden convertir los hallazgos de la fase de data discovery en vistas operativas conocidas como tablerosde control (dashboards) e incluso hacerlos accesibles a través de una infraestructura en la nube y dispositivos móviles. Estos tableros ten-drán información digerida que permitirán a las organizaciones tomardecisiones puntuales sobre el negocio.

Enriquecimiento con datos sociales¿Es posible además controlar y explotar la fuente big data másdinámica y reciente: las redes sociales, y combinarla con nuestroshallazgos previos?

En el mercado existen herramientas para el análisis de redes so-ciales que le permiten a las organizaciones explotar todo el conoci-miento estadístico generado en ellas para mejorar el posicionamien-to de nuevos productos y la planeación estratégica de campañas demarketing. En un ejemplo concreto, se puede saber dónde ubicarun nuevo restaurante que va dirigido a un segmento de la población

comparando la ubicación planeada con las ubicaciones frecuentadaspor ese segmento de acuerdo a las redes sociales. Además se puedesaber qué figuras públicas son más afines a una marca para una estra-tegia de promoción.

ConclusiónComo se ha visto, la tecnología nos ayuda a aprovechar el océanode datos cada vez más creciente y encontrar un beneficio que lepermita a las organizaciones ser más competitivas. La visualiza-ción de datos es una herramienta importante para facilitar la de-tección de información valiosa.

Los sistemas de almacenamiento, explotación y visualización delos datos cada vez serán mejores y más potentes. No obstante, sóloel tiempo, la creatividad y nuevas regulaciones impuestas sobre usode big data definirán cómo este fenómeno afectará el día a día de lasempresas y nosotros mismos.

BIO:Jorge Alejandro Hernández Bonlla es Ingenero de Preventa en McroStrategy Méxco y proesor por e ITESM en BI y Mnería de Datos.

Ernesto Ceballos Neto es Ingenero Senor de Preventa en McroStrategy Méxco, tenendo a su cargo a competenca técnca en ccos de ventas

con centes y prospectos premum.

“¿Cómo encontramos las “valiosas perlas” en

ese océano de información?”

23

Page 26: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 26/60

Estimado lector, quisiera comenzar este artículo pidiéndote quepienses en las marcas que admiras. En el sector de TI sería comúnpensar en marcas innovadoras como Apple o Google, pero si nosmovemos a otros sectores encontramos casos como Coca Cola, Star-bucks o Disney que, curiosamente no ofrecen un producto necesa-riamente nuevo. Entonces, ¿qué tienen en común estas marcas queprovocan nuestra afinidad hacia ellas?

Si observamos, nos daremos cuenta que estas marcas son capaces detomar un producto y transformarlo en una experiencia para sus clientes.

La experiencia para los clientes es un factor fundamental para eléxito. Tan es así, que el estudio “Percepción sobre el servicio al clienteen México” realizado por la empresa InSitum arrojó que el 55% delos consumidores mexicanos decide la contratación de un servicioo la compra de un producto por la calidad en la atención a cliente,mientras que menos del 30% hace la elección por el precio.

La pregunta es, ¿cómo podemos ayudar desde nuestras áreas detecnología a entender mejorar la experiencia del cliente? Todos los días

tenemos un sinfín de interacciones con nuestros clientes: visitas a nues-tro sitio web, visitas a nuestras instalaciones físicas, menciones en redessociales, llamadas al call center, etcétera. Todos estos son eventos quetienen un significado y un valor para el negocio: son oportunidades para mejorar la experiencia de nuestros clientes. Actuar de manera oportuna sobre esos eventos se convierte en una necesidad primordial para las or-ganizaciones, ya que quien puede entender la relación entre un eventoy otro tiene la capacidad de responder de manera oportuna e, inclusoadelantarse, a las necesidades del cliente. Para lograr esto es necesariodejar atrás los paradigmas de procesamiento transaccional y los métodosde explotación de información tradicionales. Parafraseando a Vivek Ra-nadive: “un poco de información sobre un evento ahora, es mucho másimportante que terabytes de información de hace una semana.”

Hoy, por primera vez en la historia, tenemos la capacidad tecno-lógica para no solo almacenar grandes volúmenes de datos, sino para poder analizarlos en tiempo real, pudiendo incluso predecir tenden-cias y modificar el comportamiento de procesos.

Estos son algunos ejemplos de empresas que procesan informa-ción en tiempo real para dar un mejor servicio a sus clientes:

• Delta Airlines gestiona todos los eventos relacionados con pasa -

 jeros, equipaje, clima y sensores de los aviones para evitar que la 

maleta de los clientes viaje sin ellos.

• Southwest Airlines gestiona los eventos de servicio en tiempo real

para notificar inmediatamente a todo el personal si un cliente ha 

tenido una mala experiencia de servicio y actuar en consecuencia.

• MGM Resorts analiza el comportamiento de juego de sus clien-

tes VIP para realizar proactivamente acciones de servicio.

De esta forma, el reto de los CIOs y de las áreas de Tecnología estransformar la visión transaccional de la empresa a una visión de eventos:pasar de gestionar datos a identificar eventos relevantes en cada punto decontacto con el cliente y establecer redes de estos que representan cono-cimiento de negocio y una llamada a la acción en este momento y actuarproactivamente para mejorar la experiencia de los clientes.

Ejemplos de lo que podemos hacer, hay muchos: Si un cajeroautomático retiene mi tarjeta, sería buenísimo llamar al centro deatención (o mejor aún, ser llamado) y que el ejecutivo me proporcio-ne información de la oficina más cercana donde ya me esperan conuna tarjeta no personalizada lista para ser usada. Si tengo un choque,poder adelantar el trabajo del ajustador mientras puedo monitorear

qué tan cerca está de mí y él pueda llegar en poco tiempo. Si el super-mercado me ofreciera al entrar a la tienda las ofertas que tiene para mí basado en mis hábitos de consumo me ayudaría a comprar mejor.

Todo esto es posible hoy y las organizaciones que se adelanten a atender las necesidades de sus clientes serán las que tendrán mayoréxito en el futuro.

ExperienciasMemorablesEl futuro de la afinidad hacia las marcas

— Por Javier Solano Vázquez 

BIO:Javer Solano Vázquez es co-undador y Drector de Operacones en Lnko, empresa de servcos de TI. Cuenta con más de 13 años de experenca

en servcos de consutoría con prncpa enoque en a ndustra inancera. Sus áreas de especadades ncuyen: IT governance, IT servce manage-

ment, project management, arqutectura empresara. http://www.lnko.mx @lnko_b2xs 

“Un poco de información sobre un evento aho-

ra, es mucho más importante que terabytes de

información de hace una semana.”

24

Page 27: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 27/60

La información es indudablemente el activo de negocio más impor-tante de toda organización. De tal manera que, un mal manejo de la infor-mación puede afectar la toma de decisiones al no haber procesos, políticasy tecnología que permitan garantizar la confiabilidad de los datos.

El término de Gobernabilidad se refiere precisamente a ese con- junto de políticas que definen cómo es que se deberían de administrarlos datos. Sin este proceso establecido, los datos generados día con día dejan de ser verificados, se encuentran incompletos y desactualizados.

 Ahora bien, pensemos en el mundo de big data en donde los datostienen comúnmente una vida útil corta y además se pueden acumularrápidamente, de manera que se vuelve imperativo definir las políticasdel ciclo de vida de éstos evitando dicha acumulación y así determinar

cómo y cuándo eliminar y mantener los datos.Big data está cambiando las características de los datos de cada sistema y para hacerlos utilizables necesitan ser gobernados de una ma-nera más segura y confiable. Recordemos los aspectos de big data de-finidos a través de las 4 V’s: volumen, velocidad, variedad y veracidad.El aspecto de la veracidad cobra especial importancia ya que necesita-mos confiar en la información que utilizamos para tomar decisiones.¿Cómo poder intervenir en la información si no es confiable?

Depurando el big dataSi bien es posible pensar que cualquier forma de gobierno o intentopor “limpiar” nuestra big data en realidad podría eliminar informaciónvaliosa, es necesario determinar si los datos deben limpiarse con el mis-

mo criterio que se aplicaría a los datos tradicionales o si se pierde valoral hacerlo. Entonces, ¿deberían establecerse procesos de gobernabilidadde datos para Big Data?, la respuesta es sí, aunque va directamenterelacionado con el objetivo de los datos.

Existen diversos casos de uso, por ejemplo, el análisis de clientes,el cual se ve más beneficiado cuando los datos tienen mayor calidad.

Sin embargo otros casos como el análisis de identidades sospechosas,requiere que los datos sean analizados exactamente cómo son introdu-cidos para descubrir patrones de identidad falsos.

Muchos casos de big data incluyen el análisis de información sen-sible; de tal modo que las organizaciones deben definir las políticas deseguridad para proteger dicha información y esas políticas deben sermonitoreadas y aplicadas.

Otro caso interesante es la integración entre un proyecto de gestiónde datos maestros (MDM) y big data. Por ejemplo, se pueden extraerlos acontecimientos importantes sobre las redes sociales tales como uncambio en el estado civil, el nacimiento de un nuevo integrante de fa-milia o un cambio de domicilio para enriquecer la información maes-

tra actuando como un tipo de fuente de ese sistema. Así, MDM puededesempeñar un papel fundamental en las iniciativas de gobernabilidadpara Big Data, proporcionando una única versión, obteniendo comoresultado final información valiosa.

ConclusiónDurante el proceso de gobierno de datos, la primera etapa, y la másimportante, es decidir si nuestro big data necesita ser gobernada, y enqué medida tiene que serlo. El llevar a cabo esta decisión, puede ser la clave en el éxito del diseño de sus proyectos, pues ese es el verdaderovalor de la integración de información y su gobernabilidad. El éxitoen el análisis de grandes volúmenes de datos depende finalmente en la extracción y entrega de información de confianza.

Referencias 

[1] S. Soares. Big Data Governance: An Emerging Imperative. MC Press, 2013.

http://swgu.ru/sg40r11

[2] P. Zikopolous et al. Harness the Power of Big Data. McGraw-Hill, 2013.

http://swgu.ru/sg40r12

BIO:Rcardo Barranco Fragoso es especasta en Inormaton Management en IBM Méxco. Sus áreas de especadad son: bg data, master data

management e ntegracón y cadad de datos. Prevo a su ncorporacón a IBM, Rcardo partcpó en dversos proyectos de sotware como desa-

rroador, íder técnco y arqutecto.

“Necesitamos confiar en la información que

utilizamos para tomar decisiones.”

La Importancia de GobernarInformación en la Era de

Big Data— Por Ricardo Barranco Fragoso

25

Page 28: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 28/60

En el mundo de los negocios solemos mostrarnos indecisoscuando se habla de algo relativo a “big” (grande). Una gran idea ennegocios puede generar un éxito relevante, pero también un fracasosignificativo, lo que podría atentar contra la salud de la compañía envarios sentidos. Por ello, el concepto asociado a “big” habitualmentenos obliga a detenernos al menos por un momento. ¿Se acuerdande Enron? El crecimiento desmedido de esta organización provocó,entre otros factores, su apocalíptico final.

La desventaja real del concepto “big” camina en paralelo al riesgoplausible de error. El otro principal inconveniente estriba en que aquellosque han decidido que su empresa dé el paso hacia objetivos mucho más

ambiciosos, suelen minimizar el riesgo de lo que supone ese movimiento.El fenómeno del big data goza de la misma ambigüedad. ¿Esrealmente útil para nosotros? ¿Tiene mi compañía esta necesidad?¿Contamos con los recursos para afrontar un proyecto de big data? ¿Cuánto costará? Uno se podría cuestionar indefinidamentesi los beneficios están por encima de los riesgos. Pero tengamosclaro que cuantas más cuestiones nos hagamos, más arriesgadonos parecerá el proyecto.

Otra desventaja de lo que entendemos como “big” es que estetérmino suele conducir a aquellos que toman decisiones en una em-presa a emplear una actitud pasiva en muchos aspectos. Por ejemplo,esperarán hasta que sus competidores den el paso y aprenderán desus errores e implementarán su propio proyecto cuando llegue el mo-

mento adecuado. El problema de esta actitud es la presuposición porparte de estos directivos de que podrán aglutinar rápidamente unequipo de primer orden para reducir la brecha que sus competidoreshan abierto al haberse arriesgado a apostar con éxito por el fenómeno“big”. Cualquier entrenador de fútbol sabe que esto no es posible —ya que se requiere de mucha investigación y trabajo con los jugadores

para contar con un equipo real de alto nivel, y este factor es aún másimportante para nuevas disciplinas donde el talento es escaso.

Por todo ello, la clave no estriba en si debo o no debo hacerlo, sinoen cómo he de empezar.

La mayoría de las compañías se empeñan en encontrar un caso deuso, y frecuentemente los más relevantes están relacionados con el aná-lisis de los datos que generan las máquinas. El problema con esto es quetodavía son muy pocas las compañías que tienen la capacidad y equipa-

miento para generar esta información.Sin embargo, hay otra fuente de big data con la que toda compa-ñía exitosa cuenta: el cliente. Los datos relativos al cliente sustentanuna riqueza palpable en materia de información relativa a marcas,productos, atención al cliente, sentimientos del consumidor, satisfac-ción del cliente y su impacto en las ventas. Esto se almacena en silos,que pueden parecer pequeños almacenes de información. Pero si sequiere ganar en visibilidad, las compañías deben analizar los datosde sus clientes de una manera plena. Integre los datos de sus clien-tes provenientes de todas las fuentes existentes y ¿qué obtendrá? ¡big data! Datos tanto estructurados como desestructurados, aunque la mayoría de comentarios que depositamos en las redes sociales, blogsy correos electrónicos son desestructurados.

Este big data es el más relevante para las compañías, puesto quelas ayuda a recabar patrones sobre comportamientos, tendencias, in-cidencias de producto e incluso ideas para el desarrollo de nuevosproductos. Los sistemas y herramientas para extraer y analizar estetipo de big data ya están disponibles. Modificar su actitud ante estereto es el riesgo que ha de asumir.

Las Desventajasde Big Data— 

Por Rado Kotorov 

BIO:Rado Kotorov, es Vcepresdente munda de marketng de producto en Inormaton Buders y trabaja para as dos íneas de producto de a compa-

ñía: WebFOCUS (Busness Integence) e Way (cadad e ntegracón de datos).

“Las compañías deben analizar los datos de

sus clientes de una manera plena.”

26

Page 29: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 29/60

Hoy en día las organizaciones luchamos para obtener una perspec-tiva de negocio a partir del gran volumen de datos que generamos día a día. Para nuestras organizaciones, el principal desafío es aprender cómoprocesar eficazmente todos estos tipos de datos sin la carga de la creaciónde almacenamiento distribuido complejo y clusters de cómputo.

Con el fin de generar una ventaja competitiva, las organizacionesbuscan una forma eficaz de combinar los datos que generamos interna-mente con los que se producen externamente —principalmente en lasredes sociales— y generar con la combinación de ambos, conocimien-tos que nos lleven a servir mejor a nuestros clientes actuales y generarnuevas oportunidades de negocio.

Antecedentes Antes de proseguir, revisemos algunos de los factores que mayor impactotienen en la forma en la que estamos administrando nuestra información.

• El crecimiento anual del volumen de información en la red es de

59% y sigue en aumento.• El grueso de estos datos son no estructurados. El requisito para 

almacenar y analizar datos estructurados y no estructurados juntos seha convirtiendo en una nueva norma para las organizaciones.• El cómputo en la nube y el hardware han reducido radicalmente

el costo de adquisición para la capacidad de cómputo y almacena-miento. Esto está cambiando fundamentalmente la economía para el procesamiento de datos.

Nuevas capacidadesComplementando a los factores previamente mencionados, las orga-nizaciones se ven en la necesidad de procesar, analizar y visualizar losdatos conforme se generan.

Las empresas que quieren impulsar su “Big Data IQ” necesitantener la capacidad de analizar datos a medida que están siendo genera-dos y luego tomar la acción apropiada. Esto busca entregar resultadosde entendimiento de mercado antes de que el de dato se almacene, esdecir analizar los tipos de datos en movimiento (streaming) y derivaren el análisis de los mismos.

Para dar visibilidad al negocio de lo que el mercado necesita, conlos datos que fluyen a través de nuestra organización, debemos apro-

vechar los datos ganando tiempo para obtener ventajas competitivasen nuestro negocio. Aquí es donde entran en juego soluciones para análisis de datos en movimiento que permiten aprovechar las técnicasde procesamiento para análisis de datos en tiempo real y así tomar ac-ciones contra nuestros competidores y mejores decisiones de negocio.

 Analizados los datos enfrentamos el reto de la visualización. Dondeno solo debemos considerar la integración de datos estructurados y noestructurados sino también una visualización del análisis que sea rápi-da, confiable y simple para todas las áreas del negocio.

Nuevas tecnologíasEn los últimos años han surgido nuevas tecnologías para poder hacerfrente a estos retos. Posiblemente la más conocida es Hadoop, un fra-mework open source para el procesamiento masivo de datos. Hadoopestá diseñado para responder a las necesidades modernas de almace-namiento y análisis de enormes volúmenes de datos no estructuradosbajo un modelo económicamente rentable.

Hay que tener en cuenta que Hadoop es un framework poderosopero complejo, así que recomendamos que busque una solución quefacilite la instalación y administración de Hadoop, haciéndolo más ac-cesible a los usuarios. También tome en cuenta elementos como la inte-gración con su infraestructura existente, gestión de seguridad, y la posi-bilidad de desplegarse en escenarios híbridos de data center y la nube.

Recomendaciones Al comenzar una iniciativa de big data, nuestra misión debe ser ayudar a losusuarios a obtener información de nuestro negocio prácticamente con todoslos datos. Para lograrlo, debemos tener una estrategia integral que ofrezca:

• Una capa de administración de datos moderna que soporte todos

los tipos de datos en reposo o en movimiento.• Una capa de benecios completa que mejora los datos a través del

descubrimiento, combinándolo con los datos del mundo y refinán-dolos con análisis avanzados.• Una capa de Inteligencia que proporcione información a todos los

usuarios de negocio a través de herramientas confiables en tiempo real.

Nuestra decisión entonces para una plataforma Big Data debe incluirlas tendencias, tecnologías y la promesa de las organizaciones en generarideas reales con datos estructurados y no estructurados para habilitar el ob-tener mayor valor comercial y económico de nuestros activos de datos.

BIO:Janet Amezcua Rogel es especasta en Pataormas de Datos e Integenca de Negocos de Mcrosot Méxco. Otras de sus especadades son

a admnstracón de bases de datos, os sstemas en tempo rea y e cómputo de ato desempeño. [email protected]

Mguel Chanona Carmona es gerente de producto para Pataormas de Datos e Integenca de Negocos de Mcrosot Méxco.

[email protected]

“Analizados los datos enfrentamos el retode la visualización.”

Nuevos Retos e Implicaciones— 

Por Janet Amezcua y Miguel Chanona 

27

Page 30: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 30/60

El enfoque principal del Business Analysis es entender la necesidadque está detrás de cualquier iniciativa de negocio antes de iniciar algúnesfuerzo de proyecto y con esto asegurar que esté completamente alineadoa la estrategia institucional de la organización y que el objetivo del mismoestá claramente entendido.

El éxito en cualquier proyecto de Data Warehouse (DW) o BusinessIntelligence (BI) se determina al inicio del ciclo de vida del proyecto, cuan-do el analista capta los requerimientos del negocio. Una recolección defi-ciente de los requerimientos de negocio es una de las fallas más comunes enlos proyectos en general y eso incluye por supuesto los de gestión de datos.

Forrester define de manera amplia que “Business Intelligence es el con- junto de metodologías, procesos, arquitecturas y tecnologías que transfor-man los datos en bruto en información útil y con significado, para habilitaruna visión operativa y toma de decisiones más eficaz, estratégica y táctica”.Entre más datos se tengan, mayor es el reto, y este reto requiere una buena estrategia de Business Analysis.

Análisis EmpresarialEl área de conocimiento de Business Analysis que describe las activi-dades necesarias para identificar una necesidad de negocio y justificar

la inversión necesaria para solucionarla, es el Análisis Empresarial.Los resultados del Análisis Empresarial proporcionan contexto para el posterior análisis de requerimientos e identificación de solucionespara una iniciativa dada o para planeación a largo plazo. La figura 1muestra un diagrama con estas relaciones.

Figura 1. Relaciones entre las áreas de conocimiento del Business Analysis.

Evaluar la oportunidadDe acuerdo con Ralph Kimball, uno de los expertos más reconocidos enel área de DW/BI, existen tres áreas críticas que el analista requiere evaluardentro de la organización antes de estar listo para realizar un proyecto de BI.

1. El nivel de compromiso y de patrocinio del proyecto por la alta 

dirección.

2. El nivel de necesidad del negocio de crear una solución de BI.

3. La cantidad y calidad de los datos de negocio disponibles.

Identificar la necesidad del negocioLas necesidades y beneficios de una implementación de BI son algunasveces impulsadas por la competencia y la necesidad de ganar ventaja en elmercado. Otra razón es la adquisición de otras organizaciones que expan-den la organización original y que algunas veces puede resultar beneficiosoimplementar una solución de data warehousing o BI con el fin de teneruna mejor visión del negocio.

Con la finalidad de asegurar que existe una oportunidad de mejora sila iniciativa es atendida, el analista de negocio debe de considerar algunode los siguientes factores:

• Impactos adversos que el problema o necesidad está causando hacia 

adentro de la organización y cuantificarlos (pérdida potencial de ingre-sos, ineficiencias, clientes insatisfechos, baja moral de los empleados).• Benecios esperados por cualquier potencial solución (in-cremento de ingresos, reducción de costos, incremento de la 

participación en el mercado).• Qué tan rápido el problema puede ser potencialmente resuel-to o la oportunidad pueda aprovecharse así como el costo dehacer o de no hacer.• El origen real del problema.

Resultado DeseadoUn resultado deseado no es una solución. Este describe los beneficios denegocio que resultarán de atacar correctamente la necesidad de negocio y de lograr el estado final deseado por los usuarios. Las soluciones propuestasdeben ser evaluadas contra los resultados deseados para asegurar que pue-den entregar estos resultados.

Frecuentemente es difícil justificar los beneficios esperados para pro-

yectos de BI y a menudo estos deben de ser priorizados a través de inicia-tivas estratégicas.

 Algunas iniciativas estratégicas de negocio en las que se pueden apalan-car beneficios que justifiquen los proyectos de BI son:

• Crear una nueva capacidad del negocio como un nuevo

producto o servicio.• Atacar una desventaja competitiva, o crear una nueva venta -

 ja competi tiva.• Incrementar los ingresos, incrementando ventas o reduciendo costos.

• Incrementar la satisfacción del cliente.

• Incrementar la satisfacción del empleado.

• Cumplir con nuevas regulaciones.

Business Analysispara Proyectos de Datos— 

Por Gabriel Almeida 

28

Page 31: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 31/60

• Mejorar la seguridad.

• Reducir el tiempo para entregar un producto o servicio.

• Fortalecer y promover el acceso a los datos en toda la organización.

Los resultados deseados deben de atender un problema u oportunidady apoyar los objetivos y metas del negocio.

Como todo proyecto, es mejor demostrar beneficios tangibles talescomo el de eliminar costos por la producción de reportes regulatorios, la reducción de tiempo de acceso de los empleados de la organización a losdatos corporativos, etcétera.

Capacidades de la organizaciónSi las capacidades actuales son insuficientes para lograr los objetivosde negocio, el analista de negocio debe identificar las capacidadesque necesitan ser adicionadas. El analista de negocio desarrollará losmodelos, la información descriptiva sobre la visión futura y la des-cripción sobre el estado futuro de la organización.

Dado que los proyectos de data warehousing y BI están sustan-cialmente basados en los datos disponibles de la organización, antesde iniciar cualquier esfuerzo es necesario realizar un perfil de los da-tos. Este análisis identifica el contenido, existencia y estructura de losdatos y debe de hacerse lo antes posible y si éste demuestra la falta de

los datos necesarios para satisfacer la necesidad de negocio, es impor-tante considerar poner el proyecto en espera temporalmente mientrasel área de TI resuelve como recolectar la información apropiadamen-te. Algunos otros ejemplos de capacidades son:

• Procesos de negocio.

• Características de la aplicación de software.

• Tareas que un usuario nal puede desarrollar.

• Eventos que la solución debe tener disponible para responder.

• Productos que la organización crea.

• Servicios que la organización entrega.

• Metas que la solución permitirá, a los usuarios y al negocio, alcanzar.

Enfoque de Solución

El enfoque de la solución pretende describir el enfoque general que se to-mará para crear o adquirir las nuevas capacidades requeridas para satisfacerla iniciativa de negocio. Para determinar el enfoque de la solución, es nece-sario identificar los enfoques posibles, determinar los medios a través de loscuales la solución podrá ser entregada (incluyendo la metodología y el ciclo

de vida a ser usado) y evaluar si la organización es capaz de implementar y usar eficazmente una solución de esa naturaleza.

Cuando se planean los requerimientos para datos de negocio y busi-ness intelligence, siempre es recomendable considerar escenarios específi-

cos que aplican a la organización y entonces seleccionar las característicasde BI que mejor se ajusten a ese escenario.

Los pasos esenciales de BI que hay que tomar en cuenta cuando se está analizando el enfoque son:

• Cuáles son las fuentes de datos de negocio para recolectar los

datos requeridos.• Cómo convertir los datos de negocio en información y presentarla de

forma apropiada.• Cómo consultar y analizar los datos.

• Qué acciones se tomarán sobre los datos recolectados y quie-nes las realizarán.

Los elementos que se recomienda considerar al trabajar en el enfo-que de la solución pueden incluir: alternativas, supuestos, limitaciones,clasificación y selección de enfoques. Estos últimos pueden ser viabilidadoperacional, económica, técnica, de tiempo, organizacional, cultural, legaly de marketing.

Caso de NegocioEl caso de negocio describe la justificación del proyecto en términosdel valor añadido al negocio como resultado de la implementaciónde la solución de BI. El caso de negocio debe incluir también be-neficios cualitativos y cuantitativos, estimados de costo y tiempopara alcanzar el punto de equilibrio, expectativas de ganancias y seguimiento de oportunidades. También debe presentar las expec-

tativas de la consecuencia del flujo de efectivo sobre la acción deltiempo, junto con los métodos y razonamiento que fueron usadospara cuantificar costos y beneficios.

ConclusiónEl valor que aportan las prácticas de Business Analysis a la ejecuciónde proyectos es principalmente asegurar que los esfuerzos de una ini-ciativa están dirigidos a satisfacer necesidades reales de la organiza-ción y la medición de los resultados reales de las implementaciones.Cuando se realizan proyectos de Data Warehouseing o Business Inte-lligence, los esfuerzos suelen ser muy importantes y el desgaste de la organización al implementarlos es considerable.

El identificar puntualmente los beneficios que estas soluciones darán

a la organización y si la organización está en condiciones para soportarestos esfuerzos redundará en beneficios importantes a la organización alprevenirles incursionar en costosos proyectos que al no estar correctamentedimensionados se conviertan en proyectos problema con la consecuentepérdida de tiempo y dinero.

BIO:Gabrel Almeda, CBAP, es Drector de Servcos Educatvos y Proesonaes en Sean Méxco. Fue undador y prmer presdente de capítuo Méxco

de Internatona Insttute o Busness Anayss (IIBA), donde actuamente es VP de Desarroo Proesona. Estudó Lcencatura en Inormátca en

UPIICSA y tene 35 años de experenca en a ndustra de TI. [email protected]

29

“Antes de iniciar cualquier esfuerzo es

necesario realizar un perfil de los datos.”

Page 32: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 32/6030

.COLUMNACOLUMNA INVITADA

Cuando fui invitado a escribir este artículo para SG me dediquéa explorar temas, conceptos, reseñas, white papers, podcasts,

hasta fotocopias que tenía de cuando estudié la maestría, todo esocon el fin de darme una idea de qué escribir. Estaba inmerso en una gran cantidad de información, de cifras y datos, confieso que me es-taba comenzando a sentir abrumado y hasta angustiado. Fue cuandome dí cuenta de que lo que me estaba pasando era lo mismo quele pasa a muchas empresas al lidiar con el big data… así es, estaba ahogándome en mi big data personal.

El big data es el resultado de que casi todo está monitoreado y medido hoy en día; la velocidad a la cual se crean nuevos datos es másrápida que el avance en la creación de tecnologías disponibles para sualmacenamiento, procesamiento o administración. Adicionalmente,la mayor parte de los datos que recibimos no están estructurados,comúnmente recibimos “archivos” en lugar de un objeto relacionalSe podría decir que cerca del 80% de los nuevos datos que tenemosson datos no estructurados, simplemente son datos.

 Reto d e grandes y pequeñosTodas las organizaciones, sin importar su tamaño, están luchandopara manejar grandes volúmenes de datos. De acuerdo con IDC, enel año 2007 la cantidad de información creada, capturada o replicada superó por primera vez la infraestructura para su almacenamiento. Y la brecha continúa creciendo, el tamaño del universo digital este añova a ser diez veces más de lo que era apenas hace cinco años.

• De acuerdo con Forrester Research:

• La organización promedio aumentará el tamaño de sus datos en

un 50% en el próximo año.• En general, los datos corporativos crecerán en un asombroso 94%.

• Las bases de datos crecerán un 97%.

• La inversión en servidores de respaldo, para copias

de seguridad y para la recuperación de desastres y continuidad de operaciones se ampliará en un 89%.

Muchas organizaciones creen que puedenmanejar los grandes volúmenes de datos aumen-tando su infraestructura de almacenamiento.Suelen comprar más capacidad de almacena-miento cada 6 o 12 meses, lo cual no solamentese traduce en costos exorbitantes, sino que tam-bién agota a su personal, el cual se ocupa en ges-tionar datos en lugar de diseñar iniciativas estra-tégicas de TI. El no contar con una solución real

para la gestión de grandes volúmenes de datos hace ineficiente a cualquier organización.

Más allá de arquitecturas adecuadas para almacenar grandes can-tidades de datos y con una mejorada capacidad de procesamiento. La próxima frontera es aprender a manejar grandes volúmenes de datosdurante todo su ciclo de vida.

 Algo más de lo que debemos estar conscientes es que sin una buena administración de información, es muy probable que una gran parte de nuestro big data terminen siendo datos duplicados oredundantes. Pensemos tan solo en el caso de nuestra empresa, ¿quétantos datos duplicados almacenamos? Deduplicar los datos y gestio-nar copias únicas no es una tarea trivial.

Comenzar desde el recurso humanoConsidero que más allá de infraestructura, costos, procesos, consul-torías, gestores de negocio etcétera, debemos regresar a lo esencial—a final de cuentas las cosas más sencillas siempre han funcionado.El problema del big data no se va a resolver a nivel macro, es másviable ver la solución desde el punto de vista del recurso más valioso:el recurso humano.

Son muchas las empresas que quieren sacar ventajas de los bene-ficios que el big data puede proporcionarles, pero no pueden extraerel máximo provecho a éste por la falta del personal adecuadamentepreparado y capacitado.

La complejidad de las tecnologías para el big data requieren cier-

tas capacidades avanzadas que no están presentes en la mayoría de losprofesionales de TI.

Susan Feldman, vicepresidente de investigación en IDC reciente-mente comentó en un evento de la industria sobre big data, que “nohay mucha gente que esté realmente bien formada en estas nuevastecnologías (como Hadoop, por ejemplo). ¿Cómo van a contratarlas empresas personal si éste ni tan siquiera existe?”. Soy de la misma opinión: las empresas, tanto clientes como proveedores, deben inver-tir en la formación de capital humano con las habilidades necesariaspara aprovechar y gestionar adecuadamente el big data.

››Por Rubén García Díaz 

Rubén GarcíaDíaz (@SolGeek) es Consutor enTrada Estratega.Cuenta con Maes-tría en Tecnoogíasde a Inormacóny a Comuncacónpor Inotec/Un-versdad de Daas.Se especaza ena mpementacónde procesos quepermten a co-rrecta aneacónde as TIC con osobjetvos organ-zaconaes.

 Mi Big Data Personal ›› “LA PRÓXIMA FRONTERA ES APRENDER 

A MANEJAR GRANDES VOLÚMENES DE 

DATOS DURANTE TODO SU CICLO DE VIDA.”

Page 33: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 33/6031

GRACIAS A D4P, SG

LOGRÓ RESOLVER LA 

NECESIDAD DE CREAR SU 

ESCAPARATE PARA DE-

SARROLLO DE TALENTOS,

AHORA “SG TALENTO”

“ME SIENTO COMPLACIDO 

DE CONOCER UNA 

EMPRESA FORMADA POR 

GENTE CAPAZ, QUE 

BRINDA DESDE UN INICIO 

UNA GRATA IMPRESIÓN 

Y ESTÁ DESARROLLANDO

TECNOLOGÍA DE CLASE MUNDIAL”

-PEDRO GALVÁN, DIRECTOR SG

“UNA HISTORIA DE ÉXITOEN COLABORACIÓN”

“SG Y D4P LOGRAN UNA HISTORIA DE ÉXITO EN 

DETECCIÓN DE TALENTOS”

Pedro Galván, Director de Software Gurú nos compartió su reciente historia de éxito enla implementación de SG Talento.

SG pensó en una iniciativa de captación de talentos, utilizando tecnología a través de la cuál se compartieran currículums en línea como servicio a sus lectores, en su mayoría profe-sionales para las áreas de TI.

El espíritu de dicha iniciativa no contemplaba la implementación de un software cual-quiera, como lo mencionó Pedro Galván “queremos ofrecer una gran herramienta, estamossujetos a estándares más altos ya que somos la revista para profesionales de la industria”.

 Además de considerar la calidad como métrica principal, la rápida adaptación y precioaccesible eran factores anexos determinantes.

Inicialmente SG desarrolló un prototipo con la idea de dimensionar los alcances nece-sarios, y evaluar la factibilidad de construir una herramienta propia con la calidad esperada.Tras dicho proceso, concluyeron que un desarrollo a la medida con los estándares que reque-rían, involucraba un precio demasiado alto.

Después de una amplia investigación de diversas herramientas en el mercado, conocieronD4P, una plataforma de productividad empresarial que cuenta con aplicaciones orientadasal impulso y desempeño en áreas estratégicas de negocio, siendo una de ellas el desarrollo detalento humano.

D4P resultó ser la mejor opción, principalmente por la calidad que buscaban. Lograron

adaptar un sistema estable, robusto, de alto desempeño y en sólo cuestión de semanas por seruna aplicación altamente personalizable.El equipo D4P logró traducir la visión de negocio de SG en la solución que esperaban,

aportando un valor adicional dentro de las empresas del ramo.

“Logramos un gran producto, encontramos una empresa profesional que no sólo cuenta con capacidad técnica sino deentendimiento de negocio, por tal motivo cuentan con un pro-ducto de alta calidad como es D4P ” 

-Pedro Galván, Director SG 

 Así nace SG Talento, un escaparate que brinda la oportunidad de compartir logros y ha-bilidades de profesionales en áreas de TI con más de dos mil candidatos registrados durante

las primeras tres semanas de operación.

Acerca de D4P

Herramienta de productividad empresarial, colaboración, gestión de proyectos y capitalhumano. Su objetivo principal es impulsar el valor de las empresas partiendo del desa-rrollo en sus áreas estratégicas, ayudando así a que respondan con gran agilidad a lasnecesidades actuales.www.d4p.mx 

Page 34: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 34/6032

.COLUMNACOLUMNA INVITADA

Los dispositivos móviles han revolucionado muchos aspectos denuestra vida: cambiando la forma en que nos comunicamos, nos

divertirnos o compramos, e incluso en la manera de hacer negocios.Su crecimiento e integración en diferentes segmentos ha sucedido enforma explosiva, pues solo para darnos una idea, según cifras de la Unión Internacional de Telecomunicaciones (UIT) para fines de esteaño habrá más de dos mil millones de usuarios de banda ancha móvil a nivel mundial, y de acuerdo a comScore uno de cada tres minutos quepasan los usuarios online, se hace en plataformas móviles.

Estamos en una era hermosa, especialmente para los desarrolla-dores, en la cual tenemos la oportunidad de crear el futuro y ser suscatalizadores. Para ser capaces de hacer esto, debemos estar dispuestoshacer frente a una serie de desafíos, tanto técnicos como mentales.

Desde el punto de vista mental, el reto es entender qué está pa-sando, y despertar la conciencia de la gran cantidad de oportunida-des que la revolución móvil está trayendo al mundo, y que debemosaprovechar. Hay que incorporar el concepto de movilidad a nues-tra forma de pensar, y sobre ese concepto mirar las actividades que

podríamos facilitar o mejorar si las vemos en ese contexto. De allísaldrán las ideas que necesitamos para hacer cosas distintas, y para modelar el futuro.

Este cambio de mentalidad hoy es posible gracias a los grandesavances que ha habido en materia tecnológica en los últimos años.Tener una gran cantidad datos, en un dispositivo de almacenamien-to muy pequeño, que se puede llevar en el bolsillo, es una realidad

hoy que nos permite llevar a cabo ideas que antesparecían muy lejanas, casi de ciencia ficción. El co-rreo electrónico, las redes sociales, los dispositivoscon sensores, YouTube, los servicios de nube; hoy hay una gran cantidad de ofertas que generan unvolumen increíble de información que puede ser

consumida y aprovechada por los usuarios en cual-quier lugar desde la palma de su mano, a través dedispositivos móviles.

Para el desarrollador de software, este es uncampo muy fértil, lleno de posibilidades. Hoy hay casi dos millones de aplicaciones disponibles para las plataformas móviles iOS y Android, pero el fu-turo parece ir más allá del uso de smartphones y tabletas, y ya se está delineando la aparición de otrosdispositivos inteligentes que también utilizaránapps a la medida, como Smart TV, relojes y autosinteligentes, etcétera.

Este futuro demanda una actitud proactiva y con proyección enel desarrollo de herramientas que se adapten a estos cambios tecnoló-gicos, sin importar la plataforma tecnológica sobre la cual se susten-ten, que gocen de alta funcionalidad, aprovechando las característi-cas intrínsecas de cada dispositivo al máximo, y que sean amigablespara el usuario final.

 Ante este panorama, las metodologías tradicionales del desarro-llo de software también deben evolucionar. La forma tradicional deconstruir aplicaciones no es suficiente ante una demanda de que cre-ce de manera exponencial.

Una respuesta posible es el modelo de programación basado enmodelos, orientado a la automatización, que permitiría industrializarla producción de aplicaciones móviles, con software que cree sofwarea partir de un modelo establecido por un desarrollador.

 Adicionalmente, hay que señalar que la movilidad como forma de catalizar toda la información existente no se limita únicamente alámbito del entretenimiento y los usuarios finales, sino que debería ser punto de avance también para entornos como el corporativo y de

gobierno. Campos como el de la medicina, la educación o el medioambiente, por mencionar solo algunos, pueden aprovechar el granpotencial de la movilidad. Por ejemplo, se podría mejorar la atencióna clientes, el seguimiento de tratamientos o realizar diagnósticos deemergencia en la industria de la salud; mejorar la forma de apren-dizaje y las evaluaciones, así como los materiales de consulta, en la educación (donde además hay esfuerzos muy interesantes que com-binan juegos con aprendizaje); o contar con herramientas para medirmejor las características ambientales de un lugar determinado, conel fin de hacer mejores diagnósticos y medir resultados de campañasambientales, entre otros.

En el caso de gobierno, generalmente este sector se mueve conmás cautela; sin embargo, los beneficios que se puede brindar a los

ciudadanos por medio de servicios móviles son inmensos, por lo quecreo que la movilidad debe tener alta prioridad en la agenda digitalde cualquier país.

 Así pues, las posibilidades son inmensas. El futuro en la tec-nología está orientado a las personas, y a las aplicaciones que ellasusarán, sin importar dónde las usen. Y eso convierte a los desarro-lladores ya no en los expertos en soporte técnico, o en los cerebrosque crean software, sino en unos verdaderos forjadores del futuroen la industria de TI.

››Por Gastón Milano

Gastón Mlano esCTO nternaco-na en GeneXus.Sus prncpaesáreas de nterésson: desarroodrgdo pormodeos (MDD),arqutectura desotware, gene-racón de códgo,y evoucón deesquemas de basede datos. Gastónes Ingenero enComputacón conespecadad enArqutectura deSotware y ModeDrve Deveop-ment por a Facu-tad de Ingeneríade a Unversdadde a Repúbca deUruguay.

 MobileUna herramenta para e uturo

Page 35: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 35/6033

Un elemento crítico del Big Data es cómohacer sentido del análisis de datos no

estructurados, principalmente de redes sociales,aunque también de logs (que usualmente es datosemi-estructurado), chats privados, blogs, etc.

 Al día de hoy, es posible hacer sentido de lasconversaciones y visualizar resultados en tiem-po real con un desarrollo simple, y flexible. Elreto está en resolver de manera eficiente la ca-dena de actividades a desarrollar: la extracción,transformación, modelaje y presentación delos datos. Adicionalmente, se agregan las pro-blemáticas de cómo hacer sentido del dato noestructurado – reglas a aplicar - y cómo consu-mir, procesar y presentar en tiempo real.

Enfoquémonos para este ejemplo en Twitter,herramienta que, a nuestro parecer, más queninguna otra ha cambiado profundamente lasreglas de compartir información. Una de lascaracterísticas importantes de Twitter, es la ver-tiginosa inmediatez con la cual se generan opi-niones o trend topics, por tanto, el elemento del

análisis en tiempo real es crítico.Nos dimos a la tarea de conectarnos el WebService que Twitter proporciona para tener ac-ceso al “feed” completo y en tiempo real. La ventaja es que se tiene acceso inmediato a todoslos tuits sin costo, la desventaja es que se pierderiqueza de información en comparación si la co-nexión se hace al API de Twitter.

Cuando las empresas generan tuits o retuitscon un volumen bajo es muy fácil manual-mente analizar comentarios y conversaciones,el problema es cuando la información empieza a llegar en miles de tuits. Por eso buscamos un

evento coyuntural para ejemplificar correcta-mente lo fácil que puede ser llevar a cabo apli-caciones sencillas para hacer sentido del datono estructurado y visualizarlo en tiempo real.El estreno en México de Iron Man nos parecióexcelente ejemplo y la pregunta de negocio a contestar fue “gustó o no gustó la película”.

En pocas horas, con la Suite Pentaho Bu-siness Analytics se diseñó una solución quese dividió en 4 partes:

 • Extracción: Con una pequeña clase de java 

consumimos el feed de Twitter disponible enhttps://twitter.com/search/realtime.

Traemos los campos disponibles con una en-trada JSON.

• Transformación: Filtramos todos aque-llos tuits que contengan ironman ó iron man.Creamos y damos formato a los campos.Filtramos aquellos tuits que contengan pala-bras “positivas” (p.e. excelente, buenísima) y 

asignamos calificación positiva.Hacemos lo mismo pero con una lista de pala-bras “negativas” (p.e. decepción, mala, malísi-ma) asignando calificación negativa.  • Carga – Destino: Insertamos en una tabla el registro del tuit con la califica-ción identificada.  • Reportes: Graficamos tomando comofuente la tabla que se esta actualizando entiempo real y creamos un pequeño cuboque nos permita hacer el análisis por tiem-po / calificación.

 Algo importante a resaltar durante la eje-cución de esta transformación es la facilidadque tuvimos de “personalizar” nuestra califi-cación, analizando los datos que nos arroja-ba en tiempo real nuestras gráficas pudimosagregar más palabras que nos dieran un sen-tido más atinado a lo se estaba escribiendo enel momento (Ver figura 1).

La película se estrenó para todo público elviernes 26 de abril y la solución se dejó corrien-do de las 7 pm a las 11 pm del sábado 27 deabril. Los resultados fueron los siguientes:

- 3,056 tuits con la palabra Iron Man (segu-ramente perdimos muchos tuits porque el an-cho de banda de la conexión a internet tieneclaramente menor capacidad de la velocidad a la que se generan los tuits- 14% con las palabras seleccionadas (positivasy negativas) – equivalente a 419 tuits, de loscuales aproximadamente 80% contenían laspalabras positivas y aproximadamente 20%

las palabras negativas.

Con estos números, si yo fuera el exhibi-dor, tengo claro que la película gustó y mu-cho. Si bien muchos tuits se quedan fuera – sin calificación positiva o negativa – así esgeneralmente una conversación, se busca unaspecto específico y no toda la conversaciónes útil. Esa es la regla de negocio que se busca simular en la transformación.

Esta aplicación, si bien se basa en con-teos e interpretación simple del diálogo enTwitter, al hacerlo en tiempo real le puede

ayudar a muchas empresas a visualizar queestá pasando con una interpretación certe-ra y una inmediatez total. Se puede aplicaren ejemplos de educación en línea para interpretar correctamente los diálogos quese dan en el chat entre profesor-alumno, sepuede aplicar en entender con que palabrasse relaciona tu marca, etc.

Landy Reyes

 VinkOS

[email protected]

.PUBLIRREPORTAJE

ANALISIS DE DATOS NO ESTRUCTURADOS EN TIEMPO REAL

Figura 1. Transformación

Page 36: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 36/6034

.PRÁCTICASPROGRAMACIÓN

Uno de los pasos más importantes cuando se realiza unanálisis de datos es la exploración. En esta fase se detec-

tan errores, se verifican los supuestos y se seleccionan modelospredictivos adecuados dependiendo de los datos. Este procesode análisis exploratorio de datos se puede realizar con métodosestadísticos o con visualización.

Existen varias herramientas que facilitan la visualización dedatos. Mientras algunas son provistas por lenguajes de progra-mación como Python o R, otras son de uso general y orientadoal web como Flot, Raphael.js o D3.js.

D3 (Data-Driven Documents) [1] es una librería JavaS-cript para presentar y manipular visualmente documentosbasados en datos. Con D3 podemos crear desde gráficas sen-cillas como barras e histogramas, hasta visualizaciones com-plejas e interactivas. D3 utiliza las tecnologías estándar comoHTML, SVG y CSS, por lo que funciona en cualquier nave-gador web moderno.

En este artículo mostraré cómo hacer tus primeras visuali-zaciones con D3. El código usado para este tutorial está dispo-nible en https://github.com/hmcuesta/SG40  por si quieres des-cargarlo y probarlo.

Gráica de barras

Nuestra primera visualización será una gráfica de barras quemuestre la cantidad de pelotas de colores en una tómbola. Losdatos los obtendremos de un archivo separado por tabuladorestombola.tsv que contiene los siguientes valores:

Color Cantdad

Rojo 2

 Azul 1

 Verde 4

 Amar ll o 3

Creamos el archivo Bar-Chart.html y comenzamos a editar-lo. En el cuerpo del archivo HTML incluimos la librería de D3.

<scrpt src=”http://d3js.org/d3.v3.mn.js”></scrpt>

Definimos el script que tendrá todo el código de nuestro ejem-plo. Comenzamos configurando el área de trabajo (márgenes y tamaño) y los ejes horizontales y verticales.

<scrpt>

 var marg n = {top : 20 , r ght : 40 , bo ttom : 20 , le t: 40},

wdth = 700 - margn.let - margn.rght,

heght = 350 - margn.top - margn.bottom;

 var x = d3.s cale .ord nal (). rang eRou ndBa nds([0, wd th], .1) ;

 var y = d3.s cale .ln ear().r ange([h eg ht, 0]);

 var xAxs = d3 .svg.axs( ).scale (x).ore nt(“ botto m”);

 var yAxs = d3 .svg .axs( ).scale (y).o re nt(“ le t”) ;

Definimos la variable svg que contendrá nuestra visualización. var svg = d3 .se lect(“ body ”).a ppen d(“svg ”)

.attr(“wdth”, wdth + margn.let + margn.rght)

.attr(“heght”, heght + margn.top + margn.bottom)

.append(“g”)

.attr(“transorm”, “translate(“ + margn.let + “,” + margn.top + “)”);

 Ahora cargamos los datos de nuestro archivo tombola.tsv y ma-peamos las columnas a atributos de nuestros objetos.

d3.tsv(“tombola.tsv”, uncton(error, data) {

data.orEach( uncton(d) {

d.cantdad = +d.cantdad;

});

x.doman(data.map(uncton(d) { return d.color; }));

y.doman([0, d3.max(data, uncton(d) { return d.cantdad; })]);

Nótese que en el caso del eje y, indicamos que el eje comienza en elvalor 0 y llega hasta el valor más alto de la columna cantidad. Para obtenerdicho valor utilizamos la función d3.max().Ahora utilizamos la funciónsvg.append() para agregar algunos elementos como las etiquetas de los ejes.

svg.append(“g”)

.attr(“class”, “x axs”)

.attr(“transorm”, “translate(0,” + heght + “)”)

.call(xAxs);svg.append(“g”)

.attr(“class”, “y axs”)

.call(yAxs)

.append(“text”)

.attr(“transorm”, “rotate(-90)”)

.attr(“y”, 6)

.attr(“dy”, “.7em”)

.style(“text-anchor”, “end”)

.text(“Cantdad”);

Para configurar los distintos elementos de la visualización(en este caso, las barras) podemos utilizar el patrón de selección:

selectAll + data + enter + append.svg.selectAll(“.bar”)

.data(data)

.enter().append(“rect”)

.attr(“class”, “bar”)

.attr(“x”, uncton(d) { return x(d.color); })

.attr(“wdth”, x.rangeBand())

.attr(“y”, uncton(d) { return y(d.cantdad); })

.attr(“heght”, uncton(d) { return heght - y(d.cantdad); });

});

</scrpt>

Visualización de Datos con D3.js››Por Hector Cuesta-Arvizu 

Page 37: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 37/6035

Podemos agregar algo de CSS para estili-zar un poco nuestra gráfica.

<style>

body { ont: 16px sans-ser; }

.bar { ll: #00a0e0; }

</style>

La figura 1 muestra la gráfica que generamos.

Figura 1. Visualización de gráfica de barras.

Ejemplo condos dmensonesEn el siguiente ejemplo trabajaremos con

dos dimensiones en grupo de pares de co-ordenadas. Utilizaremos un arreglo bidi-mensional como el siguiente:

 var dato s = [

[50, 160],

[20, 20],

[70, 320],

[540, 380],

[200, 200],

[640, 80],

[300, 50],

[350, 260]

];

Creamos el área de trabajo con la funciónd3.select y establecemos el tamaño del área.

 var svg = d3.s elect(“ body ”)

.append(“svg”)

.attr(“wdth”, 600)

.attr(“heght”,400);

 Agregamos al grá fico los puntos del arre-glo datos, indicando un radio de 20px.

svg.selectAll(“crcle”)

.data(datos)

.enter()

.append(“crcle”)

.attr(“cx”, uncton(d) { return d[0]; })

.attr(“cy”, uncton(d) { return d[1]; })

.attr(“r”, uncton(d) { return 20; })

.attr(“ll”, “#e02000”);

 Agregamos las etiquetas con los va-lores para cada punto y establecemos elestilo de la tipografía.

svg.selectAll(“text”)

.data(datos)

.enter()

.append(“text”)

.text( uncton(d) { return d[0] + “,” + d[1]; })

.attr(“x”, uncton(d) { return d[0]; })

.attr(“y”, uncton(d) { return d[1]; })

.attr(“ont-amly”, “sans-ser”)

.attr(“ont-sze”, “14px”)

.attr(“ll”, “black”);

La Figura 2 muestra el mapa de coordenadas.

Figura 2. Visualización de scatter plot.

ConclusónComo podemos apreciar, D3 nos ofreceuna forma simple de generar diferentes ti-pos de visualizaciones. Su uso de orígenes

de datos diversos lo hacen perfecto para bases de datos orientadas a documentoscomo MongoDB.

Si bien la visualización nos ofreceposibilidades de comunicación y abstrac-ción de información, esta no debe de sersustituto de métodos predictivos o esta-dísticos de análisis, ya que muchas vecesse pueden dar falsas correlaciones cuandoel humano usa su percepción. El objetivode la visualización debe de ser de carácterexploratorio de datos y de comunicaciónde información ya analizada. La visuali-zación es una forma muy útil de presen-tar grandes cantidades de información alusuario final.

Referencias 

[1] N. Yau. Visualize This: The FlowingData Guide to

Design, Visualization, and Statistics. Wiley, 2011. http:// 

 swgu.ru/sg40r15 

[2] S. Murray. Interactive Data Visualization for the

Web. O’Reilly, 2013. http://swgu.ru/sg40r16 

.BIOHector Cuesta-Arvzu (@hmcuesta) provee servcos de consutoría en Ingenería de Sotware y Anáss de Datos. Adconamente se desempeña como nstructorpara NYCE en certicacones de Desarroo e Ingenería de Sotware. Cuenta con maestría en cencas de a computacón y ha sdo Revsor Técnco en os bros“Raspberry P Networkng Cookbook” y “Hadoop Operatons and Custer Management” para Packt Pubshng.

.PRÁCTICASPROGRAMACIÓN

“CON D3 PODEMOS CREAR DESDE GRÁFICAS SENCILLAS COMO BARRAS E HISTOGRAMAS, HAS-TA VISUALIZACIONES COMPLEJAS E INTERACTIVAS.”

Page 38: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 38/6036

.PRÁCTICASPRUEBAS

 Automatización de PruebasPrmeros pasos›› Por Federico Toledo

Muchas empresas han visualizado los beneficios de la automa-tización de pruebas, pero se han encontrado con dificultades

para comenzar de una manera eficiente. Esto se debe principalmentea la falta de experiencia y a verse desbordados en su capacidad deejecución, ya que es necesario continuar con las pruebas rutinariasde siempre, siendo así el testing automatizado un trabajo extra, másque algo que nos ahorrará esfuerzo a mediano y largo plazo. En esesentido es pertinente lograr que la automatización nos de beneficiosen corto plazo, y no tener que esperar al próximo ciclo de pruebaspara poder visualizar los beneficios.

En este artículo mostraré las estrategias que podemos utilizarpara lograr estos objetivos en nuestros proyectos de inicio en la auto-matización de pruebas.

Comenzando¿Han jugado juegos de estrategia militar, como Starcraft? En estos

 juegos se trata de ir formando tropas (con naves de distintos tipos)de acuerdo a los recursos que se van obteniendo. Cada nave tiene uncosto (en minerales y tiempo de construcción), y obviamente las na-

ves más poderosas tienen un costo más alto que las pequeñas. Enton-ces, hasta que no se consiguen muchos recursos, es muy difícil teneruna de esas naves gigantes. La estrategia que más me servía al jugaresto era construir pequeñas naves, que a pesar de tener menor poderdestructivo me servían para defenderme de los posibles ataques, y asídarme tiempo de ir fortaleciendo a mi ejército.

Cuando hablamos de automatización de pruebas podemos usarla misma estrategia. Es preferible comenzar con una nave pequeña,que nos de pequeños beneficios pero en forma inmediata, en vez deesperar a tener una gran nave superpoderosa, que tal vez llega tarde,cuando ya no hay tiempo para defenderse de los problemas, o sea,¡cuando estemos saliendo a producción! De esta forma aplicamos

soluciones suficientemente buenas

y no soluciones perfectas, porqueestas llegan tarde.

Para aclarar la idea, veamos unsencillo ejemplo. Vamos a diseñarpruebas para la operación de realizarel alta de un cliente utilizando una forma de registro web. Para ello po-demos tomar como referencia una forma sencilla de alta de clientes,tal como la que está disponible enhttp://samples.genexus.com/ajaxsam-

 ple/client.aspx?INS,0 

En el caso de prueba simplemente hay que ingresar valores en losdistintos campos, confirmar, y luego buscar el elemento creado para verificar que sus valores hayan sido guardados correctamente.

Esta es una prueba simple, no estamos intentando “romper el sis-tema”, simplemente estamos viendo “la línea amarilla”. Mi primera nave de batalla va a ser limitada.

Para automatizar la prueba no necesitamos mucho más tiem-po que el que lleva ejecutar la funcionalidad a mano. Utilizan-do cualquier herramienta de pruebas automatizadas podemos“grabar” el caso de prueba a partir de una ejecución manual, demanera que no sea necesario tener que desarrollarla completa-mente desde cero. Entonces, mientras uno graba la prueba, la he-rramienta captura todas las acciones ejecutadas sobre el sistema y las convierte en comandos que servirán luego para ejecutar lasmismas acciones repetidamente. Luego que tenemos esa prueba lista, la podemos ejecutar cada vez que queramos: tenemos nues-tra primera nave funcionando y reportándose.

Data-drven testng

Una vez teniendo el script para prueba automatizada, con poco es-fuerzo más podemos obtener mucho más beneficio de esta misma nave. En este caso, podemos parametrizar la prueba y hacer que cada valor ingresado en cada campo sea tomado de un data pool (fuentede datos de prueba, tal como una tabla o archivo), y así estar proban-do distintos escenarios.

Nuestros datos de prueba necesitan pueden ser una tabla conlas siguientes columnas, que corresponden a los campos de la for-ma de registro de cliente: First_Name, Last_Name, Country_Name,City_Name, Address, Balance.

Entonces tendremos un datapool con estas columnas. Luego po-dremos pensar distintas combinaciones de valores para probar. Porejemplo, valores nulos, o valores muy grandes, strings muy largos,

balances negativos, etcétera. Así, la misma prueba la puedo ejecutarcon todas las combinaciones de datos que se me ocurran con tan soloingresar los valores en una tabla. Esta ejecución la puedo hacer cada vez que se necesite, obteniendo información sobre el estado de la aplicación en forma casi inmediata.

Si esta prueba la tuviera que ejecutar en forma manual concada dato de prueba interesante, me llevaría más tiempo que eje-cutarla automáticamente. O sea, los beneficios de este caso deprueba automatizado se ven directamente en este ciclo de prue-bas, y no recién en el siguiente ciclo de pruebas de regresión. Sonbeneficios a corto plazo, con lo cual, visto de esta forma, es muy conveniente comenzar a automatizar.

.BIOFederco Toledo es Ingenero enComputacón por a Unversdadde a Repúbca de Uruguay y sus-tenta a maestría de Inormátcapor a Unversdad de Casta-LaMancha en España. Actuamen-te se encuentra reazando susestudos de doctorado enocadosa a especazacón en e dseñode pruebas automátcas parasstemas de normacón y essoco co-undador de Abstracta,empresa con presenca en Méxcoy Uruguay, que se dedca a ser-vcos y desarroo de productospara testng.

Page 39: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 39/60

De acuerdo a lo que cuenta Cem Ka-ner en uno de sus artículos [1] automa-tizar una prueba lleva entre 3 y 10 vecesmás que ejecutarla en forma manual (esteartículo es de 1997, pero es aún vigente,o en tal caso, el costo es menor). Inclu-so, si en los siguientes ciclos de prueba tenemos cierto costo de mantenimientode estos casos de prueba, imaginemos quetambién de 10 veces más que el costo deejecución manual, también obtendremosbeneficios si ejecutamos 11 veces la prue-ba de regresión.

Este enfoque de separar el flujo del casode prueba de los datos que se utilizan, está basado en la técnica Data-driven testing [2].

ConclusónEspero que este ejemplo haya servido

para visualizar cómo podemos comenzarnuestros esfuerzos de pruebas automati-zadas con algo muy simple que nos da resultados inmediatos, para luego ir me-

 jorándolo para sacarle más jugo. Lo im-portante es percibir los beneficios desdeel principio, para luego hacer crecer elejército. Esto está basado en nuestra ex-periencia de trabajo brindando serviciosde pruebas funcionales, incluyendo prue-bas automatizadas. Lo hemos puesto enpráctica en diversos proyectos y siempreobteniendo muy buenos resultados.

Referencias 

[1] C. Kaner. “Improving the Maintanability of 

 Automated Test Sui tes”. Quality Week, 1997. http :// 

 swgu.ru/sg40r17 

[2] “Data Driven Testing”. Wikipedia. h ttp://swgu.

ru/sg40r18

“… APLICAMOS SOLUCIONES SUFICIENTEMENTE BUENAS Y NO SOLUCIONES PERFECTAS, PORQUE ESTAS LLEGAN TARDE …”

Page 40: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 40/6038

.PRÁCTICASCALIDAD

 A nte la necesidad de un consenso acerca de los elementos quedefinen la calidad del software, ISO desde hace tiempo creo

estándares en este sentido. El primero es el ISO 9126, originalmentepublicado en 1991 y posteriormente revisado en 2001. Posterior-mente desarrolló el estándar ISO/IEC 25010: SQuaRE (SoftwareProduct Quality Requirements and Evaluation), que fue publicadoen 2011 y viene a ser el reemplazo de ISO 9126.

Como ya se explicó en el artículo de la Dra. Hanna Oktaba “SQuaRE: Modelo actualizado de las características de calidad”publicado en SG #29, este modelo evalúa la calidad desde dosperspectivas: la calidad del producto como tal (calidad interna), y la calidad de el uso del software (externa). Cada perspectiva con-sidera diversas características, y a su vez cada característica puedetener una o más subcaracterísticas.

Características y subcaracterísticas de calidad interna:

• Adecuación funcional: funcionalidad adecuada, funcionalidadcorrecta, funcionalidad completa.• Conabilidad: madurez, disponibilidad, tolerancia a fallos, re-cuperabilidad.• Eciencia de rendimiento: tiempo de respuesta, utilización derecursos, capacidad.• Operabilidad: reconocimiento de funcionalidad adecuada, faci-lidad de uso, facilidad de aprendizaje, protección contra errores deusuario, accesibilidad, estética de la interfaz de usuario.

• Seguridad: confidencialidad, inte-

gridad, no rechazo, responsabilidad,autenticidad.• Compatibilidad: interoperabili-dad, capacidad de coexistencia.• Mantenibilidad: modularidad,reusabilidad, capacidad de seranalizado, capacidad de ser modi-ficado, capacidad de ser verifica-do/probado.• Transmisibilidad/Portabilidad: instalabilidad, adaptabilidad, reem-plazabilidad.

Características y subcaracterísticas de calidad externa:

• Satisfacción de uso: utilidad, confianza, placer, comodidad.• Seguridad de uso: mitigación de riesgos económicos, mitigaciónde riesgos para el usuario, mitigación de riesgos ambientales.• Flexibilidad de uso: cobertura del contexto, flexibilidad.• Efectividad de uso.

• Eciencia de uso.

 Aunque algunas de estas caracterí sticas se pueden medir demanera objetiva, la mayor parte requieren una evaluación subje-tiva. Esto hace que la manera más utilizada, más rápida, menoscostosa y quizá la que más refleja la realidad, sea la utilización dela experiencia de los empleados de una organización. Sin embar-

go, esto no permite realizar comparaciones objetivas y presenta algunos otros problemas como que le pertenece al experto y no a la organización, no se puede replicar sistemáticamente y no con-tribuye a la madurez de la ingeniería de software.

Existe un modelo que puede ser utilizado para la evaluación deeste tipo de variables, el modelo EPEI (EPCU por sus siglas en in-glés) el cual permite en un entorno de información imperfecta (in-formación vaga o ambigua), pasar de entornos cualitativos a entornoscuantitativos. En otras palabras, es un modelo que nos permite a partir de opiniones (juicio de experto) de una serie de variables sub-

 jetivas, determinar un valor cuantitativo suficientemente razonable,generado por la evaluación de reglas de inferencia definidas por ex-pertos. (Valdés, 2012).

Caso de estudio para medir la calidad de productos de software

Se realizó un estudio para evaluar la calidad de 44 proyectos. Losproyectos considerados fueron realizados en 4 áreas distintas de una organización que trabaja en un esquema de outsourcing (cada una con un proveedor distinto) controlados por líderes de proyecto inter-nos, estos fueron los encargados de evaluar la calidad interna de losproyectos realizados.

De los 44 proyectos solamente 24 se pusieron en producción,por esta razón sólo a estos últimos se les evaluó la calidad de uso(externa), los usuarios fueron los encargados de evaluar la calidad deuso de las aplicaciones.

.BIOFrancsco Valdes Souto (@valdes-soutoco) es PhD en Ingenería deSotware con especazacón en me-dcón y estmacón de sotware pora Unversdad de Quebéc. Es Cert-ied ScrumMaster (CSM), Project Ma-nager Proessona (PMP) y e prmermexcano certicado como COSMICFFP Sze Measurer por e CommonSotware Measurement InternatonaConsortum (COSMIC). Es soco deSPINGERE, prmera empresa enorecer servcos especazados endmensonamento y estmacón desotware desde un enoque ngene-r en Amérca Latna.

 Midiendo laCalidad del Software››Por Francisco Valdes Souto

Page 41: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 41/6039

El procedimiento que se siguió para evaluar la calidad interna/externa de los productos de software fue solicitar a cada líder deproyecto la asignación de valores para las características definidasen el estándar para la calidad externa/interna en relación a su pro-yecto, las características fueron consideradas como variables deentrada en el modelo EPEI.

La asignación de los valores de las variables de entrada se realizóconsiderando el juicio de experto de los líderes de cada proyecto,determinándose un valor en un rango definido de 0 a 5 sobre el do-minio de los número reales.

Por cada área de la organización se obtuvo el promedio de losvalores asignados a cada una de las características de calidad conside-rando todos los proyectos evaluados.

Con los datos promedio de las categorías por área se calculó

el índice de calidad por proyecto utilizando el modelo EPCU,de tal manera que se obtuvo un índice de calidad promedio querepresenta la calidad de los proyectos desarrollados en cada área de la organización.

Esto se realizó para la evaluación de la calidad externa/interna.Los resultados se muestran en las figuras 1 y 2.

 

Figura 1. Asignación de valores promedio para calidad interna.

Figura 2. Asignación de valores promedio para calidad externa.

Como se puede observar en este caso de estudio, es posible tenerun valor cuantitativo formal y calculado de una misma forma para los distintos proyectos con base en las categorías del estándar para evaluación de la calidad de software SQuaRE, las cuales se manejancomo variables de entrada al modelo EPCU.

 Al tener un valor cuantitativo, formal y consistente con los índi-ces de calidad calculados, es posible hacer comparaciones, sin embar-go, es importante considerar que además del índice como valor dela calidad (externa/interna) se presentan los valores que alcanza cada una de las variables o categorías de la calidad, lo que puede ser deter-minante para definir las estrategias a seguir para mejorarla.

Conclusones A través del modelo EPCU es posible determinar un valor cuanti-tativo consistente, de manera formal y que nos permita hacer com-paraciones acerca de la calidad de los productos de software de una manera práctica.

Este modelo permite evaluar a partir del juicio de experto, me-diante mecanismos formales de manejo de información imperfecta y con base en el estándar de calidad ISO/IEC 25000, la calidad delos productos de software tanto desde el punto de vista de su cons-trucción (calidad interna) como desde el punto de vista del usuario(calidad externa).

Debido a que el índice de calidad es consecuencia de los distintosvalores de las categorías definidas por el estándar, es posible deter-

minar estrategias relevantes y factibles para incrementar el índice decalidad a través de mejorar las categorías de calidad.

El poder tener un valor cuantitativo de calidad, sin duda, dará certeza al usuario, sobre todo si el también participa en la evaluaciónde la calidad externa del producto de software.

 

Referencias 

[1] H. Oktaba. “SQuaRE Modelo Actualizado de las Características de Calidad”. SG

Software Guru, Agosto-Octubre 2010. http://swgu.ru/sg40r13 

[2] F. Valdés Souto. Design of A Fuzzy Logic Estimation Process for Software Pro-

 jects. http://swgu.ru/sg40r14

.PRÁCTICASCALIDAD

“PASAR DE ENTORNOS CUALITATIVOS A ENTORNOS CUANTITATIVOS.”

Page 42: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 42/6040

cliente y los otros del lado del proveedor, pero esto puede variar de-pendiendo de la estructura del proyecto y el equipo de trabajo.

• Dueño del requerimiento. También es conocido como “usuariode negocio”, y es quien tiene el panorama de alto nivel del proyectoy conoce su importancia para la empresa. Es la autoridad final quesolicita y aprueba el requerimiento.

• Experto de operaciones. Es la persona que conoce y trabaja conla necesidad operativa que se pretende resolver, por lo que es el másbeneficiado con la resolución del requerimiento. Puede ser el usuariofinal, o el encargado de trabajar directamente con éstos.

• Analista. Es responsable de capturar y administrar los requeri-mientos. Debe conocer la perspectiva de todos los stakeholders sobre

las necesidades que plantean, para así definir los requerimientos queresuelvan dichas necesidades.

• Experto técnico. Es el líder técnico del proyecto. Valida la viabili-dad técnica de los requerimientos, arquitectura y plataformas tecno-lógicas que se utilizarán. También es vital para definir las estimacio-nes de esfuerzo junto con el analista.

Hay ocasiones en que el número de stakeholders puede aumen-tar. Por ejemplo, cuando la operación involucra a varios responsa-bles que actúan de forma aislada, o el proyecto es colaborativo entrevarias empresas y proveedores. Es importante ser lo más incluyenteposible a la hora de escuchar, a veces la opinión de un usuario o un

programador puede ahorrarnos meses de problemas. Una señal deque una reunión de requerimientos ha sido fructífera, es que el ana-lista hace preguntas a todos los stakeholders.

Asegurar capacdad y compromsoLos stakeholders se suelen asignar de acuerdo a criterios de confianza de cada una de las partes. Esto es un factor humano y debe tratarsecomo tal, por lo que debemos considerar escenarios en el que unoo varios de los stakeholders no logren cubrir su rol plenamente. Enel caso del cliente suele pasar que la persona asignada no conozca defondo la necesidad que está solicitando o simplemente muestre una actitud poco cooperativa. En el caso del proveedor puede ocurrir que

.PRÁCTICASREQUERIMIENTOS

Uno de los peores escenarios que puede ocurrir en un proyectode software, es cuando el cliente descubre que el producto de-

sarrollado y próximo a entregarse, resulta no cubrir satisfactoriamen-te los requerimientos del negocio. Esto típicamente se debe a fallasde comunicación al levantar y administrar requerimientos, y es unproblema común que no suele atenderse de fondo.

Las juntas o reuniones donde se analizan los requerimientos,suelen ser donde más ocurren estas “fallas de comunicación”.El principal indicador de que una reunión fue poco fructífera,suele ser una posterior avalancha de correos en donde se trata caóticamente de cerrar todos los temas que quedaron pendien-tes en dicha reunión. Esto además de consumir tiempo valioso,provoca riesgos como cuando dichos correos no son recibidos oincluso ignorados por algunos responsables. Además con el pasodel tiempo, los acuerdos en esa avalancha de mensajes se volve-

rán contradictorios y surgirán controversias que tendrán que serresueltas hurgando entre los correos para ver cual es “el bueno”y ver dónde quedaron los acuerdos definitivos.

¿Suena familiar? ¿Son prevenibles este tipo de situaciones? A con-tinuación propongo algunas prácticas, que en la experiencia propia han ayudado a que los requerimientos sean lo más acorde posible conla necesidades del cliente.

Identicar stakeholdersEl término “stakeholder” se utiliza para referirse a los actores invo-lucrados o interesados directamente en resolver una necesidad. Enun proyecto de TI, se tienen stakeholders tanto del lado del clientecomo del proveedor. Por lo general, al contratar un proyecto el

cliente ya tiene definido quienes serán los responsables de su lado;sin embargo es importante que nosotros como proveedor identifi-quemos claramente los roles que tendrá cada stakeholder. Se puededar el caso en que el perfil del stakeholder del cliente sea insufi-

ciente para obtener requerimientosclaros, y en tal caso necesitamos elapoyo de otros stakeholders que nose tuvieran previstos.

 A continuación listo algunosstakeholders clave para cualquierproyecto de software. Típicamentelos primeros dos son del lado del

.BIO

Manuel García Sánchez es egresadode ESCOM IPN y apasonado de atecnoogía Java y e open source.Se especaza en sstemas de nor-macón geográica en a nube. Ac-tuamente es íder técnco y anastaresponsabe de nuevos desarroosen Mapdata. www.mapdata.com.mx

 Juntas de Requerimientos¿Cómo ograr que reamente sean eectvas?››Por Manuel Garcia Sanchez 

Page 43: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 43/6041

el analista o el experto técnico no estén suficientemente capacitadospara ejercer su rol. En cada caso, se debe considerar dentro de lasacciones permisibles el reemplazo del stakeholder y de no ser posibleesto, tratar que otro de los stakeholders asuma nuevas responsabilida-des o apoye al stakeholder que tenga dificultades para ejercer su rol.

Reunr a todosOtra causa común de requerimientos fallidos y consecuentes ava-lanchas de correos, es que alguno de los stakeholders no haya podido estar presente en la reunión de requerimientos. Entre másse fragmente la reunión, más volátiles serán los requerimientosque surjan de estas.

Cualquiera que haya estado en juntas de requerimientos sabelo difícil que es lograr reunir a todos los stakeholders en una sola sesión. Incluso con la ayuda de interfaces de teleconferencia, qui-zá no todos puedan estar disponibles en una hora específica. Sinembargo es preferible priorizar el éxito de esta reunión a tenerque realizar posteriormente penosas juntas de renegociación enlas etapas tardías del proyecto.

Análss de causa raízEl cliente suele conocer sus necesidades, pero su idea de cómo resol-verlas no siempre es la más adecuada; es aquí donde requiere ayuda del analista. A veces el cliente nos proporciona un requerimientomuy específico y parece que solo hay que seguirlo al pie de la letra.Sin embargo, al igual que un mal médico, un mal analista hace sololo que el cliente le pide.

El objetivo del análisis de causa raíz es definir los requerimientosque realmente resolverán las necesidades del cliente.

Una técnica efectiva que recomiendo aplicar en el análisis de cau-sa raíz es la de “los 5 por qués”. Básicamente consiste en cuestionar elpor qué de algo, de manera iterativa, hasta encontrar una causa raíz.El “5” del nombre se refiere al número de iteraciones que típicamente

se requieren para llegar a una causa raíz. Sin embargo, en proyectosde software suelen bastar 2 o 3 “por qués” para dar con el problema.

Veamos un ejemplo de esta técnica aplicada a un caso real queme tocó vivir:

Clente: “Necestamos que el usuaro del sstema A pueda generar

úncamente cada vernes un norme de la base de datos y dcho n-

orme se guarde en un archvo accesble por FTP.”

 Analsta: “¿Por qué necestan subr el norme cada vernes?”

Clente: “Porque cada lunes la gente del área X descarga el archvo.”

 Analsta: “¿Y por qué el área X tene que descargar el archvo.”

Clente: “Para mprmrlo”

 Analsta: “¿Y por qué mprmen el norme?”

Clente: “Porque el área X necesta capturar los datos de ese norme

en el sstema B.”

Como se puede ver, bastaron 3 “por qués” para darse cuenta deque lo que realmente necesitaba el cliente no era el barroco proce-dimiento que solicitaba al principio, sino más bien desarrollar una transacción de datos automatizada entre el sistema A y el B. En la misma conversación, el cliente se puede dar cuenta de qué es lo querealmente necesita y los ahorros potenciales de tiempo y dinero para ambas partes se vuelven evidentes.

MockupsOtra técnica que tiene mucho éxito en las juntas de requerimientos esla de presentar Mockups, es decir maquetas de cómo será la interfaz

gráfica del usuario basándonos en los casos de uso. La ventaja inme-diata es que se cierra la brecha de tecnicismos y se logra establecer unlenguaje común entre todos los stakeholders.

En casos en los que la GUI resulte muy compleja, o se pretenda desarrollar un sistema para dispositivos móviles, es recomendable queel equipo cuente con alguien que tenga habilidad en UXD (UserExperience Design).

 Asegurar el entendimiento

ConclusónFinalmente, es bueno reflexionar sobre la cantidad de tiempoque tanto el cliente como el proveedor de TI están dispuestos

a invertir en el análisis de requerimientos. Es frecuente encon-trarse con stakeholders que tienen la sensación de que el anál isises improductivo y quita tiempo valioso al desarrollo. A vecesnos lleva tiempo aprender por las malas las consecuencias de unanálisis escueto y apresurado. Aquel tiempo que inicialmentecreíamos haber ganado apresurando el análisis, se revierte portriplicado en demoras por requerimientos indefinidos o mal co-municados. Incluso, en organizaciones de baja madurez se asu-me que este tipo de situaciones son normales.

Dedicar el tiempo necesario al análisis de requerimientos siemprenos ahorrara muchas horas de codificación y permitirá ofrecer solu-ciones más satisfactorias al cliente.

.PRÁCTICASREQUERIMIENTOS

“AL IGUAL QUE UN MAL MÉDICO, UN MAL ANALISTA HACE SOLO LO QUE EL CLIENTE LE PIDE.”

Page 44: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 44/6042

Negar que la revolución del cómputo móvil ya co-menzó es una necedad: ya en 2012 la mitad deltráfico web de los 100 sitios más visitados venía 

desde dispositivos móviles como teléfonos celulares y ta-bletas; para inicios de 2013 ese número había aumentadoal 68%, lo que por un lado indica el enorme crecimien-to del ecosistema de dispositivos móviles a costillas de losequipos de escritorio, y por otro las nuevas dinámicas enuso de estos dispositivos que están siempre conectados y siempre con su usuario.

Para los profesionistas de TI este auge viene con uncosto: un ecosistema diverso con silos cerrados de tecno-logías propietarias, que no son necesariamente interope-rables, y ciclos de actualización y cambio más cortos, queaumentan tanto el costo como el esfuerzo para llegar a la mayor cantidad posible de usuarios, mientras que para hacer liberaciones de software hay menos tiempo y más

intermediarios. La alternativa más viable a esta fragmenta-ción de mercado es HTML5 y las web apps .

 El problema de las app stores Antes del iPhone, la entrega de aplicaciones móviles era muy compleja: las personas se “pasaban” apps por mediodel puerto infrarrojo de sus dispositivos, o las descargabandesde sitios web de dudosa reputación con riesgo de ex-poner sus datos personales y el acceso a su información depago. Con el iPhone, también llegó la Apple App Store,un servicio de compra y descarga gestionado por Appleen el cual un programador o empresa podía dar a conocersus apps, distribuirlas e incluso venderlas sin necesidad de

montar toda la infraestructura de pago por su cuenta. El Apple App Store vino a darle al usuario un punto úni-co de descarga de aplicaciones, con la confianza —hasta cierto punto— de que como las apps que obtiene de ahíson evaluadas y sancionadas por Apple, vienen de fuentesconfiables y están libres de malware y virus. Pronto otrascompañías como Nokia, BlackBerry, Palm, Microsoft y Google comenzaron a implementar el mismo modelo conalgunos cambios menores.

El problema de las app stores se volvió pronto evi-dente para los desarrolladores y empresas con solucionespara móviles: la publicación de la app ya no depende del

.COLUMNATECNO-LÓGICO

E Futuro de as Apps es HTML 5

desarrollador sino de los dueños de la tienda, que puedentardar hasta ocho semanas en cada revisión —depende delvolumen de apps que se estén publicado en un momento.Esto agrega incertidumbre al final del proceso para salir a mercado y aumenta el tiempo para corrección de errores ofuturas actualizaciones.

Otro riesgo para los desarrolladores es que para pu-blicar en una App Store puede que se requiera utilizar lasherramientas propietarias de la empresa detrás de la tien-da; de no hacerlo, corremos el riesgo de que la app sea rechazada. Algo como esto sucedió en 2010 cuando Applecomenzó a rechazar apps creadas con Adobe Flash.

Por otro lado, al construir aplicaciones nativas, siqueremos llegar al mayor número posible de usuariostenemos que construir una edición de la aplicaciónpara cada plataforma (ej. iOS, Android, BlackBerry,

 Windows Phone). Esto es similar a lo que ocurría en

los días de la web cuando era necesario hacer distintasversiones del mismo sitio, una para cada navegadorweb, en perjuicio de quien paga el desarrollo o en de-trimento de una experiencia consistente, en la cual elusuario era obligado a instalar un navegador diferentepara acceder a un sitio.

Para las compañías que desarrollan y mantienenplataformas móviles, el motivo de este modelo es cla-ro: encerrar a los desarrolladores en un ecosistema propietario donde el código que escriben no es com-patible con ninguna otra plataforma al tiempo que, alespecializarse, los desarrolladores quedan cada vez másinmersos en ella y es menos probable que se muevan a 

una plataforma distinta.

 Están dares e interoperabilidad Existen en el mercado varias plataformas, frameworks y herramientas que permiten el desarrollo de apps desdeuna base de código común hacia varias plataformas como:Titanium Appcelerator, PhoneGap, Xamarin o GeneXus,por mencionar algunos; no obstante, esto no resuelve elproblema de que se sigue dependiendo de las app storespara llegar a los usuarios. Adicionalmente, cada platafor-ma tiene sus propias guías de diseño visual que son incom-patibles con las demás.

Maurco Angulo(@maurcoangulo) es programa-dor desde 1989dvugador, ávdoescrtor y empren-dedor. Actuamentees CEO y undadorde Tesseract Spacedonde reazauncones de asesory consutor de nno-vacón tecnoógca,mercadotecnadgta y experen-ca de usuaro.

Page 45: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 45/6043

El ecosistema de cómputo móvil ha pasado por las mismas etapasque otras tecnologías enfocadas a usuarios finales, incluyendo aquella en la que una o varias compañías dominantes —o con recursos—intentan eliminar a la competencia usando la táctica conocida como“Adoptar, Extender y Extinguir” que básicamente consiste en enca-minar a los usuarios a usar tecnologías no estándares controladas porun solo proveedor. Esta táctica se utiliza cuando hay un vacío en la definición de formatos completos y se implementa por medio de la participación de mercado de un producto exitoso para forzar un es-tándar de facto. Lamentablemente, tiene consecuencias nefastas para el mercado y el consumidor, ya que limita de forma artificial la crea-tividad y la competencia.

Cuando un ecosistema se estabiliza, es normal que la industria gravite hacia estándares que facilitan las buenas prácticas y permitendesarrollar proyectos de software a mediano o largo plazo con la cer-teza de que la plataforma no depende únicamente de una empresa.En el mundo de las PCs de escritorio, aunque hay lenguajes muy so-

fisticados para cada plataforma como .NET o Cocoa, no es sorpresa que muchos programas sean escritos en lenguajes “viejos” como C++, Java o QT, y el motivo es el mismo: evitar el “retrabajo” y mantenermúltiples bases de código para servir a la mayor cantidad de usuarios.

El desarrollo de aplicaciones para escritorio dio un girocon el surgimiento de las aplicaciones basadas en web y de losproveedores de software como servicio, ya que no solo evita el trabajo de actualización y mantenimiento en cada PC, sinoque cambian los modelos de compra de licencias a otros de sus-cripción, que son más accesibles para empresas y personas. Para los creadores de estos servicios, la perspectiva de poder servir a usuarios de manera instantánea en cualquier parte del mundo,sin intermediarios, es tan atractiva como la posibilidad de tra-

bajar con estándares web como HTML, CSS y ECMAScript, almismo tiempo que pueden tomar decisiones sobre cuál tecnolo-gía utilizar en su infraestructura sin afectar a los usuarios.

 Actualmente, el 80% del tiempo que un usuario pasa en una PC, lo pasa usando su navegador web, y ya es normal que usuariosfinales utilicen aplicaciones complejas directo en el navegador, comoGoogle Apps u Office 365.

La presencia de un estándar claro y abierto, desde sus protocolosde comunicación hasta el lenguaje de desarrollo, es lo que ha per-mitido a la web crecer de la manera que lo ha hecho en los últimos20 años para convertirse en en uno de los cambios tecnológicos quemás rápidamente ha adoptado la humanidad, acaso solo detrás del

cómputo móvil que, paradójicamente, se está moviendo justo en la dirección contraria.

 Presente vs FuturoLas aplicaciones web —o web apps— ya están disponibles para la mayoría de las plataformas de smartphones, pero la experiencia para el usuario todavía es deficiente por razones que van desde problemasde desempeño, falta de acceso a los sensores y sistemas de almacena-miento, hasta falta de una estandarización completa ya que los fabri-cantes de navegadores móviles están repitiendo la historia del escri-torio al incluir características propietarias y omitir capacidades de la competencia con el objetivo de cerrar el mercado hacia su propuesta.

HTML5 es la gran promesa en este sentido y ya hay propuestasfuertes al respecto en el mundo móvil: Blackberry, por medio de la plataforma Webworks, soporta apps escritas en HTML; los dispositi-vos Nokia Asha soportan apps y widgets hechos con HTML; UbuntuPhone también soporta aplicaciones en HTML5; y Firefox OS se va 

al extremo, ya que todas sus apps son HTML5, y el navegador web seconvierte en un runtime más que un visor de contenido.En un mundo donde cada sitio web móvil es una app que pudiera 

descargarse para correr en modo desconectado o semi-desconectado,las tiendas de aplicaciones no serían necesarias y los usuarios podríandescubrir nuevas apps utilizando buscadores, de la misma manera que hoy descubren sitios web. De cumplirse este escenario podríamosllegar a prácticamente todos los dispositivos móviles sin mantenermúltiples equipos y bases de código, estandarizar la experiencia deusuario a la metáfora web que la mayoría de las personas ya conoceny reorientar las app stores a servicios de aseguramiento de calidad y funcionalidades de “pago por uso” como las que ya hay dentro de lasapps para hacer compras, insertar publicidad y otros.

ConclusiónEl futuro de las apps móviles está en HTML5 por varias razones:es un formato abierto, estándar, que cuenta con miles de dise-ñadores y desarrolladores capacitados y al que se puede accederprácticamente desde cualquier dispositivo. La propuesta es muy prometedora, pero aún hay obstáculos por superar para llegar a concretarla, especialmente la inercia que existe en este segmentotecnológico y en cada uno de sus participantes: la industria, losdesarrolladores e incluso los usuarios.

>> Por Mauricio Angulo

››“LA ALTERNATIVA MÁS VIABLE A ESTA FRAGMENTACIÓN DE MERCA-DO ES HTML5 Y LAS WEB APPS.”

.COLUMNATECNO-LÓGICO

Page 46: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 46/6044

El tema de la visualización de datos es muy amplio— demasia-do, tal vez. Para tener claro qué ángulo podemos darle, pues,

vamos a buscar una definición que se ajuste al ámbito en que nuestra revista pretende incidir.

 ¿Qué es la visualización? Las definiciones para este tema que podemos encontrar en la red dan a entender una cierta desesperanza por parte de sus autores por aterrizar unconcepto tan amplio, tan carente de límites. Por ejemplo, de la Wikipedia:

“Visualización es la generación de una imagen mental o una imagen real 

de algo abstracto o invisible.” 

Me quedo con la impresión de que la definición presentada merececierta visualización —para pasar de algo abstracto a una imagen mentalo real. Cuando vamos restringiendo el ámbito de ese “algo” abstracto,la definición comienza a tener sentido. Por ejemplo, también de Wiki-pedia, el inicio de la definición de “visualización científica” dice:

“La visualización científica es la transformación de datos científicos y abs-

tractos en imágenes.” 

Pero seguimos en lo mismo, ya que siguiendo esta lógica podríamosfactorizar el término “científico”, y volvemos al punto de partida. Podría-mos decir que la visualización hierática es “la transformación de datoshieráticos y abstractos en imágenes”, y no por eso hemos de comprendermejor el sistema de escritura empleado en el antiguo Egipto, ¿o sí?

Puede ser que no vayamos por el camino correcto. Va de nuevo:¿Y si olvidamos que esta es una revista sobre desarrollo de software?Podríamos entonces dedicarnos a discurrir por las interminablesinfografías que podemos encontrar en sitios como Medialab Prado(http://visualizar.org ), http://visualizar.info, http://DataVis.ca y tantosmás. A fin de cuentas (cito de Medialab Prado):

“La visualización de datos es una disciplina trans-

versal que utiliza el inmenso poder de comuni-cación de las imágenes para explicar de manera 

comprensible las relaciones de significado, causa  y dependencia que se pueden encontrar entre las 

 grandes masas abstractas de información que gene-

ran los procesos científicos y sociales.” 

 El desarrollo histórico Y sí, casi cualquier representación que podamoshacer de un proceso, o de un hecho en el tiempo,puede tomarse como una forma de visualización.Podríamos incluso mencionar que la visualización

es lo que hizo evolucionar a los protohumanos: ¿Qué no es la pintura rupestre una visualización, una forma de recordarle a los colegas el des-pliegue de valor que tuvieron en la cacería del otro día?

O una de las principales herramientas que nos fueron llevando hacia la abstracción: ¿No es una de las aplicaciones más claras de visualizaciónla representación de un espacio físico en un espacio menor? (un mapa,pues). Uno de mis ejemplos favoritos que muestra cómo la abstracciónse va haciendo necesaria y útil es la Tabula Peutingeriana [1], un mapa distorsionado para reducir el espacio poco importante (el mar) y enfati-zar en el espacio de interés (dando dimensiones exageradas a la península itálica, por ejemplo) para presentar un mapa de carreteras del imperioromano. Una vez más, cito un texto de la Wikipedia:

“Existen dudas acerca de si se debería llamar “mapa” a la Tabula Peutin-

 geriana, ya que no intenta representar las formas reales del terreno. Se 

cree que la Tabula se basa en «itinerarios», o listas de destinos a lo largo

de las calzadas romanas. Los viajeros no poseían nada tan sofisticado

como un mapa, pero necesitaban saber lo que tenían por delante en la calzada y a cuanto quedaba.” 

 Y sí, a diferencia de los mapas, la Tabula incorpora la cuantificaciónsemántica de cada porción del territorio —sobrepone de una forma ma-

ravillosa una imagen bidimensional con la densidad relativa del interésque despierta cada parte del mapa. Un usuario de este mapa debe saberque no está a escala, que el Mediterráneo es más que un conjunto deríos alrededor de la tierra, que los ángulos en los caminos no serán comoestán descritos —pero podría seguir cada uno de los pueblos a su paso,y tomar como referencia las características que más llamaron la atencióndel autor. Ver Figura 1.

 Y es precisamente lo que hicieron los autores de esta tábula lo que nos toca emular hoy en día, en la época del big data y delos procesadores que miden su eficiencia en miles de millones deoperaciones por segundo. Pero podemos aprovechar aún más esta ventaja que tenemos si seguimos las enseñanzas de Charles Minard:Encontrar abstracciones y mecanismos que nos permitan compri-

mir un conjunto numérico multidimensional en una proyecciónde menor dimensionalidad, sin pérdida relevante de información.

¿A qué me refiero con esto? La famosa “carta figurativa de las pérdi-das sucesivas en hombres”[2] registra el avance geográfico de las tropasde Napoleón en su malograda campaña a Rusia (y su todavía más im-presionante retorno ya como ejército fracasado), referenciado contra lasgélidas temperaturas del invierno ruso. La gráfica incluso indica algunoshitos geográficos (los principales ríos y ciudades) como referencia. Bue-no, vamos entonces entrando en materia: Lo que nos permite hacer la visualización es presentar grandes cantidades de información numérica,que podría parecer incomprensible al humano, de modo que su signi-ficado nos resulte de natural comprensión. Después de una muy larga 

.COLUMNAPROGRAMAR ES UN

ESTILO DE VIDA

Gunnar Wol esadmnstrador desstemas para eInsttuto de Inves-tgacones Econó-mcas de a UNAMy desarroador deproyecto DebanGNU/Lnux.http://gwol.org

Tan Humano como a Visualización, tan Dvno como a Memora

Page 47: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 47/6045

introducción, vamos al tema principal que yo quería abordar cuandocomencé con la escritura de esta columna: un programa en específicopara visualizar elementos de la administración de sistemas, Munin[3].

 MuninMunin es una herramienta libre, diseñada para ayudar a administrado-res de sistemas y de redes a analizar los distintos aspectos de sus distintosequipos, servidores y subsistemas. Su diseño es muy sencillo, y permitecomenzar a ser de utilidad tan pronto es instalado, y al mismo tiempo,está pensado para ser arbitrariamente extensible. Munin sigue de cerca la línea de análisis histórico que presento, y eso le ganó bastante simpatía pormi parte: Cuenta la mitología noruega que Munin y Hugin son los doscuervos emisarios del dios Odín. Ellos vuelan todos los días por la Tierra (Midgard), viendo y recordando todo lo que ocurre, para contárselo. Mu-nin representa a la memoria, y Hugin al pensamiento.

Munin es una excelente herramienta de visualización, en el senti-do previamente descrito: presenta números aparentemente inconexos eincomprensibles de forma que, viendo un conjunto de gráficas, resulta muy simple no sólo el relacionar a los patrones presentados visualmente,sino que expresa ciertos subsistemas complejos de maneras tan obviasque termina ilustrando no sólo el qué hace, sino el cómo funciona.

Para ilustrar a qué me refiero, presento aquí la gráfica de uso de me-

moria de uno de los servidores que administro. Ver Figura 2. Es comúnque nos preguntemos cuánta memoria disponible tiene nuestro servidor—en un sistema Linux estándar, podríamos ingenuamente respondercon los números que nos genera el comando free, e incluso sería frecuen-te que nos restrinjamos a las tres primeras columnas:

 

El tener gráficamente la proporción de áreas de memoria en cada uno de los estados presentados, sin embargo, nos lleva a entender mu-

cho mejor lo que ocurre: ¿Por qué es que tengo casi la cuarta parte dela memoria marcada como no utilizada (amarillo claro) y al mismotiempo estoy utilizando swap? ¡Ah! Con la gráfica queda claro que una porción no trivial de la memoria se mantiene disponible, por lo visto,para dar plasticidad al sistema, para permitir que los procesos entren y salgan de ejecución. Y para eso se emplea también buena parte de losbuffers, que son presentados en color violeta. El uso duro real de la me-moria está representado por la sección más baja que ocupa un espaciosignificativo, las aplicaciones (verde). Ver Figura 2.

No sé si la fidelidad de la impresión permita apreciar las líneas queaparecen superpuestas a las áreas: Las líneas que marcan los niveles de

memoria activa, comprometida e inactiva. Estos tres niveles sirven mu-cho mejor como termómetro para entender el nivel de estrés que está el

sistema enfrentando en un momento dado. Las dos primeras líneas osci-lan, en el periodo de un día que les presento, entre el 50 y el 70% de uti-lización, con un pico mínimo de cerca del 40% (para la memoria activa)y un pico máximo de cerca del 85% (para la memoria comprometida).

No entro en detalles intentando explicar qué significa cada cresta o valle, y a qué eventos del día podrían estar respondiendo. Mi inten-ción es presentar una herramienta libre y sencilla que me ha enseñadomucho y se ha convertido en un aliado permanente en mi tarea deadministración de sistemas.

Si les interesa encontrar mayor información acerca de Munin, lesinvito a leer un artículo que publiqué al respecto [4], así como una presentación donde entro en más detalle en ciertos aspectos de la admi-nistración de sistemas[5]. También dejo la referencia al sitio oficial de

Munin, donde podrán encontrar todos los ejemplos, documentación einformación que puedan requerir al respecto.

>> Por Gunnar Wolf  

Referencias 

[1] https://es.wikipedia.org/wiki/Tabula_Peutingeriana

[2] https://en.wikipedia.org/wiki/Charles_Joseph_Minard 

[3] http://munin-monitoring.org

[4] Monitoreo de PostgreSQL con Munin, Revista Cubana de Ciencias Informáticas,

 2011; http://ru.iiec.unam.mx/116/ 

[5] Monitoreo de redes con Munin, FONASOL 2008, http://gwolf.org/soft/munin

total used ree shared bufers cached

Mem: 3374916 2723708 651208 0 304720 1498288

-/+ bufers/cache: 920700 2454216

Swap: 3903784 191292 3712492

Figura 2. Munin: Visualización de uso de memoria.

Figura 1. Tabula Peutingeriana.

Page 48: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 48/6046

.COLUMNACÓDIGO INNOVARE

Gobierno AbiertoHACIA LA TRANSPARENCIA, PARTICIPACIÓN Y COLABORACIÓN CIUDADANA

En los últimos años se ha observado un crecimiento cons-tante de Datos del Gobierno Abierto (OGD, por sus si-

glas en inglés), emergiendo como un importante canal de comunica-ción entre los gobiernos y sus ciudadanos. Posiblemente los portalesde OGD más conocidos son los de los gobiernos de Estados Unidos(http://data.gov ) y el Reino Unido (http://data.gov.uk ).

El concepto de Gobierno Abierto se basa en tres aspectos: la trans-parencia, la colaboración y la participación ciudadana. A continuacióncomparto un breve explicación de estos aspectos, tomando como re-ferencia el Memorando sobre Transparencia y Gobierno Abierto pro-mulgado por el presidente de EEUU Barack Obama en el 2009:

• Transparencia. El gobierno debe permitir el acceso de la información pública ante la ciudadanía. La información debeser abierta, completa y de fácil acceso; asimi smo, debe ser sus-ceptible de ser procesada a través de herramientas tecnológicas

y de comunicación.• Participación. El compromiso público mejora la eficacia delGobierno y mejora la calidad de sus decisiones.El gobierno debe promover la participación ac-tiva de la ciudadanía en la conformación de po-líticas públicas, de esta manera los gobiernos sebeneficiarán con el conocimiento y la experiencia de los ciudadanos.• Colaboración. La colaboración no implica úni-camente al ciudadano, sino que incluye a organi-zaciones sin fines de lucro, negocios e individuosdel sector privado, permitiendo el trabajo conjuntode la administración y la identificación de nuevas

oportunidades de cooperación.

 Lineamientos¿Qué alcance debe tener una iniciativa de datosabiertos? El movimiento OGD se está convirtien-do en una iniciativa ciudadana que aboga por la transparencia de la administración. Pero, ¿quérequisitos debe cumplir una iniciativa para poderser considerada como OGD? Con el propósito decontestar esta pregunta, en diciembre del 2007 sereunió un grupo de expertos en Sebastopool, Cali-fornia. Como resultado de esta reunión se obtuvo

una lista de ocho principios que deben cumplir los datos de gobier-no para ser considerados como abiertos [1]. Éstos son:

• Los datos deben ser completos: Todos los datos públicos estándisponibles.• Los datos deben ser primarios: Los datos se publican tal y comofueron obtenidos desde la fuente original, con el mayor nivel degranularidad posible.• Los datos deben ser oportunos: Los datos están disponibles conla prontitud necesaria como para que éstos no pierdan su relevancia.• Los datos deben ser accesibles: Los datos están disponibles para la más amplia gama de usuarios y propósitos posibles.• Los datos deben ser procesables por computadoras: Los datosestán estructurados de manera que puedan ser procesados de forma automatizada.• El acceso no debe ser discriminatorio: Los datos están disponi-

bles para todos, sin requerir un registro para tener acceso a éstos.• El formato de los datos debe ser no-propietario: Los datosestán disponibles en un formato en el cual ninguna entidad tienecontrol exclusivo.• Los datos deben ser libres de licencia: Los datos no están suje-tos a ningún derecho de autor, patente, marcas o reglamento.

Finalmente, el cumplimiento de estos principios debe ser au-ditable. Esto implica que la institución o dependencia que publica los datos debe designar a una persona de contacto que pueda res-ponder a las personas que tratan de utilizar los datos; también debehaber un contacto para responder a quejas sobre la violación de losprincipios; y un organismo externo debe tener jurisdicción para 

validar que la institución o dependencia en cuestión esté aplicandoadecuadamente estos principios.

El conjunto de principios de la reunión de Sebastopool se ha convertido en punto de inicio de facto para cualquier iniciativa deOGD. Adicionalmente, la Sunlight Foundation se ha dado a la tarea de continuar con la actualización y expansión de estos principios. Esasí que en agosto del 2010 publicó el documento “Ten Principles forOpening Up Government Information” [2] que contiene una lista revisada de principios. Estos son.

• Completa: Los datos publicados por el gobierno deben estar tancompletos como sea posible, reflejando toda la información que se

Blanca HldaVázquez Gómez es Maestra enCencas de aComputacón conMencón Honor-ica por e CentroNacona de Inves-tgacón y Desa-rroo Tecnoógco(CENIDET) y Lc.en Inormátca pore Insttuto Tecno-ógco de TuxtaGutérrez, Chapas.Ha coaborado

en proyectos denvestgacón en aFundacón BrunoKesser en Itaa,a BenemértaUnversdad Autó-noma de Puebay a UnversdadTecnoógca dea Mxteca, todospor parte deCONACYT. Actua-mente coaboraen e equpo deInvestgacón deTecnoogías y Mo-deos Semántcosde INFOTEC.

Page 49: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 49/60

tiene registrada sobre el elemento en cuestión. Se deben publicar los datos “crudos” (sinprocesamiento previo), excepto cuando se trate de datos personales confidenciales o quepongan en peligro al país y/o administración. Además, se deben incluir los metadatos dela información, permitiendo de esta manera que el usuario comprenda el contexto de ésta.• Primaria: Los datos deben provenir de su fuente primaria, esto incluye información ori-ginal recolectada por el gobierno, detalles de cómo fueron recolectados y los documentosoriginales que registran la recolección de los datos.• Oportuna: Los datos publicados por el gobierno deben ser liberados en forma oportu-na. La información en tiempo real aumenta su utilidad.• Facilidad de acceso físico y electrónico: Los datos liberados por el gobierno deben seraccesibles, sin barreras físicas (visitar una oficina particular) y sin barreras tecnológicas(plataformas orientadas a tecnologías específicas y propietarias).• Legible: Los datos deben presentarse en formatos de archivos que sean legibles para lascomputadoras y que puedan procesarse. Esta información debe ser acompañada por la documentación relacionada con el formato y cómo usarla en relación a los datos.• No discriminatoria: Los datos deben ser accedidos por cualquier persona, sin registrosprevios o sin proporcionar una justificación.• Licenciamiento: Los datos deben estar libres de “Términos del servicio”, “Restric-ciones”, “Reglas”.• Permanencia: Los datos disponibles en línea deben permanecer así, perpetuamente. Adi-cionalmente, si éstos sufren cambios se debe manejar y publicar un control de versiones

adecuado.• Costos de uso: Se recomienda evitar el cobro de tarifas para tener acceso a la informa-ción, ya que esto disminuye la participación de los ciudadanos y por lo tanto limita losbeneficios de OGD.

 Así como estos grupos de trabajo han propuesto una serie de principios, muchas otrasorganizaciones han tratado de definir cuáles deben ser la reglas del juego para OGD. En estecontexto la directora ejecutiva del Acceso de Información Europea, Helen Darbishire, señala que: “Los mejores estándares vendrán del trabajo de sociedad civil y gobiernos definiendo

 juntos los conceptos de Transparencia, Participación y Rendición de cuentas” [3].

ConclusiónEn conclusión, la apertura pública de los datos del gobierno promueve en la medida de lo

posible el discurso civil, el mejoramiento del bienestar público y más aún el uso eficiente delos recursos públicos. La iniciativa de gobierno abierto promueve una relación bidireccional“Administración-ciudadano” de esta manera la participación y colaboración del ciudadano esun “elemento vital” para que esta iniciativa cumpla su propósito y no pase en los siguientesaños como parte del bagaje histórico.

>> Por Blanca H. Vázquez 

Referencias 

[1] “8 principles of Open Government Data”. http://swgu.ru/sg40r1

[2] “Ten Principles for Opening Up Government Information”. http://swgu.ru/sg40r2

[3] “Open Government Standards”. http://swgu.ru/sg40r3 

›› “EL COMPROMISO PÚBLICO MEJORA LA EFICACIA 

DEL GOBIERNO Y LA CALIDAD DE SUS DECISIONES.”

Page 50: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 50/60

RICARDO CACIQUERicardo es socio fundador y CTO de

Fontacto, empresa que ofrece un ser-

vicio de conmutador telefónico virtual

para profesionistas independientes y pe-

queñas empresas. Ricardo diseñó la red

e infraestructura tecnológica que permi-

te a Fontacto operar con alta disponi-

bilidad a un bajo costo. Recientemente

fue nombrado por Pulso Social como

uno de los 10 emprendedores Latinoa-

mericanos a seguir en 2013.

 ¿Qué es lo que más te gusta de lo que haces? 

Que tengo la oportunidad de crear el

futuro de las comunicaciones en Amé-

rica Latina y que en México tenemos el

talento para crear productos y servicios

competitivos globalmente.

 ¿Quién(es) son tus modelos a seguir? 

Richard Branson por su capacidad de

identificar oportunidades, ejecutar rápi-

damente y hacer disrupt en industrias

tradicionales con una gran atención al

cliente como diferenciador. Elon Musk.

 ¿Qué consejo tienes para tus colegas? 

El talento que existe en México y América 

Latina es tan bueno como en potencias

mundiales, es cuestión de no tener miedo

a tener una visión grande e ir tomando

acciones para cumplir esa visión, sea pro-

fesional, personal o colectiva.

Conoce más sobre Ricardo en:

http://swgu.ru/rcacique

PAMELA RODRÍGUEZPamela es una de las diseñadoras de UI

e interacción más experimentadas en

México. A través de su carrera ha cola-

borado en varias de las empresas líderes

en este segmento en nuestro país tales

como Web Usability, Naranya, y ahora 

Base22. También ha sido profesora en la 

Universidad de Nuevo León, y durante

un par de años escribió una serie de artí-

culos en SG sobre diseño de usabilidad

y experiencia del usuario.

 ¿Qué es lo que más te gusta de lo que haces? 

Darle vida a la solución de un proble-

ma de manera visual, tanto en diseño

de mockups como en desarrollo web

de front-end.

 ¿Quién(es) son tus modelos a seguir? 

Luke Wroblewski, Stephen Anderson,

Ethan Marcotte, Josh Clark y Jared Spool;

por todo lo que han logrado, por todo lo

que he aprendido de ellos, y por lo abier-

tos que son a enseñarte lo que saben.

 ¿Qué consejo tienes para tus colegas? 

Elijan bien a su equipo. No solo es la 

persona más apta, si no la que tiene

más ganas de trabajar y la que puede

hablar con facilidad con otros y escu-

char a los demás. Un buen equipo de

personas dedicadas es la clave de un

buen resultado.

Conoce más sobre Pamela en:

http://swgu.ru/thepam

EDUARDO DIAZEduardo es un desarrollador y arqui-

tecto de software al que le encanta 

explorar nuevas tecnologías y aplicar-

las para brindar la mejor experiencia 

posible al usuario. Eduardo no está 

peleado con ninguna tecnología, y 

lo mismo le entra a Java que a .Net,

Python o Node.js. Actualmente par-

ticipa en el desarrollo del nuevo “Sis-

tema Emprendedor” del Instituto Na-

cional del Emprendedor.

 ¿Qué es l o que más te gusta de l o

que haces? 

Me encanta saber que mi trabajo im-

porta, y ayuda a emprendedores mexi-

canos desde a constituir su empresa,

hasta recibir apoyos por sus ideas.

 ¿Quién(es) son tus modelos a seguir? 

 Admiro a Rick Hickey, creador de Clo-

 jure, y su obsesión por tener mejores

herramientas de desarrollo.

 ¿Qué consejo tienes para tus co legas? Siempre pidan más de sí mismos,

nunca se crean que no pueden ser

mucho mejores.

Conoce más sobre Eduardo en:

http://swgu.ru/iamedu

RODRIGO TORRESRodrigo es uno de los consultores

de procesos de software más activos

en nuestro país. A lo largo de los úl-

timos siete años ha participado en

proyectos de mejora para más de 50

empresas abarcando modelos como

CMMI, MoProSoft e ITIL. Rodrigo

actualmente forma parte del equipo

de consultores en la empresa Innevo.

 Adicionalmente es colaborador fre-

cuente en SG, escribiendo artículos

para la revista e impartiendo cursos enSG Campus.

 ¿Qué es lo que más t e gu sta de lo

que haces? 

Conocer la diversidad de personas y 

empresas que existen en la misma in-

dustria. El modelo de calidad puede

ser el mismo pero la forma de imple-

mentarlo siempre es distinta.

 ¿Quién(es) son tus modelos a seguir? 

 José María Morelos y Pavón, Simón

Bolivar, Bruce Wayne (Batman) y Pe-ter Parker (Spiderman).

 ¿Qué consejo tienes para tus colegas? 

No se le puede llamar conocimiento al

conocimiento que no es compartido.

 

Conoce más sobre Rodrigo en:

http://swgu.ru/garicorp 

48

.SG TALENTO

Inundados entre la tecnología y los procesos, tendemos a olvidar el tercer ingrediente fundamental de nuestra profesión: las perso-nas. Esta nueva sección brinda un espacio para que podamos conocer más sobre otros profesionistas que comparten su perfil y nos

permiten conocer el talento que hay en México.

Te invitamos a compartir tu perl en http://sgtalento.com

Page 51: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 51/6049

.GRANDES MUNDOS PARA CREAR SOFTWARE

FILOSOFÍA Somos artesanos de software, creemos firmemente que la calidad del software esun reflejo de la gente que lo crea, esa es la razón por la que nos buscan nuestrosclientes, esa es la razón por la que sabemos que vale la pena invertir en encontrar a los mejores Ingenieros de Software.

El talento de nuestros ingenieros es nuestro principal activo, trabajamos congente inteligente, comprometida y apasionada, que valora su crecimiento personaly profesional, el trabajo en equipo y sus fines de semana, pues para nosotros esmuy importante que exista un balance entre vida personal y laboral.

 Además de nuestros horarios flexibles, proveemos un ambiente único de trabajo para fomentar la creatividad, concentración y desarrollo de habilidades de nuestro equipo.

INICIATIVAS• Fundadores, patrocinadores y activos colaboradores de la Java Community 

en Guadalajara, también conocida ahora como Java User Group Guadalajara • Sede de Code Retreat en Mayo de 2012

• Colaboraciones en Software Guru Conference, RailsMX y Tequila Valley 

PROYECTOS INTERESANTES O PROYECTOS QUE HACENDESDE MÉXICO• Proyectos de corta duración con lo último en tecnologías y metodologías para 

empresas del Fortune 500 como:- Nike- Converse- Audi- GHD- Macys- John Lewis- GAP- Motorola 

CONTACTO DE RHhttp://www.tacitknowledge.com/careers.shtmlRaymundo Torres Bernal, [email protected]

Giro: Consultoría en Desarrollo deSotware, especalzados en ComercoElectrónco para empresas en EstadosUndos e InglaterraUbicación: Torre Brasla, Av. Amércas1905, Pso 3, esq. con Brasla, ColonaAldrete, Guadalajara, Jalsco, Méxco,CP: 44660.Página Web: www.tactknowledge.comFacebook: www.acebook.com/ pages/Tact-Knowledge-

Guadalajara/173119076046518Twitter: twtter.com/tkgdlNúmero de Empleados a

Nivel Mundial: >80Número de Empleados en Guadalajara: >15

BENEFICIOS QUE DAN ALOS EMPLEADOS• Seguro de GMM para el empleado y su familia,

cónyuge e hijos• Seguro de Emergencias Médicas EMME para el

empleado y su familia, cónyuge e hijos• Seguro de Vida para el empleado

• Fondo de Ahorro del 5%, el empleado pone

5% de su salario cada mes y la empresa pone un5% extra, se entrega cada año en Diciembre• Vales de Despensa 

• 20 días de vacaciones al año desde el primer

año que trabajan con nosotros• 10 días festivos mínimo garantaizados por año

• Trabajo desde casa cuando la situación

lo amerita • Sueldos superiores al promedio de la industria 

• Games room con mesa de billar, ping-pong,

televisión con cable, wii• Fruta y snacks

• Bebidas alcohólicas y no alcohólicas

• Prestaciones de ley 

Page 52: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 52/6050

REST: BOCINA STAND 2.1

Perfect Choice

El sistema de bocinas Rest de Perfect Choice duplica funcionalidadcomo stand de soporte para tu TV o monitor, resistiendo un peso dehasta 50 kilogramos. Su diseño es sencillo pero sofisticado, sumándosea ese toque minimalista que está de moda. La bocina Rest cuenta conun subwoofer de 15W y dos satélites de 7.5 W cada uno. Cuenta conconexiones de 3.5 mm (mini-plug) y RCA, por lo que se puede conec-tar fácilmente con TVs, reproductores MP3, smartphones, consolas devideojuego, etcétera. La base tiene unas medidas de 58.5 x 22 x 5 cm.y pesa tan solo 1.7 kg. Tiene un costo aproximado de $2,199.00 pesos.

SONY

Vaio Pro

 Sony VAIO introduce al mercado mexicano su nueva línea de productos

para este verano, integrada por cuatro series: Duo, Pro, Fit y Fit E. La línea Pro es la que más nos llamó la atención en SG. Está disponible endos configuraciones: 11 y 13 pulgadas, con un peso de tan solo 0.87 kg. y 1.06 kg., respectivamente. Ambos equipos incorporan procesadores Intelde 4ta generación (Haswell), y pantalla touch con resolución Full HD (1920x1080). Más allá de la resolución en pixeles, la calidad de la imagen es sinduda es uno de los elementos que resalta de la Vaio Pro, gracias a que incorpora tecnologías como Triluminos y X-Reality, que originalmente fueronintroducidas en las pantallas de TV Bravia.Otra capacidad atractiva es la denominada “quick charge”, que permite obtener hasta 90 minutos de usocon solo cargar 10 minutos la pila. La Vaio Pro de 11 pulgadas viene con 4 GB de RAM y disco de estado sólido de 128 GB, teniendo un preciosugerido de $16,799. La Vaio Pro 13 tiene mayores posibilidades de configuración, pudiendo tener 8 GB en RAM, 256 GB en disco y procesadori7; dependiendo de la configuración, el precio de la Vaio Pro 13 irá de los 18 mil a los 24 mil pesos. En resumen, la Vaio Pro es una Ultrabook idealpara “guerreros del camino” que requieren un equipo altamente portátil pero con suficiente poder para llevar a cabo tareas avanzadas.

.TECNOLOGÍAGADGETS

PEBBLE

Reloj Inteligente

En los últimos meses ha habido bastante es-peculación sobre si los relojes inteligentesserán la próxima categoría de gadgets quecobre gran popularidad. De hecho, confor-me preparamos esta nota hay fuertes rumo-res de que Apple lanzará en el WWDC suesperado iWatch. Independientemente de

lo que suceda con el iWatch, un producto que ya está en el mercado y que sin duda nos atrae es el Pebble. Pebble se autoproclama como “el primer reloj construido para el siglo 21”. Entre sus atributos podemos listar: pantalla de tinta electrónica, carátulas per-sonalizables (puedes descargar diseños o crear el tuyo), y conectividad con smartphones por medio de Bluetooth. La conectividadcon smartphones, sumado a un SDK abierto, es lo que realmente hace poderoso a l Pebble, ya que esto brinda la posibilidad de tenertodo tipo de apps que puedan hacer uso de las capacidades de los smartphones. El dispositivo también cuenta con acelerómetrode 3 ejes, el cual permite detectar e interpretar movimiento, así como un motor de vibración que será útil para notificar eventos alusuario. Por el momento, el Pebble solo se puede adquirir por medio del sitio http://getpebble.com.

Tiene un precio de $150 dólares y se aceptan órdenes internacionales.

Page 53: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 53/60

Page 54: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 54/6052

 A ntes de iniciar de lleno con la respuesta a la pregunta plantea-da en el título de este texto, quisiera decir por qué vale la pena 

volver a definir qué es software libre y por qué abordar este tema una vez más desde el principio.

 Actualmente —y con actualmente me refiero al primer cuar-to del 2013— estamos viviendo una efervescencia —por lla-marlo de alguna forma— en el tema de acceso libre y abierto.Por ejemplo, por primera vez en México hay una iniciativa deley para dar acceso abierto a artículos de ciencia y tecnología mediante plataformas en línea [1]; de manera casi simultánea, elParlamento Inglés se encuentra debatiendo sobre cuál es la mejoralternativa para el acceso abierto a artículos académicos, cientí-ficos y de divulgación[2], ya sea optando por la “ruta dorada”(revistas de acceso abierto) o la “ruta verde” (autores que subensu obra a repositorios abiertos) [3]. Otro ejemplo de la tenden-cia hacia la cultura libre es la intención del gobierno mexicano

por proteger datos, transparentarlos y dar acceso a informaciónpública. Finalmente, está el caso del software libre, que más queun ejemplo, en este contexto nos sirve como un caso de éx ito enel que lo podemos ver como una opción real, confiable y com-petitiva en el área de desarrollo y uso de software.

Es por eso que considero útil analizar al software libre comoun caso de éxito en el marco del movimiento de cultura libre y contribuir con este análisis para el entendimiento de lo que es y de lo que implica un cambio a un modelo de acceso abierto enéste u otro contexto.

Permítame entonces, amable lector, replantear el título de estetexto a “Movimiento de Cultura Libre: El software libre como casode éxito” para poder definir nuevamente lo que es el software libre y 

de código abierto con la finalidad de entender la filosofía de todo elmovimiento a partir de este caso de éxito.

Para contestar ¿Qué es Software Libre? iniciaré diciendo lo queno es, para posteriormente explicarlo desde cuatro perspectivas.

El software libre no es libre por ser gratuito. La gratuidad esun aspecto tangencial de este movimiento y no una característi-ca definitoria. Es decir, hay software gratuito que no necesaria-mente es libre. Algunos desarrolladores “liberan” versiones queno requieren de pago, versiones limitadas (lite) o para compar tir(shareware), como pruebas (test drive) de su producto completopero esto no convierte a dichos programas o apps en productoslibres y de código abierto. Otros desarrolladores de software y 

empresas comerciales permiten el acceso a sus servicios especial-mente para aquellos basados en navegador sin que el usuariotenga que pagar una suscripción o una licencia de uso, pero deigual manera estos servicios no necesariamente son de libre acce-so y de código abierto. Aunado a esta confusión de “l ibre=gratis”es el hecho de que la palabra inglesa “free” se puede traducircomo libre o como gratis, dependiendo de su contexto. El soft-ware es libre no por la exención de un pago, sino por el libreacceso que tiene el usuario al uso del programa e inclusive a la modificación de su código.

El software libre no es un movimiento anárquico que quiera ir en contra de las grandes empresas. El software libre es una res-puesta social a las necesidades de los usuarios quienes más allá deahorrarse el pago de una licencia de uso, quieren apropiarse de la herramienta a nivel de uso y de desarrollo, y poder así ver comoha sido escrito el código de los programas que utilizan y si así

lo quisieran, colaborar en el desarrollo del programa o inclusivemodificarlo o personalizarlo. En este sentido, el objetivo del soft-ware libre es entonces dar pleno acceso al usuario a un programa informático en diferentes niveles (uso, colaboración, desarrollo).

 Ya si el usuario decide cambiar de una programa con licencia co-mercial privativa a un programa libre y de código abierto total oparcialmente, es otro aspecto tangencial.

El software libre no es un movimiento maniqueísta en el queel usuario que decida utilizarlo se ve obligado a renunciar a unsistema operativo de licencia propietaria y nunca más poder vol-ver a usarlo. El software libre es flexible ya que puede convivircon otros programas en una computadora con sistema operativo(SO) propietario en diferentes niveles. Se puede instalar un SO

libre y de código abierto en una computadora con otro SO sinnecesidad de borrar el SO propietario; también se puede virtua-lizar un SO libre y de código abierto sobre uno propietario oviceversa. Asimismo es factible instalar programas de producti-vidad, de diseño y de otros tipos con licencia libre y de códigoabierto sobre un SO propietario así como también se puedenutilizar programas de licencia de uso pr ivativa en un equipo conSO libre y de código abierto.

El software libre no es un movimiento puramente informá-tico. El software libre impacta a otras áreas además de la infor-mática ya sea de forma directa o indirecta. Los aspectos éticos,legales, económicos y de negocios son tres áreas en las que el

.FUNDAMENTOS

¿Qué es Software Libre?››Por Alberto Ramírez Martinell 

Page 55: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 55/60

impacto es directo. Con la adopción total o parcial de solucionesinformáticas libres y de código abierto, los usuarios pueden sermás conscientes de los derechos de autor, de las implicaciones deuso de software apócrifo y del impacto que puede tener la difu-sión y distribución de programas de código abierto con personascon pocas posibilidades de acceso a tecnología digital, en zonasmarginadas o incluso para países en vías de desarrollo. De forma indirecta, el uso de software libre motiva la colaboración entrepares, trabajo en red, a pensar en colectivo, a tomar la inicia tiva y corregir problemas del programa o a adaptarlo o a socializarloen foros de discusión.

El software libre como caso de éxito del movimiento de cul-tura libre ha sido legitimado sin duda alguna por sus usuarios,sus bondades, su permanencia y trascendencia y por su impactosocial; y como se mencionó al principio, sus rasgos distintivospueden servir como guía para otras iniciativas del movimiento de

cultura libre, que engloba a otras iniciativas como la de formatosabiertos (openformats.org), datos abiertos (opendatafoundation.org), hardware abierto (openhardware.org), acceso libre a Internet(internetparatodos.mx), conocimiento abierto (www.osdd.net),recursos educativos abiertos, acceso abierto a educación (p2pu.org), cursos masivos abiertos y en línea (mooc), contenido enci-clopédico libre (www.wikimedia.org), licencias flexibles (creati-vecommons.org), medicinas abiertas (osdd.net), y por supuestoal de software libre (www.fsf.org), y acceso abierto.

Entonces, una iniciativa del movimiento de cultura libre —sea la de software libre y código abierto u otra— deberá ser vista:

• Como una iniciativa que se legitime por su acceso abierto, librey transparente, y por sus ventajas sociales y de impactos directoe indirecto, más que por ser una alternativa gratuita a opcionessimilares que puedan o no generar un costo. El acceso abiertodebe contemplar, acceso mediante una plataforma digital que de

igual forma no implique un gasto, y que el producto generadoesté en un formato igualmente abierto que pueda ser visualizadosin necesidad de usar alternativas privativas.

• Como un movimiento que tenga benecios sociales.

• Si bien como una opción de cambio, también debe ser vista 

como un complemento de las opciones actuales con intencionessimilares sin que busque en principio sustituirlas completamente.

• Como una oportunidad de impactar tanto en el área medular

de la iniciativa (e.g. software, hardware, educación, derechos deautor) como en otras áreas (social, legal, ética, etc.).

El caso del software libre y de código abierto, es quizás la inter-sección más importante de las áreas social, informática, legal y educa-

tiva de nuestros tiempos, que además ha potenciado la colaboracióny el trabajo en red a niveles globales de manera que resulta alentadory positivo pensar que otras iniciativas del movimiento de cultura li-bre pudieran impactar de manera creciente en sus áreas directas deacción pero también en la sociedad misma, llevándonos a todos a unmundo libre, accesible y de código abierto.

Referencias 

[1] “Iniciativa de libre acceso para México”. Red de Humanidades Digitales. http:// 

 swgu.ru/sg40r19

[2] “Open Access”. Sesión del parlamento del Reino Unido del 16 de abril del 2013.

http://swgu.ru/sg40r21

[3] “Gold and green: the routes to open access”. Jisc. http://swgu.ru/sg40r20

.BIO

Dr. Alberto Ramírez Martnell (@armartnell) es Investgador de tempo competo en e Insttuto de Investgacones en Educacón de a Unversdad Veracruza-

na y coundador de Soca TIC Asocacón Cv. Es nve 1 de Sstema Nacona de Investgadores y tene ntereses de nvestgacón prncpamente en tres áreas:

tecnoogía educatva; desarroo de soucones dgtaes educatvas; y ICT4D. Su iosoía de trabajo está basada en os prncpos de movmento de cutura bre.

http://www.uv.mx/personal/albramrez

“UNA INICIATIVA DE CULTURA LIBRE NO NECESARIAMENTE VIENE A REEMPLAZAR, SINO A COMPLEMENTAR LAS OPCIONES ACTUALES.”

.FUNDAMENTOS

53

Page 56: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 56/60

.SG MARKET

Page 57: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 57/60

 Directorio

Abztar 4F

www.abztar.com.mx/SG

Accenture 07http://cvaccenture.com.mx

Agle Conerence 2013 47

www.agecon.com.mx

Fnantech 54

http://www.inantech.com.mx/ 

Gartner 51

www.gartner.com/mx/aad

Indsegno 31

http://ndsegno.com/ 

KILO 54

www.ko.com.mx

KMMX 54

www.kmmx.mx

McAfee 19

http://www.mcaee.com/es/ 

Mexco Frst 37

www.mexco-irst.org

Qualtop 54

http://www.quatop.com/ 

SEAN 54

http://www.seanmexco.com/ 

SG Buzz 55

www.sg.com.mx

SG Conerence & Expo 1Fhttp://sg.com.mx/sgce/2013

SG Talento 3F

http://taento.sg.com.mx/ 

Tact Knowledge 49

http://www.tactknowedge.com/ 

Vnkos 33

http://vnkos.com/ 

TENEMOS UN ESPACIO RESERVADO PARA TI

SG se dstrbuye de manera mpresa en a Repúbca Mexcana, y de manera dg-

ta ega a más de 25m ectores de haba hspana. E anunco en a revsta dgtacuenta con hperga drecta a tu sto web, o que te dará a oportundad de acer-

carte a nuevos centes.

“Es una gran oportunidad participar con Software Guru, pues comprobamos que

es un medio efectivo.” 

-Novays Latnoamérca

Contáctanos en e (55) 5239.5502 

o en [email protected]

Page 58: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 58/6056

La influencia y el peso de la informática en el ambiente em-presarial no son nuevos. Se remontan al año 1954 cuando

General Electric comenzó a utilizar una computadora para procesarla nómina sus empleados. Desde entonces han ocurrido muchosacontecimientos que han transformado radicalmente el peso de lasTI en las empresas. Entre los más destacables:

• Extrema propagación de los ordenadores personales, que hacen que

las personas vean estos artificios como algo consustancial con la naturaleza humana. Los pertenecientes a la llamada Generación Y, son nativos digi-tales, es decir que han nacido ya con una computadora entre las manos.

• Altísimo grado de digitalización de las redes de telecomunica -ciones, que ahora permiten transportar datos de una forma más ba-rata y sencilla de lo que jamás se llegó a conseguir con el transportede voz con tecnologías analógicas.

• Alta penetración de sistemas de software empresarial “empa -quetados”. Cuando una empresa decide implantar un paquete desoftware está haciendo algo más que comprar un conjunto de pro-gramas... ¡está comprando un modelo de administración para su ne-

gocio! Ese modelo en bastantes ocasiones tiene su origen en tierrasgermánicas y conlleva una disciplina a la que las personas, en muchasocasiones, no estamos acostumbrados.

• Propagación del uso de la telefonía móvil a todos los rincones del

planeta y a todas las clases sociales, culturales y económicas. Posiblemen-te es el primer desarrollo tecnológico que en escasos veinticinco años seha adoptado universalmente sin distinción de continente, raza, idioma,religión, edad, condición socioeconómica... ¡sencillamente, llega a todos!

Estos cambios se han venido consolidando desde mediados de la déca-da de 1990 y hoy su peso es altísimo.

Sin embargo, el perfil de los profesionistas de las tecnologías de la información sigue siendo muy parecido al del profesional del siglo pasa-

do. Con esto no quiero, por supuesto, decir que estos profesionales nose hayan actualizado técnicamente; la mayoría de ellos lo han hecho. Loque pretendemos exponer es que muchos de ellos no han contado con la oportunidad de percatarse de que el nuevo modelo tecnológico requiereotro perfil de relación con el resto de los profesionales que trabajan en la empresa, con los operadores del negocio.

La dicotomía informático-usuario en el modelo antiguo era ne-cesaria y deseable, pero no lo es ahora. Antes el informático era elencargado de escuchar los requerimientos, las necesidades e, inclu-so, los sueños del usuario y traducirlos a programas para que estosdiesen la adecuada satisfacción. Hoy esto ha cambiado. Muchos delos mal llamados usuarios saben hoy más informática, aunque susaber pertenezca a un dominio más general y no al específico de la empresa. Sin embargo, los profesionistas de TI no son conscientesde que su nuevo papel ya no es traducir sino convencer a quienesoperan el negocio para transformarlo y hacerlo más eficiente, másgenerador de valor, abierto al exterior, gobernado por unas reglasinstitucionales que, en ocasiones, no coinciden plenamente con loshábitos y costumbres que un área específica o, incluso, una persona específica venían ejerciendo hasta ahora.

Se trata de utilizar la informática y las telecomunicaciones como una palanca de transformación y modernización y no como una herramienta para mecanizar lo que antes se hacía a mano.

El asunto es muy amplio y su análisis profundo requeriría un librodedicado a este fin, sin embargo lo que no puedo dejar de destacar es la importancia de las relaciones de colaboración entre técnicos y operadoresdel negocio para dotar adecuadamente de sistemas a la empresa.

CONCLUSIÓNEl software no es más que un conjunto de programas con poco valordiferencial; lo que realmente constituye una ventaja competitiva sonlos sistemas, que podemos definir como el conjunto de herramien-tas técnicas de la informática y telecomunicaciones y conocimientos

de negocio. Estos deben aplicarse para servir con excelencia a susclientes, gestionarse eficientemente, adaptarse a los cambios y apro-vechar eficaz y rápidamente las oportunidades de un mercado muy cambiante. No conozco ninguna empresa que haya conseguido estosin poner un especial énfasis en las relaciones de colaboración entretodos sus trabajadores.

.CARRERA

El Rol Moderno del Profesionalde Informática

›› Por José R. Jiménez y Blanca Jiménez 

.BIO

José Ramón Jménez Garnca es undador y consutor en Venture Consutng Méxco y Povera Consutng España. Anterormente ue Drector Genera de IBMEspaña y Drector Genera Adjunto de Banco Santander.

Blanca Jménez Anabtarte consutor en Venture Consutng Méxco y Povera Consutng España. Es MBA Internacona por e IGS-Manhattan Coege (Lasae).

El contenido de este artículo es parte del libro: “El Factor Humano: Cómo triunfar (y ser feliz) en el trabajo” de Editorial Almuzara.

“E nuevo pape de proesonsta de TIya no es traducr, sno convencer”.

Page 59: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 59/60

Page 60: SG40-BigData2

7/29/2019 SG40-BigData2

http://slidepdf.com/reader/full/sg40-bigdata2 60/60