UNIVERSIDAD DE GUAYAQUIL FACULTAD INGENIERÍA INDUSTRIAL DEPARTAMENTO ACADÉMICO DE TITULACIÓN
TRABAJO DE TITULACIÓN
PREVIO A LA OBTENCIÓN DEL TÍTULO DE LICENCIADA EN SISTEMAS DE INFORMACIÓN
ÁREA CIENCIA DE DATOS
TEMA “DESARROLLO E IMPLEMENTACIÓN DE UN
DATAMART COMO UNA SOLUCIÓN DE INTELIGENCIA DE NEGOCIOS PARA EL MÓDULO
DE SEGUIMIENTO DE TUTORÍAS EN LA UNIVERSIDAD DE GUAYAQUIL”
AUTORA CEPEDA CEDEÑO KAREN PAOLA
DIRECTOR DEL TRABAJO LSI. VILLOTA OYARVIDE WELLINGTON REMIGIO, MSC.
2018 GUAYAQUIL – ECUADOR
ii
DECLARACIÓN DE AUTORÍA
“La responsabilidad del contenido de este trabaja de titulación, me
corresponde exclusivamente; y el patrimonio intelectual del mismo a la
Facultad Ingeniería Industrial de la Universidad de Guayaquil”.
Karen Paola Cepeda Cedeño
C.I # 0951412436
iii
DEDICATORIA
Dedico el presente proyecto de graduación a Dios por darme la
sabiduría en los momentos difíciles de la carrera, a mis padres, hermanos,
tíos, amigas que siempre estuvieron dándome la fortaleza que necesite
para culminar mi carrera, a mis docentes que con sus conocimientos
impartidos permitieron que yo logrará terminar mi meta con éxito.
Cepeda Cedeño Karen Paola.
iv
AGRADECIMIENTO
Agradezco a Dios, a mis padres, hermanos, a mis tíos Wilberto y Jessica
por permitirme lograr esta meta que parecía inalcanzable, al Ing. Wellington
Villota por ser mi tutor durante todo este periodo, al Ing. José Caicedo por
su guía durante todo el proceso académico que quien sus consejos nos
inculco a que todo es posible en esta vida profesional y que no hay
obstáculos que nos impidan realizar nuestras metas y a todos los docentes
de la carrera de Licenciatura en Sistemas de Información por todo el apoyo
y conocimiento aportado.
Cepeda Cedeño Karen Paola.
v
ÍNDICE GENERAL
No. Descripción Pág.
PRÓLOGO 1
INTRODUCCIÓN 2
CAPITULO I
MARCO TEÓRICO
No. Descripción Pág.
1.1 Marco Conceptual 7
1.2 Definición del proceso de tutorías 7
1.3 Definición de BI 8
1.3.1 Beneficios de la inteligencia de negocios 9
1.3.2 Arquitectura y componentes de BI 10
1.4 Proceso ETL 11
1.5 Data warehouse 14
1.6 Datamart 15
1.6.1 Tipos de datamart 15
1.7 Sistemas OLAP 16
1.8 Sistemas OLTP 18
1.9 Modelo multidimensional 18
1.10 Esquema estrella y copo de nieve 20
1.10.1 Esquema estrella 20
1.10.2 Esquema copo de nieve 21
1.11 Herramientas BI open source 21
1.11.1 Pentaho 22
1.11.2.1 Power Pivot 26
1.12 Herramientas propietarias 29
vi
No. Descripción Pág.
1.12.1 Oracle BI 29
1.12.2 MicroStrategy 30
1.12.3 Microsoft 30
1.13 Metodologías existentes 32
1.13.1 Metodología Ralph Kimball 32
1.13.2 Metodología Inmon 33
CAPITULO II
MARCO METODOLÓGICO
No. Descripción Pág.
2.1 Análisis situacional 37
2.2 Diseño de la investigación 37
2.2.1 Investigación descriptiva 37
2.3 Población y muestra 38
2.4 Fuentes y técnicas 38
2.5 Plan de recolección de datos 39
2.6 Técnica de levantamiento de información 40
2.6.1 Entrevistas 40
2.6.2 Encuestas 41
2.7 Metodología de desarrollo a utilizar 49
2.8 Diccionario de datos 49
CAPITULO III
PROPUESTA
No. Descripción Pág.
3.1 Tema 51
3.2 Objetivo 51
3.3 Elaboración 51
vii
No. Descripción Pág.
3.4 Etapa de planificación 52
3.5 Identificación de actores y roles 52
3.6 Requerimientos funcionales y no funcionales 54
3.6.1 Requerimientos funcionales 54
3.6.2 Requerimientos no funcionales 56
3.7 Modelo dimensional 58
3.8 Diseño de la arquitectura 62
3.9 Diseño físico 63
3.10 Selección de herramientas a utilizar 67
3.11 Construcción de reportes 67
3.12.1 Conclusiones 76
3.12.2 Recomendaciones 76
GLOSARIO DE TÉRMINOS 77
ANEXOS 79
BIBLIOGRAFÍA 87
viii
ÍNDICE DE CUADROS
No. Descripción Pág.
1 Diferencias de Datamart y Datawarehouse 16
2 Cuadro comparativo de Excel para power pivot 27
3 Cuadro comparativo de herramientas 31
4 Manejo de Fases de las metodologías 35
5 Comparativa de Metodologías 36
6 Resumen de entrevistas 40
7 Pregunta 1 41
8 Pregunta 2 42
9 Pregunta 3 43
10 Pregunta 4 44
11 Pregunta 5 45
12 Pregunta 6 46
13 Pregunta 7 47
14 Roles y actores 52
15 Requerimientos funcionales 54
16 Leyenda prioridad 56
17 Requerimientos no funcionales 56
18 Dimensión estudiante 59
19 Dimensión docente 60
20 Dimensión línea investigativa 60
21 Dimensión sublínea investigativa 61
22 Dimensión unidad 61
23 Carga de datos de docentes 63
24 Carga de datos de línea investigativa 64
25 Carga de datos de docente por línea investigativa 64
26 Carga de datos de estudiantes 65
27 Carga de datos de línea por sublínea investigativa 65
ix
ÍNDICE DE IMÁGENES
No. Descripción Pág.
1 Beneficios de BI 26
2 Fase de transformación 30
3 Fase de carga 31
4 OLTP vs Datamart 32
5 Ejemplo de modelo multidimensional 36
6 Power BI Service 41
7 Funcionamiento de power pivot 43
8 Esquema de base de datos 67
9 Diseño de la arquitectura de power pivot 80
10 Conexión a la base de datos postgres 85
11 Migración de postgres a Excel 85
12 Selección de tablas a utilizar 86
13 Menú principal de reportes 88
14 Reporte de tutores por línea investigativa 89
15 Reporte de línea por sublínea investigativa 90
16 Reporte de asignación de estudiantes a tutores 91
17 Reporte de detalle de las unidades del documento 92
x
ÍNDICE DE GRÁFICOS
No. Descripción Pág.
1 Ejemplo de Pentaho Reporte Designer 23
2 Oracle BI 29
3 MicroStrategy 30
4 Microsoft BI 30
5 Porcentaje de pregunta 1 42
6 Porcentaje de pregunta 2 43
7 Porcentaje de pregunta 3 44
8 Porcentaje de pregunta 4 45
9 Porcentaje de pregunta 5 46
10 Porcentaje de pregunta 6 47
11 Porcentaje de pregunta 7 48
12 Gráfica de tutores por línea investigativa 72
13 Gráfica de reporte de línea investigativa 73
14 Gráfica de asignación a tutores 74
15 Gráfica de unidades del documento 75
xi
ÍNDICE DE DIAGRAMAS
No. Descripción Pág.
1 Proceso ETL 9
2 Fase de extracción 12
3 Esquema estrella 20
4 Esquema de copo de nieve 21
5 Arquitectura Power Pivot 28
6 Ciclo de vida Kimball 33
7 Metodología Inmon 34
8 Casos de uso 53
9 Modelo Matriz 62
10 Modelo de datos 70
xii
ÍNDICE DE ANEXOS
No. Descripción Pág.
1 Entrevista al gestor de titulación 79
2 Informe de avance de tutorías 80
3 Acuerdo de tutorías 81
4 Certificado del Urkund 82
5 Formato de Encuesta realizada a estudiantes 83
6 Formato de Encuesta estudiantes 1 84
7 Formato de encuestas a estudiantes 2 85
7 Presentación de reportes al gestor de titulación 86
xiii
AUTORA: CEPEDA CEDEÑO KAREN PAOLA TITULO: DESARROLLO E IMPLEMENTACIÓN DE UN DATAMART
COMO UNA SOLUCIÓN DE INTELIGENCIA DE NEGOCIOS PARA EL MÓDULO DE SEGUIMIENTO DE TUTORÍAS EN LA UNIVERSIDAD DE GUAYAQUIL.
DIRECTOR: LSI. VILLOTA OYARVIDE WELLINGTON REMIGIO, MSC.
RESUMEN
El presente proyecto tiene como objetivo implementar un Datamart (Base de Datos Departamental), como una solución de inteligencia de negocios (BI), para mejorar la toma de decisiones de los procesos de titulación, se implementará en el departamento de titulación de la Carrera de Licenciatura en Sistemas de Información. A lo largo de este trabajo, se analizó los antecedentes de la inteligencia de negocios, con el propósito de que se comprenda este trabajo, actualmente este proceso no cuenta con herramientas que le permitan realizar el análisis del historial de los docentes dividido por líneas de investigación, actividades que se llevan a cabo en el proceso de tutorías. Está aplicación permitirá generar reportes mediante la utilización de la herramienta Power Pivot con su base de datos que se llevará a cabo en PostgreSQL, para realizar la migración de datos correspondiente. La elaboración de este proyecto se basa en el uso de un almacén de datos en tiempo real con el objetivo de encontrar indicadores que sirvan como fuente de consultas. La metodología que se utilizó en esta investigación es la de Ralph Kimball, que se basa en el Ciclo Dimensional.
PALABRAS CLAVES: Almacén de datos, Dimensional, Kimball, Power Pivot, Metodología, PostgreSQL.
Cepeda Cedeño Karen Paola LSI. Villota Oyarvide Wellington Remigio, Msc. C.C 0951412436 Director del trabajo
xiv
AUTHOR: CEPEDA CEDEÑO KAREN PAOLA SUBJECT: DEVELOPMENT AND IMPLEMENTATION OF A
DATAMART AS A SOLUTION OF BUSINESS INTELLIGENCE FOR THE MONITORING MODULE OF TUTORSHIP IN THE UNIVERSITY OF GUAYAQUIL.
TUTOR: LSI. VILLOTA OYARVIDE WELLINGTON REMIGIO, MSC.
ABSTRACT
The present project aims to implement application using a Datamart (Departmental Data Base), as a solution the Business Intelligence (BI), to improve the decision-making of the graduation processes, it will be implemented in the graduation department of the Information Systems Degree. Throughout this work, it was analyzed an overview of the history of business intelligence, with the purpose that this work, will be understood currently this process doesn´t have tools that allow you to perform the analysis of the history of the teachers divided by lines of research, activities that are carried out in the tutoring process. This application will allow to generate reports using the Tool Power Pivot with its database that will be carried out in PostgreSQL, to perform the respective data migration. The elaboration of this project it is based on using a data warehouse in real time with the aim of finding indicators to serve as a source of consultations. The methodology used in this research is the Ralph Kimball that is based on the Dimensional Cycle.
KEY WORDS: Data Warehouse, Dimensional, Kimball, Power Pivot, Methodology, PostgreSQL.
Cepeda Cedeño Karen Paola LSI. Villota Oyarvide Wellington Remigio, Msc. I.D 0951412436 Director of work
PRÓLOGO
Este proyecto se basa en el desarrollo e implementación de un
Datamart para el módulo de Seguimiento de Tutorías para la Universidad
de Guayaquil en la Facultad de Ingeniería Industrial de la Carrera de
Sistemas de Información, en esta parte se desglosará las actividades que
se realizan en el proceso de titulación.
El presente proyecto está compuesto por cuatro capítulos, el primer
capítulo consta de la introducción, el segundo capítulo hace referencia al
marco teórico, el tercer capítulo se basa en la metodología y herramientas
a utilizar en el proyecto investigativo, finalmente en el cuarto capítulo se
elabora la propuesta.
En el capítulo I se enfatiza en la introducción del tema, la problemática
que existe actualmente en el módulo de tutorías, se especifica los objetivos
generales y específicos se define el alcance y limitaciones del proyecto.
En el capítulo II se desarrolla el marco teórico que consta de las
herramientas que va a utilizar el proyecto, se realiza un análisis de la
metodología a desarrollar.
En el capítulo III se especifica el análisis situacional, la recolección de
datos con las diferentes técnicas de levantamiento de información como
son las entrevistas, encuestas, observación directa etc.
Finalmente, en el capítulo IV hace énfasis a la propuesta donde se
detalla la solución de la misma se analiza y se implementa las diferentes
fases de la metodología ya escogida.
INTRODUCCIÓN
Antecedentes
Actualmente la información es importante al momento de tomar
decisiones, y a veces los resultados obtenidos no son los adecuados por
este motivo es importante, apoyarse en herramientas tecnológicas
Business Inteligencie que contribuyen en el mejoramiento de los procesos
de la parte administrativa en el módulo de titulación.
La carrera de Licenciatura en Sistemas de Información en la actualidad
maneja gran volumen de registros de datos de los estudiantes y docentes
tutores; esta cantidad de datos podrían ser aprovechados para colaborar
en la toma de decisiones, controlando el manejo de toda esta información
donde unos de sus objetivos es compartir e integrar cierta información que
sirvan para mejorar el análisis.
El objetivo primordial de implementar la inteligencia de negocios para
la construcción de un DATAMART es proveer los datos al alcance de los
responsables de la toma de decisiones, utilizando herramientas que me
permitan extraer los datos de manera eficiente y almacenarlos en un
repositorio optimizando la cantidad de recursos como costos, tiempos en
los procesos de negocios, y como resultado haga un análisis de forma
detallada de los indicadores donde muestren el comportamiento y el
desempeño de las diversas actividades que se realicen en la carrera; así
como la información que tenga referencia al ámbito académico de los
docentes y estudiantes.
Por lo consiguiente, el sistema debe incluir reportes tales como el
registro de docentes alineados a la línea de investigación correcta, el
Introducción 3
registro de asistencia de los estudiantes tutorados, el cual, tiene como fin
administrar la asignación del recurso docente tutor de manera equitativa
referente a los proyectos de investigación propuestos por los estudiantes
de la carrera de Licenciatura en Sistemas de Información.
Objeto de la Investigación
En este trabajo de investigación, el objeto de estudio se basó en el
módulo de seguimiento de tutorías del proceso de titulación en la
Universidad de Guayaquil de la facultad de Ingeniería Industrial de la
carrera de Licenciatura en Sistemas de Información.
Delimitación Física de la Investigación
El presente proyecto se realizará en la Universidad de Guayaquil
Facultad de Ingeniería Industrial de la Carrera de Licenciatura en Sistemas
de Información, que se encuentra ubicada en Av. Raúl Gómez Lince S/N y
Av. Juan Tanca Marengo.
Delimitación de Espacio - Tiempo
El espacio que se desarrollara este tema de investigación es en el
departamento de titulación de la Universidad de Guayaquil de la Facultad
de Ingeniería Industrial de la carrera de Licenciatura en Sistemas de
Información, como tiempo estimado seria de 4 meses desde noviembre del
2017 hasta marzo 2018.
Recursos disponibles para la investigación
Entre los recursos disponibles que se van a utilizar en el presente
proyecto de titulación después del levantamiento de información para
recolectar la información respectiva, se encuentran los diferentes tipos de
recursos:
Introducción 4
Recursos humanos: Ing. José Caicedo (Director de la Carrera),
Lcdo. César Muñoz (Gestor de Titulación) y el Lcdo. Wellington
Villota (Tutor).
Recursos materiales: Las herramientas que se van a necesitar son
las siguientes:
• Una portátil de 32 o 64 bits.
• Procesador: Pentium(R) Dual Core 2.20 GHz
• Memoria RAM: 4,00 GB
• pgAdmin III versión 9.4
• Complemento de Power Pivot, viene instalado por defecto en la
versión de Excel 2010 en adelante.
Planteamiento del problema
Actualmente el estudiante de la carrera de Licenciatura en Sistema de
Información después de culminar su maya curricular y haber cumplido con
los requisitos para poder titularse está en la obligación de desarrollar su
proyecto de titulación y haber realizado el anteproyecto, al momento de ir
a las tutorías se generaban algunos problemas debido, a que no cuenta
con un registro de sus actividades que pueda estar disponible cuando sea
necesario, los reportes se los realiza de manera poco eficiente lo que
resulta complicado la búsqueda de cierta información. Provocando así que
la entrega de información no sea oportuna y en muchas veces ocasionaba
perdida de información.
Justificación
El presente proyecto tiene como fin brindar reportes adecuados para la
toma de decisiones, la cual permitirá generar reportes de manera eficiente
de los estudiantes tutorados; mediante el desarrollo e implementación de
un Datamart se pretende establecer una comunicación efectiva con el
docente tutor y los estudiantes que tienen la predisposición de aprender y
Introducción 5
cumplir los requisitos establecidos que se necesitan para poder
incorporarse en el campo laboral.
Es por ello qué entre las tantas formas de aportar a una gestión exitosa
se logrará implementar una solución de inteligencia de negocios con el uso
de la herramienta Power Pivot; para que así reduzcan tiempos y costos
considerables que pueden ser aprovechados en otras actividades tanto de
la parte administrativa y la formación académica de la misma,
Alcance del Proyecto
Este proyecto tendrá como alcance la creación de reportes para el
proceso de titulación en el módulo de seguimiento de tutorías para la
carrera de Licenciatura en Sistemas de Información de la Universidad de
Guayaquil que contendrá lo siguiente:
• Se creará los indicadores necesarios que contengan información
sobre los estudiantes tutorados, los docentes con su respectiva línea
de investigación; toda esta información se recopilará en archivos de
Excel del 2015,2016,2017 en adelante.
• Se generará los reportes respectivos referentes al porcentaje de
asistencia a las clases de tutorías y el registro de las unidades o
capítulos de los documentos que realizan en el proceso de titulación.
• Con la herramienta de inteligencia de negocios se implementará,
para administrar la información relacionada de los estudiantes y
docentes-tutores.
Objetivo General
Realizar la implementación de un DataMart como una solución de
inteligencia de negocios enfocada a la mejora de los reportes académicos;
para que optimice la toma de decisiones en el seguimiento de tutorías del
proceso de titulación de la carrera de Licenciatura en Sistemas de
Introducción 6
Información en la Facultad de Ingeniería Industrial de la Universidad de
Guayaquil.
Objetivos Específicos
• Realizar de forma eficiente el proceso ETL(Extracción,
Transformación y Carga de datos)
• Definir los requerimientos generales para la creación del Datamart.
• Evaluar e identificar los procesos académicos dentro del proceso de
titulación para la creación de los DataMart.
• Aplicar herramientas de código abierto como Power Pivot para el
desarrollo de la aplicación.
• Generar reportes estadísticos de los estudiantes y docentes-tutores.
• Compartir la información entre los diferentes módulos del proceso de
titulación.
• Analizar y definir las fuentes d datos que permitan alimentar el
Datamart.
CAPITULO I
MARCO TEÓRICO
1.1. Marco Conceptual
En este numeral se hablará de las principales teorías acerca de las
metodologías aplicables para la identificación de los problemas y de las
soluciones que se llevarán a cabo en la presente investigación.
1.2. Definición del proceso de tutorías del trabajo de titulación
Según el Consejo Nacional de Educación Superior de la Unidad Curricular de Titulación numeral 6:
La tutoría de los trabajos de titulación
es el proceso de acompañamiento que deberá
otorgarse al estudiante durante su
elaboración. En consecuencia, la orientación
de la tutoría debe garantizar la validación de
las capacidades cognitivas que se declaran en
el perfil de egreso y que se evidencian en la
profundidad y consistencia del trabajo de
titulación.
El equipo de tutores deberá ser
seleccionado y organizado en función de los
campos de actuación en los que se
encuentran los problemas de estudio del. Para
la distribución horaria, es necesario que se
tome en cuenta al menos 1 hora de tutoría
semanal y no más por eso se establece
Marco teórico 8
6 trabajos individuales y de equipo por cada
tutor.
Los procesos de coordinación que
realice el tutor con el profesor de la
asignatura, curso o su equivalente donde
oriente el desarrollo del trabajo es
fundamental para los aprendizajes del
estudiante, sobre todo para el fortalecimiento
de sus capacidades para la organización e
integración del conocimiento teórico,
profesional y la experiencia de investigación-
acción.
Las tutorías pueden ser presenciales y
virtuales individuales, grupales y en plenaria
según la parte del trabajo que se está
realizando, sus niveles de profundización y de
necesidad de acompañamiento que tienen los
estudiantes (CES, 2013).
1.3. Definición BI
Una importante definición de la inteligencia de negocios(BI), según el
Data Warehouse Institute lo define “como la combinación de tecnologías,
herramientas y procesos que me permiten transformar los datos
almacenados e información, esta información en conocimiento y este
conocimiento dirigido a un plan o una estrategia comercial.” (Data
Warehouse Institute, 2012).
Howard Dresner en 1989 propuso la inteligencia de negocios en forma
general para describir los métodos y métodos para mejorar la toma de
decisiones empresariales a través del uso de sistemas basados en hechos
de apoyo. BI actúa como un factor empresarial estratégico dentro de una
empresa generando una ventaja competitiva y nos ayuda a proporcionar
Marco teórico 9
información eficiente para solucionar los problemas de negocio. Una
solución de inteligencia de negocios completa me permite observar,
comprender, predecir, colaborar y decidir.
1.3.1. Beneficios de la Inteligencia de Negocios
Manejar el crecimiento: En este punto se evalúa la agilidad de los
procesos dentro de una organización, para poder enfrentar los
cambios.
Controlar los costos: Se debe tener la capacidad de medir los
gastos en donde se identifique la línea de negocios.
Entender mejor a los clientes: Los clientes en la inteligencia de
negocios es un elemento fundamental para el crecimiento de la
empresa.
Indicadores de gestión: Se monitorea los procesos de negocio, se
analiza los problemas y se administra los procesos y recursos para
después realizar una toma de decisiones eficiente. (García, 2011)
IMAGEN N.º 1
BENEFICIOS DE BI
Fuente: http://www.dspace.uce.edu.ec/bitstream/25000/999/1/t-uce-0011-45.pdf Elaborado por: Esparza Montes Diego.
Marco teórico 10
1.3.2. Arquitectura y Componentes del BI
En esta parte se define la arquitectura y los diferentes componentes por
la cual está conformada la inteligencia de negocios.
Sistemas Operacionales: Son los procesos, tecnologías y
herramientas requeridos para transformar datos en información,
información en conocimiento y conocimientos en planes que orienten a la
empresa.
Son aquellos sistemas que contienen gran volumen de registros y
capturan las diversas transacciones de negocio.
ETL: Conocido como el proceso de Extracción, Transformación y Carga
de datos; este proceso ocurre cuando los datos antes de ser enviados al
Datawarehouse primero deben ser reformateados, limpiados y cargados.
DIAGRAMA N.º 1
PROCESO ETL
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Marco teórico 11
Datamarts: Según Inmon está clasificado de la siguiente manera:
• Datamart dependiente: La fuente de datos de este DataMart es
única y tienen como fin recibir los datos de un DataWarehouse.
• Datamart independiente: Tienen como objetivo recoger los datos
de manera directa de los sistemas transaccionales y no son
dependientes de otros. (YalanCastillo, 2012)
Cubos: Son aquellos que contienen datos listos para ser analizados,
son estructuras multidimensionales.
Metadata: Es la descripción de los datos, existen dos tipos:
• Metadata de negocio: se maneja las reglas del negocio y cómo van
estructurado los datos.
• Metadata técnico: se describe la estructura física.
Reportes: El objetivo de los reportes es recopilar los datos de las
diferentes tablas o consultas para generar su análisis o impresión. (Hidalgo,
2013)
1.4. Proceso ETL
ETL es uno de los procesos más importantes, ya que implica la
integración de diversas fuentes de datos cuya función completa el resultado
del desarrollo de los sistemas.
Se trata del proceso que permite a las organizaciones mover datos
desde múltiples fuentes, reformatearlos y cargarlos en otra base de
datos (denominada data mart o data warehouse) con el objeto de
analizarlos. Consta de tres fases como son:
Extract: Extraer
Marco teórico 12
Transform: Transformar
Load:Carga
Fase de Extracción: La primera parte de este proceso ETL consiste
en extraer los datos desde los sistemas de origen. Para que funcione
correctamente esta fase se debe realizar los siguientes pasos:
1. La extracción de los datos desde la fuente origen.
2. Chequear y analizar los datos que se extrajeron.
3. Verificar e interpretar si los datos extraídos son los correctos.
4. Finalmente se realiza la conversión de los datos en un formato.
Además, una de las prevenciones más importantes que se deben tener
en cuenta durante el proceso de extracción sería el exigir siempre que esta
tarea cause un impacto mínimo en el sistema de origen.
Este requisito se basa en la práctica ya que, si los datos a extraer son
muchos, el sistema de origen se podría ralentizar e incluso colapsar,
provocando que no pudiera volver a ser utilizado con normalidad para su
uso cotidiano.
DIAGRAMA N.º 2
FASE DE EXTRACCIÓN
Fuente: http://carlosproal.com/dw/dw05.html
Elaborado por: Proal Castro Carlos.
Marco teórico 13
Fase de Transformación: Para poder llegar a esta fase se debe aplicar
una serie de reglas de negocio sobre los datos que se requieran convertir,
porque suele suceder que los repositorios son distintos y no coinciden con
los datos, se puede aplicar restricciones para asegurarse de la eficacia de
los datos.
IMAGEN N.º 2
FASE DE TRANSFORMACIÓN
Fase de Carga: Una vez realizada la transformación de los datos con
el formato correcto se trata de ingresar o cargar los datos dentro del sistema
destino. Esta carga se la puede realizar de dos formas diferentes:
Acumulación simple: consiste en hacer un resumen de las
transacciones requeridas y cargarlas como una única transacción.
Rolling: Es eficiente utilizarlo cuando se requiera mantener los
datos en diversos niveles, es decir la información se va a almacenar
en diferentes niveles
Fuente: http://www.buyto.es/general-business-intelligence.html
Elaborado por: Cosentino Orrala Rita
Marco teórico 14
IMAGEN N.º 3
FASE DE CARGA
1.5. Data warehouse
Es una base de datos corporativa permite integrar depurar información
de distintas fuentes y maneja los datos a gran velocidad. (Sinexus, 2016).
Todas las herramientas para la toma de decisiones que se basan en un
DataWarehouse, hacen más práctica y fácil la explotación de los datos, esto
no se logra usando los datos de las aplicaciones operacionales
(operaciones cotidianas), en donde la información se obtiene mediante
procesos independientes y complejo.
Fuente: http://www.lightpath.io/aprendiendo-sobre-procesos-etl/#post/0 Elaborado: Rodríguez Cortaza Janeth.
Marco teórico 15
1.6. Datamart
Es una base de datos que trabaja entre departamentos está enfocada
al almacenamiento de datos de un área específica de negocio. Son
subconjuntos de datos con el propósito de ayudar a que un área específica
dentro del negocio pueda tomar mejores decisiones. (Sinexus, 2016)
IMAGEN N. º 4
DATAMART
Fuente: http://www.dspace.uce.edu.ec/bitstream/25000/999/1/t-uce-0011- 45.pdf Elaborado por: Duque Orellana Lorena
1.6.1. Tipos de Datamart:
Datamart OLAP: Se construyen según los requisitos de cada área de
negocio por medio de indicadores y dimensiones para cada cubo relacional,
entre sus características: soporta decisiones estratégicas, almacena gran
cantidad de datos históricos, dedicado al análisis eficiente de datos, los
datos que almacena son estáticos y está orientado a la información
relevante.
Marco teórico 16
Datamart OLTP: Es similar al DATAWAREHOUSE el cual permite
mayor rapidez en la consulta con poco volumen de datos, no son
apropiados para el soporte a la toma de decisiones, entre sus ventajas:
almacena datos actuales, los datos son dinámicos es decir actualizables,
dedicado al procesamiento de transacciones, soporta decisiones diarias y
se encuentra orientado a los procesos organizativos.
CUADRO N. º 1:
DIFERENCIAS DE DATAMART Y DATAWAREHOUSE
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
1.7. Sistemas OLAP
Son bases de datos que están enfocadas al procesamiento analítico,
permitiendo usar base de datos relacional, ofrece velocidad y flexibilidad a
la información.
Características:
Brinda herramientas como el:
• Drill Down: Contiene detalle de datos de otras jerarquías.
• Pivot: permite obtener rápidamente un informe.
• Optimiza la administracion e integracion de los datos.
• Administra gran volumen de datos historicos.
DATAWAREHOUSE
• Optimiza la entrega de información en la toma de decisiones.
• Administra datos totalizados o resumenes.
DATAMART
Marco teórico 17
Posee un robusto motor de cálculos para realizar el análisis de
números.
Ofrece flexibilidad y permite dar soporte a los datos.
Permite realizar consultas a los usuarios de manera rápida y
eficiente.
Los cubos OLAP poseen una ventaja sobre los modelos relacionales
en cuanto a generar reportes de manera rápida de la alta gerencia; provee
una visión multidimensional de los datos.
Está dividido por variables y dimensiones en donde las variables son
los indicadores o datos y las dimensiones son aquellos atributos que
poseen las variables como por ejemplo los datos de usuarios.
Para que se pueda observar cierta información el usuario debe
consultar seleccionando los atributos que desea obtener, y sus respectivas
restricciones. Esta herramienta posee operadores como son:
Roll tiene como propósito borrar o eliminar alguna agrupación.
Drill permite ingresar a un nuevo criterio de agrupación
Slice y Dice permite hacer una selección de los datos para
luego presentarlo en el informe.
Pivot permite orientar las diversas dimensiones del cubo.
Los cubos se manejan bajo un esquema OLAP (Online Analytical
Processing), que a diferencia del esquema OLTP (Online Transaction
Processing), su principal objetivo es optimizar el tiempo de las consultas
que se realizan sobre una base de datos. De este existen dos versiones:
MOLAP: Procesamiento Analítico Multidimensional en línea, trabaja
con un motor especial basado en almacenamiento multidimensional
que permite visualizar la información en diversas dimensiones. El
Marco teórico 18
sistema MOLAP utiliza una arquitectura de dos niveles: la base de
datos multidimensionales y el motor analítico.
ROLAP: Procesamiento Analítico relacional en línea, trabaja con un
manejador de base de datos, por lo que funciona como
intermediario entre el sistema OLTP y el front-end del usuario
final, que se construye sobre bases de datos multidimensionales.
HOLAP: Procesamiento Analítico Hibrido en línea combina las
arquitecturas ROLAP y MOLAP para brindar una solución con las
mejores características de ambas: desempeño superior y gran
escalabilidad.
1.8. Sistemas OLTP
Son base de datos orientados a nivel transaccional, puede contener
operaciones como la inserción, modificación y el borrado de datos.
Los datos se manejan de forma estructural dependiendo del nivel de
aplicación por ejemplo la implementación de un sistema de
información departamental.
Optimiza las tareas de escritura y lectura a través del acceso a datos
que se maneja de manera eficiente por ejemplo el gran volumen de
información que tiene un supermercado, banco etc.
El histórico de los datos puede limitarse a los datos actualizado.
1.9. Modelo Multidimensional
Se visualiza el modelo de datos como cubos, lo que permite que
aquellos datos puedan ser modelados y observados en distintas
dimensiones.
El Datawarehouse y el Datamart se basan en un modelo
multidimensional.
Marco teórico 19
El modelo multidimensional es un modelo adecuado que provee un
camino viable para agregar hechos a lo largo de múltiples atributos, llamado
dimensiones, los datos almacenados como hechos y dimensiones en un
modelo de datos relacional.
Este modelo multidimensional está compuesto por diferentes tablas
que se detallan a continuación:
Tablas de Dimensiones: Aquí se representa lo que se quiere
almacenar con relación a un problema pueden ser ítems como
nombres, apellidos o tiempo como días, semanas etc.
Tablas de hechos: Son colecciones de datos que están
relacionadas con las dimensiones, esta tabla debe las claves para
cada una de las tablas de las dimensiones.
IMAGEN N. º 5
EJEMPLO DE MODELO MULTIDIMENSIONAL
Fuente: https://i.ytimg.com/vi/gqftTcKvGvQ/maxresdefault.jpg Elaborado por: Gutiérrez Avellana Pamela
Marco teórico 20
1.10. Esquema estrella y copo de nieve
Los modelos estrella y copo de nieve son estructuras bajo las cuales
se guía la creación de un DataWarehouse o Datamart.
1.10.1. Esquema Estrella
Este esquema en cuanto a estructura es fácil de aplicarlo, como
observamos consta de una tabla central que son los hechos y de varias
dimensiones, es decir que todas las tablas dimensiones deben estar
relacionadas a una sola tabla.
En el esquema en estrella la tabla de hechos es la única tabla del
esquema que tiene múltiples joins que la conectan con otras tablas (foreign
keys hacia otras tablas).
Las tablas de dimensión se encuentran además totalmente
denormalizadas, es decir, toda la información referente a una dimensión se
almacena en la misma tabla.
DIAGRAMA N. º 3
ESQUEMA ESTRELLA
Fuente: http://www.dataprix.com/datawarehouse-manager Elaborado por: Duarte Ortiz Susana
Marco teórico 21
1.10.2. Esquema copo de nieve
Este esquema consta de una variación en comparación con el de
estrella como observamos tiene dos tablas de hechos con diferentes
dimensiones es decir son normalizadas y el grafico toma forma a un copo
de nieve.
DIAGRAMA N.º 4
ESQUEMA COPO DE NIEVE
Fuente: http://www.dataprix.com/datawarehouse-manager Elaborado por: Duarte Holguín Susana
1.11. Herramientas BI Open Source
Esta parte tiene como finalidad recopilar diferentes herramientas de
inteligencia de negocios de código abierto que en actualidad se encuentran
en el mercado lo cual es suficiente para competir con el mercado
propietario.
Marco teórico 22
1.11.1. Pentaho
Es una herramienta de inteligencia de negocios basada en un software
libre que tiene como objetivo colaborar con la gestión y la toma de
decisiones empresariales.
Esta desarrollada con el lenguaje de programación JAVA debido a su
flexibilidad al momento de generar informes empresariales. (Hernández,
2012)
Características:
No consume muchos recursos.
Es portable y escalable para todo tipo de cambios.
Es multiplataforma.
Posee flexibilidad al momento de generar informes.
Áreas de reporte que posee Pentaho:
Pentaho Reporting: Es un generador de informes flexible que
proporciona de manera distribuida los resultados de los reportes en
diferentes formatos.
Pentaho Report Designer: Editor basado en eclipse con prestaciones
profesionales y de calidad y con capacidad de personalización de informes
a las necesidades de negocio destinado a desarrolladores.
Está estructurado de forma que los desarrolladores pueden acceder a
prestaciones de forma rápida.
Incluye un editor de consultas para facilitar la confección de los datos
que serán utilizados en un informe.
Marco teórico 23
GRÁFICO N.º 1
EJEMPLO DE PENTAHO REPORT DESIGNER
Fuente: https://upload.wikimedia.org/wikipedia/commons/9/96/Sample_JReport_Dash Elaborado por: Pentaho
1.11.2. Power BI
Power Bi es una herramienta de Microsoft, está compuesto por un
conjunto de componentes y aplicaciones de análisis de los procesos de
negocios lo cual permiten realizar el análisis cualitativo y cuantitativo de los
datos y compartir la información, provee conexión a cientos de orígenes de
datos, preparación de datos de manera simplificada; utilizando así una de
las mejores soluciones del mercado.
Power BI provee como objetivo principal permitir que el usuario se
centre en lo que le interese, realizando así la transformación de los datos
en objetos visuales enriquecidos.
Esta herramienta de Microsoft ayudara a la consolidación de los datos
de manera estandarizada, fácil y sencilla, se podrá construir, editar los
paneles e informes cuando se desee. Posee una API REST gratuita que
Marco teórico 24
posibilitan la integración de servicios. El proceso que ejecuta Power
Business Intelligence es el siguiente:
• Realizar la respectiva recopilación o levantamiento de los datos
relevantes.
• Construir de forma sencilla las historias o la información requerida.
• Arrastra los datos brevemente seleccionados y obtendrá elementos
que posteriormente le permitirá crear paneles
• Mostrar y compartir todo tipo de información que la empresa desee.
IMAGEN N.º 6
POWER BI SERVICE
Fuente: www.tallan.com/power-bi/ Elaborado por: Tallan Inc.
Power BI Desktop
Está herramienta que incorpora Microsoft Power BI permite generar
informes de forma detallada basados en distintas fuentes u orígenes de
datos. Los reportes se los podrá moldear o arreglar como el usuario lo
Marco teórico 25
requiera, podrá colocarles a los gráficos distintos efectos. Como ventajas
de este programa constan las siguientes:
Esta aplicación su principal ventaja es la facilidad que posee
al momento de crear distintos tipos de visualizaciones.
Permite modelar, transformar y limpiar los datos de manera
eficiente dentro de los procesos de negocio.
Provee la capacidad de publicar o compartir la información
que deseen compartir los usuarios.
1.11.2.1. Características de Power BI
Power BI consta con funciones que sirven de complemento con Excel.
Los complementos son los siguientes:
• Power Pivot: Es la parte fundamental donde se ejecutan todos los
cálculos y se muestran de forma interactiva.
• Power Query: Realiza la transformación de los datos para luego ser
utilizadas en Excel.
• Power View: Herramienta por el cual se podrá visualizar los datos
de manera rápida y sencilla.
• Power Map: Permite visualizar los datos en tercera dimensión.
Los servicios que ofrece basados en la nube son los siguientes:
• Dashboards: Esta escrito sobre HTML 5, permitirá crear gráficos e
informes interactivos.
• Lenguaje Natural de consultas: Permitirá visualizar las consultas
sobre las condiciones del lenguaje natural.
• Apps para móviles y tabletas: permitirá utilizar las apps de BI
donde el usuario quiera, siempre y cuando posea el sistema
operativo Windows o IOS.
Marco teórico 26
• Refresh, shared and manage data sources: Podrá subir todos los
datos y mantenerlos conectados entre sí.
1.11.2.2. Power Pivot (Herramienta a utilizar)
Es un complemento que viene instalado por defecto a partir de Excel
2013 que se lo puede utilizar para el análisis y crear de forma eficiente
sostificados modelos de datos.
Power Pivot esta herramienta es la que se va a implementar en el
presente proyecto, debido a que puede combinar y almacenar gran
volumen de datos de distintas fuentes u orígenes de datos, lo que va a
permitir realizar el análisis de información de manera rápida y fácilmente
puede compartir información.
IMAGEN N.º 7
FUNCIONAMIENTO DE POWER PIVOT
Fuente: https://powerpivotpro.com/ Elaborado por: Microsoft
Marco teórico 27
1.11.3. Características de Power Pivot para Excel
CUADRO N.º 2:
CUADRO COMPARATIVO DE EXCEL PARA POWER PIVOT
Tarea En Excel En Power Pivot
Importar datos de
diversos orígenes,
como base de datos
corporativas.
Solo permite importar
datos de un solo
origen.
Permite filtrar y
cambiar los datos de
las tablas cuando se
están importando.
Crear Tablas Las tablas pueden
estar de manera
desorganizada en
cualquier lugar de la
hoja de cálculo.
Las tablas están
debidamente
organizadas de forma
individual, debido al
complemento Power
Pivot.
Crear Cálculos Utiliza las fórmulas de
Excel
Utiliza el lenguaje de
expresiones de datos
(DAX)
Crear indicadores
clave de rendimiento
(KPI)
No dispone de este
indicador.
Crea indicadores para
los informes de las
tablas dinámicas y
Power View
Crear relaciones
entre tablas
Solo permite el cuadro
de dialogo de las
tablas.
Crea un modelado de
las tablas
relacionados, o el
cuadro de dialogo.
Marco teórico 28
Crear tablas y
gráficos dinámicos.
Crea informes y
graficas de manera
eficaz.
Solo con hacer clic en
el botón de tabla
dinámica de power
pivot automáticamente
la crea.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Arquitectura de Power Pívot
Power Pivot maneja la arquitectura cliente/servidor se compone de una
colección de ficheros que forman una unidad lógica que se carga en Excel.
Posee un motor llamado VertiPaq es un sistema de almacenamiento
encargado de las consultas y de las expresiones DAX, así como tablas y
gráficos dinámicos.
DIAGRAMA N.º 5
ARQUITECTURA DE POWER PIVOT
Fuente: https://i-msdn.sec.s-msft.com/dynimg/IC644899.jpeg Elaborado por: Microsoft
Marco teórico 29
1.12. Herramientas propietarias
Tiene como objetivo mostrar herramientas propietarias que se
encuentran en el mercado para la ayuda de toma de decisiones de la
empresa.
1.12.1. Oracle BI
Esta aplicación que ofrece Oracle posee un avanzado método de
análisis, ya que este genera el análisis en tiempo real como el análisis a
través de un aparato móvil. En la actualidad puede ser implementado en
pequeñas, medianas, grandes empresas.
GRÁFICO N. º 2
ORACLE BI
Fuente: www.oracle.com Elaborado por: Oracle
1.12.2. MicroStrategy
Es una aplicación que ofrece productos que facilitan las necesidades de
negocios como la migración de datos, está basado en una arquitectura
empresarial, permite observar o visualizar los datos de manera más
dinámica y atractiva, esta herramienta es un poco limitada ya que posee
pocos componentes.
Marco teórico 30
GRÁFICO N.º 3
MICROSTRATEGY
1.12.3. Microsoft
Microsoft BI es una aplicación completa en cuanto se refiere a la
inteligencia de negocios, consta de componentes que permiten realizar de
manera eficiente el análisis de datos e integración de datos y genera
reportes creativos, esta plataforma está basada en Microsoft SQL
SERVER.
Fuente: https://www.em360tech.com/wp-content/uploads/2017/
Elaborado por: Microsoft
Fuente: https://www.theta.co.nz/media/1929/mstr.jpg
Elaborado por: MicroStrategy
GRÁFICO N.º 4
MICROSOFT BI
Marco teórico 31
1.13. Cuadro comparativo de posibles herramientas a utilizar
CUADRO N. º 3:
CUADRO COMPARATIVO DE HERRAMIENTAS
Características de la
herramienta.
SAS IBM Pentaho Power
Pivot
¿Forma parte de una
plataforma integrada de
BI?
Si Si
Si Si
¿La herramienta de
extracción posee una
interfaz gráfica de uso?
Si Si Si Si
¿Soporta diversos tipos
de base de datos?
N
o
N
o
Si Si
¿Permite cargas desde
ficheros de excel?
Si Si Si Si
¿Requiere una fácil
instalación la
herramienta?
Si Si No Si
¿La plataforma posee una
herramienta de
explotación, de consultas
y análisis?
Si Si Si Si
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Marco teórico 32
1.14. Metodologías existentes
1.14.1. Metodología Ralph Kimball
En el presente proyecto la metodología a usar es la de Ralph Kimball
también llamada modelo dimensional. Se basa en lo que se denomina ciclo
de vida dimensional, es una de las técnicas favoritas de negocio a la hora
de implementar o construir un Datamart o un datawarehouse de Business
Inteligencie. Esta metodología hace referencia al enfoque de Bottom-up la
cual define múltiples bases de datos por las que son llamadas Datamarts,
que son organizadas por procesos de negocios.
Recomendaciones para la implementación de sistemas
• Seguir la metodología aprobada.
• Comprender con mucha claridad los requerimientos de negocio.
• Diseñar el área de datos de modo de hacerlo flexible, reutilizable y
con alto nivel de performance.
• Implementar de forma rápida y progresiva los incrementos basadas
en los procesos de negocios que conforman la matriz de datos
empresariales.
• Construir ETL con componentes estándares para una mejor solución
de BI .
• Diseñar una arquitectura que responda a los procesos del negocio.
• Entregar una solución completa como reportes, programas de
consultas, soporte.
El ciclo de vida es un método detallado para el diseño, implementación
de sistemas de inteligencia de negocios que poseen un enfoque iterativo
en la que cada pasada se genera un conjunto de datos, informes analíticos
asociados. Cada ciclo de vida de interacción puede durar de 6 a 9 meses
dependiendo de la complejidad del sistema.
Marco teórico 33
DIAGRAMA N.º 6
CICLO DE VIDA KIMBALL
La tecnología Kimball comienza con la compresión de
requerimientos del negocio.
El diseño por medio de tres vías paralelas.
• Diseño de la plataforma tecnológica cuyo objetivo es
identificar las herramientas tecnológicas por la cual se va a
utilizar, que van a satisfacer las necesidades del negocio.
• Diseño de datos lógicos que comienza con la definición del
modelo de datos lograr que satisfacen los requerimientos del
negocio que según Kimball define como modelo dimensional.
• Crear aplicaciones de inteligencia de negocios con ETL que
consume una gran cantidad de recursos pero que maneja
reportes de manera detallada.
1.14.2. Metodología INMON
La metodología que BILL INMON indica que es de forma iterativa, la cual
posee un esquema viceversa debido a que lo primero que propone trabajar
con los datos luego, estos mismos son integrados para ser pruebas y luego
Fuente: investigación directa Elaborado por: Cepeda Cedeño Karen.
Marco teórico 34
DIAGRAMA N.º 7
METODOLOGÍA INMON
recurrir a la programación para de esta manera analizar los respectivos
resultados y de esta forma entender los requerimientos.
Entre las características que propone Bill Inmon se encuentran las
siguientes:
Dirigir los datos a un área específica.
Integrar la información de diversas fuentes de datos.
Permanecer los datos en un tiempo determinado.
Los datos deben ser no volátil, es decir que no son eliminados.
Esta metodología consiste en lo siguiente:
El enfoque que pretende Bill Inmon hace referencia a un TOP-DOWN,
es decir que los datos son extraídos del proceso ETL para luego ser
validados y consolidados, una vez ejecutado este proceso, los procesos del
Datamart departamentales son actualizados para después obtener
información de este. En esta metodología se maneja el esquema general
de entidad-relación.
Top Down define a la arquitectura como una colección de datos
diferentes en almacenes y variantes en el tiempo.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Marco teórico 35
1.14.3. Fases de las metodologías KIMBALL, INMON
CUADRO N.º 4
MANEJO DE FASES DE LAS METODOLOGÍAS
Nombre de la metodología Fases
KIMBALL 1. Se realiza la planeación del
proyecto
2. Requisitos del negocio.
3. Se hace la selección e
instalación de las
herramientas.
4. Modelo dimensional.
5. Diseño físico
6. Especificaciones de la
herramienta analítica a utilizar
7. Desarrollo de la herramienta
analítica.
8. Área de Staging (Independiza
el proceso de carga de los
datos)
9. Desarrollo
10. Implementación
INMON 1. Implementación del DM
2. Integración de datos
3. Pruebas
4. Programar datos
5. Diseño
6. Análisis de resultados
7. Entendimiento
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Marco teórico 36
CUADRO N.º 5
COMPARATIVA DE METODOLOGÍAS
Indicadores Inmon Kimball
Presupuesto Alto coste inicial Bajo coste inicial
Plazos Se requiere más
tiempo de desarrollo
Se requiere menos
tiempo de desarrollo
Alcance Toda la compañía Departamentos
individuales
Mantenimiento Fácil Mantenimiento Mantenimiento más
complejo.
Fuente: Investigación directa Elaboración: Cepeda Cedeño Karen.
CAPITULO II
MARCO METODOLÓGICO
2.1. Análisis Situacional
El propósito de este proyecto es implementar una solución de
inteligencia de negocios, el cual tendrá como finalidad ayudar a la
planificación estratégica de las tutorías dadas en el proceso de titulación de
la facultad para la correcta toma de decisiones.
Se va a realizar la investigación de campo, lo cual va a permitir la
modificación o manipulación de los datos y obtener información necesaria
para así lograr obtener el conocimiento de los procesos, de tal modo que
se pueda manejar los datos con más seguridad creando una situación de
control en la manipulación de la información, como lo requieran.
2.2. Diseño de la investigación
2.2.1. Descriptiva
En la realización de este proyecto se ha seleccionado el diseño
descriptivo, por cuanto no solo se basa en observar los procesos que fallan
dentro de la facultad sino de recolectar los datos directamente de la
realidad, como en este caso la falta de organización de información, fuentes
pobres de consultas que por lo general provocan retrasos y pérdida de
tiempo y hacen que la toma de decisiones sea deficiente.
Por este motivo se requiere automatizar y mejor el manejo de la
información, centralizando la misma en Data Marts y creando reportes que
facilite la consulta a los usuarios de la aplicación.
Metodología 38
2.3. Población y muestra
La población para este tipo de proyecto se va a escoger a los
estudiantes egresados, los respectivos docentes que son tutores, el gestor
de titulación y al director de la carrera de Licenciatura en Sistemas de
Información.
La muestra que se va a realizar para el proyecto es la unidad de
titulación, debido a que serán los beneficiados. Para ejecutar el cálculo de
la muestra se escogió un numero aleatorio que será de 5 personas.
2.4. Fuentes y técnica
Las fuentes utilizadas en esta investigación para un mejor manejo de
información, tenemos como fuentes primarias las siguientes:
Gestor de titulación: Se realizo una entrevista sobre los
requerimientos que se necesitan dentro del módulo de tutorías;
también nos facilitó el archivo de Excel donde contiene datos
relevantes para una mejor toma de decisiones.
Director de la carrera: Como parte de los interesados del proyecto,
se le realizo una entrevista, para analizar los problemas que existen
en el proceso de titulación.
Estudiantes: En esta parte, se realizó 10 encuestas a alumnos
egresados.
Docentes: Se entrevisto a ciertos docentes que son tutores para
verificar como se manejan las tutorías.
Las fuentes secundarias son de forma científica y se detallarán a
continuación:
Información de diferentes tesis referentes al tema.
Metodología 39
Libros de diversos autores.
Análisis documental.
Las técnicas utilizadas para la recolección de datos son documentos
que se utilizan en el módulo de tutorías, las entrevistas, encuestas, la
observación directa etc.
2.5. Plan de recolección de Datos
Una vez finalizada todas las actividades que permitan poner en marcha
el presente proyecto investigativo se realizó la respectiva recolección de
datos en el cual se utilizó las diferentes técnicas para poder llegar a un
levantamiento de información eficiente, que se detallan a continuación:
La observación directa de la información que se maneja dentro del
proceso de titulación.
Entrevistas al gestor de titulación y docente-tutor para poder obtener la
información deseada, y fijarnos en las necesidades que tiene el usuario.
Con las encuestas realizadas a base de un conjunto de preguntas a los
estudiantes egresados para luego poder medir el grado de satisfacción que
tienen los mismos en las tutorías.
Recopilación de todos los documentos que utilizan dentro del
seguimiento de tutorías.
Análisis de los documentos e información que se generan en el proceso
de titulación.
Las diferentes entrevistas y encuestas fueron realizadas a los
estudiantes egresados del octavo semestre, y a los interesados del
Metodología 40
proyecto de la carrera de Sistemas de Información de la Universidad de
Guayaquil.
2.6. Técnica de levantamiento de información
2.6.1. Entrevistas
En esta parte se realiza de una entrevista realizada al gestor de
titulación, en el cual se detalla un resumen de esta.
CUADRO N.º 6
RESUMEN DE ENTREVISTAS
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Metodología 41
2.6.2. Encuestas
En esta parte del proyecto se mostrará las preguntas realizadas a l0
estudiantes egresados de Sistemas de Información, se detallará un total de
5 preguntas, y se visualizará los resultados de la encuesta.
Tipo de muestreo: Estudiantes egresados de la carrera Sistemas de
Información.
Tamaño de la muestra: 10 estudiantes
Recogida de la información: Se realizaron los cuestionarios, mediante
entrevistas presenciales.
1. Actualmente existe un sistema de apoyo a la toma de
decisiones en el módulo de seguimiento de tutorías donde la
información requerida esté disponible cuando se desee.
CUADRO N.º 7
PREGUNTA 1
Respuesta Frecuencia Porcentaje
No 10 100%
Si 0 0%
Total 10 100%
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Metodología 42
GRÁFICO N.º 5
PORCENTAJE DE LA PREGUNTA 1
Conclusión: De la muestra de diez estudiantes opinaron que no existe
un sistema que apoye a la toma de decisiones en este módulo, por lo cual
es necesario implementarlo.
2. Considera Ud. Que la organización y planificación impartidas en
las tutorías han sido las adecuadas.
CUADRO N.º 8
PREGUNTA 2
Escala Respuesta Frecuencia Porcentaje
De acuerdo 1 1%
Ni de acuerdo ni en desacuerdo 2 20%
Desacuerdo 7 70%
Total 10 100%
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
10
0
10
10
0%
0%
10
0%
N O S I T O T A L
Frecuencia Porcentaje
Metodología 43
GRÁFICO N.º 6
PORCENTAJE DE LA PREGUNTA 2
Conclusión: De los diez estudiantes que realizaron la encuesta un 70%
estuvo en desacuerdo, un 20% estaba dudosa de su respuesta y un 1%
opina que la planificación y organización son adecuadas.
3. Conoce Ud. Si en el módulo de tutorías del proceso de titulación
se generan reportes.
CUADRO N.º 9
PREGUNTA 3
Respuesta Frecuencia Porcentaje
No 7 70%
Si 3 30%
Total 10 100%
De acuerdoNi de acuerdo ni en
desacuerdoDesacuerdo
Porcentaje 1% 20% 70%
Frecuencia 1 2 7
12
7
1%
20%
70%
0
1
2
3
4
5
6
7
8
9
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Metodología 44
Conclusión: De los resultados obtenidos el 70% tuvo como respuesta
el no y el 30% opino que si conocen sobre el tema de reportes.
4. Considera Ud. Que los docentes tutores están alineados a la
línea de investigación de su tema de tesis.
CUADRO N.º 10
PREGUNTA 4
Respuesta Frecuencia Porcentaje
No 6 60%
Si 4 40%
Total 10 100%
7
3
10
70%
30%
100%
N O S I T O T A L
Frecuencia
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
GRÁFICO N. º 7
PORCENTAJE DE LA PREGUNTA 3
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Metodología 45
GRÁFICO N. º 8
PORCENTAJE DE LA PREGUNTA 4
Conclusión: El 60% de los estudiantes considero que los docentes no
están alineados a la línea de investigación y el 40% opino que sí, es decir
que se debería considerar a tutores que estén alineados con el tema
investigativo del estudiante.
5. Está de acuerdo que se realice la implementación de un
Datamart para generar reportes de las actividades que impartan
en las tutorías en el proceso de titulación.
CUADRO N.º 11
PREGUNTA 5
Escala Respuesta Frecuencia Porcentaje
De acuerdo 10 100%
Ni de acuerdo ni en desacuerdo 0 0%
Desacuerdo 0 0%
Total 10 100%
64
1060%
40%
100%
0
2
4
6
8
10
12
No Si Total
Frecuencia Porcentaje
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Metodología 46
Conclusión: De los 10 estudiantes encuestados todos ellos opinaron
que están de acuerdo que se implemente el Datamart para la mejora de
toma de decisiones en el proceso de titulación.
6. Actualmente los docentes tutores llevan un control de las
actividades que se realizan dentro de las tutorías.
CUADRO N.º 12
PREGUNTA 6
Respuesta Frecuencia Porcentaje
No 8 80%
Si 2 20%
Total 10 100%
10
0 0
10
10
0%
0%
0%
10
0%
D E A C U E R D O N I D E A C U E R D O N I E N
D E S A C U E R D O
D E S A C U E R D O T O T A L
Frecuencia Porcentaje
GRÁFICO N.º 9
PORCENTAJE DE LA PREGUNTA 5
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Metodología 47
GRÁFICO N.º 10
PORCENTAJE DE LA PREGUNTA 6
Conclusión: El 80% de los estudiantes opinaron que no se lleva un
control correcto de las actividades de las tutorías, y el 20% consideraron
que sí.
7. La ayuda y asistencia recibida en las tutorías se maneja de
forma eficiente
CUADRO N.º 13
PREGUNTA 6
8
2
10
80
%
20
% 10
0%
N O S I T O T A L
Frecuencia Porcentaje
Escala Respuesta Frecuencia Porcentaje
De acuerdo 7 70%
Ni de acuerdo ni en desacuerdo 1 10%
Desacuerdo 2 20%
Total 10 100%
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Metodología 48
GRÁFICO N.º 2
PORCENTAJE DE LA PREGUNTA 7
Conclusión: De los 10 estudiantes, un 70% opinaron que la ayuda en
la tutoría se maneja de forma eficiente, el 10% de estudiantes estuvieron
dudosos y el 20% estaban en desacuerdo.
2.6.2.1. Conclusión de la encuesta
Con las encuestas realizadas a los estudiantes de la facultad de
ingeniería industrial de la carrera de sistemas de información, se concluye
que es necesario la implementación de un Datamart en el módulo de
seguimiento de tutorías; para que el manejo de los procesos de titulación
se realice de manera eficiente.
Para que ayude a la toma de decisiones y se pueda manejar de manera
eficiente las actividades dentro de las tutorías, y los docentes estén
alineados a la línea de investigación correspondiente, para que así la
información que se requiere esté disponible y oportuna cuando se requiera.
7
12
10
70% 10% 20% 100%0
2
4
6
8
10
12
De acuerdo Ni de acuerdo ni endesacuerdo
Desacuerdo Total
Frecuencia Porcentaje
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Metodología 49
2.7. Metodología de desarrollo
La metodología de desarrollo que se utilizara en el presente proyecto
del desarrollo e implementación de un Datamart es la de Kimball que divide
la implementación en las siguientes fases:
Planificación: En esta parte se define el propósito del proyecto, el
alcance y los principales riesgos del proyecto.
Requerimientos: Entender y analizar las necesidades del negocio, en
esta fase se realiza el levantamiento de información del proceso de
titulación referente al módulo de seguimiento de tutorías.
Análisis: Proveer una estimación del costo y el tiempo que se tomara
en implementar BI, evaluamos el tiempo que nos demoramos en realizar el
modelo dimensional.
Diseño: Se diseña adecuadamente, para poder extraer los datos de los
sistemas de origen de datos, aplicar diferentes reglas para aumentar la
calidad y consistencia de estos, consolidar la información proveniente de
distintos sistemas, y finalmente cargar la información en el DW en un
formato acorde para la utilización por parte de las herramientas de análisis.
Construcción: Se crea los reportes en donde se acople a la
arquitectura diseñada.
Despliegue: En esta parte se realiza la implanta los reportes para
asegurarse de que funcione correctamente y que todo lo solicitado este
presente.
Transición: En esta parte de la transición el objetivo es una vez
realizada la aplicación se procede a distribuirlo a los usuarioa.
Metodología 50
2.8. Diccionario de Datos
Este diccionario de datos se lo creo a partir del modelo multidimensional
creado anteriormente luego se crea la base de datos con la herramienta
PostgreSQL 9.4.
IMAGEN N.º 8
ESQUEMA DE LA BASE DE DATOS
Aquí observamos varios esquemas en el que consta el de tutorías
donde tiene tablas con sus respectivos atributos como unidad, detalle de
unidad, actividad, tipo de actividad, tutorías etc.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
CAPITULO III
PROPUESTA
3.1. Tema
Desarrollo e implementación de un Datamart como una solución de
inteligencia de negocios para el módulo de seguimiento de tutorías en el
proceso de titulación.
3.2. Objetivo
El presente proyecto tiene como objetivo desarrollar e implementar un
Datamart como una solución de inteligencia de negocios en el módulo de
seguimiento de tutorías que ayude a la mejora de toma de decisiones en el
proceso de titulación.
3.3. Elaboración
En el presente proyecto para la elaboración del Datamart necesitamos
apoyarnos de herramientas de inteligencia de negocios como lo es power
pivot para el módulo de seguimiento de tutorías; para de esta manera poder
generar reportes de manera eficiente.
3.4 . Etapa de planificación
En esta etapa una vez realizada el respectivo levantamiento de
información al departamento de titulación del módulo de seguimiento de
tutorías se reflejará todas las posibles actividades realizadas en este
proyecto se pueden dividir en dos partes:
Propuesta 52
Estudio BI
Conocer conceptos BI
Estudio de la arquitectura BI
Análisis del modelo multidimensional
Manejo de tecnologías BI
Construcción del aplicativo
Análisis de herramientas BI
Selección de herramienta BI
Estudio del manejo de la herramienta Power Pivot
Realización de la base de datos en postgres SQL
3.5. Identificación de roles y actores
Roles y actores
Una vez realizada la entrevista con el gestor de titulación se identificó
tres actores con sus diferentes roles que participan en el módulo de gestión
de tutorías.
CUADRO N.º 14
ACTORES Y ROLES
Actores Roles
Gestor de
titulación
Administra y planifica el proceso de titulación.
Docente-tutor Asesora a los alumnos respecto a la planeación
de su Trabajo de Titulación.
Estudiante Asiste a las tutorías y presenta el avance del
proyecto.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 53
Casos de uso
Los casos de uso son una descripción de las actividades que se realizan
para llevar a cabo un proceso que está compuesta por roles y actores.
Los actores son los usuarios que van a intervenir en el sistema.
Los roles son las acciones o actividades que van a realizar los
actores.
DIAGRAMA N.º 8
CASOS DE USO
Fuente: Investigación directa Elaborado por: Lema Tacuri Mónica.
Propuesta 54
3.6. Requerimientos
En esta fase una vez realizada el levantamiento de información, donde
se realizaron las entrevistas a los interesados del proyecto y las encuestas
a los estudiantes del último semestre, se procede a definir los
requerimientos funcionales y no funcionales.
Los requerimientos funcionales describen la interacción entre el
sistema y su ambiente independientemente de su implementación.
Los requerimientos no funcionales incluyen restricciones como el
tiempo de respuesta(desempeño), la precisión, recursos consumidos,
seguridad, etc
3.6.1. Requerimientos funcionales
CUADRO N.º 15
REQUERIMIENTOS FUNCIONALES
Id de
requerimiento
Requerimiento Descripción Prioridad
RF-01 Generar un
listado de los
estudiantes con
su tutor.
El gestor de
titulación deberá
generar un listado
de los estudiantes
con su respectivo
docente – tutor.
1
Propuesta 55
RF-02 Listar líneas de
investigativas
con sus
sublíneas.
El gestor deberá
generar un listado
las diferentes
líneas de
investigación con
sus respectivas
Sublínea
investigativa que
pertenecen.
1
RF-03 Verificar los
temas de tesis
con su línea de
investigación.
El sistema apoyo
a la toma de
decisiones va a
poder generar a
los temas de tesis
con su respectiva
línea
investigativa.
1
RF-05
Detallar un
listado de las
unidades del
documento.
El sistema de
apoyo a la toma
de decisiones
permitirá generar
un listado de las
unidades de cada
capítulo del
documento.
1
RF-06
Consultar
información
mediante filtros.
El sistema permitirá
consultar los
diferentes reportes
a través de filtros.
3
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 56
CUADRO N. º 16
LEYENDA PRIORIDAD
3.6.2. Requerimientos no funcionales
Los requerimientos no funcionales son necesarios para la
implementación de un Datamart. Describen aspectos del sistema que son
visibles por el usuario que no incluyen una relación directa con el
comportamiento funcional del sistema.
CUADRO N.º 17
REQUERIMIENTOS NO FUNCIONALES
Id de
requerimiento
Requerimiento Requerimiento
no funcional
Prioridad
RF-01 Personalización El sistema
deberá permitir
la creación de
reportes
personalizados
por el usuario
final.
1
CALIFICACIÓN SIGNIFICADO
1 IMPORTANTE
2 REGULAR
3 PRESCINDIBLE
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 57
RF-02 Utilidad El sistema
deberá ser
apropiado para
el uso de los
distintos perfiles,
de manera que
sirvan como
soporte de las
labores de todas
personas que
interactúen con
él.
1
RF-03 Disponibilidad El sistema apoyo
a la toma de
decisiones
deberá estar
disponible las 24
horas 7 días a la
semana.
1
RF-04
Escalabilidad El sistema
permitirá deberá
ser escalable
para cualquier
tipo de consultas
y reportes que
más después
podrían solicitar.
1
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 58
3.7. Análisis
3.7.1. Modelo Dimensional
En esta parte se mostrará el modelo dimensional para la creación del
Datamart del módulo de seguimiento de tutorías del proceso de titulación.
Las tablas de hechos son aquellas que dependen de las tablas de
dimensiones y son las siguientes:
Docente por línea investigativa.: Indica la línea investigativa que
pertenece cada docente tutor.
Línea por sublínea investigativa: Indica cuantas sublíneas tiene cada
línea investigativa.
Detalle de unidad: Indica los detalles por cada unidad o capítulo del
documento.
Estudiantes por docentes: Indica la asignación de estudiantes a los
docentes que son tutores.
Debemos tener en cuenta que las tablas dimensiones son aquellas que
contienen la clave primaria, por lo tanto, las tablas de hecho dependen de
las dimensiones para poder ser utilizadas.
Se muestran y explican todas las dimensiones y tablas de hechos
utilizadas para este modelo. Las dimensiones que conforman los esquemas
estrellas para esta estrategia son:
Estudiante
Docente
Línea investigativa
Sublínea investigativa
Unidad del documento
Las tablas de hechos son aquellas que dependen de las tablas de
Propuesta 59
hechos son aquellas que dependen de las tablas de dimensiones y son las
siguientes:
Docente por línea investigativa.: Indica la línea investigativa que
pertenece cada docente tutor.
Línea por sublínea investigativa: Indica cuantas sublíneas tiene cada
línea investigativa.
Detalle de unidad: Indica los detalles por cada unidad o capítulo del
documento.
Estudiantes por docentes: Indica la asignación de estudiantes a los
docentes que son tutores.
CUADRO N.º 18
DIMENSIÓN ESTUDIANTE
DIM_ESTUDIANTE
Campo Descripción Tipo de dato
Id estudiante
(PK)
Id del estudiante. Serial
Nombres Nombres del
estudiante.
Character varying
(50)
Apellidos Apellidos del
estudiante.
Character varying
(50)
Cédula Cédula del estudiante. Character varying
(10)
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 60
CUADRO N.º 19
DIMENSIÓN DOCENTE
DIM_DOCENTE
Campo Descripción Tipo de dato
Id_docente (PK) Id del docente. Serial
Nombres Nombres del docente. Character varying (50)
Apellidos Apellidos del docente. Character varying (50)
Cédula Cédula del docente Character varying (10)
CUADRO N. º 20
DIMENSIÓN LÍNEA INVESTIGATIVA
DIM_LÍNEA_INVESTIGATIVA
Campo Descripción Tipo de dato
Id_línea (PK) Id de la línea investigativa. Serial
Línea
investigativa
Nombres de la línea
investigativa.
Character
varying (50)
Estado Indica el estado de la
línea investigativa.
Character
varying (10)
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 61
CUADRO N.º 21
DIMENSIÓN SUBLÍNEA INVESTIGATIVA
DIM_SUBLÍNEA_INVESTIGATIVA
Campo Descripción Tipo de dato
Id_sublínea
(PK)
Id de la sublínea
investigativa.
Serial
Línea
investigativa
Nombres de la sublínea
investigativa.
Character
varying (50)
Estado Indica el estado de la
sublínea investigativa.
Character
varying (10)
CUADRO N.º 22
DIMENSIÓN UNIDAD
DIM_UNIDAD
Campo Descripción Tipo de dato
Id_unidad (PK) Id de la unidad. Serial
Capitulo Nombre del capítulo. Character
varying (50)
Detalle Detalle de la unidad. Character
varying (50)
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 62
3.8. Diseño de la arquitectura
Para tener una visión general del sistema y tomando en cuenta la
plataforma elegida para la implementación de la solución con power pivot,
a continuación, se explica la arquitectura común utilizada en los sistemas
de Data mart, detallando cada uno de los procesos o sub-sistemas que
conforman el proyecto de tesis. Se tiene cinco procesos o sub-sistemas en
los cuales se encuentra estructurado el proyecto de tesis:
Fuente de datos
Extracción, transformación y carga
Cubos de Información
Presentación (Reportes e Indicadores)
Administración y seguridad
DIAGRAMA N.º 9
MODELO MATRIZ
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 63
IMAGEN N. º 9
DISEÑO DE LA ARQUITECTURA
3.9. Diseño Físico
Una vez migrada la información de la base de datos Postgres se
procede a generar el diseño físico de las tablas como observamos a
continuación:
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
CUADRO N. º 23
CARGA DE DATOS DE DOCENTES
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 64
CUADRO N. º 25
CARGA DE DATOS DOCENTE POR LÍNEA INVESTIGATIVA
CUADRO N. º 24
CARGA DE DATOS LÍNEA INVESTIGATIVA
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 65
CUADRO N. º 26
CARGA DE DATOS DE ESTUDIANTES
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
CUADRO N. º 27
LINEA POR SUBLINEA INVESTIGATIVA
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 66
CUADRO N. º 28
UNIDADES DEL DOCUMENTO
CUADRO N. º 29
DETALLE DE UNIDADES DEL DOCUMENTO
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 67
3.10. Selección de herramientas a utilizar
Las herramientas por usar se detallan a continuación:
Motor de base de datos PostgreSQL 9.4
Power Pivot 2016
ODBC
Para el desarrollo e implementación de esta Datamart para el módulo
de seguimiento de tutorías, la base de datos a utilizar es PostgreSQL, para
la conexión de la misma se necesitará de un ODBC.
Para luego poder realizar de manera eficiente la extracción,
transformación y carga de datos, para luego proceder a migrar a Excel a
través del complemente Power Pivot que me permitirá generar diferentes
tipos de reportes.
3.11. Construcción de los reportes
3.11.1. Conexión con la base de datos PostgreSQL
PostgreSql es una de las opciones más interesantes en bases de datos
relacionales open-source Es gratuito y libre, además de que hoy nos
ofrece una gran cantidad de opciones avanzadas.
Realizamos la conexión de postgres a Excel mediante un controlador
ODBC. Un origen de datos ODBC almacena la información de conexión al
proveedor de datos indicado.
Este origen de datos solo va a ser visualizado y utilizado por el equipo
que el usuario este utilizando.
Propuesta 68
IMAGEN N.º 10
CONEXIÓN A LA BASE DE DATOS POSTGRES
3.11.2. Migración de postgres a Excel
Se realiza el importe de datos de orígenes externos es decir de postgres
a Excel mediante el asistente de Microsoft Query y el ODBC..
IMAGEN N.º 11
MIGRACIÓN DE POSTGRES A EXCEL
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 69
3.11.3. Selección de las tablas a utilizar
Se selecciona las tablas que se vayan a utilizar, para luego agregar
todas aquellas tablas seleccionadas al modelo de datos.
IMAGEN N.º 12
SELECCIÓN DE TABLAS A UTILIZAR
Luego las tablas seleccionadas las vamos agregando al modelo de
datos, para ir estableciendo las relaciones y formar el modelo dimensional.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 70
DIAGRAMA Nº 10
MODELO DE DATOS
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 71
Reportes generados en la herramienta power pivot
Menú Principal de reportes del módulo de seguimiento de
tutorías.
IMAGEN N.º 13
LOGIN PRINCIPAL DE REPORTES
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 72
Docentes por la línea de investigación: Aquí muestra a los
docentes con su respectiva línea de investigación. El docente puede
tener una o más líneas de investigación.
El filtro de este reporte se lo puede realizar por línea investigativa para
observar cuantos docentes pertenece
IMAGEN N.º 14
REPORTE DE TUTORES POR LÍNEA INVESTIGATIVA
GRÁFICO N. º 13
GRÁFICA DE TUTORES POR LÍNEA INVESTIGATIVA
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 73
Línea de investigación por Sublínea de investigación: Se
mostrará cuantas Sublínea de investigación contiene cada línea de
investigación
25%
25%25%
25%
Ciencias de Datos
Almacenamiento deDatos
Aplicaciones Distribuidas
Aplicaciones Moviles
Aplicaciones WEB
Aplicaiones de Escritorio
IMAGEN N.º 15
REPORTE DE LÍNEA POR SUBLÍNEA INVESTIGATIVA
GRÁFICO N.º 14
GRÁFICA DE REPORTE DE LÍNEA DE INVESTIGACIÓN
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 74
Asignación de estudiantes a docentes tutores: Mostrara a cada
estudiante con su respectivo tutor
9%
9%
9%
9%
8%
8%8%
8%
8%
8%
8%
8%
BUSTAMANTEALVARADO JARAMILLO JOSEVICTORALVARADO VALLE MARIOJOSEALVAREZ CUENCA JOHNWILLYANCHUNDIA ZORRILLAGUADALUPE RAQUELBAQUE CEDEÑO JACKSONARIELBELLOLIO MERO MANUEL DEJESUSCAMPUZANO TRUJILLOLUIGUI STEFANOCHAVEZ MELGAR PABLOCESAR
IMAGEN N.º 16
REPORTE DE ASIGNACIÓN DE ESTUDIANTES A TUTORES
GRÁFICO N.º 15
GRÁFICA DE ASIGNACIÓN DE ESTUDIANTES A TUTORES
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 75
Reporte del detalle de unidades de los documentos: Mostrara
como están subdivididas las unidades.
IMAGEN N.º 17
REPORTE DE DETALLE DE LAS UNIDADES DEL DOCUMENTO
GRÁFICO N.º 16
GRÁFICA DE UNIDADES DEL DOCUMENTO DE TITULACIÓN
20%
20%
20%
20%
20%
Capitulo I - Introducción
Introduccion Justificacion Objetivo especificos
Objetivo general Objeto de estudio
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Fuente: Investigación directa Elaborado por: Cepeda Cedeño Karen.
Propuesta 76
3.12. Conclusiones y recomendaciones
3.12.1. Conclusiones
Los procesos de Extracción, Transformación, Carga se lograron
implementar de manera eficiente, correcta y coherente de la base de
datos origen.
Con la creación del modelo multidimensional se logró abarcar las
necesidades de información y luego se representaron mediante
diagramas para una mejor visualización y comprensión de los datos.
El Datamart creado logro cubrir las necesidades de los interesados
del proyecto, ya que ahora cuentan con una herramienta que le
permitirá analizar los datos de forma eficiente.
El Datamart permitió apoyar al departamento de titulación en la toma
de decisiones, a través de la entrega oportuna de información.
La implementación de un Datamart redujo el tiempo en la
elaboración de los reportes al área de Informática.
3.12.2. Recomendaciones
Se recomienda capacitar a los usuarios sobre el uso de la
herramienta Power Pivot para un mejor manejo de esta.
Conocer a fondo conceptos de inteligencia de negocios y la
importancia de cada uno de los componentes que este tiene.
Se recomienda tener un repositorio de datos actualizado para
una mejor utilización del aplicativo.
Se recomienda la realización de un mayor número de pruebas
para lograr una mayor confiabilidad de la información que se
obtiene, así como un estudio más a fondo de todas las funciones
que brinda Power Pivot para lograr un mejor análisis de los
reportes generados.
GLOSARIO DE TÉRMINOS
Almacén de datos: es un conjunto de datos orientado a determinado
ámbito que ayudan a las tomas de decisiones.
Analítico: Es un estudio donde se analiza y se recopila los datos para
luego convertirlos en información.
Cubo: Es una forma gráfica de representar el modelo multidimensional.
DAX: Son operadores y funciones que se combinan para poder crear
expresiones y formulas en Microsoft, el análisis lo hace power pivot.
Indicadores: Es un instrumento que nos permite indicar o presentar
algo.
Metadata: Se refiere a un conjunto de datos que se encuentran en la
base para luego ser migrados.
Metodología: Son un grupo de procedimientos empleados para lograr
objetivos.
Multidimensional: Se utilizan para implementar aplicaciones OLAP,
está compuesto por tablas de hechos y sus dimensiones.
Pivot: Es un componente de Excel que sirve para hacer el análisis de
forma eficiente.
Rolling: Es una manera fácil que se utiliza para disminuir el detalle.
ANEXOS
Anexos 79
ANEXO N. º 1
ENTREVISTA AL GESTOR DE TITULACIÓN
Anexos 80
ANEXO N. º 2
INFORME DE AVANCE DE TUTORÍAS
Anexos 81
ANEXO N. º 3
ACUERDO DE TUTORÍAS
Anexos 82
ANEXO N. º 4
INFORME DE TUTORÍ
Anexos 83
ANEXO N. º 5
CERTIFICADO DEL URKUND
Anexos 84
ANEXO N. º 6
FORMATO DE ENCUESTA REALIZADA A ESTUDIANTES
Anexos 85
ANEXO N. º 7
FORMATO DE ENCUESTA A ESTUDIANTES
Anexos 86
ANEXO N. º 8
PRESENTACIÓN DE REPORTES AL GESTOR DE TITULACIÓN
BIBLIOGRAFÍA
Almeida, G. (5 de junio de 2011). Bitacora sobre el analisis de negocios.
Obtenido de http://gabrielalmeida.com.mx/361/modelado-
de-procesos-como-obtener-excelentes-resultados-en-poco- tiempo/
Bizagi. (2010). BPMNbyExampleSPA. Obtenido de
http://resources.bizagi.com/docs/BPMNbyExampleSPA.pdf
BPM, C. (3 de Noviembre de 2012). apuntesBPMN. Obtenido de
http://www.club-bpm.com/ApuntesBPM/ApuntesBPM01.pdf
CES, C. D. (2013). CES. Obtenido de http://www.ces.gob.ec/doc/2-
seminario/unidad-de-titulacion.pdf
Data Warehouse Institute. (2012). ORACLE., obtenido de
http://www.oracle.com/ocom/groups/public/@otn/documents/webco
ntent/317529_esa.pdf
García, J. H. (2011). La inteligencia de negocios como herramienta para la
toma de decisiones estratégicas en las empresas. Análisis de su
aplicabilidad en el contexto corporativo colombiano. Obtenido de
http://www.docentes.unal.edu.co/
Hernández, E. N. (2012). Pentaho. Revista Telem@ tica, 10.
Bibliografía 88
Hidalgo, M. C. (25 de Febrero de 2013). Informe y reportes informaticos.
Obtenido de Reportes:
http://manuelcruzhidalgo19.blogspot.com/2013/02/informes-y-
reportes_8863.html
Rocha, M. (2010). Moc-Pro. Obtenido de http://e-
conomicas.eco.unc.edu.ar/archivos/_2/U3-ModProc-11.pdf
Sinexus. (2016). Sinexus. Obtenido de
http://www.sinnexus.com/business_intelligence/datamart.aspx
Sthephen. (2012). ModeladoBPMN. Obtenido de
http://users.dcc.uchile.cl/~nbaloian/DSSDCC/Software/ModeladoBP
MN.pdf
Varggas, M. (2013). dspace.ue. Recuperado el 2016, de DSPACE:
http://www.dspace.uce.edu.ec/bitstream/25000/2175/1/T-UCE0011-
70.pdf
YalanCastillo, J. (2012). BI. Revista de Investigacion, 12.