andres arango - inicio · web viewperez ramirez, fredy (2009): econometria conceptos basicos (1ra...

59
OPERADOR LOGISTICO CORPORACIÓN UNIVERSITARIA REMINGTON CREAD BOGOTA CIES FACULTAD DE CIENCIAS EMPRESARIALES ESCUELA DE CIENCIAS EMPRESARIALES NÚCLEO DE FORMACIÓN ESPECÍFICA CARTILLA DE TRABAJO CUARTA SESIÓN ECONOMETRIA DE NEGOCIOS Elaborada por DANIEL ANTONIO GOMEZ TAMARA ECONOMISTA ESP. COMERCIO EXTERIOR Y ECONOMIA INTERNACIONAL DEPARTAMENTO DE PUBLICACIONES BOGOTA D.C. 1

Upload: others

Post on 08-Feb-2021

2 views

Category:

Documents


0 download

TRANSCRIPT

CORPORACIÓN UNIVERSITARIA REMINGTON

CREAD BOGOTA CIES

FACULTAD DE CIENCIAS EMPRESARIALES

ESCUELA DE CIENCIAS EMPRESARIALES

NÚCLEO DE FORMACIÓN ESPECÍFICA

CARTILLA DE TRABAJO

CUARTA SESIÓN

ECONOMETRIA DE NEGOCIOS

Elaborada por

DANIEL ANTONIO GOMEZ TAMARA

ECONOMISTA

ESP. COMERCIO EXTERIOR Y ECONOMIA INTERNACIONAL

DEPARTAMENTO DE PUBLICACIONES

BOGOTA D.C.

2013

CUADRO 1. CONTROL DEL DOCUMENTO

PARTICIPANTES

NOMBRE

CARGO

DEPENDENCIA

FECHA

Autor

DANIEL ANTONIO GOMEZ TAMARA

Docente

1/2013

Revisión

LUIS EDUARDO RODRÍGUEZ

Director Académico

Académica

1/2013

Aprobación

CUADRO 2. CONTROL DE ESTADO DE PREPARACIÓN DE LA CARTILLA EDUCACIÓN A DISTANCIA

VERSIÓN No.

FECHA DE FINALIZACIÓN DE SU ELABORACIÓN

DESCRIPCIÓN DEL CAMBIO

SOLICITADO POR:

01

23/01/2013

Construcción de las cartillas de Econometría de Negocios en la Corporación Iberoamericana de Estudios CIES en función a su cadena de valor con el fin de asegurar la calidad de sus servicios.

Consejo Superior.

NOMBRE : ____________________________________________

C.C. : ___________________________________________

CARRERA : ____________________________________________

JORNADA : MARTES Y MIERCOLES ( ) AM____ PM____

JUEVES Y VIERNES ( ) AM____ PM____

SÁBADOS ( ) AM____ PM____

DOMINGOS ( )

NOMBRE DEL PROFESOR

: ________________________

FECHA

: ________________________

CALIFICACIÓN

: ________________________

__________________________

Firma Docente

Sr. Docente : No firme la cartilla sino está debidamente diligenciada en todos sus campos.

DERECHOS DEL ESTUDIANTE EN EL AULA DE CLASE

· Exigir el uso de la cartilla

· Exigir firma y sello de la cartilla por parte del docente.

· Exigir sus notas al final del módulo.

NINGUNA RECLAMACIÓN SERA ACEPTADA SI SU CARTILLA NO ESTÁ DILIGENCIADA EN TODOS SUS CAMPOS, CON FIRMA Y SELLO DEL DOCENTE CORRESPONDIENTE.

INTRODUCCIÓN

El modelo de dos variables, estudiado en las guías anteriores, con frecuencia es inadecuado en la práctica. Es el caso del ejemplo consumo-ingreso, en donde se supone implícitamente que solamente el ingreso X afecta el consumo Y. Pero la teoría económica rara vez es tan simple, ya que, además del ingreso existen muchas otras variables que probablemente afectan el gasto de consumo, por ejemplo, la riqueza del consumidor, para citar otro ejemplo, es probable que la demanda de un bien dependa no solo de su propio precio sino también de los precios de otros bienes competitivos o complementarios, del ingreso del consumidor, de la condición social, entre otros.

De acuerdo a lo anterior, se necesita ampliar el modelo simple de regresión con dos variables para considerar modelos que contengan más de dos variables. La adición de variables conduce al análisis de los modelos de regresión múltiple, es decir, a modelos en los cuales la variable dependiente, o regresada, Y, depende de dos o más variables explicativas, o regresoras.

En esta cuarta unidad se considerará el modelo de regresión múltiple, el cual tiene por objeto estimar la relación funcional entre más de dos variables, mediante el uso de una de las herramientas de la estadística más simple de usar para la estimación de los parámetros.

El modelo de regresión múltiple más simple posible es la regresión de tres variables, con una variable dependiente y dos variables explicativas. En esta unidad se estudiara este modelo. Durante todo el análisis, se tratara con modelos de regresión múltiple, es decir, modelos lineales en los parámetros; que pueden ser o no lineales en las variables.

CONTENIDOS CUARTA SESIÓN.

Contenido

5INTRODUCCIÓN

71.DISEÑO METODOLÓGICO SESIÓN CUATRO

71.1.OBJETIVO

71.2.JUSTIFICACIÓN.

81.3.METODOLOGÍA.

92.MODELO DE REGRESIÓN LINEAL (continuación)

92.1.ERROR ESTANDAR DE LA ESTIMACIÓN

102.2.INTERVALO DE PREDICCIÓN

132.3.INTERVALO DE CONFIANZA

162.4.ANALISIS DE VARIANZA

183.REGRESIÓN LINEAL MÚLTIPLE

213.1.MODELOS DE ECUACIONES LINEALES DE REGRESION MUL.

223.2.LAS ECUACIONES DE MINIMOS CUADRADOS

253.3.DEFICIENCIAS MUESTRALES: MULTICOLINEALIDAD Y

30ACTIVIDAD UNO INDIVIDUAL

324.SESION PRACTICA CON E-VIEWS

324.1.CAMBIO DE FRECUENCIA EN SERIES DE DATOS AGREGACI

364.2.CARACTERIZACIÓN DE SERIES. ESTADÍSTICOS BÁSICOS Y

405.GLOSARIO

447.FUENTES DIGITALES O ELECTRÓNICAS

1. DISEÑO METODOLÓGICO SESIÓN CUATRO

1.1. OBJETIVO

Especificar y resolver el sistema de ecuaciones normales para estimar por mínimos cuadrados diferentes ecuaciones de regresión. La regresión por mínimos cuadrados, es una técnica cuyo objetivo es derivar una curva que minimice la discrepancia entre los puntos y la curva.

1.2. JUSTIFICACIÓN.

En esta guía se presentan las técnicas de regresión, que tienen como propósito modelizar, es decir, encontrar una función que aproxime lo máximo posible la relación de dependencia estadística entre variables y predecir los valores de una de ellas: y (variable dependiente) a partir de los de la otra ( o las otras): x (variable (s) independiente (s)). La regresión es lineal cuando el modelo función de regresión seleccionado es una recta.

El éxito del análisis de regresión depende de la disponibilidad de la información apropiada y en esta guía se analizara la naturaleza, las fuentes y limitaciones de los datos que están disponibles para la investigación, especialmente en la ciencia económica.

1.3. METODOLOGÍA.

El desarrollo metodológico que se utilizará es de teórico – práctico con el fin que el estudiante pueda desarrollar y aplicar la temática de los fundamentos en econometría dentro de la teoría económica, la economía matemática, la estadística matemática y la estadística económica, a través de ejercicios de reconocimiento de diferentes procesos de la formación de los espacios econométricos y su influencia en el campo empresarial, lo que permitirá afianzar y potencializar una de las herramientas de gran aplicación en el campo de la economía y de otras ciencias sociales.

2. MODELO DE REGRESIÓN LINEAL (continuación)

2.1. ERROR ESTANDAR DE LA ESTIMACIÓN

El error estándar nos permite deducir la confiabilidad de la ecuación de regresión que hemos desarrollado. Este error se simboliza Sxy y es similar a la desviación estándar en cuanto a que ambas son medidas de dispersión.

El error estándar de la estimación mide la variabilidad, o dispersión de los valores observados alrededor de la línea de regresión. El error estándar de estimación se calcula con la finalidad de medir la confiabilidad de la ecuación de la estimación.

El error estándar de estimación permite medir la variabilidad o dispersión de los valores de (y) los cuales encontramos en la muestra, alrededor de la línea recta de regresión. El resultado que se obtiene del cálculo del error estándar de estimación se expresa en término de los valores de la variable dependiente Yi.

En resumen, la desviación estándar de un conjunto de datos se usa para medir la variabilidad o la dispersión de los datos, alrededor de la media. El error estándar de la estimación se usa para medir la variabilidad o la dispersión de los valores pronosticados por la ecuación de regresión y los valores de Y reales. Esto se puede observar en la formula del error estándar de la estimación:

Ejemplo: (continuación del ejemplo de módulos anteriores)

Una tienda de computadores llevó a cabo un estudio para determinar la relación entre la cantidad de productos comprados por los clientes mensuales y las ventas. Con los datos de la tabla, se pide encontrar el error estándar de la estimación.

2.2. INTERVALO DE PREDICCIÓN

Un intervalo de predicción es un intervalo elaborado con una serie de datos de las muestras de modo que contenga observaciones futuras. Tenga en cuenta que éste es un problema diferente a la elaboración de un intervalo para el promedio con cierto grado de confianza. Supongamos que una futura muestra se toma en las mismas condiciones y de la misma población o proceso que la muestra original y que la muestra era aleatoria o que el proceso estaba en condiciones de control estadístico. Hay muchas variaciones sobre este tema, pero todas tienen que ver con el problema esencial de lo que pasará en el futuro y con qué frecuencia sucederá, la esencia de la estadística. Podemos tener intervalos de predicción para los datos de las variables, o para datos del tipo de atributo; podemos basar más la predicción en un modelo paramétrico, como la distribución normal o usar métodos no paramétricos. Ambos son útiles en la práctica. También podemos poner condiciones sobre la predicción futura. 

En otras palabras, una estimación puntual no proporciona información sobre la distancia a la que se encuentra del parámetro poblacional. Para determinar esta información, se desarrolla una predicción o intervalo de confianza. De hecho, los analistas pueden elegir entre dos tipos de intervalos: intervalo de predicción para un valor especifico de Y. Intervalo de confianza para el valor esperado de Y para un valor dado de X.

El error estándar estimado del pronostico es una estimación de la desviación estándar de la distribución muestral para el estimador Y.

Ejemplo: (continuación del ejemplo de módulos anteriores)

Con respecto a la tienda de computadores se desea estimar las ventas del próximo mes en el caso de la cantidad de productos comprados por los clientes mensuales se incrementarán 55. Usando los datos y la ecuación de regresión calculada, se solicita desarrollar una estimación puntual para dichas ventas:

El intervalo de predicción:

El intervalo de predicción del 95% para las ventas de la próxima semana en el caso de que los gastos de publicidad se incrementarán 55, estará dentro del intervalo del 391,77 y 660,33, donde se encuentra el valor de Y estimado.

2.3. INTERVALO DE CONFIANZA

En estadística, se llama intervalo de confianza a un par de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación mediante tal intervalo.

El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo más amplio tendrá más posibilidades de acierto (mayor nivel de confianza), mientras que para un intervalo más pequeño, que ofrece una estimación más precisa, aumentan sus posibilidades de error.

Para la construcción de un determinado intervalo de confianza es necesario conocer la distribución teórica que sigue el parámetro a estimar, θ. Es habitual que el parámetro presente una distribución normal. También pueden construirse intervalos de confianza con la desigualdad de Chiebyshev.

En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un parámetro poblacional θ que sigue una determinada distribución de probabilidad, es una expresión del tipo [θ1,θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de distribución de probabilidad de θ.

El intervalo de confianza se utiliza para estimar el valor medio de y para un valor específico de x.

El error estándar estimado del pronostico es una estimación de la desviación estándar de la distribución muestral para el estimador y:

Ejemplo: (continuación del ejemplo de módulos anteriores)

Con respecto a la tienda de computadores se desea obtener un intervalo de 95% de confianza para las ventas media mensual cuando se incremente la cantidad de productos comprados por los clientes mensualmente.

El intervalo de confianza:

El intervalo de confianza del 95% para las ventas media de la próxima semana en el caso de que la cantidad de productos comprados por los clientes mensualmente se incrementarán 55, estará dentro del intervalo de 456,27 y 595.83, donde se encuentra el valor de y estimado.

2.4. ANALISIS DE VARIANZA

En estadística, el análisis de la varianza (ANOVA, ANalysis Of VAriance, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.

Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.

Otro estadístico importante en el análisis de regresión es el estadístico F, que se usa para probar la hipótesis nula de que la ecuación de regresión muestral no explica un porcentaje significativo de la varianza de la variable Y. La hipótesis nula y alternativa son:

El estadístico de prueba para la hipótesis nula establecida se obtiene de la distribución F si la hipótesis nula es cierta.

TABLA DE ANÁLISIS DE VARIANZA (ANOVA)

El estadístico de la prueba F:

EJEMPLO (Continuación del ejemplo de la guía anterior almacén de computadores)

Una tienda de computadores llevó a cabo un estudio para determinar la relación entre la cantidad de productos comprados por los clientes mensuales y las ventas. Se pide determinar la hipótesis para la pendiente.

El estadístico de la prueba para la hipótesis nula establecida se obtiene de la distribución F si la hipótesis nula es cierta.

TABLA DE ANÁLISIS DE VARIANZA (ANOVA)

Por tanto, se rechaza la hipótesis nula. Con muy poca probabilidad de error. Se concluye que la ecuación de regresión explica un porcentaje significativo de la varianza de las ventas.

3. REGRESIÓN LINEAL MÚLTIPLE

Pasamos a continuación a generalizar el modelo anterior al caso de un modelo con varias variables exógenas, de tal forma que se trata de determinar la relación que existe entre la variable endógena Y y variables exógenas, X1 ,X2,…, Xk. Dicho modelo se puede formular matricialmente de la siguiente manera:

Si en la expresión anterior se considerará que existe término independiente, α, la matriz X quedaría como:

Y el modelo quedaría así:

Suponiendo que se verifican las hipótesis que veíamos antes, el problema a resolver nuevamente es la minimización de la suma de cuadrados e los termins de error tal que:

Desarrollando dicho cuadrado y derivando respecto a cada β1 obtenemos el siguiente sistema de ecuaciones expresado en notación matricial:

En donde basta con despejar β premultiplicando ambos miembros por la inversa de la matriz (X’ X) para obtener la estimación de los parámetros del modelo tal que:

Si en el modelo existiera termino independiente, α, las matrices anteriores serian:

El resultado de multiplicar dichas matrices conduce a la obtención de la estimación de los parámetros β1 del modelo:

Cada uno de los coeficientes estimados, son una estimación insesgada del verdadero parámetro del modelo y representa la variación que experimenta la variable dependiente Y cuando una variable independiente Xiβˆi varía en una unidad y todas las demás permanecen constantes (supuesto ceteris paribus). Dichos coeficientes poseen propiedades estadísticas muy interesantes ya que, si se verifican los supuestos antes comentados, son insesgados, eficientes y óptimos.

En resumen, los modelos de análisis de regresión multiple son similares a los modelos de regresión lineal simple, excepto en que se tienen mas de una variable independiente y pueden llegar a tener un mayor grado de complejidad en el análisis del modelo y en la relación de la línea recta ajustada a la regresión.

3.1. MODELOS DE ECUACIONES LINEALES DE REGRESION MULTIPLE

E (Y)= β0 + β1X1 + β2X2

Los supuestos del modelo de análisis de regresión son los siguientes:

3.1.1. La media de e es 0. Esto implica que la media de y equivale al componente determinísticos del modelo, esto es,

E (y)= β0 + β1X1 + β2X2+…+ βkXk

3.1.2. Para todos los valores de las variables independientes X1, x2, …, Xk, la varianza de E es constante.

3.1.3. La distribución de probabilidad de E es normal.

3.1.4. Los errores aleatorios son independientes.

3.2. LAS ECUACIONES DE MINIMOS CUADRADOS Y SU RESOLUCION

Para encontrar un modelo de regresión múltiple se utiliza el procedimiento de algebra lineal por medio de operaciones con matrices, teniendo en cuenta el siguiente modelo:

Ejemplo:

Se realizo un estudio en un supermercado sobre la congestión en la entrada de vehículos, para determinar el comportamiento de la entrada se tomaron las variables del numero de vehículos (x) y el tiempo de congestionamiento. Considere el modelo lineal y observe si existe o no la relación entre las variables.

La estimación de minimos cuadrados es:

Entonces

por último, determinar la inversa de la matriz.

Y la solución de la ecuación de mínimos cuadrados es entonces:

Por tanto, β0= -0,9 y β1=0,1 y la ecuación de predicción es:

E(y)= -0,9 + 0,1X

3.3. DEFICIENCIAS MUESTRALES: MULTICOLINEALIDAD Y ERRORES DE MEDIDA

3.3.1. Multicolinealidad:

El proceso o término de multicolinealidad en Econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.

El fenómeno de la multicolinealidad aparece cuando las variables exógenas de un modelo econométrico están correlacionadas entre sí, lo que tiene consecuencias negativas para la estimación por Mínimos Cuadrados Ordinarios pues, en ese caso, en la expresión:

la matriz (X’ X) no será invertible por lo que resultará imposible hallar la estimación de los parámetros del modelo y la varianza de los mismos. Esto es lo que se conoce por el nombre de multicolinealidad exacta.

Sin embargo, en la práctica no nos encontraremos con un caso tan extremo como el que acabamos de exponer, sino que generalmente nos encontraremos ante multicolinealidad aproximada, siendo una de las columnas de la matriz , (X’ X) aproximadamente, una combinación lineal del resto por lo que será una matriz aproximadamente singular. Al no ser el determinante de (X’ X) igual a cero, existirá inversa y podrán estimarse los parámetros pero no cuando las pequeñas variaciones muestrales producidas al incorporar o sustraer un número reducido de observaciones muestrales podrían generar importantes cambios en los parámetros estimados.

Las soluciones propuestas para resolver el problema de la multicolinealidad son variados, si bien en general resultan poco satisfactorios:

− Una posibilidad, sugerida por Johnston (1984) consiste en excluir aquella variable exógena que puede estar muy correlacionada con el resto y posteriormente estimar el coeficiente asociado a dicha variable mediante otro procedimiento para incluirlo en el modelo.

− También se ha sugerido la posibilidad de reformular el modelo, convirtiéndolo en un modelo de varias ecuaciones.

3.3.2. Errores de medida:

Cuando hablamos de errores en las variables nos referimos a los errores de medición de las mismas. Como el alumno ya debería conocer, al medir las relaciones existentes en Economía recurrimos a variables obtenidas, la mayoría de las veces por medio de estimaciones muestrales, esto es, a través de un muestreo representativo de las unidades que las generan (consumo interior de un país, producción, etc.) o derivadas de éstas (Producto Interior Bruto, etc.). Estas estimaciones de las variables macroeconómicas van asociadas a un error de muestreo. Las variables cuantificadas a través de muestreos representativos, no sólo se dan al trabajar con macromagnitudes, encontrándoselas también el investigador en todas las disciplinas (Marketing, Contabilidad, etc.)

Es importante, por tanto, que al efectuar cualquier tipo de investigación y análisis, se conozca la fuente y origen de los datos, así como sus características básicas (error de muestreo, nivel de confianza, tipo de muestreo, tamaños muestrales, universo de referencia, influencia o sesgo de la no respuesta, etc.).

El hecho de que los errores en las variables a medir existan, ha producido una controversia a lo largo del tiempo entre los económetras, existiendo partidarios de su tratamiento así como partidarios de no tenerlos en cuenta.

A estos errores se les propuso como los causantes de las discrepancias en los valores observados y la regresión, fundamentándose en la diferencia existente entre las variables teóricas y las variables empíricas.

La aceptación de la existencia de errores en la medición de las variables produce un problema de aceptación de inconsistencia en las estimaciones mínimo cuadráticas debido a que, evidentemente, si una variable esta medida con error éste se reflejará en la perturbación aleatoria, produciéndose una correlación entre ambos componentes de la ecuación.

En estos casos se utiliza la definición de variable latente, como la variable real, que no siempre coincidirá con la variable empírica u observada. La variable latente se describe como la variable observada más el término de error.

Llevado el problema a un modelo concreto, se puede observar como sustituyendo las variables a analizar (siempre se supone que se desea trabajar con variables reales “latentes”) por las variables observadas más el error de medida, se llega al problema descrito.

Este problema difiere en su magnitud según si el error se da en las variables explicativas o en las variables endógenas. Así, si sólo existen errores en la variable endógena, los estimadores mínimo cuadráticos serán insesgados y consistentes, pero presentarán un problema de eficiencia (se incrementa la varianza del error). Si, por el contrario, los errores de medición se encuentran en las variables explicativas del modelo, los estimadores mínimos cuadráticos serán sesgados e inconsistentes.

Otro hecho a tener en cuenta es que habitualmente no se conoce el valor real de la variable, no conociéndose, por tanto, el error cometido en su medición (estimación), debiendo el investigador trabajar con la variable observada, lo que conduce a la necesidad de trabajar con estimadores consistentes.

Actualmente existe una línea de investigación en la cual se trabaja con errores en las variables, conocida como el análisis de ecuaciones estructurales los cuales, partiendo del hecho de que no se miden perfectamente las variables latentes mediante la información disponible, incorporan dentro de su implementación los errores de medida. Dentro de esta línea de investigación cabe destacar los siguientes métodos:

· Método de Agrupación de las Observaciones, que consiste en la división de los valores muestrales en grupos o submuestras a partir de los cuales, una vez ordenados de menor a mayor los valores de la variable explicativa, se calculan las medias aritméticas, obteniéndose de esta manera tanto la pendiente como el término independiente. Los estimadores así obtenidos son consistentes, pero no eficientes.

· Método de Variables Instrumentales (VI), consiste en encontrar un instrumento o variable que, no estando incluida en el modelo, esté incorrelacionada con el término de error y correlacionada con la variable explicativa para la que actúa de instrumento y que posee errores de medida. El estimador obtenido de esta manera será un estimador consistente, si bien el método plantea ciertas dificultades, ya que es difícil encontrar en la práctica instrumentos de una variable medida con error que no estén correlacionados con el término de error.

· Método de la Regresión Ponderada, en la que se da una ponderación igual a los errores de X y de Y. Posteriormente, y una vez fijada la relación entre las varianzas de los errores, se procede a estimar X en función de Y, y de Y en función de X, debiendo encontrarse la regresión verdadera entre ambas estimaciones.

ACTIVIDAD UNO INDIVIDUAL

1. Un hipermercado ha decidido ampliar el negocio. Decide estudiar de forma exhaustiva el número de cajas registradoras que va a instalar, para evitar grandes colas. Para ello, se obtuvieron los siguientes datos procedentes de otros establecimientos similares acerca del número de cajas registradoras y del tiempo medio de espera.

Bajo el supuesto de que el tiempo de espera medio depende linealmente del número de cajas registradoras se pretende saber, e interpretar:

a) Realizar el diagrama de dispersión.

b) Realizar el coeficiente de correlación.

c) Realizar la prueba de hipótesis en el análisis de correlación con t del 95%.

d) Encontrar la ecuación de la línea recta de regresión muestral con el método de mínimos cuadrados

e) Encontrar la línea recta cuando x vale: 10, 12, 24.

f) Encontrar los residuales.

2. ¿Cómo define usted el concepto de regresión simple?

____________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

3. ¿Cómo define usted el concepto de diagrama de dispersión y coeficiente de regresión?

______________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

4. ¿Qué es un análisis de regresión múltiple?

______________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

4. SESION PRACTICA CON E-VIEWS

4.1. CAMBIO DE FRECUENCIA EN SERIES DE DATOS AGREGACIÓN DE DATOS

Una de las transformaciones con las que habitualmente nos podemos enfrentar a la hora de elaborar modelos econométricos basados en series temporales es, precisamente, los cambios en la frecuencia temporal con la que se presentan dichos datos.

Como ya se ha visto en las pasadas guías, estos cambios de frecuencia no presentan ningún problema siempre que estemos agregando información, es decir, que reduzcamos la frecuencia de las series temporales. Para realizar estas operaciones de agregación en Eviews, bastará con traspasar un objeto serie de un workfile de frecuencia superior a otro de frecuencia inferior, siendo las operaciones más habituales la agregación trimestral de series mensuales o la agregación anual de series trimestrales.

Este traspaso de series de unos workfiles a otros puede realizarse de dos formas alternativas:

· Almacenando en disco los objetos tipo serie mediante el comando Store y recuperándolos posteriormente en un workfile de menor frecuencia mediante el comando Fetch.

· Manteniendo abiertos simultáneamente los dos workfiles y utilizando las opciones de copiar (Copy) y pegar (Paste), a las que podemos acceder seleccionando el objeto a copiar y pulsando el botón derecho del ratón.

Para ilustrar esta operación, vamos a seleccionar dos series, denominadas respectivamente, ACTMUN y BASE, de un workfile denominado TRIMES95, y las copiaremos en un nuevo workfile, denominado anual, reduciendo así las citadas series de frecuencia trimestral a frecuencia anual.

Los pasos a seguir, tal como se ilustran en la imagen anterior serían los siguientes:

1. Activar los dos workfiles mediante la opción fichero (File) abrir (Open).

2. Seleccionar los objetos tipo serie que pretendemos cambiar de frecuencia.

3. Pulsar el botón derecho del ratón y seleccionar la opción de copiado (Copy). Situarnos en la ventana del workfile de destino y presionando nuevamente el botón derecho del ratón seleccionar la opción de pegado (Paste).

Tal como decíamos en antes, existen diversas alternativas para realizar la agregación de series (reducción de frecuencia), siendo las más habituales la de suma, media y último dato, en función del tipo de series que estemos manejando.

La selección del método de agregación utilizado por Eviews se realiza desde el menú principal del programa, eligiendo el menú de opciones (Options), y dentro de esta, la opción de conversión de frecuencias (Frequency Conversion –Dates), accediendo a un menú donde podremos seleccionar el tipo de agregación (High to low frequency conversión) deseada.

Como puede comprobarse en la siguiente figura, además de las opciones habituales de media (Average Observations), suma (Sum Observations) y último dato (Last Observation), podemos optar por agregar utilizando la primera observación (First Observation), el máximo (Maximun Observation), el mínimo (Minimun Observation) o no permitir la conversión de frecuencias (No conversión allowed).

Una vez seleccionada la opción de conversión, ésta actuará por defecto en todas las operaciones de cambio de frecuencia realizadas con Eviews hasta que se altere nuevamente mediante un proceso similar a éste.

Adicionalmente, a cada objeto serie puede asignársele un tipo de agregación específica con independencia de la opción general activada. Así, desde el menú específico de la ventana del objeto serie y la opción de ver (View) se puede acceder a un menú de opciones de conversión (conversión Options), que nos presenta una lista de opciones similar a la que veíamos en el caso general, con la diferencia de que esta selección específica sólo afectará a la serie concreta que hayamos seleccionado.

Nótese que la opción que aparece activada es precisamente la de utilizar como método de conversión la selección general usada por defecto para todas las operaciones (Use Eviews global default).

INCLUDEPICTURE "http://i25.photobucket.com/albums/c98/kmblog/200706/20070629a.jpg" \* MERGEFORMAT

INCLUDEPICTURE "http://i25.photobucket.com/albums/c98/kmblog/200706/20070629a.jpg" \* MERGEFORMAT

4.1. CARACTERIZACIÓN DE SERIES. ESTADÍSTICOS BÁSICOS Y CORRELOGRAMA

Como una primera etapa en la realización de una aplicación econométrica puede resultarnos de interés realizar una caracterización inicial de las variables a analizar, caracterización que puede comenzar con la simple representación gráfica de la serie, utilizando para ello las opciones generales de visualización (View) que se ofrecen en la ventana de los objetos tipo serie y que ya fueron comentadas en el primer apartado de esta guía.

Adicionalmente, y en ese mismo menú de visualización, Eviews ofrece una serie de posibilidades automatizadas para analizar o describir el comportamiento de una determinada serie.

Comenzando por las más sencillas, y seleccionando la opción de estadísticas descriptivas (Descriptive Stats) que se presenta en las opciones del menú de visualización (View) en la ventana del objeto serie, podremos optar, a su vez, entre dos tipos de estadísticas, el histograma de frecuencias y los estadísticos simples de la serie (Histogram and Stats), o las estadísticas clasificadas en función de otras variables (Stats by Clasiffication).

Eligiendo la primera de ellas, y utilizando la variable denominada SALER incluida en el workfile denominado TRIMES95 que ya hemos utilizado como ejemplo en otras ocasiones, el procedimiento descrito, que queda ilustrado en la figura, nos ofrecería los resultados que aparecen en la parte inferior derecha de la imagen.

Como puede comprobarse, la selección de estadísticas básicas incluye, además del histograma de frecuencias, el valor medio de la series (Mean), la mediana (Median), el máximo (Maximun) el Mínimo (Mínimun), la desviación típica (Std.Dev) así como los índices de apuntamiento (kewness) y curtosis (Kurtosis). Finalmente se presenta el valor del estadístico de Jarque-Bera, para contrastar la normalidad de la serie y su correspondiente nivel de probabilidad asociado, rechazándose la hipótesis nula de normalidad si dicha probabilidad es muy baja.

Seleccionando la segunda de las opciones ofrecidas, la de estadísticas clasificadas por otra serie o grupo de series, accederemos a un menú de selección donde deberemos indicar, la serie o grupo de series sobre las que queremos realizar la clasificación, así como el formato y los elementos de las tablas a generar, tal como se indica en la siguiente figura

En la pantalla de selección deberemos elegir, tanto los estadísticos a incluir en la tabla (Media, Suma, Mediana, Máximo, Mínimo, Desviación Típica, Apuntamiento y Curtosis), como la serie o grupo de series que sirven de base para la clasificación (en la imagen la serie IPCP), así como las opciones de mostrar los totales de la tabla.

Si la clasificación se ha realizado respecto a una única variable, los resultados obtenidos serán similares a los mostrados en la parte derecha de la imagen, donde se recogen los valores medios y de desviación típica de la serie SALER (% de crecimiento de salarios por persona), para distintos niveles de la serie IPC (% cto. de precios de consumo), distribuidos en tantos intervalos como hayamos seleccionado en el paso anterior (Max # of Bins), en este caso 5. El resto de opciones de visualización recogidas en el segundo bloque, nos ofrecen posibilidades alternativas de realización de contrastes estadísticos (Test for Descriptive Statistics), tanto simples (Simple Hypothesis Test), como complejas tipo ANOVA (Equality Test by Classification); elaboración de distintos tipos de gráficos de distribución (Distribution graphs), y tabulación acumulada (One-way Tabulation), remitiéndonos una vez más al manual del programa y la ayuda (Help), para la interpretación y utilización de estas opciones.

En la ventana del objeto tipo grupo, similar como decíamos a la del objeto serie, aparecen, además de las opciones anteriormente señaladas, dos alternativas adicionales de elaboración de estadísticos básicos, y que son la matriz de correlaciones (Correlations) y la matriz de covarianzas (Covariances), obteniéndose unos resultados como los que se muestran en esta figura, obtenidos sobre un grupo, denominado G1 que contiene tres variables (IPCP, IGDPM95 y SALER):

Finalizaremos este apartado dedicado al análisis descriptivo de series con el correlograma, que, recordamos, es la representación gráfica de los valores de autocorrelación de una variable.

Para obtener el correlograma de una determinada serie16, elegiremos la opción correspondiente (Correlogram), que aparece en el menú de visualización (View) de la ventana del objeto serie, y accederemos a una ventana de selección de opciones para el correlograma similar a la que aparece en la siguiente figura

5. GLOSARIO

ANALISIS DE REGRESION:

La regresión estadística o regresión a la media es la tendencia de una medición extrema a presentarse más cercana a la media en una segunda medición. La regresión se utiliza para predecir una medida basándonos en el conocimiento de otra.

ANALISIS DE LA VARIANZA:

es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.

AUTOCORRELACION:

Es el momento en que se trabaja con un modelo de regresión multiple, donde se tiene que la primera variable vale 1 y esta acompañada por el termino dependiente.

CURTOSIS:

En teoría de la probabilidad y estadística, la curtosis es una medida de la forma. Así, las medidas de curtosis tratan de estudiar la proporción de la varianza que se explica por la combinación de datos extremos respecto a la media en contraposición con datos poco alejados de la misma. Una mayor curtosis implica una mayor concentración de datos muy cerca de la media de la distribución coexistiendo al mismo tiempo con una relativamente elevada frecuencia de datos muy alejados de la misma. Esto explica una forma de la distribución de frecuencias con colas muy elevadas y un con un centro muy apuntado.

ECONOMETRIA:

Es la ciencia social en la cual las herramientas de la teoría económica, las matemáticas y la inferencia estadística son aplicadas en el análisis de los fenómenos económicos.

ESTADISTICA INFERENCIAL:

La estadística inferencial es una parte de la estadística que comprende los métodos y procedimientos que por medio de la inducción determina propiedades de una población estadística, a partir de una pequeña parte de la misma.

FUNCIONES DE OBJETIVOS 

Se definen explícitamente los objetivos del sistema y cómo se evaluarán, es una medida de la eficiencia del sistema.

HETEROSCEDASTICIDAD:

Este se presenta cuando no se cumple con la hipótesis de varianza constante para el término de la perturbación.

LOS PARÁMETROS

Son cantidades a las cuales se les asignar valores, una vez establecidos los parámetros, son constantes y no varían dentro de la simulación.

LAS RELACIONES FUNCIONALES 

Muestran el comportamiento de las variables y parámetros dentro de un componente o entre componentes de un sistema. Estas características operativas pueden ser de naturaleza determinística o estocástica. Las relaciones determinísticas son identidades o definiciones que relacionan ciertas variables o parámetros, donde una salida de proceso es singularmente determinada por una entrada dada. Las relaciones estocásticas son aquellas en las que el proceso tiene de manera característica una salida indefinida para una entrada determinada.

LAS RESTRICCIONES 

Son limitaciones impuestas a los valores de las variables o la manera en la cual los recursos pueden asignarse o consumirse.

MULTICOLINEALIDAD:

Determina si existe un alto grado de correlación lineal entre los diferentes tipos de variables independientes y dependientes.

PRUEBA DE HIPOTESIS:

Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste en rechazar o no una hipótesis en favor de la otra. Una hipótesis estadística se denota por “H” y son dos:

- Ho: hipótesis nula- H1: hipótesis alternativa

SESGO:

Grado en el que el valor esperado de un estimador difiere del valor verdadero del parámetro.

VARIABLE ESTOCASTICA:

En probabilidad y estadística, una variable aleatoria o variable estocástica es una variable estadística cuyos valores se obtienen de mediciones en algún tipo de experimento aleatorio.

6. BIBLIOGRAFÍA

· Gujarati, Damodar (2004): “ECONOMETRÍA”. (4° edición). Mc Graw Hill

· Gujarati, Damodar (2000): “ECONOMETRÍA BASICA”. Mc Graw Hill

· Londoño Herrera, Carlos G. (2011): “ECONOMETRIA DE NEGOCIOS”. Universidad Remington

· Martinez Bencardino, Ciro (2003): “ESTADISTICA Y MUESTREO”. (11° edición) Ecoe Editores.

· Hansen Bruce (2012) “ECONOMETRICS”. UNIVERSITY OF WISCONSIN. LATEST REVISION JANUARY 2012.

· Mahia, Ramon (2001) GUIA DE MANEJO DEL PROGRAMA E- VIEWS.

· Perez Ramirez, Fredy (2009): ECONOMETRIA CONCEPTOS BASICOS (1ra edición) Ecoe Editores.

· Wooldridge, Jeffrey (2007) INTRODUCCION A LA ECONOMETRÍA, Un enfoque moderno. (2da edición) Thomson.

7. FUENTES DIGITALES O ELECTRÓNICAS

· www.wikipedia.com

· Parra Rodríguez. Francisco. Curso de econometría básica. Servicio de Estadísticas Económicas y Sociodemográficas. Instituto Cantabro de Estadística. ICANE

· http://www.uam.es/personal_pdi/economicas/sgarcia/Guia%20Eviews.pdf

� Como es habitual en muchas operaciones en entorno windows, podremos seleccionar varios objetos simultáneamente utilizando la tecla de "Mayúsculas" o "Control" combinadas con el botón izquierdo del ratón.

44