barcelo2006_arqueologia y estadistica

134
ARQUEOLOGIA Y ESTADISTICA 1 Introducción al estudio de la variabilidad de las evidencias arqueológicas Juan A. Barceló Laboratori d’Arqueologia Cuantitativa i Aplicacions Informàtiques Universitat Autònoma de Barcelona 2006

Upload: lv78

Post on 06-May-2017

219 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Barcelo2006_Arqueologia y Estadistica

ARQUEOLOGIA Y ESTADISTICA

1

Introducción al estudio de la variabilidad de las evidencias

arqueológicas

Juan A. Barceló Laboratori d’Arqueologia Cuantitativa i Aplicacions Informàtiques

Universitat Autònoma de Barcelona

2006

Page 2: Barcelo2006_Arqueologia y Estadistica

INDICE Presentación .................................................................................................................... 3 ¿Para qué sirve la estadística en arqueología? ............................................................ 7 La naturaleza estadística de los datos arqueológicos. ............................................... 13 Primeros pasos con PAST. Instalación del programa .................................................. 20 Primeros pasos con PAST. Introducción y manipulación de datos arqueológicos. ..... 21

Introducción de datos ................................................................................................. 21 Cargar y guardar datos................................................................................................ 23 Mover una fila o una columna.................................................................................... 24 Selección de áreas....................................................................................................... 24 Renombrar filas y columnas ....................................................................................... 26 Aumentar el tamaño de la hoja de cálculo.................................................................. 26 Cortar, copiar, pegar ................................................................................................... 26 Eliminar ...................................................................................................................... 27 Agrupar (colorear) filas .............................................................................................. 27 Ordenar valores en una columna ................................................................................ 28 Transponer .................................................................................................................. 29 Resultados de las pruebas estadísticas........................................................................ 30

¿Qué forma tiene la distribución? Histogramas ........................................................ 31¿Cuán variables son las consecuencias materiales de las acciones sociales? Estadística Univariante ................................................................................................... 40El azar como medida de todas las cosas. La Ley de la “Normalidad” .................... 46 Explicar es Comparar χ - chi cuadrado-/Shapiro-Wilk (una muestra).2 ,Gráficos QQ de Normalidad. ............................................................................................................... 54Asociación, Relación y Semejanza.Tres palabras clave para un mismo problema...... 70Estudiando Relaciones entre variables. .................................................................... 800

Relación entre variables cuantitativas ........................................................................ 80 Una de las medidas de la intensidad de una relación....................................................................8 88

Relación entre variables cualitativas y cuantitativas ................................................ 966Analisis de Varianza Univariante .................................................................................................1066

Relación entre variables cualitativas ...................................................................... 1144Analisis de Correspondencias.......................................................................................................1233

Contenidos del próximo volumen de la serie ......................................................... 1344

2

Page 3: Barcelo2006_Arqueologia y Estadistica

Presentación Aunque la mayoría de arqueólogos y arqueólogas no lo crea, la arqueología es una disciplina matemática (según dijo en su día David Clarke), en pie de igualdad con la química, la física, etc. Es decir, para resolver problemas arqueológicos debemos utilizar métodos de razonamiento desarrollados en lenguaje matemático. Obviamente no es éste el lugar para discutir este punto, pero si los lectores y lectoras de este manual siguen leyendo, entenderán por qué digo lo que digo. La dificultad está en que no sabemos matemáticas. Aunque existen muchos programas informáticos que debieran ayudarnos a aplicar esas matemáticas, lo cierto es que su uso parece ser demasiado complicado para quien no tiene los conocimientos necesarios. Por eso se ha escrito este libro, que:

• proporciona ejemplos fáciles de seguir de todas las técnicas usadas en arqueología, • documenta de manera esquemática, intuitiva, simple y directa todas las funciones

estadísticas que pudieran llegar a ser útiles para arqueólogos y arqueólogas, mostrando ejemplos claros de todas ellas,

• no está basado en fórmulas, sino que se explican para qué sirven los cálculos que realiza un programa informático.

• Este libro está ajustado al uso del programa gratuito PAST. Este libro ha sido escrito especialmente para aquellos investigadores e investigadoras (y estudiantes de arqueología que pretenden convertirse en futuros profesionales de nuestra disciplina) que no sólo no tienen ni idea de las matemáticas, sino que aprendieron a odiarlas en sus años de escuela. Números aparecerán en gran cantidad, pero las operaciones (aritméticas, algebraicas, etc.) se obviarán y serán sustituidas por explicaciones intuitivas de lo que se pretende con esas técnicas.

Un segundo libro acompaña a este manual. Se trata de un libro de ejercicios y problemas arqueológicos, que pueden obtenerse en la página web de referencia para este manual:

http://seneca.uab.es/prehistoria/Barcelo/manualestadistica.html En ese documento (en formato .pdf) las distintas funciones estadísticas de PAST presentadas y discutidas en el libro se ejemplifican con arreglo a varios casos arqueológicos reales. Se ha intentado que los lectores y lectoras del manual se vayan

3

Page 4: Barcelo2006_Arqueologia y Estadistica

acostumbrando al tipo de resultados estadísticos más usuales en arqueología y a la complejidad de su lectura e interpretación. A diferencia del manual en el que se explican las técnicas, en el Libro de Ejercicios y Problemas se insiste en el tipo de problemática histórica que los datos arqueológicos debieran permitir resolver. Por eso la estructura de ambos es distinta: el manual está estructurado de acuerdo con las técnicas y funciones estadísticas que se estudian, mientras que el Libro de Ejercicios y Problemas está organizado de acuerdo con problemas arqueológicos concretos que se van resolviendo de manera ordenada. Se ha considerado que lo importante es aprender a tener en cuenta que las distintas funciones estadísticas no pueden aplicarse a “ciegas”, sino siempre considerando la pregunta concreta a la que se quiere responder.

En el Libro de Ejercicios y Problemas se ha puesto un interés especial en argumentar qué funciones “pueden” ejecutarse y cuales NO “deben” realizarse con determinados tipos de datos. Los ejemplos han sido elegidos precisamente para poner de manifiesto las ventajas de la descripción cuantitativa en arqueología y los inconvenientes de la cualitativa. Por eso hay ejemplos que parece que no proporcionan información relevante.

El documento que contiene esos problemas resueltos se irá actualizando frecuentemente, incluyendo nuevos casos reales. Se invita a los lectores y lectoras a sugerirnos nuevos ejemplos o casos que se deseen incluir. Para este proyecto se ha elegido un programa informático muy particular. El programa PAST1 –Paleontological Statistics-, es original de Øyvind Hammer, D.A.T. Harper and P.D. Ryan. Existen muchos y muy completos programas para realizar cálculos estadísticos, como por ejemplo SPSS, SAS y extensiones para Excel. ¿Por qué otro programa de estadística? Porque

• PAST es gratuito, • PAST está ajustado a su uso en paleontología y arqueología. Esto significa que

incluye algunas funciones que no aparecen en programas de uso general (como cladística, seriación, morfometría y comparación estratigráfica). Igualmente, no incluye funciones raramente usadas en nuestras disciplinas, lo que permite al programa ser más ajustado y menos confuso.

• PAST es fácil de usar, y apropiado para los cursos introductorios de paleontología y arqueología cuantitativas.

Ya sólo por su nombre past (“pasado”) parece hecho ex profeso para nosotros, arqueólogos. Es un acrónimo de “estadística paleontológica”, y la paleontología y la arqueología tienen muchas semejanzas y analogías, al menos en lo que a metodología se refiere. No obstante, las funciones estadísticas usadas en paleontología no siempre son las mismas que las usadas en arqueología, por eso necesitamos de un libro como éste, que adapta PAST a su uso en arqueología. La página web de referencia del programa PAST, y donde puede obtenerse gratuitamente es: http://folk.uio.no/ohammer/past

1 Este manual se refiere a la versión 1.54. El programa se actualiza muy frecuentemente, así que es conveniente visitar repetidas veces la pagina web de referencia para descargar la última versión.

4

Page 5: Barcelo2006_Arqueologia y Estadistica

Los usuarios pueden suscribirse a una lista de correo electrónico acerca del uso del programa. Los detalles aparecen en la página web cuyo enlace es el siguiente:

http://nhm-lists.uio.no/mailman/listinfo/[email protected] Este manual es el primero de una serie de publicaciones del Laboratorio de Arqueología Cuantitativa de la Universidad Autónoma de Barcelona que documenta otras funciones de PAST y que también recurrirá a otros programas gratuitos. Por el momento están previstos los siguientes volúmenes, que irán apareciendo con periodicidad anual:

Vol. 1. Introducción al estudio de la variabilidad de las evidencias arqueológicas (Estadística Univariante y Bivariante)

Vol. 2. Estadística Multivariante Vol. 3. Morfometría

Vol. 4. Análisis Espacial Vol. 5. Seriación y Predicción

En este primer libro tan sólo vamos a tratar en general con la manera de enfocar el análisis de una distribución de valores. Como es lógico, el análisis de distintas propiedades cuantitativas requiere estrategias y procedimientos diferentes. Aquí meteremos dentro del mismo paquete el estudio de la magnitud, de la forma, de la textura, de la composición y de la localización de las evidencias arqueológicas. Se me ocurren dos ámbitos específicos que requieren de una exposición más detallada: el estudio de la forma y el de la localización. El primero se abordará en el volumen dedicado a morfometría, en tanto que el segundo encontrará acomodo en el volumen referido al análisis espacial. Por otro lado, algunas de las técnicas más usuales no han encontrado lugar en este primer libro por varias razones. Por ejemplo, en varias ocasiones se menciona el análisis de las semejanzas entre objetos (o estudio de la similaridad), pero nada se explica de él. El estudio de la semejanza implica necesariamente la comparación de muchas variables, y eso es matemáticamente más complejo. Por ese motivo he preferido dejarlo para introducir el próximo volumen, que trata precisamente del análisis multivariante. Además, algún lector o lectora puede encontrar a faltar referencias a la regresión. La mayoría de libros de introducción a la estadística la mencionan entre las técnicas básicas; quizás sea una técnica fundamental en otras disciplinas, pero en arqueología prácticamente nunca me he encontrado relaciones lineales que puedan ser analizadas por medio de ecuaciones de regresión simple. Creo que el estudio de la regresión es muy interesante para introducir cuestiones mucho más útiles (pero también más difíciles) como el de las regresiones múltiples y las regresiones no lineales. Todos esos temas habrán de esperar hasta el volumen dedicado a seriación y Ppedicción.

AGRADECIMIENTOS. Este libro y los que le seguirán son el resultado de 15 años de docencia de la Arqueología Cuantitativa en la Universitat Autónoma de Barcelona. Es por tanto obvio que mi mayor agradecimiento va hacia los y las estudiantes que pasaron por las asignaturas de Introducción a la Arqueología, Métodos Cuantitativos en Arqueología, Recursos Instrumentales para la Investigación Histórica, Técnicas de Laboratorio, Archivo y Campo, así como por la asignatura de doctorado Técnicas de Inteligencia

5

Page 6: Barcelo2006_Arqueologia y Estadistica

Artificial en Arqueología. Si aprendieron algo de mí, también yo aprendí mucho de ellos y ellas. Mi agradecimiento va también dirigido a mis compañeros y compañeras del equipo de investigación conjunto UAB/CSIC de Barcelona. Con ellos he realizado numerosos análisis estadísticos para interpretar los datos arqueológicos procedentes de nuestras excavaciones en Tierra del Fuego (Argentina), así como datos proporcionados por otros compañeros en proyectos arqueológicos en Próximo Oriente, Península Ibérica y otros lugares. Si la aplicación de esas técnicas permitió llevar a cabo muchos proyectos e incluso sirvió para desarrollar algunos aspectos importantes de muchas Tesis Doctorales, los problemas que plantearon estimularon una reflexión acerca de lo apropiado o inapropiado de los métodos que no podría haberse llevado a cabo sin su ayuda. Gracias a todos ellos la estadística dejó de ser un mero recurso teórico para convertirse en una herramienta práctica, integrada en el trabajo cotidiano de arqueólogos y arqueólogas. Y finalmente, pero no en último lugar, a Laura y a Martí. El llegó cuando aún no había empezado con este proyecto, y ahora está aquí, metiendo sus pequeñas manitas en el teclado del ordenador y deshaciendo aquello que yo pretendo hacer. Ella ha estado siempre a mi lado, leyó y corrigió varios manuscritos previos y se dedica en cuerpo y alma a nosotros dos. Gracias.

6

Page 7: Barcelo2006_Arqueologia y Estadistica

¿Para qué sirve la estadística en arqueología?

Si por un momento dejáramos de pensar en la investigación arqueológica en los habituales términos narrativos y descriptivos, nos daríamos cuenta de que como investigación científica que es, debe expresarse en términos de problemas a resolver. La arqueología es una ciencia social, es una disciplina histórica, pero ni es la única ciencia social, ni la única disciplina histórica. Por consiguiente no debemos pretender responder aquí y ahora todos los problemas de la humanidad, sino resolver problemas concretos y específicos que se refieran al tipo de datos que podemos llegar a manejar. Debemos huir de trivialidades del tipo de: “¿Cómo vivía la gente en el pasado?” y centrarnos en: ¿Por qué estos materiales

arqueológicos son como son, y no de otra manera?

El objeto de estudio de la arqueología son las consecuencias materiales de la acción humana, esto es del trabajo de mujeres y hombres. Como resultado de nuestro trabajo, de nuestras relaciones con otras personas, producimos objetos, transformamos cosas, ya sea de manera consciente, ya sea de manera inconsciente. Algunas de esas consecuencias de lo que hacemos tienen una materialidad que va más allá de su mera visibilidad. Por ejemplo, el lenguaje hablado es una consecuencia de la actividad social, es perceptible, pero no tiene materialidad, a no ser que lo escribamos sobre un soporte material. Por el contrario, un instrumento de trabajo o la pata de pollo que me comí anoche, son también consecuencias observables de la acción social, que además tienen la característica de ser analizables en su materialidad. Otras disciplinas se encargan de otros aspectos no materiales de la vida social. Debemos saber lo suficiente de sociología, de economía, de psicología social, etc., pero nosotros debemos centrarnos en aquellos aspectos que sólo la investigación arqueológica puede estudiar: aquello que se conserva de la acción social una vez que ésta ha concluido. Y lo que se conserva es, precisamente, un subconjunto de lo material. Debemos estudiar cómo la acción social generó, a lo largo del tiempo, consecuencias materiales y sus relaciones. Esto no significa que la causa de esa materialidad antigua observable en el presente se reduzca a lo que se ha dado en llamar “economicismo” de vía estrecha. No sólo la subsistencia genera consecuencias materiales, sino cualquier acción social, tanto política, como económica, como ideológica.

Las ciencias sociales pretenden resolver dos tipos o modalidades de problemas:

7

Page 8: Barcelo2006_Arqueologia y Estadistica

• qué tipos de acción social pueden ponerse en relación con conjuntos específicos de artefactos o fragmentos de artefactos. Es decir, qué efectos materiales produce la acción social y de qué manera podemos “reconstruirla” partiendo de la observación de esos efectos,

• por qué la acción social en cuestión se produce, cambia o permanece estable. Es decir, por qué varían a lo largo del tiempo y/o del espacio los efectos materiales de la acción social.

Resulta obvio que la resolución de problemas del primer tipo es una condición para la resolución de los del segundo tipo. Si no sabemos qué acciones colectivas se produjeron en un momento y lugar, difícilmente averiguaremos por qué cambiaron a través del tiempo, y por qué la acción colectiva cristalizó en distintas formaciones sociales. Dentro de las ciencias sociales, la arqueología aparece en realidad como una especie de “ingeniería inversa”, cuyos resultados serán utilizados en investigaciones más abstractas o interpretativas acerca de la naturaleza social:

¿Qué acción social (proceso de trabajo) causó (determinó, condicionó, influyó) el efecto material que puedo observar en el yacimiento arqueológico?

Nosotros conocemos el efecto (material arqueológico), y deseamos averiguar la acción social que lo produjo. No quiere esto decir que la arqueología sea una parienta pobre de la historia, ni que arqueólogas ni arqueólogos no sean investigadores o investigadoras de la historia, sino que antes de resolver un problema histórico (“¿por qué pasó?”), debemos resolver el problema arqueológico (“¿qué pasó?”).

Es en los distintos productos finales (materias primas, instrumentos, residuos y desechos) donde quedan reflejados los procesos de trabajo. El estudio arqueológico de los productos, de los desechos de producción y de los medios usados para producirlos debiera permitirnos, entonces, identificar los lugares de producción y establecer cuáles han sido los procesos de trabajo y las acciones de uso, consumo y/o distribución. La arqueología analiza los objetos que son resultado del trabajo, que son producto de la acción colectiva. Pero no los estudiamos porque ellos mismos sean importantes, por las intenciones o motivaciones individuales de los agentes que los produjeron, sino porque constituyen el aspecto “observable” de una parte de la acción colectiva; porque constituyen el conjunto de elementos materiales que usa el grupo humano para subsistir y reproducirse. Los bienes producidos, ya sean destinados a ser comidos, bebidos o para producir otros bienes, no son más que elementos naturales alterados por el trabajo. Todo lo que ha sido modificado en su forma, en su tamaño, en su composición, en su textura, en su localización, es pues un elemento del registro arqueológico. Los animales salvajes, las piedras, la tierra, los bosques, los ríos no son artefactos, sino recursos, pero las carcasas animales, los bloques extraídos de mineral, la tierra cultivada, el paisaje transformado, el agua que se va a beber o se va a utilizar para regar son artefactos, ya que su materialidad ha sido alterada por acciones colectivas como la caza, el despiece, el transporte y repartición de la carne, su cocción y la fragmentación de huesos, el cultivo, el embalse de aguas y su canalización, la deforestación, la fabricación de instrumentos, etc. Es un artefacto todo lo que ha sido modificado por la acción colectiva, que explota y organiza sus recursos, que deforesta, aterraza, y construye o

8

Page 9: Barcelo2006_Arqueologia y Estadistica

destruye. Si la acción colectiva modifica la naturaleza, entonces podemos utilizar las modificaciones observables en la materialidad de las cosas para inferir las acciones colectivas que se han realizado en determinado lugar. Es en este sentido, en el que todo objeto socialmente producido funciona como símbolo o indicador de una realidad social que está definida, precisamente por la acción colectiva, es decir, la capacidad del grupo social para producir y reproducirse. El primer paso en esa ingeniería inversa que pretende averiguar la causa partiendo de la observación del efecto es, lógicamente, describir esa materialidad resultado de la acción social. La materialidad puede estudiarse con arreglo a 5 propiedades básicas:

MAGNITUD TAMAÑO COMPOSICIÓN TEXTURA LOCALIZACION (en el tiempo y en el espacio)

A su vez, las causas sociales de esas propiedades observables en las consecuencias materiales de la acción social pueden resumirse en cuatro grandes grupos:

PRODUCCIÓN USO/CONSUMO DISTRIBUCIÓN ACCIONES POST-DEPOSITACIONALES

El gráfico muestra cómo causas y efectos se interrelacionan:

PROCESOS POST-DEPOSITACIONALES

PRODUCCION

Forma Tamaño Distribución Composición Textura Localización

USO

ACCION INVESTIGADORA Por descontado, en muchas ocasiones (a veces la mayoría) los materiales arqueológicos tienen la forma o el tamaño que tienen debido a todo lo que pasó desde el momento histórico de su depositación hasta la excavación arqueológica. El elemento original que fue consecuencia de la acción social pudo haberse roto, pudo haberse alterado en su composición química, pudo haberse desplazado, su contenido en carbono 14 pudo haberse contaminado, etc. El primer problema arqueológico a resolver consistirá en averiguar hasta qué punto lo que observamos es resultado de lo que tuvo lugar en el yacimiento arqueológico después de que la acción social original se produjera. Una vez que hayamos podido resolver qué aspectos de la materialidad arqueológica no son una consecuencia de todo aquello que sucedió en el yacimiento arqueológico después de su

9

Page 10: Barcelo2006_Arqueologia y Estadistica

formación, pasaremos a plantear el problema arqueológico propiamente dicho, que puede esquematizarse de este modo:

Pero no es tan sencillo como parece. Este problema muy pocas veces puede resolverse para elementos arqueológicos individuales. ¿Por qué esta vasija tiene esta forma? Quizás porque es la forma más apropiada para el uso al que se la destina, o bien por accidente, por capricho de quien hizo esa cerámica, o por otras razones. Hay millones de causas posibles. ¿Quiere esto decir que los problemas arqueológicos –esa ingeniería inversa de la que hablábamos- es imposible? En parte es así. La arqueología es una ciencia “imposible”, de ahí sus muchos fracasos interpretativos. Pero existe una salvedad, que es precisamente la que justifica la naturaleza “matemática” de la arqueología. Lo que no se puede resolver para un elemento aislado, puede ser resuelto para un conjunto de elementos. ¿Por qué estas hachas tienen distintas longitudes? Porque fueron fabricadas con propósitos distintos. ¿Por qué en estas tumbas aparecen ajuares con composición diversa? Porque fueron producidos por rituales funerarios distintos. El problema arqueológico se expresaría entonces de otro modo:

Es muy difícil, a veces imposible, saber por qué una tumba en particular tiene cierta composición (cantidad de ajuar), cierto tamaño (volumen) o forma (es una fosa o un túmulo o una urna dentro de fosa, etc.). Puede que sea la tumba del cacique local, de un chamán, de una persona pobre, pero con muchos amigos, de alguien odiado y temido, etc. No podemos conocer el “significado” concreto de cada elemento arqueológico, porque resulta imposible “reconstruir” las motivaciones de los agentes sociales que lo produjeron o lo utilizaron. Pero sí que podemos averiguar por qué hay diferencias de composición, tamaño y forma en una necrópolis. Las tumbas son distintas porque las causas que las generaron fueron distintas. Si no podemos precisar la causa individual, sí que podemos llegar a definir causas más generales: lo que varía es el rito funerario, y el rito funerario es diverso porque la personalidad social de la familia del fallecido es diferente. Da igual si la persona enterrada fue una jefa, una chamán o una buena o mala persona; lo que importa es que su tumba es distinta del resto, y el grado y la naturaleza de esa diferencia puede medirse y estudiarse.

Por consiguiente, para explicar la dinámica de la acción colectiva, para explicar los procesos históricos de creación y transformación de las formaciones sociales no es

Qué acciones de PRODUCCION USO DISTRIBUCION

son la causa de VARIACIONES

OBSERVADAS DE: TAMAÑO FORMA

COMPOSICION TEXTURA

LOCALIZACION

Qué acción de PRODUCCION

TAMAÑO FORMA es la causa de USO COMPOSICION

DISTRIBUCION TEXTURA LOCALIZACION

10

Page 11: Barcelo2006_Arqueologia y Estadistica

necesario averiguar por qué cada uno de los artefactos arqueológicos (los productos del trabajo realizado por un grupo de personas relacionadas, precisamente, en razón de ese trabajo) son como son o aparecen donde aparecen, ya que ese estudio resulta, en la práctica, imposible, además de sin sentido. Tampoco necesitamos modelos universales de acción colectiva para poder interpretar los observables arqueológicos como sus realizaciones particulares. Se trata simplemente de buscar las regularidades históricas en la reproducción de acciones colectivas específicas. Buscamos la regularidad o irregularidad, la semejanza o la diferencia, la continuidad o la variación de las consecuencias materiales de distintas acciones sociales.

Comparando estados sucesivos de una misma trayectoria histórica, podemos estudiar qué ha cambiado y en qué condiciones ha cambiado. En biología se acepta que la morfología es el rastro dejado por el desarrollo, tenemos que comprender el desarrollo si queremos comprender la evolución. Semejante enfoque puede ser adaptado en arqueología, si añadimos a la morfología (forma y tamaño) propiedades como la composición, la textura y la localización. Así por ejemplo, podemos estudiar todas las formas de ritual funerario que han tenido lugar en el espacio que hoy ocupa la ciudad de Barcelona desde las primeras manifestaciones hasta hoy en día. Ordenando temporalmente las tumbas y cementerios, definiremos la trayectoria histórica de una formación social particular. Esta trayectoria está compuesta por los distintos estados que ha ido adoptando la acción colectiva. Las semejanzas y las diferencias entre estados consecutivos nos proporcionarán información acerca de la continuidad o discontinuidad en su reproducción.

El estudio de las causas de las diferencias observadas, de la variabilidad de las consecuencias materiales de la acción social, constituye el tema básico de investigación en arqueología. Pero el estudio de la variabilidad, como el de la semejanza, o el de la diferencia, y en realidad el análisis de cualquier tipo de comparación debe realizarse con útiles lógicos muy específicos. Si no formalizamos estrictamente esta forma de pensar, los resultados de la comparación que haga yo nada tendrán que ver con las comparaciones que haga otro investigador o investigadora. El estudio de la variabilidad sólo puede llevarse a cabo correctamente usando el lenguaje matemático y reglas específicas de razonamiento que constituyen precisamente el núcleo de la estadística.

Intentaremos argumentar estas ideas en multitud de ejemplos a lo largo de este manual. Problemas arqueológicos para los que es posible encontrar una solución por medio de herramientas estadísticas serían, por ejemplo:

• ¿Por qué ciertas puntas de lanza tienen formas distintas? ¿Se debe a procesos de producción diferentes, a que son productos de distintos talleres, de diferentes procedencias, o bien el uso al que se destinaban era diferente?

• ¿Por qué distintos tipos de vasijas tienen distinta decoración? La causa de la

variabilidad observada puede estar en el uso al que se destinaban esas cerámicas, a la forma en que fueron producidas, a su procedencia, etc.

• ¿Por qué distintos contenedores tienen una composición diferente en términos

porcentuales? Asumiremos que si el proceso de producción y/o el uso al que se destinó cada contenedor es el mismo, entonces la composición química de la materia de la que están hechos será la misma. Producción y/o intención de uso serán pues las causas de la variabilidad observada en la composición.

11

Page 12: Barcelo2006_Arqueologia y Estadistica

• Asumimos que el uso de los útiles líticos (cortar madera, raspar piel, etc.) modifica las características visuales de la superficie de ese útil. Son las llamadas “huellas de uso”. El problema a resolver es entonces qué acción (de uso) explica la variabilidad observada en la textura superficial de un conjunto de objetos líticos. ¿Los útiles que sirvieron para cortar madera tienen la misma textura que los que sirvieron para raspar piel fresca? ¿Es similar la textura superficial –huellas de uso- de los útiles de sílex que sirvieron para cortar materias duras?

• ¿Por qué aparecen huesos distintos de diversas especies animales en un

yacimiento arqueológico? Lo más lógico sería suponer que eso es así porque los habitantes de este lugar explotaron especies distintas, y cada especie tiene una anatomía diversa, lo que motiva que el uso del cuerpo del animal (despiece, carnicería, aprovechamiento de partes no cárnicas, etc.) sea diferente, según sea la especie. ¿Por qué aprovechaban de manera distinta las distintas partes del animal? Por otro lado, ¿por qué aprovecharon especies distintas? Quizás porque sólo cazaron las más abundantes en su entorno, o quizás sólo estaban interesados en que les eran más útiles, al margen de su abundancia o facilidad de captura.

• ¿Por qué distintos tipos de materiales arqueológicos aparecen en localizaciones

distintas? La respuesta más sencilla sería porque las consecuencias materiales de la acción de trabajo (los artefactos) aparecen allí donde la acción tuvo lugar. El estudio de la variabilidad espacial consistirá, por tanto, en estudiar si la localización espacial de distintos tipos de artefactos o evidencias es o no es distinta, y asociarla con las hipótesis acerca de qué es lo que se hizo en cada localización. Por ejemplo, ¿por qué en distintos sectores de un yacimiento arqueológico las muestras de carbón son distintas? Las explicaciones pueden ser varias, pero en general se refieren a la adquisición y aprovechamiento de la leña por la sociedad en cuestión. Por ejemplo, porque esas eran las especies vegetales leñosas disponibles en el entorno, o porque esas especies tienen un rendimiento calórico más eficaz para cierta actividad de trabajo realizada en esa localización.

• ¿Por qué las tumbas de cierta necrópolis son diferentes? Uno de los temas de

investigación recurrentes en la llamada arqueología de la muerte es, precisamente, el estudio de la variabilidad social, en términos de la variabilidad observada en el registro arqueológico. En este caso, la variabilidad observada se refiere a la variabilidad en la composición de dicho registro, es decir, las diferencias en el contenido de las tumbas. Cabría añadir también las diferencias en la forma y en el tamaño de las tumbas. La causa de esas diferencias, esto es, la variabilidad social se puede entender de dos maneras: Variación Horizontal (diferencias de género, esto es, entre hombres y mujeres), y Variación Vertical (diferencias de riqueza) dentro de cada una de las categorías horizontales.

• Si una serie de yacimientos arqueológicos fueron ocupados en el mismo

momento por la misma gente y se encuentran muy próximos unos de otros, ¿por qué la presencia o ausencia de distintos tipos de materiales es diferente entre ellos? Quizás porque las actividades que tuvieron lugar en cada uno de esos sitios fue distinta, relacionada con la división social y espacial del trabajo en esa sociedad.

12

Page 13: Barcelo2006_Arqueologia y Estadistica

La naturaleza estadística de los datos arqueológicos.

Podríamos pensar que la utilización de las matemáticas y de los números en arqueología o ciencias sociales no es más que un recurso fácil para tapar los agujeros de la disciplina y afirmar su “cientificidad” y precisión, ya que se usa el más científico de los métodos. No es así, el uso de las matemáticas y los números no es ninguna panacea. Podemos usar la matemática sin finalidad alguna, como si el mero hecho de traducir en números nuestras observaciones arqueológicas fuese ya bastante. ¿Qué sentido tiene decir que han aparecido 700 fragmentos de cerámica, o que el peso de todos los huesos de ciervo encontrados en esa cueva llegaba a los 5123 gramos? Esta forma “a-crítica” de cuantificar la arqueología es resultado de una visión, desgraciadamente muy generalizada, que considera a esta disciplina como una ciencia de segundo orden, que debe aceptar sin rechistar lo que otras disciplinas mejor equipadas conocen mejor. De ese modo, se han usado las viejas teorías antropológicas y/o históricas como si se tratase de axiomas fundamentales de la dinámica social. En muy pocos casos se ha intentado reevaluar esas teorías a la luz de los descubrimientos arqueológicos. Aún peor, prácticamente nunca se ha señalado el ámbito específico de la arqueología en el estudio de la sociedad humana.

Durante mucho tiempo arqueólogos y arqueólogas han permanecido absolutamente ajenos/as a esta cuestión. O bien no se les ocurría que sus datos arqueológicos podían ser interpretados con ayuda de métodos matemáticos, o bien negaban explícitamente esa posibilidad, creyendo que lo único que había que hacer era encontrar una fecha para los cacharros que desenterraban. En los últimos años, sin embargo, son muchas las investigadoras e investigadores que han descubierto la necesidad de sustituir explicaciones tradicionales por estudios más completos que pretenden averiguar la causa social de la variabilidad material observada.

Las matemáticas no sustituyen a las palabras, sino que nos permiten ir más allá de sus capacidades descriptivas. Los números describen aspectos que los sustantivos, los adjetivos y verbos no pueden. Hemos de tener bien presente que la matemática no es una propiedad de la naturaleza. No hay cosas y fenómenos de tipo matemático y otros que no lo sean, sino que siempre que expresemos una idea por medio de relaciones de orden entre sus componentes, estaremos expresándola matemáticamente. La matemática es, por tanto, un lenguaje artificial usado para representar cosas. Los enunciados

13

Page 14: Barcelo2006_Arqueologia y Estadistica

2 + 2 = 52

la cerámica está barnizada

son formalmente idénticos, aunque su contenido no sea intercambiable fácilmente. Teóricamente, puedo expresar una suma en palabras, al igual que puedo expresar los rasgos materiales que caracterizan un objeto mediante números, pero ello supondría forzar los límites del lenguaje. ¡Sería como usar bombas atómicas para matar mosquitos!

Convengamos, pues, que cada tipo de lenguaje sirve para representar fenómenos distintos. Por extensión, diremos que un fenómeno que sólo puede expresarse matemáticamente es un fenómeno matemático, no porque lo defina una propiedad numérica, sino porque es distinto de los fenómenos describibles mediante palabras.

Estudiemos las características principales de este lenguaje matemático. Su unidad significativa básica (el signo) es un concepto que recibe el nombre de CANTIDAD. El uso habitual de la palabra indicaría que es un tipo de propiedad: ciertas entidades tienen cantidades de algo y otras no. Podríamos definirla entonces como: aquella propiedad de las entidades que admite una gradación; en definitiva, cualquier propiedad que permita una ordenación de las entidades es una cantidad. Por consiguiente, la cantidad será el opuesto de aquellas propiedades absolutas que no admiten grados y que no generan ordenaciones (CALIDAD). Llamaremos MEDICIÓN a la operación de asignar números que representen el grado en que un objeto o fenómeno tenga la propiedad cuantitativa a la que se ha hecho referencia; llamaremos DESCRIPCIÓN a la operación de describir etiquetas –verbales o numéricas- que representen la presencia o ausencia de la propiedad cualitativa a la que se hace referencia.

Los filósofos no están de acuerdo a la hora de investigar estos conceptos. Para algunos (enfoque positivista), la cantidad es una propiedad inherente a los objetos, por lo que existe antes que tenga lugar la operación de medir. La cantidad no sería una consecuencia de la observación, ni sería el observador el que la impusiera, sino que sería una característica propia e intransferible del objeto observado. Para otros filósofos (enfoque subjetivista) la cantidad no existe antes que el proceso de medición tenga lugar. No hay cantidades en la naturaleza, sino operaciones de medida artificiales, que proporcionan unos resultados más o menos coherentes. Como en todo, siempre hay terceras vías; así, según los partidarios del enfoque relacional, una cantidad existe si y solo si existe una relación cuantitativa entre dos objetos. Un objeto tendrá, pues, una cantidad de algo si toma parte en una relación cuantitativa. Pero, ¿qué es una RELACIÓN CUANTITATIVA? Una relación de orden, tal que:

A es mayor en q que B

A es igual en q que B

A es menor en q que B

Por ejemplo, un objeto A es de menor tamaño (q) que otro objeto B. Tamaño es aquí una cantidad. Pero no todas las cantidades son iguales, sino que variarán según la relación de orden que se pueda establecer. Los usos de las distintas cantidades serán, obviamente, distintos. Consideremos el siguiente ejemplo: un objeto A es del mismo color (q) que otro objeto B. Aquí color es una cantidad, ya que permite una relación

2 ¡Sí, ya lo sé, esto es un error! Pero el enunciado, aunque erróneo, sigue siendo un enunciado matemático. El lenguaje matemático no sólo sirve para expresar verdades, sino también errores. A diferencia del lenguaje verbal, esos “errores” son fácilmente identificables. Si estás leyendo esta nota es porque identificaste un error.

14

Page 15: Barcelo2006_Arqueologia y Estadistica

ordinal (este objeto es “más rojo” que este otro), si bien ésta es muy distinta a la establecida por la propiedad tamaño. Las cantidades basadas en la relación (“igual que”) son, en realidad pseudo-cantidades; las cantidades reales son aquellas basadas en los tres operadores de orden (“igual que” =, “menor que” <, “mayor que” >).

En definitiva: existe una CANTIDAD si cierta propiedad permite ordenar un conjunto de objetos. Hemos llamado MEDICIÓN (o “medida”) a la asignación de números a ciertos objetos o acontecimientos de acuerdo a la intensidad de esa propiedad en el objeto. No podremos medir un objeto aislado (que no forme parte de un conjunto ordenado), a no ser que lo comparemos con los objetos existentes en un conjunto de materiales ordenados de referencia. Esa ordenación de referencia podrá ser considerada como el criterio objetivo de la medición. Puesto que toda asignación de números es una función matemática, dicho criterio objetivo podrá expresarse por medio de la función que explique la ordenación de objetos o acontecimientos. En otras palabras, la función matemática es la regla que necesitamos para asignar números a objetos de acuerdo con su ordenación. Dispondremos de una ESCALA DE MEDIDA si y sólo si disponemos de un criterio de ordenación relevante y de una función aritmética, algebraica o lógica que lo represente. Si esa función es aritmética o algebraica, el orden de los objetos será numérico, y todas las relaciones de orden se expresarán mediante números (ESCALA NUMÉRICA). Si por el contrario la función es lógica asignaremos tan sólo valores de Identidad o Diferencia (si, no, presente, ausente). La escala resultante será NOMINAL.

Para medir conjuntos de individuos usamos la analogía con ordenaciones consideradas de referencia. Las escalas de medida habituales (el metro, el kilo, el grado centígrado) constituyen ordenaciones de entidades según las propiedades cuantitativas longitud, masa, temperatura. Podemos medir la longitud, la masa y la temperatura de cualquier individuo porque se han obtenido previamente unas ordenaciones de objetos (varillas o bolas de metal, columnas de mercurio). Por ejemplo, para ordenar una serie de objetos de acuerdo a su temperatura, necesitamos de una ordenación de materiales (agua) en diferentes estados. El punto de partida de la ordenación (hielo) ocupa el lugar 0; el último lugar (100) se ha reservado arbitrariamente para otro estado físico del agua (vapor). Al dividir la escala en cien partes arbitrarias iguales, tendremos la unidad denominada grado centígrado. Llamaremos instrumento de medición a un aparato que implemente de algún modo la ordenación considerada de referencia. En resumidas cuentas, lo que hemos de hacer es definir ordenaciones teóricas y a continuación establecer analogías entre los elementos ordenados en esa escala de referencia y los objetos que deseamos ordenar en un nuevo conjunto.

Los datos arqueológicos, por tanto, no son cosas que se atesoran, sino medidas de la realidad. La tarea de arqueólogos y arqueólogas no es tanto descubrir y desenterrar artefactos, como medir ciertos efectos de la conducta humana que tuvieron lugar en el pasado. Y tal y como hemos visto, sólo hay cinco maneras genéricas de medir cuerpos sólidos: teniendo en cuenta su tamaño, su forma, su textura, su composición y/o su localización en el espacio y en el tiempo. Más importante que las medidas individuales serán las relaciones entre ellas. Veremos más adelante lo que significa.

El tamaño de las cosas se reconoce fácilmente como una propiedad cuantitativa. Pero no existe una única medida de tamaño. En realidad el tamaño de algo es un tipo de información compuesta, a la que llegamos valorando tanto la longitud, como la anchura, altura, superficie, volumen, peso, entre otras variables. Todos estos parámetros son bien conocidos y a nadie le extraña que usemos números para expresarlos. Disponemos de los instrumentos y escalas de medida necesarios: el metro, el metro cuadrado, el metro cúbico, el gramo, etc. Es más, a veces tendemos a confundir la palabra “medidas” con

15

Page 16: Barcelo2006_Arqueologia y Estadistica

los parámetros del tamaño, como si ésas fuesen las únicas medidas posibles en arqueología. En ocasiones, sin embargo, seguimos usando términos cualitativos para referirnos a esa propiedad cuantitativa. Decir de algo que es “grande”, “pequeño”, o “mediano”, no nos permite saber nada acerca de la magnitud de la propiedad cuantitativa en cuestión. El objeto es grande o es pequeño, pero como no sabemos en realidad qué quiere decir “grande”, no sabemos si todos los objetos grandes son igualmente grandes, o si unos son más pequeños que otros. Describir cualitativamente lo que en esencia es cuantitativo no sólo complica la cuestión, sino que nos induce a error en la mayoría de las ocasiones.

Si nadie duda que el tamaño de los materiales arqueológicos sea una propiedad cuantitativa, pocos lo dirían con respecto al concepto forma. La forma de las cosas se suele describir cualitativamente: esto es redondo, cuadrado, irregular, esférico, cilíndrico, entre otras. En arqueología hemos desarrollado un lenguaje específico para describir la forma de cualquier cosa; un caso puede ser: “borde exvasado con parte superior almendrada y perfil en S suavizada”. Este tipo de descripción verbal de la forma no tiene ningún sentido. Ni describe ni permite entender aquello a lo que pretendemos referirnos. La descripción cualitativa de la forma es, casi siempre, incompleta y arbitraria. Yo puedo decir que cierto artefacto es un “plato”, mientras que otro investigador o investigadora afirmará que es un “bol”, y otro que es una “escudilla”. Si en lugar de esos términos comunes usáramos otros más formalizados, como tipo A, tampoco lograríamos mucho. La forma es una propiedad cuantitativa que se refiere a las características métricas del contorno de un objeto. Por consiguiente, la forma debe expresarse geométricamente y no verbalmente. En geometría existen índices de circularidad, cuadrangularidad, irregularidad, etc., basados en la relación entre perímetro y ejes de simetría del objeto en cuestión. Podemos describir la forma de cualquier evidencia arqueológica haciendo uso de ecuaciones complejas que describan el contorno o silueta. En fin, hay muchas maneras de describir cuantitativamente la forma de un objeto. Lo importante es que al igual que el tamaño, la propiedad cuantitativa debe expresar una intensidad. Un objeto debe ser más circular, o menos esférico, o más parabólico, o menos curvilíneo que otro. Sólo usando medidas geométricas podremos extraer toda la información que contiene la forma de los efectos materiales de los procesos de trabajo. La complejidad de esta forma de medición ha hecho que le dediquemos un libro: el volumen 3 de esta serie de publicaciones de Arqueología y Estadística estará dedicado por entero al análisis morfométrico.

¿Qué queremos decir con la textura de un objeto material? El uso habitual del término se circunscribe a propiedades cualitativas más o menos simples tales como “rugoso”, “liso”, “bruñido”. En realidad, y tal y como se ha desarrollado en la investigación de visión computacional, por textura nos referimos a todas las propiedades perceptibles de la superficie de los objetos. Aquellos rasgos característicos de la materia de la que está hecho el objeto, pero también todas las modificaciones que el objeto ha experimentado, tanto las huellas de uso como los patrones decorativos fijados en su superficie. “Rugoso”, “liso”, “bruñido” son efectivamente formas de textura, pero también lo son “brillante”, “rojo”, “blanco”, “disperso”, “inciso”, “pulido” y cualquier otra característica de la superficie de un elemento material que contribuya a decirnos de qué materia está hecho, qué proceso de trabajo lo ha modificado y de qué manera. Lo más habitual es describir la textura cualitativamente, pero ello añade subjetividades no recomendables. ¿Realmente “rugoso” significa lo mismo para todo el mundo? Fijémonos, por otro lado en la nomenclatura habitual del análisis de huellas de uso en restos líticos: “brillo mate” (¿no es eso una contradicción?), “pulido como de

16

Page 17: Barcelo2006_Arqueologia y Estadistica

mantequilla”. De la misma manera que lo eran el tamaño y la forma, también la textura es una propiedad cuantitativa, que debe medirse en términos de la intensidad o magnitud de las variaciones perceptibles en la superficie del objeto. Cuanto mayor sea esa irregularidad, mayor será la textura. En un espejo, toda la superficie es igual, no hay variaciones, por lo tanto tendrá muy poca textura. Una cerámica decorada excisa o pintada tendrá muchas variaciones: depresiones, trazas, marcas, líneas, puntos, etc. Cuanto más diversa, mayor será su textura. Hay pocos trabajos en arqueología que hayan intentado un enfoque cuantitativo de la textura; ese enfoque es posible si trabajamos a partir de imágenes y cuantificamos los distintos componentes de las mismas 3 . Un ejemplo detallado referido a análisis lítico aparece en el Libro de Ejercicios y Problemas.

Más sencilla parece la cuantificación de la composición. Datos composicionales son aquellos que se refieren a la intensidad con que distintas propiedades aparecen en una misma entidad, de manera tal que la suma de todas esas propiedades sea la misma para todas las entidades que se comparan. Aunque esta definición pueda parecer demasiado abstracta, la idea fundamental es fácil de entender. No es más que la manera usual de medir la proporción de distintos componentes en una entidad. Por ejemplo, la proporción de componentes químicos o mineralógicos en una muestra arqueológica, la proporción de objetos de ajuar en una tumba, la proporción de cabañas de un determinado tipo en un asentamiento, la proporción de asentamientos de distinta funcionalidad en un mismo territorio, etc. Siempre que usamos proporciones (porcentajes), la suma es siempre la misma para todas las muestras, tumbas, asentamientos o territorios que consideremos. Este hecho impone una limitación matemática que hace que este tipo de datos no sea analizable como cualquier número, y que exista una rama especializada de la estadística para su análisis4. A lo largo de este libro y de los siguientes volúmenes se irá explicando como proceder con estos datos composicionales.

La última de las propiedades cuantitativas básicas con las que describir los efectos materiales de la acción social es la localización de esos efectos en el espacio y en el tiempo. Empecemos con la localización en el espacio. Su definición cuantitativa, en términos de coordenadas cartesianas x, y, z es bastante sencilla, y además últimamente proliferan instrumentos de medida fáciles de usar: GPS, estación total topográfica, escáner 3D. Aún hay quien quiere convertir esta propiedad cuantitativa en una serie de descripciones cualitativas: territorio A, territorio B. No hay nada más erróneo que imponer limitaciones cualitativas en el espacio, como las basadas en las fronteras políticas: las vasijas campaniformes en la provincia X, las espadas de antenas en el valle alto del río Y. Aún más grave es la descripción cualitativa del micro-espacio en una excavación arqueológica: en lugar de usar coordenadas cartesianas (x, y, z) con un único punto de referencia común (0, 0, 0) se usa: la cuadrícula 2. La descripción cualitativa del espacio puede ser más sencilla y más barata, en términos de instrumental necesario, 3 Pijoan-López, J., Barceló, J.A., Clemente, I., Vila, A., 2002, “Variabilidad Estadística en imágenes digitalizadas de rastros de uso: resultados preliminares” En Análisis Funcional. Su aplicación al estudio de sociedades prehistóricas I. Clemente, R. Risch, Gibaja, J., (comps.). ArcheoPress, Oxford, BAR Int. Series S1073., pp. 55-64. Adán, M., Barceló, J.A. Pijoan-López, J., Piqué, R., Toselli, A., 2003, “Spatial Statistics in Archaeological Texture Analysis”. En The Digital Heritage of Archaeology. Computer Applications and Quantitative methods in Archaeology. Edited by M. Doerr & A. Sarris. Hellenic Ministry of Culture. Archive of Monuments and Publications. 4 Aitchison, J. 1986. The statistical analysis of compositional data. Chapman and Hall, London, England, 416 pp.

17

Page 18: Barcelo2006_Arqueologia y Estadistica

pero también es inútil dada la casi total ausencia de información procesable que permite obtener. Lo mismo cabe decir de la localización temporal. Cuestiones económicas5, o de preservación diferencial de muestras hace que no siempre podamos medir el tiempo de la mayoría de las evidencias arqueológicas. Usamos, por lo tanto, descripciones cualitativas de la localización temporal, tales como fase A, cultura del hacha sin decorar, estrato 15. Si pudiésemos elegir, que no siempre podemos, sería extraordinario que todas las evidencias arqueológicas estuviesen localizadas espacio-temporalmente en cuatro dimensiones cuantitativas (x, y, z, t). Dos volúmenes de esta serie estarán dedicados monográficamente al tema del espacio (volumen 4: Análisis Espacial) y del tiempo (volumen 5: Seriación y Predicción).

¿Qué significa, entonces, medir la conducta humana? Si pudiésemos observarla, tal y como se hace en sociología y economía, podríamos describir cualitativamente la forma de la acción, distinguiendo así entre acciones distintas, agentes, medios y efectos o consecuencias. Ello nos permitiría medir además la intensidad de todos ellos, tanto en términos del tamaño de la acción, como del número, diversidad o importancia de los agentes sociales, de los medios necesarios y/o de los efectos de esa acción sobre otros agentes sociales. Podríamos también localizar las distintas acciones, agentes, medios y efectos en el espacio y en el tiempo. Cabe afirmar que aunque cualquier propiedad cuantitativa sea, en teoría, medible, lo cierto es que no sabemos medir la mayoría de aspectos de la realidad social. Los problemas en ciencias sociales radican de hecho en la falta de instrumentos de medida. ¿Podemos medir la felicidad? Si y sólo si ésta fuese una propiedad cuantitativa, es decir, apareciese en el mundo real en intensidades diversas, y éstas fuesen perceptibles. Quizás sea la longitud de la sonrisa de una persona, o determinada proporción de cierta hormona en el torrente sanguíneo, o la emisión de una onda de cierta frecuencia por el cerebro.

Si no podemos observar la acción, ni los agentes, como es el caso en la investigación histórica, entonces medir la conducta humana se referirá a medir la variabilidad de los efectos que se perciben en el presente de las acciones que tuvieron lugar en el pasado. Recordemos que nuestro objetivo es averiguar qué proceso histórico es el responsable de las diferencias y semejanzas en el tamaño, la forma, la textura, la composición y la localización de los efectos materiales de la acción social. En otras palabras, ¿por qué los procesos de trabajo que realizamos varían? Lo único que debemos tener presente es que la ordenación de los objetos sociales es distinta a la ordenación de los objetos físicos, porque unos y otros tipos de objetos son distintos, y las propiedades cuantitativas en las que se basan las relaciones ordinales son distintas. Mediremos la variabilidad de tamaño, de forma, de textura, de composición y de localización, y veremos como cada una de las variantes se relaciona con las demás. Es importante tener en cuenta la longitud de los muros de las casas, pero también debemos considerar cómo medir la importancia social de un personaje, la riqueza de una comunidad, la pobreza de determinado medio ambiente, el grado de poder coactivo ejercido por la élite social de determinado grupo humano, etc.

El problema a resolver es por qué ciertas evidencias arqueológicas tienen una forma o un tamaño o una composición distinta a otras evidencias arqueológicas, o aparecen en una localización diferente. Diferencias y semejanzas tienen que ver con la capacidad de variación. El diccionario define variabilidad mencionando que está relacionada con la calidad de cambiar y transformar. Algo variable es algo que cambia. ¿Qué es lo que

5 Dataciones de carbono 14 a más de 100 euros por muestra, o a más de 600 euros por el método AMS, limitan el número de muestras que podemos datar.

18

Page 19: Barcelo2006_Arqueologia y Estadistica

cambia en nuestro caso? El valor de cierta propiedad cualitativa o cuantitativa en cierta población de DATOS, o sea, las observaciones puntuales cuyas propiedades hemos ido midiendo (vasijas, puntas de lanza, restos óseos de origen animal, tumbas, muros, poblados, etc.). Denominaremos, por tanto, VARIABLE al aspecto (o concepto) cuyos cambios sucesivos condicionan la ordenación. Resulta evidente que el término variable es sinónimo del de propiedad. Del mismo modo que las propiedades cuantitativas (cantidades) son distintas de las propiedades cualitativas (propiedades no cuantificables), e implican necesariamente maneras distintas de medir, distinguiremos varios tipos de variables:

• VARIABLES CUALITATIVAS (o CALIDADES), en las que sólo disponemos de dos grupos: individuos con la propiedad en cuestión, o individuos sin ella.

• VARIABLES ORDINALES, en las que sólo disponemos de información acerca de quien va delante y quien va detrás: primero, segundo, tercero, cuarto, etc

• VARIABLES CUANTITATIVAS (o MAGNITUDES), en las que conocemos la distancia entre dos posiciones cualesquiera: a = 1,2; b = 3,5; c = 0.

La variabilidad también debe ser medida, como una propiedad cuantitativa que es. La variabilidad es la característica fundamental que posee la medida de una cierta propiedad en un conjunto de individuos, y según la cual, las medidas obtenidas son diferentes de un individuo a otro.

La mera descripción cualitativa de la variabilidad proporciona poca información; quizás por el peso de la tradición en arqueología se ha incluido bajo el nombre de estadística, cálculos que en realidad corresponden a cuantificaciones o sumatorias simples. ¿Cuántas cerámicas de la forma F se han encontrado? ¿Cuántos útiles líticos de tipo t? ¿En qué proporción aparecen los restos correspondientes a diáfisis de miembros anteriores derechos de ciervo en este yacimiento? Los datos, por sí mismos, no son la respuesta a un determinado problema. Pero constituyen el material básico a partir del cual podemos evaluar lo bien que podemos resolver el problema, cuan dudosa es una respuesta particular o bien qué confianza podemos poner en ella. Los datos observados y medidos necesitan ser procesados para averiguar hasta qué grado la incertidumbre puede disiparse. El conocer la cantidad de incertidumbre asociada a los datos es la clave para tomar la decisión apropiada. Ello nos permite sopesar las consecuencias de diferentes opciones y escoger una que sea la menos perjudicial. La estadística tal como es entendida actualmente es la lógica a través de la cual podemos subir un peldaño en la escalera que nos lleva de los datos a la información.6

En nuestro caso, esa información hace referencia a la descripción e interpretación de la variabilidad observada en las acciones sociales y en sus efectos materiales. En otras palabras, usaremos cálculos matemáticos para conocer qué actividades, que fenómenos y procesos sociales son diferentes. ¿Cuando varían? ¿Cómo varían? ¿Por qué varían?

En este libro pretendo explicar cómo hacerlo. Pero antes de entrar en materia, trataremos someramente la mejor manera de usar el programa de ordenador que necesitamos.

6 C. RADHAKRISHNA RAO, 1994, Estadística y Verdad. Aprovechando el azar. (trad. castellana) Promociones y Publicaciones Universitarias, S.A., Barcelona, UNIVERSITAS-73.

19

Page 20: Barcelo2006_Arqueologia y Estadistica

Primeros pasos con PAST. Instalación del programa

La instalación básica de PAST es sencilla. Simplemente se debe bajar de Internet el ejecutable “Past.exe”, y guardarlo en cualquier lugar del disco rígido. Haciendo doble-click en el archivo, se ejecutará el programa. Los archivos para los ejemplos arqueológicos que aparecen en este manual pueden obtenerse en la Web de este libro, en el archivo compactado “ejemplos.zip”: http://seneca.uab.es/prehistoria/Barcelo/manualestadistica.html

Este archivo puede abrirse con ayuda de utilidades como WinZip ó WinRar. Se sugiere crear una carpeta llamada “PAST” en cualquier lugar del disco rígido y guardar todos los archivos en esa carpeta. NOTA: Se han señalado algunos problemas con ciertas combinaciones de resolución de pantalla y tamaño por defecto de las fuentes. La imagen se hace poco legible y puede ser necesario aumentar el tamaño de las ventanas para poder ver el texto y los botones. Si esto sucediera, debiera ajustarse el tamaño de fuente a “fuentes pequeñas” en el panel de control “Pantalla” en Windows. PAST puede tener también problemas en algunas impresoras. Las impresoras de tipo Postcript son las más adecuadas. Cuando se salga de PAST, un archivo llamado “pastsetup” aparecerá automáticamente en la carpeta personal (por ejemplo, en “Mis Documentos”), conteniendo los directorios de los últimos archivos utilizados.

20

Page 21: Barcelo2006_Arqueologia y Estadistica

Primeros pasos con PAST. Introducción y manipulación de datos

arqueológicos. PAST tiene una interfaz de usuario de tipo hoja de cálculo. Los datos son introducidos como una disposición de celdas, organizadas en filas (horizontalmente) y columnas (verticalmente).

Introducción de datos

Para entrar datos en una celda, se debe hacer click con el ratón en ella y escribir dentro el dato. Esto sólo puede hacerse cuando el programa está en Edit Mode (“modo edición”).

Para seleccionar este modo se marca la casilla que aparece por encima de las celdas.

21

Page 22: Barcelo2006_Arqueologia y Estadistica

Cuando el modo de edición no está seleccionado, las celdas están bloqueadas y los datos no pueden cambiarse. Puede navegarse por las celdas usando las teclas de flecha. Puede introducirse cualquier tipo de texto en las celdas, pero casi todas las funciones esperan números. Tanto la coma (“,”) como el punto (“.”) son aceptables como separadores decimales. Los datos de ausencia/presencia se codifican como 0 ó 1 respectivamente. Cualquier otro número positivo se interpretará como presencia. Los datos ausentes se codifican mediante el interrogante (“?”). Es importante tener en cuenta que no todas las funciones permiten trabajar con datos ausentes. Si aparece el error Invalid values in selected column (“valores no válidos en la columna seleccionada”) o Different number of values (“número de valores diferente”) quiere decir que esa función no puede trabajar con datos ausentes, o bien que ha encontrado alguna casilla que inadvertidamente se ha dejado en blanco. PAST permite representar información dicotómica en forma de casillas marcadas y casillas sin marcar. Para ello basta con marcar la casilla superior Square Mode (“modo cuadrado”) que aparece bajo la barra de Menús. La convención en PAST es que los individuos ocupen las filas, y las variables las columnas (ver más adelante “Cargar y Guardar Datos”). Esta forma de estructurar los datos es muy importante, aunque muchas veces no se tiene en cuenta en arqueología. Es necesario estructurar el problema arqueológico que pretendemos resolver organizando la matriz de datos como una secuencia de individuos del mismo tipo descritos por distintas variables. Las filas representarán a los individuos cuya variabilidad necesitamos estudiar, y las columnas a las propiedades cualitativas y cuantitativas usadas para describirlos. Es importante recordar que necesitaremos de una matriz de datos distinta para estudiar individuos de tipo distinto. En palabras más simples, las filas

22

Page 23: Barcelo2006_Arqueologia y Estadistica

de la matriz deberán ser cualitativamente homogéneas: vasijas con vasijas, huesos con huesos, poblados con poblados, tumbas con tumbas. Los ejemplos y casos de estudio utilizados en el Libro de Ejercicios y Problemas explican esta manera de estructurar y organizar los datos. NOTA: PAST no siempre es coherente con esta forma de estructurar los datos. Programas comerciales como SPSS pueden usar cualquier columna para dividir una población en subpoblaciones, es decir en niveles de un factor explicativo. PAST no puede hacerlo. La única manera es definiendo cada columna como nivel. Esto puede provocar que para realizar algunos cálculos tengamos que modificar la matriz de datos, de manera que organicemos los distintos valores de una variable cualitativa (por ejemplo, el sexo del individuo enterrado en una tumba, el yacimiento en el que se ha encontrado cierto artefacto en determinada cantidad) como columnas distintas, el nivel o la fase cronológica). Más adelante se explica cómo hacerlo. Puede consultarse también el Libro de Ejercicios y Problemas al respecto.

Cargar y guardar datos

La función Open (“abrir”) se encuentra en el Menú File (“archivo”). PAST usa un formato de archivo ASCII, para poder importar fácilmente de otros programas (por ejemplo, Word) y para poder editarlos fácilmente con un procesador de textos. El formato es el siguiente: . Etiquetacolumna etiquetacolumna etiquetacolumna Etiquetafila dato dato dato Etiquetafila dato dato dato Etiquetafila dato dato dato Por ejemplo: . CERAMICACOCINA CERAMICAdecoTipoA CERAMICAtipoB Yacimiento1 1 3 5 Yacimiento2 1 0 15 Yacimiento3 0 10 6 Las celdas vacías se codifican con un interrogante (?), para que el programa reconozca que ese dato falta. Las celdas están separadas por un espacio en blanco, lo que significa que nunca deben usarse espacios en las etiquetas de fila o columna. “Tipo A” es por tanto una etiqueta de columna errónea que confundirá al programa. Lo correcto será: “TipoA” o bien “Tipo_A”

La función Insert from file (“insertar desde archivo”) es útil para concatenar conjuntos de datos. El archivo cargado se insertará en la hoja de cálculo existente en la posición seleccionada (arriba a la izquierda). Otros conjuntos de datos podrán insertarse a la derecha y debajo de los datos existentes.

23

Page 24: Barcelo2006_Arqueologia y Estadistica

En cualquier caso, se recomienda que la matriz de datos no contenga caracteres alfabéticos ni alfanuméricos. Si los datos son cualitativos, habrá que traducirlos a números. Datos desde Excel Los datos procedentes de Excel pueden importarse de dos maneras:

• Copiar desde Excel y pegar en PAST. Si quieres que la primera fila y columna se copien en las celdas de las etiquetas en PAST, deberás seleccionar la opción Edit labels (“editar etiquetas”).

• En Excel se guardan los datos con el formato “texto separado por tabuladores”.

El archivo de texto resultante puede abrirse directamente en PAST.

Mover una fila o una columna

Una fila o una columna (incluyendo su etiqueta) puede moverse simplemente haciendo click en la etiqueta y arrastrando a la nueva posición. Es importante tener en cuenta que el área seleccionada debe ser contigua (no se pueden seleccionar columnas no contiguas. (¡Lástima, PAST no es igual que Excel!). Por lo tanto, siempre que deseamos ejecutar una función habrá que mover primero las columnas referidas a las variables que nos interesa, hacer que sean contiguas, y entonces marcar el área para seleccionar los datos.

Selección de áreas

La mayoría de operaciones en PAST se realizan sólo en el área de la hoja de cálculo que el usuario ha seleccionado expresamente (marcado). Si se intenta ejecutar una función que espera datos, y no se ha seleccionado ningún área, se obtendrá un mensaje de error: No valid values in selected area (“valores no válidos en el área seleccionada”). Para seleccionar distintas partes de la hoja de cálculo, procederemos de la forma siguiente:

• Una fila se selecciona haciendo click en la etiqueta de la fila (la columna más a la izquierda)

• Una columna se selecciona haciendo click en la etiqueta de la columna (fila superior)

• Múltiples filas se seleccionan escogiendo la etiqueta de la primera fila, y después haciendo click y apretando la tecla mayúsculas al escoger filas adicionales. No se puede arrastrar múltiples filas, esto no hace más que mover la fila de sitio.

• Múltiples columnas se seleccionan de la misma manera, haciendo click en la etiqueta de la columna y apretando la tecla mayúsculas.

• PAST no puede seleccionar columnas que no sean adyacentes. Por lo tanto, para seleccionar múltiples columnas habrá que seleccionar primero una columna, arrastrarla al lado de aquellas que también se van a seleccionar y seleccionar el grupo haciendo click en la casilla superior y con la tecla mayúsculas.

24

Page 25: Barcelo2006_Arqueologia y Estadistica

• La totalidad de las celdas se puede seleccionar haciendo click en la esquina superior izquierda (la celda vacía en gris), o bien seleccionando Select all (“seleccionar todo”) en el Menú Edit (“Edición”).

• Se pueden seleccionar áreas más pequeñas haciendo click y arrastrando con el ratón desde la casilla superior hasta el final de la selección.

Es importante tener presente que sólo se podrán seleccionar columnas cuando las casillas superiores Edit Mode (“modo editar”) y Edit labels (“editar etiquetas”) NO estén marcadas.

25

Page 26: Barcelo2006_Arqueologia y Estadistica

Renombrar filas y columnas

Cuando empieza PAST, las filas se numeran de la 1 a la 99, y las columnas de la A a la Z. Para etiquetar mejor los gráficos, se puede dar a filas y columnas nombres cortos más descriptivos. Para ello se usa la función Rename columns (“renombrar columnas”) o Rename rows (“renombrar filas”) en el Menú Edit (“edición”). Deben seleccionarse todas las celdas, o un área menor, según sea lo apropiado. Otra manera es seleccionando la opción Edit labels (“editar etiquetas”) encima de la hoja de cálculo. La primera fila y columna serán entonces editables de la misma manera que el resto de las celdas.

Aumentar el tamaño de la hoja de cálculo

Por defecto, PAST tiene 99 filas y 26 columnas. Si los datos necesitan más espacios, se pueden añadir filas o columnas seleccionando Insert more rows (“insertar más filas”) o Insert more columns (“insertar más columnas”) en el Menú Edit (“edición”). Se insertarán filas/columnas justo después del área marcada, o por debajo y/o a la derecha, según sea el caso, si no se ha seleccionado ningún área. Cuando se cargan grandes archivos de datos, las filas y/o columnas se añaden automáticamente según sea necesario.

Cortar, copiar, pegar

Las funciones copiar, cortar y pegar se encuentran en el Menú Edit (“edición”). Se pueden cortar y/o copiar datos desde la hoja de cálculo de PAST y pegarlos en otro programa, por ejemplo Word o Excel. Igualmente, datos de otros programas pueden pegarse en PAST. Recuerde que los bloques locales de datos (no todas las filas o columnas) sólo pueden marcarse cuando el modo Edit (“edición”) NO está seleccionado. Todos los módulos que proporcionan una salida gráfica tienen un botón Copy graphic (“copiar gráficos”). Este copiará la imagen gráfica en la memoria del ordenador y permitirá pegarla en otros programas, como por ejemplo, un programa de dibujo para editar la imagen. Los gráficos se copian usando el Enhanced Metafile Format en Windows. Esto permite editar elementos individuales de la imagen en otros programas. Cuando se pega en CorelDraw, se deberá elegir “pegar especial” en el Menú “edición”, y a continuación elegir Enhanced metafile. Algunos programas tienen una manera bastante idiosincrásica de interpretar las imágenes EMF. Debe prestarse atención a las cosas raras que puedan suceder.

26

Page 27: Barcelo2006_Arqueologia y Estadistica

Eliminar

La función Remove (“eliminar”) del Menú Edit (“edición”) permite eliminar de la hoja de cálculo la(s) fila(s) o columna(s) seleccionadas. El área eliminada no se copiará en la memoria del ordenador y no podrá pegarse en otro programa.

Agrupar (colorear) filas

Pueden marcarse filas seleccionadas (datos puntuales) con 12 colores usando la opción Tag rows (“marcar filas”) en el Menú Edit (“edición”). Cada grupo estará asociado con un símbolo (punto, cruz, cuadrado, diamante, aspa, círculo, triángulo, línea, barra, cuadrado relleno, estrella, óvalo). Esto es útil para mostrar grupos de datos diferentes en los gráficos, y también es requerido por alguno de los métodos. La opción Numbers to colors (“de números a colores”) en el Menú Edit (“edición”) permite convertir los números de 1 a 9 en una columna seleccionada en los colores correspondientes (símbolos) para las filas. Es importante tener en cuenta que antes de asignar colores, es preciso que los datos estén ordenados. Sólo podrá asignarse un mismo color a una secuencia contigua de filas.

27

Page 28: Barcelo2006_Arqueologia y Estadistica

Ordenar valores en una columna PAST no es Excel, por lo que muchas de las operaciones que son muy simples en este último no pueden hacerse en PAST. Conviene agrupar y ordenar secuencialmente los datos en Excel y no esperar a hacerlo después. Por ejemplo, la información cronológica del archivo “cerámica helenística”, contenido en “ejemplos.zip”, está muy desordenada. Las muestras analizadas no aparecen ordenadas ni cronológica ni tipológicamente. En PAST podemos ordenar en sentido ascendente o descendente una variable, seleccionando la variable a ordenar y ejecutando después la función Sort ascending (“ordenar en sentido ascendiente”) ó Sort descending (“ordenar en sentido descendiente”) del Menú Transform (“transformar”). Pero sólo podemos ordenar usando una única variable como criterio. Para usar una variable de ordenación adicional debemos seleccionar las filas que tienen el mismo valor en la ordenación anterior y ordenar esa selección usando una nueva variable. En el Libro de Ejercicios y Problemas se citan expresamente varios ejemplos que utilizan este método.

28

Page 29: Barcelo2006_Arqueologia y Estadistica

Otra opción sería abriendo los datos en Excel, ordenando según dos variables en ese programa, copiando la ventana y pegándola a continuación en PAST.

Transponer

Las técnicas y funciones estadísticas que contiene PAST están diseñadas para agrupar siempre individuos, es decir, filas: la mayoría de pruebas estadísticas asocian individuos (vasijas con vasijas, huesos con huesos, yacimientos con yacimientos). Es lo que se denomina “análisis en modo R”, donde la “R” viene de rows (en inglés “filas”). Por el contrario, en ocasiones podrá ser interesante agrupar variables, por ejemplo, asociar el tipo A y el tipo B de unas cerámicas o metales, para ver si aparecen o no en los mismos yacimientos. Es lo que se denomina “análisis en modo Q”. Para cambiar entre modo Q y modo R, filas y columnas pueden ser intercambiadas fácilmente usando la función Transpose (“transponer”) Esta función implica girar la matriz, de manera que lo que antes eran filas, ahora sean columnas y viceversa. Una vez girada la matriz se podrá estudiar la relación entre las variables, ya que ahora aparecen en las filas. La función Transpose (“Transponer”) en el Menú Edit, intercambiará filas y columnas. Esta función permite convertir los datos de una variable cualitativa en niveles de un factor, es decir, en columnas donde cada columna es una subpoblación homogénea de

29

Page 30: Barcelo2006_Arqueologia y Estadistica

acuerdo con un criterio (sexo de una tumba, cronología de una fase, yacimiento, etc.). Sin embargo, en muchos casos, el procedimiento no será tan simple y tendremos que seleccionar a mano cada subpoblación, copiar los datos y pegarlos en un nuevo documento.

Resultados de las pruebas estadísticas

Los cálculos estadísticos se solicitan seleccionando una columna y seleccionando a continuación el comando necesario en los distintos menús. Los resultados aparecen en una ventana específica.

PAST tiene tendencia a proporcionar los resultados en notación exponencial científica. Recordemos que E5, significa que el decimal debe moverse a la derecha cinco posiciones. 1,2318E5 es en realidad 12.318.000. Si el número que sigue al exponencial (letra E) es negativo, entonces moveremos el decimal a la izquierda. En el caso de la cifra 64,1172E-7 tendremos el número decimal 0,000000641172.

30

Page 31: Barcelo2006_Arqueologia y Estadistica

¿Qué forma tiene la distribución? Histogramas

Tal y como hemos argumentado en las primeras páginas de este libro, la primera tarea en cualquier investigación estadística en arqueología, una vez que hemos entendido el problema que se debe resolver y la naturaleza de los datos y mediciones, es obtener una primera impresión de la variabilidad del fenómeno. Es decir, nos preguntaremos si tienen algo en común o son distintos los valores que adopta una propiedad cuantitativa en un conjunto de datos. En demasiadas ocasiones arqueólogos y arqueólogas olvidan que la pregunta que deben resolver es ¿por qué varía cierta propiedad (la forma, el tamaño, la composición, la textura, la localización) en esa población o conjunto de materiales? La clave está en la naturaleza del conjunto de datos. No se trata de comparar cualquier artefacto con cualquier otro, sino de estudiar por qué cierta población es como es y distinta por tanto de otra población. Nuestra primera pregunta será siempre: ¿son los datos lo suficientemente homogéneos como para creer que se trata de una sola población? Aquí partimos del supuesto que una población o conjunto homogéneo de materiales arqueológicos es el constituido por las consecuencias materiales de una única acción o de varias acciones del mismo tipo. La mayor o menor variabilidad observada deberá explicarse entonces por la heterogeneidad del conjunto analizado, lo que supone fijarse en la presencia de consecuencias materiales de acciones distintas. La manera más intuitiva imaginable de saber qué forma tiene la distribución de un conjunto de medias es la que resulta de asociar cada valor de una variable (columna en PAST) con su frecuencia de aparición en el conjunto. ¿Cuántas vasijas tienen la misma longitud? ¿Cuántas tumbas masculinas tienen la misma cantidad de objetos de ajuar del mismo tipo? La frecuencia es el número de veces que aparece el valor en una población de datos. La función Plot Graph nos proporciona un gráfico de frecuencias no agrupadas. Decimos que “no están agrupadas” porque cada valor de la propiedad cuantitativa en cuestión aparece aislado. No se juntan las co-ocurrencias, esto es, los objetos que tienen el mismo valor en la variable.

31

Page 32: Barcelo2006_Arqueologia y Estadistica

La verdad es que este procedimiento gráfico no es muy útil si lo que buscamos es describir la forma de la distribución. En el eje inferior se representa la posición de cada valor en la columna original (primero, segundo, tercero, etc.) y en el eje vertical, el valor concreto que adopta. Este tipo de representación nos será muy útil para resolver problemas de seriación, pero no tanto para resolver problemas de variabilidad. Cuando un gran conjunto de datos tiene muchos valores distintos en lugar de unos cuantos valores repetidos, es posible agrupar los valores en un conjunto de clases o categorías y elaborar una distribución de frecuencias agrupadas. Su representación gráfica es el histograma. El comando Histogram (“histograma”) del Menú Plot (“gráfico”) dibuja histogramas para una o más columnas.

100 200 300 400 500 600 700 800 900 10001100 120013001400150016001700180019002000

123456789

10111213141516171819202122232425262728293031323334353637383940

Fre

quen

cy

El eje inferior del histograma no representa datos, sino una escala numérica dividida en intervalos o segmentos consecutivos; cuantos más datos se sitúen en cada segmento,

32

Page 33: Barcelo2006_Arqueologia y Estadistica

más larga será la barra. En otras palabras, el histograma es el resultado de la categorización de una variable cuantitativa, o una división de sus valores en grupos cerrados. ¿Cómo se logra esa categorización? Si nos ponemos a pensar, descubriremos que dada una serie de números hay infinitas maneras de hacer grupos con ellos. ¿Por qué un intervalo tiene que ser del 0 al 5 y otro del 6 al 11? El primer requisito es que cada uno de los segmentos tenga exactamente la misma longitud que los demás. El segundo requisito es que la cantidad de intervalos no sea elegida a capricho del investigador o de la investigadora para evitar manipulaciones. Al imponer un único método que determine simultáneamente la cantidad y la longitud de cada intervalo o segmento, se obtiene no sólo una impresión visual de la densidad de la variable, sino una medida de dicha densidad.

Un método posible es el siguiente. Empezaremos determinando la amplitud o recorrido de las frecuencias:

R = valor máximo - valor mínimo

A continuación debemos elegir la cantidad de intervalos, según la abundancia de nuestros datos. Existen varias fórmulas mágicas para ello, ninguna de las cuales tiene el beneplácito de la mayoría de investigadores. Debemos tener presente que toda lectura de un histograma es subjetiva, y por tanto cada autor o autora nos va a sugerir una manera particular para construir el gráfico. A título indicativo podemos usar la tabla siguiente:

Número Individuos Número Intervalos ______________________________________________ 32 6 64 7 128 8 256 9 512 10 1024 11 2048 12 4096 13 8192 14 16384 15 _____________________________________________

Se fija la amplitud de cada intervalo (todos son iguales) dividiendo la amplitud de la distribución (R) por la cantidad de intervalos que fija la tabla. PAST calcula “inteligentemente” el más apropiado número de intervalos, usando un procedimiento más complejo que el que acabamos de explicar, pero bastante parecido. El programa ofrece, sin embargo, la posibilidad de variar el número de intervalos (casilla “Bins”, en la ventana en la que aparece el diagrama). Para obtener el gráfico, nos aseguraremos que las casillas superiores Edit Mode (“modo editar”) y Edit labels (“editar etiquetas”) NO están seleccionadas, y seleccionaremos la columna cuyo histograma deseamos obtener, haciendo “click” en la casilla que contiene el nombre de la variable. El tercer comando del Menú Plot (“gráfica”) nos proporcionará el histograma que aparece en una ventana nueva. El comando permite seleccionar cualquier columna, sin tener que desplazarla, y también permite calcular el histograma

33

Page 34: Barcelo2006_Arqueologia y Estadistica

de una parte de la variable, seleccionando algunas casillas consecutivas, en lugar de la columna entera.

Conviene tener presente que PAST no abre una nueva ventana cada vez que hace un histograma, sino que cambia el contenido de la ventana en la que aparecen los resultados. Haciendo click en el centro de la ventana del histograma, podremos modificar algunos aspectos del gráfico, como tipo de letra, reticulado, etiquetas, ubicación de los intervalos en el eje, etc.

Veamos con más detalle cómo es un histograma. ¿En qué debemos fijarnos para estudiar el histograma? En general, buscaremos el centro de la distribución para ver si el histograma es tanto más apuntado en su centro que en sus extremos. Nos fijaremos en su dispersión, es decir, si el contorno del histograma se apunta o, por el contrario, se aplana. Nos fijaremos en cómo se reparten las observaciones en los distintos intervalos. En resumen, intentaremos describir la forma de la distribución. Si los datos son muy diversos entre sí, el histograma adoptará una forma irregular; por el contrario, si el histograma adopta una forma simétrica interpretaremos que los datos son bastante parecidos entre sí.

34

Page 35: Barcelo2006_Arqueologia y Estadistica

30 40 50

10

20

30

Fre

quen

cy

20 30 40

10

20

30

Freq

uenc

y

Histograma de una distribución regular Histograma de una distribución irregular

Otra forma de irregularidad en la distribución es aquella que presente valores extremos (en inglés outliers). Se trata de valores mucho mayores o menores que la mayoría. Hay de dos tipos: aquellos que corresponden claramente a errores de medida o atribución –una espada dentro de un conjunto de puñales siempre tendrá un valor extremo de longitud-. Conviene identificarlos cuanto antes y eliminarlos de la base de datos. Otro caso son aquellas observaciones obtenidas bajo circunstancias aparentemente normales, pero que resultan estar extremadamente desviadas del corpus principal de observaciones. Muchos investigadores recomiendan eliminarlos del análisis posterior, y eso puede ser conveniente a veces, pero en otras ser claramente contraproducente.

No hay normas de obligado cumplimiento en el caso de la presencia de este tipo de valores extremos. Es posible que sean una consecuencia accidental o irrepetible, pero en cualquier caso debemos comprender la razón de su accidentalidad o irrepetibilidad. El problema con los valores extremos es que muchas veces desvirtúan la forma de una distribución, haciéndonos verla más simétrica o asimétrica de lo que en realidad es. En la mayoría de ocasiones debiéramos centrarnos es aquellas consecuencias materiales que explican mejor la naturaleza de la acción que las ha producido. En páginas siguientes veremos qué quiere decir esto de “explicar mejor”.

35

Page 36: Barcelo2006_Arqueologia y Estadistica

Veamos un ejemplo de forma de una distribución de medidas de artefactos arqueológicos. Disponemos de los datos arqueométricos de la composición de un conjunto de vidrios romanos (archivo “vidrio”). Si deseamos obtener el histograma de la composición de aluminio que tienen las distintas muestras, tendremos:

En este caso, para un total de 243 muestras de vidrio romano cuya composición química ha sido analizada, el programa calcula una distribución dividida en 10 intervalos. Es fácil de ver que el histograma no es simétrico. Hay demasiados objetos de vidrio con una proporción de aluminio en su composición demasiado reducida (cola izquierda de la distribución). Esto quiere decir, probablemente, que en la serie de muestras hay objetos distintos, que posiblemente fueron producidos de manera distinta y/o con un propósito diferente a los demás. Pero también puede ser que la irregularidad del gráfico se deba a una mala selección del número de intervalos. Para modificar este gráfico, cambiaremos el valor que aparece en la casilla bins (“intervalos”). Escribiremos “20” y presionaremos la tecla Intro. La distribución es ahora mucho más clara. En realidad se distinguen dos distribuciones regulares, una centrada alrededor de los valores bajos de la proporción de aluminio, y otra en valores medio-altos. Se distinguen también unos pocos objetos de vidrio con valores extremos en su composición. Poco más nos dice este histograma. A fin de

36

Page 37: Barcelo2006_Arqueologia y Estadistica

cuentas su finalidad es la de obtener meramente una descripción intuitiva de la variabilidad del aluminio en la composición de estos objetos romanos de vidrio.

Veamos ahora otro caso. Disponemos de las medidas de distintos parámetros de unas lanzas de la Edad de Bronce y de Hierro (archivo “lanzas”). Si consideramos en primer lugar la longitud máxima de esas puntas, el histograma resultante será:

Es fácil de ver que los tamaños de las lanzas varían de manera muy irregular: predominan objetos de pequeño tamaño, si bien hay algunas excepciones de gran tamaño. El conjunto de lanzas estudiado es, por tanto, heterogéneo. ¿Por qué? Probablemente porque nos hemos equivocado al meter en un mismo conjunto a las lanzas de bronce y de hierro. Vamos a separarlas y a calcular sus respectivos histogramas.

La primera tarea será ordenar en sentido ascendente la variable MATERIA, con ayuda del comando Sort ascending (“ordenación ascendente”) del Menú Transform (“transformar”). Una vez ordenados los datos, será fácil seleccionar la longitud de las lanzas de bronce (MATERIA = 1) por un lado y la longitud de las lanzas de hierro (MATERIA=2) por otro. Recuerda que para poder seleccionar algunas de las casillas de una columna es necesario que las casillas Edit Mode y Edit labels NO estén seleccionadas, y que arrastres la columna al lado de la que vas a usar de referencia (en este caso, arrastra LONGITUD MAXIMA al lado de MATERIA). Recuerda también que el programa no va a guardar la ventana en la que aparece el primer histograma. Tendrás que hacer primero el análisis para las lanzas de bronce (MATERIA=1), guardar ese histograma (por ejemplo seleccionando la figura y pegándola en un archivo de Photoshop o del mismo Word), a continuación harás lo mismo para el segundo histograma, cuyos resultados borrarán los anteriores y los sustituirán.

37

Page 38: Barcelo2006_Arqueologia y Estadistica

Para poder comparar dos o más histogramas es fundamental que las escalas de los gráficos sean idénticas, es decir, que los intervalos empiecen y acaben en los mismos puntos. Asegúrate que en las casillas X Start (“punto inicial de X”), X end (“punto final de X”), Bins (“grupos” o “intervalos”), Start (“principio”), End (“final”) aparecen exactamente los mismos números. Si no es así se debe introducir el valor de longitud más pequeño ya sea de las lanzas de bronce o de las de hierro en la casilla Bin start, y el valor de mayor longitud ya sea de las lanzas de bronce o de las de hierro en la casilla Bin end. Es una buena costumbre que X Start empiece en 0, y que X End sea lo suficientemente grande como para alcanzar la mayor lanza de todas, sea de hierro o de bronce.

Longitud Máxima de lanzas de bronce Longitud Máxima de lanzas de hierro

38

Page 39: Barcelo2006_Arqueologia y Estadistica

Los histogramas siguen mostrándonos la irregularidad en la distribución de valores, por lo que deberemos concluir que no todas las puntas de lanza fabricadas en la misma materia son semejantes.

Es importante tener en cuenta que los histogramas sólo nos proporcionan una impresión de la forma en que varían los valores de una propiedad cuantitativa en una población determinada. Si queremos ir más allá en el estudio de las causas de esa variabilidad, deberemos medirla, y no sólo describirla. Como es obvio, la aplicación de la técnica que hemos aprendido en este capítulo no va a permitirnos resolver un problema histórico. Nos ayudará sin embargo a enunciarlo, descubriendo y describiendo la variabilidad existente en nuestros datos. Más adelante aprenderemos a explicarla y a evaluar por qué esa variabilidad tiene esas características y no otras.

39

Page 40: Barcelo2006_Arqueologia y Estadistica

¿Cuán variables son las consecuencias materiales de las acciones sociales?

Estadística Univariante

Existe una serie de funciones estadísticas que sirven para contrastar, parcialmente al menos, las impresiones más o menos subjetivas que nos ha proporcionado el examen de los histogramas. La idea fundamental es que aunque las evidencias arqueológicas puedan mostrar una cierta incertidumbre a nivel individual, debe existir cierta estabilidad entre todos los efectos individuales de una misma acción o proceso de trabajo; debemos buscar pues, el “orden en el desorden”.

La media (en inglés: mean) de un conjunto de datos no es más que una estimación de cómo debe ser el valor de una distribución que se encuentra en el centro de la misma. En otras palabras, si todas las consecuencias de una misma acción arrojan algunas diferencias en el valor de ciertas medidas, ¿Cuál de esos valores es el que define correctamente la acción? También recibe el nombre de valor promedio y lo podemos calcular sumando todas las medidas y dividiendo por la cantidad de individuos medidos. Por ejemplo, supongamos que en un conjunto arqueológico hay 105 fragmentos de vasijas de cerámica. Para conocer cuál es el valor medio del peso de esos restos, dividiremos la suma total del peso de restos que han sido identificados en el conjunto (digamos 1 kg.) entre el número de restos (105). El valor promedio del peso de los restos es de 9,52 gr. ¿Qué quiere decir esta cifra? Simplemente, que hay muchos restos de 5 y 1 gramo, junto a unos cuantos de 25 y 50. Imaginemos ahora la existencia de un valor extremo: uno sólo de los fragmentos pesa 500 gr., lo cual quiere decir que en el conjunto hay, en realidad, 104 fragmentos que suman 500 gr. y 1 fragmento totalmente diferente a los demás. El cálculo de la media se ha visto afectado por no haber tenido en cuenta el efecto de ese valor distinto a todos. Por consiguiente, la detección de estos valores extremos es fundamental. En algunos casos se trata de obvios errores de medida o muestreo, que pueden invalidar todo el análisis. En aquellos casos en los que, efectivamente, algunos individuos de la muestra sean totalmente diferentes de los demás, habremos de tener en cuenta esa diferencia para que no altere los resultados de los análisis.

Precisamente porque se trata de un valor calculado, la media no tiene por qué coincidir con un dato concreto. Denominaremos mediana (en inglés: median) a aquel individuo

40

Page 41: Barcelo2006_Arqueologia y Estadistica

situado en el centro exacto de la distribución, esto es, que el 50 % de los datos sean mayores que él y el 50 % menores. En algunos casos, no obstante, media y mediana coincidirán.

La medida de asimetría (en inglés: skewness) en los valores de una variable nos indica el grado con que los valores se distribuyen equilibradamente a lado y lado de un punto central. Es una medida que nos dice el grado de deformación de un histograma. Este valor será igual a 0 cuando haya el mismo número de valores mayores que la media que de valores menores que la media. Si el valor es positivo, querrá decir que las observaciones mayores que la media tienen más influencia; es decir, que la existencia de uno o varios valores extremos condicionan la forma de la variabilidad. En el caso contrario, una distribución que tenga una asimetría negativa significativa se interpretará por la existencia de demasiados valores con valores mucho menores a los de la media.

La medida de curtosis (en inglés: kurtosis) es una medida del grado en que las observaciones están agrupadas en el centro. También es una medida de la deformación de un histograma. Si una variable tiene una curtosis positiva, en las colas de su histograma hay una proporción mayor de casos que en el centro. Por el contrario, si el valor es negativo, su distribución tiene las colas menos densas que las de una distribución normal. Si, por el contrario, su curtosis es negativa, diremos que todos los valores se agrupan en el centro de la distribución.

La media es un índice estadístico que permite situar la posición de una distribución, ya que da el valor de la variable hacia el cual tienden a agruparse los datos. Ahora bien, saber cuál es el centro geométrico de los datos nos dice muy poco acerca de la variable. Si lo usáramos como un "resumen" de todo lo que contiene esa variable, estaríamos reduciendo demasiado el alcance de nuestra investigación y, probablemente, estaríamos ignorando gran cantidad de información

Variabilidad = Dispersión

Una forma de estudiar la variabilidad es describiendo el grado de dispersión de las medidas con respecto a un punto de referencia. Cuanto mayor sea dicha dispersión, mayor será la variabilidad. Por consiguiente, construiremos una medida de la variabilidad si construimos una medida del grado de dispersión. Nada más fácil. Empezamos definiendo el punto de referencia; lo más sencillo es que coincida con el centro geométrico de la ordenación, esto es la media. La desviación con respecto a la media no es más que la diferencia entre cada valor observado y dicho punto de referencia central. Sin embargo, la suma de las desviaciones siempre es cero, debido al efecto de neutralización entre las desviaciones de los valores observados menores que la media (que son negativos) y los valores observados mayores que la media (que son positivos). Este efecto de neutralización puede eliminarse si se hace algo para que todas las desviaciones sean positivas.

Una forma de eliminar el efecto de neutralización positivo-negativo es elevar al cuadrado cada una de las desviaciones. Como consecuencia de esa sencilla operación aritmética todas las desviaciones con respecto a la media serán valores no negativos (positivos o cero). A continuación sumaremos todas las diferencias al cuadrado. Cuanto mayor sea esa suma, mayor será la variabilidad de la distribución, porque más observaciones estarán más alejadas del punto central. Y cuanto más alejadas, más diferencias hay entre unas y otras.

41

Page 42: Barcelo2006_Arqueologia y Estadistica

Con el fin de averiguar la media de las dispersiones al cuadrado, dividiremos el resultado entre el total de observaciones7. El valor obtenido es denominado varianza, y puede ser utilizado para comparar la variabilidad de diversos conjuntos. El problema es que la varianza es difícilmente interpretable. Por ejemplo, en un conjunto de objetos, los de mayor tamaño siempre tendrán una varianza superior a la de los productos de menor tamaño. Eso es fácil de ver, si tenemos en cuenta que la media de los productos grandes es mayor (p.e. 55 cm. de longitud) que la de los pequeños (p.e. 3 cm.). Por consiguiente, el valor absoluto de las diferencias de cada objeto con su media tenderá a ser superior en el primer caso que en el segundo. Para evitar estos problemas, existe otra medida de dispersión: la desviación típica ó estándar, que debe entenderse como una transformación de la medida de la varianza. Se calcula obteniendo la raíz cuadrada de la varianza.

Una forma de interpretar la desviación típica como medida de la variabilidad de un conjunto de datos sería planteándonos preguntas tales como: "¿cuántos datos se sitúan a 1 desviación típica de la media? ¿Cuántos se sitúan a 2 desviaciones típica de la media? De esta manera es posible diferenciar distintas series de datos, según la forma que adopta su dispersión.

Si los efectos materiales medidos de una misma acción arrojan diferencias, ¿podemos fiarnos que la media es realmente una “estimación” correcta de una consecuencia típica de la acción? Suponemos que la media no es tan precisa como la mejor medición, pero tampoco es tan imprecisa como la peor de ellas. Para matizar o incluso, contrastar, la media, se puede calcular el error típico de la media (Std. Error), que es la desviación típica de la distribución muestral de la media, y debe entenderse como una corrección de la desviación típica teniendo en cuenta el número de observaciones. Más específicamente, el tamaño del error estándar de la media es inversamente proporcional a la raíz cuadrada del número de observaciones. Para medir la variabilidad de los valores de una propiedad cuantitativa en PAST, procederemos de la manera siguiente. Tras seleccionar la columna que nos interese, el comando Univariate (“univariante”) del Menú Statistics (“estadística”) muestra los siguientes coeficientes estadísticos8: número de individuos (N), valor más pequeño (Min), mayor valor (Max), media (mean), error típico de la estimación de la media (Std. Error), varianza (variance), desviación típica de la población (Std. Dev.), mediana (median), asimetría (skewness) y curtosis (Kurtosis).

7 En realidad dividimos entre n - 1, por razones que no vienen al caso, y que están relacionadas con la teoría de las probabilidades. 8 Los íconos situados en la parte inferior de la ventana de resultados sirven para: 1) cerrar la ventana, 2) copiar el contenido de la ventana para después pegar los resultados en otro programa, por ejemplo en un archivo Word, 3) imprimir resultados.

42

Page 43: Barcelo2006_Arqueologia y Estadistica

En PAST, esta función acepta valores ausentes en la base de datos inicial, es decir, objetos que no han sido medidos por su pobre estado de conservación o por cualquier otra razón. En la matriz de datos, estos valores ausentes han sido representados mediante el símbolo de interrogación (?). Desarrollemos el ejemplo de la composición de vidrios romanos que aparecía en el capítulo anterior. Para obtener los estadísticos univariantes de la variable “proporción de aluminio”, seleccionaremos la columna ALUMINIO y ejecutaremos el comando “Univariate” del Menu “Statistics”. Los resultados son: N 97 Min (mínimo) 1,61 Max (máximo) 2,17 Mean (media) 1,81959 Std. error (error típico) 0,0116736 Variance (varianza) 0,0132186 Stand. Dev (desviación típica) 0,114972 Median (mediana) 1,83 Skewness (asimetría) 0,34913 Kurtosis (curtosis) 0,165398 Estas cifras nos dicen que se han medido 97 muestras (N=97), que la que tenía menos aluminio en su composición tenía 1,61%, y la que más 2,17%. El valor promedio es de 1,819% y el punto central (mediana), es de 1,83%. La desviación típica es bastante baja (0,0116), lo que nos permite concluir que la variabilidad es comparativamente escasa: la mayoría de valores se sitúa a escasa distancia del punto central. La asimetría no es muy acusada (Skewness= 0,34), como tampoco lo es la curtosis (Kurtosis= 0,16), lo que refuerza la idea de la homogeneidad, regularidad y escasa variabilidad en la composición de aluminio en esta colección de vidrios romanos. Al igual que hacíamos en el caso de los histogramas, también aquí podemos restringir el cálculo a un subconjunto más homogéneo de datos. Por ejemplo, en el archivo “lanzas”, podemos calcular la media, la desviación típica y otros estadísticos univariantes de la longitud o del peso tan sólo de las lanzas de hierro encontradas en un contexto funerario. Para ello ordenaremos (Menú Transform Sort ascending) la columna MATERIA. A continuación seleccionaremos dentro de la columna CONTEXTO aquellas casillas que tengan una MATERIA=2 (hierro) y volveremos a ordenar (Menú Transform Sort ascending; “transformar ordenación ascendente”).

43

Page 44: Barcelo2006_Arqueologia y Estadistica

Seleccionaremos finalmente CONTEXTO=3 (lanzas halladas en tumbas) y calcularemos las estadísticas univariantes de la longitud máxima y del peso.

Los resultados son: LONGITUD MAXIMA PESO N 6 7 Min 12,4 154,8 Max. 22,6 358,1 Mean 14,0714 248,686 Std. Error 2,48229 49,11 Variance 43,1324 16882,5 Standard. Dev. 6,56752 129,933 Median 14,1 322,9 Skewness -0,67726 -0,825711 Kurtosis -0,592671 -0,888374

44

Page 45: Barcelo2006_Arqueologia y Estadistica

Ambas series muestran una variabilidad muy semejante, aunque los valores de peso y longitud sean totalmente distintos. Basta comparar la desviación típica con la media para comprobarlo. Si la desviación típica es inferior a la mitad de la media, podremos suponer que la variabilidad general es escasa. No obstante, el hecho que en el caso del peso de las lanzas de hierro encontradas en contexto funerario la media y la mediana no coincidan, indicaría que existe algún valor extremo, esto es, una lanza mucho más pesada que las demás, observación ésta que no sucedería en el caso de la longitud de las mismas lanzas. Hay una lanza, que teniendo una longitud comparable a las demás, es mucho más pesada.

45

Page 46: Barcelo2006_Arqueologia y Estadistica

El azar como medida de todas las cosas. La Ley de la “Normalidad”

¿Qué hemos aprendido hasta ahora? Hemos descrito diferentes procedimientos para medir y describir la variabilidad observada de las consecuencias materiales de la acción social. Sin embargo, hemos argumentado que la auténtica razón de aplicar técnicas estadísticas a la explicación arqueológica no es la de servir de mera descripción de lo observado, por precisa que pueda ser, sino reconstruir la acción o proceso de trabajo que generó en el pasado los efectos materiales que podemos observar en el presente. Obviamente, las evidencias arqueológicas de las que disponemos no constituyen el conjunto total de las consecuencias materiales de aquella acción. La mayoría de ellas no ha llegado hasta nosotros por diversas razones; ¡a veces incluso por la debilidad de nuestra propia metodología de adquisición de datos arqueológicos! En realidad, debiéramos considerar que la población original de efectos materiales de la acción social debió ser enormemente grande, y aquello que nosotros hemos podido observar y medir es un pequeño subconjunto. Para representar gráficamente lo que suponemos que fue la acción productora resulta útil sustituir el histograma de frecuencias por una línea de trazo continuo que describa el perfil del histograma que en teoría contuviese todos los efectos imaginables de la acción en cuestión.

La curva traza la distribución de todos los valores que hubieran podido ser producidos por una única acción social o proceso de trabajo. Por eso la curva es distinta al histograma, ya que en este caso la población no es resultado de una serie de observaciones y/o mediciones. Es una población teórica de tamaño indeterminable. Por consiguiente, lo que se ha figurado en el gráfico no son las frecuencias de aparición de ciertos valores concretos, sino una distribución teórica de probabilidades. Esto es, una estimación de la frecuencia que sería de esperar fuese observable en la realidad si se hubiesen conservado todos los efectos materiales de la acción. Aunque a primera vista

46

Page 47: Barcelo2006_Arqueologia y Estadistica

pueda parecer muy parecida a un histograma de frecuencias, el eje Y (vertical) de la distribución de probabilidades es bastante distinto. En un histograma ese eje muestra el número de observaciones en cada intervalo. En una distribución de probabilidades el eje no puede representar lo mismo, ya que hay infinitas observaciones posibles y no hay intervalos. El gráfico representa probabilidades en términos del porcentaje de área bajo la curva. El área bajo toda la curva representa a toda la población; la proporción del área situada entre dos valores sucesivos del eje X (horizontal) equivale a la probabilidad de observar un valor en ese intervalo. Cuanto más apuntada la curva, mayor superficie del área, y por tanto, más probable será ese valor. Cuanto más ajustada sea la curva al eje X, menor superficie y por tanto, menor será la probabilidad de que ese valor de la propiedad cuantitativa en cuestión haya sido producido por esa acción. Por esa razón el eje Y suele denominarse densidad de probabilidad, un término difícil de definir, pero que podemos entender intuitivamente.

Si la curva infinita es distinta al histograma, ¿para qué sirve? Nos permite representar el proceso que causó las observaciones. El uso de una curva con ese propósito presenta la gran ventaja de que se dispone de una ecuación matemática que expresa la forma de esa curva y, por tanto, la misma ecuación describiría matemáticamente el proceso que causó las observaciones. La idea es, entonces, representar todos los resultados posibles de un proceso (de una acción social, esto es, el proceso de trabajo) por medio de una curva teórica, y a continuación analizar si el histograma de los valores observados en un contexto arqueológico determinado se aproxima la curva teórica o se diferencia de ella.

Debe insistirse en que esta distribución de probabilidades es una curva teórica que no se mide en la realidad. Nunca dispondremos de todas las consecuencias materiales de una misma acción social, por lo que la única forma de definir la probabilidad con que cierto efecto vaya a resultar observable es recurriendo a una teoría o hipótesis concreta acerca de la acción. Vamos a ver como esa definición hipotética es posible.

En un ensayo escrito en 1756, Thomas Simpson planteó el supuesto que afirmaba que la distribución probabilística de errores en una observación simple era análoga a la distribución probabilística de las sumas de lanzamientos de varios dados. Es decir, los errores accidentales de un proceso intencional son aleatorios, aún cuando el proceso que generó esos errores no tenga nada de aleatorio. Si observamos la forma en que se distribuye un grupo de errores que se alejan de una norma o intención, no hallaremos probabilidades uniformes, sino que habrá más errores accidentales agrupados cerca del valor medio del grupo con el número de errores reduciéndose conforme la magnitud del error se hace mayor, hasta llegar a sólo unos pocos valores en los extremos.

Este principio general se denomina curva normal y sirve para definir con precisión lo que quiere decir “ser normal”. Está basado en el que quizá sea el resultado más importante para la estadística: el Teorema del Límite Central, que afirma, que la suma o la media de un gran número de errores sigue una distribución regular y simétrica y que,

47

Page 48: Barcelo2006_Arqueologia y Estadistica

por consiguiente, el mejor valor esperado de una distribución cualquiera de datos es la media de la población. Una consecuencia de este teorema viene a decir que aquellos resultados que se apartan de la media son tanto menos frecuentes cuanto más se apartan de ésta, y, además, tienden a compensarse con los resultados que se apartan de la media en la misma medida pero en dirección opuesta.

En una distribución que siga la curva normal, la desviación típica determina la longitud de un intervalo simétrico alrededor del punto central (media). Si la variación estuviese producida exclusivamente por el azar, dentro de dicho intervalo debiera encontrarse la mayoría de las observaciones o casos, por lo que sólo una pequeña porción de los casos estarán lejos del punto central. Denominaremos a este segmento alrededor de la media intervalo de confianza. Si los valores observados varían al azar a lado y lado de la media, entonces el intervalo de confianza tiene unas propiedades muy interesantes: el 95,45 % de los datos se situará siempre en un intervalo situado a dos desviaciones típicas de la media. El 68,27 % de los datos se podrá colocar en el intervalo determinado por una desviación típica. Estos porcentajes son siempre los mismos sea cual sea el valor de la media y de la desviación típica, ya que siempre que el azar es la única causa de la variabilidad, la distribución adopta la misma forma. Calcularemos ahora la longitud del intervalo de confianza de la curva normal que incluya el 95 % de todas las observaciones y excluya el 5 %. Ese valor es 1,96. En otras palabras, un intervalo de 1,96 veces la desviación típica incluirá el 95 % de las observaciones si y sólo si las diferencias entre los valores más grandes y más pequeños que la media han sido provocadas únicamente por el azar.

Durante bastante tiempo se creyó que cualquier distribución de frecuencias daban lugar a este tipo de perfil, de ahí el nombre curva normal. Sin embargo, no es ese el caso. De hecho incluso el apelativo curva normal parece fuera de lugar, ya que no todos los fenómenos frecuentes son normales. Mucho más apropiado sería llamarla “curva característica de errores aleatorios”9. Lo fundamental es darse cuenta que esta ley afecta no tanto al proceso que genera los datos en sí (que NO es aleatorio), sino a las diferencias existentes entre los errores o diferencias de cada observación con su respectiva medida de tendencia central.

Veamos de qué manera esta ley matemática nos permite explicar el proceso de formación del registro arqueológico. Recordemos que las evidencias arqueológicas no son más que las consecuencias materiales de la acción social, del trabajo de hombres y mujeres. Por consiguiente, nuestro supuesto de partida es que el registro arqueológico 9 En 1844, Adolphe Quételet, que fue uno de los pioneros en la aplicación de la estadística al estudio de los fenómenos y procesos sociales, la llamó “ley de las causas accidentales”.

48

Page 49: Barcelo2006_Arqueologia y Estadistica

es expresión del trabajo, esto es, de la acción social que lo produjo. Aquello que caracteriza dicha acción social es, precisamente, su intencionalidad. ¿Por qué? Porque las acciones sociales se definen en términos de las transformaciones que deben realizarse con el propósito de cumplir cierto objetivo. Son conscientes (porque tenemos un propósito en mente al realizarlas), si bien una acción puede ser intencional sin que el agente que la lleve a cabo tenga que estar enterado de dicho objetivo. Las motivaciones o las intenciones entonces no son meras condiciones para desarrollar una actividad, sino factores reales que influyen en la acción y en sus consecuencias materiales.

Si un artesano o artesana tiene la intención de producir cierto instrumento para poder llevar a cabo una actividad de trabajo en concreto, todos los instrumentos que produzca con la misma intención tenderán a tener los mismos valores de las propiedades cuantitativas (forma, tamaño, composición, y/o textura) que definen su materialidad. Accidentalmente ciertos objetos serán mucho mayores o mucho menores de lo que pretendía, pero como esos objetos fuera de la norma son errores accidentales que no coinciden con aquello que quería hacer, serán muy poco frecuentes. La artesana intenta minimizar sus errores, y que la mayoría de productos de su trabajo se sitúen en las proximidades de una norma, es decir el valor de la propiedad cuantitativa más ajustado a la función que pretende tener el objeto producido. De este modo, si la propiedad cuantitativa en cuestión nada tiene que ver con la intencionalidad de su proceso de producción, sus valores no estarán “normalizados” y la distribución de sus diferencias no seguirá una curva simétrica. El artesano o la artesana “normalizan” ciertos aspectos de su trabajo, esto es, fabrican sus vasijas de manera que su diámetro y su altura tengan siempre la misma longitud ya que esta relación condiciona la capacidad total del recipiente, pero les será indiferente el grosor de la pared o el diámetro de la base, por ejemplo. Si bien el rango de variación será restringido, no estará “normalizado”.

Lo que buscamos es precisamente identificar la intención con la que cierta persona o grupo de personas en cierto momento llevaron a cabo una acción determinada. Si dicha acción fue realmente intencional y tuvo un objetivo bien definido, entonces, las consecuencias materiales de dicha acción deberían tener las mismas medidas, con pocas diferencias entre ellas. Una gran mayoría de los resultados materiales de la acción serían muy semejantes entre sí, mientras que unos pocos serán mucho mayores y otros pocos serán mucho menores. Por este motivo, las colas de una distribución intencional de valores son siempre mucho menores que el centro de la distribución, en donde se concentran aquellos valores que son resultado de la acción. El sentido común nos dice que las diferencias entre los resultados materiales de una misma acción intencionalmente ejecutada son debidas al azar. Por consiguiente, si en una serie de objetos realizados con el mismo proceso de trabajo y con la intención de realizar la misma actividad observamos que una mayoría de instrumentos tienen valores muy próximos de las mismas propiedades cuantitativas y además, sólo unos pocos objetos son o mucho mayores o mucho menores, y se observa idéntico número de casos demasiado pequeños y demasiado grandes, habremos identificado la consecuencia material de una acción social intencionalmente realizada.

Del mismo modo, la estatura de todas las personas que vayan a leer alguna vez este manual de arqueología y estadística parecen seguir una distribución con la misma forma. Probablemente el histograma de esos valores sea simétrico y relativamente poco apuntado, lo que querrá decir que la mayoría de lectores y lectoras tendrá una estatura más o menos semejante; unos pocos serán mucho más altos o altas que el resto, mientras que otros serán mucho más bajos o bajas que la mayoría. ¿Quiere esto decir

49

Page 50: Barcelo2006_Arqueologia y Estadistica

que he escrito el manual intencionalmente para unos lectores o lectoras con determinada estatura? Obviamente no. Aquí la intencionalidad no radica en leer este manual o no, sino en las características biológicas de la especie humana. La estatura de una persona no es resultado de la suerte o del capricho de un Dios que juega a los dados con los seres que crea, es un resultado de las características biológicas de la especie, y de ciertas características específicas del individuo, como herencia genética, alimentación infantil, etc. Lo que varía al azar es la estatura de la gente con respecto a la tendencia general de la estatura de todos los humanos. Las diferencias de estatura entre individuos son aleatorias alrededor de su media, porque la evolución de la especie ha marcado una tendencia general en la estatura de sus miembros. La Naturaleza es intencional en el sentido en que es direccional y regular. No es una intencionalidad en el sentido que lo es una acción social, pero sí se trata de una forma de regularidad.

Lo contrario de la curva normal es la ausencia de tendencia central, la distribución uniforme, que debe su nombre al hecho de que todos los valores de una variable tienen la misma probabilidad de existir, porque lo que determina un valor u otro es el azar, la suerte o la casualidad. En una población normal, por el contrario, resultado de una

20 30 40

123456789

1011121314151617181920

Freq

uenc

y

20 30 40 20 30 40

123456789

1011121314151617181920

Freq

uenc

y

Distintos ejemplos de distribuciones uniformes (aleatorias) no “normales”

Distintos ejemplos de distribuciones normales

intención concreta o de una tendencia inherente al proceso, los valores más próximos a la media tienen mayor probabilidad. Lo más lógico es que un ser humano tenga una estatura de 1,70 m., y es muy poco probable, aunque no imposible, que su estatura sea de 2,33 m., o de 0,85 m. Del mismo modo, un instrumento lítico manufacturado por un artesano con una intencionalidad concreta tendrá una longitud máxima apropiada a su

123456789

1011121314151617181920

Fre

quen

cy

30 40 50

10

20

30

Freq

uenc

y

20 30 40 50

10

20

30

Freq

uenc

y

20 30 40 50

10

20

30

40

Fre

quen

cy

50

Page 51: Barcelo2006_Arqueologia y Estadistica

función, y esta coincidirá con la media de todos los instrumentos manufacturados por ese artesano o artesana con esa misma intencionalidad, como ya se afirmó al principio de este capítulo.

Otra forma de estudiar la intencionalidad o no de una serie de valores sería comparando la media de longitudes observadas, por ejemplo, con cierta tendencia central esperada. ¿Qué quiere decir aquí esperada? Simplemente, que disponemos de algún tipo de información teórica previa (histórica o etnográfica) que afirma que en ciertas condiciones de trabajo, la longitud media de los artefactos usados para determinado propósito es conocida. Lo que debemos hacer será por tanto comparar la tendencia central de nuestros datos con la tendencia central esperada. Como es lógico, eso sólo será posible si nuestras observaciones y la distribución esperada se distribuyen normalmente. PAST dispone de una función específica para averiguar si las observaciones son en realidad un subconjunto de una población más general con una media (teórica) dada. Después de seleccionar la columna que contiene los datos de la población observada, ejecutaremos la función del Menú Statistics T test (one sample)(“test T para una muestra”). Como resultado se abre una ventana en la que debemos introducir el valor de la media esperada.

En este caso estamos analizando la profundidad de ciertas estructuras excavadas en la roca (archivo India1). Supongamos que la profundidad media esperada es de 65 cm.

51

Page 52: Barcelo2006_Arqueologia y Estadistica

Presionamos el botón Compute, y el resultado es el siguiente: La prueba t para una muestra se limita a restar la media observada de la media esperada y a relacionar esa diferencia con la desviación típica de los datos observados. Como en la mayoría de pruebas de hipótesis estadísticas, lo importante no es el valor concreto de la prueba (aquí t= -2,177) sino interpretar dicho resultado con arreglo a la hipótesis que se quiere contrastar. Si pretendemos averiguar si la media observada coincide con la media teórica, interpretaremos el resultado de la prueba mostrando la probabilidad de que la Hipótesis de que sean la misma media –p(same mean)- sea cierta. En nuestro caso, la media (mean) de la profundidad en la población de 103 depresiones observadas es de 53,66 cm. Dicho valor es significativamente distinto del valor de profundidad media esperado (65 cm), ya que la prueba t para una muestra, nos dice que dada la dispersión de valores de profundidades observado (desviación típica), una diferencia de medias como la existente entre 53,66 y 65 no puede aparecer al azar. La probabilidad de que la población observada tenga una media próxima a la esperada es de tan sólo 0,032. Ese valor lo leeremos de acuerdo con nuestro principio general: Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que ambas medias son distintas. Si por el contrario p(same mean) es un número mayor de 0,050 concluiremos que los datos observados constituyen un subconjunto de una población general, mucho mayor, cuya media es, precisamente, la media esperada. Como en nuestro caso ese valor es inferior a 0,050, rechazaremos la hipótesis de que los datos observados respondan a las mismas circunstancias a las que se refiere la tendencia central esperada. Los datos observados no se ajustan a la intencionalidad supuesta por el modelo teórico. Esta manera de proporcionar resultados puede parecer un tanto irracional. Pero tiene mucho sentido si lo interpretamos en un sentido probabilístico. Un hecho que sólo tiene un 5% (0,050) de probabilidades de existir quiere decir que de 100 repeticiones del suceso sólo en 5 ocasiones aparecería ese hecho. Si excavásemos 100 yacimientos de una misma época y mismas características en un área geográfica bien delimitada, y en sólo 5 de ellos encontrásemos huesos de ciervo ¿qué pensaríamos? Probablemente que los ciervos eran tan escasos en ese lugar y época que el hecho de encontrar tan pocas evidencias mostrarían que su aparición es un accidente, antes que la norma. Pues eso es lo que hemos de hacer con los resultados de la prueba de normalidad. Si la probabilidad de una hipótesis determinada es inferior a 0,050 diremos que esa

52

Page 53: Barcelo2006_Arqueologia y Estadistica

hipótesis es tan poco probable que no se cumple. Si por el contrario, esa probabilidad es superior al 0,050, diremos que existe una probabilidad no negligible de que la hipótesis sea válida en esas circunstancias concretas.

En definitiva, lo que hemos afirmando en este capítulo es que existe un modelo teórico que describe con exactitud la manera en que un proceso de trabajo o acción social genera sus efectos materiales y que ese modelo teórico coincide con lo que los matemáticos denominan curva normal. Lo que afirma este modelo teórico es que si el proceso causal es realmente intencional, entonces no todos los errores accidentales o diferencias con lo que se pretendía conseguir con la acción serán igualmente probables. Un acción será normal o estará normalizada porque se considera normal que ese artefacto o ese individuo tenga el valor concreto de la propiedad cuantitativa que mejor define aquella característica que determina la intención con la que ha sido producido. Pero es normal porque lo normal es que la mayoría de objetos producidos con la misma intención tienden a tener el mismo valor de esa misma propiedad cuantitativa. Es decir, los efectos materiales de cualquier acción intencional tienen una marcada tendencia central, siendo cualquier variación alrededor de ella estrictamente aleatoria. La media de las propiedades cuantitativas puede interpretarse, entonces, como aquel valor al que las observaciones se aproximan, es decir, la intencionalidad de la acción o proceso causal. En otras palabras, si una acción intencional ha sido la causante de los distintos valores de tamaño, forma, textura, composición y/o localización que adopta una serie delimitada de consecuencias materiales, el valor esperado, el más frecuente, el más probable, será la media de todos ellos. Aquellas consecuencias accidentales de la acción que se apartan de la intención serán tanto menos frecuentes cuanto más se apartan de la tendencia central mostrada por todas las consecuencias. Por el contrario, en la distribución no intencional de valores, cualquier objeto podría tener cualquier valor. No hay ninguna tendencia subyacente que nos permita suponer que las personas que realizaron la acción de la cual el objeto arqueológico es evidencia pretendieran hacer algo concreto. Por consiguiente, podemos basar nuestra investigación en el supuesto que las diferencias observadas en un conjunto de artefactos y la norma o medida intencional que caracterizó al proceso de trabajo que los produjo se comporta de un modo similar a una distribución aleatoria.

Este principio general es muy importante porque nos permite pasar de la observación de la variabilidad de cierta propiedad cuantitativa en un conjunto de datos arqueológicos a determinar la distribución de las probabilidades asociadas con cada una de las acciones que posiblemente generaran esos datos. Si y sólo si podemos demostrar que los datos observados y medidos en el registro arqueológico son el resultado de una acción intencional, entonces el promedio (tendencia central) de las medidas que hagamos de las evidencias arqueológicas disponibles caracterizarán el proceso de trabajo. Sin embargo, si las medidas realizadas de las evidencias arqueológicas no se distribuyen según la curva normal, entonces no podremos saber si el promedio de esas medidas caracteriza o no la acción generadora. En definitiva, sólo si la producción del efecto observado ha sido una acción intencional (humana) o regular (proceso bio-geológico), entonces las diferencias entre los valores observados se comportarán como sucesos aleatorios y podrán ser descritos predictiblemente mediante distribuciones de probabilidad.

53

Page 54: Barcelo2006_Arqueologia y Estadistica

Explicar es Comparar χ2 - chi cuadrado-/Shapiro-Wilk (una muestra).

Gráficos QQ de Normalidad.

El objetivo del análisis estadístico es “extraer toda la información posible de los datos observados”. La primera tarea del análisis consistirá, por tanto, en escrutar o examinar cruzadamente los datos para averiguar los posibles defectos y entender sus especiales características. El siguiente paso es la especificación de un modelo teórico que explique las observaciones. En nuestro caso, ese modelo es el de la intencionalidad de la acción social y sus efectos aleatorios en las diferencias que pudieran existir entre las distintas consecuencias materiales de una misma acción. Sobre la base del modelo teórico (la curva normal o curva de causas accidentales) emprenderemos el análisis inferencial, que comprende la estimación de parámetros desconocidos (la norma a la cual tiende la intencionalidad de la acción), pruebas de hipótesis, predicción de futuras observaciones y toma de decisiones. Ahora bien, es importante tener en cuenta que la aplicación de las pruebas estadísticas que caracterizan la forma de una distribución de datos se basa en el hecho de que no existe una única distribución normal, sino una familia de distribuciones con una forma común, diferenciadas por los valores de su media y su varianza. En realidad debemos tener presente que las distribuciones de probabilidad son teóricas; se usan como referencia o para comparar los datos observados.

De ahí que en todo análisis estadístico de un registro arqueológico dado empecemos con los histogramas y las pruebas de normalidad. La idea fundamental que vamos a explorar es si la variabilidad de nuestras observaciones arqueológicas tiene la estructura característica de lo que los estadísticos llaman normalidad, y que es consecuencia de la intencionalidad de toda acción social. Si siempre que la intencionalidad interviene deja una huella claramente perceptible (la curva en forma de campana), entonces, podremos describir la manera particular en que es la intencionalidad humana la que determina los valores concretos que ciertas propiedades cuantitativas adoptan. Si esto es así, entonces concluiremos que el conjunto de datos observados ha sido producido por una acción causal concreta, por una acción social de trabajo, y podemos interpretarla estimando sus parámetros originales a partir de los datos medidos en el registro arqueológico. El propósito de este capítulo es, precisamente, explicar cómo puede determinarse el grado de normalidad de una distribución.

54

Page 55: Barcelo2006_Arqueologia y Estadistica

Estas técnicas estadísticas se utilizan de una manera un tanto peculiar, la cual necesita de una breve explicación previa. Para mostrar la influencia de la intencionalidad de la acción social (o bio-geológica que ha alterado post-depositacionalmente las evidencias materiales de una acción humana anterior), deberemos desacreditar el supuesto de que esa variabilidad no tiene explicación. Ese supuesto de “no explicación” que debemos eliminar queda expresado en declaraciones como “Estos resultados podrían fácilmente ser debidos al azar” o “Un modelo aleatorio se ajusta adecuadamente a los datos”. Aquí, “aleatorio” significa exactamente lo contrario que “intencional”. Si los datos no son marcadamente inconsistentes con esa concepción, entonces una explicación de todo-azar es sostenible, por lo que respecta a ese conjunto de datos. A menudo esto es descrito como “aceptación de la independencia entre causa hipotética y efecto, o no relación causal”. Si, por otra parte, los datos son inconsistentes con el modelo de todo-azar, la hipótesis del azar es rechazada, y se aceptará el modelo “intencional”. Recordemos que estamos comparando aquí dos modelos teóricos: el intencional (normal) y el no-intencional (aleatorio).

De este modo se demuestra que la estadística, más que una herramienta de demostración, es una herramienta de argumentación, como ha afirmado R. P. Abelson10.

Una advertencia importante aquí es que los términos usuales “aceptar” o “rechazar” una hipótesis estadística son semánticamente demasiado intensos. Las pruebas estadísticas son ayudas a la argumentación, no declaraciones con valor de verdad lógica. Además, el sentido común debiera decirnos que la que consideraremos hipótesis nula (“estos resultados podrían fácilmente ser debidos al azar”) prácticamente nunca es literalmente exacta. Necesitamos un índice probabilístico para evaluar la capacidad explicativa de la hipótesis. Ese índice (que simbolizaremos en las páginas siguientes con la letra p) puede utilizarse como indicador del grado de aceptación o rechazo de esa hipótesis explicativa. Tan correcto es aceptar la hipótesis nula en un caso concreto si su probabilidad es de 0,900, como rechazar la posibilidad de tal hipótesis si su probabilidad es inferior a 0,05. Evidentemente, para un escéptico resultaría difícil mantener esa hipótesis nula cuando los datos sólo tienen cinco oportunidades entre cien de haber surgido de ella. Ahora bien, el modo correcto de “rechazar” la hipótesis sería: “Si fuera cierto que no hubiese una diferencia sistemática entre una distribución teórica uniforme y los datos observados en este contexto arqueológico preciso, entonces la probabilidad de que esos datos sean los resultados materiales de una única acción social es menor de 5%. Siendo esto una base sólida para dudar de la viabilidad de la hipótesis nula, esta es rechazada”11. En la práctica no usaremos una retórica tan compleja, sino expresiones más simples del tipo “conservar la hipótesis nula” o “tratar la hipótesis nula como viable”, "se ha desacreditado la hipótesis nula”. Aunque la frase que usemos sea más simple, conviene tener en cuenta qué es lo que en realidad está midiendo este índice de significación de la hipótesis nula. Conviene no confundir “la probabilidad de los datos dada una hipótesis inicial” con la “probabilidad de la hipótesis dados los datos”.

10 R.P. Abelson, 1998, La estadística razonada: reglas y principios. (traducción castellana) Barcelona, Editorial Paidós (Colección temas de Psicología No. 3). Realmente no hay libros que traten estas cuestiones, a medio camino entre la filosofía y la práctica. El libro de Abelson es modélico en su manera de entender qué es y para qué sirve la estadística. Muchas de las ideas de éste último capítulo están basadas en este libro. Véase también C. Radhakrishna Rao, 1994, Estadística y verdad. Aprovechando el azar. (Traducción castellana). Barcelona, Promociones y Publicaciones Universitarias, S.A. (UNIVERSITAS-73); D.J. Bennett, 2000, Aleatoriedad. (Traducción castellana). Madrid: Alianza Editorial (Materiales/Ciencia y Tecnología No. 036). 11 Cita de Abelson, 1998, pag. 64.

55

Page 56: Barcelo2006_Arqueologia y Estadistica

Secuencias aleatorias de números generados artificialmente nos capacitan para descubrir, por comparación, mecanismos fortuitos similares. Por lo tanto, para observar si la distribución de valores de longitud, peso, superficie, frecuencia, o la propiedad cuantitativa que se quiera es o no normal (es o no resultado de una acción intencional) deberemos comparar la distribución observada con una distribución “teórica”, es decir, una distribución normal que tenga la misma media y desviación típica que la que nosotros hemos observado. En PAST puede hacerse. La opción Fit Normal (“ajuste

normal”) que aparece en la misma ventana que muestra el resultado del histograma superpone a nuestra distribución la curva de una distribución normal ideal con una media y desviación típica idénticas a las de nuestros datos.

Pero que los trazados coincidan “más o menos” no dice mucho. Deberemos examinar el histograma preguntándonos si los datos se distribuyen de forma simétrica con respecto a su media o presentan algún grado de asimetría, pues es ésta una de las características fundamentales de la distribución normal. Aunque la simetría de la distribución pueda valorarse de modo simple, atendiendo a algunas medidas descriptivas de la variable en cuestión (comparando, por ejemplo, los valores de media, mediana), resultará útil estudiar a fondo los coeficientes de asimetría (en inglés Skewness) y curtosis (en inglés Kurtosis) que obteníamos al calcular las estadísticas unidimensionales.

Los gráficos de probabilidad normal constituyen otra importante herramienta gráfica para comprobar si un conjunto de datos puede considerarse o no procedente de una distribución normal y si la causa de la variabilidad observada es una acción intencional. La idea básica es semejante a la de la curva superpuesta al histograma: compararemos en un mismo gráfico los datos que han sido observados frente a los datos teóricos que se obtendrían de una distribución normal con la misma media y la misma desviación típica. Si la distribución de la variable coincide con la normal, los puntos se concentrarán en torno a una línea recta, aunque conviene tener en cuenta que siempre tenderá a observarse mayor variabilidad en los extremos. Además de permitir valorar la desviación de la normalidad, los gráficos de probabilidad permiten conocer la causa de esa desviación. Una curva en forma de "U" o con alguna curvatura significa que la distribución es asimétrica con respecto a la normal, mientras que un gráfico en forma de

56

Page 57: Barcelo2006_Arqueologia y Estadistica

"S" significará que la distribución tiene colas mayores o menores que la normal, esto es, que existen pocas o demasiadas observaciones en las colas de la distribución.

PAST proporciona la función gráfica denominada gráfico Q-Q. Seleccionando la columna a estudiar y la función Normal probability plot (“gráfico de probabilidad normal”) en el Menú Plot, obtenemos:

¿Complicado? No tanto. El eje vertical del gráfico muestra los valores observados de la columna seleccionada en orden creciente. El eje horizontal contiene una estimación de las frecuencias acumuladas que serían de esperar en una distribución normal con la misma media y desviación típica que nuestros datos. En el caso que aparece en la figura se está analizando un conjunto de 5 valores: 7, 3, 4, 11 y 9. Sólo hay un objeto con cada uno de esos valores, por lo que la frecuencia con que aparecen esos números es de 1. Si ordenamos esos valores de menor a mayor llegaremos a la conclusión que la frecuencia acumulada de la observación 11 es igual a 5. Esto quiere decir que 5 individuos de nuestro conjunto de observaciones son menores o iguales a 11. También podemos decir que el 100% de los datos son menores o iguales a 11. Las frecuencias acumuladas también nos dicen que el 20% de las observaciones son iguales o menores a 3; el 40% son menores o iguales que 4, el 60% menores o iguales a 7, y el 80% son menores o iguales a 9.

Datos Frecuencias de Aparición

Frecuencias Acumuladas

Frecuencias Acumuladas Relativas

3 1 1 1/5 = 0,20 4 1 2 2/5 = 0,40 7 1 3 3/5 = 0,60 9 1 4 4/5 = 0,80 11 1 5 5/5 = 1,00

57

Page 58: Barcelo2006_Arqueologia y Estadistica

Utilizando cálculos más complejos, el programa calcula cuáles serían las frecuencias acumuladas en una distribución normal con el mismo número de datos, de igual media y desviación típica. Como es lógico, si nuestra distribución observada es normal, las frecuencias acumuladas de una y otra serán idénticas y los puntos del gráfico se alinearán de acuerdo con una línea recta12.

-2 -1 0 1 2 3

Normal order statistic medians

20

30

40

50

Sa

-2 -1 0 1 2 3

Normal order statistic medians

10

20

30

40

50

Sam

ple

valu

es

alue

sm

ple

v

Gráfico de probabilidad QQ de una distribución normal y de otra que no lo es

En muchas ocasiones, un rápido vistazo a las estadísticas unidimensionales y al gráfico QQ debieran bastar para saber si la distribución observada es resultado de una acción intencional o no. Pero no siempre es así. Necesitamos unas pruebas más sólidas y fiables. PAST dispone de las funciones χ2 –chi cuadrado (una muestra) y Shapiro-Wilk (una muestra). La más recomendable es la prueba de Shapiro-Wilk, que comprueba si una única distribución (una columna seleccionada) con más de 3 observaciones pero menos de 5000 es normal. En realidad, lo que hace esta prueba es calcular la probabilidad de que sea cierta la siguiente Hipótesis Nula: H0: los datos observados se distribuyen “normalmente”, esto es, el 68% de ellos están a lado y lado de la media (a 1 desviación típica), y hay muy pocas observaciones muy 12 PAST proporciona también una prueba numérica de la fiabilidad de esta superposición (PPCC, en el margen de la ventana que contiene el gráfico). No obstante, en la mayoría de las ocasiones que he comprobado personalmente, este test no distingue apropiadamente la normalidad de la no normalidad.

58

Page 59: Barcelo2006_Arqueologia y Estadistica

grandes o muy pequeñas (sólo un 5% de las observaciones se sitúan a más de 2 veces la desviación típica). La manera de hacer estos cálculos es complicada, pero eso poco importa, ya que PAST hará los cálculos por nosotros. En general, esta prueba está basada en una división entre la suma ponderada del cuadrado de las observaciones y la sumatoria de las diferencias al cuadrado (recordemos la fórmula de la varianza). Es por tanto, una especie de derivación de la fórmula general de la varianza. El valor de la prueba (representado como W) no nos interesa tanto como la probabilidad de la hipótesis anterior, que se deriva del valor de la W y del número de observaciones. Hace algunos años era necesario consultar unas tablas específicas para saber cuál era la probabilidad que correspondía a determinado resultado de la prueba de Shapiro-Wilk para una población de x datos u observaciones. Hoy en día, cualquier programa de cálculos estadísticos nos proporcionará el valor de la prueba junto con el de la probabilidad que le corresponde. No nos fijaremos tanto en el valor de la W, sino en el valor de probabilidad de la hipótesis de normalidad, que aparece en la ventana de resultados como p(normal). Ese es el índice probabilístico que mencionábamos al principio de este capítulo. Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que la serie NO es normal Si por el contrario p(normal) es un número mayor de 0,050 concluiremos que los datos de la columna seleccionada SI se distribuyen normalmente, es decir, alrededor del 68% de ellos están a lado y lado de la media (a 1 desviación típica), y hay muy pocas observaciones muy grandes o muy pequeñas (sólo un 5% de las observaciones se sitúan a más de 2 veces la desviación típica). Veamos ahora una prueba distinta que también puede sernos de utilidad. Aunque muchas veces se usa la prueba de χ2 –chi cuadrado- (una muestra) con el mismo propósito que la Shapiro-Wilk, para averiguar si unos datos se distribuyen “normalmente”, lo cierto es que la prueba χ2 –chi cuadrado- (una muestra) nos permite averiguar lo contrario: si los datos se distribuyen uniformemente. Como es lógico, si los datos se distribuyen uniformemente NO serán resultado de una acción intencional, ya que la intencionalidad excluye la uniformidad. En una distribución uniforme, todos los intervalos en los que podamos dividir una serie de números tienen la misma longitud, esto es, la probabilidad de que un valor cualquiera se incluya en uno de ellos es la misma para todos. En una distribución normal, por el contrario, los intervalos centrales, los más cercanos a la media o tendencia central son mayores, por lo que la probabilidad de que los valores se concentren en ellos es mayor que en los intervalos extremos. Para realizar la prueba de χ2 –chi cuadrado- (una muestra) PAST divide los datos de la columna seleccionada en cuatro grupos. El primero de ellos contiene aquellos valores menores que la media, que están a más de 0,67 veces la desviación típica; el segundo

59

Page 60: Barcelo2006_Arqueologia y Estadistica

grupo contiene aquellos valores menores que la media, que están a una distancia menor de 0,67 veces la desviación típica. El tercer grupo contiene aquellos valores mayores que la media, que están también a una distancia menor de 0,67 veces la desviación típica. El grupo restante contiene aquellas observaciones mayores que la media que están situados a más de 0,67 veces la desviación típica. En resumidas cuentas, los grupos segundo y tercero contienen los intervalos centrales de la distribución, aquellos situados más cerca de la tendencia central. La prueba de χ2 –chi cuadrado- para una muestra compara la frecuencia de observaciones en cada grupo. Si la serie es uniforme (NO normal), entonces los cuatro grupos tendrán la misma cantidad de datos. Si la serie no es uniforme (ES normal), entonces los dos primeros grupos debieran tener muchos más datos que los dos grupos extremos. Para aplicar esta prueba, ninguno de los grupos debiera tener menos de 5 observaciones; todo lo más, sólo uno de los grupos puede tener una frecuencia menor de 5, pero siempre superior a 1. La prueba es muy sencilla y podría realizarse con una calculadora de bolsillo o incluso con lápiz y papel. Se trata de sumar todas las diferencias entre los valores observados y los de la distribución normal con la misma media y la misma desviación típica. Esa diferencia se lleva a cabo restando el valor observado del valor esperado, elevando al cuadrado la diferencia, y dividiendo el resultado por el mismo valor esperado antes utilizado. Todas las diferencias así obtenidas se suman, y el resultado es lo que se denomina “valor de la prueba”. Si ese valor es muy grande, entonces los valores esperados no son semejantes a los observados, y podemos concluir que los datos se distribuyen normalmente. Existen tablas estadísticas que nos dicen el umbral a partir del cual el resultado de la prueba “es significativo”, es decir, si la suma final es lo bastante grande como para concluir la no normalidad de las observaciones. PAST incluye esas tablas y proporciona no sólo el resultado de la prueba, sino también la respuesta final a la pregunta: ¿es normal mi distribución? Pero nos lo dice de la misma manera que lo decía en el caso de la prueba de Shapiro-Wilk. La Hipótesis Nula de la prueba de χ2 –chi cuadrado- (una muestra) es exactamente la opuesta de la que veíamos en el caso anterior: los datos NO se distribuyen normalmente. La prueba nos dice si los cuatro intervalos tienen la misma cantidad de observaciones o no. Como es lógico, si tuvieran la misma cantidad de observaciones, la serie se distribuiría uniformemente y no normalmente. Resultados de PAST de chi-cuadrado (una nuestra) para una variable simulada normal y para otra uniforme Aquí vemos los resultados de la prueba para dos series de números que hemos generado al azar. En el primer caso, PAST ha establecido que estarán dentro del intervalo central

60

Page 61: Barcelo2006_Arqueologia y Estadistica

todas aquellas observaciones entre 26,87 y 33,193 (+inf sirve para etiquetar el intervalo extremo que tiene valores mucho mayores que la media). De los resultados vemos que el intervalo central es mayor que los dos extremos juntos. En una distribución de 128 observaciones, un valor chi-cuadrado de 4,68 tiene una probabilidad muy baja. En otras palabras, la serie NO es uniforme, porque la probabilidad de la hipótesis nula es muy baja (menor que 0,050). En el segundo caso, los cuatro grupos tienen aproximadamente el mismo número de observaciones. Para 128 observaciones, un valor de la prueba de 1,6875 tiene una probabilidad “alta”, de 0,193 (que es mayor que 0,050). Es decir, la serie puede ser uniforme (por lo que NO sería normal). Fijémonos que con este uso de las probabilidades no podemos afirmar que los datos siguen una u otra distribución. En realidad, sólo podemos estar razonablemente seguros cuando NO cumplen la hipótesis nula. Lo que afirmamos es que los datos no se distinguen razonablemente de una distribución teórica dada, ya sea normal o uniforme. Cuando una distribución de valores no es normal, debemos investigar los motivos. Se ha de tener presente que en la mayoría de los casos reales, la causa de la regularidad o irregularidad de una distribución está relacionada con la selección subjetiva de artefactos a medir que ha hecho la arqueóloga o arqueólogo. Del mismo modo, debemos tener presente la importancia de la preservación diferencial de los restos y de los procesos post-depositacionales en la irregularidad de una distribución que quizás originalmente fue regular. En general, nuestros datos no se distribuirán normalmente cuando los valores no sean homogéneos, es decir, cuando esos valores no hayan sido generados por un único proceso. Si mezclamos en un conjunto artefactos que fueron producidos por medio de distintos procesos de trabajo, lo lógico es que sus propiedades de forma o de tamaño sean distintos, por lo que también lo serán sus medidas respectivas. Debiéramos partir del supuesto según el cual aquello que ha sido encontrado en el mismo lugar del espacio y procede del mismo momento del tiempo ha sido formado y/o deformado por los mismos procesos causales, por lo que debiera mostrar una cierta homogeneidad, esto es, poca variación. Si, por el contrario, los datos también proceden de un único contexto arqueológicamente bien definido, pero su variabilidad no se ajusta a una distribución “normal”, entonces lo más probable es que se nos hayan mezclado en un conjunto resultados de varios procesos, la excavación no haya sido todo lo cuidadosa que debió haber sido, o algún aspecto tafonómico se nos ha escapado de control. Normalmente las distribuciones de aspecto extraño e irregular surgen a causa de un proceso irregular introducido en la producción de una distribución de apariencia normal. Este tipo de distribución ha sido denominado mezcla o distribución compuesta (en inglés mixture) y en realidad hace referencia a una distribución contaminada, ya que proviene de la mezcla de un proceso intencional con otros procesos que deforman la distribución. En ocasiones será posible separar todas las series con ayuda de las técnicas y los procedimientos explicados en el libro. Si no es así, entonces habrá que usar criterios externos subjetivos: hasta qué punto el investigador o la investigadora tienen evidencias que la población de datos es homogénea, pero no regular. PAST incluye una interesante función que nos permite desarrollar la hipótesis de que en un conjunto de observaciones contiene en realidad más de una distribución. Si seleccionamos cualquier columna numérica y ejecutamos la función Menú Statistics Mixture Analysis, PAST buscará en los datos las evidencias posibles de dos o más distribuciones normales. El fundamento de este procedimiento es el siguiente. Si

61

Page 62: Barcelo2006_Arqueologia y Estadistica

en un histograma tenemos varias puntas, se nos puede ocurrir que en realidad haya más de una distribución superpuesta. La función de PAST descompone la serie en varias distribuciones (tantas como se especifique en el cuadro Groups (“grupos”). Debe tenerse en cuenta, sin embargo, que el procedimiento para definir la media y la desviación típica más probables para las supuestas distribuciones es muy complejo, por lo que si solicitamos muchos grupos, el programa empieza a hacer divisiones por cero, y nos proporciona mensajes de error. Lo ideal por tanto, es ser prudentes y estudiar pocas superposiciones (2 ó 3 grupos). Debemos experimentar varias veces hasta encontrar la mejor división en distribuciones superpuestas. Podemos usar el valor del logaritmo de probabilidad (Log l.hood) para elegir la mejor solución: en general, cuanto más bajo ese valor, “mejor” será la solución. Esto quiere decir que deberemos calcular este índice para distintas hipótesis (2, 3, 4 ó más grupos) y elegir aquella división en grupos cuyo logaritmo de probabilidad sea menor. Veamos un ejemplo de todo lo dicho hasta ahora. Usaremos el mismo ejemplo de la proporción de aluminio en la composición de unos vidrios romanos. En primer lugar calcularemos el histograma y el gráfico de probabilidad QQ siguiendo los procedimientos antes explicados. Al histograma le superpondremos la curva normal que

62

Page 63: Barcelo2006_Arqueologia y Estadistica

le corresponde, dada su media y desviación típica, marcando la casilla Fit Normal (“ajustar la curva normal”).

1,6 1,7 1,8 1,9 2 2,1 2,2

10

20

30

Fre

quen

cy

-2 -1 0 1 2 3

Normal order statistic medians

1,5

1,6

1,7

1,8

1,9

2

2,1

2,2

Sam

ple

valu

es

Igualmente calcularemos la prueba de χ2 –chi cuadrado (una muestra), para saber si la distribución es uniforme y la prueba de Shapiro-Wilk para averiguar su posible normalidad (simetría alrededor de la media). En este caso, aunque la curva normal se superpone bastante bien a los datos, lo que podría habernos hecho dudar, el gráfico QQ demuestra que la distribución de valores de composición de aluminio en esta serie de vidrios romanos se aleja de la que sería de esperar bajo la hipótesis de una distribución normal. En concreto las colas de la distribución, esto es, las diferencias extremas con respecto a la media, son demasiado abundantes y además no son simétricas. El test del chi-cuadrado (una muestra) es engañoso. Una probabilidad de 0,034 de la Hipótesis Nula nos hace ver que los datos son significativamente distintos de una distribución uniforme. Pero eso no quiere decir que sea normal, como lo pone de manifiesto la muy baja probabilidad que registra la prueba de Shapiro-Wilk: la probabilidad de que en la fabricación de estos vidrios se haya normalizado la composición de aluminio es sólo de 0,019. ¿Por qué esta serie no es normal? Eso es lo que queremos averiguar. Ya hemos dicho que no es necesario que todas las propiedades cuantitativas que describen una misma entidad material deban estar normalizadas. Tan sólo debiéramos tener en consideración aquellas variables que podamos interpretar como consecuencia directa de la intención de la que esa variable es efecto. Si realizamos la prueba de Shapiro-Wilk para las restantes columnas de la matriz de datos (archivo “vidrio”), resulta que sólo la cantidad de sodio (Na) está normalizada. Sin un análisis que nos diga por qué aparece aluminio o

63

Page 64: Barcelo2006_Arqueologia y Estadistica

sodio en la masa de vidrio no podremos resolver nuestro problema arqueológico. Es necesario saber si esos son componentes naturales que dependen del lugar de procedencia de la(s) materia(s) prima(s), si son materiales añadidos a cualquier vidrio, si sólo es necesario añadirlos para realizar recipientes con una función determinada, o para provocar un color determinado, entre otras posibilidades que pudieran justificar su ausencia. Por otro lado, la base de datos no nos informa acerca de la homogeneidad histórica de los recipientes. ¿Son todas producciones de un mismo taller, de una misma época, de una misma tipología? Para desarrollar estas hipótesis debiéramos buscar la posibilidad de que hayan distribuciones superpuestas en este conjunto de datos. Para ello, se selecciona de nuevo la columna Al y se ejecuta Menú Statistics Mixture Análisis: La primera hipótesis es que existan dos distribuciones superpuestas (Groups=2). Como vemos el ajuste es bastante bueno (Log l.hood=78,43). Si estudiásemos la posibilidad de tres grupos, el logaritmo de la probabilidad aumenta, y aunque el ajuste sigue siendo bastante bueno, parece ser mejor la idea de dos distribuciones superpuestas que la de tres. Volvamos a la solución en dos distribuciones posiblemente superpuestas. El botón View numbers (“ver números”) nos proporciona un listado de las estadísticas univariantes de esas distribuciones superpuestas, y de la probabilidad que sean distribuciones normales:

64

Page 65: Barcelo2006_Arqueologia y Estadistica

Media Desviación Típica Probabilidad Distribución Normal

1,6638 0,02478 0,16271 1,8499 0,099351 0,83729

Por consiguiente, el conjunto de valores medidos de la composición de aluminio no sería normal porque la población estudiada no es homogénea sino que contiene dos poblaciones distintas mezcladas: la primera con cantidades de aluminio en su composición alrededor de 1,6638%, y la otra con cantidades mayores, alrededor de 1,8499%. Si bien las muestras analizadas cuyos valores compositivos se acercan a esas tendencias centrales pueden asignarse con cierta facilidad a una u otra población, algunos de los objetos de vidrio no pueden ser asignados a ninguna de las poblaciones, ya que la cantidad de aluminio en su composición está dentro de lo que cabría esperar como valores extremos (grandes para la primera serie, pequeños para la segunda) tanto en una como en otra. Los objetos de vidrio con proporciones de vidrio alrededor de 1,7% serían indeterminables. Más ejemplos aparecen en el Libro de Ejercicios y Problemas asociado con este manual.

Hasta aquí el análisis de la normalidad de una variable cuantitativa. ¿Cuál sería el caso de una variable cualitativa? En realidad no tiene sentido hablar de la normalidad de una variable cualitativa, aunque en muchas ocasiones se afirma la intencionalidad con que cierto cambio cualitativo aparece en una población. Las calidades o los calificativos de los objetos arqueológicos no pueden ordenarse de mayor a menor, por lo que no tienen puntos centrales ni la forma de la distribución es indicativa de tendencia alguna. En todo caso, el cálculo de las proporciones y/o de los porcentajes de aparición de determinados rasgos podría darnos a entender, aunque de manera un tanto subjetiva, la existencia o no de intencionalidad. Aquí la mayor frecuencia debería ser entonces la evidencia de intencionalidad; si existe la misma probabilidad de que un objeto tenga cierta decoración o de que no la tenga, por ejemplo, entonces cabrá afirmar que la decoración no es un rasgo intencional o normalizado. Por el contrario, si ciertas decoraciones son más frecuentes que otras, entonces lo más frecuente y habitual constituirá la evidencia material de la tendencia intencional con que fue fabricado. Podemos usar una variación de la técnica de χ2 –chi cuadrado- para calcularlo. En lugar de la prueba para una muestra que usábamos en el caso de las variables cuantitativas, optaremos por el la prueba de dos muestras. PAST dispone de esa función en el Menú Statistics chi-square (two samples). Para calcularlo, sin embargo, no nos vale la matriz original de datos, sino que necesitamos calcular previamente el número de valores en cada categoría.

Veamos un ejemplo, usando el archivo “ceramicas”. En este archivo se ha descrito cualitativamente la decoración de unas cerámicas calcolíticas siguiendo la siguiente terminología: 1) no decorado, 2) inciso, 3) marítimo, 4) cordado,5) decorado no campaniforme, 6) liso, 7) veraza, 8) epicampaniforme, 9) engrutada.

Ordenemos la columna “Decoración” con el procedimiento que ya hemos visto (Menú Transform sort ascending).

65

Page 66: Barcelo2006_Arqueologia y Estadistica

A continuación anotemos el número de filas que tiene cada valor de esta variable cualitativa. Hacerlo es fácil seleccionando las filas con el mismo valor, y ejecutando la función Univariate del Menú Statistics. El primer resultado (N) nos proporciona el número de observaciones para cada valor cualitativo:

1) no decorado, 0 casos 2) inciso, 13 casos 3) marítimo, 12 casos 4) cordado, 4 casos 5) decorado no campaniforme, 8 casos 6) liso, 19 casos 7) veraza, 2 casos 8) epicampaniforme, 0 casos 9) engrutada; 1 caso Dadas estas frecuencias, la prueba de χ2 –chi cuadrado (dos muestras)- no es efectiva, ya que hay demasiados grupos con frecuencias inferiores a 5. Por tanto, debiéramos concluir que la serie es NO uniforme. Sin embargo, tampoco es normal. Veamos qué sucede si seleccionamos tan sólo los valores más frecuentes: decoración incisa, estilo campaniforme marítimo, estilo campaniforme cordado, decorado no campaniforme, y cerámicas lisas. Crearemos un nuevo archivo (File New) con tres

columnas, una que especifique el tipo de decoración, otra en la que consten las frecuencias de aparición de cada tipo, y otra con el valor teórico que debiera tener cada

66

Page 67: Barcelo2006_Arqueologia y Estadistica

categoría si la serie fuese uniforme. Dado que tenemos en total 56 observaciones (13+12+4+8+19) y 5 grupos o categorías, el valor esperado será de 56/5=11,2. Calculemos ahora esta variante de la prueba de χ2 –chi cuadrado-. Seleccionaremos dos columnas, la columna frecuencia y la columna valor esperado, y ejecutaremos la función chi-squared (two samples) del Menú Statistics. Los resultados aparecen en una nueva ventana: Fijémonos ahora que tanto las dos casillas de abajo (Sample vs. Expected y One constraint) (“muestra frente esperada” y “una condición”) deben estar seleccionadas en este caso. La primera de ellas sirve para explicar al programa que la segunda columna contiene los valores de una distribución teórica (en este caso, valores esperados de una distribución uniforme). One constraint (“una condición”) debe marcarse si los valores esperados han sido normalizados para ajustarse al número de observaciones, tal y como

67

Page 68: Barcelo2006_Arqueologia y Estadistica

es nuestro caso. Ya veremos más adelante otras formas de utilizar esta función estadística. Por ahora nos interesa tan sólo su uso para estudiar la posible intencionalidad en los cambios cualitativos que experimenta un fenómeno. El valor de chi-cuadrado es de 11,321, al que para el número de datos en nuestro archivo le corresponde una probabilidad de 0,023, un valor de probabilidad muy bajo. Por tanto concluimos, en este caso, que las distintas frecuencias de aparición de los distintos valores cualitativos NO son uniformes. Los diversos valores aparecen en cantidades significativamente diferentes, lo que puede ser indicio de su intencionalidad. Es importante tener en cuenta que la prueba de χ2 –chi cuadrado- sólo permite averiguar la posible uniformidad en la variación de los datos. Si bien es cierto que una serie uniforme nunca será normal, la no normalidad no es sinónimo de uniformidad. A lo largo de este capítulo hemos visto diferentes técnicas para averiguar si nuestras observaciones arqueológicas tienen la estructura característica de aquello que los estadísticos llaman normalidad, y que es consecuencia de la intencionalidad de toda acción social. Pero tan importante como responder afirmativamente a esta pregunta es dar una respuesta correcta cuando la variabilidad no se ajusta al modelo teórico de la curva normal. La no normalidad no siempre es un resultado de la no intencionalidad de la acción, sino de la calidad de los datos analizados. Por consiguiente, junto a las pruebas de normalidad debemos realizar una serie de comprobaciones, que no necesariamente son estadísticas, pero sin las cuales ninguna interpretación estadística será posible13. Entre esas comprobaciones podríamos destacar las siguientes preguntas:

• ¿Cómo han sido recogidos y registrados los datos? • ¿Están esos datos libres de errores de registro y de medida? ¿Están bien

definidas las acciones sociales o procesos de trabajo que verosímilmente están asociados a las mediciones de magnitud, forma, textura, composición y localización? ¿Hay diferencias entre las medidas debidas a las personas que realizaron las mediciones? ¿Hay diferencias entre los instrumentos y/o medios de medida (calibre, microscopio óptico, microscopio electrónico, etc.)?

• ¿Son los datos genuinos, es decir, son tan ciertos como parecen, o bien han sido

“fabricados” expresamente para ajustarse a una hipótesis previa? ¿Han sido descartadas algunas observaciones a discreción del observador o de la observadora? ¿Hay valores anómalos en los datos que puedan tener influencia indebida en las conclusiones estadísticas?

• ¿Cuál es la población efectiva para la cual facilitan información los datos

observados? ¿Existen datos faltantes de forma parcial o completa en las unidades seleccionadas para ser observadas? Los datos obtenidos ¿son de una población homogénea o de una mezcla?

No se pueden dar fórmulas exactas ni procedimientos universales que nos ayuden a seleccionar aquellos datos que pueden interpretarse, discriminando aquellos que no proporcionan información. Se trata de una cuestión arqueológica y no estadística.

13 Adaptado de Rao, 1994, p. 79. Obra citada en nota 4.

68

Page 69: Barcelo2006_Arqueologia y Estadistica

Estadísticamente podemos saber si los datos presentados son susceptibles de ser analizados; no podemos saber, sin embargo, si se trata de los mejores datos posibles. Los únicos consejos generales que se pueden dar hacen referencia a la fiabilidad del proceso de excavación como manera de seleccionar datos interpretables: si la localización (tanto espacial como temporal), de los datos es lo suficientemente precisa, podremos partir del supuesto que las evidencias materiales encontradas en un lugar concreto y en un momento específico son más homogéneas que aquellas que proceden de un lugar impreciso del espacio y que han podido producirse en un intervalo de tiempo muy grande. Las malas excavaciones, aquellas que no definen con precisión distintos contextos topo-estratigráficos, nunca podrán proporcionar datos interpretables, de tipo estadístico ni de otro tipo.

Esto quiere decir que nunca empezaremos nuestra investigación calculando el histograma, ni obteniendo las estadísticas unidimensionales, ni tampoco ajustando las curvas de normalidad a todos los datos observados y medidos en una excavación arqueológica. Debemos tener presente que cuantos más datos incluyamos en el análisis, menos probable será que la distribución de diferencias entre los valores observados de magnitud, de forma, de textura, de composición o de localización y los valores intencionalmente esperados sigan una distribución “normal”. ¿Por qué? Pues porque cuantos más artefactos o materiales incluimos en nuestra base de datos, más tendemos a descontextualizar el registro, incluyendo en el mismo conjunto consecuencias materiales de acciones distintas. Cuando una socióloga aumenta el número de entrevistas a personas con el fin de obtener una información no sesgada de su intención de voto, el aumento de datos es homogéneo. Realiza más entrevistas a más votantes, hasta conseguir que la población entrevistada tenga la misma composición que la población de referencia (votantes posibles). En arqueología, si en un lugar de la excavación tenemos 30 fragmentos de huesos animales, esa es la población total disponible para poder analizar la acción o acciones sociales que tuvieron lugar en ese emplazamiento. Obviamente no disponemos de la totalidad de efectos materiales de la acción, pero nada de lo que hagamos nos permitirá ampliar la población de las consecuencias materiales que originalmente existieron. Si a esos 30 fragmentos les añadimos otros 100 fragmentos procedentes de otros emplazamientos, lo que estaremos haciendo será complicar las cosas. Dado que proceden de contextos diferentes, las evidencias arqueológicas de cada contexto habrán tenido un proceso de formación distinto.

En definitiva, debemos procesar tan sólo datos fiables. Cuanto más información errónea, poco segura, incierta o mezclada introduzcamos en el análisis, peores resultados, y más difícil será descubrir cuando, cómo y dónde nos hemos equivocado en la interpretación. La investigación sólo tendrá sentido si analizamos, por ejemplo, las tumbas femeninas de la fase 1 identificadas en el sector noroeste de la necrópolis, y las comparamos a las tumbas masculinas de la misma fase y sector. No tiene ningún sentido que mezclemos datos de contextos espaciales, temporales y funcionales distintos. Razón por la cual la primera parte de toda investigación estadística en arqueología será separar las consecuencias de una acción realizada en cierta acción, de las consecuencias de la misma u otras acciones en contextos diversos. El Libro de Ejercicios y Problemas ilustra varios casos concretos.

69

Page 70: Barcelo2006_Arqueologia y Estadistica

Asociación, Relación y Semejanza. Tres palabras clave para un mismo

problema.

Por asociar se entiende en el habla cotidiana: “juntar una cosa con otra”. De manera más formal y rigurosa diremos que dos entidades estarán asociadas cuando una determinada propiedad se cumpla en ambas; por ejemplo, dos objetos estarán asociados si ambos son blancos, o han sido encontrados en el mismo lugar, o si ambos fueron producidos por el mismo proceso de trabajo, etc.

Dado que no todas las formas de asociación son iguales, en las páginas siguientes distinguiremos entre relación y semejanza del siguiente modo:

ASOCIACIÓN: Algo en común

ASOCIACION ENTRE OBJETOS ASOCIACION ENTRE FENÓMENOS

Semejanza Relación

Diremos pues que la semejanza es la asociación que se establece entre objetos o individuos cuando tienen los mismos valores en algunas de sus propiedades. Por su parte, una relación es una asociación entre fenómenos o procesos, es decir, entre las variables o propiedades que describen una población de objetos o individuos asociados. Recordemos la estructura de las matrices de datos arqueológicos. Las columnas de la matriz representan las propiedades, en tanto que las filas expresan los individuos. Analizaremos qué relaciones existen entre las columnas, en tanto que mediremos la semejanza entre las filas.

Esta definición de los términos asociación, relación y semejanza es una convención arbitraria. En otros manuales o en diccionarios generales encontraremos definiciones distintas. La adoptada aquí servirá para distinguir los distintos problemas arqueológicos y nos ayudará a diferenciar las funciones estadísticas necesarias para resolverlos. Buena parte de este capítulo y el resto de este libro estará dedicado a explicar las técnicas y procedimientos estadísticos para estudiar las relaciones, como acabamos de

70

Page 71: Barcelo2006_Arqueologia y Estadistica

ver, las asociaciones entre procesos o fenómenos, tal y como se expresan en la variación conjunta de unas variables. El tema de la semejanza no se abordará en este libro, sino en el volumen 2 de esta serie de publicaciones, dedicado al Análisis Multivariante. He tomado esta decisión, porque el estudio de la relación puede entenderse en el caso simplificado de sólo dos variables, y las matemáticas necesarias son muy sencillas. Pero el estudio estadístico de la semejanza entre artefactos implica tomar en consideración, simultáneamente, una gran cantidad de variables. Tampoco es tan difícil, pero me ha parecido mejor presentar detenidamente ese análisis junto con otros ejemplos de análisis multivariante. Con todo, algunas ideas generales acerca de la función explicativa de la semejanza en arqueología serán necesarias.

¿Cómo sabremos que una cosa está asociada con otra cosa?¿Que esa cosa sea semejante a otra cosa, o que esté relacionada con otro fenómeno? La respuesta la obtendremos por medio de la comparación, es decir, observando en qué se parecen o diferencian los valores de las propiedades que definen ya sea al objeto o al fenómeno. Así, diremos que dos objetos son semejantes cuando algunas propiedades son comunes en ellos, aunque no lo sean todas. Por consiguiente, aunque no sean idénticos (todas las propiedades iguales) son semejantes porque algunas propiedades son compartidas. Es importante tener en cuenta que la semejanza no es una característica exclusiva de la forma o del tamaño de las cosas: dos objetos pueden ser semejantes, aunque su forma sea distinta, siempre y cuando las restantes propiedades (composición, localización, textura) sean iguales. Un ejemplo de semejanza es la que estableceremos entre dos vasijas con la misma forma o dos instrumentos líticos con distinta forma, pero que aparecen en el mismo lugar. Cuando investigamos si la tumba A y la tumba B tienen algo en común, estamos ante un problema de semejanza, basado en el supuesto de que tumbas iguales (o parecidas) son resultado de un mismo tipo de ritual funerario. El estatus social de los individuos allí enterrados sería el mismo porque las tumbas tienen la misma forma y características constructivas, el mismo tipo y cantidad de ajuar, el cadáver ha sido dispuesto de igual manera, aparece la misma deformación craneana. Ese es también el caso de la semejanza entre casas o entre fases estratigráficas: si tienen, aunque sea parcialmente, la misma composición (o contenido) serán semejantes, sea cual sea la forma del contorno de los mismos. En definitiva, dos o más consecuencias materiales de una misma acción social estarán asociadas (serán semejantes) cuando tengan el mismo tamaño, la misma forma, la misma textura, la misma compasión y/o aparezcan en el mismo lugar.

Más difícil es observar una relación entre procesos ó fenómenos. Dos o más acciones sociales estarán asociadas (se relacionarán la una con la otra) cuando concurran a una misma finalidad. Si dos acciones contribuyen a lo mismo, sus consecuencias materiales (propiedades cuantitativas) no serán independientes, sino que estarán relacionadas y dependerán una de la otra. ¿Por qué decimos que la forma de unos artefactos está relacionada con la localización de los mismos? Esas propiedades estarán relacionadas cuando la mayoría de los objetos con una misma forma aparezcan en una localización determinada y los que tienen otra forma aparezcan en otra localización. Composición y forma estarán relacionadas cuando objetos con la misma forma tengan una composición distinta a objetos con otra forma. Aquí no estamos comparando por capricho la forma de un objeto con la composición de otro. Lo que nos interesa averiguar es si el proceso de trabajo responsable de la composición de unos artefactos es también la acción social responsable de su forma. Resulta fundamental recordar que dos propiedades de la materialidad de las evidencias arqueológicas covarían cuando ambas contribuyen a una misma intención.

71

Page 72: Barcelo2006_Arqueologia y Estadistica

Diremos entonces que dos fenómenos o procesos están relacionados cuando podemos comprobar que las propiedades cuantitativas que los definen varían conjuntamente, es decir, que los objetos que tienen valores muy altos en una variable tienen también valores muy altos en otra variable, y que los objetos con valores muy bajos en una de ellas, tienen valores muy bajos en la otra. Este es un ejemplo característico de relación lineal positiva.

Imaginemos que un equipo interdisciplinario de arqueólogas y arqueólogos observa en un yacimiento que las cerámicas del tipo A aparecen siempre en el interior de las casas y junto a molinos de piedra, mientras que en otro yacimiento próximo, datado en el mismo periodo, esas mismas cerámicas aparecen indistintamente en el interior y exterior de las casas, pero nunca junto a molinos de piedra. Ahora bien, en este último yacimiento, la cerámica del tipo A aparece asociada con otro tipo de cerámica, del tipo B, que no ha aparecido nunca en el primer yacimiento. Por relación se entiende aquí si la forma de un recipiente (A ó B) permite predecir su contexto de uso (dentro o fuera de la casa, en presencia o en ausencia de un molino). Si la forma no afecta para nada a la probabilidad de uso del recipiente en un contexto determinado, entonces, las variables forma y localización serán independientes. En el caso contrario, diremos que son dependientes, es decir, que la forma del artefacto predice la localización en la que dicho artefacto fue depositado. Dos eventos son independientes si la ocurrencia (o no ocurrencia) de uno no afecta la probabilidad de ocurrencia del otro. Dicho de otro modo, ¿cuál es la probabilidad de que los valores de esas variables (yacimiento, ubicación interior/exterior, tipo de cerámica, presencia/ausencia de molinos) aparezcan juntos? Sería útil saber si es más probable que la cerámica tipo A aparezca en un yacimiento o en otro, si es más probable que esa misma cerámica aparezca en el interior o exterior de las casas, cerca o lejos de molinos, etc. En términos matemáticos, lo que se plantea es traducir la proporción de cerámicas tipo A que ha aparecido en el interior de las casas de un yacimiento y junto a molinos de piedra, en la probabilidad de que una cerámica de ese tipo aparezca en esas circunstancias. A continuación deberemos averiguar si esa proporción o esa probabilidad es distinta de la que se produciría al azar.

Es importante tener en cuenta que para poder entender una asociación debemos tener información acerca del mecanismo que la causó, y no simplemente la mera observación de algo en común entre unas entidades. Aquí radica la verdadera naturaleza de la interpretación en arqueología. Sólo podremos interpretar las evidencias arqueo-lógicas estudiando cómo una variable provoca que otra varíe conjuntamente. Una de las variables será la causa y la otra, el efecto. Qué variable es la independiente y qué variable es la dependiente no resulta ser nunca obvio. La variable independiente es la que asumimos que provoca o explica los cambios en la dependiente. Pero ¿cuál será la variable explicativa en cada caso: la longitud o la anchura de unos artefactos, la superficie o el volumen de unas construcciones, la cantidad o la diversidad de bienes en el ajuar funerario de unas tumbas, la cantidad de aluminio o la cantidad de hierro en la composición arqueométrica de unos instrumentos?

Si tenemos presentes todas estas consideraciones, entonces podremos comprender cuál es el auténtico propósito de todo análisis estadístico en arqueología: estudiar si las propiedades que caracterizan las evidencias arqueológicas están relacionadas con la expresión concreta de la acción social o proceso de trabajo que las causó.

Solemos denominar factor a la expresión concreta de esas causas. Los factores son en realidad variables, cuyos distintos valores reciben el nombre de niveles. Esos niveles

72

Page 73: Barcelo2006_Arqueologia y Estadistica

son criterios que contribuyen a definir subpoblaciones entre las cuales las propiedades cuantitativas varían. Sólo a partir del estudio de los niveles de uno o varios factores podremos llegar a interpretar por qué varían las propiedades cuantitativas que definen el tamaño, la forma, la textura, la composición y la localización de las consecuencias materiales de la acción social. Así, por ejemplo, el sexo de la persona enterrada (factor causal) en la tumba nos ayudará a determinar dos subpoblaciones (hombre, mujer), que a su vez permitirá interpretar las diferencias observadas en la forma y composición de los ajuares en términos de las diferencias sociales del ritual funerario entre hombres y mujeres (niveles del factor causal).

Lo más sencillo y a la vez efectivo sería que el factor explicativo se expresara cualitativamente, en distintas categorías o niveles que representaran cada una de ellas una causa posible. En principio, podría ser aconsejable trabajar con sólo dos niveles de un mismo factor explicativo:

• la acción X es la causa de la variabilidad observada, • la acción X NO es la causa de la variabilidad observada.

En cualquier caso, el factor explicativo tendrá tantos niveles o categorías como explicaciones alternativas hipoteticemos.

Un factor causal constituye la variable independiente que nos permite averiguar cómo y por qué varía una propiedad dependiente. El problema es que en arqueología el factor causal (la variable independiente) es invisible, ya que la acción causal se produjo en el pasado. ¿Cómo podemos estudiar una relación entre un fenómeno observado en el presente (el registro arqueológico) y otros (la acción social y/o los procesos post-depositacionales) que no pueden ser percibidos ni aquí ni ahora?

En una investigación experimental, la solución al problema será sencilla. Imaginemos que deseamos averiguar por qué la superficie de unos útiles líticos presenta diferencias observables de textura (por ejemplo, áreas de micropulido observables al microscopio con una forma tendente a la circularidad). Experimentalmente, elaboraremos unos útiles en el laboratorio con el mismo tipo de materia prima y los dividiremos en dos conjuntos: con un conjunto cortaremos madera fresca, y con el otro haremos cualquier otra acción. Con este procedimiento estamos definiendo la variable independiente o factor causal. En este caso en concreto, ese factor (el trabajo realizado con el instrumento) estará dividido en dos niveles: 1) cortar madera fresca, 2) no cortar madera fresca.

En una situación experimental como la imaginada al reproducir en el laboratorio el trabajo de cortar madera con instrumentos de sílex es fácil saber cuál es el factor causal, ya que somos nosotros los que ejecutamos la tarea experimental y podemos observar la relación entre causa y efecto. La obvia alternativa a la experimentación suele ser la analogía etnoarqueológica, que a diferencia de lo que viene siendo habitual, también debiera ser analizada estadísticamente. Aquí, en lugar de experimentar el cortar madera con unos instrumentos líticos replicados, observamos cómo otros realizan la tarea, y los efectos materiales de esa acción sobre los instrumentos líticos. Tanto en un caso como en el otro debieran hacerse cálculos estadísticos con datos no arqueológicos. Es en el contexto experimental donde planteamos la relación entre factor causal y variable dependiente (magnitud, forma, textura, composición, localización). Si y sólo si los resultados del estudio experimental nos permiten afirmar que el factor definido en esas circunstancias precisas explica la variabilidad observada en las mismas circunstancias,

73

Page 74: Barcelo2006_Arqueologia y Estadistica

podremos explicar un caso arqueológico comparable: si la variabilidad observada en el caso arqueológico se estructura de la misma manera que la variabilidad observada en las circunstancias experimentales y/o etnoarqueológicas, entonces el factor causal que explicaba la variabilidad experimentalmente o etnoarqueológicamente observada explicará la variabilidad arqueológicamente determinada. Si ni siquiera hemos podido observar la acción en un contexto etnoarqueológico, sino que lo único que tenemos son observaciones arqueológicas, no tendremos posibilidad de definir factor causal alguno. En ausencia de un método experimental o de una analogía etnoarqueológica que nos permita asignar cada observación arqueológica a uno de los posibles niveles del factor causal, éste se podrá expresar deductivamente. Por ejemplo:

a) Si la forma del objeto presupone la función del mismo, una explicación de la variabilidad observada en tamaño, textura, composición y localización podrá explicarse por distintos usos (niveles del factor) de distintos objetos. Sin embargo, aunque muchas veces se ha afirmado que la forma de las cosas está relacionada universalmente con su función, no siempre esto es así.

b) Si la textura de las superficies visibles del objeto presupone la función del

mismo, una explicación de la variabilidad observada en tamaño, forma, composición y localización podrá explicarse por distintos usos (niveles del factor) de distintos objetos. Debemos tener en cuenta que la decoración es una forma de textura, y que las diferencias decorativas suelen estar relacionadas con factores ideológicos, culturales o funcionales. El problema es que el factor causal será meramente descriptivo, ya que muy probablemente no entenderemos la causa de la variabilidad en el patrón decorativo. Podemos llegar a descubrir que existe una relación, probablemente causal, entre distintos tipos decorativos y distintas formas de los artefactos, pero si desconocemos qué causa la variación de los tipos decorativos, no podremos interpretar la relación descubierta.

c) Si la composición del objeto presupone el procedimiento de trabajo para

obtenerlo, una explicación de la variabilidad observada en forma, tamaño, textura, y localización podrá explicarse por distintos procedimientos de trabajo (niveles del factor) para manufacturar distintos objetos.

d) Si la localización del objeto presupone el tipo de acción social realizada en esa

localización, una explicación de la variabilidad observada en la frecuencia de objetos o materiales con distinta forma, tamaño, textura y composición podrá explicarse por las distintas actividades que se realizaron en distintos lugares. Aquí seguimos el supuesto general que hace referencia a la homogeneidad probable de aquellos elementos materiales que tienen una misma localización: aquello que ha sido encontrado en el mismo lugar del espacio y procede del mismo momento del tiempo ha sido formado y/o deformado por los mismos procesos causales, aunque la consecuencia material no afecte por igual a todos los materiales. Por consiguiente debieran existir diferencias significativas en las características materiales (tamaño, forma, textura, composición) de las evidencias arqueológicas identificadas en distintas localizaciones. Esas diferencias podrían ayudarnos a explicar qué acciones sociales y actividades de trabajo tuvieron lugar en esos mismos lugares. La localización aparece como

74

Page 75: Barcelo2006_Arqueologia y Estadistica

factor causal, simplemente porque aceptamos como axioma que lo que se encuentra en lugares distintos fue producido de manera distinta si no es similar.

Todo lo dicho hasta aquí nos permite adelantar un principio fundamental. Explicar el registro arqueológico supone definir y estudiar una relación entre una variable cualitativa (el factor causal, dividido en tantos niveles como hipótesis alternativas haya) y una o varias variables cualitativas o cuantitativas que miden las características materiales de los efectos de la acción social (magnitud, forma, textura, composición y localización). Esa relación será aleatoria14 cuando podamos demostrar que el factor contribuye sin ningún tipo de orden ni concierto a la variabilidad de la(s) variable(s) dependiente(s). Una relación será sistemática cuando la variabilidad de la(s) variable(s) dependiente(s) pueda describirse en términos de conjuntos bien definidos coincidentes con cada uno de los niveles del factor. En capítulos anteriores hemos caracterizado la variabilidad generada por factores aleatorios en términos de una distribución uniforme, es decir, aquella en la que cualquier valor es igualmente posible. Por su parte, la variabilidad generada por un factor sistemático será aquella en la que se registre, para cada uno de los niveles del factor causal, una clara tendencia central y en donde los valores extremos de cada nivel sean tanto menos probables cuanto más alejados estén de dicha tendencia central.

Es en este sentido que explicar equivale a estudiar la relación entre factor y variable dependiente, comparando los niveles de un factor, para observar su sistematicidad o aleatoriedad. Ese estudio será ligeramente distinto si hemos definido el factor causal experimentalmente, analógicamente o por mera observación.

Por medio de la experimentación desearemos probar si la variable dependiente nos permite distinguir nítidamente entre los distintos niveles del factor experimental. Decir que el factor experimental (cortar madera fresca/no cortar madera fresca) es sistemático es asumir que esa acción de trabajo reproducida en las condiciones controladas del laboratorio altera los valores de la variable dependiente en el grupo experimental de manera distinta a como lo hace en el grupo de datos de control, es decir, aquellos útiles simulados con los que no se ha realizado actividad alguna y/o se ha realizado algún trabajo que nada tenga que ver con cortar madera (por ejemplo: raspar hueso, cortar piel, etc.). La manera más sencilla de comprobarlo es comparando las medidas de tendencia central entre el conjunto experimental y el conjunto de control.

Hay tres posibles explicaciones para estos datos experimentales:

a) la variabilidad observada en las áreas de micropulido de las huellas de uso puede quedar plenamente explicada por el factor sistemático (cortar madera/no cortar madera),

b) la variabilidad observada de las huellas de uso puede quedar plenamente explicada por factores aleatorios tales como los errores de muestreo y/o de medida,

c) la variabilidad observada requiere ser explicada mediante ambos factores, sistemáticos y aleatorios.

14 Y por tanto diremos que el factor causal es aleatorio o estocástico. Modernamente suele utilizarse el adjetivo “estocástico” para referirse a procesos o mecanismos causales cuyo comportamiento no puede ser predicho con precisión.

75

Page 76: Barcelo2006_Arqueologia y Estadistica

Los dos primeros casos son más sencillos, por lo que convendría comprobar primero las hipótesis más simples antes que la más compleja. La tercera posibilidad podemos dejarla en suspenso hasta que se demuestre que tanto a) como b) son inadecuadas. La primera posibilidad consistiría en una relación completamente sistemática entre el factor causal y la variable dependiente sin variabilidad por azar. Esta situación sería inmediatamente evidente en el conjunto de los datos: todas las huellas de uso observadas e identificadas en los instrumentos con los que se experimentó el corte de maderas tendrían exactamente la misma forma, y además serían totalmente diferentes de las huellas de uso en aquellos instrumentos del grupo de control, esto es, aquellos con los que se han experimentado otras actividades. Este resultado puede ser posible en las ciencias físicas y biológicas, donde la variabilidad por azar suele ser muy pequeña. Con datos arqueológicos e hipótesis históricas referentes a acciones sociales, este resultado es bastante infrecuente.

Dejando a un lado estos extraños casos con ausencia de error, estamos ante la elección entre la explicación “todo es resultado del azar”, y la explicación “todo es resultado de un factor sistemático más azar”. La vida sería intolerable si los fenómenos ocurrieran al azar de una forma completamente impredecible. Cada fenómeno es una curiosa mezcla de determinismo y azar. El azar tal vez sea la antítesis de cualquier principio de regularidad, pero el camino a seguir para descubrir la regularidad que subyace a todo proceso o acción intencional es descubrir precisamente las leyes de ese mismo azar. Buscamos diversas alternativas y convertiremos en probabilidad su ocurrencia como medida de su incertidumbre. Conociendo las consecuencias de cada resultado y la probabilidad de que ocurra, la toma de decisiones llevadas a cabo bajo incertidumbre puede reducirse a un mero ejercicio de lógica deductiva. Ya no será más una cuestión de acierto o fracaso porque sí.

Ya sea porque el factor causal haya sido definido en un contexto etnoarqueológico o bien haya sido definido por mera deducción a partir de la semejanza o no semejanza de artefactos arqueológicos, adoptaremos la misma estrategia. También en estos casos actuaremos por comparación. La pregunta a resolver sigue siendo la misma “¿por qué distintos objetos arqueológicos tienen valores distintos de cierta propiedad (cuantitativa o cualitativa)?” Porque unos de ellos tienen el valor que tienen como resultado de cierta acción causal (un trabajo intencional), en tanto que otros no fueron sometidos a ese trabajo particular, por lo que la propiedad cuantitativa tendrá unos valores que no son aquellos impuestos por la acción causal considerada. El factor causal divide la población de objetos arqueológicos medidos cuantitativa o cualitativamente en, como mínimo, dos grupos: aquellos sobre los cuales actuó la causa, y aquellos sobre los que no actuó. Por ejemplo, imaginemos que cada uno de los niveles de un factor es un contexto o circunstancia específica en la que se realizó cierto trabajo y que afectó a los resultados concretos de dicha actividad. Por ejemplo, vasos usados para beber/vasos no usados para beber; cerámicas de cocción reductora/cerámicas de cocción oxidante, poblados en llano/poblados que están en cualquier otra localización que no sea en llano; materiales de la fase 3/materiales de cualquier otra fase que no sea la fase 3, etc. En algunas sociedades, no es lo mismo el ritual funerario para una mujer o para un hombre, como también puede ser distinto si se trata de una mujer de clase social dominante o de una pobre trabajadora socialmente marginada. El factor cualitativo nos servirá para distinguir las tumbas que contienen un cuerpo femenino de uno masculino, o un enterramiento “rico” de uno “pobre”.

76

Page 77: Barcelo2006_Arqueologia y Estadistica

En los casos etnoarqueológicos procederemos del mismo modo que en el caso experimental, donde habíamos definido dos niveles del factor causal: uno con aquellas observaciones sobre las cuales había actuado el factor causal (conjunto experimental) y otro nivel con aquellas observaciones sobre las cuales no había actuado el factor causal (grupo de control). La observación etnoarqueológica o la documentación histórica deben permitirnos distinguir entre la causa y la no causa. Por ejemplo, usando textos históricos podemos distinguir las poblaciones que en época romana o medieval tuvieron un mercado, de aquellas que no lo tuvieron. En este caso el factor causal sería la actividad comercial. Usando documentación etnológica podríamos distinguir la localización de los procesos de trabajo realizados por mujeres de la localización de aquellos realizados por hombres. Aquí el factor causal sería la diferencia de género. Si el factor causal ha sido definido deductivamente, deberemos buscar las diferencias que cierta variable dependiente (por ejemplo, el tamaño, o el color, o la decoración, etc.) experimenta de acuerdo con los niveles en que se haya dividido el factor causal:

• forma circular/forma no circular,

• composición tipo A/cualquier composición que no sea tipo A,

• localización en X/localización en cualquier otro lugar que no sea X.

El problema es que en muchas ocasiones limitamos el factor causal a un solo nivel del proceso causal, olvidando su alternativa. Es como si tan sólo hubiéramos documentado los poblados con mercado, o sólo las actividades realizadas por los hombres en una comunidad, o los objetos con un único tipo de composición, o los encontrados en un único lugar, dejando de lado los efectos observables de la ausencia de ese factor causal. La comparación de los efectos de una causa hipotética con un conjunto de control mal construido serán siempre erróneos. De ahí que para responder cualquier problema arqueológico siempre necesitaremos de un conjunto de control que deberá ser lo más exhaustivo posible, de manera que contenga de un modo u otro toda la variabilidad diferente a la de la causa hipotetizada.

El propósito del análisis será estudiar si ciertas propiedades están relacionadas con un factor dividido en niveles claramente diferenciados. Obviamente con esto no quiero decir que toda explicación arqueológica tiene que incluir cualquier alternativa imaginable. Es imposible definir el factor explicativo “función: contenedor”, enumerando todas las posibles sustancias contenibles y todos los propósitos con los que éstas se hayan colocado allí. De lo que se trata es de construir categorías generales que incluyan las alternativas individuales. Si queremos averiguar por qué varía la forma de unos contenedores cerámicos, no usaremos como factor sistemático aquel que incluya alternativas tales como “guardar grano de trigo recién segado durante cinco días en ambiente fresco y seco”, “guardar grano de cebada recién segada durante cinco días en ambiente fresco y seco”, “guardar grano de trigo recién segado durante quince días en ambiente fresco y seco”, etc. El modo correcto de establecer el factor sistemático en este caso será por medio de alternativas más generales, como “guardar grano durante intervalos de tiempo cortos”, “guardar grano durante intervalos de tiempo largos”, etc. Sin embargo, sí que es preciso que agrupemos en niveles distintos de un mismo factor tan sólo aquellos objetos que están asociados (son semejantes en algo, contribuyeron a la misma finalidad, etc.). Muchos otros ejemplos de este tipo pueden citarse fácilmente, en donde el factor puede ser el espacio, el tiempo, la función, el proceso de trabajo, la materia trabajada, etc. Así, si nos interesara averiguar si la fabricación de lanzas que se

77

Page 78: Barcelo2006_Arqueologia y Estadistica

han depositado como ajuar funerario era distinta a la fabricación de lanzas que se han utilizado para cazar, o para guerrear, tendríamos que estudiar la variación de la forma y función de esos instrumentos. Por otro lado, si pretendemos averiguar si la composición química de la pasta cerámica con la que se fabricaron contenedores de agua es distinta a la composición química de la pasta cerámica con la que se fabricaron contenedores de vino, estudiaremos cómo cada uno de los niveles del factor “uso” pudo haber determinado la variabilidad observada de la propiedad cuantitativa “composición”. Sea cual sea la manera de definir los niveles del factor causal o variable independiente, necesitaremos diseñar una prueba de significación. Al igual que veíamos en el caso de las pruebas de ajuste a la normalidad o intencionalidad de la acción causal, la prueba en este caso consistirá en demostrar que “no es cierto que no exista una diferencia sistemática entre las observaciones experimentales y las de control”. Si los datos no son marcadamente inconsistentes con esa concepción, entonces una explicación de todo-azar es sostenible, por lo que respecta a ese conjunto de datos. A menudo esto es descrito como “aceptación de la independencia entre causa hipotética y efecto, o no relación causal”. Si, por otra parte, los datos son inconsistentes con el modelo de todo-azar, la hipótesis nula es rechazada, y se concluye que el factor causal influye de manera sistemática en la variabilidad observada, existiendo, todo lo más, un pequeño componente aleatorio, que puede ocultar parcialmente la sistematicidad del factor causal, pero no eliminarlo. Si esas diferencias superan cierta intensidad, concluiremos que no podrían haberse producido al azar y que por lo tanto hay suficiente base como para afirmar que el factor hipotético explica buena parte de la variabilidad observada. Del mismo modo como hemos hecho para asegurar la normalidad o no normalidad de una distribución de valores, la evaluación de la capacidad explicativa del factor causal tiene una lectura probabilística en esa prueba. El nivel concreto (valor p) puede utilizarse como indicador del grado de aceptación o rechazo de la hipótesis nula. Tan correcto es aceptar en un caso concreto la hipótesis de que el factor causal es aleatorio si su probabilidad es de 0,900, como rechazar la posibilidad de una hipótesis semejante si su probabilidad es inferior a 0,05. Como vimos en el capítulo anterior resulta difícil mantener que no hay relación entre el factor y la variable dependiente cuando una variabilidad como la observada sólo tiene cinco oportunidades entre cien de haber surgido de ese factor causal. Ahora bien, el modo correcto de rechazar la hipótesis sería: “si fuera cierto que no hay diferencia sistemática entre los valores que la variable dependiente adopta en cada uno de los niveles del factor, entonces la probabilidad de que las medias observadas sean tan diferentes como lo son en la población estudiada, o más diferentes, es menor del 5%. Siendo esto una base sólida para dudar de la viabilidad de la hipótesis nula, esta es rechazada”.

Hoy en día, la inferencia estadística clásica, es decir, la confianza absoluta en el índice de significación de un posible factor aleatorio para explicar la ausencia de relación entre factor y variable dependiente está siendo puesta en duda15. Pruebas de hipótesis como las que veremos en los próximos capítulos ya no aparecen en la bibliografía especializada como la solución a todas las inseguridades y la respuesta absoluta a todas las explicaciones. Y la razón de esta desconfianza estriba en que el grado de 15 Ver Abelson, obra citada; R.B. Kline, 2004, Beyond Significance testing. Reforming data analysis methods in behavioural research. American psychological Association, Washington, DC.

78

Page 79: Barcelo2006_Arqueologia y Estadistica

probabilidad de la hipótesis nula no sólo depende de la diferencia entre el valor observado y el valor esperado en el caso del supuesto, sino también del número de datos analizado16. Por lo tanto, en casos de muestras grandes, los efectos pequeños parecerán mucho más significativos de lo que son en realidad.

Por esta razón es aconsejable complementar la interpretación cualitativa del resultado de la prueba (diferencia significativa o no significativa) con algo más objetivo, indicativo del grado o intensidad de la diferencia producida por el factor causal cuando se demuestra que la relación entre este y la variable dependiente es sistemática. La hipótesis nula (aquella que propone que el azar es la causa de la variabilidad observada y que no hay otra explicación posible) está siempre en competencia con hipótesis alternativas. Si deseamos hacer una afirmación cuantitativa acerca de la probabilidad de que la hipótesis nula sea la apropiada, deben considerarse las capacidades relativas de otras hipótesis para explicar los datos observados. No podemos simplemente convertir el nivel de significación al cual ha sido rechazada la hipótesis nula en un índice cuantitativo de su valor de verdad.

El candidato más obvio para cuantificar la robustez de una conclusión de una simple prueba de significación es la magnitud en bruto de la relación. La intensidad de la diferencia producida por el factor sistemático en cada una de las subpoblaciones definidas por los distintos niveles de dicho factor estará asociada al tamaño de la diferencia media observada. Una ventaja de la magnitud en bruto de la relación como medida es que su valor esperado es independiente de número de datos observados. Por consiguiente, a la hora de publicar los resultados de un análisis estadístico habremos de enumerar:

a) el número de datos analizados,

b) el valor bruto de la diferencia entre los niveles del factor (diferencia de medias, de varianzas, de rangos). Ese valor bruto puede expresarse en valor numérico o bien gráficamente mediante histogramas para cada nivel del factor, diagramas de dispersión, diagramas de caja, tablas de contingencia, análisis de correspondencias, etc. Veremos todos esos procedimientos en los capítulos siguientes. Otra manera de proporcionar ese resultado sería dividiendo el resultado de la diferencia de medidas por la desviación típica de las observaciones. La versión actual de PAST no proporciona este procedimiento, por lo que debiera realizarse mediante el uso de una calculadora,

c) el valor resultante de la prueba (t =, F=, U=, r=, χ2 = , etc.) (véase Capítulos siguientes),

d) la probabilidad asociada a ese valor resultante, si la hipótesis de no explicación fuese viable en ese caso.

Estos cuatro elementos debieran figurar siempre en nuestros trabajos, ya que sin ellos nunca podrá saberse si la aceptación o rechazo de la explicación aleatoria ha sido realizada de manera objetivamente correcta o no. 16 Ese cálculo se hacía tradicionalmente consultando tablas estadísticas; hoy lo realiza el programa (PAST), sin que el usuario tenga que intervenir.

79

Page 80: Barcelo2006_Arqueologia y Estadistica

Estudiando Relaciones entre variables.

Relación entre variables cuantitativas Relación entre variables cualitativas y cuantitativas

Relación entre variables cualitativas. El capítulo anterior puede haber parecido a algún lector o lectora demasiado abstracto y difícil. Llegado a este punto vamos a introducir ciertas consideraciones prácticas para poder entender mejor los procedimientos tratados hasta ahora. Pero primero debemos hacer una advertencia. Debido a que las técnicas y funciones estadísticas son distintas, tendremos que distinguir tres grandes familias de problemas arqueológicos según la relación que existente entre variables de distinto tipo. La forma de describir una relación será diferente según el tipo de variables o propiedades que intentemos relacionar. Así, por ejemplo, es muy distinto si intentamos relacionar la extensión de unos asentamientos y su duración temporal, que si intentamos relacionar el ritual usado en un funeral con el estatus social de la persona enterrada. Aunque la definición de relación sigue siendo la misma: aquello que relaciona una propiedad con otra, aquello que varía, su tratamiento estadístico será distinto, porque en el primer caso tratamos de una relación entre variables cuantitativas, mientras que en el segundo caso nos encontramos ante una relación entre variables cualitativas. Distinguiremos, pues, entre relaciones cuantitativas, relaciones semi-cuantitativas y relaciones cualitativas.

Relación entre variables cuantitativas Cuando la información arqueológica disponible ha sido el resultado de la medición de dos variables cuantitativas, los datos numéricos suelen expresarse como pares ordenados (x, y) donde x es la variable independiente e y es la variable dependiente.

80

Page 81: Barcelo2006_Arqueologia y Estadistica

Con el fin de disponer de una impresión intuitiva de la relación entre dos variables cuantitativas utilizaremos un diagrama de dispersión. Este diagrama representa gráficamente todos los pares ordenados de dos variables cuantitativas que están en un sistema de ejes coordenados. La variable que se supone es la independiente se traza en el eje horizontal y la variable que se supone es la dependiente en el eje vertical.

En PAST seleccionamos dos columnas, aquellas que correspondan a la relación que queremos investigar, y ejecutaremos la función XY graph (“gráfico XY”) del Menú Plot (“Gráficos”). PAST sólo permite seleccionar columnas adyacentes, de modo que selec-

cionaremos y arrastraremos las columnas que nos interese, con el fin de que estén una al lado de la otra. Para ello, es preciso recordar que las casillas Edit Mode y Edit Labels no deben estar marcadas. Consideremos el siguiente ejemplo, extraído de la base de datos “lanzas”. Marcando la casilla Labels (“etiquetas”) en el margen derecho de la ventana,

tendremos la posibilidad de ver en la pantalla cada punto etiquetado con su nombre (primera columna de la hoja de cálculo).

81

Page 82: Barcelo2006_Arqueologia y Estadistica

Haciendo doble click en el centro del gráfico se abre una ventana que permite modificar algunos aspectos estéticos como el tipo de letra, el reticulado, y alguna otra posibilidad, aunque éstas no sean muchas.

En la siguiente figura aparece representada la relación entre las variables LONGITUD (eje vertical) y PESO (eje horizontal) de un conjunto de puntas de lanza de bronce y hierro. Cada punto corresponde a un artefacto arqueológico, con un valor de longitud y un valor de peso. Podemos ver fácilmente que cuanto mayor es el peso, mayor es la longitud. Esta relación resulta obvia, ya que cuanto mayor sea el tamaño de un artefacto, mayor cantidad de materia prima será necesaria para su manufactura, y por tanto, más pesado será el objeto. En la gráfica, esta relación adopta una forma específica: es posible trazar una línea recta que pase muy cerca de todos los puntos.

En el gráfico constatamos que siempre que aumenta la longitud aumenta paralelamente el peso. Pero supongamos que la artesana que produce esos artefactos quiere ahorrar materia prima y recurre a una tecnología distinta: en lugar de grandes objetos macizos que necesitan demasiada materia prima, cuando se trate de fabricar objetos muy grandes, los hará huecos, mientras que continuará haciendo objetos macizos siempre y cuando sean lo suficientemente pequeños. La gráfica es ahora distinta17: 17 Lectoras y lectores pueden llevar a cabo este ejercicio por sí mismos, variando los datos originales y volviendo a calcular el gráfico con ayuda de la función XY Graph (“gráfico XY”) del Menú Plot (“gráficos”).

82

Page 83: Barcelo2006_Arqueologia y Estadistica

Los datos han cambiado y la forma en que los puntos están alineados ha cambiado también, porque la naturaleza de la relación cuantitativa es diferente. Ya no es cierto que cuanto mayor sea el peso, mayor será la longitud. Ahora, cuando aumenta el peso de un objeto, no necesariamente aumenta de forma paralela su longitud. Diremos entonces que no hay relación lineal.

Así pues, los diagramas de dispersión nos permiten describir relaciones entre pares de variables. Permiten, igualmente, hacernos una idea de la dirección de la relación, que suele expresarse en términos de su signo: relación positiva ó relación negativa. Una relación del primer tipo se registrará cuando a medida que los valores de una de las variables aumente, la otra variable también aumenta. Por el contrario, cuando los incrementos en el valor de una variable se vean acompañados por decrecimientos en la segunda, tendremos una relación negativa.

Relación lineal positiva Relación lineal negativa

El diagrama de dispersión nos explica también la forma de la relación. Hemos mencionado ya la existencia de relaciones lineales, pero no todas las relaciones son de ese tipo. Las relaciones lineales son monótonas porque a todo lo largo de la relación (condición matemática de "monotonía") a medida que varía una variable, varía la otra en proporciones constantes (que es lo que caracteriza a las relaciones lineales). En una

83

Page 84: Barcelo2006_Arqueologia y Estadistica

relación no monótona la variación no es constante a todo lo largo de la relación sino que a medida que varía una variable, varía la otra en proporciones que no son constantes.

Ejemplo de relación no monótona.

Una relación no lineal, por su parte será aquella en la que los aumentos en un sector del gráfico serían compensados con una disminución en otro sector. Por ejemplo, podemos considerar que en una necrópolis, a medida que aumenta la riqueza de una tumba aumenta el volumen de la misma, hasta llegar a determinado nivel de riqueza, en el cual aunque aumente la riqueza, la tumba tiene el mismo tamaño. Finalmente, las tumbas más ricas usan un funeral de distinto tipo (cremación), de manera tal que parece como si el volumen disminuyera a medida que aumenta la cantidad de bienes de ajuar.

Ejemplo de relación no lineal no monótona

En el gráfico anterior, la ausencia de relación lineal no implica la aleatoriedad de la representación geométrica. Podemos distinguir fácilmente unas tumbas pequeñas y pobres, unas tumbas pequeñas y muy ricas y una mayoría en el medio de tumbas en donde no existe relación de ningún tipo entre riqueza y volumen de la tumba.

84

Page 85: Barcelo2006_Arqueologia y Estadistica

El siguiente diagrama muestra un caso aún más característico de ausencia de relación. Aquí los distintos puntos se sitúan aleatoriamente. Cualquier valor de la variable x parece estar relacionado con cualquier valor de la variable y.

Ejemplo de ausencia de relación

2122232425262728293031323334353637383940414243

x

20

30

40

50y

PAST dispone de herramientas adicionales para estudiar las características de una relación entre dos variables cuantitativas. Nos interesa especialmente la posibilidad de marcar la forma aproximada de la nube de puntos. Consideremos el siguiente ejemplo, también extraído de la base de datos “lanzas” (relación peso/longitud). Marcando la casilla 95% ellipses (“elipse del 95%”), PAST nos traza el centro aproximado de la distribución, es decir, la parte del gráfico en la que se sitúan la mayoría de los datos. Observando la forma y el grado de alargamiento de esta elipse, podremos adquirir una impresión del mayor o menor grado de alineamiento de los puntos, y por tanto, de la intensidad de la relación. Si comparamos este gráfico (relación

85

Page 86: Barcelo2006_Arqueologia y Estadistica

entre la longitud máxima y el peso) con el que representa la relación entre el peso y la anchura inferior del talón de la punta de lanza:

1000 2000 3000

peso

1

2

3

anta

lsup

las diferencias saltan a la vista. En el primer caso, la elipse es mucho más alargada que en este último caso, por lo que la relación es mucho más intensa en el primer caso que en el segundo. Una condición necesaria para poder realizar con éxito el análisis de las relaciones entre variables cuantitativas es que busquemos relaciones entre objetos asociados (es decir, semejantes). Es obvio que no hay relación de ningún tipo entre la longitud y la anchura si hemos metido en la misma bolsa huevos y castañas. Si las filas de la matriz contienen objetos de distinto tipo, la relación dejará de ser bivariante, para convertirse en multivariante. Ese es el caso de la base de datos que hemos estado analizando hasta ahora. Las puntas de lanza son como mínimo resultado de dos procesos de trabajo distintos: los que permitieron fabricar puntas de lanza de bronce y los que permitieron fabricar puntas de lanza de hierro. Si además consideramos que hay casi 1000 años de diferencia entre la lanza más antigua y la más reciente del conjunto analizado, descubriremos que es evidente que buscábamos una relación entre objetos no asociados. Si existía una cierta relación entre peso y longitud es que aunque distintos, son objetos pertenecientes a un mismo tipo funcional: la punta de lanza. Sería conveniente distinguir las distintas poblaciones y estudiar la forma de la relación en cada una de ellas. PAST nos permite distinguir en el gráfico ambos tipos de puntas de lanza. Seleccionaremos la columna MATERIA y ejecutaremos la función Numbers to colors/symbols (“de números a colores/símbolos”) del Menú Edit. Como resultado, las lanzas de hierro (MATERIA =2) se señalan en rojo, y las de bronce (MATERIA =1) en negro.

86

Page 87: Barcelo2006_Arqueologia y Estadistica

A continuación volvemos a realizar el gráfico de dispersión de la misma manera que hemos hecho antes, seleccionando 2 columnas y ejecutando en el Menú Plot el comando XY graph. Los puntos corresponden a las lanzas de bronce y las cruces a las lanzas de hierro. Si queremos distinguir más completamente ambos conjuntos, marcaremos en el gráfico la casilla Convex hull (“casco o límite convexo”).

1000 2000 3000

peso

1

2

3

anta

lsup

87

Page 88: Barcelo2006_Arqueologia y Estadistica

De esta manera, PAST calcula el polígono que incluye a todas las observaciones de una misma categoría. Una explicación más detallada del ejemplo de las puntas de lanza, así como otros ejemplos de relaciones entre variables cuantitativas aparece en el Libro de Ejercicios y Problemas. Una de las medidas de la intensidad de una relación

Hemos mencionado varias veces la idea de “medir” la intensidad de una relación lineal. Los diagramas nos han permitido observar cómo cuando cambia un valor de una variable, puede cambiar el valor de otra variable. Una medida de la intensidad de esa relación será una medida del grado con que los puntos están dispersos alrededor de la recta imaginaria que pasa por el centro de la nube de puntos: si están muy próximos a ella, el grado de relación lineal será intenso; si, por el contrario, los puntos están muy dispersos alrededor de la recta; el grado de relación lineal será débil.

Una primera aproximación a esa medida nos la proporciona el cálculo de la covariación, que no es más que la media aritmética de las diferencias de cada valor con respecto a su propia media. Imaginemos que la longitud media de unos artefactos es de 23,5, y el peso medio de 1500 gr. A cada artefacto restamos la longitud medida de la longitud media. Hacemos lo mismo en el caso del peso. A continuación multiplicamos la diferencia de longitud por la diferencia de peso. La covariación será la división de la suma total de todas esas multiplicaciones por el número total de observaciones18.

El problema de este coeficiente es que es difícil de interpretar. Cuanto mayor sea, mayor será la intensidad de relación. Pero es difícil saber cuándo la covariación se refiere a una relación intensa y cuándo se refiere a una relación débil. Si ponderamos el valor de covariación teniendo en cuenta las desviaciones típicas de cada variable, entonces obtendremos el coeficiente de correlación de Pearson, cuyo valor varía de -1 a +1.

2122232425262728293031323334353637383940414243

x

20

30

40

50

y

Correlación = +1,0 Correlación = -1,0 Correlación = 0,01

Dado que en todos los casos este coeficiente de correlación es mucho más práctico y claro que el de co-variación, nos basaremos en él siempre que deseemos calcular la intensidad de una relación. Para realizar estos cálculos en PAST sólo es necesario

18 En la práctica (como vimos en el caso del cálculo de la varianza) el denominador es n-1 y no n, por razones que no vienen ahora al caso.

88

Page 89: Barcelo2006_Arqueologia y Estadistica

seleccionar al menos dos columnas y ejecutar la función Correlation (“correlación”) del Menú Statistics. Los resultados aparecen en forma de matriz.

LONGMAX LONGTALO ANCHOMAX ANTALSUP LONGMAX 2,56371E-919 0,000345752 0,000299229 LONGTALO 0,781952 0,000448849 0,0708632 ANCHOMAX 0,53773 0,529015 0,0566635 ANTALSUP 0,542456 0,288649 0,303816 En esta matriz de resultados, la diagonal corresponde a la correlación de cada variable consigo misma. En la ventana de resultados de PAST estas casillas aparecen en blanco, si bien debiera aparecer el valor 1. La correlación de una variable consigo misma es siempre igual a 1 (relación lineal máxima). Como el valor siempre es el mismo, no suele ser tenido en cuenta, y por eso PAST no lo proporciona. La matriz de correlaciones que muestra el programa no es simétrica, si bien el valor del coeficiente de correlación sí lo es. Es decir, la correlación de longitud máxima con la longitud del talón es igual a la correlación de la longitud del talón con la longitud máxima. Si la matriz de resultados de PAST no es simétrica es porque el programa ahorra espacio y nos proporciona el máximo de información, obviando la que ya se conoce. Así, en la mitad inferior de la tabla (en negrita) aparecen los coeficientes de correlación propiamente dichos (que son simétricos, aunque no aparezca representado su valor simétrico). En la mitad superior de la matriz (en menor tamaño) aparece la probabilidad de la hipótesis nula (la relación es aleatoria, esto es, la covariación es debida únicamente al azar). Así, el coeficiente de menor valor es el que se refiere a la relación entre la anchura superior del talón de las

19 Se trata de un número en notación exponencial científica. Como el número que sigue al exponencial (letra E) es negativo, entonces moveremos el decimal a la izquierda nueve posiciones. En el caso de la cifra 2,56371E-9 tendremos el número decimal 0,00000000256371.

89

Page 90: Barcelo2006_Arqueologia y Estadistica

lanzas con la longitud del talón (correlación= 0,288). A este grado de intensidad de la relación lineal le corresponde una probabilidad de la hipótesis de no relación sistemática de 0,070. Lo leeremos como hicimos en el caso de la normalidad de una distribución y como haremos siempre que queramos contrastar una hipótesis estadística: Si la significación probabilística de la hipótesis nula nos indica una probabilidad menor de 0,050 (5%), diremos que las dos variables están relacionadas. Si por el contrario la probabilidad es un número mayor de 0,050 concluiremos que las columnas seleccionadas NO están relacionadas linealmente.

El coeficiente de correlación de Pearson sólo mide la intensidad de una relación lineal entre aquellos fenómenos o procesos representados por las variables seleccionadas. Si ese coeficiente está próximo a 0 (y la probabilidad de la hipótesis de norRelación es lo suficientemente baja, menor de 0,050), entonces NO habrá relación lineal. Esto no quiere decir que no haya relación, simplemente, que ésta no es lineal. Las relaciones no monótonas o las relaciones no lineales son formas muy complejas de asociación, muy difíciles de detectar y aún más de interpretar. Esa es la razón por la que en la mayoría de estudios estadísticos sólo se busca la existencia o ausencia de relación lineal. El motivo es muy claro: una relación lineal nos ayuda a explicar una relación causa-efecto de una manera que cualquier otro tipo de relación no puede. Así por ejemplo, una relación no-lineal afirma que una causa provoca un efecto unas veces, pero otras no. Esto es claramente una mala explicación. Imaginemos que el estatus social de una persona a veces está reflejado en su tumba por la cantidad de ajuar, pero a veces por la presencia de cierto tipo específico de objeto. En esas circunstancias sería imposible predecir el estatus social basándose en la observación arqueológica, porque en ocasiones el efecto es uno y en otras ocasiones es otro. Ciertamente, el mundo real es como es debido a la presencia de relaciones no-lineales, pero una explicación debe ser siempre lo más simple posible. De ahí la importancia de la linealidad. Dejaremos para otras publicaciones (volumen 2: Análisis Multivariante, volumen 5: Seriación y Predicción) el tema de estas formas complejas de relación.

La importancia explicativa de las relaciones lineales para entender mecanismos causales viene reforzada por otra medida de la intensidad de una relación lineal, derivada del coeficiente de Pearson. Se trata del coeficiente de determinación, para cuyo cálculo nos limitaremos a elevar al cuadrado el coeficiente de Pearson:

coef. de determinación = r 2

En muchos casos su significado es más intuitivo que el del coeficiente de Pearson. Indica la cantidad de cambios en la variable dependiente que han sido provocados por la independiente y por nadie más. El valor de este coeficiente de determinación suele multiplicarse por 100 para situarlo en una escala porcentual, que recibe el nombre de porcentaje del nivel de explicación.

Por ejemplo, supongamos el caso en el que la relación entre antigüedad (fecha en años de calendario) y longitud máxima de un objeto el coeficiente de correlación de Pearson sea de 0,97. Este valor nos indica que debiera existir una fuerte relación positiva entre la datación y la longitud de unos artefactos: cuanto más recientes sean los artefactos, más largos serán. Si elevamos al cuadrado ese valor para obtener su coeficiente de determinación:

90

Page 91: Barcelo2006_Arqueologia y Estadistica

r = 0,97; r2 = 0,972 = 0,94

este resultado nos dice que la mayor parte de la variación registrada (el 94%) en la longitud medida de los artefactos, se debe única y exclusivamente a las variaciones de la datación de esos artefactos.

Si por el contrario el coeficiente de Pearson entre datación y longitud fuese de 0,4, habríamos concluido la existencia de una relación poco intensa entre esas dos variables. Elevando al cuadrado 0,4 obtendremos el coeficiente de determinación, que en este caso sería igual a 0,16 (0,42=0,16): si bien existe una cierta relación entre ambas variables, la fecha de manufactura de esos artefactos sólo explica el 16% de la variación en la longitud de los artefactos fabricados. Este análisis de la correlación lineal está basado en el supuesto previo que las dos variables cuya relación lineal se investiga se distribuyan normalmente. En este sentido, las observaciones deben ordenarse simétricamente alrededor de una medida de tendencia central, y los valores extremos no deben superar el 5% del total de los datos. Esto es así porque la técnica utiliza como parámetros fundamentales la media, la varianza y la desviación típica de cada variable. En realidad lo que hace el coeficiente es estimar la importancia de las diferencias de las medias, como si esta medida de tendencia central fuese un resumen adecuado de todas las observaciones en la variable. Si la variable no está normalizada, entonces el promedio de los valores no puede usarse como un ejemplo paradigmático del valor típico de esa variable. En otras palabras, sólo podremos relacionar linealmente fenómenos que hayamos demostrado previamente son resultado de una intención expresa, y que además expresan convenientemente la relación entre factor causal y expresión material de la consecuencia intencional de dicho factor causal. De hecho, en la mayoría de los casos, la ausencia de relación entre dos variables puede ser debida a que una o las dos no son el resultado de una y sólo una acción. Antes de llevar a cabo el estudio de la correlación, deberemos analizar por separado cada una de las variables y analizar su grado de ajuste a la normalidad (cf. capítulo anterior), así como su naturaleza explicativa. Es preciso tener en cuenta que el estudio de relaciones explicativas sólo puede llevarse a cabo en una población de datos que sabemos están asociados causalmente. Si estamos relacionando poblaciones de objetos no asociados (o cuya posible asociación se desconoce) o si esa asociación es indirecta, no es que “no esté permitido” usar un coeficiente determinado, sino que el estudio mismo de la relación no proporciona ninguna información. Debemos tener bien presente que no sería lícito correlacionar la cantidad de ratones en una ciudad con la cantidad de matrimonios. Es posible que sea cierto que cuantos más matrimonios, más ratones, pero ¿qué tiene que ver? ¿Por qué debiéramos estudiar la relación entre el borde del labio de unas vasijas encontradas en cierto poblado prehistórico y la cantidad de restos óseos animales en el mismo poblado? Relacionar todo con todo, por la única razón que son medidas disponibles para el análisis no nos lleva a ningún lado. Tendremos que averiguar si la longitud del borde de las vasijas está relacionada con la altura total de esas vasijas, porque esa relación métrica posiblemente defina una forma que es resultado de un proceso de trabajo intencional dirigido a la fabricación de instrumentos que se usaron de modo concreto. Del mismo modo, puede ser importante estudiar la relación existente entre la cantidad de ajuar y la diversidad de objetos en tumbas masculinas contemporáneas de una misma necrópolis. No tiene sentido estudiar esa relación en todas las tumbas, masculinas y

91

Page 92: Barcelo2006_Arqueologia y Estadistica

femeninas, ni en todos los períodos, porque las normas sociales constituyen acciones intencionales que tienen unos condicionantes específicos. Como veremos a continuación, existen coeficientes alternativos al coeficiente de Pearson que no están basados en la condición de normalidad. Sin embargo, esto no quiere decir que si los datos no son normales, debemos cambiar el procedimiento estadístico y ya está. Los datos pueden no ser simétricos con respecto a una tendencia central; ello puede obedecer a varias razones que deben ser conocidas antes de aplicar las nuevas pruebas. Por ejemplo, el proceso de medida puede ser inexacto o poco fiable dada la naturaleza de los datos estudiados. Cuando no conocemos ni la media ni la desviación típica de unas medidas podemos aplicar el coeficiente de correlación de Spearman, que no utiliza las medidas de tendencia central usuales, sino tan sólo las diferencias de magnitud entre una variable y otra. Para calcularlo, se deben sustituir los valores reales medidos por su posición ordinal. Es decir, en lugar de 1,34 ó 36,13 ó el número que sea, ordenaremos todos los valores originales del menor al mayor y les asignaremos su rango o número de orden: 1º, 2º, 3º, 4º, 5º, etc. Valores iguales debieran tener el mismo rango, aunque su posición en la secuencia sea distinta. Si, por ejemplo, encontramos tres valores iguales a 3,5 a partir del 5º rango, asignaremos los rangos que les correspondan (por ejemplo, 6, 7 y 8), sumaremos esos tres rangos (6+7+8) y dividiremos entre el número de valores iguales (3). A cada uno de los tres valores le corresponderá el rango 7. El siguiente valor se situará a partir del rango 9. La idea es pues ordenar todos los datos de ambas variables según esos rangos ordinales, calculándose a continuación qué variable tiene rangos más

92

Page 93: Barcelo2006_Arqueologia y Estadistica

bajos (valores menores) ó más altos (valores mayores). El coeficiente de Spearman no es más que el coeficiente de correlación de los rangos ordinales. La mayoría de las propiedades del coeficiente de Pearson siguen cumpliéndose en el caso de esta correlación ordinal, incluyendo la manera de interpretar el resultado, que oscila entre +1 y -1 con 0 indicando la ausencia de relación lineal. Alternativamente, el coeficiente de Kendall relaciona todos los pares (x, y) posibles y los califica como “concordantes” o “discordantes”. Los pares son concordantes si varían en la misma dirección (los dos aumentan, o los dos disminuyen) y discordantes en el caso contrario. El coeficiente es igual al número de pares concordantes menos el número de pares discordantes, ponderado de manera que el resultado se sitúe también en el intervalo +1 -1, con una lectura idéntica a la de los coeficientes de Pearson y de Spearman. A diferencia de lo que sucedía en el caso del cálculo del coeficiente de Pearson, en el que podíamos seleccionar dos o más columnas y PAST nos proporcionaba una matriz de coeficientes (la mitad inferior para el coeficiente y la mitad superior para la probabilidad de la hipótesis de correlación), en el caso de los coeficientes de Spearman y de Kendall, PAST sólo permite seleccionar dos columnas adyacentes. Los resultados aparecen en una ventana específica. El coeficiente de correlación de Spearman aparece mencionado como Spearman’s rs y el de Kendall como Kendall’s Tau. El programa proporciona el valor del coeficiente (que varía entre +1 y -1) y la probabilidad de la hipótesis de no relación lineal (p-uncorr). Veamos un ejemplo muy sencillo. Estudiaremos a continuación la relación entre distintos componentes químicos de una muestra de vidrios romanos obtenida por análisis arqueométrico (archivo “vidrio”). Consideremos, por ejemplo, la relación entre las distintas proporciones de sodio y aluminio que pueden aparecer. Arrastraremos la columna NA para ponerla al lado de la columna AL, seleccionaremos ambas columnas y ejecutaremos la función del Menú Plot XY graph. Es fácil de ver que la nube de puntos no es alargada ni se dispone linealmente. Esto quiere decir que probablemente no hay relación entre ambas composiciones, o que de existir, su intensidad es muy baja. Dado que sólo una de las variables ha superado previamente la prueba de Shapiro-Wilk (normalidad) calcularemos el coeficiente de correlación de Spearman (Menú Statistics Spearman/Kendall).

93

Page 94: Barcelo2006_Arqueologia y Estadistica

Los resultados son los de esperar. El valor del coeficiente de Spearman (Spearman’s rs = 0,18979) está asociado a una probabilidad de la hipótesis de no relación bastante baja (p-uncorr = 0,0626), pero no lo suficiente como para rechazarla. Tanto en el caso del coeficiente de Spearman como en el de Kendall, la probabilidad de la hipótesis de no relación es superior a 0,05. Por lo tanto concluiremos que no hay relación lineal entre ambas composiciones: la proporción de aluminio no determina ni ayuda a predecir la cantidad de sodio en la masa de vidrio, ni viceversa. Consideremos ahora el caso de la variación en la composición de hierro y magnesio. El diagrama de dispersión correspondiente es: La nube de puntos y la elipse del 95% son mucho más alargadas. Los coeficientes de correlación de Spearman y Kendall, por su parte, muestran que la probabilidad de la hipótesis de no relación es prácticamente nula20, y que el valor de los coeficientes (0,69 el coeficiente rs de Spearman y 0,54 el coeficiente Tau de Kendall) es bastante alto. 20 Una vez más, se trata de números en notación exponencial científica. Como el número que sigue al exponencial (letra E) es negativo, entonces moveremos el decimal a la izquierda quince posiciones. 7,3828E-15 equivale aquí a 0,000000000000073828.

94

Page 95: Barcelo2006_Arqueologia y Estadistica

Por consiguiente, en la mayoría de muestras analizadas, un contenido alto de hierro va acompañado de un alto contenido de magnesio. Aunque no hayamos podido concluir que la cantidad de esos componentes está intencionalmente generada durante el proceso de producción, parece que sí existe una intencionalidad, no en la cantidad absoluta de los componentes, sino en la cantidad relativa de unos con otros.

En el Libro de Ejercicios y Problemas podrán encontrarse otros casos de aplicación práctica de estas técnicas y procedimientos.

95

Page 96: Barcelo2006_Arqueologia y Estadistica

Relación entre variables cualitativas y cuantitativas

En este punto del libro vamos a tratar las relaciones entre variables cuantitativas y factores cualitativos. En este caso, la variable numérica representará cierta propiedad cuantitativa del efecto observado, mientras que el factor causal tendrá tantos niveles como hipótesis cualitativamente diferentes hayamos podido argumentar.

PAST tiene una manera muy particular de representar los niveles de un factor cualitativo. Otros programas de cálculos estadísticos, como SPSS, se limitan a representarlos como una variable adicional, esto es, una columna en la que cada nivel tiene una etiqueta numérica: 1= hombre; 2= mujer. El programa contiene entonces las funciones necesarias para dividir los datos en dos poblaciones distintas y comparar sus valores: la media de las tumbas de los hombres con la media de las tumbas de mujeres, y así sucesivamente. Eso no es posible en la versión actual de PAST. Al usar este programa debemos dividir los datos en tantas poblaciones como niveles tenga el factor, y cada población se tendrá que representar como una columna. Necesitaremos entonces una columna para las tumbas masculinas, otra columna para las tumbas femeninas, o bien, una columna para los contenedores de agua, otra columna para los contenedores de vidrio, etc.

La mejor manera de adaptar los datos originales al formato necesario para comparar niveles de un factor es usando el programa Excel, seleccionando allí los datos que tengan el mismo valor de la variable cualitativa y pegándolos como una columna nueva en un nuevo archivo de PAST.

Es lo que hemos hecho con el archivo “lanzas”. Aquí los niveles del Factor “Materia” son dos: “bronce” y “hierro”. En Excel (Menú “Datos” “Filtra” “Filtro Automático”) seleccionaremos el valor MATERIA=1 (bronce) y pegaremos todas las observaciones así seleccionadas en un nuevo archivo de PAST (“lanzas2”). Lo mismo haremos con el valor MATERIA=2, añadiendo la nueva columna al lado de la anterior. Obviamente, deberemos distinguir el nombre de la columna indicando que se trata de lanzas de hierro o de bronce. En este caso nos hemos limitado a añadir un 1 ó un 2 para distinguir si se trata del conjunto de medidas de las lanzas de bronce o de hierro.

96

Page 97: Barcelo2006_Arqueologia y Estadistica

La mejor manera de empezar el análisis de la relación entre una variable cualitativa (factor) y una variable cuantitativa es usando un gráfico. PAST nos permite representar la variabilidad cuantitativa de cada nivel de un factor mediante un diagrama de caja. Hemos arrastrado la columna que corresponde al peso de las lanzas de bronce (“peso1”) junto a la columna que contiene los datos del peso de las lanzas de hierro (“peso2”). A continuación seleccionamos ambas y ejecutamos la función Plot Box plot (“gráfico de Caja”). Para entender este gráfico, veamos con más detalle los distintos valores del peso de las lanzas de bronce (“peso1”): 67,70 204,50 170,30 176,80 543,20 628,20 401,00 302,40 623,50 978,90 607,90 165,60 307,90 192,40 524,70 111,20 178,70 273,40 1304,40 238,80 Si los ordenamos de menor a mayor tenemos: 67,70 111,20 165,60 170,30 176,80 178,70 192,40 204,50 238,80 273,40 302,40 307,90 401,00 524,70 543,20 607,90 623,50 628,20 978,90 1304,40 Hay 20 medidas. Busquemos la punta de lanza cuyo valor es tal que el 25% de todas las observaciones es menor y el 75% es mayor. Como el 25% de 20 es 5, buscaremos la quinta punta de lanza con menor peso (176,80). Del mismo modo, buscaremos la punta de lanza cuyo valor es tal que el 25% de todas las observaciones es mayor y el 75% es menor. Como el 25% de 20 es 5, buscaremos la quinta punta de lanza con mayor peso (607,90). El gráfico de caja usa estos dos valores para dibujar la caja central, es decir, un rectángulo cuyo lado inferior se sitúa en el punto 176,80 del eje vertical y cuyo lado superior se sitúa en el punto 607,90 del mismo eje. Como es lógico, cuanta mayor diferencia exista entre estos dos valores, más alargada será la caja, lo que quiere decir

97

Page 98: Barcelo2006_Arqueologia y Estadistica

que mayor será la dispersión y la variabilidad de la mayoría de los datos (dentro de la caja se coloca el 50% de todas las observaciones). En el centro de la caja aparece marcada la mediana, y en los extremos de cada gráfico la longitud de los segmentos a lado y lado de la caja representa la diferencia que hay entre los valores que delimitan el intervalo central y los valores extremos de cada serie. Resulta fácil de ver en el gráfico anterior que la variabilidad de peso de las puntas de lanza es prácticamente idéntica en cada una de las circunstancias señaladas por los niveles del factor Materia. La longitud de la caja y la ubicación de la mediana es prácticamente igual, y sólo se diferencia por la aparición de un valor extremo (una lanza muy pesada) entre las de hierro. Este tipo de gráfico puede realizarse para todos los niveles de un factor como sea necesario, aunque el número de observaciones en cada uno no sea igual. Por ejemplo, en el archivo “helenístico”, el factor “Cronología” tiene 28 niveles que corresponden a 28 períodos sucesivos: 1) 115-50 a.n.e., 2) 115-86 a.n.e., 3) 125-86 a.n.e., 4) 150-110 a.n.e., 5) 150-125 a.n.e., 6) 150-50 a.n.e., 7) 150-86 a.n.e., 8) 160-130 a.n.e., 9) 175-150 a.n.e., 10) 190-160 a.n.e., 11) 200-125 a.n.e., 12) 200-150 a.n.e., 13) 225-165 a.n.e., 14) 225-175 a.n.e., 15) 225-180 a.n.e., 16) 225-190 a.n.e., 17) 250-175 a.n.e., 18) 250-215 a.n.e., 19) 250-225 a.n.e., 20) 275-175 a.n.e., 21) 280-250 a.n.e., 22) 300-200 a.n.e., 23) 300-215 a.n.e., 24) 300-250 a.n.e., 25) 300-265 a.n.e., 26) 325-250 a.n.e. , 27) 325-260 a.n.e., 28) 325-275 a.n.e. No es relevante aquí si los períodos tienen la misma duración o no. Simplemente deseamos comparar si la composición de la pasta de unas cerámicas helenísticas del Ágora de Atenas varía con respecto al factor “Cronología”. Con ayuda de Excel y usando el procedimiento de selección antes explicado seleccionaremos tres de esos niveles: uno de los más antiguos (300-265 a.n.e.), el más reciente (115-50 a.n.e.) y uno intermedio (250-215 a.n.e.). Compararemos la presencia de hierro y calcio como materiales traza en la composición (partes por millón). Los datos organizados en niveles aparecen en el archivo “helenístico2”. Arrastraremos las distintas columnas que muestran la variabilidad de la composición de hierro (FE) de manera que sean contiguos los tres niveles cronológicos a analizar. La función Plot Box Plot nos proporcionará los gráficos que necesitamos.

98

Page 99: Barcelo2006_Arqueologia y Estadistica

Relación cronología /hierro Relación cronología /calcio

1 2 3 4

Sample

4E4

5E4

6E4

7E4

1 2 3 4

Sample

1E5

2E5

YY

Las tres columnas se ordenan de la más reciente (izquierda) a la más antigua (derecha). Vemos fácilmente que no parece haber una relación entre la composición y la cronología, ya que la variabilidad (longitud de la caja) no varía a medida que se pasa de un período a otro (es decir, varía la cronología). Las medianas de la cantidad de hierro o de la cantidad de calcio están aproximadamente a la misma altura, lo que significa que estas propiedades no covarían con la variable cronología. Como ya hemos visto en capítulos anteriores, los diagramas sólo nos dan una primera impresión de la variabilidad y, en este caso, de la relación entre factor y propiedad cuantitativa. Necesitamos contrastar de manera rigurosa la hipótesis que afirme que NO hay diferencias cuantitativas entre los distintos niveles del factor considerado. Viendo los gráficos creemos que no hay diferencias entre el peso de las lanzas de hierro y las de bronce, o entre la composición química de las cerámicas helenísticas de tres períodos cronológicos diferentes. Pero, ¿es cierta esa suposición? Se dice que existe una relación o dependencia entre una variable cuantitativa y un factor cualitativo cuando la media m1 de los valores cuantitativos en el nivel n1 del factor es diferente del valor medio m2 de la misma variable cuantitativa en el nivel n2. Se llega a esta conclusión cuando la diferencia de las medias observadas m1 y m2 es significativa. Se dice que no existe relación o que hay independencia entre una variable cuantitativa y un factor cualitativo cuando la media m1 de los valores cuantitativos en el nivel n1 del factor es igual al valor medio m2 de la misma variable cuantitativa en el nivel n2. Se hace esta afirmación cuando la diferencia de las medias observadas m1 y m2 no es significativa. Aquí no hay posibilidad de caracterizar la naturaleza de la relación ni medir su intensidad. No podemos decir si ésta es lineal o no lineal, positiva o negativa. Cuando una de las variables implicadas en la relación es cualitativa, lo único que podemos decir es si hay o no hay relación.

99

Page 100: Barcelo2006_Arqueologia y Estadistica

Cuando estudiemos un factor con tan sólo dos niveles y las observaciones de cada nivel del factor se distribuyan normalmente21 usaremos una prueba de comparación de medias denominada prueba t de Student22. Esta prueba es muy sencilla: consiste en calcular el cociente de la diferencia de las medias y la diferencia de las desviaciones típicas. Es importante tener en cuenta que la prueba t de Student sólo es aplicable cuando las varianzas son iguales. Necesitamos, por tanto, comparar primero las varianzas y una vez que éstas son adecuadamente similares, comparar las medias. La prueba de comparación de varianzas es la prueba F, que consiste en sacar el cociente de la varianza mayor entre la menor de las dos poblaciones comparadas. Por lo tanto, si la prueba F es negativa, entonces deberán usarse con mucha precaución los resultados de la prueba t. En PAST moveremos las columnas que representan cada uno de los niveles del factor de manera que las columnas a relacionar queden una al lado de la otra. Habiendo seleccionando las dos columnas ejecutaremos la función Statistics F and t tests (two samples) (“pruebas F y t (dos muestras)”). El programa nos proporciona en una ventana de resultados el valor de los estadísticos F y t y la probabilidad de que las varianzas o las medias de las poblaciones originales sean las mismas. En la ventana de resultados aparece además un resultado de t basado en el supuesto de no igualdad de varianzas (Uneq. var. t) (prueba de Welch), que debe usarse en ese caso. Vamos a interpretar los resultados que aparecen en esa ventana. En general, y como ya hicimos en el caso de las pruebas de normalidad, no nos interesa tanto el valor de dichas pruebas, sino la interpretación de dichos resultados en términos de la hipótesis nula que afirma la ausencia de relación y lo aleatorio de las diferencias observadas en la variable cuantitativa. Así, usando los datos del archivo “lanzas2”, vemos que las lanzas de bronce tienen un peso medio (mean –“media”-) de 400,8 gr. frente a un peso medio de las lanzas de hierro de 484,97. Antes de comparar esas medias, compararemos las varianzas respectivas. La varianza es mayor en el caso del peso de las lanzas de hierro

21 La prueba de Shapiro-Wilk para una distribución con respecto a la distribución normal puede proporcionar una idea acerca de este supuesto. Esa prueba ya ha sido explicada detalladamente en el capítulo sobre la Ley Normal. 22 No es que esta prueba fuese diseñada por un “estudiante”. Su nombre se debe a que quien la inventó, el señor Gossett, trabajaba para la marca de cervezas Guinness, y ésta obligaba a sus empleados a publicar sus investigaciones con un apodo.

100

Page 101: Barcelo2006_Arqueologia y Estadistica

que en el caso de las de bronce; ello es indicio que la variabilidad de estas últimas es mayor. En este caso la prueba F muestra que la hipótesis de igualdad de varianzas no se cumple -p(same variance)- puesto que el resultado es de 0,024. Para interpretar el resultado recurriremos al mismo principio general que hemos mencionado repetidamente: Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que ambas varianzas son distintas. Si por el contrario p(same variance) es un número mayor de 0,050 concluiremos que los datos observados constituyen un subconjunto de una población general, cuya varianza es igual. El valor de la prueba t que proporciona el programa no sería, pues, todo lo fiable que sería de desear, ya que no se cumple la condición previa de igualdad de varianzas. PAST nos ofrece la Prueba de Welch para contrastar la significación de t en estos casos. Nos fijaremos en el resultado Uneq. Var. T (“prueba t en el caso de varianzas distintas”). En este caso, para un valor t = -0,61081, la probabilidad de la hipótesis de no relación es de 0,54. Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que ambas medias son distintas, y por tanto que hay relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa tiene valores significativamente distintos en los distintos niveles del factor. Si por el contrario p(same mean) es un número mayor de 0,050, concluiremos que los niveles del factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación entre el factor y la propiedad cuantitativa. Concluiremos que en este caso del peso de lanzas de hierro y bronce el valor de p no es claramente superior a 0,050, por lo que no hay diferencias entre ambas muestras, y por tanto, tampoco hay relación pues la variable cualitativa (materia) no co-varía con el peso de los artefactos. Las diferencias observadas del factor cualitativo no explican las diferencias cuantitativas. PAST nos ofrece una función estadística alternativa que ayuda a interpretar los resultados de la prueba t cuando el número de observaciones es muy pequeño (inferior a 15). La prueba permutation t test (“prueba t de permutación”) que se indica en la última fila de la ventana de resultados compara el estadístico t observado (diferencia normalizada entre medias) con el estadístico t calculado en 1000 (u otro valor seleccionado por el usuario) repeticiones aleatorias de pares. Esta prueba proporciona resultados más exactos que la prueba t genérica en el caso de distribuciones no normales o muestras pequeñas. En este caso su resultado es perfectamente coincidente con el obtenido por la prueba usual. Así, en el ejemplo antes mencionado se demostraría que no hay relación entre el peso y la materia en la que se fabricaron las lanzas. Supongamos que no tenemos los datos reales que describen cada nivel del factor considerado, pero sí alguna información relativa al mismo. Por ejemplo, en determinada área geográfica una quinta parte de los poblados prehistóricos identificados destacan de los demás por su gran superficie, mientras que en un área geográfica vecina ninguno destaca, sino que todos los poblados parecen tener una superficie muy homogénea. Dado que la información procede de prospecciones, no disponemos de los valores

101

Page 102: Barcelo2006_Arqueologia y Estadistica

concretos de superficie construida para cada uno de los poblados de cada una de las áreas. PAST dispone de un programa específico que nos permite experimentar a gusto del usuario situaciones como la anterior. Sin necesidad de seleccionar ninguna columna ejecutaremos la función Statistics F and t tests from parameters (“Pruebas F y t a partir de parámetros”). En nuestro caso, Sample 1 (“muestra 1”) y Sample 2 (“muestra 2”) corresponden a los dos niveles del factor “Área geográfica”. Hemos visto que en el primer grupo unos asentamientos se distinguían de la mayoría. Eso significa que su varianza será mayor que en el segundo nivel, donde todos los poblados tienen una magnitud semejante. Empecemos a experimentar. En la región donde las diferencias en la superficie de los poblados no son muy grandes (poblados de 1 hectárea junto a otros de 1,2, 0,8 ó incluso alguno de 0,4), la media y la varianza serán muy pequeñas (en un caso la varianza sería de 1 y en el otro de 0,15). Si las diferencias son muy grandes (poblados de 0,5 hectáreas junto a otros de 5 ha), la media y la varianza serán mucho mayores (en este caso las varianzas serían 3 y 2,1 respectivamente). ¿Cuan grande ha de ser la diferencia de medias y varianzas para que los niveles del factor sean diferentes y podamos distinguir diferencias significativas entre el tamaño de los poblados en las dos áreas? Introduzcamos algunos valores en la ventana del programa El primer supuesto es que en una región (“sample 1”) haya 8 poblados bastante distintos entre sí (la extensión de los poblados tienen una varianza de 2,1) frente a otra región (“sample 2”) con 6 poblados mucho más semejantes entre sí (la extensión de los poblados tienen una varianza de 0,15). En estas circunstancias, ¿cuándo las diferencias serían significativas? Cuando la diferencia en la extensión media de los poblados en cada región sea superior a 2 kilómetros cuadrados. Fijémonos que la hipótesis de no relación (probabilidad de medias iguales) es claramente inferior a 0,05, tanto en el caso de que se asuman varianzas iguales como en el caso de que las varianzas demuestren ser

102

Page 103: Barcelo2006_Arqueologia y Estadistica

distintas (como es este supuesto). Es decir, la relación entre la localización geográfica (factor cualitativo) y la extensión construida (variable cuantitativa) depende de la variabilidad entre regiones del mismo modo que de la variabilidad existente dentro de cada región. Lectores y lectoras pueden experimentar libremente, para aprender en qué condiciones los dos niveles de un factor demuestran estar relacionados con diferencias significativas en cierta propiedad cuantitativa. Se puede variar la diferencia entre niveles (diferencia de medias), la diversidad dentro de cada nivel (varianza) y la cantidad de observaciones. Es fácil de ver que la diferencia de medias es mucho más relevante para determinar una relación entre factor y propiedad cuantitativa que la diferencia de varianzas o la distinta cantidad de datos de cada uno de los niveles considerados. Una última variante de la prueba t de Student, es aquella que se denomina “prueba para datos apareados”. Supongamos que estamos midiendo la forma y la magnitud de unas fosas, y disponemos de dos medidas de anchura obtenidas en ambos extremos. O supongamos que para medir la composición mineralógica de la pasta de ciertas cerámicas hemos analizado por separado dos muestras de cada recipiente. En estos casos los datos no son independientes, ya que lo que en el fondo estamos comparando son dos medidas de la misma entidad, por lo que requieren de una ligera modificación del cálculo de significación de la t. Siempre que estudiemos diferencias dentro de una misma entidad (por ejemplo la diferencia entre el lado izquierdo y el derecho, la diferencia entre los extremos de un objeto, etc.) ejecutaremos la función Statistics Paired tests (“estadísticas pruebas apareadas”), que se llevan a cabo y se interpretan exactamente igual que como hemos visto hasta ahora. Antes de pasar al caso en que el factor cualitativo tenga más de dos niveles, estudiaremos aquellas circunstancias en las que las observaciones no se distribuyen normalmente. La condición de aplicación de las pruebas que acabamos de desarrollar es que cada la variable cuantitativa que se está relacionando se distribuya normalmente en cada una de las subpoblaciones definidas por los niveles del factor cualitativo. Es decir, la extensión de los poblados debe ser una variable normalizada en la región 1 y en la región 2, el peso debe estar normalizado en las lanzas de bronce y en las lanzas de hierro, la cantidad de ajuar debe estar normalizada en las tumbas masculinas y en las tumbas femeninas, etc. Evidentemente, si los valores medidos de la propiedad cuantitativa no son simétricos alrededor de una medida de tendencia central, la diferencia entre las medidas de tendencia central para cada nivel del factor no tendrá ningún sentido. No podremos utilizar ni la prueba F ni la prueba t. Tal y como se argumentó en el caso de las relaciones cuantitativas, es importante que antes de analizar la relación entre dos poblaciones de datos no normales nos planteemos la causa de dicha normalidad. Nunca insistiremos lo suficiente en el hecho que las pruebas de hipótesis estadísticas no pueden hacerse con cualquier población de datos, sino con aquellas evidencias arqueológicas que se sepa a ciencia cierta que son la consecuencia de determinada acción intencional, y que su variabilidad no está afectada por otros factores. En ocasiones, sin embargo, el estudio de la normalidad no puede hacerse y no sabemos si las medidas se distribuyen simétricamente alrededor de una medida de tendencia central. En esas circunstancias la prueba U de Mann-Whitney puede usarse para comprobar si las medianas (y no las medias) de dos niveles de un factor son diferentes, siempre y cuando cada uno de los niveles tenga más de 7 observaciones. Esta prueba es no paramétrica, lo que significa que las distribuciones pueden tener cualquier tipo de distribución. Funciona asignándoles un rango ordinal a cada una de las medidas. Es lo mismo que hicimos en el caso del coeficiente de correlación de Spearman. Es decir, en

103

Page 104: Barcelo2006_Arqueologia y Estadistica

lugar de 1,34 ó 36,13 ó el número que sea, ordenaremos todos los valores originales del menor al mayor y les asignaremos su rango o número de orden: 1º, 2º, 3º, 4º, 5º, etc. Valores iguales debieran tener el mismo rango, aunque su posición en la secuencia sea distinta. Si, por ejemplo, encontramos tres valores iguales a 3,5 a partir del 5º rango, asignaremos los rangos que les correspondan (por ejemplo, 6, 7 y 8), sumaremos esos tres rangos (6+7+8) y dividiremos entre el número de valores iguales (3). A cada valor le corresponderá, por consiguiente el rango 7. El siguiente valor se situará a partir del rango 9. La idea es pues ordenar todos los datos de ambas variables según esos rangos ordinales, calculándose a continuación qué variable tiene rangos más bajos (valores menores) ó más altos (valores mayores). La prueba de Mann-Whitney comparará los rangos medios de los valores en cada nivel del factor. Así, si el rango medio de uno de ellos es mayor que el otro querrá decir que los valores de la propiedad cuantitativa en ese nivel son mayores que en el otro nivel.

Seleccionando dos columnas adyacentes y ejecutando la función Statistics Mann-Whitney, PAST nos proporcionará el resultado de la prueba y la probabilidad de la hipótesis de no relación (diferencias aleatorias entre los rangos medios). Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que los rangos promedios son distintos en cada nivel, y por tanto hay relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa tiene valores significativamente distintos en los distintos niveles del factor. Si por el contrario p(same) es un número mayor de 0,050 concluiremos que los niveles del factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación entre factor y propiedad cuantitativa. En el ejemplo que aquí aparece (archivo “lanzas2”), la probabilidad de la hipótesis nula es bastante alta, por lo que no existe relación entre la materia de la punta de lanza y la longitud máxima de las puntas, ya que no se registran diferencias apreciables entre los valores de longitud máxima medidos en uno y otro nivel del factor “materia”. Mientras que las pruebas F y t comparaban los estadísticos univariantes que caracterizaban cada uno de los niveles del factor, la prueba de Kolmogorov-Smirnov

104

Page 105: Barcelo2006_Arqueologia y Estadistica

(dos muestras) compara la forma global de la distribución de los valores, sin asumir que alguna de ellas esté normalizada. Esta prueba puede usarse para comprobar si dos distribuciones independientes de datos numéricos no divididos en intervalos son distintas. Si lo que se desea es comprobar si los valores de un nivel son mayores o menores que los de otro nivel habrá de usarse la prueba anteriormente citada de Mann-Whitney. El procedimiento para la prueba de Kolmogorov-Smirnov en PAST es semejante al de las restantes pruebas de hipótesis estadísticas. Arrastrando y moviendo las columnas que nos interese y seleccionando finalmente dos columnas adyacentes, ejecutaremos la función Statistics Kolmogorov-Smirnov (two samples).

Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que las distribuciones de valores son globalmente distintas en cada nivel, y por tanto que hay relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa tiene valores significativamente distintos en los distintos niveles del factor. Si por el contrario p(same) es un número mayor de 0,050, concluiremos que los niveles del factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación entre factor y propiedad cuantitativa. Tal y como veíamos en el ejemplo de la prueba de Mann-Whitney, en este ejemplo la probabilidad de la Hipótesis Nula es bastante alta, por lo que no podemos concluir que exista relación entre la materia de la punta de lanza (factor) y la longitud máxima de las puntas (propiedad cuantitativa), ya que no se registran diferencias apreciables entre los valores de longitud máxima medidos en uno y otro nivel del factor “materia”. Cuando el factor analizado se presenta en más de dos niveles, los cálculos que debemos hacer para contrastar la hipótesis de no relación son algo distintos. Supongamos que queremos averiguar las variaciones de textura observadas en la superficie de unos instrumentos líticos (huellas de uso) que han sido sometidos a varias actividades: machacar raíces, triturar pigmentos vegetales, cortar juncos, etc. En este caso tenemos más de dos categorías. Sería también el caso de comparar la composición arqueométrica de unos artefactos divididos en cuatro o más grupos tipológicos o morfofuncionales, o bien el caso de comparar las características de unos artefactos procedentes de varios períodos históricos o fases estratigráficamente delimitadas.

105

Page 106: Barcelo2006_Arqueologia y Estadistica

El Análisis se denomina análisis de varianza, puede que para muchos más conocido por sus siglas en inglés ANOVA (Analysis of Variance). Analisis de Varianza Univariante

El análisis de varianza es también un método de comparación de medias. Plantea las dos hipótesis siguientes:

HIPÓTESIS NULA: las medias de cada una de las categorías o niveles del factor cualitativo son iguales, es decir, no tenemos una población distinta para cada categoría, sino una sola población resultado de una única acción causal. (Siempre y cuando la distribución observada sea normal, es decir, intencional).

HIPÓTESIS ALTERNATIVA: la media de la variable cuantitativa en cada uno de los niveles del factor es distinta, por lo que cada nivel distingue poblaciones diferenciadas con su propia acción causal. (Siempre y cuando la distribución observada sea normal, es decir, intencional).

Estas dos hipótesis se comprueban a partir del cálculo de la variabilidad de los valores medios de la propiedad cuantitativa en los distintos niveles del factor cualitativo. Si los niveles del factor no separasen poblaciones diferentes sería lógico suponer que la media de cada uno de los grupos se parecerá a la media de los demás (las variaciones entre las medias se deberán únicamente a la influencia del azar), siendo por tanto muy pequeña la varianza de dichas medias. Si por el contrario el factor cualitativo distingue poblaciones que tienen medias muy diferentes del valor cuantitativo, las diferencias entre la media de cada uno de los grupos excederá de la influencia atribuida al azar, y la varianza de todas las medias será mayor que en el caso contrario. Diremos que no existe relación entre la variable cuantitativa y el factor cualitativo cuando el valor medio cuantitativo sea el mismo en los grupos cualitativamente determinados por el factor. Esto significa que el valor medio es independiente del nivel del factor. Por el contrario, existirá relación cuando el valor medio de la variable cuantitativa nos permita distinguir entre las distintas realizaciones de la acción causal (niveles del factor). El análisis de varianza, por tanto, compara la varianza observada entre las medias de una misma variable cuantitativa correspondientes a los distintos niveles de un factor cualitativo, con la varianza que debería observarse en el caso de que la hipótesis nula fuese verdadera.

No es preciso que los niveles que hemos de comparar de un factor tengan el mismo número de datos.

Aunque la descripción que aparece a continuación pueda parecer muy complicada en una primera lectura, conviene destacar que el análisis de varianza no es más que una prueba t multiplicada por todos los niveles adicionales. En realidad, si calculásemos un análisis de varianza de un factor con sólo dos niveles (por ejemplo, tintes vegetales/tintes minerales, aprovechamiento de cormorán/aprovechamiento de pingüino) el resultado sería idéntico que el de la prueba t de Student.

106

Page 107: Barcelo2006_Arqueologia y Estadistica

Las varianzas se calculan con arreglo al principio general ya estudiado en el capítulo dedicado a la estadística univariante:

(una varianza) es una medida del grado de dispersión de los datos con respecto a un punto de referencia (tendencia central). Empezamos definiendo el punto de referencia: la media. La desviación con respecto a la media no es más que la diferencia entre cada valor observado y dicho punto de referencia central. Al elevar al cuadrado cada una de las desviaciones, todas las desviaciones con respecto a la media serán valores no negativos (positivos o cero). A continuación sumamos todas las diferencias al cuadrado, y dividimos el resultado entre el total de observaciones menos 1.

Necesitamos calcular por un lado la varianza entre las medias de los distintos niveles (períodos cronológicos en este caso), y por el otro la varianza de todas las observaciones, prescindiendo del hecho de que estén divididas en grupos definidos por los niveles del factor. La primera varianza la denominamos varianza entre grupos y se calcula como

Suma del cuadrado de las medias de cada categoría – Suma Total / Número total de observaciones ______________________________________________________________________________________________________________________________________

Número de niveles del factor – 1 Su numerador recibe el nombre de suma de cuadrados correspondiente a la varianza entre-grupos. El denominador indica el número de grados de libertad de dicha varianza. El valor resultante muestra, por tanto, la varianza de una medida entre tantos niveles de un factor como hayan sido definidos.

Una vez conocida la varianza de las medias, pasamos a calcular la varianza de las observaciones en cada uno de los períodos cronológicos usando el procedimiento general. Si calculamos la media ponderada de las varianzas de cada columna, obtendremos la varianza intra-grupo o residual. Esta variabilidad es debida a la variabilidad propia de los individuos, y no tiene nada que ver con la existencia de grupos o niveles. Por eso en algunas ocasiones se denomina varianza residual o incluso error. Se define como varianza total a la media ponderada de la varianza entre-grupos y residual. Recibe este nombre porque es la varianza entre todos los datos del análisis.

Al mencionar más arriba la prueba F de igualdad de varianzas vimos que a diferencia de las medias, que se comparan estudiando su diferencia, las varianzas se comparan dividiendo la mayor entre la menor. Eso es lo que hace el análisis de varianza: dividir la varianza entre grupos por la varianza intra-grupos, usando el resultado de ese cociente para ver si la hipótesis nula se cumple o no.

No es tan complicado como pueda parecer. Para explicarlo, usaremos el ejemplo antes citado al comentar los diagramas de caja: la variación cronológica de la composición de la pasta de unas cerámicas helenísticas del Ágora de Atenas. Habíamos seleccionado tres de esos niveles: uno de los más antiguos (300-265 BC), otro más reciente (115-50 BC) y uno intermedio (250-215 BC), y habíamos estudiado gráficamente la variación de la presencia de hierro y calcio como materiales traza en la composición (partes por millón). Los datos organizados en niveles aparecen en el archivo “helenístico2”. En PAST agruparemos en primer lugar las columnas (una por nivel del factor cualitativo)

107

Page 108: Barcelo2006_Arqueologia y Estadistica

que deseemos analizar, seleccionaremos todas ellas y ejecutaremos la función Statistics One-way ANOVA (“análisis de varianza de una dirección”).

PAST proporciona dos ventanas de resultados para el análisis de varianza. La primera ventana contiene los resultados propiamente dichos de la prueba. Divide las distintas fuentes de variación como ya hemos visto en varianza entre grupos (between groups) y varianza intra grupo (within group). Sabiendo que la fórmula general de la varianza es un cociente entre la suma al cuadrado de las desviaciones con respecto a la media y el número de desviaciones calculadas (o “grados de libertad”), PAST divide los resultados en el numerador (Sum of squares o “suma de cuadrados”) y el denominador (df –degrees of freedom- o “grados de libertad”). Recordemos que en este caso el factor está dividido en tres niveles (3 períodos), por lo que el denominador de la varianza entre-grupos (los grados de libertad) será:

Número de niveles del factor – 1

Por consiguiente, en el ejemplo que tratamos tenemos 2 grados de libertad. En el caso de la varianza intra-grupos, como estamos ponderando la varianza media de cada uno de los niveles del factor, el denominador (los grados de libertad) será:

Número de observaciones-niveles del factor

En el ejemplo al que hacemos referencia, dado que tenemos 20 datos, el denominador de la varianza intra-grupo será 17.

¿Y cuál es el resultado de todo esto? El valor de cada varianza aparece bajo la columna Mean square (“cuadrado medio”) 23, y el valor de la prueba bajo la etiqueta F. Pero

23 Recordemos que PAST tiene tendencia a proporcionar los resultados en notación exponencial científica. E8 significa que el decimal debe moverse a la derecha ocho posiciones; E7 significa que el decimal debe moverse a la derecha siete posiciones. 1,28234E8 es en realidad 128234000; 6,41172E7 se convierte en 64117200, y así sucesivamente.

108

Page 109: Barcelo2006_Arqueologia y Estadistica

como siempre, no nos fijaremos tanto en los valores absolutos de la prueba sino en la probabilidad de la hipótesis de no relación (p(same)):

Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que la varianza de cada nivel es distinta, y por tanto que hay relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa varía significativamente en los distintos niveles del factor. Si por el contrario p(same) es un número mayor de 0,050, concluiremos que los niveles del factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación entre factor y propiedad cuantitativa.

En el caso de la composición arqueométrica de las cerámicas helenísticas del Ágora de Atenas, la hipótesis de no relación es bastante probable –p(same): 0,6605-, por lo que concluiremos diciendo que la proporción de hierro en la fabricación de esas cerámicas NO varía con el paso del tiempo.

PAST proporciona además una prueba de igualdad de varianzas entre los niveles del factor, lo cual, como vimos anteriormente en el caso de la comparación de medias es un requisito antes de evaluar el resultado del análisis de varianza propiamente dicho: los valores en cada nivel deben estar, por un lado normalmente distribuidos (ser simétricos y regulares alrededor de la tendencia central), y por el otro ser comparables. Si estas condiciones no se cumplen, habría que elegir otra prueba (el test de Welch, que corrige la probabilidad de la hipótesis de no relación cuando las varianzas de los diferentes niveles son iguales, o incluso, como veremos más adelante, la prueba de Kruskal-Wallis).

Finalmente, PAST proporciona una segunda ventana de resultados que contiene una matriz de las comparaciones por pares de los distintos niveles del factor. No sólo debemos averiguar si hay o no hay diferencias entre todos los niveles, sino determinar entre qué niveles en concreto hay diferencias. Una vez que sabemos que hay diferencias en las varianzas en general, tendríamos que ver si la media de cada nivel es diferente a la media de los otros niveles. Este procedimiento se lleva a cabo mediante la prueba HSD 24 de Tukey. Esta prueba se basa en el estadístico Q, que es una prueba de comparación de medias semejante a la t de Student y que usa para evaluar la significabilidad estadística de las diferencias entre los distintos niveles. Esta prueba tiende a producir unos valores de probabilidad de la hipótesis de no relación un tanto elevados, por lo que sería de interés elevar un poco el umbral de significación, con lo que la regla para interpretar el resultado queda del modo siguiente:

Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,080 (8%), diremos que ambas medias son distintas, y por tanto la propiedad cuantitativa tiene valores significativamente distintos en estos niveles del factor (pero no necesariamente entre otros niveles). Si por el contrario la probabilidad es un número mayor de 0,080 concluiremos que estos niveles en concreto del factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión25.

24 Acrónimo en inglés de Honestly Significant Difference o “diferencias honestamente significativas”. 25 El valor de significación en esta prueba es distinto al que veníamos considerando: 0,08 y no 0,05 como en las otras pruebas. Este hecho suele ser olvidado en muchos manuales y a veces es motivo de ciertos reparos a la hora de elegir esta prueba. Pruebas más complejas como la de Scheffé pueden parecer más ortodoxas, pero la prueba HSD de Tuckey es mucho más sencilla e intuitiva.

109

Page 110: Barcelo2006_Arqueologia y Estadistica

PAST proporciona los resultados de la prueba de Tukey en forma de una matriz:

FEperiodo1 FEperiodo18 FEperiodo25 FEperiodo1 0 0,6137 0,7892 FEperiodo18 1,352 0 0,9532 FEperiodo25 0,934 0,4178 0

Aprendimos a leer esta matriz en el caso de las correlaciones. Recordemos que la diagonal es la comparación de cada nivel consigo mismo, y por tanto no nos interesa. Más que el valor de la prueba (comparación de medias) que aparece en la mitad inferior (en negrita), nos interesa la probabilidad de la hipótesis de no relación, que aparece en la mitad superior derecha de la matriz. En este ejemplo, la hipótesis de no relación es muy probable en todas las comparaciones de niveles entre sí. Este resultado era de esperar, ya que la primera parte del análisis de varianza había determinado la independencia de la proporción de hierro con respecto al paso del tiempo. Si el resultado del análisis de varianza afirma la inexistencia de relación y de diferencias entre los niveles, entonces los resultados de la prueba HSD de Tukey serán equivalentes. El interés de la prueba radica precisamente en localizar dónde están las diferencias, en el caso en que el análisis de varianza haya eliminado la probabilidad de la hipótesis de no relación.

En el ejemplo que acabamos de utilizar, el análisis de varianza nos permite concluir que el paso del tiempo no explica las diferencias observadas en la cantidad de hierro usada para la fabricación de estas cerámicas helenísticas. Si la explicación de la variabilidad compositiva no está en el período cronológico, quizás la variación morfofuncional (tipológica) sí la explique. Usaremos Excel de la forma explicada al inicio de este capítulo para preparar un nuevo archivo en el que cada columna registrará las mediciones arqueométricas de la proporción de hierro para distintos tipos cerámicos (archivo “helenístico 3”).

Hemos seleccionado dos formas distintas de jarras para agua (tipos 19 y 21), un kantharos (tipo 24), y dos formas distintas de cacerola (en griego clásico: lopas) (tipos 11 y 13). Seleccionando las cinco columnas y ejecutando Statistics One-way ANOVA, obtenemos los siguientes resultados:

110

Page 111: Barcelo2006_Arqueologia y Estadistica

La probabilidad de la hipótesis de no relación es muy baja (5,175E-9 equivale a 0,00005175), por lo que concluiremos que existe relación entre la cantidad de hierro usada en la fabricación de las cerámicas y el tipo morfofuncional del recipiente. La prueba HSD de Tukey nos permite demostrar que el tipo 21 tiene la misma cantidad proporcional de hierro que el tipo 13, y distinta cantidad a la de los tipos 24, 19 y 11. El tipo 24 tiene la misma composición que el tipo 19 y el tipo 11, y distinta a la de los tipos 21 y 13. El tipo 19 tiene la misma composición que los tipos 24 y 11, pero distinta a la de los tipos 21 y 13. El tipo 11 tiene la misma composición que los tipos 24 y 19, pero distinta a la de los tipos 21 y 13. Y finalmente, el tipo 13 tiene la misma composición de hierro que el tipo 21, y distinta composición que los tipos 24, 19 y 11. En definitiva: el análisis pone de manifiesto dos grandes conjuntos: uno conformado por los tipos 21 y 13 y otro por los tipos 24, 19 y 11. Tenemos un primer conjunto formado por un tipo de jarra para agua y un tipo de cacerola frente a otro conjunto formado por otro tipo de jarra para agua, otro tipo de cacerola y un kantharos. Es decir, estamos en presencia de un caso en que a igualdad de tipo morfofuncional, distinta composición; compartiendo composición aquellos recipientes que tienen distinta forma y función.

Cuando medias o varianzas son desconocidas o no pueden calcularse por la razón que sea, podremos aplicar la prueba de Kruskal-Wallis, que es una alternativa no paramétrica al análisis de varianza, de la misma manera que la prueba de Mann-Whitney era una alternativa no paramétrica a la prueba t de Student. Estudia la hipótesis de no relación (si las observaciones en los distintos niveles del factor proceden de una misma población), a partir de los rangos promedio y la suma de rangos en cada uno de los niveles. Ya utilizamos esta estrategia en ocasiones anteriores. Como vimos en el coeficiente de correlación de Spearman o en la prueba de Mann-Whitney, se sustituían los valores observados por su posición ordinal. La idea es ordenar todos datos de todos los niveles según esos rangos ordinales, calculándose a continuación qué nivel concentra rangos más bajos (valores menores) ó más altos (valores mayores).

Tras mover, agrupar y seleccionar las columnas que nos interesan, ejecutaremos la función Statistics Kruskal-Wallis. En el caso anteriormente mencionado de la relación entre las trazas de hierro en la composición de las cerámicas helenísticas y el factor

111

Page 112: Barcelo2006_Arqueologia y Estadistica

cronológico (archivo “helenístico 2”), obtendremos los valores que siguen a continuación:

Como de costumbre, nos fijaremos en la probabilidad de la hipótesis de no relación (p(same)).

Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que la variable cuantitativa se ordena en rangos de manera distinta en cada nivel, y por tanto que hay relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa varía significativamente en los distintos niveles del factor. Si por el contrario p(same) es un número mayor de 0,050, concluiremos que los niveles del factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación entre factor y propiedad cuantitativa. En este caso p(same) tiene un valor muy alto (0,579), por lo que concluiremos que no habiendo diferencias ordinales apreciables en los distintos niveles cronológicos, no hay relación entre las trazas de hierro en la composición y el paso del tiempo. Por el contrario, en el caso de la relación entre las trazas de hierro en la composición y el factor morfofuncional de las cerámicas (archivo “helenístico 3”), la probabilidad de la hipótesis de no relación está muy por debajo del umbral habitual de 0,050 (el valor en notación científica 0,5802E-5 equivale a 0,0005802). Por lo que afirmaremos la existencia de diferencias significativas entre los niveles morfofuncionales y la proporción de hierro en la composición.

112

Page 113: Barcelo2006_Arqueologia y Estadistica

Al igual que en el caso del análisis de varianza, PAST ofrece una matriz posterior que analiza en detalle la presencia o ausencia de diferencias entre cada uno de los niveles. Si en el caso del análisis de varianza este análisis post-hoc estaba basado en la prueba t para todos los pares posibles de niveles del factor, en el caso del análisis no paramétrico está basado en la prueba de Mann-Whitney antes explicada, para comparar los rangos medios de cada uno de los niveles del factor cualitativo con los demás. La matriz resultante, con los valores del estadístico en la mitad inferior izquierda, y la probabilidad de la hipótesis de no relación en la mitad superior derecha es igual a la que veíamos anteriormente. En este caso, aunque no se cumpla la condición de normalidad dentro de cada nivel, los resultados del análisis de varianza métrico (ANOVA+ prueba t) y del no paramétrico (Kruskal-Wallis+prueba Mann-Whithney) son iguales.

113

Page 114: Barcelo2006_Arqueologia y Estadistica

Relación entre variables cualitativas Usaremos PAST para abrir el archivo “Prospección”. ¿Qué tiene de particular esta matriz de datos? Pues tiene de particular que NO es una matriz de datos. Aquí cada fila contiene la suma total de unos artefactos, mientras que cada columna representa a una población concreta. En este caso un área arqueológica cuyas distintas zonas han sido prospectadas. El archivo muestra las cantidades totales de distintos tipos de artefactos (hachas, restos de talla, molinos de piedra de distinto tipo y percutores de características diversas) identificados en cinco áreas. Es una Tabla de Contingencia. Las matrices de datos contienen datos individuales ordenados por variables. En las tablas de contingencia, por el contrario, las filas contienen totales o sumatorias. Fijémonos en las diferencias existentes entre este archivo y alguno de los archivos utilizados en el capítulo anterior. El archivo “Helenístico”, por ejemplo, situaba un artefacto distinto en cada fila, descrito por medio de tantas variables diferentes como columnas. Por su parte, el archivo “Helenístico3” era una ordenación posterior en el que un artefacto distinto seguía apareciendo en cada fila, pero ahora las columnas ya no representaban variables, sino conjuntos. La matriz de datos ya no podía leerse como una configuración estructurada de filas y columnas, sino como un conjunto de columnas ordenadas.

114

Page 115: Barcelo2006_Arqueologia y Estadistica

Nada de eso aparece en el archivo “Prospección”. Es en todo caso, una disposición ordenada de casillas o celdas, que constituye la expresión visible de una matriz de datos del siguiente tipo: ¿Y qué podemos decir del archivo que contiene la descripción de una necrópolis? El archivo “necrópolis”, usado en los ejercicios de este manual, NO es una Tabla de Contingencia, si bien es cierto que tampoco es una matriz de datos típica. Cumple, sin

115

Page 116: Barcelo2006_Arqueologia y Estadistica

embargo con el requisito fundamental de las matrices de datos: cada fila contiene un único individuo. En este caso una tumba. Puede decirse que también contiene sumatorias y totales: la frecuencia de aparición de platos lisos, ánforas, jarros, etc. Ahora bien, esos totales, más que resúmenes de una variable cualitativa, son una variable cuantitativa que puede usarse para afirmar la intensidad de la propiedad presencia de plato liso, presencia de ánfora, presencia de jarro. Cuantos más objetos de ese tipo en una tumba, mayor es el valor de la variable. Esta introducción es muy importante para entender la naturaleza de las relaciones cualitativas. El archivo “prospección” no es más que una manera de disponer los datos con el fin de analizar la relación entre dos variables cualitativas: el tipo de artefacto y la localización, en este caso, el lugar o yacimiento arqueológico en el que se ha contado esa cantidad de artefactos. Como ya vimos en su momento, relación significa en este caso que hay algo que conecta ambas fuentes cualitativas de variación. No habría relación si la suma de frecuencias de cada tipo fuese idéntica en cada localización, o si esas frecuencias variasen al azar. En el ámbito más concreto de la investigación arqueológica, diremos que dos variables cualitativas estarán relacionadas cuando contribuyan a definir un factor cualitativo que explique las diferentes frecuencias con que aparecen esas calidades en cada uno de los niveles del factor. El esquema básico que debiéramos seguir es el siguiente:

NIVEL A DE FACTOR F NIVEL B DE FACTOR F

atributo x Si No

atributo y No Si

Estamos ante un planteamiento típico de prueba de hipótesis estadística, como hemos visto en capítulos anteriores:

HIPÓTESIS NULA: las reparticiones observadas (niveles A y B del factor) proceden de muestras cuyas poblaciones teóricas de partida son idénticas.

HIPÓTESIS ALTERNATIVA: las reparticiones observadas (niveles A y B del factor) proceden de poblaciones teóricas diferentes.

Lo que nos preguntamos es si es más probable que el atributo x, por ejemplo, aparezca en el nivel A, o si por el contrario, la probabilidad de que aparezca el atributo x en el nivel A es la misma de que aparezca en el nivel B. Usando esta terminología tendríamos:

HIPÓTESIS NULA: la probabilidad que el atributo x aparezca en el nivel A es la misma de la que aparezca en el nivel B

HIPÓTESIS ALTERNATIVA: la probabilidad que el atributo x aparezca en el nivel A es distinta de la que aparezca en el nivel B.

Como es lógico, no resulta obvio cuál es el factor y cuál la variable dependiente, cuál es la causa y cuál el efecto. En este caso podemos suponer que las variaciones morfofuncionales (tipología) constituyen la expresión visible de las consecuencias materiales de una acción social (variable dependiente o efecto observado) que no tiene

116

Page 117: Barcelo2006_Arqueologia y Estadistica

por qué ser la misma en los distintos lugares (factor o causa probable). El problema arqueológico a responder aquí sería si diversidad de acciones sociales que tienen lugar en distintos lugares afectan a la variabilidad morfofuncional de los artefactos que aparecen en esos lugares como consecuencia de las acciones concretas que en ellos tuvieron lugar. Ya hemos dicho varias veces a lo largo de este manual que arqueólogos y arqueólogas debieran elegir, siempre que sea posible, descripciones cuantitativas de los efectos materiales de la acción social. Pero hay veces en que no tenemos acción. Un concepto como el de la variabilidad morfofuncional es muy difícil de expresar como una cantidad. El espacio es más fácil definirlo cuantitativamente en términos de coordenadas geográficas, pero sucede que en pocas ocasiones disponemos de los útiles necesarios para realizar ese tipo de medición. Todo ello nos indica que debemos tener en consideración relaciones entre factores cualitativos y variables cualitativas. El estudio de esas relaciones exige métodos y procedimientos característicos, distintos de los usados en el estudio de las relaciones cuantitativas y/o semicuantitativas. El punto de partida es, como no, construir la tabla de contingencia. Este tipo de disposiciones de datos relacionan dos variables26. Las columnas contienen los distintos niveles del factor independiente, y las filas los distintos valores cualitativos de la variable dependiente, a razón de una fila diferente para cada valor. A diferencia de otros programas, PAST no contiene ninguna función que pueda contar el número de veces que aparece determinado valor, o el número de filas con el mismo valor en una columna. Por consiguiente, no podremos convertir una matriz de datos cualitativos en una tabla de contingencia de manera simple. Y eso siempre y cuando el valor cualitativo haya sido representado mediante un código numérico, como por ejemplo: 1= presencia; 0= ausencia, o bien, uno más complejo como el que aparece en el archivo “helenístico”: 1) 115-50 a.n.e., 2) 115-86 a.n.e., 3) 125-86 a.n.e., 4) 150-110 a.n.e., 5) 150-125 a.n.e., 6) 150-50 a.n.e., 7) 150-86 a.n.e., 8) 160-130 a.n.e., 9) 175-150 a.n.e., 10) 190-160 a.n.e., 11) 200-125 a.n.e., 12) 200-150 a.n.e., 13) 225-165 a.n.e., 14) 225-175 a.n.e., 15) 225-180 a.n.e., 16) 225-190 a.n.e., 17) 250-175 a.n.e., 18) 250-215 a.n.e., 19) 250-225 a.n.e., 20) 275-175 a.n.e., 21) 280-250 a.n.e., 22) 300-200 a.n.e., 23) 300-215 a.n.e., 24) 300-250 a.n.e., 25) 300-265 a.n.e., 26) 325-250 a.n.e. , 27) 325-260 a.n.e., 28) 325-275 a.n.e. Abramos el archivo “Campaniforme”. Se trata de una característica matriz de datos de presencia/ausencia, codificados mediante 1 y 0. Vamos a estudiar la relación entre dos variables cualitativas: la presencia/ausencia de cerámica campaniforme de estilo internacional y la naturaleza del yacimiento (en cueva o a cielo abierto). El procedimiento es bastante tedioso y consiste en: 1) ordenar la columna que contiene el factor por medio del comando Transform Sort Ascending (“ordena en sentido ascendente”), 2) contar el número de filas de la columna que contiene la variable dependiente con el mismo valor para cada uno de los niveles que se han identificado en

26 En programas comerciales como SPSS, es posible crear tablas de contingencia de 3 ó más variables. Pero en estos casos, las pruebas estadísticas pierden mucho de su fiabilidad. El problema de relacionar más de dos variables ya sean éstas cualitativas o cuantitativas lo veremos en el segundo volumen de esta serie de publicaciones sobre arqueología y estadística.

117

Page 118: Barcelo2006_Arqueologia y Estadistica

el factor; 3) introducir las frecuencias así contadas en un nuevo archivo. En “campaniforme” se describen 35 yacimientos arqueológicos. 7 de esos yacimientos son cuevas, pero en ninguna de ellas se han hallado fragmentos de cerámica campaniforme de estilo marítimo. Por el contrario, hay cuatro presencias de ese tipo de decoración cerámica, pero ninguna de ellas se encontró en una cueva. La tabla de contingencia correspondiente es: EN CUEVA NO EN CUEVA DECO. CAMPANIF. INT 0 4 SIN DECO.CAMPANIF. INT 7 24 El caso del archivo “aves” es mucho más complicado, ya que se han analizado más de 5000 fragmentos de huesos de aves de un yacimiento arqueológico. Para construir la Tabla de Contingencia usaremos el programa Excel, y pegaremos los resultados en PAST. Empezaremos creando la estructura de la tabla de contingencia. Nos interesa relacionar la categorías taxonómicas (Pingüino, Cormorán, Aves de Mar Grandes, Aves de Mar Pequeñas, etc,) con el momento de uso del yacimiento (8 fases de ocupación, de la más antigua “B”, a la más reciente “J”). En realidad esas categorías no son realmente taxonómicas, sino que que pueden parecer arbitrarias; están basadas en las posibilidades de comparación entre distintos grupos de aves que van más allá de los estrictamente taxonómico, y que tienen en cuenta las semejanzas etológicas, de estacionalidad, de biomasa, etc.

En Excel usaremos el asistente para crear tablas dinámicas en el Menú “datos”. Seguimos los pasos indicados y cruzamos las variables originales “Categoría” y “Episodio”. De todos los episodios, seleccionaremos tan sólo aquellos restos óseos cuya ubicación estratigráfica sea clara e indiscutible, prescindiendo de aquellos fragmentos que no puedan asociarse a una sola fase de ocupación. Una vez generada la tabla dinámica en Excel, copiamos los datos en PAST:

118

Page 119: Barcelo2006_Arqueologia y Estadistica

Una vez construida la tabla, usaremos el mismo procedimiento que el que hemos descrito para otro tipo de relaciones, esto es, la comprobación de la hipótesis de no relación mediante una prueba estadística. En este caso, necesitaremos la prueba de χ2 , también conocida como prueba de chi-cuadrado. El cálculo de este procedimiento es muy sencillo e intuitivo. Imaginemos que tenemos la siguiente tabla de contingencia, en la que se relacionan un factor cualitativo de dos niveles (tumbas masculinas y femeninas) y una variable cualitativa con sólo dos valores nominales (presencia o ausencia de determinado elemento en el ajuar de la tumba). PRESENCIA AUSENCIA Total de tumbas TUMBAS MASCULINAS

0 24 24

TUMBAS FEMENINAS

17 4 21

Total de tumbas 17 28 45 Como en los casos anteriores, la prueba compara los datos observados con unos datos teóricos: aquellos que serían de esperar si no hubiesen diferencias significativas. Si se hubiese detectado el mismo número de presencias de ese elemento del ajuar en tumbas masculinas y femeninas, no habría relación. Basándonos en esta idea, definiremos las frecuencias esperadas en el supuesto de no relación multiplicando los totales de fila y columna y dividiendo por el número total de tumbas, lo que nos permitirá averiguar la frecuencia que sería de esperar de acuerdo con la hipótesis de no relación: PRESENCIA AUSENCIA Total de tumbas TUMBAS MASCULINAS

0 (17 x 24)/45= 9,06 24 (28 x 24)/45= 14,9 24

TUMBAS FEMENINAS

17 (17 x 21)/45= 7,9 4 (28 x 21)/45= 13,01 21

Total de tumbas 17 28 45 En este caso en concreto, no habría relación si ese elemento del ajuar apareciese en 9 tumbas masculinas y en 8 tumbas femeninas. La diferencia entre 9 y 8 se debería tan sólo a que en la necrópolis hay más tumbas masculinas que femeninas. Es fácil de ver que las frecuencias observadas son distintas a las calculadas de esta manera. La prueba

119

Page 120: Barcelo2006_Arqueologia y Estadistica

de χ2 compara unas y otras de la siguiente manera: se resta la frecuencia observada de la frecuencia esperada, el resultado de la diferencia se eleva al cuadrado, y a continuación se divide por la frecuencia calculada. Sumaremos todas las diferencias así obtenidas y ya habremos obtenido el valor del estadístico χ2. Sólo faltará estudiar la probabilidad de la hipótesis de no relación que le corresponde a ese valor, dada una tabla de contingencia con el número de casillas como la que se ha estudiado. Ese valor lo proporciona el programa, y lo interpretaremos de la manera habitual:

Si la significación probabilística de la prueba nos indica una probabilidad menor de 0,050 (5%), diremos que la variable cualitativa tiene una frecuencia de valores distinta en cada nivel, y por tanto que hay relación entre el factor y la variable cualitativa. Si por el contrario p(same) es un número mayor de 0,050, concluiremos que los niveles del factor no pueden diferenciarse con respecto a la propiedad cualitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación entre factor y propiedad cualitativa.

Para realizar el cálculo en PAST, seleccionaremos las columnas respectivas, arrastrándolas si fuese preciso para que estuviesen una al lado de la otra y ejecutaremos la función Statistics Chi^2 (two samples). Debe tenerse en cuenta que las columnas que deben seleccionarse son numéricas (en nuestro caso PRESENCIA y AUSENCIA). La columna que contiene las etiquetas (“tumbas masculinas”, “Tumbas femeninas”) es alfabética y no debe incluirse nunca en el estudio. De otro modo, PAST respondería que no reconoce el tipo de datos.

PAST nos proporciona la frecuencia de cada uno de los valores nominales de la variable cualitativa, el valor del estadístico, una medida de la complejidad de la tabla (“grados de libertad”), y dos maneras distintas de calcular la probabilidad de la hipótesis de no relación.

120

Page 121: Barcelo2006_Arqueologia y Estadistica

Dejemos de lado por el momento el valor Monte Carlo p(same) y fijémonos en el p(same) que aparece inmediatamente debajo del valor chi^2. En este caso es un número bajísimo (2,2985E-8 en notación exponencial equivale a 0,00022985 en notación decimal), muy inferior al valor límite de 0,05. Por ese motivo diremos que cuando varía el género de la persona enterrada, cambia la proporción de determinado artefacto en la tumba. Es decir, la presencia de dicho artefacto se relaciona con el género y el estatus social de quien fue depositado en la tumba. Si ese valor p(same) hubiese sido superior a 0,050 habríamos concluido que no había diferencias entre tumbas masculinas y femeninas y que por tanto la presencia de ese artefacto no estaba relacionada con el género de la persona. De las dos casillas de la parte inferior de la ventana de resultados (Sample vs. Expected y One constraint) sólo One constraint debe estar seleccionada. En el capítulo dedicado a la prueba de χ2 para averiguar la normalidad de variables cualitativas ya se presentó el uso de la primera casilla para explicar al programa que la segunda columna no contiene los valores de otra muestra, sino el valor de una distribución teórica. Como en este caso estamos comparando dos subpoblaciones (tumbas masculinas y tumbas femeninas) dejaremos esta casilla sin marcar. One constraint debe marcarse si los valores esperados han sido normalizados para ajustarse al número de observaciones, tal y como es nuestro caso. El hecho de marcar o no esta casilla afecta al cálculo de los grados de libertad (degrees freedom) y, por tanto, al valor de la probabilidad de la hipótesis nula. La prueba de χ2 se puede aplicar casi en cualquier ocasión en la que se relacionen variables cualitativas. Requiere, eso sí, que las frecuencias calculadas sean mayores de 5. Eso es a veces un problema en arqueología, cuando tenemos pocas tumbas sexadas y analizamos la presencia de objetos poco frecuentes. El método de Monte Carlo para calcular la probabilidad de la hipótesis de no relación es útil, precisamente, cuando la cantidad de datos analizados es muy pequeña. En el caso anterior produce un resultado muy semejante al método general, ya que el número de tumbas analizadas es bastante alto. PAST sólo permite comparar dos columnas o dos poblaciones a la vez. Para estudiar una relación más compleja, esto es factores cualitativos con más de dos niveles (columnas), debemos ejecutar otro comando de PAST: Statistics Contingency Table. Ese es el caso del ejemplo que usábamos al iniciar este capítulo: la proporción de distintos artefactos en cinco áreas prospectadas (archivo “Prospección”).

121

Page 122: Barcelo2006_Arqueologia y Estadistica

La ventana de resultados nos proporciona ahora el tamaño de la tabla de contingencia (M; N:) en este caso, 12 x 5, ya que tenemos 12 tipos de artefactos y 5 áreas diferenciadas. Aparece también el valor de la probabilidad de la hipótesis de no relación –p(no assoc)-, basada en χ2 , y el valor de dos nuevos estadísticos que estudiaremos a continuación. La hipótesis de no relación no se cumple en este caso, ya que su probabilidad es extremadamente baja, señal que hay relación entre la localización de la acción y la variabilidad morfofuncional de los instrumentos usados y/o producidos en cada localidad. Veamos para qué sirven los dos nuevos estadísticos. La V de Cramer (Cramer’s V) es una medida de la intensidad de la relación que se basa en χ2 cuadrado. Tiene un valor entre 0 y 1 y puede alcanzar el 1 para tablas de cualquier dimensión. En nuestro caso alcanza un valor de 0,251, que es bastante bajo. En general, para valores inferiores a 0,6 deberíamos concluir que aunque existan indicios de relación entre ambas variables cualitativas, la cantidad de relación es escasa. Este estadístico complementa el resultado de la prueba de χ2: el factor causal (la variabilidad espacial) sólo explica alrededor de la cuarta parte (25%) de la variación en la variable dependiente (la diversidad morfofuncional). El coeficiente de contingencia (Contingency C) es otra medida de asociación basada en χ2. Siempre toma un valor comprendido entre 0 y 1 pero, en general, no puede llegar a valer 1. Su valor máximo posible depende del número de filas y columnas de la tabla. En general, usaremos la V de Cramer para establecer la intensidad de relación entre un factor cualitativo y una variable dependiente cualitativa. En el ejemplo de la prospección hemos descubierto que existe relación entre variabilidad morfofuncional de los artefactos y la variabilidad de la localización de la acción social. Sin embargo, aún nos falta bastante para caracterizar esta relación. Para explicar el hecho de que existe relación, aunque su intensidad sea baja, deberíamos explorar todos los recovecos de esa relación. Así pues, tendremos que estudiar las diferencias con que los distintos tipos de artefactos aparecen en todos los pares posibles de yacimientos. En el caso del AREA 1, nos llevaría a comparar este yacimiento con todos los demás: COMPARACIÓN PROBABILIDAD HIPÓTESIS NULA V DE CRAMER AREA 1/AREA 2 0,25 0,20 AREA 1/AREA 3 1,362E-5 0,36 AREA 1/AREA 4 8,197E-6 0,40 AREA 1/AREA 5 9,0383E-12 0,43

122

Page 123: Barcelo2006_Arqueologia y Estadistica

En esta tabla vemos cómo la intensidad de la relación aumenta a medida que aumentan las diferencias. Lectores y lectoras pueden seguir este ejemplo, calculando los estadísticos respectivos al resto de emparejamientos. Puede ser un tanto tedioso, pero es fácil. Basta con arrastrar las columnas, de manera que aquellas que comparemos estén una al lado de la otra, las seleccionamos y ejecutamos Statistics Contingency table para cada par de columnas.

Hay otra manera de realizar ese análisis profundo de la relación cualitativa. Matemáticamente hablando es un tipo de análisis muy complejo, que normalmente no aparece en los manuales de introducción. Es considerado por muchos autores como una técnica de análisis multivariante27, aunque en realidad se trata tan sólo de una manera gráfica e intuitiva de visualizar las diferencias existentes entre las casillas de una tabla de contingencia. Nos referimos al análisis de correspondencias. Analisis de Correspondencias

Este análisis puede utilizarse para investigar tanto la magnitud como la naturaleza sustantiva de la relación entre las filas y las columnas de una tabla de contingencia. El objetivo primario de esta técnica estadística es transformar una tabla con números indicando las frecuencias de aparición de distintas cosas o calidades en una representación gráfica que facilite la interpretación de dicha información. Como tal debiéramos compararlo con los histogramas o diagramas de dispersión que hemos utilizado en capítulos anteriores para describir intuitivamente las características de la variación de los valores de una o varias propiedades cuantitativas.

Vamos a ver cómo es esa representación gráfica. En el archivo “Prospección” seleccionaremos todas las columnas (en este caso las cinco áreas arqueológicas prospectadas) y ejecutaremos el comando Multivar Correspondence.

27 Por esa razón el comando para realizar este análisis aparece en PAST en el Menú Multivar. No obstante, como veremos a continuación, debiera incluirse como una técnica de interpretación de tablas de contingencia que, por definición, son bivariantes y no multivariantes.

123

Page 124: Barcelo2006_Arqueologia y Estadistica

En la parte inferior de la ventana de resultados seleccionaremos View scatter (“visualizar dispersión”).

Haciendo doble click en el centro del gráfico se abre una ventana que permite modificar algunos aspectos estéticos como el tipo de letra, el reticulado, etc., aunque aquí tampoco son muchas las posibilidades.

Por otro lado, si previamente se ha creado un código de colores según cierta categoría (Edit Numbers to color/symbols –“de números a colores/símbolos”), en el diagrama los tipos distintos aparecerán con colores o símbolos diferentes.

El diagrama anterior es el resultado de marcar las casillas Rows (samples) y Rows labels (“filas (muestras)”; “etiquetas de filas”), lo que nos permite visualizar un gráfico que convierte las diferencias entre los distintos valores de la variable cualitativa “variabilidad morfofuncional” (tipología), en distancias en el plano. Cuanto más alejados estén dos puntos, mayores son las diferencias. Es decir, que en el área en la que la prospección ha puesto de manifiesto la presencia de gran cantidad de restos de talla

124

Page 125: Barcelo2006_Arqueologia y Estadistica

aparecen muy pocos molinos de tipo M4. Los puntos que corresponden a esas dos variables son los más alejados en el sentido horizontal del gráfico. Del mismo modo, allí donde aparecen molinos de tipo M3 aparecen pocos materiales que no sean molinos, hachas o percutores (categoría “otros”). Es decir, “molinos-M3” y “otros” son los puntos más alejados verticalmente en el gráfico. Por otro lado, parece como si en las áreas prospectadas donde han aparecido percutores no se hayan encontrado tantos molinos, y viceversa. Se trata de la misma información que veíamos en la tabla de contingencia, pero traducida aquí en distancias geométricas.

Volvamos a los datos originales, para entender mejor las diferencias que ilustra el análisis de correspondencias. En la tabla de contingencia se observa que el área 2 es la que tiene más restos de talla (67), y que tiene relativamente pocos molinos, como no sea

del tipo M4, mientras que en otras áreas las proporciones son muy distintas. El análisis de correspondencias también nos permite visualizar las diferencias entre las áreas prospectadas (representadas como columnas distintas de la tabla) como distancias geométricas en el plano. Simplemente retiraremos las marcas de las casillas referidas a Rows, y marcaremos en su lugar las casillas Column dots y Column labels (“puntos de columna”, “etiquetas de columna”).

125

Page 126: Barcelo2006_Arqueologia y Estadistica

Finalmente, tenemos la opción de representar simultáneamente las diferencias entre las filas y las columnas marcando a la vez las casillas de Rows (“filas”) y Columns (“columnas”).

Es fácil de ver que por medio del análisis de correspondencias intentamos relacionar tipos de artefactos y yacimientos, de manera que los tipos aparecen en el diagrama cerca de los yacimientos en los que se encuentran en mayor proporción. Por otro lado, los yacimientos parece que se sitúan cerca de los tipos de artefacto que mejor los representan: los que son más frecuentes en ellos, e infrecuentes en los demás. Además, los yacimientos con composiciones arqueológicas semejantes deben situarse próximos entre sí, mientras que los tipos con una semejante distribución espacial serán vecinos en el gráfico. Vemos en este caso cómo se distinguen tres conjuntos de áreas arqueológicas: los emplazamientos 1 y 2, caracterizados por la relevancia de los restos de talla, las áreas 3 y 4, que se distinguen por la relevancia de los molinos de tipo 2 y 3, y finalmente el área 5, que se diferencia de todas las demás.

Recordemos que la prueba de χ2 nos permitió afirmar la existencia de relación entre variabilidad morfofuncional (entre tipos de artefactos) y variabilidad espacial (entre yacimientos), es decir que las proporciones de los distintos tipos de artefactos covariaban con las distintas localizaciones. El análisis de correspondencias nos permite estudiar más a fondo la naturaleza de esa relación. Tal y como lo hemos calculado, como una sumatoria de diferencias ponderadas entre la frecuencia observada y la esperada si no hubiese relación, el estadístico χ2 es la suma de las contribuciones de cada una de las celdas o casillas individuales. En consecuencia, cada casilla de la tabla contribuye en algo al valor final del estadístico. Si una casilla se diferencia mucho de una frecuencia esperada, entonces la contribución de esa celda al valor final será grande. Por el contrario, si una casilla se aproxima al valor de su frecuencia esperada, entonces su contribución será muy baja. Un valor muy alto del resultado final de la prueba indica que en algún punto de la tabla de contingencia las frecuencias observadas son muy distintas de las esperables si NO hubiese relación entre el factor cualitativo y la variable cualitativa. La prueba no nos dice, sin embargo, qué casilla (o casillas) están provocando ese valor tan alto, tan sólo que por ahí están. Para eso está el análisis de correspondencias, que nos dice cómo se diferencian las distintas casillas o celdas de la tabla.

126

Page 127: Barcelo2006_Arqueologia y Estadistica

PAST proporciona otro tipo de gráfico, además del que visualiza la relación entre las filas y las columnas de la tabla de contingencia. Si hacemos memoria, en la ventana inicial de resultados, al lado del botón View scatter (“visualizar la dispersión”) aparecía otro botón: Relay plot (“gráfico de relevos”). Este es un diagrama compuesto que proporciona un gráfico para cada columna analizada (en nuestro caso, niveles del factor “espacio”: cada uno de los yacimientos o conjuntos contextualizados de materiales arqueológicos). El eje vertical ordena las filas (en nuestro vaso, la variable dependiente “variabilidad morfofuncional”: tipo de artefacto) de acuerdo con la coordenada en la que aparecen en el primero de los ejes que definen el análisis (relay index). En nuestro caso, la ordenación es: RESTOS DE TALLA, PERCUTORES-OTRO, MOLINOS M3, MOLINOS M2, PERCUTORES P1, PERCUTORES P2, OTROS OBJETOS, MOLINOS M1, PERCUTORES P3, PERCUTORES P4, HACHAS, MOLINOS M4. En el eje horizontal, es decir, la longitud del segmento, se representa la frecuencia o abundancia observada de ese artefacto (fila) en cada conjunto arqueológico (columna).

El gráfico nos permite ver que los tipos que más contribuyen a definir las diferencias entre las áreas son RESTOS DE TALLA (el segmento pegado al eje inferior del diagrama), MOLINOS M1, PERCUTORES P3, P4 y MOLINOS M4 (último segmento).

Ahora que sabemos qué resultados nos proporciona el análisis de correspondencias; vamos a examinar brevemente cómo lo hace. Las matemáticas son algo complicadas, y muy parecidas a las de los análisis multivariantes28, porque hacen uso de álgebra de matrices y no de simple aritmética.

Hay tres conceptos básicos en un análisis de correspondencias: los perfiles, las masas y las distancias χ2.

Cuando estudiamos una tabla de contingencia no tiene mucho sentido comparar las frecuencias observadas entre sí. En cada yacimiento se ha encontrado una cantidad 28 Por eso el análisis de correspondencias suele incluirse entre los análisis multivariantes: porque en un momento de su cálculo utiliza el mismo algoritmo, la denominada “factorización”, aunque en el caso habitual lo hace tan sólo sobre dos variables. Más detalles sobre esta cuestión se ofrecen en el segundo volumen de esta serie: Análisis Multivariantes.

127

Page 128: Barcelo2006_Arqueologia y Estadistica

distinta de artefactos, por lo que decir que en uno hay 35 hachas y en el otro sólo 13 tiene poco sentido. Depende del total de artefactos en cada uno. Para la comparación necesitamos reducir las filas o las columnas de la tabla a una base común. Esto es muy fácil usando una base común de 100 y calculando los porcentajes de filas o columnas. El conjunto de los porcentajes de las frecuencias en una fila o columna se denomina perfil de dicha fila o columna. Del mismo modo, podemos calcular un perfil promedio, buscando, por ejemplo, el promedio con que aparecen los distintos artefactos (filas) en cada yacimiento (columna).

Los perfiles constituyen un ejemplo de vectores matemáticos. Un vector es un segmento de recta dirigido en el espacio. Es el concepto que usamos para traducir los datos numéricos en la tabla de contingencia en puntos situados en un plano teórico. Así, se convierte cada fila y columna de la tabla en un vector cuyas coordenadas vienen definidas precisamente por su perfil. Dicho vector se refiere a un espacio multidimensional que sólo existe en la teoría. Se trata de un espacio imaginario que tiene tantas dimensiones como filas o columnas tiene la tabla. El truco del análisis de correspondencias es convertir ese espacio imposible en un plano con sólo dos dimensiones.

El segundo concepto fundamental del análisis de correspondencias es el de la masa asociada a cada perfil. Cada perfil está compuesto de un cierto número de elementos. Por ejemplo, se identificaron 107 artefactos en la prospección del área 1, que constituyen el perfil

(0 42,2 0,93 10,02 4,67 9,34 3,73 17,75 8,41 0 0 1,86) En este perfil cada número corresponde al porcentaje de cada uno de los tipos de artefactos. A este perfil debe asignársele un peso proporcional a los 107 artefactos que tiene. La siguiente columna, área 2, tiene más artefactos (158) y por tanto, su perfil tendrá un peso algo mayor. La masa de las columnas equivale al total de cada columna dividido por el total de individuos. Como hay en total 819 artefactos, la masa de la primera columna (el área 1) será de 0,130. La masa correspondiente al área 5 (aquella en la que se han identificado más artefactos), será de 219 / 819 = 0,26. El objetivo de este mecanismo de peso es permitir a cada elemento (artefacto en este caso) contribuir igualitariamente a su correspondiente perfil. El perfil promedio (de las columnas, en este caso) es, a su vez, el perfil de los totales de fila de la tabla de contingencia, y equivale al peso promedio de los perfiles de columna individuales, en donde los pesos son las masas correspondientes. En otras palabras, el perfil promedio puede entenderse como aquel punto que está en el centro de la nube de puntos formada por los distintos perfiles individuales. Hasta aquí nos hemos referido a los vectores de perfiles en las columnas de la tabla de contingencia como si fuesen puntos situados en un espacio de 12 dimensiones (una para cada fila o tipo de artefacto). Por ejemplo, el perfil de la columna que corresponde al área 1 es un punto con 12 coordenadas, 0 en la primera dimensión, 42,2 en la segunda, 0,93 en la tercera y así sucesivamente. Con un poco de imaginación podremos hacernos una idea intuitiva de la posición de un perfil en ese espacio y las distancias que existen entre los puntos. Esa distancia se calcula mediante una fórmula derivada del teorema de

128

Page 129: Barcelo2006_Arqueologia y Estadistica

Pitágoras29 que estudiamos en la escuela en nuestra infancia (¡sí, hace mucho tiempo!). La distancia debe calcularse entre todos los pares posibles de yacimientos: entre las áreas 1 y 2, entre las áreas 1 y 3, y así sucesivamente. Para calcularla, obtendremos la raíz cuadrada de las diferencias al cuadrado de cada perfil. Esas diferencias se ponderan usando el elemento correspondiente del perfil promedio. A causa de la analogía con el concepto del χ2 para calcular diferencias al cuadrado entre proporciones relativas a su frecuencia esperada, esa distancia se denomina distancia χ2. Hay muchas maneras de justificar la elección de esta forma de calcular las distancias entre las casillas o celdas de la tabla de contingencia. En un sentido matemático estricto, la división de cada diferencia al cuadrado por la frecuencia esperada (el perfil promedio) estandartiza las observaciones y compensa la mayor varianza de las frecuencias altas y la menor frecuencia de las frecuencias bajas. En la práctica significa que si no compensáramos de esa manera la diferencia entre dos perfiles, las diferencias entre las proporciones mayores tenderían a dominar cualquier otro aspecto, y el análisis proporcionaría un resultado trivial y la mayoría de las veces erróneo: las mayores diferencias en valor absoluto son las más importantes. Al “pesar” de manera diferencial la contribución de cada perfil, igualamos la contribución de cada casilla al cálculo global. Cada perfil de fila y de columna tiene su respectiva masa, la suma de todas ellas es igual a 1. Esos perfiles corresponden a vectores que tienen un centro de gravedad o centroide, que equivale al perfil promedio. Calcularemos con todo ello la inercia global del conjunto de puntos, es decir, de todas las casillas o celdas de la Tabla de Contingencia. Cada perfil contribuye un poco a esa inercia global, en la medida de su masa por el cuadrado de la distancia de su propio perfil y el perfil promedio. La suma de la inercia de cada perfil de fila y de columna nos dará la inercia global. Ese valor debemos entenderlo como una medida de la dispersión de los perfiles en el espacio multidimensional, de la misma manera que la varianza es una media de la dispersión de valores en un espacio unidimensional. Cuanto mayor la inercia global, mayor dispersión y mayor diferencia entre las distintas celdas de la tabla. Una vez que se han traducido las diferencias y semejanzas entre las celdas o casillas de la tabla en términos de vectores en un espacio multidimensional caracterizados por sus perfiles y sus masas respectivas, debemos hacer algo para poder visualizar las distancias ponderadas entre ellos. Ello se consigue mediante un truco geométrico: proyectando las coordenadas del vector multidimensional en un plano bidimensional (o, cuando ello no es posible, en un espacio con la menor dimensionalidad posible, usualmente menor de 4 dimensiones). Ello equivale a buscar el plano más próximo a todos los puntos multidimensionales. La manera de hacerlo es un tanto complicada e implica usar el centroide de la nube de puntos multidimensional, la inercia de cada perfil y el perfil promedio. Esto es fácil de entender en el caso de pasar de tres dimensiones (volumen) a sólo dos (plano).

29 Era aquello de un triangulo rectángulo en donde el cuadrado de la hipotenusa (el lado más largo) era igual a la suma del cuadrado de los catetos (los lados más cortos). De ahí que para calcular la longitud de la hipotenusa si se conocía la longitud de los catetos bastaba con obtener la raíz cuadrada de la suma de cuadrados. La distancia entre los puntos equivale a la hipotenusa. Lo que nosotros conocemos es la longitud de cada cateto, que no es más que la diferencia entre los respectivos perfiles.

129

Page 130: Barcelo2006_Arqueologia y Estadistica

Para aquellos y aquellas a quienes no les gustan las matemáticas puede ser difícil de entender que los vectores originales están en un espacio de más de cuatro dimensiones, pero para el ordenador es francamente fácil: Si la reducción de la dimensionalidad no puede encontrar un plano bidimensional que explique, como mínimo, más del 75% de la varianza acumulada, PAST permite visualizar planos adicionales, basados en una tercera dimensión (botón Axes 2+3 en la ventana de resultados del gráfico). En el análisis de correspondencias, la cercanía de los perfiles de un vector al plano se mide por medio de la suma ponderada de las distancias al cuadrado de los puntos con respecto al plano. El objetivo del análisis es encontrar el plano que minimice la inercia residual, ya que: INERCIA TOTAL= INERCIA EN EL PLANO + INERCIA RESIDUAL La inercia residual es una medida de la cantidad de inercia o varianza que se ha perdido al reducir los perfiles multidimensionales a un formato bidimensional o de dimensionalidad reducida. El análisis encuentra aquel plano en el que esa pérdida sea mínima. Esos planos que mejor se ajustan a la nube de puntos de perfil son los que constituyen el diagrama propio del Análisis de Correspondencias. En esas representaciones tenemos

130

Page 131: Barcelo2006_Arqueologia y Estadistica

una imagen de la posición auténtica de las celdas de la tabla, como si fuesen observadas de un plano de visión óptima en el espacio multidimensional de todos los perfiles. Por sí mismos, estos diagramas no nos dan ninguna indicación de cómo se ajustan los puntos al plano elegido, pero la calidad de la representación puede resumirse usando una medida dada en una escala porcentual. Esa medida cuantifica la cantidad de varianza, o inercia, explicada por esa representación concreta. PAST proporciona el “valor propio” o eigenvalue de la solución. Este aparece en la ventana de resultados inicial, antes de solicitar el diagrama de dispersión de los puntos. El eigenvalue de cada uno de los ejes que definen los planos que mejor se ajustan a los perfiles vectoriales de las casillas de la tabla equivale al coeficiente de correlación entre los puntos del gráfico que representan las filas y los que representan las columnas. La siguiente columna nos da la medida deseada: el porcentaje de similitud (similarity) entre todas las celdas de la tabla explicada para cada dimensión. Como un plano tiene dos dimensiones, la inercia o varianza explicada por ese plano será la suma de las dimensiones que definen ese plano. En el caso aquí estudiado de las áreas prospectadas, los diagramas representaban el plano definido por las dimensiones o ejes principales 1 y 2. La suma de sus inercias respectivas contribuye a explicar un 88% de la variabilidad. Ahora bien, este resultado es tan sólo una medida del ajuste del plano seleccionado a los puntos. Es una medida de la calidad de la representación visual, y no una medida de la intensidad de relación, la cual viene dada por índices estadísticos como la V de Cramer, mencionada anteriormente en este capítulo. Veamos en un par de supuestos ideales cómo el análisis de correspondencias explica la intensidad de una relación cualitativa y no sólo su forma. Construyamos tres tablas de contingencia que definan la relación cualitativa paradigmática en arqueología: entre la variabilidad morfofuncional (tipología) de los artefactos y la variabilidad espacial (conjuntos) con la que aparecen dichos artefactos. Caso A Caso B Caso C En la primera tabla (caso A), las frecuencias absolutas de los distintos tipos en cada uno de los conjuntos son muy semejantes en los tres conjuntos, aunque existan claras diferencias en las proporciones entre conjuntos. Por tanto no debe haber relación. Las

131

Page 132: Barcelo2006_Arqueologia y Estadistica

dos tablas siguientes muestran diferencias significativas entre los distintos conjuntos en la frecuencia de aparición de cada tipo, por lo que SI debiera haber relación. Las diferencias son más marcadas en la última tabla (caso C), lo cual sería indicio de una relación más intensa. Estas observaciones están contrastadas por los resultados de la prueba de χ2 y la prueba V de Cramer (Statistics Contingency Table):

Caso A Caso B Caso C Veamos ahora el análisis de correspondencias de esas tres tablas de contingencia. En los tres casos, el espacio multidimensional original (12 dimensiones) se puede reducir a un espacio de 2 dimensiones sin pérdida de las relaciones entre las celdas de la tabla. El plano seleccionado explica en los tres casos el 100% de la asociación entre celdas. PAST nos permite definir con precisión la escala del gráfico, por lo que hemos decidido definir un mínimo de -0,2 y un máximo de 0,2, tanto para el eje de las abscisas como para el de las ordenadas. Si los ejes no se trazan a idéntica escala, la comparación no tendrá sentido30.

-0,1 0 0,1 0,2

Axis 1

-0,1

0

0,1

0,2

Axis

2

conjunto A

conjunto B

conjunto C

1

2

3

4

-0,1 0 0,1 0,2Axis 1

-0,1

0

0,1

0,2

Axis

2

conjunto Aconjunto B

conjunto C1

234

-0,1 0 0,1 0,2Axis 1

-0,1

0

0,1

0,2

Axi

s 2

Caso A Caso B Caso C En el caso A, en donde partíamos de un supuesto de no relación, los perfiles de fila y columna aparecen representados en el centro geométrico del plano de menor dimensión. Además es importante señalar que si ampliamos la escala:

30 Para ello, y como ya vimos en el caso de histogramas y diagramas de dispersión, basta con introducir el valor requerido en las casillas X start, X end, Y start, Y end, que aparecen a un lado de la ventana de resultados gráficos.

132

Page 133: Barcelo2006_Arqueologia y Estadistica

conjunto A

conjunto B

conjunto C

1

2

34

-0,006-0,005-0,004-0,003-0,002-0,0010 0,0010,0020,0030,0040,0050,006Axis 1

-0,002

-0,001

0

0,001

Axi

s 2

Caso A Los perfiles de filas y los perfiles de columnas aparecen totalmente disociados, ya que no son independientes el uno del otro: cualquier tipo de artefacto puede aparecer en cualquier conjunto. A partir del momento en que las diferencias proporcionales aumentan entre los conjuntos, aumenta la relación y aumenta la distancia entre las celdas. Esa distancia es irregular, porque es un resultado de la diferente contribución de cada proporción en la sumatoria final que es la prueba de χ2. Sólo en el caso C, donde la relación es intensa (superior a 0,67 según la prueba V de Cramer), filas y columnas se asocian de acuerdo con las diferencias observadas. Tanto el eigenvalue como la inercia global no varían en los tres casos, lo que indica que no deberemos usar esos valores para indicar la intensidad de la relación. Todo análisis de correspondencia deberá ir introducido por las pruebas generales de contingencia, interpretándose conjuntamente ambos tipos de análisis estadísticos. Volviendo a los datos del archivo “Prospección”, recordemos que aunque la presencia de relación entre variabilidad morfofuncional y variabilidad espacial era incontrovertible, esa relación era poco intensa (V de Cramer = 0,25). ¿Por qué? Porque entre las cinco áreas prospectadas comparadas había casi tantas diferencias como semejanzas. La contribución de cada área a la relación era muy diferente, y no como en el caso simulado de la tercera tabla, donde cada uno de los tres conjuntos era diferente al resto. Al ser semejantes las áreas 1 y 2 por un lado, y la 3 y la 4 por otro, el valor de la intensidad de la relación disminuía.

133

Page 134: Barcelo2006_Arqueologia y Estadistica

Contenidos del próximo volumen de la serie

ANÁLISIS MULTIVARIANTES EN ARQUEOLOGÍA

Introducción al Estudio de la semejanza entre elementos arqueológicos

Definición Ejemplos

Coeficientes de semejanza Matrices de semejanza

Partición en clases Análisis jerárquico de clases

Interpretación de las relaciones de semejanza entre elementos arqueológicos

Variabilidad vs. semejanza Tipología y clasificación

Inducción automática Análisis discriminante

De la semejanza entre individuos a la relación entre fenómenos

Semejanzas y distancias

La definición conceptual de “dimensión” y la noción de “espacios semánticos” Introducción al análisis de componentes principales

Interpretación del análisis de componentes principales Comparando el análisis de componentes principales y el análisis de correspondencias

Variaciones del análisis de componentes principales (análisis canónico, escalas multidimensionales, análisis de coordenadas principales, etc.)

Complejidad y multidimensionalidad

El Concepto de multidimensionalidad

¿Multidimensionalidad de un fenómeno o múltiples relaciones entre fenómenos? Multinormalidad

El estudio simultáneo de múltiples relaciones: MANOVA

134