I
Dedicatoria
Este trabajo es dedicada a mi señor padre Martín Aguilar, tú que me enseñaste que
en la vida es importante ser rico pero que es más rico ser importante. A ti madre
hermosa, María, que me enseñaste que el destino no viene para cada uno si no que
cada uno forja su destino, y por enseñarme a ser salvaje de corazón. A mis dos
princesas mágicas que las adoro (Mafe y Magestad). Para ustedes familia dedico
este trabajo.
A ti alma mater te quiero dedicar este trabajo y decirte lo siguiente:
La gente tiene estrellas que no son las mismas. Para los que viajan, las estrellas
son guías; para otros solo son pequeñas lucecitas. Para los sabios las estrellas son
problemas. Para mi hombre de negocios, eran oro. Pero todas esas estrellas se
callan y olvidan. Tú tendrás estrellas como nadie ha tenido…. Cuando por las
noches mires al cielo, al pensar que en una de aquellas estrellas estoy yo riendo,
serán para ti como si como si todas riesen. ¡Tú tendrás estrellas que solo saben reír!
(Antoine de Saint, El Principito). De las misma manera así serás para mí, madre
chapingo, serás una estrella que nunca callará y olvidará, porque eres una estrella
que sabes solo reír y cada una de esas risas son los momentos alegres que siempre
me brindaste.
Sinceramente
Mario Arturo Aguilar López
II
Agradecimientos Agradecimientos infinitos a la familia Rodríguez Lara por el apoyo infinito, tío Loro
gracias por tu apoyo incondicional y la enorme confianza, mil gracias.
Amiga concepción mil gracias siempre por confiar en mí y gracias por los enormes
consejos para ser cada día una mejor persona. Gregorio y Saúl, gracias por ser mis
hermanos para toda la vida, los amo y los amaré para siempre. Etzael gran amigo
que siempre me has brindado muchísimos consejos e instrucciones para para ser
cada día mejor; Samuel, Luis Alfredo y Luis Alberto gracias por levantarme el ánimo
cuando ya quería abandonar este trabajo, siempre los recordaré.
Gracias a cada uno de los doctores miembro del comité revisor por su enorme apoyo
para hacer bien y lograr concluir este trabajo.
A ti dios Llave que siempre me has dado fuerza y con ella el bienestar necesario
para lograr cada éxito. Vida gracias por permitirme cada momento alegre, triste, y
difícil, ya que cada uno de estos fortalecen mi carácter para estar siempre de frente
y avanzar contra viento y marea.
Muy agradecido
Mario Arturo Aguilar López
III
Contenido
Índice de figuras V
Índice de cuadros VI
Resumen VII
Summary VIII
Introducción general IX
Planteamiento del problema XI
Justificación XIV
Objetivos XVII
Metodología XVIII
1 Definiciones y conceptos básicos ................................................................ 1
1.1 Elementos que constituyen el diseño experimental ................................... 1
1.2 Conceptos de combinatoria ....................................................................... 6
1.3 Distribuciones muestrales .......................................................................... 7
1.4 Conceptos generales de pruebas de hipótesis .......................................... 8
1.5 Diseños experimentales comparativos simples........................................ 13
1.5.1 Comparación de dos poblaciones independientes ............................ 13
1.5.2 Diseño de comparaciones con observaciones pareadas ................... 16
1.6 Diseños experimentales con al menos tres tratamientos ......................... 18
1.6.1 Análisis de varianza en un diseño completamente al azar ................ 18
1.6.2 Diseño en bloques completamente aleatorizados ............................. 22
1.7 Comparaciones de pares de medias ........................................................ 26
1.7.1 Family Wise Error Rate (FWER) ........................................................ 28
1.7.2 FDR ................................................................................................... 34
2 Pruebas de permutación en diseños experimentales ............................... 36
2.1 Pruebas de permutación .......................................................................... 36
2.2 Diseños experimentales comparativos simples........................................ 39
IV
2.2.1 Comparación de dos poblaciones independientes ............................ 39
2.2.2 Pruebas exactas ................................................................................ 46
2.2.3 Distribución Monte Carlo en el diseño aleatorizado ........................... 49
2.2.4 Diseño de comparaciones de parejas aleatorizadas ......................... 51
2.2.5 Prueba exacta.................................................................................... 56
2.3 Diseño experimental completamente al azar ........................................... 57
2.3.1 Permutaciones sistemáticas en un diseño completamente al azar.... 57
2.3.2 Distribución Monte Carlo en un diseño completamente al azar ......... 61
2.4 Diseño experimental de bloques completamente al azar (bca) ................ 64
2.4.1 Permutaciones sistemáticas en un diseño (bca)................................ 65
2.4.2 Distribución Monte Carlo en un diseño bca ....................................... 69
2.5 Comparación de pares de medias ........................................................... 71
2.5.1 Diferencia mínima significativa de Fisher .......................................... 71
2.5.2 Ajuste del 𝑝 valor por el método de Bonferroni .................................. 73
2.5.3 Prueba de Tukey ............................................................................... 73
2.5.4 FDR Bejamini y Hochberg ................................................................. 75
2.6 Histogramas y diagramas de cajas .......................................................... 76
2.7 Anova de permutación Vs anova paramétrico ......................................... 78
2.8 Simulación de la función potencia de la prueba. ...................................... 80
3 Distribución Monte Carlo en metodologías computacionales .................. 83
3.1 Distribución Monte Carlo en pruebas de permutación ............................. 83
3.2 Validez de la distribución Monte Carlo ..................................................... 87
3.3 Pruebas de permutación elaborados en Python ...................................... 89
Conclusiones 109
Apéndice 110
Literatura citada 130
V
Índice de figuras Figura 1.1.1 Parcela del ejemplo 1.1.1. .................................................................. 3
Figura 1.4.1 Función de potencia de la prueba. ................................................... 10
Figura 1.6.1 Diseño con bloques aleatorizados .................................................... 22
Figura 1.7.1 Crecimiento del FWER respecto al número de comparaciones ....... 29
Figura 2.2.1 Histograma del estadístico 𝑇𝑘(𝑧) ..................................................... 45
Figura 2.2.2 Puntos comparativo de la dureza medida con punta 1 y punta 2. .... 55
Figura 2.2.3 . Histograma del estadístico 𝑑𝑘(𝑧). ................................................... 56
Figura 2.3.1 Comparación de velocidades de lectura. .......................................... 64
Figura 2.4.1 Diseño de bloques completamente al azar. ...................................... 66
Figura 2.6.1 Histograma del tratamiento 1 y tratamiento 2. .................................. 77
Figura 2.6.2 Diagrama de cajas del tratamiento 1 y tratamiento 2. ...................... 77
Figura 2.8.1 Función potencia de pruebas de diferentes metodologías. .............. 81
Figura 2.8.2 Función potencia respecto al cuadro 2.8.2 (permutación). ............... 82
Figura 2.8.3 Función potencia respecto al cuadro 2.8.2 (Paramétrica). ............... 82
Figura 3.1.1 Diagrama de flujo del método de Monte Carlo ................................. 83
Figura 3.1.2 Distribución Monte Carlo prueba de permutación............................ 86
VI
Índice de cuadros Cuadro 1.6.1. Experimento completamente al azar .............................................. 18
Cuadro 1.6.2. Anova diseño completamente al azar ............................................ 21
Cuadro 1.6.3. Anova para el diseño de bloques aleatorizados............................. 25
Cuadro 1.7.1. Ilustración de posibles rechazos falsos o no en m pruebas ........... 26
Cuadro 1.7.2. . P valor ajustado mediante el método de Bonferroni .................... 32
Cuadro 1.7.3.Control del FDR método de Benjamini y Hochberg ........................ 35
Cuadro 2.1.1. Clasificación de los métodos de remuestreo ................................. 36
Cuadro 2.2.1. Arreglo de un experimento aleatorizado ........................................ 41
Cuadro 2.2.2. Valores obtenidos en el experimento del ejemplo 2.2.1 ................. 43
Cuadro 2.2.3. Combinaciones más extremas que 𝑇(𝑧) = −9 ............................... 44
Cuadro 2.2.4. Tabla con 𝑇𝑘|(𝑧)| ≥ | − 9|. ............................................................. 46
Cuadro 2.2.5. Datos de la fuerza de la tensión de adhesión del experimento de la
formulación del cemento. ...................................................................................... 50
Cuadro 2.2.6. Arreglo de un diseño experimental con observaciones pareadas .. 52
Cuadro 2.3.1. Tabla diseño completamente al azar cuyo arreglo tiene por 𝑧 ....... 58
Cuadro 2.3.2. Tabla comparativa de los tipos de texto ......................................... 63
Cuadro 2.4.1. Datos del experimento del ejemplo 2.4.1. ...................................... 70
Cuadro 2.5.1. Comparación de pares de medias con su respectivo 𝑝 valor. ........ 72
Cuadro 2.5.2. Ajuste del 𝑝 valor mediante el método de Bonferroni ..................... 73
Cuadro 2.5.3. Método de Benjamini y Hochberg con una 𝐹𝐷𝑅 = 0.05 ................. 75
Cuadro 2.7.1. Cuadro con los resultados de un determinado experimento .......... 78
Cuadro 2.7.2. Resultados de las comparaciones múltiples paramétricos. ........... 79
Cuadro 2.7.3. Resultados de comparaciones múltiples de permutación. ............. 79
Cuadro 2.8.1. Valores de la función de potencia .................................................. 80
Cuadro 2.8.2. Valores de la función potencia tras realizar tres simulaciones. ...... 81
Cuadro 3.1.1. Asignación aleatoria ....................................................................... 85
VII
Resumen
Los diseños de experimentos pueden ser estudiados desde múltiples metodologías:
paramétrica, Bayesiana, no paramétrica y pruebas de permutación. En este trabajo
se estudiaron los diseños de experimentos unifactoriales usando la metodología de
pruebas de permutación, las cuales fueron estudiadas desde dos perspectivas
diferentes: pruebas exactas y pruebas aproximadas.
Primeramente, se hace una revisión de conceptos básicos y definiciones empleados
en el análisis de diseños de experimentos unifactoriales desde el enfoque de la
metodología paramétrica; incluyendo supuestos y métodos de comparaciones
múltiples. Posteriormente se proporciona una metodología de pruebas de
permutación enfocadas a los diseños experimentales unifactoriales, se estudian los
diseños experimentales comparativos simples (diseño aleatorizado y de parejas
aleatorias) y los diseños experimentales con al menos tres tratamientos (el diseño
completamente al azar y el diseño de bloques completos al azar), los cuales son
una generalización de los diseños experimentales comparativos simples. Esto
métodos son denominados métodos ANOVA de permutación. Asimismo se
presentan metodologías de comparación de pares de medias desde la perspectiva
de pruebas de permutación, esto cuando el ANOVA de permutación rechaza la
hipótesis nula H0.
Finalmente, en el documento se muestran aspectos importantes de la distribución
Monte Carlo, tales como el diagrama de flujo de la distribución Monte Carlo, la
validación de dicha distribución y la validación de la prueba de permutación
empleando distribución Monte Carlo. También al final se incluyen códigos
elaborados en el paquete python para cada una de las pruebas estadísticas
presentadas en el trabajo.
VIII
Summary
The experimental designs can be studied by multiple methodologies: parametric,
Bayesian, non-parametric and by permutation tests. In this work, the experimental
designs were studied using methodology of permutation tests, and they were studied
from two perspectives, as exact tests and approximate tests.
Firstly, basics concepts and definitions are presented in in relation to the analysis of
one factor experimental designs, carried out from the parametric perspective
including statistical assumptions and multiple comparison procedures. afterwards a
methodology with permutation tests focused on one factor experimental designs is
given, comparative simple experimental design (only two treatments) and the
experimental designs with at least three treatments (completely randomized
experimental design and experimental design of block completely randomized) are
studied.. The latter are also known as permutation ANOVA methods. At the same
time, we also present pairwise comparison procedures throughthe permutation tests
methodology, when the permutation ANOVA test rejects the null hypothesis of
equality of treatments effects.
Finally, important aspects about Monte Carlo’s distribution are exposed, including
Monte Carlo’s distribution flow diagram, the validation of Monte Carlo’s distribution
and the validation of permutation tests with Monte Carlo’s distribution. At the end,
python software code is included for each of the tests carried out throughout the
document.
IX
Introducción general
Las pruebas de permutación fueron propuestas por Fisher en 1935. En sus inicios
estas pruebas eran aplicables únicamente para muestras de tamaño pequeño, esto
debido al intensivo cálculo que estas requieren, sin embargo, con el desarrollo
gigantesco de las computadoras las pruebas de permutación han sido más
utilizadas. La metodología de las pruebas de permutación resulta ser más parecida
a las pruebas no paramétricas por las similitudes que mantienen en los supuestos,
aunque por la enorme realización de cálculos es una metodología más
computacionalmente exhaustiva.
Las pruebas de permutación son estudiadas como pruebas exactas y como pruebas
aproximadas. Son exactas cuando la probabilidad de cometer el error tipo I es igual
al valor 𝛼 de la distribución exacta de permutación de la estadística de prueba bajo
la hipótesis nula, y aproximada cuando se usa una aproximación de tal distribución
de tal modo que la probabilidad de cometer el error tipo I es aproximadamente 𝛼.
Las pruebas exactas generan todas permutaciones, mientras que las pruebas
aproximadas solo realizan una muestra aleatoria de tales permutaciones. Las
pruebas de permutación aproximadas para llevarse a cabo, emplean la distribución
Monte Carlo de la estadística de prueba, esta distribución es de uso imprescindible
debido a que permite que la prueba de permutación sea válida a pesar de la enorme
reducción en el número de permutaciones consideradas.
Las pruebas de permutación son pruebas de significancia estadística cuyo uso
principal es comparar medias de grupos o poblaciones mediante el cálculo del 𝑝
valor. Estas pruebas tienen como base la asignación aleatoria de las observaciones
a los distintos grupos tratamientos, por lo cual estas pruebas son útiles para diseños
experimentales (Manly, 2007);(Rizzo, 2008). Las pruebas de permutación pueden
ser empleadas tanto en muestras provenientes de una población o no
necesariamente. Por ejemplo en algunos campos del conocimiento, por mencionar
X
la biomédica, en ausencia de muestras aleatorias obliga al investigador a recurrir a
los métodos de prueba de permutación (Baustista & Gómez, 2007).
Para llevar a cabo una prueba de permutación se necesita encontrar la manera de
cómo realizar las asignaciones aleatorias de las observaciones a los grupos
tratamientos, además de que las variables u observaciones consideradas deben ser
intercambiables (este último supuesto es fundamental en una prueba de
permutación). Para el caso de los diseños experimentales unifactoriales
(completamente al azar y bloques completos al azar) y sus casos más sencillos, los
diseños comparativos simples, es fácil realizar las asignaciones aleatorias aunque
la forma en que se realizan las asignaciones varía para cada una de los diseños.
XI
Planteamiento del problema
Existe una abundante bibliografía que proporciona metodología para llevar a cabo
análisis de experimentos, es decir, realizar comparaciones de medias para un
conjunto de 𝑡 de tratamientos. La mayor parte de la bibliografía del análisis de
experimentos está enfocada desde la perspectiva de estadística paramétrica. La
metodología paramétrica hace uso de las distribuciones teóricas 𝑡 y 𝐹, las cuales
necesitan de determinados supuestos para poder ser empleadas. Tales supuestos
se enlistan abajo (Ramírez, 1986).
Correcta relación funcional entre la variable de respuesta y los factores
tratamientos que intervienen en el modelo. Se establece un modelo aditivo lineal
que en su modalidad unifactorial se compone de una constante (media general),
efecto del factor tratamiento, efecto del diseño y una parte aleatoria denominada
error.
Los resultados obtenidos en el experimento son observaciones independientes
que provienen de una población que se distribuye normal.
Los errores tienen una distribución normal independiente e idénticamente
distribuida con media igual a cero y varianza constante (𝜎2).
Cuando todos los supuestos anteriores se cumplen, las pruebas paramétricas
proporcionan pruebas de hipótesis uniformemente más potentes que cualquier otro
tipo de prueba (Noreen, 1989). Desafortunadamente, en la práctica, los supuestos
anteriormente mencionados muchas veces no se cumplen, entonces realizar las
comparaciones de medias mediante la metodología paramétrica pudiera no ser la
mejor opción. Aquí es donde emplear pruebas de permutación puede ser una
alternativa adecuada (Manly, 2007). Enseguida se proporcionan las consecuencias
que se obtienen de usar pruebas paramétricas cuando los supuestos fallan
anteriores fallan (Ramírez, 1986):
XII
Falta de normalidad
Cuando el supuesto de normalidad falla se presentan alteraciones en el nivel de
significancia de la prueba de 𝐹.
Se introduce sesgo en la estimación de los efectos de tratamientos.
En la práctica se tienen buenas aproximaciones a la distribución 𝐹, a pesar de
que las variables involucradas no tengan una distribución normal, esta
característica se le denomina que la prueba 𝐹 es robusta ante la falta de
normalidad.
Falta de homocedasticidad
Cuando el supuesto de homocedasticidad (igualdad de varianzas) se viola, el
cuadrado medio del error deja ser un estimador insesgado de la varianza 𝜎2.
Los métodos de comparaciones de pares de media como: Tukey, diferencia
significativa mínima, Duncan, etc., se vuelven menos confiables.
La falta de homocedasticidad no afecta mucho la prueba 𝐹 en diseños
experimentales balanceados, pero pueden ser problemas serios en diseños des
balanceados.
Falta de independencia de errores
Genera errores en la estimación del error estándar de la estimación de las
diferencias de medias entre tratamientos, obteniendo conclusiones falsas.
Las pruebas no paramétricas brindan una alternativa al análisis de experimentos.
Estas pruebas se caracterizan por mantener de manera satisfactoria el error tipo I
cuando suposiciones de la normalidad no son válidas, ya que no hacen supuestos
específicos sobre la distribución de los datos. Como ejemplo de pruebas no
paramétricas tenemos la Prueba Mann-Whitney, que es una prueba no paramétrica
equivalente a la prueba paramétrica que emplea la distribución 𝑡 como distribución
de referencia para comparar la media de dos poblaciones normales, o la prueba
Kruskal-Wallis que es una prueba no paramétrica equivalente a la prueba
XIII
paramétrica que emplea como distribución de referencia la distribución 𝐹 en un
diseño completamente al azar.
Usualmente los métodos no paramétricos son ligeramente menos eficientes que las
pruebas paramétricas cuando las poblaciones subyacentes son normales (Gleason,
2013), pero las pruebas no paramétricas pueden ser levemente o mucho más
eficientes que las pruebas paramétricas cuando las poblaciones no son normales
(Myles y Douglas, 1999).
Las pruebas no paramétricas generan diversas opiniones y algunas muy
antagónicas. Por ejemplo, muchos autores critican a las pruebas no paramétricas
porque estas pierden poder debido a que trabajan con rangos y no con los datos
reales. Otros autores han declarado que los rangos no solo generan pérdida en el
poder de la prueba sino que también pueden aumentar el poder de la prueba. Hay
discusiones que siguen causando discrepancia entre autores, pero una ventaja
adicional que si es reconocida sin discrepancia, es que las pruebas no paramétricas
son más confiables que las pruebas paramétricas en presencia de valores atípicos
(Neave & Worthington, 1988).
Las pruebas basadas en rangos, tales como, Mann-Whitney o Kruskal-Wallis para
el caso de análisis de experimentos son importantes, ya que estas se presentan
como pruebas con mayor flexibilidad en cuanto los supuestos subyacentes a la
distribución probabilística que generó los datos (Myles & Douglas, 1999).
En este trabajo se presenta la metodología de pruebas de permutación como una
alternativa a las pruebas paramétricas y no paramétricas de análisis de
experimentos unifactoriales. Estas pruebas, aunque con una perspectiva más
computacional, brindan solución a problemas tan similares como con la metodología
paramétrica y proporcionan resultados tan buenos como las pruebas no
paramétricas cuando los supuestos subyacentes de las pruebas paramétricas no se
satisfacen completamente.
XIV
Justificación
Aquellas instituciones con ámbito profesional similar a la Universidad Autónoma
Chapingo, es decir, instituciones de enseñanza enfocadas al ámbito de la
agronomía, es importante que cuenten con metodologías objetivas para el análisis
de experimentos, esto debido a que la agronomía es un área de estudio con un
sentido totalmente experimental. Tal sentido es fácil de verificar con presentar
ejemplos como los siguientes: probar si el rendimiento de una variedad nueva de
maíz es mejor que una convencional, probar si el fertilizante de urea presenta mayor
rendimiento que el fertilizante triple 17, probar tres tipos de métodos de
inseminación en ganado jersey, etc. Para el análisis de tales experimentos se
necesitan herramientas de análisis estadístico, ya que de esta manera se dispone
una herramienta objetiva para mejorar un proceso de producción o un sistema.
Para el análisis de experimentos se usan los métodos paramétricos y los no
paramétricos, sin embargo, hay una metodología alternativa de análisis que se
denomina pruebas de permutación. Los análisis de diseños experimentales con
pruebas de permutación, son capaces de proporcionar resultados precisos bajo
condiciones donde las pruebas paramétricas pueden generar problemas. El análisis
con pruebas de permutación no se limita a poblaciones normales, además, no
necesita del supuesto de independencia de los errores (Box, Hunter, & Hunter,
2008). Enseguida se muestran otras propiedades estadísticas de las pruebas de
permutación al compararlas con las pruebas paramétricas comunes.
Bajo normalidad y homocedasticidad, las pruebas de permutación brindan
resultados tan poderosos como la prueba 𝑡 paramétrica (Edginton & Onghena,
2007); (Manly, 2007).
En las pruebas de permutación el �̂� valor es muy similar al estimado con las
prueba 𝑡 pareada paramétrica (Box, Hunter, & Hunter, 2008).
Gleason (2013) reporta resultados similares para experimentos unifactoriales
con un número de tratamientos mayor o igual a 3 y bajo condiciones de
XV
normalidad menciona que la prueba de ANOVA del método paramétrico y de
ANOVA de permutación proporcionan potencias muy similares.
Respecto a las pruebas no paramétricas vs pruebas de permutación, Gleason
(2013) menciona que hay autores que afirman que las pruebas de permutación son
más potentes que las no paramétricas. Enseguida se mencionan algunas
propiedades que comparten las pruebas de permutación con las pruebas no
paramétricas.
Las pruebas de permutación tienen capacidad para hacer frente a los valores
atípicos, detectando la diferencia en las medias aun cuando estos están
presentes (Edgington, 1995).
Pruebas de permutación son flexibles en cuanto a los supuestos subyacentes a
la distribución probabilística que generó los datos (Noreen, 1989).
Son métodos cuyo estadístico de prueba es de distribución libre (Gleason, 2013)
y (Hollander & Wolfe, 1999).
Otras propiedades notables de las pruebas de permutación sobre las pruebas
paramétricas y no paramétricas son:
Son empleadas también cuando la distribución teórica del estadístico es
desconocida o muy compleja. Por ejemplo, mediana en una distribución normal
(Noreen, 1989).
El investigador por la naturaleza de su estudio está libre de elegir el estadístico
de prueba (Manly, 2007). Por ejemplo, si un investigador desea probar si un
nuevo tratamiento postquirúrgico presenta mejores resultados que un
tratamiento estándar, los resultados serán medidos en días de recuperación del
paciente. Entonces un estadístico adecuado para este problema puede ser la
diferencia de medias entre el tratamiento nuevo y el estándar; otro investigador
puede proponer el estadístico 𝑡 empleado en la prueba paramétrica u otro
estadístico equivalente (Box, Hunter, & Hunter, 2008).
XVI
Debido a que las pruebas de permutación realizan grandes cantidades de cálculos,
esta es una metodología puramente computacional, de manera que sin el desarrollo
de las computadoras estas continuarían siendo solo una idea como lo eran en sus
inicios. Con el desarrollo enorme de las computadoras, las pruebas de permutación
han dejado de ser pruebas engorrosas y poco prácticas, para pasar a ser pruebas
viables. Aprovechando el poder de cálculo que poseen las computadoras y la
disponibilidad que estas tienen hoy en día, es una razón para que el uso de las
pruebas de permutación se generalice. Por lo anterior, en este trabajo se
proporciona la metodología de estas, así como, se proporcionan programas
elaborados en Python para llevar a cabo el análisis de experimentos unifactoriales
con la metodología de pruebas de permutación; de esta manera, también se
pretende dar extensión práctica a estas, ya que son muy útiles pero
desafortunadamente poco conocidas.
XVII
Objetivos
General
Exponer de manera clara y sencilla una metodología para llevar a cabo el análisis
de diseños experimentales unifactoriales, mediante la implementación de las
pruebas de permutación. De esta manera, se proporcionará un material de análisis
didáctico y práctico, que sea una alternativa a las pruebas comúnmente conocidas
en el análisis de experimentos.
Particulares
Proporcionar un material de estudio de pruebas de permutación enfocadas
al análisis de experimentos unifactoriales: diseños de experimentos
comparativos simples, diseño completamente al azar y diseños de bloques
completos al azar.
Generar un programa de cómputo elaborado en el software Python para
realizar análisis de datos de experimentos con pruebas de permutación en
los diseños experimentales mencionados en el punto anterior.
Proporcionar una herramienta de análisis alternativa a las comúnmente
conocidas
XVIII
Metodología
La naturaleza del presente trabajo no exige experimentos prácticos, por lo que, el
contenido expuesto es obtenido mediante la revisión de bibliografía (libros, tesis y
artículos) y páginas web. La bibliografía consultada fueron aquellas enfocadas a
temas de pruebas de permutación, lenguaje de programación Python, algoritmos y
temas de diseños experimentos, además, considerar la actualización de la
bibliografía fue un criterio primordial. Entonces, considerando este último criterio
tanto como aquellos dos primeros es como se elabora este escrito.
1
Capítulo 1 1 Definiciones y conceptos básicos
1.1 Elementos que constituyen el diseño experimental
Definición 1.1.1. Variable respuesta. Es el resultado obtenido de un conjunto de
variables entrantes que han sido sometidas a un proceso, el cual se ve afectado por
factores controlables y no controlables.
Definición 1.1.2. Factor. Son las variables independientes que pueden influir en la
variabilidad de la variable de interés.
Definición 1.1.3. Factor perturbador. Aquellos factores que pueden influir sobre la
variable respuesta pero en los que no hay interés en específico
Definición 1.1.4. Factor tratamiento. Es un factor el que interesa conocer su
influencia en la respuesta. Este es denominado comúnmente como factor.
Los factores pueden ser cualitativos, es decir, los factores pueden representar
características o modalidades; o cuantitativos, esto es, toman cantidades
numéricas. Enseguida se enlistan unos ejemplos.
Cualitativos
Proveedores de materia prima en la elaboración de fertilizante (materia orgánica,
urea, sulfato de amonio), tipo de máquina, sexo (hombre y mujer).
Cuantitativos
Temperatura, calor, tiempo. Estas seleccionadas en un rango de interés.
Capítulo 1
2
Definición 1.1.5. Tratamiento. Son cada una de las modalidades de los factores de
estudio a las que son sometidas cada una de las unidades experimentales. Por
condiciones nos referimos a factores tratamientos considerando uniformes otros
factores, siendo aquel el único que cambia. Por lo anterior, en un diseño con un
único factor, los tratamientos son los distintos niveles del factor tratamiento y en un
diseño con varios factores, los tratamientos son las distintas combinaciones de
niveles de los factores tratamientos.
Definición 1.1.6. Factor de efecto fijo. Es un factor en el que los niveles han sido
seleccionados por el experimentador. Es apropiado cuando el interés se centra en
comparar el efecto sobre la respuesta de esos niveles específicos.
Definición 1.1.7. Factor de efecto aleatorio. Es un factor que se incluyen en el
experimento como una muestra aleatoria simple de todos los niveles del mismo.
Definición 1.1.8. Unidad experimental. Es el material donde se evalúa la variable
respuesta y cada una de estas es independiente.
Definición 1.1.9. Diseño balanceado. Es el diseño en el que todos los tratamientos
son asignados a un número igual de unidades experimentales.
Definición 1.1.10. Observación experimental. Es cada medición de la variable
respuesta.
Principios del diseño experimental
Establecer adecuadamente el diseño de un experimento nos permitirá obtener
resultados consistentes con la realidad, de esta manera, mediante un correcto
análisis estadístico obtener conclusiones válidas.
Sin importar el diseño que sea, para que este se lleve a cabo de manera adecuada
se consideran tres principios experimentales: réplicas, aleatorización y formación de
bloques.
Definiciones y conceptos básicos
3
La réplica en un experimento se define como la realización de cada tratamiento en
unidades experimentales diferentes, esta es muy importante ya que bajo
condiciones de variabilidad en la mediciones de cada réplica nos permite realizar
inferencia, esto es, nos permite decir que tanto de la variabilidad del experimento
se debe al efecto del factor tratamiento y que tanto se debe a la generada por el
azar. Por aleatorización se quiere decir la manera en que se asignan las unidades
experimentales y el orden en que se realizan los ensayos individuales del
experimento es al azar. Las observaciones deben de ser variables aleatorias con
distribuciones independientes y la aleatorización hace válido esto. Ramírez (1986)
señala que la aleatorización no garantiza la independencia, si no que permite
proceder como si la independencia fuera un hecho. La formación de bloques es una
herramienta utilizada para reducir el efecto de los factores perturbadores; de manera
general un bloque son condiciones experimentales relativamente homogéneas en
cuanto a factores de perturbación. Para ejemplificar los tres principios mencionados
anteriormente se propone el siguiente ejemplo.
Ejemplo 1.1.1. Suponga que un ingeniero agrónomo desea probar si tres tipos de
variedades de maíz denotadas como (variedad 1, variedad 2 y variedad 3) tienen el
mismo rendimiento. Entonces en este caso se tiene que la unidad experimental son
áreas de 1.5 x 1.5 m en una parcela específica. En la Figura 1.1.1 se muestra
gráficamente el experimento.
Fuente. Elaboración propia
Figura 1.1.1 Parcela del ejemplo 1.1.1.
Capítulo 1
4
La figura anterior denota el experimento del ejemplo 1.1.1, donde todo el cuadrado
de color naranja incluyendo cada uno de los cuadrados blancos forma la parcela,
mientras que únicamente los recuadros en blanco son las unidades experimentales
(superficie de terreno 1.5 x 1.5 m). La denominación “var” hace referencia a la
variedad que se asignó a dicha unidad experimental. Se supone que la parcela es
homogénea en cuanto a fertilidad, tipo de suelo y otras condiciones que pueden
hacer de ella heterogénea.
En el ejemplo 1.1.1 se tienen 3 réplicas para la variedad 1, variedad 2 y la variedad
3, por lo que se tienen 3 distintas unidades experimentales (superficie de terreno
1.5 x 1.5 m) diferentes para cada tratamiento, es decir, se tienen 9 unidades
experimentales diferentes en total. Entonces para 𝑛 réplicas se requieren 𝑛
unidades experimentales (superficie de terreno 1.5 x 1.5 m) diferentes para cada
variedad, por lo que en total se requieren de 3𝑛 unidades experimentales diferentes.
La aleatorización en el ejemplo 1.1.1 consiste en asignar de manera aleatoria a cada
una de las variedades (variedad 1, variedad 2 y variedad 3) en cada una de las
unidades experimentales (superficie de terreno 1.5 x 1.5 m).
La realización de bloque en el ejemplo 1.1.1 podría llevarse a cabo de la siguiente
manera. Si la parcela no es totalmente uniforme en cuanto al tipo de suelo, es decir,
una parte de la parcela es arenosa mientras que otra parte es de textura más
arcillosa, entonces no considerar el tipo de suelo puede generar inferencias
incorrectas. De manera que las unidades experimentales (superficie de terreno 1.5
x 1.5 m) deben de concentrarse dentro de cada tipo de suelo. Por ejemplo, si el
investigador no bloquea por tipo de suelo, el azar puede afectar el experimento, esto
es, puede que por el azar la mayoría de las observaciones de la variedad uno sean
asignadas en el suelo arenoso y la mayor parte de la variedad tres sean asignadas
en el suelo arcilloso, entonces no estamos siendo justos con cada una de las
variedades. En este caso sería necesario que el tipo de suelo sea un factor a
considerar y de esta manera crear condiciones homogéneas para cada una de las
tres variedades.
Definiciones y conceptos básicos
5
Definición 1.1.11. Diseño experimental. Es el procedimiento que se sigue para
asignar los tratamientos a las unidades experimentales. Los más reconocidos son:
completamente al azar, bloques aleatorizados y cuadrado latino.
Definición 1.1.12. Diseño completamente al azar. Se origina por la asignación
aleatoria de los tratamientos a un conjunto de unidades experimentales previamente
determinadas. En este diseño se utilizan 𝑡 tratamientos; asignando al azar a cada
uno de estos a 𝑛 unidades experimentales distintas. En este diseño todas las
unidades experimentales tienen la misma probabilidad de recibir cualquiera de los
tratamientos y son independientes. Si cada tratamiento tiene el mismo número de
unidades experimentales, entonces se dice que el experimento es balanceado, de
lo contrario se denomina desbalanceado.
Definición 1.1.13 Diseño bloques al azar. Este diseño se origina al bloquear el
experimento, entonces dentro de cada bloque se realiza un diseño completamente
al azar balanceado, esto es, se utilizan 𝑡 tratamientos, asignando al azar cada uno
de estos a únicamente una unidad experimental. Cuando cada uno de los 𝑡
tratamientos se asigna al azar en al menos dos unidades experimentales el diseño
para cada bloque, entonces al diseño experimental se le denomina bloques
generalizados.
Definición 1.1.14. Experimentos comparativos simples. Son aquellos diseños
experimentales donde el factor considerado únicamente cuenta con dos niveles, es
decir, en el experimento solamente se quieren probar dos tratamientos. Por ejemplo:
el factor fertilizante que cuenta con dos niveles, fertilizante k1 y el fertilizante H3,
entonces en el diseño se quiere comparar si uno de ellos es superior al otro en
cuanto rendimiento. Las pruebas de hipótesis para diseños de experimentos
comparativos simples se pueden ver que compara raciones de medias de dos
poblaciones, pero debido a que se tienen tratamientos por eso la perspectiva es
desde el análisis de experimentos.
Capítulo 1
6
1.2 Conceptos de combinatoria
Combinación
Arreglo de elementos donde no importa el lugar o posición que ocupan estos dentro
el arreglo. En una combinación interesa formar grupos y el contenido de dichos
grupos. La ecuación para determinar el número de combinaciones es:
𝐶𝑟𝑛 =
𝑛!
(𝑛 − 𝑟)! ∗ 𝑟! 1.2.1
𝐶𝑟𝑛 Denota el número de combinaciones en 𝑛 objetos tomados de 𝑟 objetos.
Por ejemplo: si se tiene 4 bolas de billar ¿cuántas combinaciones se pueden generar
de 4 bolas de billar tomadas de 3 bolas?
Si se aplica la fórmula se tiene el siguiente resultado: 𝐶34 =
4!
(4−3)!∗3!= 4
Suponga que se tienen las cuatro bolas de billar diferentes denotadas de la siguiente
manera {𝑏1, 𝑏2, 𝑏3, 𝑏4}, entonces los cuatro grupos generados a partir de tomar tres
de los cuatro son: {𝑏1, 𝑏2, 𝑏3}, {𝑏1, 𝑏2, 𝑏4}, {𝑏2, 𝑏3, 𝑏4} 𝑦 {𝑏1, 𝑏3, 𝑏4}. Este concepto
es empleado para generar las asignaciones en el diseño completamente
aleatorizado en de un diseño experimental comparativo simple.
Partición de un conjunto
Consiste en dividir a un conjunto que contiene 𝑛 elementos en 𝑘 conjuntos más
pequeños que él, donde el tamaño de cada una de las divisiones es 𝑛1, 𝑛2, … 𝑛𝑘
Y se cumple que 𝑛𝑖 ∩ 𝑛𝑗 = ∅ para toda 𝑖 ≠ 𝑗. La ecuación se presenta a continuación
(𝑛
𝑛1, 𝑛2, … 𝑛𝑘) =
𝑛!
𝑛1! 𝑛2! … 𝑛𝑘! 1.2.2
Retomando el conjunto de las cuatro bolas de billar {𝑏1, 𝑏2, 𝑏3, 𝑏4}, si deseo realizar
una partición de ese conjunto en dos conjuntos, tales que, uno contenga tres
Definiciones y conceptos básicos
7
elementos y el otro contenga un único elemento, la partición se obtiene de la
siguiente manera.
(4
3 1) =
4!
3! 1!= 4
Entonces las particiones posibles son:
1). {{𝑏1, 𝑏2, 𝑏3} , { 𝑏4}} 2). { {𝑏1, 𝑏2, 𝑏4}, {𝑏3}} ,
3). { {𝑏2, 𝑏3, 𝑏4} , {𝑏1}} 4). { {𝑏1, 𝑏3, 𝑏4}, {𝑏2}}
Este concepto es empleado para generarlas asignaciones en el diseño
completamente al azar.
1.3 Distribuciones muestrales
Definición 1.3.1. Distribución muestral. Se define como la distribución de una
estadística a través de todas las muestras de un tamaño dado extraída de una
población específica.
Rodgers (1999) describe los siguientes tres tipos de distribuciones muestrales:
distribución muestral idealizada, distribución muestral teórica y distribución muestral
empírica. La distribución muestral generada directamente de la población, es decir,
si la población fuese directamente observable se podría obtener la distribución
muestral y a esta se denomina distribución muestral idealizada. Sin embargo,
disponer de la totalidad de toda una población es algo poco probable y en virtud de
esto se tienen dos tipos de distribuciones que se emplean en lugar de la distribución
muestral idealizada. La primera es la que puede ser obtenida mediante el uso de
una distribución matemática abstracta si ciertos supuestos se cumplen, Gosset y
Fisher (Casella & Berger, 2002) la emplearon para definir las distribuciones
muestrales 𝐹 y 𝑡, a estas se les denomina distribución muestral teórica. Mientras la
segunda es obtenida usando una única muestra y una rutina aleatoria para re-
ordenar, re-extraer o re-asignar estos elementos de la muestra para generar la
Capítulo 1
8
distribución de un estadístico, a esta distribución se le denomina distribución
muestral empírica.
En los diseños y análisis de experimentos unifactoriales, estudiados desde la
perspectiva de la metodología paramétrica salen a relucir las distribuciones
muestrales teóricas, tales como: la distribución normal, distribución 𝑡, distribución 𝐹
y la distribución ji-cuadrada. Mientras que con la metodología de pruebas de
permutación sale a relucir la distribución muestral empírica, esta denominada
distribución de aleatorización.
Definición 1.3.2. Distribución de aleatorización. Es la distribución que se genera del
cálculo de un estadístico de prueba, este obtenido mediante la asignación aleatoria
de las observaciones a los distintos grupos o tratamientos. El número de
asignaciones aleatorias coincide con ( 𝑛𝑛1 𝑛2
) para dos tratamientos y con
( 𝑛𝑛1 𝑛2 … 𝑛𝑘
) para 𝑘 tratamientos.
1.4 Conceptos generales de pruebas de hipótesis
Definición 1.4.1. Hipótesis estadística. Cualquier afirmación o conjetura referente a
los parámetros de una o más poblaciones.
Definición 1.4.2. Las dos hipótesis complementarias en un problema de prueba de
hipótesis son llamadas hipótesis nula e hipótesis alternativa, estas son denotadas
por H0 y H1, respectivamente.
Definición 1.4.3. Prueba de hipótesis. Una prueba de hipótesis es una regla que
específica:
Para que valores de muestra se toma la decisión de aceptar la H0 como
verdadera.
Para que valores de muestra se toma la decisión de rechazar la H0 y se acepta
como verdadera a H1.
Definiciones y conceptos básicos
9
Definición 1.4.4. Error tipo I. Cuando se rechaza la hipótesis nula siendo que en
realidad es verdadera.
𝛼 = 𝑃(𝑒𝑟𝑟𝑜𝑟 𝑡𝑖𝑝𝑜 I) = 𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0| H0 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 )
Definición 1.4.5. Error tipo II. Cuando no se rechaza nula siendo que en realidad es
falsa.
𝛽 = 𝑃(𝑒𝑟𝑟𝑜𝑟 𝑡𝑖𝑝𝑜 II) = 𝑃(𝑛𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0| H0 𝑒𝑠𝑓𝑎𝑙𝑠𝑎 )
Definición 1.4.6. Contraste de hipótesis para el parámetro 𝜃
H0: 𝜃 ∈ 𝜔
H0: 𝜃 ∈ Ω − 𝜔
Se llama estadística de prueba, a la estadística que usa para determinar la región
de rechazo, y al valor que acota a la estadística de prueba en la determinación de
la región de rechazo se le llama valor crítico.
Definición 1.4.7. Función de prueba. Sean las hipótesis nula H0 y la alterna H1 se
llama función de prueba a 𝜑(𝒙) = 𝜑(𝑥1, 𝑥2, … , 𝑥𝑛) = {0 si no se rechaza H0
1 si se rechaza H0
Definición 1.4.8. Función de potencia de una prueba 𝜑 se define como una función
𝛽𝜑(𝜃): Ω → [0,1]
𝛽𝜑(𝜃) = 𝑃(𝜑(𝑿) = 1|𝜃) = 𝑃{Rechazar H0 usando 𝜑|𝜃}
Ω: Denota el espacio paramétrico (son los valores posibles que puede tomar el
parámetro). Por ejemplo, si el parámetro es calcular el promedio de vida de los
ciudadanos mexicanos, un espacio paramétrico razonable sería [0,100], pero no es
posible el siguiente espacio paramétrico [−10,100].
Definición 1.4.9. Una prueba 𝜑 se llama prueba de tamaño 𝛼. Para 0 ≤ 𝛼 ≤ 1, una
prueba 𝜑 con función de potencia 𝛽𝜑(𝜃) es de tamaño 𝛼 si 𝑆𝑢𝑝𝜃∈𝜔𝛽𝜑(𝜃) = 𝛼
(Casella & Berger, 2002)
Capítulo 1
10
Definición 1.4.10. Nivel 𝛼 de la prueba 𝜑 (nivel de significancia). Para 0 ≤ 𝛼 ≤ 1,
una prueba con función de potencia 𝛽𝜑(𝜃) es de nivel 𝛼 si 𝑆𝑢𝑝𝜃∈𝜔𝛽𝜑(𝜃) ≤ 𝛼 (Casella
& Berger, 2002).
Definición 1.4.11. Potencia de la prueba.
𝛽𝜑(𝜃) = 𝑃{𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|𝜃} Cuando 𝜃 ∈ Ω − 𝜔 entonces la potencia de la prueba
queda:
𝑝𝑜𝑡𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 = 𝑃{𝑅𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎}
= 1 − 𝑃{𝑁𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎} = 1 − 𝛽 = 𝛽𝜑(𝜃)
Donde:
𝛽 = 𝑃{𝑁𝑜 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑟 H0|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 } = 𝑃{𝐸𝑟𝑟𝑜𝑟 𝑡𝑖𝑝𝑜 𝐼𝐼|H1 𝑒𝑠 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 }
Cuando se logra que 𝛽𝜑(𝜃) para 𝜃 ∈ Ω − 𝜔 sea la máxima ante cualquier prueba y
𝑠𝑢𝑝𝜃∈𝜔
𝛽𝜑(𝜃)≤ 𝛼, entonces se ha encontrado la prueba uniformemente más potente.
Lo antes dicho se ilustra en la Figura 1.4.1.
Figura 1.4.1 Función de potencia de la prueba.
Fuente (Morales, 2010)
Definiciones y conceptos básicos
11
Definición 1.4.12. Prueba exacta. Una prueba de hipótesis para la cual
P(error tipo I ) = α, se llama prueba exacta.
Una prueba se dice que es conservadora si la P(error tipo I ) real no excede al valor
de significancia 𝛼 fijado. Por lo anterior, una prueba exacta es conservadora.
P valor
En los diseños de experimentos presentados anteriormente, la hipótesis nula se
rechaza o no con un valor especificado 𝛼 o nivel de significancia. A menudo este
planteamiento es inadecuado, porque no proporciona ninguna idea sobre si el valor
calculado del estadístico está apenas en la región de rechazo o bien ubicado dentro
de ella. Para evitar este problema se presenta el p valor.
Definición.1.4.12. 𝑝 Valor. El 𝑝 valor 𝑝(𝑿) es un estadístico de prueba que satisface
0 ≤ 𝑝(𝒙) ≤ 1 para cada muestra 𝒙. Valores pequeños de 𝑝(𝑿) dan evidencia en
contra de H0. El 𝑝 valor es válido si, para cada 𝜃 ∈ 𝜔 y para todo 0 ≤ 𝛼 ≤ 1 cumple
𝑃𝜃(𝑝(𝑿) ≤ α) ≤ 𝛼 (Casella & Berger, 2002).
Se acostumbra a decir que el estadístico de prueba es significativo cuando se
rechaza la hipótesis nula, por lo que 𝑝 valor puede considerarse como el nivel 𝛼 en
el que los datos son significativos. Una ventaja de reportar el resultado de una
prueba vía 𝑝 valor es que el lector puede elegir el nivel 𝛼 que considere apropiado
y de este modo comparar el 𝑝(𝒙) reportado con 𝛼 y saber si con esos datos se
concluye en el rechazo o la aceptación de H0.
La regla de rechazo para la hipótesis nula es:
Rechazar H0 si 𝑝(𝑿) ≤ 𝛼
Definición 1.4.13. 𝑝 Valor ajustado. Considere 𝐻𝑖 para 𝑖 = 1, 2, … , 𝑘, de manera que
H0𝑖 𝑉𝑠 H1
𝑖
𝑝 𝑉𝑎𝑙𝑜𝑟 𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜 = 𝑝 = 𝑖𝑛𝑓{𝛼| H𝑖 𝑒𝑠 𝑟𝑒𝑐ℎ𝑎𝑧𝑎𝑑𝑎 𝑎𝑙 𝑛𝑖𝑣𝑒𝑙 𝐹𝑊𝐸𝑅 = 𝛼}
Capítulo 1
12
En palabras sencillas, el 𝑝 𝑉𝑎𝑙𝑜𝑟 𝑎𝑗𝑢𝑠𝑡𝑎𝑑𝑜 es el nivel de significancia más pequeño
para el cual todavía se rechaza H𝑖, dado un procedimiento simultaneo.
Propiedad de distribución libre en una prueba de permutación
Considere la siguiente prueba de hipótesis
H0: 𝐹1 = 𝐹2 = 𝐹
Donde 𝐹 no tiene una distribución específica.
Considere que 𝑇 es el estadístico de prueba para los datos experimentales,
entonces se obtiene una distribución de la estadística 𝑇 bajo H0, que se origina
mediante el cálculo 𝑇 de a través de todas las permutaciones; el cálculo de 𝑇 de las
permutaciones generadas se denomina 𝑇𝑘. El 𝑝 valor constituye el número de veces
que 𝑇𝑘 es más extremo que 𝑇 dividido por el número de total de posibles
combinaciones, dado por ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡!
).
Cuando H0 es verdadera, la distribución de 𝑇 no depende de 𝐹, es decir,
𝑃(𝑝 ≤ 𝛼|H0) No depende de 𝐹
Lo anterior significa que el nivel de significancia de la prueba es independiente de
la forma hipotética en la población infinita de la cual la muestra fue extraída.
Definición 1.4.14. Remuestreo. Según Ledesma (2008) “la denominación de
remuestreo se debe a que los métodos se basan esencialmente, en la extracción
de un gran número de muestras repetidas de los propios datos, y sobre esta se
realizan posteriormente descripciones e inferencias” (p. 52).
Definición 1.4.15. Estadístico equivalente. Dos estadísticos de prueba se dicen
equivalentes si tras realizar una prueba de permutación proporcionan el mismo nivel
de significancia.
Definición 1.4.16. Variables aleatorias intercambiables. La colección de variables
aleatorias 𝑋1, 𝑋2, … , 𝑋𝑛 se dice intercambiable si su distribución conjunto verifica
Definiciones y conceptos básicos
13
𝑃[𝑋1 ≤ 𝑥1, 𝑋2 ≤ 𝑥2, … , 𝑋𝑛 ≤ 𝑥𝑛] = 𝑃[𝑋1 ≤ 𝑥𝑟(1), 𝑋2 ≤ 𝑥𝑟(2), … , 𝑋𝑛 ≤ 𝑥𝑟(𝑛)]
En otras palabras Las variables X1, X2, … , Xn aleatorias se llaman simétricamente
dependientes o variables intercambiables, si cualquier permutación de cualquier
subconjunto de ellas tiene la misma distribución de probabilidad (Good P. , 2002)
Para cualquier permutación de los 𝑛 índices. Para una función de densidad lo
anterior equivale
𝑓(𝑥1, 𝑥2, 𝑥3, … , 𝑥𝑛) = 𝑓(𝑥𝑟(1), 𝑥𝑟(2), 𝑥𝑟(3), … , 𝑥𝑟(𝑛))
Para una función masa de probabilidad se tiene
𝑝(𝑥1, 𝑥2, 𝑥3, … , 𝑥𝑛) = 𝑝(𝑥𝑟(1), 𝑥𝑟(2), 𝑥𝑟(3), … , 𝑥𝑟(𝑛))
1.5 Diseños experimentales comparativos simples
A continuación se presentan de manera resumida el diseño y análisis de
experimentos desde la metodología paramétrica. Se comienza con la inferencia de
las diferencias de dos tratamientos, donde la distribución de referencia es la
distribución 𝑡. Se finaliza con el análisis de varianza donde se comparan 𝑡
tratamientos, la distribución 𝐹 es la distribución de referencia para llevar a cabo la
prueba de hipótesis.
1.5.1 Comparación de dos poblaciones independientes
Un modelo estadístico simple que describe a esta situación es:
𝑦𝑖𝑗 = 𝜇𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2 𝑗 = 1, 2, 3, … , 𝑛𝑖
(1.5.1)
Donde 𝑦𝑖𝑗 es la observación 𝑗-ésima del nivel 𝑖 del factor, 𝜇𝑖 es la media de la
respuesta para el nivel 𝑖-ésimo del factor, y 휀𝑖𝑗 es una variable aleatoria normal
asociada con la observación 𝑖𝑗-ésima.
El modelo mostrado por la ecuación 1.5.1 se le denomina modelo de medias pero
si la media 𝜇𝑖 la definimos como una media general más una desviación causada
Capítulo 1
14
por el efecto del nivel 𝑖 del factor tratamiento al que denominamos simplemente
tratamiento, es decir,
𝜇𝑖 = 𝜇 + 𝜏𝑖
El modelo 1.5.1 se escribe de la siguiente manera
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2 𝑗 = 1, 2, 3, … , 𝑛𝑖
(1.5.1)
Donde 𝑦𝑖𝑗 es la observación 𝑗-ésima del 𝑖 ésimo tratamiento (𝜏), 𝜇 es media la
general, y 휀𝑖𝑗 es una variable aleatoria normal asociada con la observación 𝑖𝑗-ésima.
Enseguida se mencionan los supuestos que se debe de considerar al emplear el
modelo 1.5.1
𝑦𝑖𝑗𝑖𝑖𝑑~
𝑁(𝜇 + 𝜏𝑖, 𝜎2), 𝑖 = 1, 2.
휀𝑖𝑗𝑖𝑖𝑑~
𝑁(0, 𝜎2), 𝑖 = 1, 2 y 𝑗 = 1, 2, … , 𝑛𝑗
Respecto a los dos supuestos anteriores se debe cumplir que 𝜎21 = 𝜎2
2 = 𝜎2.
Las pruebas de hipótesis para el modelo (1.5.1) es el siguiente.
H0: 𝜏1 = 𝜏2 = 0 Vs H1: 𝜏1 ≠ 𝜏2
Que es lo mismo
H0: 𝜇1 = 𝜇2 Vs H1: 𝜇1 ≠ 𝜇2
El primer contraste es ideal para contrastar efectos de tratamientos y este último
para comparar medias de dos poblaciones. Sin embargo, aunque el objetivo es
probar la primera prueba de hipótesis, se trabajará con la media de los tratamientos.
El estadístico de prueba que debe de usarse para la prueba de hipótesis anterior de
la diferencia de medias es el siguiente (Montgomery, 2004):
𝑡0 =(�̅�1 − �̅�2) − (𝜇1 − 𝜇2)
𝑆𝑝√1
𝑛1+
1
𝑛2
(1.5.2)
Definiciones y conceptos básicos
15
Donde �̅�1 y �̅�2 son las medias para 𝜏1 y 𝜏2 respectivamente, 𝑛1 es el tamaño de la
muestra de 𝜏1 y 𝑛2 tamaño de la muestra respecto a 𝜏2, 𝑆𝑝 es una estimación de la
varianza común cuando 𝜎21 = 𝜎2
2, calculada a partir de:
𝑆𝑝 =(𝑛1 − 1)𝑆2
1 + (𝑛2 − 1)𝑆22
𝑛1 + 𝑛2 − 2
𝑆21 y 𝑆2
2 son las varianzas muestrales individuales. En diseños de experimentos la
varianza será desconocida y la varianza 𝑦𝑖𝑗 es constante (𝜎2). Para determinar si se
rechaza H0 se tiene la siguiente región de rechazo |𝑡0|>𝑡𝛼2⁄ ,𝑛1 + 𝑛2 − 2. Este caso
es un muy particular de dos colas (bilateral).
El procedimiento anterior puede justificarse de la siguiente manera. Si el muestreo
se realiza de distribuciones normales independientes, entonces �̅�1 − �̅�2 ~ 𝑁[𝜇1 −
𝜇2, 𝜎2(1 𝑛1
⁄ + 1𝑛2
⁄ )] por lo que si se conoce 𝜎2 y si H0: 𝜏1 = 𝜏2 = 0 es verdadera, la
distribución es:
𝑍0 =�̅�1 − �̅�2
𝜎√1𝑛1
⁄ + 1𝑛2
⁄
~ 𝑁(0,1) (1.5.3)
Por el teorema del Apéndice A.1 se tiene que al sustituir 𝜎 por 𝑆𝑝, entonces la
ecuación 1.3 tiene una 𝑡 con 𝑛1 + 𝑛2 − 2 grados de libertad. Lo anterior quiere decir
que, si H0: 𝜏1 = 𝜏2 = 0 es verdadera, 𝑡0 de la ecuación 1.5.2 se distribuye como
𝑡𝑛1+𝑛2−2 y por consiguiente, se esperaría que 100(1 − 𝛼) por ciento de los valores
de 𝑡0 estén entre −𝑡𝛼2⁄ , 𝑛1+𝑛2−2 y 𝑡𝛼
2⁄ , 𝑛1+𝑛2−2 (Dean & Voss, 1999). Una muestra
que produce un valor de 𝑡0 que estuviera fuera des estos límites sería inusual si la
hipótesis nula fuera verdadera y es evidencia de que H0 debe rechazarse.
Para prueba de hipótesis unilaterales, esto es, H0: 𝜏1 = 𝜏2 = 0 Vs H1: 𝜏1 > 𝜏2 ó
H0: 𝜏1 = 𝜏2 Vs H1: 𝜏1 < 𝜏2 el rechazo de H0 es únicamente si 𝑡0 > 𝑡𝛼,𝑛1+𝑛2−2 o −𝑡0 <
−𝑡𝛼,𝑛1+𝑛2−2, respectivamente (Box, Hunter, & Hunter, 2008). En la parte del
Apéndice A.2.1 se presenta como obtener el cálculo del p valor para este diseño.
Capítulo 1
16
1.5.2 Diseño de comparaciones con observaciones pareadas
El modelo estadístico para diseños de medias con observaciones pareadas se
describe enseguida:
𝑦𝑖𝑗 = 𝜇𝑖 + 𝛽𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2
𝑗 = 1, 2, … , 𝑛 (1.5.4)
Donde 𝑦𝑖𝑗 es la observación del 𝑖-ésimo nivel del factor tratamiento en la 𝑗-ésima
observación pareada. 𝜇𝑖 es la media verdadera del 𝑖-ésimo nivel del factor. 𝛽𝑗 es el
efecto del nivel i-ésimo del factor tratamiento debido a la 𝑗-ésima observación
pareada. 휀𝑖𝑗 es el error experimental aleatorio 휀𝑖𝑗𝑖𝑖𝑑~
𝑁(0, 𝜎𝑖2), 𝑖 = 1, 2.
El modelo descrito por la ecuación 1.5.4 se denomina de medias, si la media 𝜇𝑖 se
descompone en términos de una media general y la desviación de un efecto del
nivel 𝑖 del factor tratamiento al que se denomina tratamiento, es decir,
𝜇𝑖 = 𝜇 + 𝜏𝑖
Entonces la ecuación 1.5.4 se expresa de la manera siguiente:
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝛽𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2
𝑗 = 1, 2, … , 𝑛
Donde 𝑦𝑖𝑗 es la observación del 𝑖-ésimo tratamiento (𝜏) en la 𝑗-ésima observación
pareada. 𝜇 Es la media general. 𝛽𝑗 Es el efecto debido a la 𝑗-ésima observación
pareada y 𝜏𝑖 es el efecto del tratamiento 𝑖. 휀𝑖𝑗 error experimental aleatorio
휀𝑖𝑗𝑖𝑖𝑑~
𝑁(0, 𝜎𝑖2), 𝑖 = 1, 2.
La diferencia pareada 𝑗-ésima es 𝑑𝑗 = 𝑦1𝑗 − 𝑦2𝑗 para 𝑗 = 1, 2, … , 𝑛
El valor esperado es
𝜇𝑑 = 𝐸(𝑑𝑗) = 𝐸(𝑦1𝑗 − 𝑦2𝑗) = 𝐸(𝑦1𝑗) − 𝐸(𝑦2𝑗) = 𝜇1 + 𝛽𝑗 − 𝜇2 − 𝛽𝑗 = 𝜇1 − 𝜇2
La prueba de hipótesis consiste en
Definiciones y conceptos básicos
17
H0: 𝜇𝑑 = 0 Vs H1: 𝜇𝑑 ≠ 0
Que es equivalente a realizar la prueba de hipótesis
H0: 𝜏1 = 𝜏2 = 0 Vs H1: 𝜏1 ≠ 𝜏2
Sea 𝑑 = ∑𝑑𝑗
𝑛
𝑛𝑗 entonces su esperanza y varianza son:
𝐸(𝑑) = 𝐸 (∑𝑑𝑗
𝑛
𝑛
𝑗
) =1
𝑛∑𝑑𝑗
𝑛
𝑗=1
= 𝜇1 − 𝜇2
𝑉(𝑑) = 𝑉 (∑𝑑𝑗
𝑛
𝑛
𝑗
) = 𝑉 (∑𝑑𝑗
𝑛
𝑛
𝑗
) + ∑𝐶𝑜𝑣(
𝑛
𝑗=1𝑗≠𝑖
𝑑𝑗 , 𝑑𝑖)
Debido a que las 𝑑𝑗 son independientes e idénticamente distribuidas entonces las
𝐶𝑜𝑣(𝑑𝑗 , 𝑑𝑖) = 0.
El estadístico de prueba bajo H0 es:
𝑡0 =𝑑
𝑆𝑑
√𝑛⁄
1.5.6
Donde
√𝑉(𝑑) = 𝑆𝑑 = [∑ (𝑑𝑗 − �̅�)
2𝑗
𝑛 − 1]
12⁄
= [∑ 𝑑2
𝑗 −1
𝑛(∑ 𝑑𝑗𝑗 )
2𝑗
𝑛 − 1]
12⁄
𝑡0 =𝑑 − 𝜇𝑑
𝑆𝑑
√𝑛⁄
Por lo tanto, H0: 𝜏1 = 𝜏2 = 0 se rechaza si |𝑡0| > 𝑡𝛼2⁄ ,𝑛−1. Como las observaciones
de los niveles del factor tratamiento están pareadas, este procedimiento suele
Capítulo 1
18
llamarse prueba 𝑡 pareada, de igual manera la distribución. En la parte del Apéndice
A.2.2 se presenta como obtener el 𝑝 valor para este diseño.
Este diseño de experimento es un caso particular del diseño de bloques o también
se le puede denominar diseño de experimento con medidas repetidas, donde dichas
repeticiones se realizan en unidades experimentales distintas e independientes
(réplicas). Es importante señalar que el diseño de medidas repetidas es muy
particular en Piscología, donde las repeticiones se realizan en las mismas unidades
experimentales (personas).
1.6 Diseños experimentales con al menos tres tratamientos
1.6.1 Análisis de varianza en un diseño completamente al azar
Esta metodología es la generalización de los experimentos comparativos simples,
ya que en estos experimentos se tienen 𝑡 tratamientos o niveles diferentes de un
solo factor que quieren compararse. Enseguida se muestra una tabla donde 𝑦𝑖𝑗
representa la 𝑗-ésima observación tomada en el 𝑖-ésimo tratamiento.
Cuadro 1.6.1. Experimento completamente al azar
Tratamientos Observaciones Totales Promedios
1 𝑦11 𝑦12 … 𝑦1𝑛1 𝑦1. �̅�1.
2 𝑦21 𝑦22 … 𝑦2𝑛2 𝑦2. �̅�2.
⋮ ⋮ ⋮ … ⋮ ⋮ ⋮
𝑡 𝑦𝑡1 𝑦𝑡2 … 𝑦𝑡𝑛𝑡 𝑦𝑡. �̅�𝑡.
𝑦.. �̅�..
Fuente Montgomery (2004)
Definiciones y conceptos básicos
19
Donde 𝑦𝑖. = ∑ 𝑦𝑖𝑗𝑗 �̅�𝑖. =𝑦𝑖.
𝑛𝑖⁄ 𝑦.. = ∑ ∑ 𝑦𝑖𝑗𝑗𝑖 �̅�.. =
𝑦..𝑛⁄
𝑛 = ∑𝑛𝑖
𝑡
𝑖=1
Si 𝑛1 = 𝑛2 = ⋯ = 𝑛𝑡, entonces el diseño es balanceado.
Una manera de escribir un modelo para los datos de la tabla es el siguiente:
𝑦𝑖𝑗 = 𝜇𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑛𝑖
(1.6.1)
Donde 𝑦𝑖𝑗 es la observación 𝑗-ésima del nivel 𝑖 del tratamiento, 𝜇𝑖 es la media de la
respuesta para el nivel 𝑖-ésimo del tratamiento, y 휀𝑖𝑗 es una variable aleatoria normal
asociada con la observación 𝑖𝑗-ésima. El modelo anterior (ecuación 1.6.1) se le
conoce modelo de medias, sin embargo, una manera alternativa de escribir el
modelo es mediante el modelo de efectos.
𝜇𝑖 = 𝜇 + 𝜏𝑖, 𝑖 = 1, 2, … , 𝑡 (1.6.2)
Respecto a la ecuación 1.6.2 se obtiene
si 𝜇 =∑ 𝜇𝑖𝑖
𝑡⁄ ⟹ ∑𝜇𝑖
𝑖
=∑ 𝜇𝑖 + ∑ 𝜏𝑖𝑖
𝑡=
∑ 𝜇𝑖
𝑡+
∑ 𝜏𝑖𝑖
𝑡
Se considera a 𝜇 como una media global, a partir de la ecuación anterior se puede
calcular esta de la manera siguiente
𝜇 =∑ 𝜇𝑖𝑖
𝑡⁄ esto implica ∑𝜏𝑖
𝑖
= 0
De manera que el modelo 1.6.1 queda:
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑛𝑖
1.6.3
Donde 𝜇 es la media global y 𝜏𝑖 es el efecto del tratamiento 𝑖-ésimo.
Supuestos para poder realizar el análisis
Capítulo 1
20
𝑦𝑖𝑗𝑖𝑖𝑑~
𝑁(𝜇 + 𝜏𝑖, 𝜎2)
휀𝑖𝑗𝑖𝑖𝑑~
𝑁(0, 𝜎2)
Para poder realizar el análisis estadístico se inicia con la partición de la varianza
∑∑(𝑦𝑖𝑗 − �̅�)2
𝑗𝑖
= 𝑛 ∑(�̅�𝑖. − �̅�)2
𝑖
+ ∑∑(𝑦𝑖𝑗 − �̅�𝑖.)2
𝑗𝑖
𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠 = 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 + 𝑆𝑆𝑒𝑟𝑟𝑜𝑟 , 𝑆𝑆 denota suma de cuadrados
Se definen los cuadrados medios como:
Cuadrado medio de tratamientos
𝑀𝑆𝑡𝑟𝑎𝑡 =𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜
𝑡 − 1 (1.6.4)
Cuadrado medio del error
𝑀𝑆𝑒𝑟𝑟𝑜𝑟 =𝑆𝑆𝑒𝑟𝑟𝑜𝑟
𝑛 − 𝑡 (1.6.5)
Con algunas particularidades de los cuadrados medios
E[𝑀𝑆𝑡𝑟𝑎𝑡] = 𝜎2 + 𝑛 ∑𝜏2
𝑖
𝑡 − 1𝑖
E[𝑀𝑆𝑒𝑟𝑟𝑜𝑟] = 𝜎2
Características sobre las sumas de cuadrados
𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠𝜎2⁄ ~𝜒2
𝑛−1
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠𝜎2⁄ ~𝜒2
𝑡−1|bajo H0 (1.6.6)
𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝜎2⁄ ~𝜒2
𝑛−𝑡 (1.6.7)
Sin embargo, las tres sumas de cuadrados no necesariamente son independientes,
ya que la suma de 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 y 𝑆𝑆𝑒𝑟𝑟𝑜𝑟 es 𝑆𝑆𝑇𝑜𝑡𝑎𝑙. Afortunadamente el teorema
de Cochran (Apéndice A.3) establece la independencia de 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 y 𝑆𝑆𝑒𝑟𝑟𝑜𝑟,
Definiciones y conceptos básicos
21
la cual es indispensable para poder utilizar el estadístico 𝐹 en el análisis de varianza.
El teorema de Cochran se extiende tanto para diseño completamente al azar como
para los diseños de bloques completos al azar y cuadrado latino.
Ahora tenemos la siguiente prueba de hipótesis
H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0 Vs 𝐻1: ∃𝜏𝑖diferente
El cuadro de análisis de varianza se muestra en el Cuadro 1.6.2.
Cuadro 1.6.2. Anova diseño completamente al azar
Fuente de
variación
Suma de
cuadrados
Grados de
libertad
Cuadrado
medio 𝑭𝟎
Tratamientos 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝑡 − 1 𝑀𝑆𝑡𝑟𝑎𝑡 𝑀𝑆𝑡𝑟𝑎𝑡𝑀𝑆𝑒𝑟𝑟𝑜𝑟
⁄
Error 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 𝑛 − 𝑡 𝑀𝑆𝑒𝑟𝑟𝑜𝑟
Total 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑛 − 1
Fuente: Montgomery (2004)
𝐹0 =𝑀𝑆𝑡𝑟𝑎𝑡
𝑀𝑆𝑒𝑟𝑟𝑜𝑟 1.6.8
Por los teoremas del Apéndice A.3 y A.4 se tiene que la ecuación 1.6.8 tiene una
distribución 𝐹𝑡−1,𝑛−𝑡. Por lo tanto, se deberá rechazar H0 y concluirse que hay
diferencias en las medias de los tratamientos si 𝐹0 > 𝐹𝛼,𝑡−1,𝑛−𝑡. En la parte del
Apéndice A.5.1 se presenta como obtener el cálculo del p valor para este diseño.
Capítulo 1
22
1.6.2 Diseño en bloques completamente aleatorizados
Cuando el factor es conocido y controlable, puede usarse la técnica de diseños
llamada formación de bloques para eliminar de manera sistemática su efecto sobre
las comparaciones estadísticas entre los tratamientos.
Hay una observación por tratamiento en cada bloque, y el orden en que se corren
los tratamientos dentro de cada bloque es aleatorio. Como la aleatorización de los
tratamientos es exclusivamente dentro de cada uno de los bloques, entonces los
bloques representan una restricción sobre la aleatorización
Suponga que se tienen 𝑡 tratamientos que van a compararse y 𝑏 bloques. El diseño
de bloques completos aleatorizados se muestra en la Figura 1.6.1.
El modelo de medias para el diseño de bloques al azar se expresa
𝜇𝑖𝑗 = 𝜇𝑖𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑏
(1.6.9)
Donde 𝜇𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝛽𝑗 Los efectos de los tratamientos y efecto de bloque se
consideran como desviaciones de la media global, por lo que
Fuente: Elaboración propia
Figura 1.6.1 Diseño con bloques aleatorizados
Definiciones y conceptos básicos
23
∑∑𝜇𝑖𝑗
𝑗𝑖
= 𝑡𝑏𝜇 + 𝑏 ∑𝜏𝑖
𝑖
+ 𝑡 ∑𝛽𝑗
𝑗
Se considera a 𝜇 como una media global, el cálculo de esta es
𝜇 =∑ ∑ 𝜇𝑖𝑗𝑗𝑖
𝑡𝑏⁄
Lo anterior implica ∑ 𝜏𝑖𝑖 = 0 y ∑ 𝛽𝑗𝑗 = 0
El modelo estadístico para diseños de bloques aleatorizados puede escribirse
mediante el modelo de efectos y queda como sigue:
𝑦𝑖𝑗 = 𝜇 + 𝜏𝑖 + 𝛽𝑗 + 휀𝑖𝑗 {𝑖 = 1, 2, 3, … , 𝑡 𝑗 = 1, 2, 3, … , 𝑏
(1.6.10)
Donde 𝜇 es la media global, 𝜏𝑖 es el efecto del 𝑖-ésimo tratamiento, 𝛽𝑗 efecto 𝑗-ésimo
bloque. Al igual que los casos anteriores los tratamientos y los bloques son
considerados fijos.
Enseguida se mencionan los supuestos a considerar para poder emplear este tipo
de diseño de experimento
𝑦𝑖𝑗𝑖𝑖𝑑~
𝑁(𝜇 + 𝜏𝑖 + 𝛽𝑗 , 𝜎2)
휀𝑖𝑗𝑖𝑖𝑑~
𝑁(0, 𝜎2)
La prueba de hipótesis para el modelo 1.6.10 es el mismo que en el diseño
completamente al azar
H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0 Vs 𝐻1: ∃𝜏𝑖diferente
Algunas expresiones
𝑦𝑖. = ∑𝑦𝑖𝑗
𝑗
𝑖 = 1, 2, … , 𝑡
𝑦.𝑗 = ∑𝑦𝑖𝑗
𝑖
𝑗 = 1, 2, … , 𝑏
Capítulo 1
24
𝑦.. = ∑∑𝑦𝑖𝑗
𝑖𝑗
= ∑𝑦.𝑗
𝑗
= ∑𝑦𝑖.
𝑖
De manera similar para el promedio
�̅�𝑖. =𝑦𝑖.
𝑏⁄ �̅�.𝑗 =𝑦.𝑗
𝑡⁄ �̅�.. =𝑦..
𝑛⁄ 𝑛 = 𝑡𝑏
La partición de la varianza queda
∑∑(𝑦𝑖𝑗 − �̅�..)2
𝑗
= 𝑏 ∑(�̅�𝑖. − �̅�..)2
𝑖
+ 𝑡
𝑖
∑(�̅�.𝑗 − �̅�..)2
𝑗
+ ∑∑(𝑦𝑖𝑗 − �̅�𝑖. − �̅�.𝑗 + �̅�..)2
𝑗𝑖
De manera simbólica lo anterior se puede expresar
𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠 = 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 + 𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒 + 𝑆𝑆𝑒𝑟𝑟𝑜𝑟
Los grados de libertad en relación a la ecuación anterior que particionada de la
manera siguiente
𝑛 − 1 = (𝑡 − 1) + (𝑏 − 1) + (𝑡 − 1)(𝑏 − 1) para 𝑛 = 𝑡𝑏
Se definen los cuadrados medios como:
Cuadrado medio de los tratamientos
𝑀𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 =𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜
𝑡 − 1 (1.6.11)
Cuadrado medio de los bloques
𝑀𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠 =𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠
𝑏 − 1 (1.6.12)
Cuadrado medio del error
𝑀𝑆𝑒𝑟𝑟𝑜𝑟 =𝑆𝑆𝑒𝑟𝑟𝑜𝑟
(𝑡 − 1)(𝑏 − 1) (1.6.13)
Con algunas particularidades de los cuadrados medios
E[𝑀𝑆𝑡𝑟𝑎𝑡] = 𝜎2 + 𝑏 ∑𝜏2
𝑖
𝑡 − 1𝑖
Definiciones y conceptos básicos
25
E[𝑀𝑆𝑏𝑙𝑜𝑞] = 𝜎2 + 𝑡 ∑𝛽2
𝑖
𝑏 − 1𝑖
E[𝑀𝑆𝑒𝑟𝑟𝑜𝑟] = 𝜎2
Características sobre las sumas de cuadrados
𝑆𝑆𝑡𝑜𝑡𝑎𝑙𝑒𝑠𝜎2⁄ ~𝜒2
𝑛−1 (1.6.14)
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠𝜎2⁄ ~𝜒2
𝑡−1|bajo H0 (1.6.15)
𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠
𝜎2⁄ ~𝜒2𝑏−1
(1.6.16)
𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝜎2⁄ ~𝜒2
(𝑡−1)(𝑏−1) (1.6.17)
La tabla de análisis de varianza se muestra en el Cuadro 1.6.3.
Cuadro 1.6.3. Anova para el diseño de bloques aleatorizados.
Fuente de
variación
Suma de
cuadrados
Grados de
libertad
Cuadrado
medio 𝑭𝟎
Tratamientos 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝑡 − 1 𝑀𝑆𝑡𝑟𝑎𝑡 𝑀𝑆𝑡𝑟𝑎𝑡
𝑀𝑆𝑒𝑟𝑟𝑜𝑟⁄
Bloque 𝑆𝑆𝐵𝑙𝑜𝑞𝑢𝑒 𝑏 − 1 𝑀𝑆𝑏𝑙𝑜𝑞
Error 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 (𝑡 − 1)(𝑏 − 1) 𝑀𝑆𝑒𝑟𝑟𝑜𝑟
Total 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑛 − 1
Fuente (Montgomery, 2004)
Entonces, para probar la igualdad de las medias de los tratamientos se usa el
estadístico de prueba, que consiste en dividir la ecuación 1.6.11 por la ecuación
1.6.13.
Capítulo 1
26
𝐹0 =𝑀𝑆𝑡𝑟𝑎𝑡
𝑀𝑆𝑒𝑟𝑟𝑜𝑟⁄ 1.6.18
Por los teoremas de los Apéndices A.2 y A.3 se tiene que la ecuación posee una
distribución 𝐹(𝑡−1),(𝑡−1)(𝑏−1). Por lo tanto, se deberá rechazar H0 y concluirse que hay
diferencias en las medias de los tratamientos si 𝐹0 > 𝐹𝛼,𝑡−1,(𝑡−1)(𝑏−1). En la parte del
Apéndice A.5.2 se presenta como obtener el cálculo del p valor para este diseño.
1.7 Comparaciones de pares de medias
Después del análisis de varianza, cuando se ha rechazado la hipótesis de la
igualdad de las medias de los tratamientos, quieren probarse todas las
comparaciones de medias por pares para saber cuáles difieren estadísticamente, el
contraste de hipótesis es el siguiente:
H0: 𝜏𝑖 = 𝜏𝑗 = 0
H1: 𝜏𝑖 ≠ 𝜏𝑗
Respecto a la prueba de hipótesis anterior puede notarse que el número de
comparaciones a realizar dependen del número de tratamientos a considerar.
Suponga que se tienen (𝑡2) = 𝑚 comparaciones, el Cuadro 1.7.1 muestra los
posibles resultados al realizar 𝑚 pruebas de hipótesis como la anteriormente
mencionada.
Cuadro 1.7.1. Ilustración de posibles rechazos falsos o no en m pruebas
𝑇𝑒𝑠𝑡 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑎𝑑𝑎
𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑡𝑒
𝑇𝑒𝑠𝑡 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑎𝑑𝑎
𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑡𝑒
𝑇𝑜𝑡𝑎𝑙
𝐻𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 𝑛𝑢𝑙𝑎 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎
𝐻0 𝐹 𝑚0 − 𝐹 𝑚0
𝐻𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎
𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑎 𝐻1 𝑇 𝑚1 − 𝑇 𝑚1
Definiciones y conceptos básicos
27
𝑇𝑜𝑡𝑎𝑙 𝑆 𝑚 − 𝑆 𝑚
Fuente (Bejamini & Hochberg, 1995).
Donde:
𝑚: Número total de pruebas de hipótesis realizadas
𝑚0: Número de hipótesis nulas verdaderas
𝑚1: Número de hipótesis alternativas verdaderas
𝐹: Número de falsos positivos, este el error tipo I.
𝑇: Número de verdaderos positivos, hipótesis alternativa rechazada correctamente.
𝑚0 − 𝐹: Número de verdaderos negativos
𝑚1 − 𝑇: Número de falsos negativo (error tipo II)
𝑆: Número de hipótesis nulas rechazadas (pruebas significativas),
independientemente si son ciertas o falsas.
𝑚 − 𝑆: Número de hipótesis alternativas rechazadas (pruebas no significativas),
independientemente si son ciertas o falsas.
La tasa de rechazos falsos (FPR) es la sigla en inglés de False positive rate es la
probabilidad de cometer el error tipo I, y dado el Cuadro 1.7.1. Se tienen que
(Bejamini & Hochberg, 1995)
𝐹𝑃𝑅 =𝐹
𝑚0
El FDR por sus siglas en inglés False discovery rate es la probabilidad de que la
hipótesis nula sea cierta a pesar de haber sido rechazada, de acuerdo a la tabla
anterior se calcula de la siguiente manera (Bejamini & Hochberg, 1995):
Capítulo 1
28
𝐹𝐷𝑅 =𝐹
𝑆
1.7.1 Family Wise Error Rate (FWER)
Cuando se realiza una prueba 𝑡 de muestras independientes o dependientes se
trabaja con el valor 𝛼 que es la probabilidad de cometer error tipo I (False positive
rate). La probabilidad de que al menos una prueba rechace la hipótesis nula de
forma incorrecta aumenta conforme aumenta el número de comparaciones.
Considere un valor 𝛼 = 0.05 para un experimento que tiene 5 tratamientos, suponga
que el ANOVA resulta significativo, entonces se realizan comparaciones por pares.
Se tiene un total de (52) = 10 comparaciones. Si se realizan las 10 comparaciones
independientes, la probabilidad de que al menos ocurra un falso positivo es mayor
al 0.05. A la probabilidad de que ocurra al menos un falso positivo se denomina
family wise error y si fuera independientes y se realizan todas las comparaciones
por pares se calcula mediante la fórmula siguiente:
𝐹𝑊𝐸𝑅 = 1 − (1 − 𝛼)(𝑡2)
𝑡: Equivale al número de tratamientos.
Entonces, para 10 comparaciones se tiene que 𝐹𝑊𝐸𝑅 ≈ 0.40. Enseguida se
muestra una gráfica (Figura 1.7.1) donde se ilustra lo anteriormente dicho.
Definiciones y conceptos básicos
29
Entonces, cuando el número de comparaciones son demasiado FWER tiende a 1
lim(𝑡2)→∞
𝐹𝑊𝐸𝑅 = lim(𝑡2)→∞
[1 − (1 − 𝛼)(𝑡2)] = 1
Enseguida se presentan algunos métodos para realizar pruebas de hipótesis de
pares de medias. En el caso de diferencia significativa, es una prueba que no
protege el FWER, sin embargo, se reduce el FWER si se realiza solo cuando se
encuentra significancia en el ANOVA. Además puede ajustar el valor del 𝑝 valor
para evitar el problema de falsos positivos. Tukey es un método similar al de
diferencia mínima significativa, con la variante de que esta prueba protege el FWER
(Hsu, 1996).
Diferencia mínima significativa
Este procedimiento fue propuesto por Fisher en 1935 y consiste en una prueba de
hipótesis por parejas basada en la distribución 𝑡. Este método, para generar
intervalos de confianza emplea el estadístico siguiente (Dean & Voss, 1999):
0.05
0.0975
0.142625
0.18549375
0.226219063
0.264908109
0.301662704
0.336579569
0.36975059
0.401263061
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0 2 4 6 8 10 12
FWER
Numero de pruebas por pares
Fuente Elaboración propia.
Figura 1.7.1 Crecimiento del FWER respecto al número de comparaciones
Capítulo 1
30
(𝑦𝑖.− 𝜇𝑖) − (𝑦
𝑗.− 𝜇𝑗)
√𝑆𝑟𝑒𝑠2 (
1
𝑛𝑖+
1
𝑛𝑗)
~𝑡𝑓
𝑃
[
𝑄0 ≤(𝑦
𝑖.− 𝜇𝑖) − (𝑦
𝑗.− 𝜇𝑗)
√𝑆𝑟𝑒𝑠2 (
1
𝑛𝑖+
1
𝑛𝑗)
≤ 𝑄1
]
= 1 − 𝛼 1.7.1
De la ecuación 1.7.1 se tiene lo siguiente:
𝑃 [𝑄0√𝑆𝑟𝑒𝑠2 (
1
𝑛𝑖+
1
𝑛𝑗) ≤ (𝑦
𝑖.− 𝑦
𝑗.) − (𝜇𝑖 − 𝜇𝑗) ≤ 𝑄1√𝑆𝑟𝑒𝑠
2 (1
𝑛𝑖+
1
𝑛𝑗)] = 1 − 𝛼
𝑃 [(𝑦𝑖. − 𝑦𝑗.) − 𝑄1√𝑆𝑟𝑒𝑠2 (
1
𝑛𝑖+
1
𝑛𝑗) ≤ 𝜇𝑖 − 𝜇𝑗 ≤ (𝑦𝑖. − 𝑦𝑗.) − 𝑄0√𝑆𝑟𝑒𝑠
2 (1
𝑛𝑖+
1
𝑛𝑗)] = 1 − 𝛼
Para que cumpla con la probabilidad 1 − 𝛼 se tiene que 𝑄1 = 𝑡𝛼2⁄, 𝑓 y 𝑄0 = −𝑡𝛼
2⁄, 𝑓
Entonces, si el intervalo contiene al cero muestra que no hay diferencia significativa
entre los tratamientos, por lo que los pares de medias 𝜇𝑖 y 𝜇𝑗 se declaran
significativamente diferentes si:
|𝑦𝑖.− 𝑦
𝑗.| > 𝑡𝛼
2⁄ ,𝑓√𝑀𝑆𝐸 (1
𝑛𝑖+
1
𝑛𝑖)
𝑆𝑟𝑒𝑠2 es el estimador insesgado de la varianza, en diseños de experimentos el
estimador equivalentes es el cuadrado medio del error 𝑀𝑆𝐸.
Si el diseño es balaceado y completamente al azar, entonces
𝐿𝑆𝐷 = 𝑡𝛼2⁄ ,𝑛−𝑡√
2𝑀𝑆𝐸
𝑛𝑖
Cuando el diseño es incompletamente el LSD es
Definiciones y conceptos básicos
31
|�̅�𝑖. − �̅�𝑗.| > 𝑡𝛼2⁄ ,𝑛−𝑡√𝑀𝑆𝐸 (
1
𝑛𝑖+
1
𝑛𝑗)
Mientras que para el de completos al azar es
|�̅�𝑖. − �̅�𝑗.| > 𝑡𝛼2⁄ ,(𝑡−1)(𝑏−1) √
2𝑀𝑆𝐸
𝑏
Una problemática que presenta este método es que para un número grande de
tratamientos el número de posibles falsos positivos de la hipótesis nula puede ser
elevado, aun cuando no existen diferencias reales.
Reajuste del 𝒑 valor “método de Bonferroni”
Este es un método sencillo para el reajustar el valor 𝑝, el cual rechaza la hipótesis
𝐻𝑖 cuando el 𝑝 valor 𝑝𝑖 correspondiente es menor que 𝛼
𝑚, donde 𝛼 es el FWER y 𝑚
es el número de pruebas de hipótesis. El ajuste viene dado por
𝑝 = min (𝑚 ∗ 𝑝𝑖, 1)
Entonces, el rechazo se tiene cuando 𝑝 ≤ 𝛼
La protección del FWER es el interés del método de Bonferroni y se muestra a
continuación
𝑃(𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛𝑎 H𝑖|H0𝐶) = 𝑃( min
1≤𝑖≤𝑚𝑝𝑖 ≤
𝛼
𝑘|H0
𝐶) ≤ ∑𝑃(𝑝𝑖
𝑚
𝑖
≤ 𝛼𝑚⁄ |H0
𝐶)
Suponiendo que todos los 𝑝𝑖 valores se distribuyen como 𝑈[0,1], bajo su respectiva
hipótesis H0𝑖 , el límite superior es 𝑚 ∗
𝛼
𝑚= 𝛼. La notación |H0
𝐶 significa “dado que H0𝐶
que todos las H0𝑖 son verdaderas”. Se tienen un grupo de 𝑚 comparaciones por
pares H𝑖: H0𝑖 Vs H1
𝑖 . El método de Bonferroni es extremadamente conservador para
distribuciones muestrales continuas con colas ligeras, mientras que con colas
pesadas se vuelve anti conservador (Westfall & Young, 1993).
Capítulo 1
32
Ejemplo 1.7.1. Considere que se tienen 4 tratamientos y se realizan comparaciones
por pares (LSD Fisher), de manera que las combinaciones y sus respectivos 𝑝
valores se muestran en el Cuadro 1.7.2., de igual forma se muestra el ajuste del 𝑝
valor mediante Bonferroni.
Cuadro 1.7.2. . P valor ajustado mediante el método de Bonferroni
Comparaciones 1 y 2 1 y 3 1 y 4 2 y 3 2 y 4 3 y 4
P valor 0,003 0.01 0.1 0.0002 0.003 0.01
P ajustado 0.018 0.06 0.6 0.0012 0.018 0.06
Fuente Elaboración propia
Prueba Tukey
Para toda 𝑖 ≠ 𝑗, Tukey propuso un procedimiento para probar hipótesis en las que
la FWR es menor o igual a 𝑝 (Hsu, 1996) cuando los tamaños muestras iguales.
Esta prueba se vuele muy conservadora conforme el número de comparaciones
aumenta, de hecho presenta el mismo problema que Bonferroni, una alternativa es
el método de Benjamini y Hochber (FDR).
Este método emplea la distribución del estadístico del rango studentizado
𝑦𝑖,𝑚𝑎𝑥
𝑖=1,2,…,𝑡−
𝑦𝑖,𝑚𝑖𝑛
𝑖=1,2,…,𝑡
√�̂�2𝑛𝑖
⁄
~𝑞𝑡,𝑓 1.7.2
Donde 𝑦𝑚𝑎𝑥
y 𝑦𝑚𝑖𝑛
son las medias muestrales mayor y menor, respectivamente,
sacadas de 𝑡 medias muestrales. En la parte de anexo se agrega la tabla de 𝑞𝛼(𝑡, 𝑓),
los puntos porcentuales 𝛼 superiores de 𝑞, donde 𝑓 es el número de grados de
libertad asociados con �̂�2. Adelante se emplea 𝑀𝑆𝐸 como estimador insesgado de
la varianza (Dean & Voss, 1999).
Definiciones y conceptos básicos
33
Tomando en cuenta la ecuación 1.7.2 es claro ver que se cumple lo siguiente
(𝑦𝑖,𝑚𝑎𝑥
− 𝜇𝑖) − (𝑦𝑗,𝑚𝑖𝑛
− 𝜇𝑗)
√𝑀𝑆𝐸𝑛𝑖
⁄
~𝑞𝑡,𝑓
𝑃
[
𝑄1 ≤(𝑦
𝑖,𝑚𝑎𝑥− 𝜇𝑖) − (𝑦
𝑗,𝑚𝑖𝑛− 𝜇𝑗)
√𝑀𝑆𝐸𝑛𝑖
⁄
≤ 𝑄1
]
= 1 − 𝛼
Para muestras iguales se rechaza H0: 𝜏𝑖 = 𝜏𝑗 = 0 si
|𝜇𝑖 − 𝜇𝑗| > 𝑞𝛼(𝑡, 𝑓)√𝑀𝑆𝐸
𝑛𝑖 1.7.3
Cuando se trata de un diseño completamente al azar la ecuación 1.7.3 queda
|�̅�𝑖. − �̅�𝑗.| > 𝑞𝛼(𝑡, 𝑛 − 𝑡)√𝑀𝑆𝐸
𝑛𝑖
Mientras que cuando se trata de un diseño con bloques al azar la ecuación 1.7.3 es
|�̅�𝑖. − �̅�𝑗.| > 𝑞𝛼(𝑡, (𝑡 − 1)(𝑏 − 1))√𝑀𝑆𝐸
𝑏
Cuando los tamaños de las muestras no son iguales la metodología se denomina
Tukey Cramer, entonces H0: 𝜏𝑖 = 𝜏𝑗 se rechaza si:
|�̅�𝑖. − �̅�𝑗.| >𝑞𝛼(𝑡, 𝑓)
√2√𝑀𝑆𝐸 (
1
𝑛𝑖+
1
𝑛𝑗)
Capítulo 1
34
1.7.2 FDR
El método de ajuste del 𝑝 valor mediante Bonferroni y Tukey trabajan protegiendo
el FWER, a continuación se presenta un método que se encarga de controlar el
FDR. Un concepto de este se dio al principio de este apartado, adicionalmente:
Otras definiciones equivalentes del FDR:
Es la proporción de pruebas significativas que realmente no lo son.
La proporción esperada de falsos positivos de entre las pruebas consideras
como significativas.
El objetivo de controlar el FDR es establecer un límite de significancia para un
conjunto de pruebas, de manera que de entre todas las pruebas consideradas como
significativas, la proporción de hipótesis nulas verdaderas (falsos positivos) no
supere un determinado valor (Bejamini & Hochberg, 1995). A continuación se
muestra el método de Bejamini y Hochberg (BH).
FDR Bejamini y Hochberg
Benjamini y Hochberg en 1995 desarrollaron una aproximación para controlar el
FDR. La metodología sugiere que si en un estudio con 𝑚 comparaciones se desea
controlar que el FDR no supere un porcentaje 100 ∗ (𝛼), entonces se debe realizar
lo siguiente (Bejamini & Hochberg, 1995):
1) Ordenar las 𝑚 pruebas de menor a mayor 𝑝 valor 𝑝(1), 𝑝(2), … , 𝑝(𝑚).
2) Se define 𝑘 como la última posición para la que se cumple que 𝑝(𝑖) ≤ 𝑑 ∗𝑖
𝑚.
3) Se consideran significativos todos los 𝑝 valores hasta la posición 𝑘
(𝑝(1), 𝑝(2), … , 𝑝(𝑘)).
Este método es más potente conforme el número de comparaciones aumenta;
además, es una prueba conservativa, debido a que cuando estima el número de
hipótesis nulas erróneamente consideradas falsas asume que todas las hipótesis
nulas son ciertas.
Definiciones y conceptos básicos
35
Ejemplo 1.7.2. Considere que se desea un FDR 0.05 y se tienen las siguientes
pruebas con sus respectivos 𝑝 valores después de realizar una prueba 𝑡. Prueba 1
(0.030), prueba 2 (0.002), prueba 3 (0.001), prueba 4 (0.028), prueba 5 (0.1) y
prueba 6 (0.2).
Cuadro 1.7.3.Control del FDR método de Benjamini y Hochberg
Prueba I p-valor BH
3 1 0.001 0.0083
2 2 0.002 0.0166
4 3 0.028 0.0250
1 4 0.030 0.0333
5 5 0.100 0.0416
6 6 0.200 0.0500
Fuente. Elaboración propia.
Como se puede notar en el Cuadro 1.7.3., los 𝑝 valores ordenados y el valor 𝑘, cuya
posición cumple que 𝑝(𝑖) ≤ 𝑑 ∗𝑖
𝑚 es 𝑘 =4, eso quiere decir que todos los 𝑝 valores
inferiores a 0.030 son significativos. Se puede observar que en la posición 𝑖 = 3 no
resulta significativo, ya que 0.028>0.025, sin embargo, también esa prueba resulta
ser significativa, ya que el 𝑝 valor máximo que cumpla ser menor a 𝑑 ∗𝑖
𝑚 es 0.030.
36
Capítulo 2 2 Pruebas de permutación en
diseños experimentales
2.1 Pruebas de permutación
En muchos escritos las pruebas de permutación son consideradas como métodos
no paramétricos, debido a que una prueba de permutación no especifica una
distribución para las observaciones (Gleason, 2013). Otros las clasifican dentro del
grupo de pruebas denominadas métodos de remuestreo (Rodgers, 1999). En el
Cuadro 2.1.1. Se clasifican los métodos de remuestreo de acuerdo al tamaño de la
muestra y el mecanismo de muestreo.
Cuadro 2.1.1. Clasificación de los métodos de remuestreo
Tamaño de la muestra
Mecanismo
del
muestreo
Tamaño menor Tamaño igual
Sin reasignación Jacknife Pruebas de permutación
Con reasignación
Bootstrap
Fuente (Rodgers, 1999)
Respecto a lo escrito anteriormente, se puede notar que las pruebas de permutación
tienen diferentes denominaciones, pero a pesar de todas las denominaciones que
se les pueda dar, es indudable que las pruebas de permutación son pruebas con un
paradigma computacional, ya que sin el desarrollo de las computadoras las pruebas
de permutación serían viables solo con tamaños de muestra muy pequeños.
Capítulo 2
37
Los métodos de permutación son muy flexibles y pueden ser aplicados en muchas
otras situaciones, simplemente identificado el reordenamiento de los datos que son
igualmente probables bajo la hipótesis nula. El cálculo del coeficiente de correlación,
regresión lineal simple y regresión lineal múltiple son ejemplos de aplicaciones que
ya han sido desarrolladas.
El término de permutación en el nombre de las pruebas puede generar confusiones,
debido a que en la prueba se esperaría generar todas las permutaciones posibles;
en lugar de eso, lo que se realiza son asignaciones aleatorias de las observaciones
a los tratamientos combinaciones y no propiamente permutaciones. Entonces,
proponer que las pruebas de permutación se deberían denominar pruebas
aleatorizadas tendría mucho sentido.
De acuerdo con Ernst (2004), las pruebas de permutación y las pruebas
aleatorizadas son similares en cuanto a la metodología, solo que la primera es útil
para diseños muestrales y la segunda es útil para diseños experimentales. La
interpretación en una prueba de permutación es diferente a una prueba
aleatorizada, pero en este trabajo la prueba de aleatorización se denominará prueba
de permutación enfocada a los datos experimentales.
Independientemente si se está trabajando con un diseño experimental comparativo
simple (apartado 2.2) o con diseños más elaborados (apartados 2.3 y 2.4), las
asignaciones aleatorias de las observaciones a los tratamientos en cada diseño
experimental pueden ser diferentes, pero al final de cuentas la prueba realizará el
cálculo del 𝑝 valor mediante asignaciones aleatorias.
Existen algunos autores que no brindan una distinción explícita entre pruebas de
permutación y pruebas de aleatorización. Por ejemplo, Noreen (1989) denomina a
pruebas de permutación como pruebas aleatorizadas, e inclusive menciona que en
pruebas aleatorizadas los datos no necesariamente provienen de la muestra
aleatoria de una población.
Pruebas de permutación en diseños experimentales
38
Concepto .2.1.1. Prueba de permutación en diseños experimentales. Es una prueba
de significancia estadística para determinar si la hipótesis nula (igualdad de
tratamientos) es razonable ante una situación. Un estadístico 𝑆 elegido para medir
hasta qué punto los datos muestran el patrón en cuestión. El valor 𝑠 de 𝑆 para los
datos observados es comparado con la distribución de 𝑆, que es obtenida mediante
la asignación aleatoria de los datos (posible por el principio de intercambiabilidad),
asumiendo la hipótesis nula como verdadera. Los datos observados son solo una
asignación igualmente probable y 𝑠 debería aparecer como un valor típico de la
distribución permutación (aleatorización) de 𝑆. Si esto no es el caso, entonces la
hipótesis nula es desacreditada y la hipótesis alternativa es más razonable
La intercambiabilidad para una prueba de permutación/aleatorizada, bajo la
hipótesis nula, todas las posibles asignaciones aleatorias (permutaciones) de los
datos son igualmente probable (Good P. , 2000). Este supuesto es necesario ya que
el cálculo del valor p utilizado en la prueba de aleatorización da igual peso a cada
permutación de los datos. En el apéndice B.1 se exponen aspectos de variables
intercambiables.
Las pruebas de permutación las podemos dividir en dos grupos: estos son las
pruebas exactas y las aproximadas. En las pruebas exactas las pruebas de
permutación realizan todas las posibles asignaciones de manera que la probabilidad
de cometer error tipo I es 𝛼, estas útiles para muestras pequeñas. Las aproximadas
solo realizan una muestra de todas las posibles asignaciones, esto es, probabilidad
de cometer error tipo I es ≤ 𝛼. Las pruebas aproximadas emplean la distribución de
Monte Carlo para llevarse a cabo, esta útiles para muestras medianas y grandes.
En este trabajo a las pruebas de permutación se les da un uso dirigida a los diseños
experimentales (pruebas aleatorizadas). En los diseños experimentales las
unidades experimentales pueden ser una muestra aleatoria de una población, pero
esto por lo general es poco posible en determinadas áreas de estudio, de manera
que un diseño experimental se eligen los individuos no por un proceso aleatorio sino
que se trabaja con los que se tienen al alcance.
Capítulo 2
39
Limitaciones de una prueba de permutación
Las pruebas de permutación tienen limitaciones en cuanto su uso, ya que estas son
pruebas que únicamente pueden ser empleadas para probar hipótesis que
involucren comparaciones entre dos o más grupos/tratamientos (donde la
permutación involucra asignar las observaciones entre los grupos), o hipótesis que
mencione que las observaciones para un grupo son en un orden aleatorio (donde la
permutación involucra generar alternativas de ordenes aleatorios) (Manly, 2007). De
hecho pruebas aleatorizadas permuta los datos en una manera que es consistente
con el procedimiento de asignación aleatoria, por lo que los resultados obtenidos
son válidos cuando la asignación aleatoria ha sido inicialmente usada en el estudio
Fisher desarrolló una prueba denominada Fisher´s one-sample randomization test
para probar la hipótesis acerca de parámetros de una población, sin embargo, la
idea en esta prueba ya no coincide con la permutación como la presentada en este
trabajo. En las pruebas de permutación o pruebas aleatorizadas sus inferencias son
válidas para la muestra.
2.2 Diseños experimentales comparativos simples
En este apartado se presentan las pruebas de permutación en diseños
experimentales comparativos simples. Estos diseños son los casos más simples del
diseño completamente al azar y el caso más simple del diseño de bloques al azar.
Se describen las características de cada una de ellas para llevarse a cabo.
2.2.1 Comparación de dos poblaciones independientes
En esta sección se expone el diseño experimental completamente al azar para un
diseño comparativo simple, este se caracteriza por solo tener dos tratamientos
(grupos); además de que el estadístico de prueba es la diferencia de medias de los
tratamientos uno y dos, es decir, diferencia de medias de los dos grupos.
Se tienen observaciones 𝑋1, 𝑋2, … , 𝑋𝑛1 y 𝑌1, 𝑌2, … , 𝑌𝑛2
.
Pruebas de permutación en diseños experimentales
40
Supuestos:
Las variables 𝑋′𝑠 y 𝑌′𝑠 son independientes e idénticamente distribuidas. Se
asume independencia entre las dos muestras. Las variables aleatorias 𝑋 y 𝑌 son
intercambiables. Las dos muestras tienen igual distribución de probabilidad e
igual varianza.
Sea 𝐹1 la distribución correspondiente al tratamiento 1 y 𝐹2 la distribución
correspondiente al tratamiento 2. La hipótesis nula se muestra a continuación.
H0: 𝐹1(𝑠) = 𝐹2(𝑠) = 𝐹 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑠
Por lo que la hipótesis nula que de la siguiente manera:
H0: 𝜇1 = 𝜇2 = 0 𝑜 H0: 𝜏1 = 𝜏2 = 0
Donde 𝜏1: efecto del tratamiento 1 y 𝜏2: efecto del tratamiento 2. Debido a que en
estos experimentos se compara un modificado contra un estándar, el subíndice 𝑚
hace referencia modificada y el subíndice 𝑒 al estándar.
H0: 𝜏𝑚 = 𝜏𝑒 = 0
La hipótesis nula afirma que las medias de las poblaciones son iguales, o
equivalente a que el tratamiento no tiene efecto.
Todas las posibles pruebas de hipótesis son las siguientes:
1) Prueba unilateral de cola izquierda
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 < 𝜏2
2) Prueba unilateral de cola derecha
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 > 𝜏2
3) Prueba bilateral
Capítulo 2
41
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 ≠ 𝜏2
Enseguida se proporciona un ejemplo para las pruebas de hipótesis enumeradas
anteriormente. El diagrama de flujo de una prueba con permutación sistemática se
muestra en el Apéndice B.2.
“En una prueba de permutación para comparar medias de dos tratamientos, se
realizan todas las combinaciones posibles, y se calcula un estadístico de prueba
para cada una de las asignaciones generada de los datos, estos valores definen
la distribución de referencia para la prueba, finalmente la proporción de datos
con un valor del estadístico al menos tan extremo que el valor del estadístico de
los datos experimentales determinan el 𝑝 valor. Cuando se trabaja con el
conjunto de todas las posibles asignaciones la prueba de permutación se
denomina sistemática y cuando se trabaja con un subconjunto de todas las
combinaciones la prueba de permutación se denomina aleatoria” (Edgington,
1995).
Prueba unilateral de cola izquierda
El estadístico 𝑇(𝑧) = 𝑦𝜏1
− 𝑥𝜏2 es el estadístico a calcular para el arreglo que se
presenta en el Cuadro 2.2.1.
Cuadro 2.2.1. Arreglo de un experimento aleatorizado
Población
𝜏 1" 𝜏2
𝑦1 𝑥1
𝑦2 𝑥2
⋮ ⋮
𝑦𝑛1 𝑥𝑛2
*Este cuadro denota el arreglo 𝑧, es decir, el arreglo experimental. Cada una de las posibles asignaciones genera el arreglo 𝑧 , que tendrá la misma estructura que se muestra en este
cuadro.
El número de asignaciones se obtiene de la siguiente manera: se tienen 𝑛1 + 𝑛2
elementos totales, estos se van a dividir en dos grupos uno de tamaño 𝑛1 que le
Pruebas de permutación en diseños experimentales
42
corresponde a 𝜏1 y 𝑛2 que corresponde a 𝜏2, entonces respecto a lo explicado
previamente en el apartado 1.2 (ecuación 1.2.2), el número total de asignaciones
coincide con el número total de combinaciones es (𝑛1+𝑛2𝑛1 𝑛2
).
El estadístico a emplear para cada una de las asignaciones es 𝑇𝑘(𝑧) = 𝑦𝑘
𝜏1− 𝑥
𝑘𝜏2
para 𝑘 = 1, 2, … , (𝑛1+𝑛2𝑛1 𝑛2
). Esto genera la distribución de referencia que proviene de
la asignación aleatoria de los elementos disponibles a los tratamientos. Es
importante recalcar que 𝑇(𝑧) está considerado en algunos de los 𝑇𝑘(𝑧) = 𝑦𝑘
𝜏1−
𝑥𝑘𝜏2
para 𝑘 = 1, 2, … , (𝑛1+𝑛2𝑛1 𝑛2
), esto porque 𝑧 es una de las (𝑛1+𝑛2𝑛1 𝑛2
) asignaciones
posibles denotadas por 𝑧. Cada uno de los arreglos 𝑧 tiene una estructura similar al
Cuadro 2.2.1.
De manera que el cálculo del 𝑝-valor se obtiene como se muestra en la ecuación de
abajo:
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Π
(𝑛1+𝑛2𝑛1 𝑛2
)
Donde
𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] Probabilidad de que 𝑇𝑘(𝑧) al menos tan extremo como 𝑇(𝑧) bajo
H0
Π Es el conjunto de todas las posibles asignaciones (combinación). La cardinalidad
de este conjunto es (𝑛1+𝑛2𝑛1 𝑛2
).
𝐴: 𝑅 × 𝑅 → {0,1} donde 𝐴 toma el valor de uno si 𝑇𝑘(𝑧)es al menos tan extremo
como 𝑇(𝑧) y toma el valor de cero si ocurre lo contrario
Como se puede notar en la ecuación de arriba, el valor de 𝑝 aumenta para cada
valor 𝑇𝑘(𝑧) igual o más extremo que 𝑇(𝑧).
Capítulo 2
43
Para hacer más clara la idea de esta prueba se expone un ejemplo a
continuación.
Ejemplo 2.2.1. Un nuevo tratamiento (modificado) para recuperación postquirúrgica
se compara con un tratamiento estándar, observando el tiempo de recuperación
(días) de los pacientes en cada tratamiento. En el Cuadro 2.2.2 se muestran los
resultados obtenidos.
Cuadro 2.2.2. Valores obtenidos en el experimento del ejemplo 2.2.1
𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 𝑚𝑜𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟
19 23
22 33
25 40
26
El contraste de hipótesis se muestra enseguida. La hipótesis alternativa se refiere a
que si el nuevo tratamiento disminuye el tiempo de recuperación.
H0: 𝜏𝑚 = 𝜏𝑒 = 0
H1: 𝜏𝑚 < 𝜏𝑒
El estadístico de prueba es 𝑇(𝑧) = �̅�𝑚𝑜𝑑𝑖𝑓𝑐𝑎𝑑𝑜 − �̅� 𝑒𝑠𝑡.
El valor de 𝑇(𝑧) = −9 días, indicando una posible disminución en los tiempos de
recuperación.
Si la hipótesis nula es verdadera y no hay diferencia entre los tratamientos, entonces
los tiempos de recuperación de cada uno de los sujetos serían los mismos,
independientemente de que tratamiento recibe.
La base para construir la distribución para 𝑇(𝑧) viene de la distribución aleatoria de
los individuos disponibles a los tratamientos, bajo la condición de que 𝐹𝑚𝑜𝑑𝑖𝑓𝑐𝑑𝑜 =
𝐹𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟. Esta aleatorización resulta de asignar 𝑛1 = 4 individuos a la población de
nuevo tratamiento y 𝑛2 = 3 individuos a la población de tratamiento estándar. La
Pruebas de permutación en diseños experimentales
44
asignación presentada arriba solo es una de las (𝑛1 + 𝑛2
𝑛1 𝑛2) asignaciones igualmente
posibles. La distribución de permutación se construye calculando 𝑇𝑘(𝑧) =
�̅�𝑚𝑜𝑑𝑖𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 − �̅�𝑒𝑠𝑡 para 𝑘 = 1, 2, … , (7
4 3) = 35. La probabilidad de cada una de
estas asignaciones es 1 35⁄ .
Por lo que el valor resulta que el 𝑝 valor es:
𝑃H0[𝑇(𝑧) ≤ T(𝑧)] =
∑ 𝟏[𝑇𝑘(𝑧)≤T(z)]35𝑘=1
35=
∑ 𝟏[𝑇𝑘(𝑧)≤−9)]35𝑘=1
35= 3
35⁄
En el Cuadro 2.2.3 se muestran las combinaciones que brindan valores 𝑇(𝑧) ≤ T(𝑧).
Cuadro 2.2.3. Combinaciones más extremas que 𝑇(𝑧) = −9
N 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑥3 𝑇𝑖(𝑧)
1 19 22 25 26 23 33 40 -9.0
2 19 22 23 25 26 33 40 -10.7
3 19 22 23 26 25 33 40 -10.1
*Los valores enmarcados de color rojo son los datos experimentales
Para este caso, 3 son los valores que son al menos tan extremos como 𝑇(𝑧) = −9
(valor del estadístico de la muestra original), entonces el 𝑝 valor es 3
35≈ 0.0857.
Como conclusión podemos decir que con un nivel de significancia del 𝛼 = 0.05, que
no hay evidencia para el rechazo de la hipótesis nula.
En la Figura 2.2.1 se puede percibir que aproximadamente 3 son las valores al
menos tan extremos como −9, de la misma manera, se puede ver que los valores
de 𝑘 que brindan un prueba exacta son para 𝑘 =
1, 2, 3, 4, 5, 6, 7, 9, 10, 12, 14, 16, 19, 20, 22, 23, 24, 26, 27, 28, 30, 31, 33, 34 𝑦 35.
Capítulo 2
45
La Prueba unilateral de cola derecha respecto al problema presentado en el ejemplo
2.2.1 es
H0: 𝜏𝑚 = 𝜏𝑒 = 0
H1: 𝜏𝑚 > 𝜏𝑒
Prueba bilateral
La prueba de hipótesis
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 ≠ 𝜏2
La metodología de la prueba de permutación es la misma que la del apartado
anterior, la única diferencia es que el estadístico de prueba es el siguiente:
𝑇(𝑧) = |𝑦𝜏1
− 𝑥𝜏2| Para el arreglo experimental
Y 𝑇𝑘(𝑧) = |𝑦𝑘
𝜏1− 𝑥
𝑘𝜏2
| Para 𝑘 = 1, 2, … , (𝑛1+𝑛2𝑛1 𝑛2
) para cada asignación.
Por lo que el cálculo del 𝑝 valor se obtiene como se muestra en la ecuación de abajo
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧)≥𝑇(𝑧)]𝜋𝜖Π
(𝑛1+𝑛2𝑛1 𝑛2
)
Figura 2.2.1 Histograma del estadístico 𝑇𝑘(𝑧)
Pruebas de permutación en diseños experimentales
46
Para este ejemplo se retoman los datos del ejemplo 2.2.1 cuya prueba de hipótesis
bilateral es
H0: 𝜏𝑚 = 𝜏𝑒 = 0
H1: 𝜏𝑚 ≠ 𝜏𝑒
En ese ejemplo el valor del estadístico para los datos experimentales fue 𝑇(𝑧) = −9,
entonces ahora en la prueba bilateral se tiene:
𝑇𝑘(𝑧) ≥ | − 9| Para 𝑘 = 1, 2, … , (7
4 3) = 35
Cuadro 2.2.4. Tabla con 𝑇𝑘|(𝑧)| ≥ | − 9|.
N 𝑦1 𝑦2 𝑦3 𝑦4 𝑥1 𝑥2 𝑥3 𝑇𝑘(𝑧)
1 19 22 25 26 23 33 40 9.0
2 19 22 23 25 26 33 40 10.7
3 19 22 23 26 25 33 40 10.1
4 25 26 33 40 19 11 23 9.6
*Los valores enmarcados de color rojo son los datos experimentales
El cálculo del 𝑝 valor es
𝑃H0[𝑇(𝑧) ≥ T(𝑧)] =
∑ 𝟏[𝑇𝑘(𝑧)≥T(z)]35𝑘=1
35= 4
35⁄ = 0.114
Entonces, con un nivel de significancia del 𝛼 = 0.05, no no hay evidencia para el
rechazo de la hipótesis nula.
2.2.2 Pruebas exactas
Teorema 2.3.1. Si el nivel de significancia es 𝛼 =𝑠
(𝑛1+𝑛2𝑛1 𝑛2
) y si toma como región crítica
(−∞, 𝑇(𝑧)𝑠] la prueba de permutación es exacta, esto es,
𝑃H0(rechazar H0| H0) = 𝛼
En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠 − é𝑠𝑖𝑚𝑜 más pequeño en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}
Capítulo 2
47
Demostración:
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0)
Suponiendo que𝑇(𝑧) < 0
= 𝑃 (∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π
(𝑛1+𝑛2𝑛1 𝑛2
)≤ 𝛼|H0) = 𝑃 (
∑ 1[𝑇𝑘(𝑧)≤𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤ 𝛼|H0)
= 𝑃 (∑ 1[𝑇𝑘(𝑧)≤𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤ 𝑠
(𝑛1+𝑛2𝑛1 𝑛2
)⁄|H0)
= 𝑃
(
∑ 1[𝑇𝑘(𝑧)≤𝑇(𝑧)]
( 𝑛𝑛1 𝑛2
)
𝑘=1
≤ 𝑠|H0
)
= 𝑠(𝑛1+𝑛2
𝑛1 𝑛2)⁄
Como la distribución de aleatorización es discreta, entonces el 𝑝 valor debe ser un
múltiplo de 1
(𝑛1 + 𝑛2
𝑛1 𝑛2)
⁄ , sin embargo, no todos los múltiplos son posibles. Entonces
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠
(𝑛1 + 𝑛2
𝑛1 𝑛2)⁄
= 𝛼
Si 𝑠 es un múltiplo de 𝛼 se cumple la igualdad de arriba, pero si 𝑠 no es múltiplo
de 𝛼 se tiene lo siguiente:
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠
(𝑛1 + 𝑛2
𝑛1 𝑛2)⁄
< 𝛼
Lema 2.2.1 Si el nivel de significancia es 𝛼 =𝑠
(𝑛1+𝑛2𝑛1 𝑛2
) y si toma como región crítica
[ 𝑇(𝑧)𝑠, + ∞) la prueba de permutación es exacta, esto es,
𝑃H0(rechazar H0| H0) = 𝛼
En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠 − é𝑠𝑖𝑚𝑜 más grande en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}
Pruebas de permutación en diseños experimentales
48
Teorema 2.2.2. Si el nivel de significancia es 𝛼 =𝑠1+𝑠2
(𝑛1+𝑛2𝑛1 𝑛2
) y si toma como región crítica
(−∞, 𝑇(𝑧)𝑠1] y [ 𝑇(𝑧)𝑠1
, + ∞), tal que 𝑠1 = 𝑠2 y cumplen ser son enteros positivos.
Entonces la prueba de permutación es exacta, esto es,
𝑃H0(rechazar H0| H0) = 𝛼
En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠1 − é𝑠𝑖𝑚𝑜 más pequeño y 𝑠2 − é𝑠𝑖𝑚𝑜 más grande
en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}.
Demostración:
Sea 𝑇(𝑧) = |𝑦𝜏1
− 𝑥𝜏2|
𝑃 (∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π
(𝑛1+𝑛2𝑛1 𝑛2
)≤ 𝛼|H0) = 𝑃 (
∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)] ó [𝑇𝑘(𝑧)≥𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤ 𝛼|H0)
= 𝑃 (∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤
1
2𝛼|H0) + 𝑃 (
∑ 1[𝑇𝑘(𝑧)≥𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤
1
2𝛼|H0)
= 𝑃 (∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤
𝑠1
(𝑛1+𝑛2𝑛1 𝑛2
)|H0) + 𝑃 (
∑ 1[𝑇𝑘(𝑧)≥𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
(𝑛1+𝑛2𝑛1 𝑛2
)≤
𝑠2
(𝑛1+𝑛2𝑛1 𝑛2
)|H0)
= 𝑃
(
∑ 1[−𝑇𝑘(𝑧)≤−𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
≤ 𝑠1|H0
)
+ 𝑃
(
∑ 1[𝑇𝑘(𝑧)≥𝑇(𝑧)]
(𝑛1+𝑛2𝑛1 𝑛2
)
𝑘=1
≤ 𝑠2H0
)
=𝑠1
(𝑛1+𝑛2𝑛1 𝑛2
)+
𝑠2
(𝑛1+𝑛2𝑛1 𝑛2
)=
𝑠1 + 𝑠2
(𝑛1+𝑛2𝑛1 𝑛2
)=
2𝑠2
(𝑛1+𝑛2𝑛1 𝑛2
)
Entonces
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) =2𝑠2
(𝑛1 + 𝑛2
𝑛1 𝑛2)⁄
= 𝛼
Capítulo 2
49
Si 𝑠 es un múltiplo de 𝛼 se cumple la igualdad de arriba, pero si 𝑠 no es múltiplo
de 𝛼 se tiene lo siguiente:
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) =2𝑠2
(𝑛1 + 𝑛2
𝑛1 𝑛2)
⁄ < 𝛼
2.2.3 Distribución Monte Carlo en el diseño aleatorizado
Cuando se trabaja con muestras de tamaño grande, realizar el análisis del diseño
experimental con permutación sistemática no resulta viable, debido a que las
cantidades de cálculos de asignaciones suelen ser gigantescos. Por ejemplo,
considere un diseño experimental donde las asignaciones a generar son ( 3015 15
) =
155,117,520, realizar esa cantidad de combinaciones no resulta viable para
cualquier computadora. Entonces, para evitar esa problemática se presenta la
prueba permutación con uso de distribución Monte Carlo denominado también
prueba de permutación con permutaciones aleatorias.
En una prueba de permutación con permutaciones sistemáticas se trabajan con
todas las posibles asignaciones (𝑛1+𝑛2𝑛1 𝑛2
), sin embargo, en una prueba de
permutación con distribución Monte Carlo, únicamente se trabaja con una muestra
aleatoria de la población de todas las asignaciones (𝑛1+𝑛2𝑛1 𝑛2
) posibles e igualmente
probables.
El cálculo del 𝑝 valor para una prueba de permutación con distribución Monte Carlo
es obtenido mediante la siguiente ecuación.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)] + 1𝜋𝜖Ω
𝐵 + 1=
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝐵𝑘=1 + 1
𝐵 + 1≤ 𝛼
Donde:
Ω: Denota el conjunto que contiene todas las asignaciones realizadas de manera
aleatoria de la población de todas las posibles asignaciones (𝑛1+𝑛2𝑛1 𝑛2
). La cardinalidad
de este conjunto es 𝐵.
Pruebas de permutación en diseños experimentales
50
𝐴:𝑅 × 𝑅 → {0,1} Donde 𝐴 toma el valor de uno si 𝑇𝑘(𝑧) es igual o más extremo que
𝑇(𝑧) y toma el valor de cero si ocurre lo contrario. En la elaboración del diagrama
de flujo de los algoritmos a ∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω se denomina 𝑛𝑔𝑒.
Los principios de la prueba de permutación realizada con distribución Monte Carlo,
son los mismos que las de permutaciones sistemáticas, la única diferencia es que
aquella trabaja con el conjunto Ω tal que Ω ⊂ Π. Para ilustrar esta parte, enseguida
se muestra un ejemplo.
Ejemplo 2.3.1. Un ingeniero industrial que labora en una fábrica de cemento creó
una fórmula de cemento que supuestamente presenta mejor fuerza de tensión de
adhesión, comparada con una formulación estándar. El ingeniero realiza el
experimento y los datos se presentan en el Cuadro 2.2.5.
La prueba de hipótesis que se quiere realizar es la bilateral
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 ≠ 𝜏2
Esto es,
H0: 𝜇 𝑚𝑜𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 = 𝜇sin 𝑚𝑜𝑑
H1: 𝜇𝑚𝑜𝑑𝑖𝑓𝑖𝑐𝑎𝑑𝑜 ≠ 𝜇𝑠𝑖𝑛 𝑚𝑜𝑑
Cuadro 2.2.5. Datos de la fuerza de la tensión de adhesión del experimento de la formulación del cemento.
Escriba aquí la ecuación. Cemento modificado Cemento sin modificar
𝑗 𝑦𝑗 𝑥𝑗
1 16.85 17.50
2 16.40 17.63
3 17.21 18.25
4 16.35 18.00
5 16.52 17.86
Capítulo 2
51
6 17.04 17.75
7 16.96 18.22
8 17.15 17.90
9 16.59 17.96
10 16.57 18.18
Fuente (Montgomery, 2004).
Resultado con la prueba de permutaciones sistemática:
𝑃H0[|𝑇(𝑧)| ≥ |T(𝑧)|] =
∑ 𝟏[|𝑇𝑘(𝑧)|≥|T(z)|]184,756𝑘=1
184,756= 0.000001082
El resultado con la prueba de permutación con distribución Monte Carlo es:
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =
∑ 𝐴[|𝑇𝑘(𝑧)|,|𝑇(𝑧)|] + 1𝜋𝜖Ω
𝐵 + 1=
∑ 𝟏[|𝑇𝑘(𝑧)|≥|T(z)|] + 120,000𝑘=1
20,000 + 1
= 0.000004999
El diagrama de flujo de una prueba de permutación con distribución Monte
Carlos se muestra en el capítulo 3 figura 3.1.2, de igual manera en ese mismo
capítulo sección 3.2 se proporciona la validación de la distribución Monte carlo.
2.2.4 Diseño de comparaciones de parejas aleatorizadas
De manera similar que el apartado de muestras pareadas, en este apartado se
estudia a esta misma pero desde el punto de vista de pruebas de permutación.
Para los experimentos con observaciones pareadas, la prueba de permutación es
construida de manera un poco diferente. En este caso, al igual se consideran dos
tratamientos 𝜏1 y 𝜏2, y cada una de las réplicas del experimento se realiza de manera
pareada. En el Cuadro 2.2.6 se ilustra el diseño de parejas aleatorizadas
denominadas, debido a que el tratamiento se asigna de manera aleatoria al
tratamiento 1 o tratamiento 2.
Pruebas de permutación en diseños experimentales
52
Cuadro 2.2.6. Arreglo de un diseño experimental con observaciones pareadas
𝑃𝑎𝑟𝑒𝑗𝑎 𝑖 𝜏1 𝜏2
1 𝑋1 𝑌1 2 𝑋2 𝑌2
⋮ ⋮ ⋮ 𝑛 𝑋𝑛 𝑌𝑛
* Para para la pareja aleatorizada 𝑖 si la unidad experimental se asigna a 𝜏1, entonces 𝜏2 se
asigna la unidad experimental que es pareja correspondiente a la asignada a 𝜏1 o viceversa.
Supuestos:
La distribución de donde provienen los datos debe ser simétrica.
Cada una de las 𝑑𝑖 , definidas más adelante, son independientes e idénticamente
distribuidas, es decir, son intercambiables.
Donde:
𝑥𝑖: denota la observación i − ésima en el tratamiento 𝜏1
𝑦𝑖: denota la observación i − ésima en el tratamiento 𝜏2
(𝑥𝑖, 𝑦𝑖): denota la i − ésima observación pareada
El estadístico de prueba para el arreglo original mostrado en el Cuadro 2.2.6 es:
𝑑(𝑧) = 𝑑
𝑑 =1
𝑛∑𝑑𝑖
𝑖
Donde
Y 𝑑𝑖 = 𝑦𝑖 − 𝑥𝑖
𝑛 denota el número de observaciones pareadas
𝑖 denota la − ésima observación pareada
Para este diseño de observaciones pareadas, la manera en que se generan las
asignaciones es muy simple y un tanto diferente al diseño estudiado en el diseño
aleatorizado. Debido a que las observaciones se realizan en partes de una misma
unidad o ejemplar, entonces 𝑥𝑖 tiene únicamente una 𝑦𝑖 correspondiente, entonces
Capítulo 2
53
para la 𝑖 − é𝑠𝑖𝑚𝑜 unidad, las asignaciones posibles son:(𝑥𝑗 , 𝑦𝑗) o (𝑦𝑗 , 𝑥𝑗). Por lo
anterior, se puede inferir que para 𝑛 réplicas se tienen 2𝑛 posibles permutaciones.
Para la 𝑗 − é𝑠𝑖𝑚𝑎 permutación, el estadístico de prueba es el siguiente:
𝑑𝑘(𝑧) = 𝑑 𝑃𝑎𝑟𝑎 𝑘 = 1, 2, … , 2𝑗
Este último nos genera la distribución de aleatorización que es la distribución de
referencia, la cual proviene de la aleatorización de los elementos disponibles de los
tratamientos. El valor de 𝑑(𝑧) coincide con al menos un valor de 𝑑𝑘(𝑧), ya que la
muestra original es 𝑧, una posible combinación de las 2𝑗 posibles 𝑧. Cada uno de los
arreglos 𝑧 tiene una estructura similar al Cuadro 2.2.6.
El contraste de hipótesis es el siguiente:
H0: 𝜇𝑑 = 0
H1: 𝜇𝑑 ≠ 0
Que es equivalente a la prueba de hipótesis equivalente
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 ≠ 𝜏2
El cálculo del 𝑝-valor es de la manera siguiente:
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[|𝑑𝑘(𝑧)|, |𝑑(𝑧)|] =
∑ 𝐴[|𝑑𝑘(𝑧)|,|𝑑(𝑧)|]𝜋𝜖Π
2𝑗
De manera similar que en el diseño completamente al azar, el valor 𝑝 aumenta para
cada valor |𝑑𝑘(𝑧)| que sea igual o más extremo que |𝑑(𝑧)|. En el Apéndice B.2 se
muestra el diagrama de flujo para esta prueba. Para entender este diseño de
comparaciones con parejas aleatorizadas, enseguida se muestra un ejemplo.
Ejemplo 2.4.2. Considere una máquina para medir la dureza de barras de metales.
Esta máquina trabaja de la siguiente manera: presiona una barra de metal con una
punta afilada sobre un ejemplar de prueba de metal con una fuerza conocida. Al
Pruebas de permutación en diseños experimentales
54
medir la profundidad de la depresión producida por la punta, se determina la dureza
del ejemplar. En esta máquina pueden instalarse dos puntas diferentes y aun
cuando la precisión de las mediciones hechas con las dos puntas parece ser la
misma, se sospecha que una de las puntas produce diferentes lecturas de la dureza
que la otra.
El ingeniero a cargo selecciona al azar 20 ejemplares de metal. Al inicio el ingeniero
se plantea el diseño experimental completamente al azar para probar las puntas. La
mitad de los ejemplares de prueba se prueban con la punta 1 y el resto con la punta
2. La asignación exacta de los ejemplares de prueba se determina de manera
aleatoria.
En el diseño experimental planteado por el ingeniero se puede percibir que el diseño
completamente al azar no es la mejor opción, suponiendo que los ejemplares de
prueba de metal se cortaron de barras diferentes que se fabricaron a temperaturas
diferentes o que no fueran homogéneas en cualquier otra situación que afectara su
dureza. Esta falta de homogeneidad entre los ejemplares de prueba contribuye a
que los efectos perturbadores aumenten, haciendo más difícil detectar las
diferencias reales entre las puntas. Entonces, para evitar este problema se toman
10 ejemplares de pruebas de tamaño suficiente como para ser cortado a la mitad,
una punta se prueba en una mitad y la otra punta en la mitad restante. Los datos de
este ejemplo se presentan en el Apéndice B.3. En la Figura 2.2.2 se proporciona
una gráfica donde se plasman los datos observados de la dureza del ejemplar
medido en la punta 1 y punta 2.
Capítulo 2
55
Recuerde que la prueba de hipótesis es:
H0: 𝜏1 = 𝜏2 = 0
H1: 𝜏1 ≠ 𝜏2
Que equivale a escribirlo de la manera siguiente:
H0: La media de las mediciones de la dureza realizadas por la punta 1 es igual a la punta 2.
H1: La media de las mediciones de la dureza realizadas por la punt 1 y punta 2 son diferentes
|𝑑(𝑧)| = |1
𝑛∑ 𝑑𝑗𝑗 | Donde 𝑑𝑗 = 𝑦𝑗 − 𝑥𝑗 y en este caso |𝑑(𝑧)| = 0.1.
Bajo la hipótesis nula, considerando las 10 observaciones pareadas de la dureza
obtenida por la punta 1 y punta 2, entonces se tienen 210 = 1024 arreglos
(asignaciones) posibles e igualmente probables. De manera que, para probar la
hipótesis nula debería compararse |𝑑(𝑧)| = 0.1 con las otras |𝑑𝑘(𝑧)| para 𝑗 =
1,2, . . , 1024. Resulta que las 1024 diferencias obtenidas en el proceso de
aleatorización dan valores iguales o más extremos a 0.1.
Fuente: Elaboración propia.
*En el ejemplar 2, 5 y 8 las puntas midieron igual medida de la dureza Figura 2.2.2 Puntos comparativo de la dureza medida con punta 1 y punta 2.
Pruebas de permutación en diseños experimentales
56
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑑𝑘(𝑧) ≥ 𝑑(𝑧)] =
∑ 𝟏{𝑑𝑘(𝑧)≥d(z)}1024𝑘=1
1024= 1024
1024⁄
El cálculo del 𝑝 valor = 1. Por lo tanto, con un nivel de significancia 𝛼 = 0.05 no
existe evidencia para rechazar la hipótesis nula. En la Figura 2.2.3 se muestra el
histograma del estadístico.
2.2.5 Prueba exacta
Lema 3.2.1. Si el nivel de significancia es 𝛼 =𝑠1+𝑠2
2𝑗 y si toma como región crítica
(−∞, 𝑑(𝑧)𝑠1] y [ 𝑑(𝑧)𝑠1
, + ∞), tal que 𝑠1 = 𝑠2 y cumplen con ser enteros positivos.
Entonces la prueba de permutación es exacta, esto es,
𝑃H0(rechazar H0| H0) = 𝛼
La prueba de permutación es exacta, esto es
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) =𝑠1 + 𝑠2
2𝑗= 𝛼
En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠1 − é𝑠𝑖𝑚𝑜 más pequeño y 𝑠2 − é𝑠𝑖𝑚𝑜 más
grande en {𝑑𝑘(𝑧): 𝑧 𝜖 Π}.
Figura 2.2.3 . Histograma del estadístico 𝑑𝑘(𝑧).
Capítulo 2
57
2.3 Diseño experimental completamente al azar
En este apartado se estudia las pruebas de permutación orientadas al diseño
experimental completamente al azar. Se proporciona una definición de este diseño
desde la perspectiva de una prueba de permutación, supuestos, prueba con
permutaciones aleatorias y un método de comparación múltiple cuando el ANOVA
de permutación detecta diferencia entre los tratamientos. Por último, se presenta un
ejemplo para hacer más ilustrativo esta metodología.
2.3.1 Permutaciones sistemáticas en un diseño completamente al azar
De acuerdo a Ernst (2004), Rodgers (1999) y Good (1993) se define una prueba de
permutación para un diseño unifactorial con permutación sistemática de la manera
siguiente:
Definición 2.3.1. Una prueba de permutación 𝑇 de nivel 𝛼 para el contraste
H0(igualdad) Vs H1(diferencia), consiste en un arreglo bidimensional de 𝑡 columnas
(tratamientos) con 𝑛𝑗 renglones (réplicas) para cada uno de las 𝑡 columnas, con 𝑗 =
1, 2, … , 𝑡, cuyo arreglo es denotada por 𝑧, un estadístico 𝑇(𝑧) y un criterio de
aceptación 𝐴: 𝑅 × 𝑅 → {0,1} donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al menos tan
extremo como 𝑇(𝑧) y toma el valor de cero si ocurre lo contrario.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π
( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!
)≤ 𝛼
Donde
Π Es el conjunto de todas las posibles asignaciones (combinación). La cardinalidad
de este conjunto es ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
).
𝑇(𝑧) Denota el estadístico computado para la muestra original.
𝑇𝑘(𝑧) Denota el estadístico computado para la 𝑘 − é𝑠𝑖𝑚𝑎 asignación.
Pruebas de permutación en diseños experimentales
58
Cuadro 2.3.1. Tabla diseño completamente al azar cuyo arreglo tiene por 𝑧
Tratamientos
1 2 … 𝑡
𝑥11 𝑥21 … 𝑥𝑡1
𝑥12 𝑥22 … 𝑥𝑡2
⋮ ⋮ … ⋮
𝑥1𝑛1 𝑥2𝑛2
… 𝑥𝑡𝑛𝑡
Volviendo la atención a la definición 2.3.1., se puede percatar que dicha definición
no ofrece una descripción clara de una prueba de permutación, para hacer
entendible esta prueba enseguida se proporciona una descripción explícita de dicha
prueba.
“En una prueba de permutación en el diseño experimental completamente al azar,
se realizan todas las asignaciones ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
) posibles, y se calcula un
estadístico de prueba para cada una de las asignaciones generada de los datos,
estos valores definen la distribución de referencia para la prueba, finalmente la
proporción de datos con un valor del estadístico al menos tan extremo que el valor
del estadístico de los datos experimentales determinan el 𝑝 valor” (Edgington,
1995).
El número de asignaciones se obtiene de la siguiente manera: se tienen 𝑛 = 𝑛1 +
𝑛2 + ⋯+ 𝑛𝑡 observaciones totales, estas se van a dividir en grupos de tamaño 𝑛1
que le corresponde a 𝜏1, 𝑛2 que le corresponde a 𝜏2 … 𝑛𝑡 que le corresponde a 𝜏𝑡.
EL estadístico a emplear es el siguiente:
𝑇(𝑧) =
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜
𝑡−1𝑆𝑆𝑒𝑟𝑟𝑜𝑟
𝑛−𝑡
2.3.1
Por lo que el estadístico para cada una de las asignaciones es
Capítulo 2
59
𝑇𝑘(𝑧) =𝑆𝑆𝐾
𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1
𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟
𝑛−𝑡
Para 𝑘 = 1, 2, … , ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
) 2.3.2
Esto genera la distribución de referencia que proviene de la asignación aleatoria de
las observaciones disponibles a los tratamientos. Es importante recalcar que 𝑇(𝑧)
está considerado en algunos de los 𝑇𝑘(𝑧) =𝑆𝑆𝐾
𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1
𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟
𝑛−𝑡
para 𝑘 =
1, 2, … , ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!
), esto porque 𝑧 es una de las ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
) combinaciones
posibles denotadas por 𝑧. Cada uno de los arreglos 𝑧 tiene una estructura similar a
la presentada en el Cuadro 2.3.1.
Las sumas de cuadrados requeridos se calculan de la siguiente manera:
𝑆𝑆𝑇 = ∑∑𝑦2𝑖𝑗
𝑛𝑖
𝑗
𝑡
𝑖
−𝑦2
..
𝑛
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =1
𝑛𝑖∑ 𝑦2
𝑖.
𝑡
𝑖
−𝑦2
..
𝑛
𝑆𝑆𝑒𝑟𝑟𝑜𝑟 = 𝑆𝑆𝑇 − 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠
De manera que el cálculo del 𝑝-valor se obtiene como se muestra en la ecuación
de abajo:
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Π
( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!
)=
∑ 𝟏[𝑇(𝑧)≥T(z)]
( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!)
𝑘=1
( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!
)
=
∑ 𝟏[
𝑆𝑆𝐾𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜
𝑡−1
𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟
𝑛−𝑡
≥
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1
𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝑛−𝑡
]
( 𝑛𝑛1!𝑛2!…𝑛𝑡−1!)
𝑘=1
( 𝑛𝑛1! 𝑛2!…𝑛𝑡−1!
)
Pruebas de permutación en diseños experimentales
60
Como se puede notar en la ecuación de arriba, el valor 𝑝 aumenta para cada valor
𝑇𝑘(𝑧) que sea igual o más extremo que 𝑇(𝑧).
Esta prueba es exacta y enseguida se muestra el lema.
Lema 2.3.1 Si el nivel de significancia es 𝛼 =𝑠
( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!)
y si toma como región
crítica [ 𝑇(𝑧)𝑠, + ∞), la prueba de permutación es exacta, esto es,
𝑃H0(rechazar H0| H0) = 𝛼
En la parte de arriba 𝑇(𝑧)𝑠 es el 𝑠 − é𝑠𝑖𝑚𝑜 más grande en {𝑇𝑘(𝑧): 𝑧 𝜖 Π}
Como la distribución de aleatorización es discreta entonces el 𝑝 valor debe ser un
múltiplo de 1( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
)⁄ , sin embargo, no todos los múltiplos son posibles.
Entonces
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
)⁄= 𝛼
Si 𝑠 es un múltiplo de 𝛼 se cumple la igualdad de arriba, pero si 𝑠 no es múltiplo
de 𝛼 se tiene lo siguiente:
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) = 𝑃(𝑝 ≤ 𝛼|H0) = 𝑠( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
)⁄< 𝛼
Desafortunadamente esta prueba de permutación sistemática, es difícil en la
práctica, aun con muestras pequeñas por lo que se trabaja con permutación
empleando la distribución Monte Carlo.
Supuestos de un prueba de permutación en el diseño completamente al azar
Las pruebas de permutación cumplen determinados supuestos para llevarse a cabo.
Considerar como apoyo el Cuadro 2.3.1 para entender mejor los supuestos. Los
datos consisten de 𝑛 = ∑ 𝑛𝑖𝑡𝑖=1 observaciones, con 𝑛𝑖 observaciones del 𝑖 𝑡ℎ
tratatamiento 𝑖 = 1,2, … , 𝑡.
Capítulo 2
61
Supuesto. Las 𝑡 ∗ 𝑛𝑖 variables aleatorias {𝑋11, 𝑋12, … , 𝑋1𝑛1, …𝑋𝑖1,
𝑋𝑖2, … , 𝑋𝑖𝑛𝑖, … , 𝑋𝑡1, 𝑋𝑡2, … , 𝑋𝑡𝑛𝑡
}, 𝑖 = 1, … , 𝑡, son mutuamente independientes e
idénticamente distribuidas. Lo anterior quiere decir que las 𝑡 ∗ 𝑛𝑖 variables son
variables aleatorias intercambiables.
Las funciones de distribuciones 𝐹1, … , 𝐹𝑡 son conectadas a través de la relación
𝐹𝑖(𝑠) = 𝐹(𝑠 − 𝜏𝑖), −∞ ≤ 𝑠 ≤ ∞
Para 𝑖 ∈ {1,… , 𝑡}, donde 𝐹 es una función de distribución para una distribución
continua con media desconocida, 𝜃 y 𝜏𝑖 es el efecto del tratamiento para la 𝑖 𝑡ℎ
población. Por lo que la hipótesis nula de interés es:
H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0
El razonamiento de pruebas de permutación es que los resultados obtenidos en el
experimento, como se muestra en la tabla de arriba, solo es una de las
( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
) posibles permutaciones bajo H0. Donde H0: no hay diferencia entre
las medias de los tratamientos.
2.3.2 Distribución Monte Carlo en un diseño completamente al azar
En una prueba de permutación con permutaciones sistemáticas se trabaja con todas
las posibles asignaciones ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!
), sin embargo, en una prueba de
permutación con distribución Monte Carlo únicamente trabaja con una muestra
aleatoria con remplazo de la población de todas las asignaciones ( 𝑛𝑛1! 𝑛2! … 𝑛𝑡−1!
)
posibles. El cálculo del 𝑝 valor para una prueba de permutación con distribución
Monte Carlo es obtenido mediante la siguiente ecuación.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), T(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω + 1
𝐵 + 1=
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝐵𝑘=1 + 1
𝐵 + 1≤ 𝛼
Donde:
Pruebas de permutación en diseños experimentales
62
Ω: Denota el conjunto que contiene todas las asignaciones realizadas de manera
aleatoria de todas las posibles asignaciones ( 𝑛𝑛1! 𝑛2!… 𝑛𝑡−1!
). La cardinalidad de este
conjunto es 𝐵.
𝐴:𝑅 × 𝑅 → {0,1} Donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al menos tan extremo como
𝑇(𝑧) y toma el valor de cero sí ocurre lo contrario. En el diagrama de flujo de los
algoritmos a ∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω se denomina 𝑛𝑔𝑒. El arreglo 𝑧 es similar al cuadro
2.3.1.
El estadístico 𝑇(𝑧) empleado en este apartado para el arreglo experimental es el
que tiene por ecuación 2.3.1, mientras que el estadístico dado por la ecuación 2.3.2
es empleado para cada una de las combinaciones extraídas de manera aleatoria.
La metodología para el diseño completamente al azar con distribución Monte Carlo
se muestra enseguida (Edgington, 1995) y en capítulo 3 se muestra su diagrama de
flujo.
1. Calcular el estadístico 𝑇(𝑧) para el arreglo original mostrado en el Cuadro
2.3.1.
2. Realizar la asignación 𝑘.
El total de las 𝑛 = ∑ 𝑛𝑖𝑡𝑖=1 observaciones las lleva a una urna, entonces,
extraer una por una. Las primeras 𝑛1 extracciones aleatorias son asignadas
al tratamiento 1, las segundas 𝑛2 extracciones aleatorias son asignadas al
tratamiento 2…, las últimas restantes 𝑛𝑡 extracciones son asignadas al
tratamiento 𝑡, de manera que se obtiene un arreglo similar al del Cuadro
2.3.1.
3. Calcular el estadístico 𝑇(𝑧) para la asignación obtenida en el paso 2. La cual
se denota 𝑇𝑘(𝑧).
4. Si 𝑇𝑘(𝑧) ≥ 𝑇(𝑧) entonces incrementar 1 la variable 𝑛𝑔𝑒.
5. Se repite el paso 2, 3 y 4 𝐵 veces.
Capítulo 2
63
6. Dividir el valor de la variable 𝑛𝑔𝑒 + 1 por 𝐵 + 1 para calcular la probabilidad
de obtener un valor de 𝑇𝑘(𝑧) igual o más extremo como 𝑇(𝑧) bajo la hipótesis
nula. Este valor es denominado el 𝑝 valor.
7. Rechazar la hipótesis nula si 𝑝 ≤ 𝛼.
Ejemplo 2.3.1. Se tiene una investigación donde se quiere saber si leer rápido es
afectado por el tipo de letra del texto. Para esto, 15 individuos fueron asignados
aleatoriamente a uno de los tres tipos de texto con determinada tipo letra y su
velocidad de lectura fue anotada en el Cuadro 2.3.2. (Ernst, 2004).
Cuadro 2.3.2. Tabla comparativa de los tipos de texto
Estilo del texto
1 2 3
135 175 105
91 130 147
111 514 159
87 283 107
122 . 194
𝑦𝑡 109 275.5 142.4
Fuente (Ernest, 2004)
*En el cuadro solo se tomaron 14 datos, debido a que en un individuo no se pudo realizar el experimento por causa ajenas a este.
En la Figura 2.3.1. Se presenta una gráfica comparativa donde se muestra la
velocidad de lectura respecto a cada tipo de texto.
Pruebas de permutación en diseños experimentales
64
Con 𝐵 = 9999 el 𝑝 valor para la prueba de hipótesis se muestra a continuación.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 1𝜋𝜖Ω
𝐵 + 1=
∑ 𝟏[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 19999𝑘=1
9999 + 1
= 0.0109
Este resultado es similar al 𝑝 obtenido para el mismo ejercicio con el método de
Monte Carlo presentado en el artículo de permutation methods (Ernst, 2004).
Entonces, con un nivel de significancia del 0.05 existe evidencia en contra la
hipótesis nula.
2.4 Diseño experimental de bloques completamente al azar (bca)
En la definición 1.1.14 se proporciona la definición clara y sencilla del diseño
experimental de bloques al azar. Los bloques son empleados para reducir la
influencia de efectos perturbadores. Un bloque crea condiciones homogéneas para
comparar los tratamientos.
Fuente Elaboración propia
Figura 2.3.1 Comparación de velocidades de lectura.
Capítulo 2
65
2.4.1 Permutaciones sistemáticas en un diseño (bca)
De acuerdo a Montgomery (2004) y Good (1993), una prueba de permutación para
un diseño unifactorial con bloques al azar con permutación sistemática se puede
definir de la manera siguiente:
Definición 2.4.1. Una prueba de permutación 𝑇 de nivel 𝛼 para el contraste
H0(igualdad) Vs H1(diferencia). Consiste en una matriz de 𝑡 columnas (tratamientos)
por 𝑏 renglones (bloques) cuyo arreglo es denotada por 𝑧, un estadístico 𝑇(𝑧) y un
criterio de aceptación 𝐴: 𝑅 × 𝑅 → {0,1} donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al
menos tan extremo como 𝑇(𝑧) y toma el valor de cero sí ocurre lo contrario.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 =∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝑧𝜖Π
𝑡!𝑏≤ 𝛼
En este diseño los tratamientos son aleatorizados dentro de bloques, por lo que los
bloques representan una restricción sobre la aleatorización.
Donde
Π Es el conjunto de todas las posibles asignaciones. La cardinalidad de este
conjunto es 𝑡!𝑏.
𝑇(𝑧) Denota el estadístico computado para la muestra original.
𝑇𝑘(𝑧) Denota el estadístico computado para la 𝑘 − é𝑠𝑖𝑚𝑎 asignación.
Pruebas de permutación en diseños experimentales
66
Volviendo la atención a la definición 2.4.1, se puede percatar que dicha definición
no brinda una descripción clara de una prueba de permutación. Para hacer más
entendible esta prueba, enseguida se proporciona una descripción explícita de
dicha prueba.
“En una prueba de permutación para el diseño experimental de bloques
completamente al azar, se realizan todas las asignaciones 𝑡!𝑏 posibles, y se calcula
un estadístico de prueba para cada una de las asignaciones (permutaciones)
generada de los datos, estos valores definen la distribución de referencia para la
prueba, finalmente la proporción de datos con un valor del estadístico al menos tan
extremo que el valor del estadístico de los datos experimentales determinan el 𝑝
valor” (Edgington, 1995).
En este diseño se tienen 𝑛 = 𝑏𝑡 observaciones totales. Para el arreglo original se
tienen 𝑏 bloques, los cuales son heterogéneos entre sí, pero dentro de cada uno de
estos se crea una condición homogénea para probar todos los tratamientos.
Entonces, en cada uno de los 𝑏 bloques, a cada tratamiento se le asigna en forma
aleatoria. Bajo la hipótesis nula en el bloque 𝑖 se tienen 𝑡! maneras asignar cada
observación a los distintos tratamientos (generar asignación dentro del bloque) y
como se tienen 𝑏 bloques entonces se tendrán 𝑡!𝑏 asignaciones.
Fuente. Elaboración propia
Figura 2.4.1 Diseño de bloques completamente al azar.
Capítulo 2
67
El estadístico a emplear es el siguiente:
𝑇(𝑧) =
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜
𝑡−1𝑆𝑆𝑒𝑟𝑟𝑜𝑟
𝑏−1
2.4.1
Por lo que el estadístico para cada una de las combinaciones es:
𝑇𝑘(𝑧) =𝑆𝑆𝐾
𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1
𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟
𝑏−1
Para 𝑘 = 1, 2, … , 𝑡!𝑏 2.4.2
Esto genera la distribución de referencia que proviene de la asignación aleatoria de
las observaciones disponibles a los tratamientos. Es importante recalcar que 𝑇(𝑧)
esta considerado en algunos de los 𝑇𝑘(𝑧) =𝑆𝑆𝐾
𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1
𝑆𝑆𝑘𝑒𝑟𝑟𝑜𝑟
𝑏−1
para 𝑘 = 1, 2, … , 𝑡!𝑏, esto
porque 𝑧 esta es una de las 𝑡!𝑏 combinaciones posibles denotadas por 𝑧. Cada uno
de los arreglos 𝑧 tiene una estructura similar a lo mostrado en la Figura 2.4.1.
Las sumas de cuadrados requeridos se calculan de la siguiente manera:
𝑆𝑆𝑇 = ∑∑𝑦2𝑖𝑗
𝑏
𝑗
𝑡
𝑖
−𝑦2
..
𝑛
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =1
𝑏∑𝑦2
𝑖.
𝑡
𝑖
−𝑦2
..
𝑛
𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠 =1
𝑡∑𝑦2
.𝑗
𝑏
𝑗
−𝑦2
..
𝑛
𝑆𝑆𝑒𝑟𝑟𝑜𝑟 = 𝑆𝑆𝑇 − 𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 − 𝑆𝑆𝑏𝑙𝑜𝑞𝑢𝑒𝑠
De manera que el cálculo del 𝑝-valor se obtiene como se muestra en la ecuación
de abajo:
Pruebas de permutación en diseños experimentales
68
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Π
𝑡!𝑏=
∑ 𝟏[𝑇(𝑧)≥T(z)]𝑡!𝑏
𝑘=1
𝑡!𝑏
=
∑ 𝟏[
𝑆𝑆𝐾𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜
𝑡−1𝑆𝑆𝑘
𝑒𝑟𝑟𝑜𝑟𝑏−1
≥
𝑆𝑆𝑡𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑡−1
𝑆𝑆𝑒𝑟𝑟𝑜𝑟𝑏−1
]
𝑡!𝑏
𝑘=1
𝑡!𝑏
Como se puede notar en la ecuación de arriba, el valor 𝑝 aumenta para cada valor
𝑇𝑘(𝑧) que sea igual o más extremo que 𝑇(𝑧).
Supuestos de una prueba de permutación en el diseño bloques completamente al azar
Los datos consisten en 𝑛 = 𝑡 ∗ 𝑏 observaciones, en cada bloque hay una y solo
una observación de cada tratamiento, es decir, el diseño es balanceado y en el
bloque 𝑗 se tienen 𝑖 observaciones para 𝑖 = 1, 2, … , 𝑡 y 𝑗 = 1, 2, … , 𝑏.
Supuestos. Las 𝑛 variables aleatorias 𝑋1𝑗, 𝑋2𝑗, 𝑋3𝑗, … ,𝑋𝑡𝑗, son independiente e
idénticamente distribuidas, esto es, las variables aleatorias dentro de cada
bloque son variables aleatorias intercambiables y entre bloques no son
intercambiables.
Cada valor fijo (𝑖, 𝑗), con variables 𝑋𝑖𝑗 𝑖 = 1, 2, … , 𝑡 y 𝑗 = 1, 2, … , 𝑏 son variables
aleatorias de una muestra de una distribución continua con distribución 𝐹𝑖𝑗 .
Las funciones de distribución son 𝐹11, … , 𝐹𝑡1, … , 𝐹1𝑏 , … , 𝐹𝑡𝑏 están conectadas a
través de la relación:
𝐹𝑖𝑗(𝑠) = 𝐹(𝑠 − 𝛽𝑗 − 𝜏𝑖) , − ∞ < 𝑠 < ∞
Para 𝑖 = 1, 2, … , 𝑡 y 𝑗 = 1, 2, … , 𝑏. 𝐹 es una función de distribución con media
desconocida 𝜃, 𝛽𝑗 es el efecto aditivo desconocido del bloque 𝑗 ésimo y 𝜏𝑖 es el
efecto aditivo desconocido por el tratamiento 𝑖 ésimo.
Por lo que la hipótesis nula es:
Capítulo 2
69
H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑡 = 0
2.4.2 Distribución Monte Carlo en un diseño bca
En una prueba de permutación con permutaciones sistemáticas se trabajan con
todas las 𝑡!𝑏 posibles asignaciones, sin embargo, en una prueba de permutación
con distribución Monte Carlo, únicamente se trabaja con una muestra aleatoria de
la población de todas las asignaciones 𝑡!𝑏 posibles e igualmente probables.
El cálculo del 𝑝 valor para una prueba de permutación con distribución Monte Carlo
es obtenido mediante la siguiente ecuación.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧), T(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω + 1
𝐵 + 1=
∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝐵𝑘=1 + 1
𝐵 + 1≤ 𝛼
Donde:
Ω: Denota el conjunto que contiene todas las asignaciones realizadas de manera
aleatoria de todas las posibles combinaciones 𝑡!𝑏. La cardinalidad de este conjunto
es 𝐵.
𝐴:𝑅 × 𝑅 → {0,1} Donde 𝐴 toma el valor de uno si 𝑇(𝑧) es al menos tan extremo como
𝑇(𝑧)y toma el valor de cero sí ocurre lo contrario. En la elaboración del diagrama de
flujos de los algoritmos a ∑ 𝐴[𝑇𝑘(𝑧),𝑇(𝑧)]𝜋𝜖Ω se denomina 𝑛𝑔𝑒. El arreglo 𝑧 es similar a
la figura 2.4.1.
El estadístico 𝑇(𝑧) empleado en este apartado (ecuación 2.4.1) y para las
combinaciones, es el que tiene por ecuación 2.4.2 del mismo apartado. La
metodología para el diseño completamente al azar con distribución Monte Carlo se
muestra enseguida (Edgington, 1995).
1. Calcular el estadístico 𝑇(𝑧) para el arreglo original mostrado en la Figura
2.4.1.
2. Generar la combinación 𝑘.
Pruebas de permutación en diseños experimentales
70
3. Calcular el estadístico 𝑇(𝑧) para la combinación obtenida en el paso 2. La
cual se denota 𝑇𝑘(𝑧).
4. Si 𝑇𝑘(𝑧) ≥ 𝑇(𝑧) entonces incrementar 1 la variable 𝑛𝑔𝑒.
5. Se repite el paso 2, 3 y 4 𝐵 veces.
6. Dividir el valor de la variable 𝑛𝑔𝑒 + 1 por 𝐵 + 1, para calcular la probabilidad
de obtener un valor de 𝑇𝑘(𝑧) igual o más extremo como 𝑇(𝑧) bajo la hipótesis
nula. Este valor es denominado el 𝑝 valor.
7. Rechazar la hipótesis nula si 𝑝 ≤ 𝛼.
El diagrama de flujo de dicha distribución se muestra en el Capítulo 3.
Ejemplo 2.4.1. Considere un experimento que cuenta con tres tratamientos y 10
bloques, se cree que existe diferencia entre los tratamientos pero que se realiza un
análisis de los datos verificar la existencia de alguna diferencia.
Cuadro 2.4.1. Datos del experimento del ejemplo 2.4.1.
Tratamiento
Bloque 1 2 3
1 6 7 8
2 7 6 7
3 4 8 9
4 5 9 7
5 7 5 8
6 3 4 10
7 5 6 7
8 8 8 9
Capítulo 2
71
9 7 7 10
10 6 5 7
Con 𝐵 = 9999 el 𝑝 valor para la prueba de hipótesis se muestra a continuación.
𝑝 − 𝑣𝑎𝑙𝑜𝑟 = 𝑃H0[𝑇𝑘(𝑧) ≥ 𝑇(𝑧)] =
∑ 𝐴[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 1𝜋𝜖Ω
𝐵 + 1=
∑ 𝟏[𝑇𝑘(𝑧)≥𝑇(𝑧)] + 19999𝑘=1
9999 + 1
= 0.0034
Entonces, con un nivel de significancia del 0.05, existe evidencia contra la hipótesis
nula. El 𝑝 valor obtenido con el anova paramétrico es 0.0050.
En el caso de pruebas de permutación el diseño de bloques para tamaños de
muestra pequeños el análisis conjunto mantiene buena potencia excepto para
prueba de pares de medias, donde no es capaz de detectar diferencias.
2.5 Comparación de pares de medias
De manera similar que en la sección 1.7, en este apartado se proporcionan métodos
de comparaciones de pares de medias empleando el principio de pruebas de
permutación. Se exponen los métodos equivalentes al LSD de Fisher, reajuste del
𝑝 valor con el método de Bonferroni, método de Tukey, y el método de Benjamini y
Horchberg. Cada uno de los métodos anteriores será expuesto para el diseño
experimental completamente al azar y bloques al azar.
2.5.1 Diferencia mínima significativa de Fisher
La prueba de permutación equivalente a la diferencia mínima de Fisher se realiza
mediante la aplicación de las pruebas 𝑡 de permutación. La prueba 𝑡 de permutación
para dos poblaciones independientes es empleada para comparar pares de medias
en un diseño completamente aleatorizado (expuesta en la sección 2.2.1), mientras
que parejas aleatorizadas es empleada para comparar parejas de medias en un
diseño de bloques completamente al azar (expuesta en la sección 2.2.4). El número
Pruebas de permutación en diseños experimentales
72
de comparaciones son (𝑡2), donde 𝑡 denota el número de tratamientos. Las pruebas
de hipótesis a considerar usando la prueba bilateral se muestra enseguida.
H0: 𝜏𝑖 = 𝜏𝑗 = 0
H0: 𝜏𝑖 ≠ 𝜏𝑗
Para 𝑖 ≠ 𝑗 y 𝑖, 𝑗 = 1, 2, 3, … , (𝑡2).
Para ilustrar esta metodología en un diseño completamente al azar, considere el
ejemplo 2.3.1. Se tiene una investigación donde se quiere saber si leer rápido es
afectado por el tipo de letra del texto. El 𝑝 valor del ANOVA de permutación en
dicho ejemplo resulta ser 0.0109, entonces con un nivel de significancia del 0.05
existe evidencia para el rechazo de la hipótesis nula. Ahora surgen preguntas como
¿Qué tipo de texto (con determinado tipo de letra) es el que más afecta en la
velocidad de lectura? ¿Cuáles son diferentes o iguales? Para resolver esta pregunta
será necesario recurrir a pruebas mediante pares de medias.
Se tiene 𝑡 = 3, por lo que hay (32) comparaciones. Enseguida se proporciona las (3
2)
comparaciones con sus respectivos 𝑝 valores.
Cuadro 2.5.1. Comparación de pares de medias con su respectivo p valor.
Comparaciones de
texto
Texto 1 Vs
Texto 2
Texto 1 Vs
Texto 3
Texto 2 Vs
Texto 3
𝒑 valor obtenido
de una prueba 𝒕 de
permutación
0.0159 0.127 0.0794
Respecto a los 𝑝 valores proporcionados por la prueba 𝑡 de permutación se
concluye que con un nivel de significancia del 0.05, únicamente el texto 1 y 2 difieren
estadísticamente.
Capítulo 2
73
2.5.2 Ajuste del 𝑝 valor por el método de Bonferroni
Este método se explica de manera explícita en la sección 1.7, por lo que en este
apartado únicamente se menciona como ajustar el 𝑝 valor. El ajuste viene dado por:
𝑝 = min (𝑚 ∗ 𝑝𝑖, 1)
El rechazo se tiene cuando 𝑝 ≤ 𝛼 (Westfall & Young, 1993).
En al Cuadro 2.5.1 se muestra que con un nivel de significancia del 0.05, únicamente
el texto 1 y texto 2 tienen diferencia estadística significativa.
Para el diseño de bloques la metodología del ajuste del 𝑝 valor vía Bonferroni se
obtiene después de realizar las (𝑡2) comparaciones de pares de tratamientos,
obteniendo el mismo número de 𝑝 valores empleando la metodología descrita en la
sección 2.2 (parejas aleatorizadas). A cada uno de esos 𝑝 valores se multiplica por
(𝑡2) y estos son los ajustes del 𝑝.
Cuadro 2.5.2. Ajuste del P valor mediante el método de Bonferroni
Comparaciones de
texto
Texto 1 Vs
Texto 2
Texto 1 Vs
Texto 3
Texto 2 Vs
Texto 3
𝒑 valor ajustado
0.0476
0.0159*
0.2381
0.127*
0.381
0.0794*
*Los valores marcados con asterisco son los 𝑝 valores no ajustados.
2.5.3 Prueba de Tukey
El método permutación que a continuación se presenta es el equivalente al método
de Tukey expuesto en la sección 1.7. Este declara diferentes a dos tratamientos si
sus medias difieren por más que el valor crítico 𝐶𝛼. 𝐶𝛼 Es percentil con un valor 𝛼
Pruebas de permutación en diseños experimentales
74
de cola derecha de la distribución max1≤𝑖≤𝑗≤𝑡
|𝑌𝑖 − 𝑌𝑗|. El método realiza comparaciones
múltiples controlando el FWER mediante el valor 𝐶𝛼 (Ernst, 2004).
𝑃 [ max1≤𝑖≤𝑗≤𝑡
|𝑌𝑖 − 𝑌𝑗| ≥ 𝐶𝛼|H0] = 𝛼 2.5.1
Asumiendo la hipótesis nula, que establece en cada una de las ( 𝑛𝑛1 𝑛2… 𝑛𝑡
) o 𝑡!𝑏
asignaciones aleatorias de un diseño completamente al azar y un diseño de bloques
al azar respectivamente, la probabilidad de la ecuación 2.5.1 es simplemente la
proporción de permutaciones para la cual se consideran significativas las
diferencias en las medias de los tratamientos. Eligiendo 𝐶𝛼 de manera que la
probabilidad de cola derecha sea 𝛼, es como se controla el error tipo I.
La manera de estimar 𝐶𝛼 es sencilla, se calculan las (𝑡2) diferencias de medias de
tratamientos, se elige la diferencia más grande, esto se realiza para cada una de las
permutaciones; posteriormente, con estas diferencias se genera una distribución de
diferencias 𝑚á𝑥(𝑌𝑖) − 𝑚í𝑛(𝑌𝑗). Por último, encontrar el cuantil 1 − 𝛼 de dicha
distribución (Ernst, 2004). El cálculo de �̂�𝛼, se hace obteniendo la distribución Monte
Carlo. Esta metodología es útil tanto para el diseño completamente al azar como
para el diseño de bloques al azar.
Para el ejemplo 3.1.1 se tienen 3 medias 𝑋𝑡𝑒𝑥𝑡𝑜 1 = 109.2, 𝑋𝑡𝑒𝑥𝑡𝑜 2 = 275.5 y
𝑋𝑡𝑒𝑥𝑡𝑜 3 = 142.4. El valor de �̂�0.05 = 142.15. Si se obtienen las diferencias |𝑋𝑡𝑒𝑥𝑡𝑜 1
−
𝑋𝑡𝑒𝑥𝑡𝑜 2| = 166.3, |𝑋𝑡𝑒𝑥𝑡𝑜 1
− 𝑋𝑡𝑒𝑥𝑡𝑜 3| = 33.2 y |𝑋𝑡𝑒𝑥𝑡𝑜 2
− 𝑋𝑡𝑒𝑥𝑡𝑜 3| = 133.1. La única
diferencia de medias que supera a �̂�0.05 es la diferencia de media del texto 1 y texto
2, entonces únicamente esas dos medias presentan diferencias estadísticas
significativas.
Capítulo 2
75
2.5.4 FDR Bejamini y Hochberg
Este último método, a diferencia de los dos últimos, trabaja controlando el FDR.
Para más detalle se puede consultar la sección 1.7. Continuando con el ejemplo
2.3.1, enseguida se presenta este método.
De manera general, este método ordena los 𝑝 valores obtenidas por comparaciones
de pares de menor a mayor (𝑝(1), 𝑝(2), … , 𝑝(𝑛)), posteriormente se verifica que 𝑝𝑖 ≤
𝛼∗𝑖
(𝑡2)
. El valor máximo 𝑖 (𝑖 denota la comparación 𝑖), tal que 𝑝𝑖 cumple la desigualdad
anterior se le denomina 𝑝𝑘, entonces todos 𝑝𝑖′𝑠 menores al 𝑝𝑘 resultan pruebas
significantes con un nivel de significancia 𝐹𝐷𝑅 = 𝛼. En el Cuadro 2.5.3 se ilustra el
ejemplo 2.3.1 que es un diseño completamente al azar.
Cuadro 2.5.3. Método de Benjamini y Hochberg con una 𝐹𝐷𝑅 = 0.05
Compa
P valor (test
de
permutación)
𝒊 𝟎. 𝟎𝟓 ∗𝒊
(𝟑𝟐)
Método
BH
Texto 1 Vs
Texto 2 0.0159
1 0.0167 Significancia
Texto 2 Vs
Texto 3 0.0794
2 0.0333
No
significancia
Texto 1 Vs
Texto 2 0.127
3 0.05
No
significancia
Para el diseño de bloques, la metodología de Benjamini y Hochberg se obtiene
después de realizar las (𝑡2) comparaciones de pares de tratamientos, obteniendo el
mismo número de 𝑝 valores empleando la metodología descrita en la sección 2.2
Pruebas de permutación en diseños experimentales
76
de parejas aleatorizadas. A cada uno de esos 𝑝 se ordenan de menor a mayor,
posteriormente se verifica que 𝑝𝑖 ≤𝛼∗𝑖
(𝑡2)
. El valor máximo 𝑖 tal que 𝑝𝑖 cumple la
desigualdad anterior se le denomina 𝑝𝑘, entonces todos 𝑝𝑖′𝑠 menores al 𝑝𝑘 resultan
pruebas significantes.
En el Apéndice B.4 se presentan los resultados de las comparaciones de pares
de medias del ejemplo 2.4.1, proporcionado en la sección de bloques al azar,
empleado en cada una de las metodologías anteriores de comparaciones
múltiples.
2.6 Histogramas y diagramas de cajas
Al llevar a cabo una prueba de permutación se debe cumplir que la varianza entre
grupos sean iguales, la distribución de probabilidad de las observaciones para cada
uno de los grupos es la misma con varianza igual a excepción sus medias. La
independencia de las observaciones, intercambiabilidad de las observaciones, se
da por hecho debido a la aleatorización.
Para hacer ilustrativo lo dicho en el párrafo anterior considere los siguientes datos :
tratamiento 1 (4.628, 4.378,4.009, 4.716, 4.994, 4.191, 4.840, 4.205, 4.359, 4.413,
4.571, 4.897) y un tratamiento 2 (2.584, 3.106, 2.990, 2.791, 2.977, 2.991, 2.694,
3.223, 2.508, 3.337, 3.114, 3.168). Para estos dos grupos el cálculo del 𝑝 valor
resulta ser 0.0001, entonces existe evidencia fuerte en contra la hipótesis nula. El
histograma nos proporciona idea sobra la distribución de los grupos, de esta manera
se verifica si los grupos tienen distribución semejante. Enseguida se proporciona el
histograma para el tratamiento modificado y tratamiento control.
Capítulo 2
77
Como se puede ver en el gráfico Figura 2.6.1 las distribución de probabilidad para
el tratamiento 1 y el tratamiento 2 son semejantes, y claramente proporciona
también idea de la localización de las medias, es decir, se puede notar que la media
del tratamiento 1 es superior a la media del tratamiento 2.
Fuente: Elaboración propia
Fuente: Elaboración propia
Figura 2.6.1 Histograma del tratamiento 1 y tratamiento 2.
Figura 2.6.2 Diagrama de cajas del tratamiento 1 y tratamiento 2.
Pruebas de permutación en diseños experimentales
78
El diagrama de cajas nos proporciona de manera gráfica la variabilidad presentada
por los dos grupos, y respecto a la información que muestra el gráfico figura 2.6.2
se puede observar que la varianza del tratamiento mejorado y el tratamiento control
son muy similares. De la misma manera se prosigue con los diseños experimentales
con al menos tres tratamientos. En el programa elaborado en python se proporciona
una opción para graficar los histogramas y diagramas de cajas, ambos se
proporcionan para el caso de un experimento comparativo simple (diseño
aleatorizado) mientras que para los diseños con más de dos tratamiento solo se
proporciona el diagrama de cajas.
2.7 Anova de permutación Vs anova paramétrico
En este apartado se compara la prueba de permutación con una prueba de análisis
paramétrico en el diseño experimental completamente al azar, en una situación
donde los supuestos se cumplen para la prueba paramétrica. Los datos a considerar
se muestran en la tabla 2.7.1.
Cuadro 2.7.1. Cuadro con los resultados de un determinado experimento
Replica
15 7 7 15 11 9
20 12 17 12 18 18
25 19 25 22 19 23
Paramétrica:
El 𝑝 obtenido: 0.0002, entonces con un nivel de significancia de 0.05 hay fuerte
evidencia en contra la hipótesis nula. Entonces se realizan las comparaciones de
pares de medias, se muestran en el cuadro 2.7.2:
Capítulo 2
79
Cuadro 2.7.2. Resultados de las comparaciones múltiples paramétricos.
Comparaciones
Método 15 Vs 20 15 Vs 25 20 Vs 25
Tukey Diferencia Diferencia Diferencia
𝒕 de Fisher Diferencia Diferencia Diferencia
* Los tratamientos resultan significativos con un 𝛼 = 0.05
Anova de permutación:
El 𝑝 obtenido: 0.0003, entonces con un nivel de significancia de 0.05 hay fuerte
evidencia en contra la hipótesis nula. Entonces se realizan las comparaciones de
pares de medias, se muestran en el cuadro 2.7.3:
Cuadro 2.7.3. Resultados de comparaciones múltiples de permutación.
Comparaciones
Método 15 Vs 20 15 Vs 25 20 Vs 25
Tukey de
permutación
No diferencia Diferencia No diferencia
𝒕 de permutación Diferentes Diferentes Diferentes
* Los tratamientos resultan significativos con un 𝛼 = 0.05
Como puede notar el 𝑝 valor obtenido con la metodología paramétrica (anova) y la
metodología de prueba de permutación (anova de permutación) fueron similares.
Las comparaciones de pares de medias mediante la prueba de Tukey resulto ser
Pruebas de permutación en diseños experimentales
80
más conservadora con la metodología de pruebas de permutación, mientras que la
prueba de diferencia mínima significativa proporcionó resultados semejantes a la
prueba de 𝑡 de permutación, dichos resultados se proporcionan en las tablas 2.7.2
y 2.7.3.
2.8 Simulación de la función potencia de la prueba.
A continuación se presentan simulaciones de la función potencia de la prueba, para
el caso de la prueba permutación comparada con la prueba paramétrica.
Considerando la prueba de hipótesis siguiente
H0: 𝜇1 = 𝜇2 𝑉𝑠 H0: 𝜇1 ≠ 𝜇2 2.8.1
Tomando en consideración la definición de la función potencia de la prueba
proporcionada en la definición 1.4.8, entonces se construye la función de potencia
para la prueba de hipótesis anterior y se tiene:
𝛽(𝜇1 − 𝜇2) = 𝑃{Rechazar H0|𝜇1 − 𝜇2} = {𝑃{Rechazar H0|𝜇1 − 𝜇2 = 0}
𝑃{Rechazar H0|𝜇1 − 𝜇2 ≠ 0} 2.8.2
Se consideraron muestras de poblaciones normales con varianzas iguales (𝜎2 = 9)
y el tamaño de muestra 𝑛 = 10. Enseguida se muestra el cuadro 2.8.1 los valores
obtenidos tras simular ecuación 2.8.2 para cada tipo de prueba.
Cuadro 2.8.1. Valores de la función de potencia
Dif. medias Prueba de permutación Prueba paramétrica
0 0.05 0.06
1 0.1 0.11
2 0.29 0.27
3 0.52 0.54
4 0.79 0.8
5 0.95 0.94
6 1 1
La grafica de la función potencia respecto al cuadro 2.8.1 se ilustra en la figura 2.8.1
Capítulo 2
81
Cuando el supuesto de varianza constante en una prueba paramétrica no se
mantiene, la función de potencia de la prueba es pobre. Lo mismo ocurre con la
prueba de permutación. Se realizan tres simulaciones para cada tipo de prueba. Las
simulaciones se llevan a partir de muestras de poblaciones normales muestra 1 con
𝑁(𝜇1, 92) y muestra 2 𝑁(𝜇2, 102), cambiando la media de la muestra 2. A
continuación se presentan los resultados tras realizar las tres simulaciones de la
ecuación 2.8.2
Cuadro 2.8.2. Valores de la función potencia tras realizar tres simulaciones.
Dif. medias Permutación Paramétrica
Simulación Simulación
1 2 3 1 2 3
0 0.12 0.07 0.04 0.11 0.05 0.01
1 0.05 0.08 0.06 0.05 0.07 0.06
2 0.11 0.17 0.13 0.1 0.11 0.1
3 0.19 0.2 0.2 0.14 0.18 0.18
4 0.22 0.22 0.2 0.2 0.18 0.19
5 0.29 0.37 0.31 0.29 0.29 0.25
Las gráficas de los datos del cuadro 2.8.2 se muestran en las figuras 2.8.2 y 2.8.3
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6 7
P(r
ech
azar
H0
)
Espacio paramétrio
Funcion de potencia de laprueba (permutacion)
funcon de potencia de laprueba (parametrica)
Figura 2.8.1 Función potencia de pruebas de diferentes metodologías.
Pruebas de permutación en diseños experimentales
82
Como puede notar las pruebas de permutación pierden poder de manera similar
que las pruebas paramétricas cuando las diferencia entre las varianzas es grande.
El código de la simulación puede verificarse en el apéndice B.5.
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0 1 2 3 4 5 6
P(R
ech
azar
H0
)
Espacio paramétrico
Prueba de permutación
Simulación 2
Simulación 1
Simulación 3
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0 1 2 3 4 5 6
P(R
ech
azar
H0
)
Espacios paramétrico
Prueba paramétrica
simulación 2
Simulación 1
Simulación 3
Figura 2.8.2 Función potencia respecto al cuadro 2.8.2 (permutación).
Figura 2.8.3 Función potencia respecto al cuadro 2.8.2 (Paramétrica).
83
Capítulo 3 3 Distribución Monte Carlo en
metodologías computacionales
3.1 Distribución Monte Carlo en pruebas de permutación
En este capítulo se estudian aspectos importantes sobre la distribución Monte Carlo.
Enseguida se muestra el diagrama de flujo del método de Monte Carlo.
Fuente (Noreen, 1989)
Figura 3.1.1 Diagrama de flujo del método de Monte Carlo
Distribución Monte Carlo en metodologías computacionales
84
La importancia de conocer aspectos acerca de esta distribución es debido a que se
utiliza para elaborar las pruebas de permutación en el diseño experimental
completamente al azar y el diseño de bloques al azar.
Como se puede notar en la Figura 3.3.1, el método de simulación Monte Carlo exige
tener la población. En el caso de una prueba de permutación con la metodología de
Monte Carlo, la población completa está constituida por cada una de las posibles
combinaciones, dependiendo del diseño experimental. El Método de Monte Carlo
requiere una muestra original de la población, entonces pruebas de permutación
llevadas a cabo con la metodología anterior, como muestra original se considera a
las observaciones obtenidas a partir del experimento. Además, el método de
simulación Monte Carlo exige extraer muestras aleatorias con remplazo de la
población,
Con respecto al párrafo anterior surge la siguiente pregunta ¿Cómo desarrollar una
prueba de permutación con el método de Monte Carlo, no es viable obtener todas
las permutaciones?
Para responder a la pregunta anterior se verifica que la probabilidad de extraer con
remplazo cualquier permutación de manera aleatoria de la población de todas las
permutaciones, es igual a la probabilidad de seleccionar la muestra como si todas
las observaciones se llevaran a una urna y extraer una por una y realizar la
asignación correspondiente, hasta generar la respectiva combinación. Este caso
corresponde al de un diseño completamente al azar, de manera similar se
argumentaría para un diseño de bloques.
Suponga un experimento con dos tratamientos de manera que en el experimento 𝜏1
se tienen 𝑛1 observaciones del tratamiento 1 y en 𝜏2 𝑛2 observaciones del
tratamiento 2. Entonces, todas las posibles combinaciones son (𝑛1+𝑛2𝑛1𝑛2
), cada una
de estas combinaciones son igualmente probables de ocurrir.
Capítulo 3
85
Considere una permutación donde una observación que se le asigna a 𝜏1 es alguna
observación del tratamiento 𝜏2 y el resto de 𝑛1 − 1 asignaciones son las mismas.
Entonces, una permutación posible es como se ilustra en el cuadro 3.1.1:
Cuadro 3.1.1. Asignación aleatoria
𝑇𝑟𝑎𝑡𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠
𝜏1 𝜏2
𝑥21 𝑥22
𝑥12 𝑥23
⋮ ⋮
𝑥1𝑛1 𝑥2𝑛2
Denotemos al arreglo del cuadro 3.1.1 como 𝑧, entonces:
𝑃(𝑧) = 1(𝑛1+𝑛2
𝑛1𝑛2)⁄ =
1(𝑛1+𝑛2)!
𝑛1! 𝑛2!
=𝑛1! 𝑛2!
(𝑛1 + 𝑛2)!
La ecuación anterior nos brinda la probabilidad de extraer la combinación 𝑧 de la
población de todas las poblaciones posibles. Sin embargo, esto no es posible debido
a que no se tiene la población de todas posibles combinaciones. Ahora supongamos
que las observaciones 𝑛1 + 𝑛2 las llevan a una urna, y se extraen de una por una.
Las primeras 𝑛1 observaciones son asignadas al tratamiento 𝜏1 y las restantes a 𝜏2.
Entonces, la probabilidad de obtener el arreglo 𝑧 pero con este último tipo de
extracción es:
𝑃(𝑧) = 𝑃{(𝑥21, 𝑥12, 𝑥13, … , 𝑥1𝑛1), (𝑥22, 𝑥23, 𝑥24, … , 𝑥2𝑛2
)} = 𝑃(𝑥21, 𝑥12, 𝑥13, … , 𝑥1𝑛1)
= 𝑃(𝑥21)𝑃(𝑥12|𝑥21)𝑃(𝑥13|𝑥21𝑥12)…𝑃(𝑥1𝑛1|𝑥21𝑥12 …𝑥1𝑛1−1)
= (𝑛2
(𝑛1 + 𝑛2)⁄ ) (
𝑛1(𝑛1 + 𝑛2 − 1)⁄ ) (
(𝑛1 − 1)(𝑛1 + 𝑛2 − 2)⁄ )…(
(𝑛1 − (𝑛1 − 1))
(𝑛1 + 𝑛2 − ((𝑛1 − 1) + 1))⁄ )
= (𝑛2
(𝑛1 + 𝑛2)⁄ ) (
𝑛1(𝑛1 + 𝑛2 − 1)⁄ ) (
(𝑛1− 1)
(𝑛1 + 𝑛2 − 2)⁄ )… (1 𝑛2
⁄ )
Distribución Monte Carlo en metodologías computacionales
86
=𝑛2(𝑛1)(𝑛1 − 1)(𝑛1 − 2)…1
(𝑛1 + 𝑛2)(𝑛1 + 𝑛2 − 1)(𝑛1 + 𝑛2 − 2)…𝑛2=
𝑛1! 𝑛2
(𝑛1 + 𝑛2)(𝑛1 + 𝑛2 − 1)(𝑛1 + 𝑛2 − 2)…𝑛2
=𝑛1! 𝑛2
(𝑛1 + 𝑛2)(𝑛1 + 𝑛2 − 1)(𝑛1 + 𝑛2 − 2)… 𝑛2
((𝑛2 − 1)(𝑛2 − 2)… 1
(𝑛2 − 1)(𝑛2 − 2)… 1) =
𝑛1! 𝑛2!
(𝑛1 + 𝑛2)!
La probabilidad de elegir el arreglo 𝑧 del conjunto de todas las permutaciones dadas
por (𝑛1+𝑛2𝑛1𝑛2
) es la misma como si 𝑧 fuera generada simulando extracciones de una
urna.
Fuente (Noreen, 1989)
Figura 3.1.2 Distribución Monte Carlo prueba de permutación.
Capítulo 3
87
3.2 Validez de la distribución Monte Carlo
En esa sección en lugar de preocuparnos en proporcionar una definición de la
distribución Monte Carlo, aquí se muestra la validez de la distribución Monte Carlo
y por consecuencia la validez de una prueba de permutación.
Una prueba de hipótesis se dice que es válida cuando se cumple lo siguiente
(Noreen, 1989):
𝑃(Error tipo 𝐼) = 𝑃(Rechazar H0| H0) ≤ 𝛼 3.2.1
Donde 𝛼 es el nivel de significancia.
Se dice que la prueba es exactamente válida cuando la ecuación 3.2.1 cumple la
igualdad. En este apartado se prueba la validación del método de Monte Carlo y se
demuestra que cumple la propiedad declarada por la ecuación 3.2.1, además se
demuestra que la distribución Monte Carlo es una prueba aproximada. La validez
se lleva a cabo mediante el apoyo de una variable aleatoria auxiliar.
Prueba. La prueba es extraída del libro Computer Intensive Methods for Testing
Hypotheses (Noreen, 1989).
Sea 𝑡 una función de la matriz 𝑋, la cual tiene una distribución conocida bajo H0. El
método de Monte Carlo consiste en crear 𝐵 muestras independientes 𝑋1, 𝑋2, … , 𝑋𝐵
de la distribución bajo H0. Cada una de las 𝑋𝑖 son combinaciones de la forma
(𝑛1+𝑛2𝑛1𝑛2
).
Por conveniencia, suponer que las 𝐵 muestras son ordenadas de la manera
siguiente:
𝑡(𝑋1) ≥ 𝑡(𝑋2) ≥ ⋯ ≥ 𝑡(𝑋𝐵) 3.2.2
Definir 𝑛𝑔𝑒:𝑚𝑎𝑥{𝑒𝑛𝑡𝑒𝑟𝑜 𝑘| 𝑡(𝑋𝑘) ≥ 𝑡(𝑋0) 𝑝𝑎𝑟𝑎 𝑘 = 0, 1, … , 𝐵}
𝑋0 Es la combinación original de los datos y 𝑡(𝑋0) es el correspondiente estadístico
de prueba. La variable 𝑛𝑔𝑒 es el número de veces que la estadística de prueba con
Distribución Monte Carlo en metodologías computacionales
88
los datos simulados es al menos tan extremo que el valor de estadístico para los
datos originales. La hipótesis nula es rechazada si [(𝑛𝑔𝑒 + 1)
(𝐵 + 1)⁄ ] < 𝛼.
Entonces lo que se desea probar es 𝑃 {[(𝑛𝑔𝑒 + 1)
(𝐵 + 1)⁄ ] ≤ 𝛼} ≤ 𝛼.
Se generan 𝐵 + 1 variables aleatorias auxiliares 휀0, 휀1, … , 휀𝐵, estas son
uniformemente distribuidas en intervalos pequeños (−𝛿, 𝛿). Este intervalo es
elegido para ser tan pequeño que tenga el efecto de romper los empates entre los
estadísticos de la ecuación 3.2.2. 𝛿 < 𝑚𝑖𝑛{|𝑡(𝑋𝑖) − 𝑡(𝑋𝑗)| > 0}.
Transformando los estadísticos de prueba y sumándoles a estos la perturbación
aleatoria se tiene:
𝑡′(𝑋𝑖) = 𝑡(𝑋𝑖) + 휀𝑖 𝑝𝑎𝑟𝑎 𝑖 = 0, 1, … , 𝐵
De manera que la ecuación 2.4.1 queda
𝑡′(𝑋1) > 𝑡′(𝑋2) > … > 𝑡′(𝑋𝐵)
Transformando el valor del estadístico de los datos originales (𝑡′(𝑋0)) debe caer en
unos de los 𝐵 + 1 intervalos:
(−∞, 𝑡′(𝑋𝐵)],… , (𝑡′(𝑋2) , 𝑡′(𝑋1)], (𝑡
′(𝑋1) ,∞)
Bajo H0, el valor observado del estadístico de prueba 𝑡′(𝑋0) para los datos originales
es una muestra de tamaño uno de una distribución que es independiente e idéntica
a la distribución de 𝑡′(𝑋𝑖), para toda 𝑖. Bajo H0 la probabilidad que 𝑡′(𝑋0) caiga en
cualquier intervalo específico es 1 (𝐵 + 1)⁄ . La variable aleatoria 𝑛𝑔𝑒′ es definida de
la siguiente manera:
𝑛𝑔𝑒′ = 𝑚𝑎𝑥{𝑒𝑛𝑡𝑒𝑟𝑜 𝑘|𝑡′(𝑋𝑘) ≥ 𝑡′(𝑋0) 𝑝𝑎𝑟𝑎 𝑘 = 0, 1, … , 𝐵}
𝑛𝑔𝑒′. Es el número de veces que 𝑡′(𝑋𝑘) está contenida en el intervalo [𝑡′(𝑋0),∞).
Entonces, 𝑛𝑔𝑒′ puede tomar cualquier valor entero de 0 a 𝐵 y cada uno de estos
Capítulo 3
89
valores igualmente probable bajo H0. Dado una región de rechazo de nivel 𝛼, si 𝐵
es seleccionado de manera que 𝛼𝐵 es un entero, entonces
𝑃{(𝑛𝑔𝑒 + 1) ≤ 𝛼(𝐵 + 1)} = 𝛼(𝐵 + 1)(𝐵 + 1)⁄ 3.2.3
La ecuación 3.2.3 es equivalente a:
𝑃𝑟𝑜𝑏 {𝑛𝑔𝑒 + 1
𝐵 + 1≤ 𝛼} = 𝛼
De este modo se demuestra que si 𝐵 es seleccionado de manera que 𝛼𝐵 es un
entero y la aleatorización auxiliar es llevada a cabo para asegurar que no hay
empates entre los estadísticos de prueba, entonces la prueba de Monte Carlo es
una prueba válida. Los niveles de significancia más comunes son 0.05, 0.01 y 0.10.
Si 𝛼 es restringida a este conjunto de valores, entonces 𝐵 = 100𝑘 − 1, donde 𝑘 es
cualquier número entero positivo, por lo que satisface la condición que 𝛼𝐵 es un
entero.
3.3 Pruebas de permutación elaborados en Python
En esta sección se proporcionan los códigos de las pruebas de permutación
expuestas en los capítulos anteriores. Se presentan primeramente las pruebas de
los diseños experimentales comparativos simples, en el caso del diseño
aleatorizado se presenta el código para una prueba de permutación con
permutación sistemática, así como con la distribución Monte Carlo. Para el diseño
de comparación de parejas aleatorizadas, el código corresponde a una prueba de
permutación sistemática. El diseño experimental completamente al azar y el diseño
experimental de bloques completos al azar son generalización de los primeros, se
muestra el código elaborado en Python, empleando la distribución Monte Carlo. Los
programas se ejecutaron en Python 2.7.13 (Anaconda2 4.3.0) y fueron escritos en
el IDE Spyder.
Permutación sistemática
Distribución Monte Carlo en metodologías computacionales
90
Nota: las letras de azul indican que son funciones que se manda a llamar
externamente, de igual manera será para los códigos siguientes. Numpy y
matplot.pylot son paquetes cargados en Python. Por otra parte t0_alea, perm_ale
son funciones creada mostradas en el Apéndice C.1.
print '\n'
print '#########PRUEBAS DE PERMUTACION ENFOCADAS A DISEÑOS EXPERIMENTALES###########'
print '\n'
print 'DISEÑOS COMPARATIVOS SIMPLES'
print '1) Diseño aleatorizado'
print '2) Diseño con observaciones pareadas'
print 'ANOVA DE PERMUTACIÓN'
print '3) Diseño completamente aleatorizado'
print '4) Diseño de bloques completamente aleatorizado'
print '5) Grafica boxplot e histograma '
prueba=int(raw_input('Indique el analisis que desea realizar: '))
while prueba<1 or prueba >5:
prueba=int(raw_input('Indicar nuevamnete el analisis que desea realizar : '))
if prueba==1:
eleccion=int(raw_input('Prueba exacta(1) o aproximada(2): '))
if eleccion==1:
from t0_alea import t0_alea
from perm_ale import perm_ale
import numpy as np
import matplotlib.pyplot as plt
lista=[]
Capítulo 3
91
cont=0
a=[]
b=[]
f=int(raw_input('Tipo de prueba: 0 bilateral, 1 unilateral derecha y 2 unilateral izquierda: '))
for i in range(2):
if i==0:
n=int(raw_input('numero de replicas tratamiento interes: '))
nt=n
for j in range(n):
lista.append(float(raw_input('observacion %d para el tratamiento interes: '%(j+1))))
else:
print'\n'
n=int(raw_input('numero de replicas control: '))
nc=n
for j in range(n):
lista.append(float(raw_input('observacion %d para el control: '%(j+1))))
print '\n'
print 'rep','\t','trat','\t','control'
if nt>nc:
for i in range(nt):
if i<nc:
print i+1,'\t',lista[i],'\t',lista[i+nt]
else:
print i+1,'\t',lista[i],'\t','no_rep'
Distribución Monte Carlo en metodologías computacionales
92
else:
for i in range(nc):
if i<nt:
print i+1,'\t',lista[i],'\t',lista[i+nt]
else:
print i+1,'\t','no_rep','\t',lista[i+nt]
tcal=t0_alea(lista,nt,nc)
c=perm_ale(range(len(lista)),nt)
if f==0:
for i in c:
for j in i:
a.append(lista[j])
tperm=t0_alea(a,nt,nc)
b.append(tperm)
a=[]
if abs(tperm) >= abs(tcal):
cont+=1
t_valor=abs(tcal)
elif f==1:
for i in c:
for j in i:
a.append(lista[j])
tperm=t0_alea(a,nt,nc)
b.append(tperm)
a=[]
Capítulo 3
93
if tperm >= tcal:
cont+=1
t_valor=tcal
elif f==2:
for i in c:
for j in i:
a.append(lista[j])
tperm=t0_alea(a,nt,nc)
b.append(tperm)
a=[]
if tperm <= tcal:
cont+=1
t_valor=tcal
print '#################################SALIDA########################'
c1=np.array(b)
plt.hist(c1,8,normed=False,histtype='bar',rwidth=0.8,color="blue",alpha=0.9)
plt.title("Histograma prueba aleatorizada completamente al azar",fontsize=12)
plt.xlabel('valores de t de cada permutacion', fontsize=12)
plt.ylabel('Frecuencias', fontsize=15)
p_valor=float(cont)/len(c)
print '\n'
print 'Valor del estadistico de los datos experimentales es',t_valor
print 'El p-valor computado es',p_valor
Distribución Monte Carlo en metodologías computacionales
94
else:
from tcal import t0_cal
from rem import rem
import numpy as np
import matplotlib.pyplot as plt
print '\n'
remuestras=int(raw_input('numero de asignaciones aleatorias: '))
lista=[]
lis=[]
n1=0
g=[]
b=[]
for i in range(2):
if i==0:
n=int(raw_input('numero de replicas tratamiento interes: '))
nt=n
for j in range(n):
lista.append(float(raw_input('observacion %d para el tratamiento interes: '%(j+1))))
lis.append(lista)
lista=[]
else:
print'\n'
n=int(raw_input('numero de replicas control: '))
nc=n
Capítulo 3
95
for j in range(n):
lista.append(float(raw_input('observacion %d para el control: '%(j+1))))
lis.append(lista)
lista=[]
print '\n'
print 'rep','\t','trat','\t','control'
if nt>nc:
for i in range(nt):
if i<nc:
print i+1,'\t',lis[0][i],'\t',lis[1][i]
else:
print i+1,'\t',lis[0][i],'\t','no_rep'
else:
for i in range(nc):
if i<nt:
print i+1,'\t',lis[0][i],'\t',lis[1][i]
else:
print i+1,'\t','no_rep','\t',lis[1][i]
t_obt=t0_cal(lis)
p=0
i=0
while i<remuestras:
perm=rem(lis,False)
Distribución Monte Carlo en metodologías computacionales
96
g.append(perm)
t_rem=t0_cal(perm)
b.append(t_rem)
if abs(t_rem) >=abs( t_obt):
p+=1
i+=1
print '#######################################SALIDA#################################'
c1=np.array(b)
plt.hist(c1,8,normed=False,histtype='bar',rwidth=0.8,color="blue",alpha=0.9)
plt.title("Histograma prueba aleatorizada completamente al azar",fontsize=12)
plt.xlabel('valores de t de cada permutacion aleatoria', fontsize=12)
plt.ylabel('Frecuencias', fontsize=15)
p_valor=float((p)+1)/(remuestras+1)
print ' el valor del estadistico de prueba para el arreglo experimental es:', abs(t_obt)
print 'El P-valor = ',p_valor
elif prueba==2:
import numpy as np
import matplotlib.pyplot as plt
from permu_par import permuta
from cambio import cambio
t=int(raw_input('numero de replicas : '))
lis=[]
Capítulo 3
97
lista=[]
dif1=[]
cont=1
for j in range(2):
if j==0:
for i in range(t):
lista.append(float(raw_input('observacio %d para el trat interes: '%(i+1))))
lis.append(lista)
lista=[]
print '\n'
else:
for i in range(t):
lista.append(float(raw_input('observacio %d para el trat control: '%(i+1))))
lis.append(lista)
lista=[]
print '\n'
print 'rep','\t','trat','\t','control'
for i in range(t):
print i+1,'\t',lis[0][i],'\t',lis[1][i]
print '\n'
for j in range(t):
d=lis[0][j]-lis[1][j]
dif1.append(d)
tcal=(float(sum(dif1))/t)
p=permuta(t)
Distribución Monte Carlo en metodologías computacionales
98
c=cambio(lis,p,t)
for i in c:
if abs(i) >= abs(tcal):
cont+=1
print '##########################################SALIDA##################################'
p_valor=float(cont)/(len(c)+1)
c1=np.array(c)
plt.hist(c1,8,normed=False,histtype='bar',rwidth=0.9,color="blue",alpha=0.5)
plt.title("Histograma prueba con observaciones paredas",fontsize=14)
plt.xlabel('valores de t de cada permutacion', fontsize=12)
plt.ylabel('Frecuencias', fontsize=12)
print 'Valor del estadistico de los datos experimentales es',abs(tcal)
print 'El p-valor computado es',p_valor
elif prueba==3:
from fcal import f0
from t0_alea import t0_alea
from perm_ale import perm_ale
from rem import rem
import numpy as np
from itertools import combinations
import matplotlib.pyplot as plt
from tukey_perm import tukey_perm
print '\n'
a=int(raw_input('numero de tratamientos: '))
Capítulo 3
99
remuestras=int(raw_input('numero de asignaciones aleatorias: '))
y=int(raw_input('balanceado(1) o desbalanceado(0): '))
lista=[]
lis=[]
n1=0
g=[]
b=[]
if y==1:
n1=int(raw_input('numero de replicas: '))
print '\n'
for j in range(a):
for i in range(n1):
lista.append(float(raw_input('observacio %d para el trat %d: '%(i+1,j+1))))
lis.append(lista)
lista=[]
print '\n'
elif y==0:
for j in range(a):
print '\n'
n=int(raw_input('numero de replicas para el trat %d: '%(j+1)))
n1+=n
for i in range(n):
lista.append(float(raw_input('observacio %d para el trat %d: '%(i+1,j+1))))
lis.append(lista)
lista=[]
Distribución Monte Carlo en metodologías computacionales
100
print '\n'
alpha=float(raw_input('nivel de significancia: '))
f_obt=f0(lis, a-1,n1*a-a)
p=0
i=0
while i<remuestras:
perm=rem(lis,False)
g.append(perm)
f_rem=f0(perm,a-1,n1*a-a)
b.append(f_rem)
if f_rem >= f_obt:
p+=1
i+=1
print '\n'
print '##########################################SALIDA##################################'
c1=np.array(b)
plt.hist(c1,30,normed=False,histtype='bar',rwidth=0.8,color="blue",alpha=0.9)
plt.title("Histograma prueba aleatorizada completamente al azar",fontsize=12)
plt.xlabel('valores de F de cada permutacion', fontsize=12)
plt.ylabel('Frecuencias', fontsize=15)
p_valor=float((p)+1)/(remuestras+1)
print 'anova'
print 'el valor del estadistico experimental', f_obt
print 'El P-valor = ',p_valor
Capítulo 3
101
print '\n'
if p_valor<=alpha:
print 'comparacion de pares de medias'
z=range(a)
y=list(combinations (z,2))
m=[]
m1=[]
w=[]
for i in y:
dif=abs(float(sum(lis[i[0]]))/len(lis[i[0]])-float(sum(lis[i[1]]))/len(lis[i[1]]))
lista=lis[i[0]]+lis[i[1]]
tcal=t0_alea(lista,len(lis[i[0]]),len(lis[i[1]]))
c=perm_ale(range(len(lista)),len(lis[i[0]]))
cont=0
m0=[]
for g0 in c:
for j in g0:
w.append(lista[j])
tperm=t0_alea(w,len(lis[i[0]]),len(lis[i[1]]))
w=[]
if abs(tperm) >= abs(tcal):
cont+=1
p_valor=float(cont)/len(c)
m0.append(p_valor)
m0.append(list(i))
m0.append(dif)
Distribución Monte Carlo en metodologías computacionales
102
m1.append(m0)
tuk=tukey_perm(g,a)
dif_tukey=np.percentile(tuk,(1-alpha)*100)
for i in range(a):
print 'media tratamiento',i+1,'es', float(sum(lis[i])/len(lis[i]))
m1.sort()
m3=[]
h=1
print 'comparaciones','\t','\t','p valor t de perm','\t','métod BH','\t','Bonferroni','\t','Tukey'
for i in m1:
if dif_tukey < i[2]:
print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t','significancia'
h+=1
else:
print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t',' ','N0 significancia'
h+=1
print '*BH: denota el método de Benjamin y Hochberg (1995)'
elif prueba==4:
Capítulo 3
103
from f0_bloq import f0_bloq
from itertools import combinations
from rem_bloq import rem_bloq
from trans import trans
import numpy as np
from permu_par import permuta
from cambio import cambio
from tukey_perm_bloq import tukey_perm
print '\n'
a=int(raw_input('numero de tratamientos: '))
bloq=int(raw_input('numero de bloques: '))
remuestras=int(raw_input('numero de remuestras: '))
alpha=float(raw_input('nivel de significancia: '))
lista=[]
lis=[]
print '\n'
for j in range(bloq):
for i in range(a):
lista.append(float(raw_input('observacio en el bloque %d trat %d: '%(j+1,i+1))))
print '\n'
lis.append(lista)
lista=[]
f_obt=f0_bloq(lis, a-1,(a-1)*(bloq-1),a,bloq)
p=0
i=0
g=[]
Distribución Monte Carlo en metodologías computacionales
104
while i<remuestras:
perm=rem_bloq(lis,False)
g.append(perm)
f_rem=f0_bloq(perm,a-1,(a-1)*(bloq-1),a,bloq)
if f_rem >= f_obt:
p+=1
i+=1
p_valor=(float(p)+1)/(remuestras+1)
print '##########################################SALIDA##################################'
print 'anova'
print 'el valor de estadistico experimental',f_obt
print 'el p_valor =',p_valor
if p_valor<alpha:
print 'comparacion de medias'
z=range(a)
y=list(combinations(z,2))
lis_t=trans(lis)
m1=[]
for i in y:
dif1=[]
x=[lis_t[i[0]]]+[lis_t[i[1]]]
dif=abs((float(sum(x[0]))/bloq)-(float(sum(x[1]))/bloq))
for j in range(len(x[0])):
d=x[0][j]-x[1][j]
dif1.append(d)
Capítulo 3
105
tcal=(float(sum(dif1))/len(x[0]))
p=permuta(bloq)
c=cambio(x,p,bloq)
cont=1
m0=[]
for j in c:
if abs(j) >abs(tcal):
cont+=1
p_valor=float(cont)/(len(c)+1)
m0.append(float(p_valor))
m0.append(list(i))
m0.append(dif)
m1.append(m0)
tuk1=[]
for k in g:
tuk=tukey_perm(trans(k),a)
tuk1.append(tuk)
dif_tukey=np.percentile(tuk1,(1-alpha)*100)
print'estadistica descriptiva'
for i in range(a):
lis_t=trans(lis)
print 'media tratamiento',i+1,'es', float(sum(lis_t[i]))/len((lis_t[i]))
m1.sort()
h=1
m3=[]
Distribución Monte Carlo en metodologías computacionales
106
print 'comparaciones','\t','\t','p valor t de perm','\t','métod BH','\t','Bonferroni','\t','Tukey'
for i in m1:
if dif_tukey < i[2]:
print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t','significancia'
h+=1
else:
print 'trat',i[1][0]+1,'Vs','trat',i[1][1]+1,'\t',round(i[0],4),' ',' ',' ',' ',' ',' ',' ',' ',round(float(alpha*h)/len(y),4),'\t','\t',round(i[0]*len(y),4),'\t',' ','N0 significancia'
h+=1
print '*BH: denota el método de Benjamin y Hochberg (1995)'
print 'el valor C de tukey es',dif_tukey
elif prueba==5:
import matplotlib.pyplot as plt
import matplotlib.pyplot as pyplot
import matplotlib.patches as mpatches
import numpy as np
a=int(raw_input('numero de tratamientos: '))
lis=[]
n1=0
g=[]
b=[]
for i in range(a):
Capítulo 3
107
lista=[]
n=int(raw_input('numero de replicas tratamiento %d : '%(i+1)))
for j in range(n):
lista.append(float(raw_input('observacio %d para el trat %d: '%(j+1,i+1))))
lis.append(lista)
print '\n'
print '#########################Grfica boxplot#######################'
print '#############################Salida###########################'
s=''
u=[]
u1=[]
for i in range(len(lis)):
u1.append(lis[i])
i+=1
u.append(i)
s=s+str(i)
nt=[]
for i in s:
nombre='trat'+' '+i
nt.append(nombre)
if a==2:
plt.boxplot(u1,sym='ko',whis=1.5)
plt.xticks(u,nt,size='larger',color='k')
plt.ylabel('variabilidad de v.respuesta')
Distribución Monte Carlo en metodologías computacionales
108
plt.xlabel('tratamientos')
plt.title('Grafico Boxplot')
plt.figure()
m=lis[0]
n=lis[1]
mo=pyplot.hist(m,alpha=.3,rwidth=.9,color='red')
m1=pyplot.hist(n,alpha=.3,rwidth=.9,color='blue')
plt.ylabel('frecuencia',size='larger')
plt.title('histograma de los tratamientos')
trat1= mpatches.Patch(color='red', label='tratamiento 1',alpha=.3)
trat2= mpatches.Patch(color='blue', label='tratamiento 2',alpha=.3)
plt.legend(handles=[trat1,trat2])
plt.show()
if a>2:
plt.boxplot(u1,sym='ko',whis=1.5)
plt.xticks(u,nt,size='larger',color='k')
plt.ylabel('variabilidad de v.respuesta')
plt.xlabel('tratamientos')
plt.title('Grafico Boxplot')
Conclusiones
109
Conclusiones
El objetivo principal, exponer de manera clara y sencilla las pruebas de permutación
enfocadas al diseño experimental unifactorial y proporcionar una alternativa de
análisis de diseños experimentales unifactoriales, se ha cumplido. Prueba de
permutación es una metodología de análisis con un paradigma más computacional
que trabaja con supuestos más relajados a la pruebas paramétricas y muy parecidas
a las no paramétricas.
También, se ha proporcionado un programa elaborado en el software python para
llevar acabo el análisis de datos de un experimento con el enfoque de pruebas de
permutación, con esto también se da extensión practica a estas pruebas que suelen
ser desconocidas.
Finalmente, estamos convencidos que este trabajo es un buen material de apoyo
didáctico para quien este interesado en la aplicación de pruebas de permutación o
conocer una alternativa de análisis de experimentos unifactoriales.
Apéndice
110
Apéndice A A.1 Teorema
Teorema. Sean 𝑍 y 𝜒2𝑛𝑣. 𝑎 independientes con distribución normal estándar y Ji
cuadrada con 𝑛 grados de libertad, respectivamente. Entonces,
𝑍
√𝜒2
𝑛
𝑛
~𝑡𝑛
A.2 Teorema
A.2.1
H0: 𝜇1 = 𝜇2 Vs H1: 𝜇1 ≠ 𝜇2
Cuando el estadístico de prueba es 𝑡0 entonces
𝑝 − valor = 𝑝(𝑡𝑛1+𝑛2−2 ≥ |𝑡0|) = 1 − 𝑝(𝑡𝑛1+𝑛2−2 < |𝑡0|)
= 2[1 − 𝑝(𝑡𝑛1+𝑛2−2 ≤ 𝑡0)]Prueba no pareada
A.2.2
H0: 𝜇𝑑 = 0 Vs H1: 𝜇𝑑 ≠ 0
Cuando el estadístico de prueba es 𝑡0 entonces
𝑝 − valor = 𝑝(𝑡𝑛−1 ≥ |𝑡0|) = 1 − 𝑝(𝑡𝑛−1 < |𝑡0|)
= 2[1 − 𝑝(𝑡𝑛−1 < 𝑡0)]Prueba pareada
A.3 Teorema
Teorema. Sea𝑍𝑖𝑖𝑖𝑑~
𝑁(0,1)para 𝑖 = 1, 2, 3, … , 𝑣 y
∑𝑍2𝑖
𝑣
𝑖=1
= 𝑄1 + 𝑄2 + ⋯+ 𝑄𝑠
Apéndice
111
Donde 𝑠 ≤ 𝑣 y 𝑄𝑖 tiene𝑣𝑖 grados de libertad (𝑖 = 1, 2, … , 𝑠 ). Entonces 𝑄1, 𝑄2, . . , 𝑄𝑠
son variables aleatorias Ji-cuadrada independientes con 𝑣1, 𝑣2, … , 𝑣𝑠 grados de
libertad, respectivamente, si y solo si
𝑣 = 𝑣1 + 𝑣2 + ⋯+ 𝑣𝑠
A.4 Teorema
Teorema. Sean𝜒2𝑚
y𝜒2𝑛variables aleatorias independientes con distribución ji
cuadrada con 𝑛 y 𝑚 grados de libertad, respectivamente. Entonces,
𝐹 =𝜒2
𝑛
𝜒2𝑚
Tiene una distribución 𝐹 con 𝑛 y 𝑚 grados de libertad en el numerador y
denominador, respectivamente.
A.5 Calculo del 𝑝 valor para los distintos diseños experimetntales.
H0: 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑎 = 0 Vs 𝐻1: ∃𝜏𝑖diferente
Cuando el estadístico de prueba es 𝐹0 entonces
A.5.1
𝑝 − valor = 𝑝(𝐹𝑎−1,𝑁−𝑎 > 𝐹0)diseños completamente al azar
A.5.2
𝑝 − valor = 𝑝(𝐹𝑎−1,(𝑎−1)(𝑏−1) > 𝐹0)diseños de bloques completamente
al azar
Apéndice
112
A.6 Estadísticos equivalentes
𝐸𝑠𝑡𝑎𝑑𝑖𝑠𝑡𝑖𝑐𝑜𝑠 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑡𝑒𝑠
𝑡 =𝑦
1− 𝑦
2
𝑆𝑝√1
𝑛1+
1
𝑛2
𝑦 𝑡 = 𝑦1− 𝑦
2
𝑡 =𝑑
𝑆𝑑
√𝑛⁄
𝑦 𝑡 = 𝑑
𝐹 =𝑀𝑆𝑡𝑟𝑎𝑡
𝑀𝑆𝑒𝑟𝑟𝑜𝑟 𝑦 𝐹 = ∑ 𝑛𝑖
𝑡
𝑖=1|
𝑦𝑖
2 𝑑𝑜𝑛𝑑𝑒 𝑦
𝑖= ∑
𝑦𝑖𝑗
𝑛𝑖
𝑛𝑖
𝑗=1
Apéndice
113
Apéndice B B.1 Más sobre el principio de intercambiabilidad.
Sea 𝑋1, 𝑋2, … , 𝑋𝑛 una muestra aleatoria simple entonces la colección de 𝑛 variables
es intercambiable.
La función de distribución conjunta de las variables aleatorias de la muestra
aleatoria simple es la siguiente:
𝑓(𝑋1, 𝑋2, … , 𝑋𝑛) = ∏𝑓(𝑋𝑖)
𝑛
𝑖=1
La función de densidad conjunta para cualesquier permutación es la siguiente:
𝑓(𝑋𝑟(1), 𝑋𝑟(2), … , 𝑋𝑟(𝑛)) = ∏𝑓(𝑋𝑟(𝑖))
𝑛
𝑖=1
Sea 𝑟(𝑖) hace que la colección de variables aleatorias genere la permutación.
Entonces
∏𝑓(𝑋𝑖)
𝑛
𝑖=1
= ∏𝑓(𝑋𝑟(𝑖))
𝑛
𝑖=1
El concepto de intercambiabilidad es más débil que el concepto de
independencia. El siguiente ejemplo muestra que estos términos no son
equivalente.
Supongamos que tres v.a 𝑋1, 𝑋2, 𝑋3 cada una de las cuales puede tomar el valor
de 0 y 1 con función masa definida de la siguiente manera:
𝑃( 𝑋1 = 0, 𝑋2 = 1, 𝑋3 = 1) = 𝑃(a 𝑋1 = 1, 𝑋2 = 0, 𝑋3 = 1)
= 𝑃(a 𝑋1 = 1, 𝑋2 = 1, 𝑋3 = 0) = 13⁄
Cualquier otra combinación de los valores tiene probabilidad cero, tanto de las
tres en bloque como de dos o de una de las variables. La colección (𝑋1, 𝑋2, 𝑋3)
es intercambiable por que cumple la definición, sin embargo no son intendentes
𝑃( 𝑋1 = 0, 𝑋2 = 1, 𝑋3 = 1) = 13⁄
Pero
𝑃( 𝑋1 = 0)𝑃( 𝑋2 = 1)𝑃( 𝑋3 = 1) = 0
Apéndice
114
B.2. Diagrama de flujo para pruebas de permutación sistemática del diseño
completamente aleatorizado y parejas aleatorizadas.
NO
SI
SI
NO
Salir
Calcular 𝑝
𝑛𝑔𝑒𝑘⁄
¿𝑇(𝑖) Es más extremo que
𝑇?
Calcular el estadístico 𝑇(𝑖)
Para 𝑖 en Π
Generar el conjunto de todas las
combinaciones denotado como Π
Calcular 𝑘 es el número de permutaciones:
(𝑛
𝑛1 𝑛2) 𝑜 2𝑟é𝑝𝑙𝑖𝑐𝑎𝑠
Mostrar los datos
Seleccionar el
estadístico 𝑇
Calcular el valor del
estadístico para los
datos experimentales 𝑇
Sumar 1 a 𝑛𝑔𝑒
Apéndice
115
B3. Datos del ejemplo 2.4.2
Ejemplar Punta 1 Punta 2
1 7 6
2 3 3
3 3 5
4 4 3
5 8 8
6 3 2
7 2 4
8 9 9
9 5 4
10 4 5
Datos del experimento de la prueba de la dureza.
Apéndice
116
B.4. Cuadro de comparaciones de pares de medias del ejemplo 2.4.1.
Comparaciones P valor 𝒕 de
permutación Método BH
Ajuste del 𝒑 valor Bonferroni
Tukey de permutación
Tratamiento 1 Vs tratamiento 3
0.001 0.0167 0.0029 Significancia
Tratamiento 2 Vs tratamiento 3
0.0127 0.0333 0.0381 No significancia
Tratamiento 1 Vs tratamiento 2
0.251 0.05 0.7529 No significancia
B.5. Código para realizar la simulación de la función potencia.
def simulacion(m0,m1,sigma0,sigma1):
j=1
rechazo=0
rechazo_para=0
while j <= 100:
x=[random.gauss(m0,sigma0) for _ in range(10)]
y=[random.gauss(m1,sigma1) for _ in range(10)]
lis=[x]+[y]
t_para=t0_parametrica(lis)
if abs(t_para) > 2.23:
rechazo_para+=1
t_obt=t0_cal(lis)
p=0
i=0
g=[]
b=[]
while i < 999:
perm=rem(lis,False)
g.append(perm)
t_rem=t0_cal(perm)
b.append(t_rem)
Apéndice
117
if abs(t_rem) >=abs( t_obt):
p+=1
i+=1
p_valor=float((p)+1)/(999+1)
if p_valor <= 0.05:
rechazo+=1
j+=1
return rechazo, rechazo_para
Apéndice
118
Apéndice C C.1 Códigos python del diseño completamente aleatorizado con permutación
sistemática
C.1.1
def t0_alea(x,y,z):
mediatra=float(sum(x[0:y]))/len(x[0:y])
mediacont=float(sum(x[y:y+z]))/len(x[y:y+z])
dif=mediatra-mediacont
return dif
C.1.2
from itertools import combinations... Es un paquete cargado en python
def perm_ale(x,n):
a=[]
cont=0
perm=[]
y=list(combinations (x,n))
for i in y:
for j in x:
if j not in list(i):
a.append(j)
cont+=1
if cont== len(x)-n:
cont=0
break
perm.append(list(i)+a)
a=[]
return perm
Apéndice
119
C.2 Códigos python del diseño completamente aleatorizado con permutación
aleatoria
C.2.1
def t0_cal(x):
mediatra=float(sum(x[0]))/len(x[0])
mediacont=float(sum(x[1]))/len(x[1])
dif=mediatra-mediacont
return dif
C.2.2
from tam import tam.
from muestra import muestra
from urna import urn
def rem(x,y):
if y==True:
mues=[]
m=urn(x)
for i in tam(x):
a=muestra(m,i,True)
mues.append(a)
return mues
else:
mues=[]
m=urn(x)
for i in tam(x):
a=muestra(m,i,False)
mues.append(a)
return mues
C.2.2.1
def tam(x):
l=[]
for i in x:
Apéndice
120
l.append(len(i))
return l
C.2.2.2
import random... Función cargada en python
def muestra(x,t,l):
while len(x)<t:
print 'error'
a=[]
c=0
if l==True:
while t>c:
i=random.randint(0,len(x)-1)
a.append(x[i])
c+=1
return a
else:
while t>c:
i=random.randint(0,len(x)-1)
a.append(x[i])
del x[i]
c+=1
return a
C.2.2.3
def urn(x):
urna=[]
for i in x:
for j in i:
urna.append(j)
return urna
Apéndice
121
C.3 Códigos python del diseño de parejas aleatorizadas con permutación
sistemática
C.3.1
from agre import agregar
from cont import contar
import random
def permuta(t):
d=1
s=1
u=0
k=0
c=0
m=[]
g=[]
z=0
for l in contar(t):
while z<l:
a=True
while s<=t:
if a==True:
if t>d:
w=random.randint(0,1)
if w==1:
m.append(w)
u+=1
s+=1
if u==d:
a=False
opc=1
else:
m.append(w)
c+=1
s+=1
if c==(t-d):
Apéndice
122
a=False
opc=0
else:
a=False
opc=0
s=s
else:
if opc==1:
w=0
m.append(w)
s+=1
else:
w=1
m.append(w)
s+=1
if agregar(m,g)==True:
g.append(m)
k+=1
z+=1
else:
g=g
k=k
z=z
c=0
u=0
s=1
m=[]
z=0
d+=1
k=0
return g
C.3.1.1
def agregar(x,y):
if x not in y:
Apéndice
123
return True
else:
return False
C.3.1.2
from math import factorial Función precargada en python
def contar(x):
m=[]
for i in range(1,x+1):
a=factorial(x)/(factorial(i)*factorial(x-i))
m.append(a)
return m
C.3.2
def cambio(x,y,m):
g=[]
q=[]
dif1=[]
g1=[]
for i in range(len(y)):
for j in range(m):
if y[i][j]==1:
a=x[0][j]
b=x[1][j]
x[0][j]=b
x[1][j]=a
g.append(x[0][j])
g1.append(x[1][j])
x[0][j]=a
x[1][j]=b
else:
x[0][j]=x[0][j]
x[1][j]=x[1][j]
g.append(x[0][j])
Apéndice
124
g1.append(x[1][j])
for j in range(m):
d=g[j]-g1[j]
dif1.append(d)
t0=float(sum(dif1)/m)
q.append(t0)
g=[]
g1=[]
dif1=[]
return q
C.4 Códigos python del diseño completamente al azar con permutación aleatoria
C.4.1
from ss import sstot
from sst import sstrat
def f0(x,y,z):
sum_e=sstot(x)-sstrat(x)
f0=(sstrat(x)/y)/(sum_e/z)
return f0
C.4.1.1
from cuadrado import cuad
def sstot(x):
sum0=0
sum1=0
l=0
lis=[]
for i in x:
l+=len(i)
a=cuad(i)
b=sum(a)
lis.append(b)
sum1+=sum(i)
sum0=sum(lis)
Apéndice
125
sum_t = sum0-float((sum1*sum1))/l
return sum_t
La función cuad se muestral enseguida:
def cuad(x):
lis=[]
for i in x:
lis.append(i*i)
return lis
C.4.1.2
def sstrat(x):
sum1=0
l=0
lis=[]
for i in x:
l+=len(i)
a=sum(i)
b=float((a)*(a))/len(i)
lis.append(b)
sum1+=a
sum0=sum(lis)
sum_trat= sum0-float((sum1*sum1))/l
return sum_trat
C.4.2.
from itertools import combinations
def tukey_perm(x,y):
c=[]
d=[]
w=list(combinations(range(y),2))
for i in x:
for j in w:
m=list(j)
Apéndice
126
s=abs(float(sum(i[m[1]]))/len(i[m[1]])- float(sum(i[m[0]]))/len(i[m[0]]))
c.append(s)
d.append(max(c))
c=[]
return d
También se utiliza la función t0_ale definida en C.1.1 y la función perm_ale
definida en C.1.2.
C.5 Códigos python del diseño completamente de bloques completamente al azar
con permutación aleatoria
C.5.1
from ss_bloq import sstot
from sstrat import sstrat
from ssbloq import ssbloq
def f0_bloq(x,y,z,a,b):
suma_e=sstot(x,a,b)-ssbloq(x,a,b)-sstrat(x,a,b)
f0=(sstrat(x,a,b)/y)/float(suma_e/z)
return f0
from cuadrado import cuad...Es mismo expuesto en la sección C.4.1.1
C.5.1.1
def sstot(x,a,b):
sum0=0
sum1=0
lis=[]
for i in x:
c=cuad(i)
d=sum(c)
lis.append(d)
sum1+=sum(i)
sum0=sum(lis)
sum_t = sum0-float((sum1*sum1))/(a*b)
return sum_t
Apéndice
127
C.5.1.2
def ssbloq(x,a,b):
sum1=0
lis=[]
for i in x:
c=sum(i)
lis.append(c*c)
sum1+=sum(i)
sum0=float(sum(lis))/a
sum_bloq=sum0-float((sum1*sum1))/(a*b)
return sum_bloq
C.5.1.3
From trans import trans
def sstrat(x,a,b):
sum1=0
lis=[]
t_x=trans(x)
for i in t_x:
c=sum(i)
lis.append(c*c)
sum0=float(sum(lis))/b
for i in x:
sum1+=sum(i)
sum_trat=sum0-float((sum1*sum1))/(a*b)
return sum_trat
La función trans se muestral enseguida:
def trans(x):
x1=[]
for i in range(len(x[0])):
x1.append([0]*len(x))
for i in range(len(x1)):
for j in range(len(x1[0])):
x1[i][j]=x[j][i]
Apéndice
128
return x1
C.5.3
from muestra import muestra
from urna_bloq import urna_bloq
def rem_bloq(x,y):
mues=[]
if y==True:
for i in x:
m=urna_bloq(i)
a=muestra(m,len(m),True)
mues.append(a)
return mues
else:
for i in x:
m=urna_bloq(i)
a=muestra(m,len(m),False)
mues.append(a)
return mues
C.5.3.1.
def urna_bloq(x):
urna=[]
for i in x:
urna.append(i)
return urna1
C.5.3.2.
Esta función aunque denomina igual que en el caso del diseño completamente al
azar el código no es el mismo para el diseño de bloques.
def tukey_perm(x,y):
c=[]
d=[]
w=list(combinations(range(y),2))
for j in w:
m=list(j)
Apéndice
129
s=abs(float(sum(x[m[1]]))/len(x[m[1]])-float(sum(x[m[0]]))/len(x[m[0]]))
c.append(s)
d=(max(c))
return d
La función cambio también se emplea en esta prueba pero se muestra el apéndice
C.3.2 de la misma manera la función
130
Literatura citada
Aponte, L. (2012). Propuesta de una prueba basada en permutaciones para la
igualad de K medias bajo heterocedasticidad. Bogotá: Tesis doctoral.
Universidad Nacional de Colombia.
Baustista, F., & Gómez, E. (2007). Una exploración de robustez de tres pruebas:
dos de permutacipon y la de Mann-Whitney. Revista Colombiana de
Estadística, 177.
Bejamini, Y., & Hochberg, Y. (1995). Controlling te False Discovery Rate: A
practical and Powerful Approach to Multiple Testing. Journal of the Royal
Statistical Society, 289-300.
Box, G. E., Hunter, J. S., & Hunter, W. G. (2008). Estadistica para investigadores.
España: Reverté.
Bradley, J. V. (1968). Distributions-free statistical tests. Englewood: Prentice-Hall.
Casella, G., & Berger, R. L. (2002). Statistical Inference. México: Duxbury
Thomson Learning.
Dean , A., & Voss, D. (1999). Design and Analysis of Experiments. New York :
Springer.
Edgington, E. S. (1995). Randomization Tests. New York: Marcel Dekker.
Edginton , E. S., & Onghena, P. (2007). Randomization Tests. New York:
Chapman y Hall/CRC.
Ernst, D. M. (2004). Permutation Methods: A Basis for Exact Inference. Statistical
Science, 676-685.
Gleason, J. (2013). Comparative Power o the Anova, Randomization Anova and
Kruskal Wallis Test. Detroit: Doctoral thesis. Wayne State University.
131
Gleason, J. (2013). Comparative Power of the Anova Randomization Anova,
Kruskal-wallis Test. Wayney State University Dissertations, 658.
Good, P. (1993). Permutation Test. New York: Springer Series in Statistics.
Good, P. (2000). Permutation, Parametric and Bootstrap. New York: Springer
Series in Statistics.
Good, P. (2002). Extensions of the Concept of Exchangeability and Their
Applications . Journal of Modern Applied Statistical Methods, 243-247.
Hollander, M., & Wolfe, D. A. (1999). Noparametric Statistical Methods. New York:
John Wiley y Sons, INC.
Hsu, J. C. (1996). Multiple Comparisons (Theory and methods). New York:
CHAPMAN y HALL/CRC.
Ledesma, R. (2008). Introducción al Bootstrap. Tutorials in Quantitative Methods
for Psychology, 51-60.
Manly, B. F. (2007). Randomization, Bootstraping and Monte Carlo Methods in
Biology. New York: Chapman y Hall/CRC.
Montgomery, D. C. (2004). Diseños de Análisis de Experimentos. México: Limusa
Wiley.
Morales Reyes, L. (2010). Analsis de inferencia Estadística. Tesis de licenciatura.
Universidad Autonoma Chapingo.
Myles, H., & Douglas, A. (1999). Nonparametric Statstical Methods. New York:
Wiley.
Neave, H. R., & Worthington, P. L. (1988). Distribution free tests. London: Unwin
Hyman.
Noreen, E. W. (1989). Computer Intensive Methods for Testing Hypotheses An
Introduction. New York: John Wiley y Sons.
132
Noreen, E. W. (1989). Computer Intensive Methods for Testing Hypotheses An
Introduction. New York: JOHN WILWY & SONS.
Ramírez, G. (1986). Supuestos del análisis de varianza. Texcoco: Tesis de
licenciatura. Universidad Autónom Chapingo.
Rizzo, M. L. (2008). Statistical Computing with R. New York: Chapman y Hall/CRC.
Rodgers, J. L. (1999). The Boststrap, the Jacknife and Randomization Test: A
sampling Taxonomy. Multivariate Behavioral Research, 441-4456.
Simon, J. L. (19 de Septiembre de 1997). Resampling Stats. Obtenido de
Resampling: The New Statistics: www.resample.com/introtext-online/
Westfall, P. H., & Young, S. S. (1993). Resampling Based Mutiple Testing.
Examples and methods for p value adjustment. New York: John Wiley y
Sons.